Objetivo: Convertirte en profesional de IA en 12–15 meses, con matemáticas sólidas y dominio de las IAs más útiles hoy:
ML clásico, Deep Learning, NLP, LLMs, Generative AI, Visión, Recomendadores, Forecasting y MLOps.
Resultado: Portafolio con 10+ proyectos reales, APIs en producción y un motor de predicción de compras con métricas de negocio.
- Qué: vectores, matrices, normas, autovalores, SVD, PCA.
- Usos: embeddings, reducción de dimensión, visión.
- Recursos:
- Libro: Mathematics for Machine Learning.
- 3Blue1Brown — Álgebra lineal.
- Entregable: notebook con PCA desde cero.
- Qué: gradientes, Jacobianos, descenso de gradiente, Adam.
- Usos: backprop, tuning de hiperparámetros.
- Recursos:
- Artículo: Matrix Calculus for Deep Learning.
- MIT OCW — Multivariable Calculus.
- Entregable: derivada de MSE y logística validada con autograd.
- Qué: distribuciones (Bernoulli, Normal, Poisson), Bayes, bootstrap.
- Usos: regresión logística, incertidumbre en forecast.
- Recursos: Practical Statistics for Data Scientists, StatQuest.
- Entregable: notebook con intervalos de confianza usando bootstrap.
- Qué: autocorrelación, ARIMA, Holt-Winters.
- Usos: forecasting de demanda.
- Recurso: Forecasting: Principles and Practice (Hyndman).
- Semana 1–2: Python avanzado, NumPy, Pandas.
- Proyecto: calculadora matricial + EDA Titanic.
- Semana 3: Visualización (Matplotlib, Seaborn).
- Proyecto: distribuciones de dataset real.
- Semana 4: Regresión lineal desde cero + scikit-learn.
- Proyecto: predicción de precios (California Housing).
- Semana 5–6: Regresión logística, Árboles, Random Forest.
- Proyecto: predicción de churn.
- Semana 7: KNN y SVM.
- Proyecto: clasificador de dígitos.
- Semana 8: Clustering (K-means, DBSCAN), PCA.
- Proyecto: segmentación de clientes.
- Semana 9: Gradient Boosting (XGBoost, LightGBM, CatBoost).
- Proyecto: predicción de churn con boosting.
- Semana 10: Pipelines sklearn + MLflow.
- Proyecto: predicción de precios de coches con pipeline completo.
- Semana 11: MLP básico (PyTorch/Keras).
- Proyecto: MNIST con MLP.
- Semana 12: Optimización (SGD, Adam), regularización (dropout, batchnorm).
- Proyecto: comparar con/sin dropout.
- Semana 13: CNN.
- Proyecto: Cats vs Dogs.
- Semana 14: Transfer Learning (ResNet, MobileNet).
- Proyecto: clasificador de imágenes con modelo preentrenado.
- Semana 15: RNN y LSTM.
- Proyecto: predicción de texto carácter a carácter.
- Semana 16: Word embeddings (Word2Vec, GloVe).
- Proyecto: clasificador de reviews de Amazon.
- Semana 17: Transformers (BERT).
- Proyecto: clasificación de texto con BERT.
- Semana 18: Proyecto integrador: Chatbot Django + Transformers.
- Semana 19: Prompt engineering + LangChain.
- Proyecto: chatbot con prompts dinámicos.
- Semana 20: Fine-tuning ligero (LoRA, PEFT).
- Proyecto: clasificador de documentos PDF.
- Semana 21: Stable Diffusion.
- Proyecto: generador de logotipos.
- Semana 22: Text-to-SQL + búsqueda semántica (pgvector, FAISS).
- Proyecto: buscador inteligente sobre BD.
- Semana 23: Forecast de demanda (ETS/ARIMA, walk-forward).
- Proyecto: motor de predicción de compras.
- Semana 24: Integración Django + Vue + API IA.
- Proyecto: dashboard interactivo.
- Semana 25: Docker para ML.
- Proyecto: contenedor reproducible.
- Semana 26: FastAPI + ONNX Runtime.
- Proyecto: API de predicciones.
- Semana 27: Kubernetes (minikube/k3d).
- Proyecto: despliegue cluster local.
- Semana 28: MLflow + DVC.
- Proyecto: versionado de modelos.
- Semana 29: CI/CD con GitHub Actions.
- Proyecto: pipeline automático.
- Semana 30: Proyecto final en Cloud (AWS/GCP/Azure).
- Entrega: API IA escalable en producción.
- ML clásico: regresión, árboles, boosting.
- DL: MLP, CNN, RNN.
- Transformers/LLMs: BERT, GPT, LoRA.
- Generative AI: Stable Diffusion, text-to-image.
- RAG: Retrieval-Augmented Generation.
- Recomendadores: embeddings, colaborativos.
- Forecasting: ARIMA, Croston, Holt-Winters.
- MLOps: Docker, FastAPI, K8s, MLflow, CI/CD.
- Datos: NumPy, pandas, Polars, DuckDB.
- ML clásico: scikit-learn, XGBoost, LightGBM, CatBoost.
- DL: PyTorch, TensorFlow/Keras, timm, TorchMetrics, Lightning.
- Visión: OpenCV, Albumentations, YOLO.
- NLP/LLMs: Hugging Face (Transformers, Datasets), spaCy, SentencePiece, vLLM, TGI, llama.cpp.
- RAG: FAISS, pgvector, Qdrant, LangChain, LlamaIndex.
- Calidad/monitoreo: Evidently, Great Expectations, Ragas, Langfuse.
- Serving: FastAPI, ONNX Runtime, NVIDIA Triton, BentoML.
- MLOps: MLflow, DVC, Prefect/Airflow, KServe.
- Web/móvil: Transformers.js, TensorFlow.js, TFLite, ML Kit.
-
Libros
- Hands-On Machine Learning (Géron).
- Deep Learning (Goodfellow).
- Practical Statistics for Data Scientists.
- Forecasting: Principles and Practice (Hyndman).
-
Cursos
- Andrew Ng — Machine Learning Specialization (Coursera).
- Hugging Face — NLP with Transformers.
- Fast.ai — Practical Deep Learning.
-
YouTube
- 3Blue1Brown (matemáticas visuales).
- StatQuest (ML y estadística clara).
- Sentdex (PyTorch práctico).
-
Repos
- Módulo 0 — Matemáticas esenciales.
- Módulo 1 — Fundamentos.
- Módulo 2 — ML clásico.
- Módulo 3 — Deep Learning.
- Módulo 4 — Generativa + Forecasting + NLP avanzado.
- Módulo 5 — MLOps.
- Proyecto final desplegado en Cloud.
Este README es tu contrato de aprendizaje:
- Cada semana entrega un notebook + README del proyecto.
- Sube screenshots y métricas a
/reports. - Documenta un post-mortem corto: qué aprendiste y qué mejorarás.