- Complementos Optativos
- 0 (registrado)
En este curso vamos a adentrarnos en el área que ha revolucionado la Inteligencia Artificial en los últimos años: el Deep Learning o aprendizaje profundo. Hoy en día este área ha mostrado unos resultados sorprendentes en multitud de aplicaciones: visión artificial, reconocimiento del habla, conducción autónoma, vídeo vigilancia, predicción en series temporales, imágenes médicas, generación de imágenes fotorealistas, chatbots, etc.
Estudiaremos los conceptos fundamentales de las redes neuronales profundas y las técnicas asociadas a estas, así como los entornos software (TensorFlow y Keras) y hardware (GPUs y TPUs) necesarios para ponerlas en funcionamiento con la mayor eficiencia posible. Al finalizar conocerás los tipos de redes que existen, cómo construirlas y cómo lidiar con la multitud de problemas que aparecen durante su entrenamiento. Todo ello hará que seas capaz de afrontar y solucionar problemas que requieran de aprendizaje profundo con la mayor probabilidad de éxito posible.
Si estás interesado en aprender cómo se aplican estas técnicas para aplicaciones inteligentes punteras, este es un curso que no te debes perder.
Contenidos
-
Módulo 1. Introducción
-
Lecture1.11.1. Motivación del Deep Learning 30 min
-
Lecture1.21.2. Introducción a la inteligencia artificial (IA) 30 min
-
Lecture1.31.3. Introducción al aprendizaje automático (AA): ¿qué es aprender? 30 min
-
Lecture1.41.3. Tipos de algoritmos en aprendizaje automático: clasificación vs regresión, supervisado vs no supervisado vs refuerzo 30 min
-
Lecture1.51.4. La construcción de un modelo de AA en 5 pasos 30 min
-
-
Módulo 2. Redes Neuronales Artificiales (RNAs)
-
Lecture2.12.1. Introducción: la neurona artificial, redes multicapa y representación matricial 30 min
-
Lecture2.22.2. Optimización I: funciones de pérdida, descenso por gradiente y variantes (SGD, Momentum, ADAGrad, RMSProp, Adam, …) 30 min
-
Lecture2.32.3. Optimización II: retropropagación y grafo computacional 30 min
-
Lecture2.42.4. Configuración de una RNA I: funciones de activación no lineales (sigmoide, softmax, tanh, relu…) 30 min
-
Lecture2.52.5. Configuración de una RNA II: inicialización de pesos
-
-
Módulo 3. Entornos para Redes Neuronales Artificiales
-
Lecture3.13.1. Software para Deep Learning 30 min
-
Lecture3.23.2. Hardware para Deep Learning 30 min
-
Lecture3.33.3. Introducción a TensorFlow 2 30 min
-
Lecture3.43.4. Introducción a Keras 30 min
-
Lecture3.53.5. Clasificación binaria con Keras 30 min
-
Lecture3.63.6. Clasificación multiclase con Keras 30 min
-
Lecture3.73.7. Regresión con Keras 30 min
-
-
Módulo 4. Técnicas de Regularización
-
Lecture4.14.1. Regularización sobre el modelo: sobreajuste, regularización L1/L2, early stopping, ensemble, dropout 30 min
-
Lecture4.24.2. Regularización sobre los datos: preprocesado, aumentado de datos 30 min
-
Lecture4.34.3. Regularización con Keras 30 min
-
Lecture4.44.4. Optimización de hiperparámetros 30 min
-
-
Módulo 5. Redes Neuronales Convolucionales (CNN)
-
Lecture5.15.1. Aprendizaje profundo: jerarquía de características 30 min
-
Lecture5.25.2. Evolución: del experimento Hubel&Wiesel a LeNet pasando por Neocognitron 30 min
-
Lecture5.35.4. Arquitectura de una CNN: convolución, pooling, batch normalization 30 min
-
Lecture5.45.4. CNNs secuenciales: AlexNet, VGG 30 min
-
Lecture5.55.5. CNNs no secuenciales: Inception, ResNet 30 min
-
Lecture5.65.6. CNNs para detección de objetos: R-CNN, YOLO
-
Lecture5.75.7. Transferencia de aprendizaje: transfer learning y fine tuning
-
Lecture5.85.8. Redes convolucionales en Keras
-
Lecture5.95.9. Redes pre-entrenadas en Keras
-
Lecture5.105.10. Visalización de filtros convolucionales con Keras
-
-
Módulo 6. Modelos de Secuencias
-
Lecture6.16.1. Modelado de secuencias
-
Lecture6.26.2. Modelos para texto: tokenization y word embedding
-
Lecture6.36.3. Word embedding con Keras
-
Lecture6.46.4. Redes recurrentes: RNN básica, LSTM, GRU.
-
Lecture6.56.5. Redes convolucionales 1D para secuencias.
-
Lecture6.66.6. Modelos para series temporales con Keras: redes bidireccionales, dropout recurrente
-
Lecture6.76.7. Introducción a redes con atención: seq2seq y transformers
-
-
Módulo 7. Modelos Generativos
-
Lecture7.17.1. Generación de texto con LSTM
-
Lecture7.27.2. Deep Dream
-
Lecture7.37.3. Neural Style Transfer: transferencia de estilo artístico
-
Lecture7.47.4. Aplicaciones de modelos generativos
-
Lecture7.57.5. Autoencoders y VAEs
-
Lecture7.67.6. VAEs con Keras
-
Lecture7.77.7. Redes adversarias generativa: GANs, StyleGAN, Pix2Pix
-
Lecture7.87.8. GANs con Keras
-
-
Módulo 8. Conclusiones, retos y futuro
-
Lecture8.18.1. Retos y limitaciones del Deep Learning: one-shot learning, ejemplos adversarios
-
Lecture8.28.2. Futuro del Deep Learning
-
Contenidos
Acerca del instructor
Miguel Ángel Martínez del Amor