- ¿Alguna pregunta?
- tel:954 55 68 17
Deep Learning
- Complementos Optativos
- 0 (registrado)
El Deep Learning es el motor detrás de la revolución tecnológica actual desde la Inteligencia Artificial. Ya no hablamos solo de conceptos abstractos, sino de la tecnología que hace posibles herramientas como ChatGPT, generadores de video hiperrealistas como Sora o sistemas de diagnóstico médico que superan la precisión humana. En este curso, te sumergirás en este universo utilizando PyTorch, el estándar indiscutible en la industria y la investigación, diseñado para ser intuitivo, flexible y extremadamente potente.
A lo largo del programa, aprenderás a construir y entrenar arquitecturas complejas desde cero, dominando el aprovechamiento de hardware especializado como las GPUs. Entenderás cómo estas unidades de procesamiento masivo permiten que modelos de visión artificial y procesamiento de lenguaje natural (NLP) realicen en segundos cálculos que a una CPU le tomarían días.
Si buscas pasar de ser un consumidor de IA a convertirte en un creador capaz de desplegar modelos inteligentes punteros, este curso es tu puerta de entrada. Al finalizar, no solo conocerás los tipos de redes que existen, sino que sabrás cómo lidiar con los problemas críticos del entrenamiento, asegurando que tus soluciones sean robustas, escalables y, sobre todo, eficaces.
Currículum
- 7 secciones
- 36 lecciones
- 4 semanas
- Módulo 1. IntroducciónMódulo de introducción, con motivación a aprender Deep Learning, vista de contenidos de la asignatura, repaso a conceptos claves en el aprendizaje automático, y a las redes neuronales básicas.3
- Módulo 2. Fundamentos TeóricosDescripción de conceptos fundamentales de las redes neuronales, desde el entrenamiento, el concepto de retropropagación de gradientes, a los elementos básicos de las redes así como su interpretación tensorial.4
- Módulo 3. Fundamentos PrácticosUn módulo muy práctico, para introducirse a PyTorch y repasar fundamentos y conceptos clave a la hora de entrenar y configurar redes neuronales.5
- Módulo 4. Entrenamiento EficienteConceptos clave para entrenar redes neuronales de forma eficiente. Por un lado, cómo conseguir modelos más eficientes en términos de comportamiento (más robustos y evitando el sobreajuste). Por otro lado, cómo hacer el entrenamiento más rápido usando hardware paralelo, y cómo desplegar modelos, así como se calibran los hiperparámetros.5
- Módulo 5. Modelos para Visión por ComputadorEn este módulo nos centramos principalmente en estudiar las redes convolucionales, viendo cómo funcionan, cómo se entrenan desde cero y cómo usar modelos pre-entrenados para tareas de visión.9
- 6.1Tema 5.1. Contexto de las redes convolucionales30 minutos
- 6.2Tema 5.2. Redes Convolucionales30 minutos
- 6.3Práctica 5.1. Introducción a CNN y GPU30 minutos
- 6.4Práctica 5.2. CNN con regularización30 minutos
- 6.5Tema 5.3. Arquitecturas de redes convolucionales actuales30 minutos
- 6.6Práctica 5.3. Inferencia con CNNs pre-entrenadas
- 6.7Tema 5.4. Transferencia de Aprendizaje
- 6.8Práctica 5.4. Transfer Learning con CNNs pre-entrenadas
- 6.9Práctica 5.5. Localización de objetos
- Módulo 6. Modelos para Procesamiento de Lenguaje NaturalEn este módulo se estudian los modelos para trabajar con datos de secuencias. Estas secuencias pueden ser tanto series temporales como lenguaje natural. Estudiaremos tanto las redes recurrentes como los transformers.6
- 7.1Tema 6.1. Modelos de secuencias y texto
- 7.2Tema 6.2. Redes recurrentes
- 7.3Práctica 6.1. Introducción a modelos de texto: Codificación one hot de textos e inmersiones de palabras. Convolución 1D. LSTM.
- 7.4Práctica 6.2. Redes recurrentes y series temporales.
- 7.5Tema 6.3. Modelos con mecanismo de atención
- 7.6Práctica 6.3. Implementación de un Transformer
- Módulo 7. Modelos GenerativosPor último, veremos cómo usar modelos para generar nuevos datos. En las prácticas nos centraremos en usar modelos de difusión para imágenes, y modelos grandes del lenguaje (LLM) para texto.4
Profesor
Miguel Ángel es Profesor Ayudante Doctor del Departamento de Ciencias de la Computación e Inteligencia Artificial de la Universidad de Sevilla. Entre sus líneas de investigación, de caracter multidisciplinar, se incluye el uso de GPUs (procesadores gráficos) en computación de alto rendimiento con aplicaciones a la simulación de modelos bioinspirados y compresión de imágenes, y también el uso de Deep Learning en la clasificación automática de vídeo e imagen en cine digital. En cuanto a su trayectoria docente, cabe destacar su experiencia en asignaturas sobre Inteligencia Artificial, Bioinformática y Programación Funcional. Ha dirigido diversos Proyectos Fin de Carrera, Trabajos Fin de Grado y Trabajos Fin de Máster, todos relacionados con GPU computing, Deep Learning y Computación Bioinspirada. Además, desde Octubre de 2018 es embajador académico del NVIDIA Deep Learning Institute. Bajo este paraguas, Miguel Ángel organiza talleres sobre Deep Learning, Data Science y GPU computing con CUDA.




