FACULTAD DE CIENCIAS EXACTAS DE LA UNICEN

1 año / 6 módulos

2 seminarios especiales

+15 docentes / 50 alumnos

Cursada 2025 modalidad virtual

Módulo #4

22/08/2025 al 06/09/2025

Redes Neuronales

Las redes neuronales refieren a un conjunto de técnicas de aprendizaje de máquina basado en simplificaciones del funcionamiento de las neuronas biológicas. En los últimos años, técnicas basadas en redes neuronales, en especial las conocidas como Deep Learning, han superado a técnicas tradicionales en áreas tan diversas como análisis de imágenes o procesamiento del lenguaje natural. El motor de este avance ha sido la mejora en la computación masivamente paralela (mayoritariamente GPGPU) y la abundancia de datos disponibles. El objetivo del módulo es que el alumno conozca los distintos tipos de redes neuronales utilizados habitualmente en diversos dominios, una intuición de su funcionamiento básico, y las herramientas para que pueda adaptar estas técnicas a otros dominios.

Objetivos de aprendizaje

Que el alumno logre:

  • Estudiar, interpretar y preparar una base de datos para el desarrollo de una solución basada en redes neuronales.
  • Seleccionar y validar diferentes arquitecturas de redes neuronales para determinar cuál es la mejor para su problema.
  • Definir y evaluar los diferentes hiperparámetros presentes en una red neuronal.
  • Desarrollar soluciones basadas en redes neuronales en Python.
  • Documentar las soluciones con la terminología apropiada.

Contenidos

Unidad 1: Perceptrón y Gradient Descent (Clase 1)

Concepto del perceptrón. Problema de la actualización de pesos. Función de pérdida. Introducción intuitiva al concepto de gradiente. Implementación de un perceptrón para un problema básico.

Unidad 2: Perceptrón multicapas – Bias y Varianza (Clase 2)

Del perceptrón al perceptrón multicapas. Concepto de función de activación. Capa oculta y sus hiperparámetros. Error de entrenamiento y test. Dropout y GaussianNoise.

Unidad 3: Lenguaje Natural (Clase 3)

Procesamiento de lenguaje natural. Representación basada en bag-of-words. Comparación con técnicas tradicionales.

Word Embeddings: Word2Vec, GloVe, FastText.

Redes Recurrentes: LSTM, GRU, Bidirecciónales. Bucketing y Padding.

Unidad 4: Redes Convolucionales (Clase 4)

Filtros convolucionales y su aplicación a las imágenes. Representación de las imágenes como matrices. Adaptando el filtro convolucional al problema de clasificación de imágenes.

Unidad 5: Lenguaje Natural attention y Transformers (Clase 5)

Mecanismo de Attention. Su aplicación a Transformers. Embeddings posicionales.

Otras aplicaciones de transformers. Visual Transformers.

Modelos transformers preentrenados para texto e imágenes.

Unidad 6:Más allá de lo básico (Clase 6)

Creando nuevos datos a través de data augmentation. Utilizar redes pre-entrenadas para realizar extracción de características y utilizarlas en otros métodos de aprendizaje de máquina. Utilizar redes pre-entrenadas como parte de nuestra red para reducir los tiempos de entrenamiento.

Usos avanzados: Variational Autoencoders, Diffusion, Modelos multi modales.

Metodología de trabajo

Las clases se dictarán de manera teórico/práctica. Al término de cada exposición teórica, los/as alumnos/as desarrollarán una guía de trabajos prácticos en máquina, que integre los conocimientos dictados previamente. A tal fin, se proveerán guías en forma de notebooks Python sobre la plataforma Google Colab. Durante la práctica el plantel docente responderá las dudas puntuales de los/as estudiantes.

Mecanismo de evaluación

La evaluación se realizará mediante la entrega de un trabajo donde se evaluará la utilización de los contenidos aprendidos para entrenar un modelo de redes neuronales.

Bibliografía sugerida

  • Goodfellow, Ian. Deep learning. Vol. 196. MIT press, 2016.
  • Waswani, A., et al. “Attention is all you need.” NIPS. 2017.
  • Li, Junnan, et al. “Blip-2: Bootstrapping language-image pre-training with frozen image encoders and large language models.” International conference on machine learning. PMLR, 2023.
DOCENTES


Juan Manuel Rodriguez

Doctor en ciencias de la computación por la UNICEN. Es certificador oficial de Nvidia DLI. Ha publicado más de 40 artículos en revistas y conferencias especializadas. Actualmente es profesor asistente de la Universidad de Aalborg e investigador de CONICET.


Ingrid Christensen

Doctora en Ciencias de la Computación (UNCPBA).
Co-fundadora y Chief Data Scientist en Kobayashi Maru Capital. Especializada en IA con múltiples certificaciones en Data Science, Machine Learning y Deep Learning. Docente en Universidad de Palermo y en UNCPBA.


Antonela Tommasel

Doctora en Ciencias de la Computación (UNICEN) e investigadora de CONICET. Especializada en sistemas de recomendación, applied NLP, social computing y social network analysis.

CLASE #1

22/08/2025

CLASE #2

23/08/2025

CLASE #3

29/08/2025

CLASE #4

30/08/2025

CLASE #5

05/09/2025

CLASE #6

06/09/2025