FACULTAD DE CIENCIAS EXACTAS DE LA UNICEN
1 año / 6 módulos
2 seminarios especiales
+15 docentes / 50 alumnos
Cursada 2025 modalidad virtual

Módulo #6
31/10/2025 al 15/11/2025
Tecnologías emergentes para aprendizaje automático e inteligencia artificial
Este curso cubre los fundamentos y técnicas avanzadas en procesamiento de datos, aprendizaje automático y Big Data. Se abordan temas como la ingeniería de características, las tecnologías actuales para trabajar con modelos de lenguaje de gran escala (LLMs), y las herramientas necesarias para desarrollar aplicaciones que aprovechen estas capacidades. Además, se exploran metodologías para la creación de pruebas de concepto y la implementación de soluciones tecnológicas innovadoras.
Objetivos de aprendizaje
Que el alumno logre:
- Comprender las distintas técnicas para el procesamiento de datos, con sus pros y contras, tanto para en sistemas de aprendizaje de máquina como de Big Data, y relacionar con tecnologías existentes.
- Aplicar ingeniería de características, con buen criterio, y de acuerdo a las necesidades de un problema en particular.
- Entender las tecnologías existentes para construir aplicaciones que aprovechen las capacidades de los Large Language Models (LLMs), así como también los patrones constructivos para este tipo de aplicaciones.
Desarrollar pruebas de concepto.
Contenidos
Unidad 1: Ingeniería de características
Tipos de características. Valores escalares, vectores y espacios. Problemas de dimensionalidad en los conjuntos de datos. Técnicas de selección de features. Reducción de dimensionalidad. PCA, UMAP. Aplicación de optimización de hiperparámetros.
Unidad 2: Introducción a Big Data
Caracterización de problemas de Big Data. Velocidad, volumen y veracidad. Bases de datos NoSQL. Esquemas de integración con aplicaciones ML.
Unidad 3: Bases de Datos NoSQL
Ejemplos sobre: MongoDB, Neo4J, Redis. Cassandra. Almacenamiento de vectores.
Unidad 4: Explicabilidad, fairness y drift de modelos ML
Explicabilidad local y global. Técnicas más comunes (por ej., SHAP, PDP, reglas). Atributos sensibles. Distintos tipos de drift, métricas de detección. Aplicación de optimización de hiperparámetros.
Unidad 5: Arquitecturas de integración con LLM.
Uso de memoria. Uso de bases vectoriales. Chatbots. RAG simple. Frameworks LlamaIndex y Langchain.
Unidad 6: Uso de patrones para aplicaciones con LLMs.
Agentes. Tools. Reflection. Workflows. RAG complejos.
Bibliografía sugerida
- “Feature Engineering for Machine Leaning: Principles and Techniques”. Alice Zheng y Amanda Casari. O’Reilly (2018)
“Designing Data-intensive Applications”. M. Kleppmann. O’Reilly. (2017) - “Big Data Fundamentals: Concepts, Drivers & Techniques”. P. Buhler, T. Elr, W. Khattak. Prentice-Hall (2016)
- “Seven databases in Seven weeks: A Guide to Modern Databased and the NoSQL Movement”, L. Perkins, E. Redmond, J. Wilson. Pragmatic Bookshelf. (2018)
- “Hands-on Large Language Models: Language Understanding and Generation”. J. Alammar, M. Grootendorst. O’Reilly Media. (2024)
- “Designing Machine Learning Systems: An Iterative process for Production-ready Applications”, C. Huyen. (2022)
Metodología de trabajo
Se dictarán encuentros en modalidad teórico/práctica, incluyendo presentaciones con slides y códigos Python de ejemplo, que los alumnos podrán utilizar para realizar pruebas propias o para su trabajo práctico especial. Al término de cada encuentro, se proveerán guías prácticas en forma de notebooks Jupyter y scripts Python, y adicionalmente mecanismos de integración con bases de datos NoSQL y servicios de IA generativa.
Metodología de evaluación
Los asistentes deberán presentar al término de la cursada la resolución de un trabajo práctico que involucre tópicos de al menos 2 unidades temáticas. Este trabajo práctico se realizará en grupos de 2-3 personas, que serán postulados por los propios estudiantes o en su defecto armados por la cátedra. Habrá posibilidad de una re-entrega, en los casos en los que la evaluación no sea satisfactoria.
DOCENTES
J. Andrés Diaz Pace
Dr. en CIencias de la Computación, profesor de UNICEN, miembro del Instituto ISISTAN (CONICET-UNICEN), y también Investigador Principal del CONICET. Sus principales intereses de investigación son: diseño de arquitectura impulsado por la calidad, técnicas de IA aplicadas a la ingeniería de software, y evolución y conformidad basadas en arquitectura. Actualmente se desempeña en el ámbito privado como arquitecto de aplicaciones basadas en LLMs y científico de datos.
Guillermo Rodriguez
Dr. en Ciencias de la Computación, miembro del Instituto ISISTAN (CONICET-UNICEN), Investigador Independiente de CONICET y profesor en UNICEN. Su trabajo se centra en la aplicación de tecnologías innovadoras para la creación de soluciones eficientes y escalables en el ámbito del desarrollo de software, así como en la integración de modelos de aprendizaje automático para la mejora de procesos y toma de decisiones.