Espejos Rotos: ¿Por qué mi modelo no es Justo?
13/12, 16:00–16:30 (America/La_Paz), Auditorio

¿Tu modelo es injusto? La IA no es neutral; refleja los sesgos de sus datos. Esta charla analiza cómo la historia y calidad de los datos impactan en el "Fairness". Detectar sesgos y aplicar estrategias de Gobernanza de datos y mitigación para construir modelos de IA éticos.


  1. Intro (5 min): Evolución de reglas a ML. Los datos como representación imperfecta de la realidad.
  2. Calidad de Datos (5 min): "Garbage In, Garbage Out". Tipos de sesgos (históricos/muestreo) y proxies ocultos que generan discriminación.
  3. Fairness (10 min): Definición de Justicia Algorítmica. Análisis de casos reales de fallas éticas. Métricas clave para medir sesgos en modelos.
  4. Gobernanza y Mitigación (5 min): Roles y auditoría de datos. Técnicas de pre, in y post-procesamiento para corregir modelos. Herramientas open source.
  5. Cierre (5 min): La ética como calidad de software. Q&A.

Entusiasta en los Datos & AI Engineer
Apasionado por la ciencia y la tecnología, disfruta explorando el mundo a través de los datos. Con una trayectoria desde la analítica hasta la construcción de sistemas inteligentes, enfocándose hoy en integrar la IA con el Humano para innovar,