13/12, 16:00–16:30 (America/La_Paz), Auditorio
¿Tu modelo es injusto? La IA no es neutral; refleja los sesgos de sus datos. Esta charla analiza cómo la historia y calidad de los datos impactan en el "Fairness". Detectar sesgos y aplicar estrategias de Gobernanza de datos y mitigación para construir modelos de IA éticos.
- Intro (5 min): Evolución de reglas a ML. Los datos como representación imperfecta de la realidad.
- Calidad de Datos (5 min): "Garbage In, Garbage Out". Tipos de sesgos (históricos/muestreo) y proxies ocultos que generan discriminación.
- Fairness (10 min): Definición de Justicia Algorítmica. Análisis de casos reales de fallas éticas. Métricas clave para medir sesgos en modelos.
- Gobernanza y Mitigación (5 min): Roles y auditoría de datos. Técnicas de pre, in y post-procesamiento para corregir modelos. Herramientas open source.
- Cierre (5 min): La ética como calidad de software. Q&A.
Entusiasta en los Datos & AI Engineer
Apasionado por la ciencia y la tecnología, disfruta explorando el mundo a través de los datos. Con una trayectoria desde la analítica hasta la construcción de sistemas inteligentes, enfocándose hoy en integrar la IA con el Humano para innovar,