
Sign up to save your podcasts
Or
En esta segunda parte de nuestra conversación con Iolanda Montserrat, profundizamos en un tema clave: la inteligencia artificial no es neutral. Los sesgos de género que existen en la sociedad se trasladan a los datos con los que entrenamos la IA, lo que refuerza desigualdades y perpetúa estereotipos.
Junto a Iolanda, abordamos estrategias para desafiar estos patrones y promover una IA que represente mejor la diversidad del mundo real.
Referencias:
Estudio de McKinsey “Mujeres en el lugar de trabajo 2023” sobre el peldaño roto:
https://www.mckinsey.com/featured-insights/destacados/mujeres-en-el-lugar-de-trabajo-2023/es
En esta segunda parte de nuestra conversación con Iolanda Montserrat, profundizamos en un tema clave: la inteligencia artificial no es neutral. Los sesgos de género que existen en la sociedad se trasladan a los datos con los que entrenamos la IA, lo que refuerza desigualdades y perpetúa estereotipos.
Junto a Iolanda, abordamos estrategias para desafiar estos patrones y promover una IA que represente mejor la diversidad del mundo real.
Referencias:
Estudio de McKinsey “Mujeres en el lugar de trabajo 2023” sobre el peldaño roto:
https://www.mckinsey.com/featured-insights/destacados/mujeres-en-el-lugar-de-trabajo-2023/es