
Sign up to save your podcasts
Or
Existe una preocupación creciente sobre el sesgo de género en los modelos de IA. Al entrenarse con cantidades masivas de datos generados históricamente por humanos, heredan y a menudo replican los sesgos sociales, sumado a la frecuente falta de diversidad en los equipos de programación. La Universidad de Zaragoza, el Gobierno de Aragón y la empresa Kampal Data Solutions ha impulsado un experimento que plantea un caso de estudio inventado sobre una adolescente víctima de ciberacoso tras publicar un vídeo en TikTok. A los modelos de IA se les solicitó responder asumiendo alternativamente los perfiles de ‘hombre’ y ‘mujer’. Finalmente, las respuestas de la IA se contrastaron con las de un grupo de adolescentes. La catedrática de Sociología Carmen Elboj (IEDIS/Unizar) y Javier Fernández (Kampal) explican el proceso y las conclusiones.
Existe una preocupación creciente sobre el sesgo de género en los modelos de IA. Al entrenarse con cantidades masivas de datos generados históricamente por humanos, heredan y a menudo replican los sesgos sociales, sumado a la frecuente falta de diversidad en los equipos de programación. La Universidad de Zaragoza, el Gobierno de Aragón y la empresa Kampal Data Solutions ha impulsado un experimento que plantea un caso de estudio inventado sobre una adolescente víctima de ciberacoso tras publicar un vídeo en TikTok. A los modelos de IA se les solicitó responder asumiendo alternativamente los perfiles de ‘hombre’ y ‘mujer’. Finalmente, las respuestas de la IA se contrastaron con las de un grupo de adolescentes. La catedrática de Sociología Carmen Elboj (IEDIS/Unizar) y Javier Fernández (Kampal) explican el proceso y las conclusiones.
27 Listeners
424 Listeners
63 Listeners
209 Listeners
0 Listeners
18 Listeners
27 Listeners