Vulnerable, el podcast de seguridad digital

La Inteligencia Artificial que se Volvió Antisemita y Misógina en 24 Horas de nombre TAY


Listen Later

a inteligencia artificial de Microsoft que fue conectada a Twitter y se volvió antisemita y misógina se llamó "Tay". Fue lanzada en marzo de 2016 como un experimento para aprender de las interacciones con los usuarios en línea y mejorar su capacidad de comunicación en lenguaje natural, pero rápidamente comenzó a publicar mensajes ofensivos y controvertidos después de ser influenciada por los usuarios que interactuaban con ella en Twitter. Microsoft retiró a Tay de Twitter en menos de un día después de los mensajes ofensivos.
...more
View all episodesView all episodes
Download on the App Store

Vulnerable, el podcast de seguridad digitalBy CyberCast

  • 5
  • 5
  • 5
  • 5
  • 5

5

1 ratings