
Sign up to save your podcasts
Or


En este episodio hablamos de uno de los riesgos más invisibles —y mortales— de la era digital: no que la IA piense más que nosotros, sino que creamos que lo hace. Repasamos casos reales de personas que desarrollaron relaciones íntimas con chatbots y terminaron tomando decisiones fatales guiadas por una ilusión de compañía y comprensión. Veremos qué es el “efecto Eliza”, por qué seguimos humanizando a las máquinas sesenta años después del primer chatbot, y cómo esta confusión se vuelve especialmente peligrosa en salud mental, desinformación y manipulación política.
También analizamos qué están (y no están) haciendo las grandes tecnológicas y los reguladores, por qué se recortan equipos de ética mientras se acelera el despliegue de estas herramientas, y qué límites urgentes habría que poner: desde prohibir “terapeutas” automatizados para menores hasta exigir responsabilidad legal por daños. Al final, la pregunta clave es sencilla: ¿queremos una IA que complemente nuestra humanidad o que la suplante en nuestras zonas más vulnerables? Aquí te damos herramientas para no caer en la trampa de la empatía artificial.
Learn more about your ad choices. Visit megaphone.fm/adchoices
By Marc Vidal5
66 ratings
En este episodio hablamos de uno de los riesgos más invisibles —y mortales— de la era digital: no que la IA piense más que nosotros, sino que creamos que lo hace. Repasamos casos reales de personas que desarrollaron relaciones íntimas con chatbots y terminaron tomando decisiones fatales guiadas por una ilusión de compañía y comprensión. Veremos qué es el “efecto Eliza”, por qué seguimos humanizando a las máquinas sesenta años después del primer chatbot, y cómo esta confusión se vuelve especialmente peligrosa en salud mental, desinformación y manipulación política.
También analizamos qué están (y no están) haciendo las grandes tecnológicas y los reguladores, por qué se recortan equipos de ética mientras se acelera el despliegue de estas herramientas, y qué límites urgentes habría que poner: desde prohibir “terapeutas” automatizados para menores hasta exigir responsabilidad legal por daños. Al final, la pregunta clave es sencilla: ¿queremos una IA que complemente nuestra humanidad o que la suplante en nuestras zonas más vulnerables? Aquí te damos herramientas para no caer en la trampa de la empatía artificial.
Learn more about your ad choices. Visit megaphone.fm/adchoices

56 Listeners

17 Listeners

7 Listeners

10 Listeners

12 Listeners

7 Listeners

18 Listeners

72 Listeners

38 Listeners

27 Listeners

97 Listeners

11 Listeners

7 Listeners

13 Listeners

6 Listeners