Veramente

Se l'IA diventa un "terapeuta" pericoloso


Listen Later

Negli ultimi anni negli Stati Uniti come in Europa si sono verificati dei casi di suicidio di persone che si erano rivolte esclusivamente a chatbot di intelligenza artificiale per ricevere un sostegno psicologico.

Vi racconteremo quali sono i limiti dell’utilizzo di questi strumenti come unici terapeuti cui affidarsi per la propria salute mentale.


Scriveteci all’indirizzo [email protected] o segnalateci le notizie che volete verificare al numero 3421829843.

Seguiteci sul nostro sito Facta.news, sui nostri profili Facebook, Instagram, Telegram, TikTok e Bluesky

Condotto da Simone Fontana e Anna Toniolo 

Episodio scritto da Simone Fontana e Anna Toniolo 

Prodotto da Jessica Mariana Masucci

LINK UTILI

No, l’intelligenza artificiale non è la tua psicoterapeuta - Facta

Un adolescente aveva tendenze suicide. ChatGPT era l'amico con cui si era confidato - The New York Times

I chatbot "terapeuti" rappresentano un pericolo per i bambini, avvertono i consulenti - The Times

Quello che mia figlia ha detto a ChatGPT prima di togliersi la vita - The New York Times

Un uomo mette fine alla sua vita dopo che un chatbot AI lo ha "incoraggiato" a sacrificarsi per fermare il cambiamento climatico - Euronews 

Uno psichiatra si è finto adolescente con i chatbot terapeutici. Le conversazioni erano allarmanti - Time

CREDIT BRANI

“Dynamic world” di StockStudio 

“Documentary” di Coma-media 

“Cinematic Time Lapse” di Lexin Music 


Learn more about your ad choices. Visit megaphone.fm/adchoices

...more
View all episodesView all episodes
Download on the App Store

VeramenteBy Facta