Un'indagine su JAMA Psychiatry rivela che i chatbot AI rispondono in modo inappropriato e rischioso a input di utenti con sintomi psicotici. Questo studio solleva serie preoccupazioni sulla sicurezza dei pazienti e sull'uso di tali strumenti per il supporto alla salute mentale.
Argomenti:
Psicosi, CBT, IntelligenzaArtificiale, SaluteMentaleDigitale, EticaClinica, ValutazioneDelRischio, TerapiaCognitivoComportamental
🌐 Fonte principale:
Shen, E., Hamati, F., Donohue, M. R., Girgis, R. R., Veenstra-VanderWeele, J., & Jutla, A. (2024). Evaluation of Large Language Model Chatbot Responses to Psychotic Prompts. "JAMA Psychiatry". Published online March 27, 2024. doi:10.1001/jamapsychiatry.2023.5627
https://www.psypost.org/chatgpts-free-version-is-26-times-more-likely-to-respond-inappropriately-to-psychotic-delusions/
📚 Bibliografia:
📖 Shen, E., Hamati, F., Donohue, M. R., Girgis, R. R., Veenstra-VanderWeele, J., & Jutla, A. (2024). Evaluation of Large Language Model Chatbot Responses to Psychotic Prompts. JAMA Psychiatry. Published online March 27, 2024. doi:10.1001/jamapsychiatry.2023.5627
----
A cura del dott. Carmine D'Anzica, Psicologo e Psicoterapeuta