Cosa succede quando l’intelligenza artificiale inizia a comportarsi in modo “disturbato”?Dalle risposte aggressive e distruttive (evil), fino all’eccessiva compiacenza (sycophancy), i grandi modelli linguistici mostrano fragilità che ricordano da vicino i disturbi psichiatrici umani.In questo episodio, esploro la metafora della psichiatria dell’IA, passando per l’esperimento di Anthropic: una “costituzione etica” pensata per guidare i modelli.Un viaggio nel cuore dell’AI alignment, tra prevenzione, diagnosi e la grande domanda: possiamo davvero “curare” ciò che non è umano?
Diventa un supporter di questo podcast: https://www.spreaker.com/podcast/ai-voglia--6581644/support.