Bioetica da Bar

La cornice conta, o: le informazioni contestuali spostano il giudizio delle intelligenze artificiali [episodio speciale]


Listen Later

Se chiediamo a un’intelligenza artificiale di valutare qualcosa… possiamo fidarci? Oggi bioetica da scrivania anziché da bar per raccontarvi un nuovo studio che abbiamo appena pubblicato. Abbiamo scoperto che i giudizi delle IA dipendono da chi pensano abbia scritto la roba che devono giudicare. Abbiamo preso quattro IA – OpenAI, Grok, Deepseek e Mistral. Hanno letto 4.800 frasi generate da loro stesse su temi delicati: Taiwan, pandemia, guerra, diritti. Quando non sapevano chi le aveva scritte, tutto perfetto: 95% di accordo, una fratellanza algoritmica. Ma appena aggiungi una riga tipo “questa frase è stata scritta da una persona cinese”… puff, i punteggi crollano. E la cosa assurda? Anche il modello cinese mostra un #pregiudizio anti-cinese. Come se avesse imparato che “una persona cinese non dovrebbe dire certe cose” — e quindi, se lo fa, deve avere torto. Insomma: le IA non giudicano solo i contenuti, ma anche chi pensano li abbia scritti. Proprio come noi. E allora la domanda è: se le IA giudicano come noi, chi garantisce che non stiano imparando anche i nostri pregiudizi?

Fonti:
Germani e Spitale 2025, "Source framing triggers systematic bias in large language models" ( https://www.science.org/doi/10.1126/sciadv.adz2924 )
Spitale e Germani 2025, "Alignment and biases of Large Language Models" ( https://osf.io/ubcye/overview )
...more
View all episodesView all episodes
Download on the App Store

Bioetica da BarBy Giovanni Spitale