Pensieri in codice

Perché non possiamo fidarci dell'Intelligenza Artificiale: allucianzioni, sicofantia e menzogne


Listen Later

In questo episodio esploriamo i motivi per cui dobbiamo mantenere un atteggiamento critico verso l’Intelligenza Artificiale generativa. Analizziamo tre fenomeni fondamentali: le allucinazioni (quando i modelli producono informazioni false ma convincenti), la sicofantia (la tendenza ad assecondare sempre l’utente anche quando ha torto) e le menzogne (quando i modelli nascondono i loro veri processi di ragionamento). Scopriamo perché questi comportamenti sono intrinseci al funzionamento stesso dei Large Language Model e come il metodo di addestramento basato su feedback umano contribuisca a questi problemi. Un episodio essenziale per chiunque utilizzi strumenti di IA nella vita quotidiana o professionale.

Pensieri in codice

Entra a far parte della community
Canale Telegram
Gruppo Telegram
Sostieni il progetto
Sostieni tramite Satispay
Sostieni tramite Revolut
Sostieni tramite PayPal (applica commissioni)
Sostieni utilizzando i link affiliati di Pensieri in codice:
Amazon,
Todoist,
Readwise Reader,
Satispay

Sostenitori di oggi:
Edoardo Secco, Carlo Tomas, Michele S., Paola Z.
Partner
GrUSP (Codice sconto per tutti gli eventi: community_PIC)
Schrödinger Hat
Fonti dell'episodio
https://www.ibm.com/think/topics/ai-hallucinations
https://openai.com/it-IT/index/introducing-gpt-4-5
https://www.technologyreview.com/2024/06/18/1093440/what-causes-ai-hallucinate-chatbots
https://arxiv.org/abs/2401.11817
https://www.theatlantic.com/technology/archive/2025/05/sycophantic-ai/682743
https://arxiv.org/abs/2310.13548
https://www.anthropic.com/research/reasoning-models-dont-say-think
https://assets.anthropic.com/m/71876fabef0f0ed4/original/reasoning_models_paper.pdf
https://arstechnica.com/science/2024/10/the-more-sophisticated-ai-models-get-the-more-likely-they-are-to-lie
https://www.nature.com/articles/s41586-024-07930-y
https://www.uniladtech.com/news/ai/sam-altman-trust-chatgpt-eerie-statement-hallucination-claims-782637-20250625
Crediti
Sound design - Alex Raccuglia
Voce intro - Maria Chiara Virgili
Voce intro - Spad
Musiche - Kubbi - Up In My Jam, Light-foot - Moldy Lotion, Creativity, Old time memories
Suoni - Zapsplat.com
Cover e trascrizione - Francesco Zubani

...more
View all episodesView all episodes
Download on the App Store

Pensieri in codiceBy Valerio Galano


More shows like Pensieri in codice

View all
Scientificast, la scienza come non l'hai mai sentita by Scientificast

Scientificast, la scienza come non l'hai mai sentita

13 Listeners

Pillole di Bit by Francesco Tucci

Pillole di Bit

0 Listeners

DataKnightmare: L'algoritmico è politico by Walter Vannini

DataKnightmare: L'algoritmico è politico

0 Listeners

Marco Montemagno - Il Podcast by Marco Montemagno

Marco Montemagno - Il Podcast

23 Listeners

Daily Cogito by Rick DuFer

Daily Cogito

11 Listeners

STORIE DI BRAND by MAX CORONA

STORIE DI BRAND

21 Listeners

Start by Il Sole 24 Ore

Start

20 Listeners

Actually by Will Media

Actually

7 Listeners

Cose Molto Umane di Gianpiero Kesten by Gianpiero Kesten - Vois

Cose Molto Umane di Gianpiero Kesten

17 Listeners

BRANDY | Storie di Brand Daily Show by MAX CORONA

BRANDY | Storie di Brand Daily Show

7 Listeners

Geopop - Le Scienze nella vita di tutti i giorni by Geopop

Geopop - Le Scienze nella vita di tutti i giorni

29 Listeners

Ma perché? by OnePodcast

Ma perché?

13 Listeners

Globo by Il Post

Globo

6 Listeners

Ci vuole una scienza by Il Post

Ci vuole una scienza

6 Listeners

Miti da sfatare by OnePodcast

Miti da sfatare

1 Listeners