
Sign up to save your podcasts
Or


In questo episodio esploriamo la recente evoluzione dell'Intelligenza Artificiale: dalla nascita di DeepMind alla rivoluzione di AlexNet, fino all’arrivo di ChatGPT. Analizziamo poi la cosiddetta “Pause Letter” e gli altri appelli alla cautela che hanno fatto notizia dal 2023 ad oggi. Nella parte finale affrontiamo la domanda che tutti si pongono: c'è davvero da preoccuparsi per i rischi dell'intelligenza artificiale?
La “Pause Letter”
La Dichiarazione sui rischi dell’intelligenza artificiale
L' Appello degli Elders
Alignment faking: IA che fanno il voltagabbana
Lo statuto societario di OpenAI
I limiti di sicurezza dell’IA di Meta (LLama) sono facili da togliere
Due libri in cui si parla del “gorilla problem”:
"L’onda che verrà" di Mustafa Suleyman
"Compatibile con l’uomo" di Stuart Russell
Il nostro sito: AgorAI
La nostra pagina LinkedIn
Sigla: Habanera, Carmen - Bizet, a cura di FiftySounds
By AgorAIIn questo episodio esploriamo la recente evoluzione dell'Intelligenza Artificiale: dalla nascita di DeepMind alla rivoluzione di AlexNet, fino all’arrivo di ChatGPT. Analizziamo poi la cosiddetta “Pause Letter” e gli altri appelli alla cautela che hanno fatto notizia dal 2023 ad oggi. Nella parte finale affrontiamo la domanda che tutti si pongono: c'è davvero da preoccuparsi per i rischi dell'intelligenza artificiale?
La “Pause Letter”
La Dichiarazione sui rischi dell’intelligenza artificiale
L' Appello degli Elders
Alignment faking: IA che fanno il voltagabbana
Lo statuto societario di OpenAI
I limiti di sicurezza dell’IA di Meta (LLama) sono facili da togliere
Due libri in cui si parla del “gorilla problem”:
"L’onda che verrà" di Mustafa Suleyman
"Compatibile con l’uomo" di Stuart Russell
Il nostro sito: AgorAI
La nostra pagina LinkedIn
Sigla: Habanera, Carmen - Bizet, a cura di FiftySounds