
Sign up to save your podcasts
Or


Quando si parla di algoritmi di apprendimento automatico, spesso si fa riferimento al concetto di black box (scatola nera), che implica l’impossibilità di capire come l’algoritmo sia riuscito a produrre un determinato risultato. Inoltre, i modelli di intelligenza artificiale possono essere manipolabili e vulnerabili ad attacchi. Per questo motivo, diventa essenziale non solo comprendere il risultato prodotto dall'algoritmo, ma anche il “ragionamento” e il processo che lo ha portato a formulare una risposta. Ma cos'è, quindi, l'IA spiegabile? Come funziona? A cosa serve e, soprattutto, a che punto siamo nella comprensione dei modelli di intelligenza artificiale che utilizziamo quotidianamente? In questa puntata cerchiamo di rispondere a queste domande, iniziando proprio dal definire cosa si intende per IA spiegabile.
Nella sezione delle notizie parliamo dell’azienda cinese DeepSeek e dei suoi nuovi modelli di IA open source, del successo del test di XB-1 di Boom Supersonic che fa ben sperare per il ritorno dell’aviazione supersonica civile e infine di Waymo che testerà la guida autonoma in 10 nuove città per rendere il proprio sistema sempre più generalizzabile.
--Indice--
00:00 - Introduzione
00:53 - I nuovi modelli open source di DeepSeek (Wired.it, Luca Martinelli)
02:18 - Il ritorno dell’aviazione civile supersonica (IlSole24Ore.com, Matteo Gallo)
03:32 - Waymo testa la guida autonoma in 10 nuove città (TheVerge.com, Davide Fasoli)
05:00 - Perché dovremmo fidarci dell'IA? (Luca Martinelli)
15:15 - Conclusione
--Testo--
Leggi la trascrizione: https://www.dentrolatecnologia.it/S7E5#testo
--Contatti--
• www.dentrolatecnologia.it
• Instagram (@dentrolatecnologia)
• Telegram (@dentrolatecnologia)
• YouTube (@dentrolatecnologia)
• [email protected]
--Brani--
• Ecstasy by Rabbit Theft
• One Taste by More Plastic & URBANO
By Digital PeopleQuando si parla di algoritmi di apprendimento automatico, spesso si fa riferimento al concetto di black box (scatola nera), che implica l’impossibilità di capire come l’algoritmo sia riuscito a produrre un determinato risultato. Inoltre, i modelli di intelligenza artificiale possono essere manipolabili e vulnerabili ad attacchi. Per questo motivo, diventa essenziale non solo comprendere il risultato prodotto dall'algoritmo, ma anche il “ragionamento” e il processo che lo ha portato a formulare una risposta. Ma cos'è, quindi, l'IA spiegabile? Come funziona? A cosa serve e, soprattutto, a che punto siamo nella comprensione dei modelli di intelligenza artificiale che utilizziamo quotidianamente? In questa puntata cerchiamo di rispondere a queste domande, iniziando proprio dal definire cosa si intende per IA spiegabile.
Nella sezione delle notizie parliamo dell’azienda cinese DeepSeek e dei suoi nuovi modelli di IA open source, del successo del test di XB-1 di Boom Supersonic che fa ben sperare per il ritorno dell’aviazione supersonica civile e infine di Waymo che testerà la guida autonoma in 10 nuove città per rendere il proprio sistema sempre più generalizzabile.
--Indice--
00:00 - Introduzione
00:53 - I nuovi modelli open source di DeepSeek (Wired.it, Luca Martinelli)
02:18 - Il ritorno dell’aviazione civile supersonica (IlSole24Ore.com, Matteo Gallo)
03:32 - Waymo testa la guida autonoma in 10 nuove città (TheVerge.com, Davide Fasoli)
05:00 - Perché dovremmo fidarci dell'IA? (Luca Martinelli)
15:15 - Conclusione
--Testo--
Leggi la trascrizione: https://www.dentrolatecnologia.it/S7E5#testo
--Contatti--
• www.dentrolatecnologia.it
• Instagram (@dentrolatecnologia)
• Telegram (@dentrolatecnologia)
• YouTube (@dentrolatecnologia)
• [email protected]
--Brani--
• Ecstasy by Rabbit Theft
• One Taste by More Plastic & URBANO

0 Listeners

3 Listeners

5 Listeners

0 Listeners

0 Listeners

18 Listeners

0 Listeners

8 Listeners

25 Listeners

8 Listeners

20 Listeners

18 Listeners

0 Listeners

0 Listeners

0 Listeners

0 Listeners

0 Listeners