
Sign up to save your podcasts
Or


In questa puntata ti parlo di un recente caso americano di avvocato che ha scritto un atto con giurisprudenza inventata da chatGPT e delle riflessi su come usare l’IA nel mondo legale.
Come sempre, se ti è piaciuto quel che hai letto, ascoltato o visto e non l’hai già fatto, ti suggerisco di iscriverti alla mia newsletter.
Ti avvertirò dei nuovi articoli che pubblico (oltre ai podcast e video su YouTube) e, mensilmente, ti segnalerò articoli che ho raccolto nel corso del mese ed ho trovato interessanti.
Qui trovi la registrazione in video della puntata non editata.
Ti ricordo che la sinossi è generata dalla IA in particolare usando la trascrizione del podcast con l’app Transcriber dell’amico Alex Raccuglia che trovi le sue tante applicazioni su Ulti.media e NotebookLM.
Tutto ha inizio da una storia esemplare dagli Stati Uniti. Immagina un avvocato multato di 5.000 dollari per aver depositato un atto giudiziario con citazioni e giurisprudenza completamente inventate, generate da ChatGPT. Nonostante i tentativi di negare, ha dovuto ammettere di aver presentato una memoria "allucinata", giustificandosi di aver scambiato ChatGPT per un "super motore di ricerca". Il giudice, pur non vietando l'IA come strumento, ha chiarito un punto fondamentale: qualsiasi documento generato o assistito dall'IA deve essere sempre controllato per verificarne l'accuratezza. Sam Altman, CEO di OpenAI, ha riconosciuto che le "allucinazioni" – dove l'IA asserisce con sicurezza fatti non veri – sono un problema reale.
Filippo Strozzi analizza come l'idea di considerare gli LLM un "super motore di ricerca" sia un grave errore. Lo definisce il problema del "googolare al quadrato": professionisti che cercano risposte rapide senza verificare le fonti, portando a un lavoro "sciatto" e poco approfondito. L'Italia, seppur più lenta nell'adozione dell'IA, non è immune: un caso simile si è già verificato a Firenze, con un avvocato che ha presentato una memoria con citazioni inventate dall'IA, per poi negare e accusare una collaboratrice.
L'uso improprio dell'IA comporta rischi concreti per i professionisti:
IA e LLM sono strumenti preziosi per risparmiare tempo, ma devono essere usati con cognizione di causa e prudenza. È cruciale evitare la superficialità e verificare sempre i risultati.
Filippo stesso integra l'IA nel suo lavoro, non per sostituirsi, ma per velocizzare processi come l'estrazione di informazioni o per avere un "primo spunto" di ricerca. Utilizza strumenti come Perplexity e Gemini e le funzioni di "deep search" di Google, che offrono risposte con link alle fonti. La sua quasi ventennale esperienza giuridica gli permette di capire subito la correttezza delle risposte e di procedere alle verifiche. Il suo consiglio è di affiancare la ricerca tradizionale a quella "aumentata" con l'IA, per confrontare i risultati e imparare a sfruttare al meglio questi strumenti.
By Filippo StrozziIn questa puntata ti parlo di un recente caso americano di avvocato che ha scritto un atto con giurisprudenza inventata da chatGPT e delle riflessi su come usare l’IA nel mondo legale.
Come sempre, se ti è piaciuto quel che hai letto, ascoltato o visto e non l’hai già fatto, ti suggerisco di iscriverti alla mia newsletter.
Ti avvertirò dei nuovi articoli che pubblico (oltre ai podcast e video su YouTube) e, mensilmente, ti segnalerò articoli che ho raccolto nel corso del mese ed ho trovato interessanti.
Qui trovi la registrazione in video della puntata non editata.
Ti ricordo che la sinossi è generata dalla IA in particolare usando la trascrizione del podcast con l’app Transcriber dell’amico Alex Raccuglia che trovi le sue tante applicazioni su Ulti.media e NotebookLM.
Tutto ha inizio da una storia esemplare dagli Stati Uniti. Immagina un avvocato multato di 5.000 dollari per aver depositato un atto giudiziario con citazioni e giurisprudenza completamente inventate, generate da ChatGPT. Nonostante i tentativi di negare, ha dovuto ammettere di aver presentato una memoria "allucinata", giustificandosi di aver scambiato ChatGPT per un "super motore di ricerca". Il giudice, pur non vietando l'IA come strumento, ha chiarito un punto fondamentale: qualsiasi documento generato o assistito dall'IA deve essere sempre controllato per verificarne l'accuratezza. Sam Altman, CEO di OpenAI, ha riconosciuto che le "allucinazioni" – dove l'IA asserisce con sicurezza fatti non veri – sono un problema reale.
Filippo Strozzi analizza come l'idea di considerare gli LLM un "super motore di ricerca" sia un grave errore. Lo definisce il problema del "googolare al quadrato": professionisti che cercano risposte rapide senza verificare le fonti, portando a un lavoro "sciatto" e poco approfondito. L'Italia, seppur più lenta nell'adozione dell'IA, non è immune: un caso simile si è già verificato a Firenze, con un avvocato che ha presentato una memoria con citazioni inventate dall'IA, per poi negare e accusare una collaboratrice.
L'uso improprio dell'IA comporta rischi concreti per i professionisti:
IA e LLM sono strumenti preziosi per risparmiare tempo, ma devono essere usati con cognizione di causa e prudenza. È cruciale evitare la superficialità e verificare sempre i risultati.
Filippo stesso integra l'IA nel suo lavoro, non per sostituirsi, ma per velocizzare processi come l'estrazione di informazioni o per avere un "primo spunto" di ricerca. Utilizza strumenti come Perplexity e Gemini e le funzioni di "deep search" di Google, che offrono risposte con link alle fonti. La sua quasi ventennale esperienza giuridica gli permette di capire subito la correttezza delle risposte e di procedere alle verifiche. Il suo consiglio è di affiancare la ricerca tradizionale a quella "aumentata" con l'IA, per confrontare i risultati e imparare a sfruttare al meglio questi strumenti.

1 Listeners

3 Listeners

0 Listeners

5 Listeners

0 Listeners

23 Listeners

0 Listeners

184 Listeners

7 Listeners

0 Listeners

0 Listeners

31 Listeners

33 Listeners

0 Listeners

1 Listeners