Negli ultimi due anni Internet è stata inondata di contenuti prodotti da modelli di generative AI, come ChatGPT. Questo pone un problema di attribuzione: è possibile determinare con ragionevole certezza se un testo è stato scritto da un LLM o da un essere umano? La questione ha implicazioni sociali molto rilevanti, come per esempio il plagio in ambito educativo o accademico. Inoltre, se i contenuti generati da modelli AI diventeranno prevalenti su Internet rispetto a quelli prodotti da esseri umani, le nuove generazioni di LLM finiranno per addestrarsi sui loro stessi contenuti, degradando le proprie prestazioni (un fenomeno conosciuto come model collapse).In questa puntata crossover delle rubriche AI ed Enigma vediamo come la crittografia può aiutare a inserire una "filigrana", o watermark, all'interno dei testi prodotti da un LLM, in modo che siano riconoscibili da chiunque conosca una determinata chiave segreta. Viene discusso inoltre come, al di là dei problemi tecnici per realizzare una soluzione del genere, esiste anche una questione di incentivi economici per incoraggiare i player principali (OpenAI, Anthropic, ecc.) a filigranare i propri modelli.Conducono per Liberi Oltre Le Illusioni - STEM: Luca Mariot*, *Alessandra Russo , Yuri GardinazziEditing a cura di: Stefano Fusari | Coordinazione e Post-Produzione Dario AlesianiDA QUEST'ANNO PUOI DONARE IL TUO 5x1000 A LIBERI OLTRE LE ILLUSIONI APShttps://www.liberioltreleillusioni.it...Se vuoi ASSOCIARTI a Liberi Oltre https://www.liberioltreleillusioni.it..._______Bibliografia e Fonti
- T. Brooks-Mejia, C. Patton: An early look at cryptographic watermarks for AI-generated content. The Cloudflare Blog, 19-03-2025. Link: https://blog.cloudflare.com/an-early-...
- J. Kirchenbauer, J. Geiping, Y. Wen, J. Katz, I. Miers, T. Goldstein: A Watermark for Large Language Models. ICML 2023: 17061-17084. Link: https://proceedings.mlr.press/v202/ki...
- M. Christ, S. Gunn: Pseudorandom Error-Correcting Codes. CRYPTO (6) 2024: 325-347. Link: https://eprint.iacr.org/2024/235
- I. Shumailov, Z. Shumaylov, Y. Zhao, N. Papernot, R. Anderson, Y. Gal: AI models collapse when trained on recursively generated data. Nature: 631(8022), 755-759. Link: https://www.nature.com/articles/s4158...
- S. Aaronson. Neurocryptography. Invited talk at CRYPTO 2023. Link: • Invited Talk by Scott Aaronson (Crypto 2023)
_______Speaker, Bio e RisorseLuca Mariot Assistant Professor di Informatica, gruppo Semantics, Cybersecurity and Services della University of Twente | Redazione Liberi Oltre Le Illusioni - STEMAlessandra Russo Redazione Liberi Oltre Le Illusioni - STEMYuri Gardinazzi Redazione Liberi Oltre Le Illusioni - STEM_______Seguici sui nostri social:Twitter/𝕏 » / liberioltre Instagram » / liberioltre Sito » https://www.liberioltreleillusioni.it/Telegram » https://t.me/liberioltre_______Articoli, Eventi e Attività Associative ‧ https://www.liberioltreleillusioni.it/Seguici su YouTubePolitica Internazionale e Interna, Attualità, Economia ‧ @LiberiOltre Scienza e Tecnologia ‧ @liberioltreSTEM Storia, Filosofia, Arte e Scienze Umane ‧ @LiberiOltreAgora ______Un luogo Aperto, Plurale, non Ideologico e non Identitario. Cerchiamo di diffondere i principi del Merito, della Competenza, della Responsabilità Individuale, della Trasparenza Decisionale e Informativa, della Sussidiarietà, della Tutela delle Libertà Individuali, dell'Economia di Mercato, della Concorrenza e della Solidarietà Individuale e Collettiva... Questa è Liberi Oltre!Contenuto distribuito con licenza CC BY-NC 4.0 da Liberi Oltre le Illusioni. https://creativecommons.org/licenses/...