
Sign up to save your podcasts
Or


Internet se remplit de textes, images et vidéos créés par des modèles, et ces contenus finissent à leur tour dans les jeux de données d’entraînement. Avec Loubna Ben Allal, experte en constitution de datasets, on analyse les risques d’« auto-intoxication » des IA: dégradation de la qualité, biais amplifiés et confusion entre œuvres originales et fakes. On passe en revue les garde-fous possibles (curation humaine, filtrage, traçabilité des sources) et on évalue si un véritable effondrement est à prévoir ou si la progression peut encore continuer.
En plateau
➤ Pour découvrir Mammouth IA : https://mammouth.ai/
➤ Pour le Merch Micode et Underscore_ : https://traphic.fr/collections/micode
⚠️ Précommandes avant le 15 Janvier !
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
By Micode4.9
1818 ratings
Internet se remplit de textes, images et vidéos créés par des modèles, et ces contenus finissent à leur tour dans les jeux de données d’entraînement. Avec Loubna Ben Allal, experte en constitution de datasets, on analyse les risques d’« auto-intoxication » des IA: dégradation de la qualité, biais amplifiés et confusion entre œuvres originales et fakes. On passe en revue les garde-fous possibles (curation humaine, filtrage, traçabilité des sources) et on évalue si un véritable effondrement est à prévoir ou si la progression peut encore continuer.
En plateau
➤ Pour découvrir Mammouth IA : https://mammouth.ai/
➤ Pour le Merch Micode et Underscore_ : https://traphic.fr/collections/micode
⚠️ Précommandes avant le 15 Janvier !
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

41 Listeners

12 Listeners

2 Listeners

10 Listeners

13 Listeners

4 Listeners

8 Listeners

76 Listeners

4 Listeners

87 Listeners

5 Listeners

172 Listeners

3 Listeners

1 Listeners

3 Listeners