
Sign up to save your podcasts
Or


Internet se remplit de textes, images et vidéos créés par des modèles, et ces contenus finissent à leur tour dans les jeux de données d’entraînement. Avec Loubna Ben Allal, experte en constitution de datasets, on analyse les risques d’« auto-intoxication » des IA: dégradation de la qualité, biais amplifiés et confusion entre œuvres originales et fakes. On passe en revue les garde-fous possibles (curation humaine, filtrage, traçabilité des sources) et on évalue si un véritable effondrement est à prévoir ou si la progression peut encore continuer.
En plateau
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
By Micode4.9
1818 ratings
Internet se remplit de textes, images et vidéos créés par des modèles, et ces contenus finissent à leur tour dans les jeux de données d’entraînement. Avec Loubna Ben Allal, experte en constitution de datasets, on analyse les risques d’« auto-intoxication » des IA: dégradation de la qualité, biais amplifiés et confusion entre œuvres originales et fakes. On passe en revue les garde-fous possibles (curation humaine, filtrage, traçabilité des sources) et on évalue si un véritable effondrement est à prévoir ou si la progression peut encore continuer.
En plateau
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

41 Listeners

12 Listeners

2 Listeners

13 Listeners

11 Listeners

4 Listeners

8 Listeners

75 Listeners

5 Listeners

98 Listeners

8 Listeners

174 Listeners

6 Listeners

2 Listeners

0 Listeners