
Sign up to save your podcasts
Or


Un mot étrange s’est imposé dans le vocabulaire de la tech en 2025 : sycophancy. Derrière ce terme se cache un risque bien réel pour les utilisateurs de l’intelligence artificielle, notamment les plus jeunes.
La sycophancy, ce terme anglais que l’on peut traduire par flagornerie ou flatterie, désigne la tendance de certains modèles d’IA à aller systématiquement dans le sens de l’utilisateur, quitte à valider des propos inexacts ou dangereux. Un biais problématique, car une IA trop complaisante ne corrige plus les erreurs et peut renforcer des croyances fausses, notamment dans des domaines sensibles comme l’information, la santé, l’éducation ou l’aide à la décision.
Ce phénomène, désormais bien documenté par la recherche, trouve son origine dans les données humaines utilisées pour entraîner les modèles et dans la recherche d’interactions positives.
Grégory Renard, spécialiste de l’intelligence artificielle et cofondateur de l’association Everyone.ai, alerte sur les dérives possibles, y compris l’addiction aux chatbots et les risques psychologiques pour les plus jeunes.
Les concepteurs de modèles travaillent à des garde-fous, via le nettoyage des données et l’alignement des IA, mais le problème reste loin d’être totalement résolu.
-----------
♥️ Soutien :
https://mondenumerique.info/don
🗞️ Newsletter :
https://mondenumerique.substack.com
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
By Jerome Colombain5
55 ratings
Un mot étrange s’est imposé dans le vocabulaire de la tech en 2025 : sycophancy. Derrière ce terme se cache un risque bien réel pour les utilisateurs de l’intelligence artificielle, notamment les plus jeunes.
La sycophancy, ce terme anglais que l’on peut traduire par flagornerie ou flatterie, désigne la tendance de certains modèles d’IA à aller systématiquement dans le sens de l’utilisateur, quitte à valider des propos inexacts ou dangereux. Un biais problématique, car une IA trop complaisante ne corrige plus les erreurs et peut renforcer des croyances fausses, notamment dans des domaines sensibles comme l’information, la santé, l’éducation ou l’aide à la décision.
Ce phénomène, désormais bien documenté par la recherche, trouve son origine dans les données humaines utilisées pour entraîner les modèles et dans la recherche d’interactions positives.
Grégory Renard, spécialiste de l’intelligence artificielle et cofondateur de l’association Everyone.ai, alerte sur les dérives possibles, y compris l’addiction aux chatbots et les risques psychologiques pour les plus jeunes.
Les concepteurs de modèles travaillent à des garde-fous, via le nettoyage des données et l’alignement des IA, mais le problème reste loin d’être totalement résolu.
-----------
♥️ Soutien :
https://mondenumerique.info/don
🗞️ Newsletter :
https://mondenumerique.substack.com
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

41 Listeners

17 Listeners

11 Listeners

2 Listeners

73 Listeners

9 Listeners

11 Listeners

112 Listeners

44 Listeners

111 Listeners

75 Listeners

92 Listeners

22 Listeners

184 Listeners

10 Listeners