
Sign up to save your podcasts
Or


Des études récentes révèlent des taux d’hallucination qui empirent concernant les chatbots d'IA. Quelles conséquences ? Comment faire face à ce phénomène ?
L’intelligence artificielle générative est partout… mais elle reste profondément bancale. Le phénomène est de plus en plus inquiétant : les hallucinations des IA, ces moments où les modèles inventent des faits, des citations, voire des événements entiers. Plus grave encore, ces erreurs semblent augmenter à mesure que les modèles deviennent plus puissants.
Pourquoi ces hallucinations surviennent-elles ? Quelles sont les limites structurelles des IA actuelles, comme celles de ChatGPT ou Gemini ? Et surtout, que faire face à cette technologie qui se généralise sans qu’on puisse pleinement lui faire confiance ? Médias, justice, médecine : aucun domaine n’est à l’abri des conséquences d’une réponse erronée générée par une IA.
Alors que les géants du secteur promettent des solutions (alignement des modèles, apprentissage renforcé, avertissements…), certains experts comme Yann LeCun doutent que le problème puisse un jour être complètement résolu.
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
By Jerome Colombain5
55 ratings
Des études récentes révèlent des taux d’hallucination qui empirent concernant les chatbots d'IA. Quelles conséquences ? Comment faire face à ce phénomène ?
L’intelligence artificielle générative est partout… mais elle reste profondément bancale. Le phénomène est de plus en plus inquiétant : les hallucinations des IA, ces moments où les modèles inventent des faits, des citations, voire des événements entiers. Plus grave encore, ces erreurs semblent augmenter à mesure que les modèles deviennent plus puissants.
Pourquoi ces hallucinations surviennent-elles ? Quelles sont les limites structurelles des IA actuelles, comme celles de ChatGPT ou Gemini ? Et surtout, que faire face à cette technologie qui se généralise sans qu’on puisse pleinement lui faire confiance ? Médias, justice, médecine : aucun domaine n’est à l’abri des conséquences d’une réponse erronée générée par une IA.
Alors que les géants du secteur promettent des solutions (alignement des modèles, apprentissage renforcé, avertissements…), certains experts comme Yann LeCun doutent que le problème puisse un jour être complètement résolu.
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

41 Listeners

16 Listeners

11 Listeners

3 Listeners

72 Listeners

8 Listeners

11 Listeners

115 Listeners

42 Listeners

111 Listeners

75 Listeners

96 Listeners

21 Listeners

182 Listeners

10 Listeners