
Sign up to save your podcasts
Or


Afin de lutter contre les hallucinations des intelligences artificielles génératives, un chercheur a eu une idée originale...
Une innovation de l'Université d'Oxford propose de contrôler les intelligences artificielles génératives avec d'autres IA pour corriger les réponses erronées ou hallucinations. Les IA génératives ont des lacunes en termes de précision, fonctionnant principalement de manière statistique. Les tests ont montré que le contrôle par d'autres IA peut être efficace, avec par exemple un taux d'accord de 93% avec les humains dans la vérification des réponses d'un chatbot. Bien que certains chercheurs aient des doutes sur cette méthode, l'équipe d'Oxford soutient que l'antagonisme entre modèles d'IA est commun en informatique et mérite d'être exploré, en particulier pour des applications telles que l'analyse d'images médicales. En attendant un consensus, il est conseillé de rester vigilant face aux hallucinations des IA et de se fier pour l'instant à notre capacité humaine de discernement.
Source : https://www.washingtonpost.com/technology/2024/06/20/ai-chatbots-hallucinations-study/
-----------
♥️ Soutien : https://mondenumerique.info/don
🗞️ Newsletter : https://mondenumerique.substack.com
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
By Jerome Colombain5
44 ratings
Afin de lutter contre les hallucinations des intelligences artificielles génératives, un chercheur a eu une idée originale...
Une innovation de l'Université d'Oxford propose de contrôler les intelligences artificielles génératives avec d'autres IA pour corriger les réponses erronées ou hallucinations. Les IA génératives ont des lacunes en termes de précision, fonctionnant principalement de manière statistique. Les tests ont montré que le contrôle par d'autres IA peut être efficace, avec par exemple un taux d'accord de 93% avec les humains dans la vérification des réponses d'un chatbot. Bien que certains chercheurs aient des doutes sur cette méthode, l'équipe d'Oxford soutient que l'antagonisme entre modèles d'IA est commun en informatique et mérite d'être exploré, en particulier pour des applications telles que l'analyse d'images médicales. En attendant un consensus, il est conseillé de rester vigilant face aux hallucinations des IA et de se fier pour l'instant à notre capacité humaine de discernement.
Source : https://www.washingtonpost.com/technology/2024/06/20/ai-chatbots-hallucinations-study/
-----------
♥️ Soutien : https://mondenumerique.info/don
🗞️ Newsletter : https://mondenumerique.substack.com
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

41 Listeners

12 Listeners

2 Listeners

24 Listeners

13 Listeners

11 Listeners

3 Listeners

134 Listeners

2 Listeners

75 Listeners

3 Listeners

5 Listeners

22 Listeners

3 Listeners

3 Listeners