
Sign up to save your podcasts
Or


ChatGPT et en particulier GPT‑4 donnent-ils des réponses plus « paresseuses » qu’avant, comme le laissent penser des benchmarks et retours d’utilisateurs ? On analyse les écarts entre versions, la manière dont les évaluations sont faites et trois pistes d’explication solides, dont l’alignement, les changements de modèle et l’impact de la quantisation sur la qualité. Avec Michaël de Marliave, Matthieu Lambda et notre invité Ackanir, on discute comment mesurer une éventuelle régression et ce que cela implique pour l’usage des LLM.
Sources
En plateau
➤ Pour découvrir Mammouth IA : https://mammouth.ai/
➤ Pour le Merch Micode et Underscore_ : https://traphic.fr/collections/micode
⚠️ Précommandes avant le 15 Janvier !
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
By Micode4.9
1818 ratings
ChatGPT et en particulier GPT‑4 donnent-ils des réponses plus « paresseuses » qu’avant, comme le laissent penser des benchmarks et retours d’utilisateurs ? On analyse les écarts entre versions, la manière dont les évaluations sont faites et trois pistes d’explication solides, dont l’alignement, les changements de modèle et l’impact de la quantisation sur la qualité. Avec Michaël de Marliave, Matthieu Lambda et notre invité Ackanir, on discute comment mesurer une éventuelle régression et ce que cela implique pour l’usage des LLM.
Sources
En plateau
➤ Pour découvrir Mammouth IA : https://mammouth.ai/
➤ Pour le Merch Micode et Underscore_ : https://traphic.fr/collections/micode
⚠️ Précommandes avant le 15 Janvier !
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

9 Listeners

12 Listeners

82 Listeners

113 Listeners

27 Listeners

9 Listeners

75 Listeners

15 Listeners

91 Listeners

21 Listeners

20 Listeners

180 Listeners

6 Listeners

6 Listeners

10 Listeners