IA Décryptée

Pourquoi les transformers zappent le milieu ? – Le biais caché de l’attention


Listen Later

Pourquoi les modèles comme GPT semblent toujours se souvenir du début d’un texte… et oublier le milieu ? Dans cet épisode, Alex et Léa décryptent un papier qui révèle un biais structurel dans les transformers : l’architecture elle-même pousse l’attention vers les premières positions. Grâce à une approche en graphe, les chercheurs prouvent que même sans entraînement, les modèles sont déjà orientés vers le passé.
On explore pourquoi ça pose problème, comment atténuer ce biais, et ce que ça veut dire pour les produits qui manipulent de longs textes.
Un épisode synthétique, sans vous laisser au milieu du gué 😉

...more
View all episodesView all episodes
Download on the App Store

IA DécryptéeBy Anas