
Sign up to save your podcasts
Or


L’intelligence artificielle s'immisce dans de nombreux domaines, de la voiture autonome à la reconnaissance d'images. Cependant, derrière sa puissance se cache une vulnérabilité peu connue mais redoutable : les attaques adversariales. Ces attaques exploitent des imperfections dans les modèles pour induire des erreurs de prédiction, parfois de manière imperceptible. À travers un exemple pratique avec le modèle de classification d'images ResNet50, nous verrons comment une image apparemment banale peut être mal classée. En décryptant le raisonnement mathématique et l'optimisation derrière ces attaques, nous explorerons également des pistes pour rendre les systèmes d'IA plus robustes et mieux protégés contre ces vulnérabilités.
By L’intelligence artificielle s'immisce dans de nombreux domaines, de la voiture autonome à la reconnaissance d'images. Cependant, derrière sa puissance se cache une vulnérabilité peu connue mais redoutable : les attaques adversariales. Ces attaques exploitent des imperfections dans les modèles pour induire des erreurs de prédiction, parfois de manière imperceptible. À travers un exemple pratique avec le modèle de classification d'images ResNet50, nous verrons comment une image apparemment banale peut être mal classée. En décryptant le raisonnement mathématique et l'optimisation derrière ces attaques, nous explorerons également des pistes pour rendre les systèmes d'IA plus robustes et mieux protégés contre ces vulnérabilités.