
Sign up to save your podcasts
Or
🎙️ Les modèles d'IA sont-elles une menace existentielle ? Maxime Fournès nous partage son analyse !
Dans cet épisode, nous explorons en profondeur les risques liés à l'évolution des modèles d'IA, en compagnie de Maxime Fournès, expert en sécurité de l'intelligence artificielle et co-fondateur de Pause IA, une organisation qui milite pour une pause dans le développement des IA génératives.
💥 Une discussion cruciale sur les dangers de l'IA et leurs implications pour notre avenir.
📢 Nous abordons la course à la performance, les risques catastrophiques, la perte de contrôle possible, et les solutions envisagées.
🔗 Retrouvez-moi sur les réseaux :
Newsletter IA (gratuite) : https://optimia.substack.com/
Mon podcast sur Spotify & Apple : https://podcasters.spotify.com/pod/show/louis-graffeuil
Suivez-moi sur LinkedIn : https://www.linkedin.com/in/louisgraffeuil/
⏱️ Au programme de l’épisode :
00:00 Introduction
01:21 Les dangers de l'IA
02:05 Évolution de performance et des risques
04:15 Les modèles de raisonnement
11:35 Le cercle vertueux sur la performance des modèles
15:00 LLM, SLM et fine tuning
18:35 Bullshit ou pas sur la sécurité ?
26:00 Les risques catastrophiques possibles
31:19 Se protéger contre l'IA
35:45 Les modèles open-source : une bonne idée dans l'IA ?
38:01 Les risques d'autonomie de l'IA
41:25 Garder le contrôle sur l'IA
48:54 Les solutions face à une utilisation négative de l'IA
52:35 La régulation de l'IA
57:40 La nécessité de ralentir sur l'IA
1:00:25 Atteindre l'AGI
1:02:35 Le point de non-retour1:05:10 Les lignes rouges à ne pas dépasser
1:08:15 Une mesure pour encadrer l'IA ?
#ia #intelligenceartificielle #risquesIA #sécuritéIA #openAI #sécurité #deepseek
🎙️ Les modèles d'IA sont-elles une menace existentielle ? Maxime Fournès nous partage son analyse !
Dans cet épisode, nous explorons en profondeur les risques liés à l'évolution des modèles d'IA, en compagnie de Maxime Fournès, expert en sécurité de l'intelligence artificielle et co-fondateur de Pause IA, une organisation qui milite pour une pause dans le développement des IA génératives.
💥 Une discussion cruciale sur les dangers de l'IA et leurs implications pour notre avenir.
📢 Nous abordons la course à la performance, les risques catastrophiques, la perte de contrôle possible, et les solutions envisagées.
🔗 Retrouvez-moi sur les réseaux :
Newsletter IA (gratuite) : https://optimia.substack.com/
Mon podcast sur Spotify & Apple : https://podcasters.spotify.com/pod/show/louis-graffeuil
Suivez-moi sur LinkedIn : https://www.linkedin.com/in/louisgraffeuil/
⏱️ Au programme de l’épisode :
00:00 Introduction
01:21 Les dangers de l'IA
02:05 Évolution de performance et des risques
04:15 Les modèles de raisonnement
11:35 Le cercle vertueux sur la performance des modèles
15:00 LLM, SLM et fine tuning
18:35 Bullshit ou pas sur la sécurité ?
26:00 Les risques catastrophiques possibles
31:19 Se protéger contre l'IA
35:45 Les modèles open-source : une bonne idée dans l'IA ?
38:01 Les risques d'autonomie de l'IA
41:25 Garder le contrôle sur l'IA
48:54 Les solutions face à une utilisation négative de l'IA
52:35 La régulation de l'IA
57:40 La nécessité de ralentir sur l'IA
1:00:25 Atteindre l'AGI
1:02:35 Le point de non-retour1:05:10 Les lignes rouges à ne pas dépasser
1:08:15 Une mesure pour encadrer l'IA ?
#ia #intelligenceartificielle #risquesIA #sécuritéIA #openAI #sécurité #deepseek