
Sign up to save your podcasts
Or


🗣️ La déclaration
💬 Discord du Centre pour la Sécurité de l’IA
✉️ Contacter vos représentants
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon
———
AGIR POUR LA SÉCURITÉ DE L’IA
S’informer
Faire un don
Devenir bénévole
Repenser votre carrière
———
MES RECOMMANDATIONS
Mes livres préférés sur l’IA
Tous les livres que j’ai lus
Mon matériel high-tech
———
DESCRIPTION DE L’ÉPISODE
Charbel-Raphaël Segerie est ingénieur, chercheur et enseignant en intelligence artificielle. Il est expert IA auprès de l’OCDE et dirige le Centre pour la Sécurité de l’IA. Dans cet épisode, il explique pourquoi il a lancé un appel mondial à la mise en place de lignes rouges internationales afin de prévenir les risques inacceptables liés à l'IA.
———
TIME CODE
0:00 Introduction
1:10 La déclaration et ses signataires
6:44 Pourquoi avoir écrit cette déclaration ?
11:33 Les progrès rapides de l’IA
18:37 Les plus gros risques de l’IA
25:44 Les comportements inquiétants des IA
34:55 Les risques d’extinction de l’IA
42:15 Combien de temps nous reste-il ?
47:07 Pourquoi 2026 ?
48:34 Que sont les lignes rouges ?
51:13 Pourquoi des lignes rouges ?
54:51 Les lignes rouges vs l’innovation
57:42 Les difficultés géopolitiques
59:05 Le risque des pays malveillants
1:01:41 Le défi de l’opérationnalisation
1:07:27 Quelles sont les prochaines étapes ?
1:10:33 Quelques anecdotes
1:13:38 Vivre en ayant conscience de ces risques
1:17:04 Que faire à titre individuel ?
1:19:42 Message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
By Shaïman Thürler🗣️ La déclaration
💬 Discord du Centre pour la Sécurité de l’IA
✉️ Contacter vos représentants
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon
———
AGIR POUR LA SÉCURITÉ DE L’IA
S’informer
Faire un don
Devenir bénévole
Repenser votre carrière
———
MES RECOMMANDATIONS
Mes livres préférés sur l’IA
Tous les livres que j’ai lus
Mon matériel high-tech
———
DESCRIPTION DE L’ÉPISODE
Charbel-Raphaël Segerie est ingénieur, chercheur et enseignant en intelligence artificielle. Il est expert IA auprès de l’OCDE et dirige le Centre pour la Sécurité de l’IA. Dans cet épisode, il explique pourquoi il a lancé un appel mondial à la mise en place de lignes rouges internationales afin de prévenir les risques inacceptables liés à l'IA.
———
TIME CODE
0:00 Introduction
1:10 La déclaration et ses signataires
6:44 Pourquoi avoir écrit cette déclaration ?
11:33 Les progrès rapides de l’IA
18:37 Les plus gros risques de l’IA
25:44 Les comportements inquiétants des IA
34:55 Les risques d’extinction de l’IA
42:15 Combien de temps nous reste-il ?
47:07 Pourquoi 2026 ?
48:34 Que sont les lignes rouges ?
51:13 Pourquoi des lignes rouges ?
54:51 Les lignes rouges vs l’innovation
57:42 Les difficultés géopolitiques
59:05 Le risque des pays malveillants
1:01:41 Le défi de l’opérationnalisation
1:07:27 Quelles sont les prochaines étapes ?
1:10:33 Quelques anecdotes
1:13:38 Vivre en ayant conscience de ces risques
1:17:04 Que faire à titre individuel ?
1:19:42 Message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

228 Listeners

84 Listeners

97 Listeners

47 Listeners

15 Listeners

6 Listeners

121 Listeners

21 Listeners

17 Listeners

22 Listeners

187 Listeners

6 Listeners

55 Listeners

13 Listeners

0 Listeners