
Sign up to save your podcasts
Or


⏸️ Rejoignez le canal WhatsApp et le serveur Discord de Pause IA
———
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon
———
AGIR POUR LA SÉCURITÉ DE L’IA
S’informer
Faire un don
Devenir bénévole
Repenser votre carrière
———
MES RECOMMANDATIONS
Mes livres préférés sur l’IA
Tous les livres que j’ai lus
Mon matériel high-tech
———
DESCRIPTION DE L’ÉPISODE
Maxime Fournes cumule plus de dix ans d’expérience en intelligence artificielle. Après avoir travaillé pour de grands fonds d’investissement et occupé des postes enviés, il a choisi de tout quitter pour cofonder en 2024 Pause IA, une association qui milite pour une pause dans le développement des intelligences artificielles les plus dangereuses. Nous avions déjà échangé dans plusieurs épisodes, mais, depuis notre dernière conversation, les avancées en IA ont été fulgurantes. Dans cet entretien, nous revenons sur ces progrès et sur les immenses risques qu’ils font peser sur notre avenir.
———
TIME CODE
0:00 Introduction
1:40 Alpha Evolve
10:33 Sakana AI
21:31 Claude 4
33:47 AI 2027
37:42 Le virage des géants de la tech
41:15 Une interdiction de réguler ?
46:41 Une pause de l’IA Act ?
52:07 Vers l’extinction humaine ?
57:58 La super IA va-t-elle se remettre en question ?
1:06:09 La super IA est-elle une opportunité pour la nature ?
1:10:01 Comment la super IA va-t-elle nous tuer ?
1:11:28 Alignement interne vs alignement externe
1:14:55 Qu’est-ce que la super IA va optimiser ?
1:22:01 La France va-t-elle perdre la course ?
1:26:09 Des nouvelles de Pause IA
1:29:26 Un message pour l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
By Shaïman Thürler⏸️ Rejoignez le canal WhatsApp et le serveur Discord de Pause IA
———
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon
———
AGIR POUR LA SÉCURITÉ DE L’IA
S’informer
Faire un don
Devenir bénévole
Repenser votre carrière
———
MES RECOMMANDATIONS
Mes livres préférés sur l’IA
Tous les livres que j’ai lus
Mon matériel high-tech
———
DESCRIPTION DE L’ÉPISODE
Maxime Fournes cumule plus de dix ans d’expérience en intelligence artificielle. Après avoir travaillé pour de grands fonds d’investissement et occupé des postes enviés, il a choisi de tout quitter pour cofonder en 2024 Pause IA, une association qui milite pour une pause dans le développement des intelligences artificielles les plus dangereuses. Nous avions déjà échangé dans plusieurs épisodes, mais, depuis notre dernière conversation, les avancées en IA ont été fulgurantes. Dans cet entretien, nous revenons sur ces progrès et sur les immenses risques qu’ils font peser sur notre avenir.
———
TIME CODE
0:00 Introduction
1:40 Alpha Evolve
10:33 Sakana AI
21:31 Claude 4
33:47 AI 2027
37:42 Le virage des géants de la tech
41:15 Une interdiction de réguler ?
46:41 Une pause de l’IA Act ?
52:07 Vers l’extinction humaine ?
57:58 La super IA va-t-elle se remettre en question ?
1:06:09 La super IA est-elle une opportunité pour la nature ?
1:10:01 Comment la super IA va-t-elle nous tuer ?
1:11:28 Alignement interne vs alignement externe
1:14:55 Qu’est-ce que la super IA va optimiser ?
1:22:01 La France va-t-elle perdre la course ?
1:26:09 Des nouvelles de Pause IA
1:29:26 Un message pour l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

232 Listeners

81 Listeners

98 Listeners

47 Listeners

15 Listeners

6 Listeners

120 Listeners

21 Listeners

17 Listeners

24 Listeners

194 Listeners

5 Listeners

58 Listeners

13 Listeners

0 Listeners