Hébergé par Acast. Visitez
... moreShare Le Futurologue Podcast
Share to email
Share to Facebook
Share to X
By Le Futurologue
Hébergé par Acast. Visitez
... moreThe podcast currently has 70 episodes available.
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
👉 Suivez-moi sur YouTube, TikTok, Instagram, Facebook, X, Threads, LinkedIn
———
TIME CODE
0:00 Introduction
0:21 Présentation des invités
1:23 Quel est le plus grand danger de l’IA ?
11:17 Quel risque de l’IA faut-il prioriser ?
28:33 La complaisance de l’altruisme efficace envers OpenAI
35:26 Quelles solutions face aux risques de l’IA ?
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
👉 Suivez-moi sur YouTube, TikTok, Instagram, Facebook, X, Threads, LinkedIn
———
TIME CODE
0:00 Introduction
0:19 Présentation d’Henry
1:39 Présentation de SaferAI
3:47 Qu’est-ce que la gouvernance de l’IA ?
5:20 Qu’est-ce que l’IA Act ?
10:13 Clarification sur l’IA générale
11:16 Faut-il réguler uniquement les usages ?
13:58 L’IA Act est-elle assez stricte ?
16:35 Compétitivité vs éthique
18:50 La régulation de l’IA en Chine et aux États-Unis
19:55 Les processus pour aboutir à l’IA Act
22:23 Est-ce que les politiciens comprennent l’IA ?
24:42 Quels sont les risques de l’IA ?
30:44 Dans combien de temps arrivera l’IA générale ?
32:56 En quoi est-ce un défi de réguler l’IA ?
34:14 Faut-il prévoir les prochaines capacités des IA ?
36:01 L’importance du quantitatif dans la gestion des risques de l’IA
39:57 Pourquoi la gestion des risques de l’IA n’est pas déjà quantitative ?
41:07 À quoi ressemblerait une gestion quantitative des risques de l’IA ?
43:07 État des lieux de la gestion des risques de l’IA actuelle
46:06 Quelles bonnes pratiques peut-on importer des autres industries ?
48:53 L’importance de l’évaluation de l’IA
52:47 Capacité à mentir et conscience de soi dans les IA
55:16 L’importance de la coopération internationale en IA
57:50 Comment faire respecter les lois en vigueur en IA ?
58:45 Les tendances en gouvernance de l’IA
59:50 Es-tu optimiste pour le futur de la gouvernance de l’IA ?
1:01:14 Message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
🌐 Jetez un œil au site web de Pause IA
———
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
👉 Suivez-moi sur YouTube, TikTok, Instagram, Facebook, X, Threads, LinkedIn
———
TIME CODE
0:00 Introduction
0:45 La langue de bois dans l’IA
3:36 Présentation de l’invité
10:26 Prise de conscience des risques de l’IA
17:42 Interprétabilité et alignement des IA
22:10 L’IA de niveau humain est pour bientôt.
25:19 L’histoire du lancement de Pause IA
30:04 Yann Le Cun est-il un imposteur ?
34:29 La commission de l’IA et son rapport
41:36 Les actions et revendications de Pause IA 1/2
42:21 L’IA n’est pas un outil.
46:09 Les actions et revendications de Pause IA 2/2
50:33 Une pause de l’IA est-elle vraiment faisable ?
54:12 Les IA sont plus persuasives que les humains
1:01:43 Les IA au service du cybercrime
1:03:35 Bientôt un point de non-retour ?
1:06:52 Les dangers du revenu de base universel
1:11:20 L’autocratie des Big Tech
1:15:04 Les stades du déni de l’IA
1:19:38 Comment garder espoir ?
1:23:18 Un message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
👉 Suivez-moi sur YouTube, TikTok, Instagram, Facebook, X, Threads, LinkedIn
———
TIME CODE
0:00 Introduction
0:12 Présentation de l’invitée
3:07 La place des SHS dans l’IA
8:41 Compétitivité vs éthique
17:54 Les IA nous manipulent
23:51 Faut-il faire une pause de l’IA ?
33:11 L’affective computing
43:43 Le sexisme dans l’IA
46:53 Des machines émotionnelles ?
52:14 Faut-il protéger les robots ?
56:17 À quand la démocratisation des robots ?
1:01:44 Détecter le contenu généré par IA
1:09:08 Un message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
👉 Suivez-moi sur YouTube, TikTok, Instagram, Facebook, X, Threads, LinkedIn
———
QUI EST LÊ ?
Lê a étudié à l’école polytechnique de l’université Paris-Saclay, a fait une thèse à l’école polytechnique de Montréal et un post-doc au MIT.
Il est cofondateur et président de l'association Tournesol, un projet de recherche participatif pour des algorithmes de recommandation démocratiques et cofondateur et PDG de l’entreprise Calicarpa qui offre des formations et des consultations en sécurité des systèmes d'apprentissage automatique.
Il travaille sur la recherche en sécurité de l’IA et est membre du Comité d'éthique des données et de l'IA d’Orange.
Il est également particulièrement actif en communication scientifique puisqu’il est auteur ou coauteur de 6 livres et qu’il gère la chaîne YouTube Science4All qui totalise 240’000 abonnés et 19 millions de vues.
———
TIME CODE
0:00 Introduction
1:21 La face sombre des IA de recommandation
6:30 Et si les IA de recommandation étaient bénéfiques ?
9:38 Fake news vs mute news
13:00 Super IA vs IA de recommandation
19:18 Quand atteindra-t-on l’IA de niveau humain ?
23:01 Pourquoi se focaliser sur les IA de recommandation ?
28:15 Faut-il tenir un discours consensuel sur l’IA ?
37:44 Compétitivité vs sécurité, cybercrime et présomption de non-conformité
58:26 Faut-il mettre l’IA en pause ?
1:02:44 Que penser d’OpenAI ?
1:05:08 Que ferait Lê à la place de Sam Altman ?
1:09:42 Que penser de l’open source dans l’IA ?
1:13:15 Faut-il avoir des relations avec les IA ?
1:17:22 Que penser des monopoles dans l’IA ?
1:20:48 La vitesse de la législation vs celle de l’IA
1:26:49 Un message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
👉 Suivez-moi sur YouTube, TikTok, Instagram, Facebook, X, Threads, LinkedIn
———
TIME CODE
0:00 Introduction
0:17 Présentation de l’invité
1:06 Définition des deepfakes
6:27 Les risques des deepfakes pornographiques
9:59 Les risques d’arnaques par deepfakes
13:24 Les risques des deepfakes politiques
18:47 Le risque de post-vérité dû aux deepfakes
20:57 Définition des médias synthétiques
22:56 Les applications utiles des deepfakes
27:13 Les applications des deepfakes dans le divertissement
31:34 Les régulations sur les deepfakes
36:29 Faut-il plus réguler les deepfakes ?
39:19 Comment faire appliquer les lois sur les deepfakes ?
40:47 La réaction des réseaux sociaux face aux deepfakes
42:37 Faut-il interdire les deepfakes ?
47:39 Peut-on détecter les deepfakes ?
51:52 Pourquoi détecter les deepfakes n’est pas suffisant ?
56:07 Les enjeux des IA pour les médias
1:00:57 À quel point la situation est-elle inquiétante ?
1:05:47 L’affaire entre le New York Times et OpenAI
1:09:04 Les médias doivent-ils être les garants de la vérité ?
1:13:34 Un message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
👉 Suivez-moi sur YouTube, TikTok, Instagram, Facebook, X, Threads, LinkedIn
———
QUI EST JONATHAN ?
Après avoir travaillé en tant qu’ingénieur en télécommunications et réseaux, ingénieur logiciel et développeur, il est aujourd’hui chercheur en sécurité de l'IA et membre du conseil d’administration d’EffiSciences, une organisation qui agit pour une recherche impliquée face aux grands problèmes de notre monde.
Il a également cofondé et travaillé pour le réseau européen pour la sécurité de l’IA qui vise à connecter les chercheurs et les décideurs pour une intelligence artificielle sûre en Europe.
———
TIME CODE
0:00 Introduction
0:33 Présentation Jonathan
1:10 Quels sont les différents types d’IA ?
4:52 Va-t-on vers des IA autonomes ?
8:19 Pourquoi on prédit mal les progrès de l’IA ?
13:19 Quand arrivera l’IA surhumaine ?
23:22 Qu’est-ce qu’un risque existentiel ?
26:12 Le risque existentiel de l’automatisation
36:17 Les difficultés pour réduire ce risque existentiel
44:16 Les solutions pour réduire ce risque existentiel
53:55 Alignement vs gouvernance
58:23 Peut-on être optimiste sur la mise en place de ces solutions ?
1:05:32 Les moyens nécessaires pour mettre en place ces solutions
1:07:34 Un message à l’humanité
1:10:57 Est-ce que les IA vont s’aligner par elles-mêmes ?
1:16:27 Les capacités des IA auxquelles on n’a pas accès
1:18:12 Faut-il mettre les IA en open source ?
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
👉 Suivez-moi sur YouTube, TikTok, Instagram, Facebook, X, Threads, LinkedIn
———
QUI EST SERGE ?
Psychiatre, docteur en psychologie, membre de l'Académie des technologies et du Conseil national du numérique, Serge Tisseron est sans conteste la référence en matière de cyber-psychologie.
Il a fondé quatre associations, publié une quarantaine d'essais personnels ainsi qu'une quinzaine d'ouvrages en collaboration, réalisé une dizaine de directions d'ouvrages collectifs, une dizaine de directions de numéros de revue, une quarantaine de préfaces d'ouvrages d'autres auteurs, une vingtaine de contributions à des manuels et encyclopédies, environ quatre-vingts contributions à des ouvrages collectifs et plus de deux cents articles personnels. Ses livres sont traduits dans une douzaine de langues.
———
TIME CODE
0:00 Introduction
0:07 Présentation de l’invité
1:17 L’importance de la distinction entre humains et machines
5:58 Le rapport aux machines dans les autres cultures
10:22 Comment diminuer l’anthropomorphisation des machines ?
18:23 Faut-il être gentil avec les machines ?
29:17 Faut-il interdire les lovebot et les deathbot ?
37:19 Les croyances qu’engendreront les deathbot
46:10 Les machines parlantes face aux lumières et au christianisme
53:38 Pourquoi ne parle-t-on pas d’addiction aux écrans ?
1:09:01 Y’a-t-il une panique morale sur les écrans ?
1:14:36 De plus en plus de photos et un retour des appareils photo analogiques
1:23:00 Un message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
👉 Suivez-moi sur YouTube, TikTok, Instagram, Facebook, X, Threads, LinkedIn
———
QUI EST LÊ ?
Lê a étudié à l’école polytechnique de l’université Paris-Saclay, a fait une thèse à l’école polytechnique de Montréal et un post-doc au MIT.
Il est cofondateur et président de l'association Tournesol, un projet de recherche participatif pour des algorithmes de recommandation démocratiques et cofondateur et PDG de l’entreprise Calicarpa qui offre des formations et des consultations en sécurité des systèmes d'apprentissage automatique.
Il travaille sur la recherche en sécurité de l’IA et est membre du Comité d'éthique des données et de l'IA d’Orange.
Il est également particulièrement actif en communication scientifique puisqu’il est auteur ou coauteur de 6 livres et qu’il gère la chaîne YouTube Science4All qui totalise 240’000 abonnés et 19 millions de vues.
———
TIME CODE
0:00 Introduction
1:16 Présentation de Lê
2:20 L’ordinateur quantique
11:36 Le transhumanisme
13:41 L’altruisme efficace
42:37 La polarisation
52:09 Le scepticisme
1:01:51 Le lobbying des Big Tech
1:07:57 La supériorité des Youtubeurs
1:13:15 Blockchain, crypto et NFT
1:22:19 Un message pour l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
👉 Suivez-moi sur YouTube, TikTok, Instagram, Facebook, X, Threads, LinkedIn
———
QUI EST RAFI ?
Au cours de sa carrière, il a fondé vingt-trois entreprises de technologie, a été le créateur du premier fournisseur d'accès Internet en France ainsi qu'un pionnier du Minitel et de l'objet connecté.
Il s'attaque aujourd'hui à l'intelligence artificielle avec son application « Juice », une plateforme d'audio génératif.
Il a également sorti un livre, « Tentative d'épuisement de l'avenir du futur » dans lequel il dresse l'histoire du lien entre l'humain et le savoir, des bibliothèques médiévales jusqu'au métavers.
Dans ce livre, il fait la prédiction que notre rapport à l'information est au bord d'une révolution majeure qu'il appelle le « postweb ».
———
TIME CODE
0:00 Introduction
1:19 Qu’est-ce que le postweb ?
10:40 Le postweb n’est pas que visuel
19:47 Le postweb va réduire nos choix
23:29 Vers une culture personnalisée ?
29:44 Le postweb est-il la fin du web ?
39:58 Le postweb face à l’infobesité
48:39 Faut-il se réjouir du postweb ?
53:13 Qu’est-ce que Juice ?
1:01:15 Où en est l’internet des objets ?
1:06:13 Du postweb au métavers
1:08:57 Un message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
The podcast currently has 70 episodes available.
230 Listeners
1 Listeners
3 Listeners
34 Listeners