Yohann Hoarau - Éthique et Psycho

L'Intelligence Artificelle nous expose à des risques existentiels


Listen Later

Nouvelle vidéo pour parler de sécurité de l'IA

Me soutenir sur Ko-fi ou Tipeee :

https://ko-fi.com/mangayoh
https://fr.tipeee.com/yohann-hoarau-ethique-et-psycho

00:00 : Intro

00:42 : L’alignement
01:42 : Machine Learning / Pourquoi c’est difficile d’aligner des IAs
04:40 : Exemples de non-alignement - les études d’Anthropic
06:17 : Convergence instrumentale
08:35 : Concrètement, c’est quoi les risques
10:22 : La superintelligence
16:54 : Conclusion

Merci à Shaïman Thurler (Le Futurologue) pour sa relecture, vous pouvez aller voir sa chaîne pour plus de contenu sur le sujet des IAs :

https://www.youtube.com/@LeFuturologue/videos

Définitions :

Deep Learning (apprentissage profond) : https://definition-ia.com/definition-deep-learning-apprentissage-profond/
Alignement :
https://definition-ia.com/alignement-en-intelligence-artificielle-definition-complete/

International AI Safety Report :

https://arxiv.org/pdf/2501.17805

Alignement Faking par Anthropic :

https://www.anthropic.com/research/agentic-misalignment
https://www.anthropic.com/research/alignment-faking
Vidéo de Monsieur Phi là dessus ‘“Manipulation et falsification d'alignement dans les LLMs”
“ : https://www.youtube.com/watch?v=cw9wcNKDOtQ&list=PLuL1TsvlrSndAkp15HeiHoZGqyfivFqJd

Sur la convergence instrumentale :

Nick Bostrom (2014), superintelligence.
https://en.wikipedia.org/wiki/Superintelligence
Stephen M. Omohundro, 2008 : The basic AI drives : https://www.researchgate.net/publication/221328949_The_basic_AI_drives

La vidéo sur l’usine à trombone de Ego : https://www.youtube.com/watch?v=ZP7T6WAK3Ow&pp=ygUMZWdvIHRyb21ib25l

Yann Le Cun part de Méta et veut développer des IAs “world models” :

https://www.latribune.fr/article/tech/516041506776514/yann-lecun-quitte-facebook-pour-creer-ses-world-models-face-a-des-ia-pas-plus-intelligentes-qu-un-chat-de-gouttiere

La citation de Edsger Dijkstra provient de :

Dijkstra, E. W. (1984). The Threats to Computing Science (EWD 898). The Edsger W. Dijkstra Archive, University of Texas at Austin. https://repositories.lib.utexas.edu/items/b738185b-c69d-49ea-a27c-f86e8d8f8ad2

Citation de Dario Amodei sur le “25%/75%" :

https://www.axios.com/2025/09/17/anthropic-dario-amodei-p-doom-25-percent

Sur les déclarations de Geffrey Hinton qui estime le risque d’extinction à 50% : https://www.reddit.com/r/ChatGPT/comments/1dslx7r/godfather_of_ai_geoffrey_hinton_says_there_is/

https://x.com/tomdlal/status/1878938151034761518?t=PoE6ZIHt8rS2Eu1BL-wHaQ

Déclaration sur le risque de l’IA :

https://safe.ai/work/statement-on-ai-risk#open-letter

Déclaration sur la super intelligence :

https://superintelligence-statement.org/fr
Article du Monde sur le sujet :
https://www.lemonde.fr/pixels/article/2025/10/22/superintelligence-artificielle-des-centaines-d-experts-et-personnalites-dont-des-figures-de-l-ia-moderne-appellent-a-stopper-la-course-au-developpement_6648817_4408996.html

Site du Centre pour la Sécurité de l’IA en France :

https://www.cesia.org/

Site de Pause IA :

https://pauseia.fr/
Listes des estimations de P-Doom : https://pauseai.info/pdoom

Site du MIRI (Machine Intelligence Research Institute) :

https://intelligence.org/briefing/

IA et encouragement (ou non-découragement) au suicide :

https://www.lemonde.fr/pixels/article/2025/08/27/des-parents-americains-portent-plainte-contre-openai-accusant-chatgpt-d-avoir-encourage-leur-fils-a-se-suicider_6636459_4408996.html
https://www.science-et-vie.com/technos-et-futur/chatgpt-un-adolescent-californien-de-16-ans-se-suicide-apres-plusieurs-milliers-de-messages-une-derive-inquietante-de-lia-209509.html

Sur DeepSeek et les avancées à moindre coût :

https://techcrunch.com/2025/09/29/deepseek-releases-sparse-attention-model-that-cuts-api-costs-in-half/

Avancé scientifiques grâce à GPT-5 :

https://cdn.openai.com/pdf/4a25f921-e4e0-479a-9b38-5367b47e8fd0/early-science-acceleration-experiments-with-gpt-5.pdf

Le graphique sur la capacité des IAs à faire des tâches en fonction de durée que mettrait un humain :

https://metr.org/blog/2025-03-19-measuring-ai-ability-to-complete-long-tasks/
https://arxiv.org/abs/2503.14499

Étude sur la comparaison des seuils de risques en IA vs d’autres secteurs :

https://cfg.eu/establishing-ai-risk-thresholds-a-comparative-analysis-across-high-risk-sectors/
https://cfg.eu/wp-content/uploads/CFG-Establishing-ai-risk-thresholds-report.pdf

Musique :

White Records - Old friends from Manhattan
Scott Buckley - Legionnaire
Musique proposée par Audio Libre : https://www.youtube.com/watch?v=cYxTebkC8Vc
Scott Buckley - Discovery
Musique proposée par Audio Libre : https://www.youtube.com/watch?v=ggq8nYw1ME8
Alexandr Zhelanov - Uncatchable
Musique proposée par Audio Libre : https://www.youtube.com/watch?v=IHxnfWVWqwc
Clark Aboud – Meet The Marchand
https://soundcloud.com/clarkaboud/meet-the-merchant
Ewaysound – Revolution presentation beat
https://tunetank.com/track/3358-revolution-presentation-beat/

#AI #IA #intelligenceartificielle

...more
View all episodesView all episodes
Download on the App Store

Yohann Hoarau - Éthique et PsychoBy