On m’a envoyé la vidéo d’EGO sur l’usine à trombones.
Plusieurs fois.
Et pendant que je travaillais sur un sujet pour WeLoveDevs autour de l’AI Act, j’ai fini par comprendre pourquoi ce mythe du paperclip optimizer revient toujours quand on parle d’IA.
Parce que derrière ces histoires d’algorithmes, on ne parle pas de technologie :
on parle d’organisation, de gouvernance, et de ce que nos systèmes apprennent sans supervision.
Dans cet épisode, on traverse :
• la différence entre ML supervisé et non supervisé ;
• comment les boucles d’engagement transforment LinkedIn & Facebook en machines à sur-apprendre nos pires signaux ;
• pourquoi un algorithme de recrutement peut apprendre… le racisme et l’âgisme ;
• comment l’IA ne crée pas des dystopies : elle accélère nos systèmes mal gouvernés ;
• Mao, Stakhanov et le Grand Bond en Avant : quand les KPI tuent la réalité ;
• pourquoi Hardin s’est trompé, et comment Ostrom propose déjà un autre futur ;
• pourquoi nos imaginaires cyberpunk sont bloqués dans les traumatismes du XXᵉ siècle ;
• comment sortir de la dystopie pour imaginer une gouvernance post-numérique ;
• pourquoi la démocratie liquide, le code déterministe et les communs pourraient sauver ce qui doit l’être — à condition de l’assumer politiquement.
Ce n’est pas un épisode qui vous dit d’avoir peur de l’IA.
Ni un épisode qui vous dit de l’embrasser les yeux fermés.
C’est un épisode qui pose une question simple :
👉 Et si notre problème n’était pas l’IA… mais le fait qu’on est incapables d’imaginer un futur désirable ?
• Mon article : “AI Act for developers : comprendre les 5 niveaux de risques”
https://welovedevs.com/articles/ai-act-for-developers-comprendre-les-5-niveaux-de-risques/
• Responsible Scaling Policy (Anthropic / ASL)
https://www.anthropic.com/news/anthropics-responsible-scaling-policy
Vidéos utilisées (extraits audio dans l’épisode)
• EGO – Le Paperclip Optimizer
https://www.youtube.com/watch?v=ZP7T6WAK3Ow
• ARTE – Les Communs (Hardin / Ostrom)
https://www.youtube.com/watch?v=MdfvIHWuvX8
• Le Vortex – Adam Smith n’était pas si libéral que ça
https://www.youtube.com/watch?v=Olur9mRLNjM
• Asma Mhalla – Conférence Cyberpunk / Politique
(Donne-moi le lien exact, je l’ajoute ici.)
• “T’inquiète je gère” — Chronique de Célia Pelluet, La dernière (Radio Nova)
Diffusion : 7 septembre 2025
(court extrait utilisé dans l’épisode)
Études, articles et documents factuels
• Sur-apprentissage & réseaux sociaux (ACM 2021)
https://doi.org/10.1145/3442188.3445922
• Plainte collective contre Workday (biais anti +40 ans)
https://www.courtlistener.com/docket/67604360/coleman-v-workday-inc/
• Analyse Bloomberg sur HiredScore / Workday
https://www.bloomberg.com/news/articles/2024-03-04
• Pollution des sols liée aux mini-hauts-fourneaux (Grand Bond en Avant)
https://doi.org/10.1016/j.jenvman.2018.09.034
• Stakhanov — biographie Britannica
https://www.britannica.com/biography/Aleksey-Stakhanov
• HAL – Secret du vote & vote électronique
https://hal.science/hal-01306657
2 — RÉFÉRENCES / CONTEXTE
• Nick Bostrom — Superintelligence
• “Universal Paperclips” — Frank Lantz
• C4.5 / See5 — arbres de décision (Ross Quinlan)
• Market Basket Analysis
• Clustering et réseaux de neurones (exemples pédagogiques)
Communs, économie & politique
• Garrett Hardin — The Tragedy of the Commons
• Elinor Ostrom — Governing the Commons (Nobel 2009)
• Frank Dikötter — Mao’s Great Famine
• Jasper Becker — Hungry Ghosts
• Adam Smith (travaux tardifs sur les “premiers besoins” hors marché)
Techno-politique & imaginaires
• Curtis Yarvin — Unqualified Reservations
• Peter Thiel & la scène néo-réactionnaire (NRx)
• Analyses académiques sur MAGA & post-guerre-froide
• Notes géopolitiques (Reuters / Washington Post sur les GBU)
• Edwin Black — IBM and the Holocaust
(sur les cartes perforées et la bureaucratie totalitaire)
🖤 Production Saleté Sincère
Postez vos commentaires sur https://saletesincere.fr