Merci de soutenir ce podcast en visitant nos sponsors:
- Investissez comme les professionnels avec StockMVP - https://www.stock-mvp.com/?via=ron
- Créez n'importe quel formulaire, sans code, avec Fillout. 50 % de crédits supplémentaires à l'inscription - https://try.fillout.com/the_automated_daily
- Prezi: Créez rapidement des présentations avec l'IA - https://try.prezi.com/automated_daily
Soutenez directement The Automated Daily:
Offre-moi un café: https://buymeacoffee.com/theautomateddaily
Sujets du jour:
Mémoire et contexte pour agents - Tour d’horizon des approches “context engineering” pour agents IA : Personal Brain OS dans Git, OpenClaw sur infra privée, et la stratégie d’Amp vers le CLI. Mots-clés : agents, mémoire, Git, workflows, orchestration.
Sécurité : code, agents, navigateur - Anthropic lance Claude Code Security (scan de vulnérabilités + correctifs proposés), Wiz publie un mémo “Securing AI Agents 101”, et Firefox 148 ajoute un “kill switch” IA avec renforcement XSS. Mots-clés : sécurité, vulnérabilités, agents, navigateur, XSS.
Frameworks web et discipline d’agent - Étude de “token efficiency” sur 19 frameworks web avec Claude Code, et débat sur ce qui fait un bon agent de dev : discipline de workflow, Electron vs natif, et limites des benchmarks. Mots-clés : tokens, frameworks, Claude, Electron, productivité.
Économie de l’IA et publicité - Goldman Sachs affirme que la vague d’investissement IA a ajouté presque zéro au PIB US 2025, pendant qu’OpenAI teste des pubs dans ChatGPT Free/Go. Mots-clés : PIB, data centers, importations, ads, monétisation.
Raisonnement : preuves et multi-agents - OpenAI publie ses tentatives de preuves “First Proof” (plusieurs potentiellement correctes), et un papier arXiv utilise des LLM pour faire évoluer de nouveaux algorithmes multi-agents (VAD-CFR, SHOR-PSRO). Mots-clés : preuve, arXiv, jeux, évolution, algorithmes.
Compétences d’usage : AI fluency - Anthropic mesure l’“AI Fluency” via un cadre 4D et des conversations anonymisées : l’itération rend les usages plus compétents, mais les tâches d’“artifacts” réduisent l’esprit critique observable. Mots-clés : fluency, itération, évaluation, artefacts, collaboration.
Wearables : lunettes et voix silencieuse - Apple accélère des wearables IA (lunettes, pendentif, AirPods caméras) et miserait sur une acquisition liée à la “voix silencieuse” pour mieux piloter Siri sans parler. Mots-clés : Apple, lunettes, Siri, silent voice, caméras.
Outils produits : analytics et no-code - Amplitude pousse un événement “AI Analytics” et l’intégration MCP, tandis que Framer renforce ses offres (IA, CMS, SEO) et un programme startup pour lancer vite des sites. Mots-clés : Amplitude, analytics, MCP, Framer, no-code.
-https://x.com/koylanai/status/2025286163641118915
-https://gizmodo.com/ai-added-basically-zero-to-us-economic-growth-last-year-goldman-sachs-says-2000725380
-https://vladimir.varank.in/notes/2026/02/freebsd-brcmfmac/
-https://martinalderson.com/posts/which-web-frameworks-are-most-token-efficient-for-ai-agents/
-https://www.anthropic.com/research/AI-fluency-index
-https://serverhost.com/blog/firefox-148-launches-with-exciting-ai-kill-switch-feature-and-more-enhancements/
-https://www.anthropic.com/news/claude-code-security
-https://openai.com/index/first-proof-submissions/
-https://mesuvash.github.io/blog/2026/rl_for_llm/
-http://amplitude.com/amplitude-ai-your-unfair-advantage
-https://www.wiz.io/lp/securing-ai-agents-101
-https://greenido.wordpress.com/2026/02/21/leveraging-openclaw-as-a-web-developer/
-https://winbuzzer.com/2026/02/21/chatgpt-ads-now-appearing-first-prompt-free-users-openai-xcxwbn/
-https://www.testingcatalog.com/microsoft-develops-copilot-advisors-to-debate-on-any-topic/
-https://arxiv.org/abs/2602.16928
-https://9to5mac.com/2026/02/21/apple-ai-smart-glasses-rumors-sounding-more-exciting/
-https://framer.link/TLDRAI)
-https://www.bhusalmanish.com.np/blog/posts/why-claude-wins-coding.html
-https://www.dbreunig.com/2026/02/21/why-is-claude-an-electron-app.html
-https://framer.link/TLDRAI
-https://ampcode.com/news/the-coding-agent-is-dead
-https://x.com/anthropicai/status/2024210053369385192
Transcription de l'Episode
Mémoire et contexte pour agents
On commence par ce récit assez dingue côté systèmes : Vladimir Varankin a ressorti un MacBook Pro 2016, connu pour ses soucis d’écran, pour en faire une machine de test sous FreeBSD 15. Problème : la puce Wi‑Fi Broadcom BCM4350 n’a pas de support natif. D’habitude, on contourne via “wifibox” : une mini VM Linux à qui on passe le périphérique PCI, et Linux fait tourner le pilote brcmfmac.
Varankin a d’abord tenté le portage classique : récupérer le sous-arbre brcmfmac de Linux, demander à un assistant IA de le porter avec la LinuxKPI de FreeBSD… et il obtient un truc qui compile mais panique sur le vrai matériel, avec une avalanche de fonctionnalités manquantes côté compat Linux.
Le pivot est intéressant : au lieu de porter le code, il fait produire à un agent IA une spécification “clean-room” ultra détaillée, une sorte de livre en 11 chapitres sur le fonctionnement de brcmfmac pour ce chipset précis. Ensuite, il recoupe la spec avec le code Linux via plusieurs sessions — et note au passage que Gemini hallucine le plus dans ses tests — puis il repart de zéro avec un nouveau module FreeBSD. Résultat : scan, connexion 2.4/5 GHz, WPA/WPA2. Le code est sur GitHub (narqo/freebsd-brcmfmac), plutôt comme exercice d’ingénierie que pilote prêt à l’emploi, avec en prime un débat de licence.
Le message à retenir : pour certains projets, la valeur de l’IA n’est pas de “traduire” du code, mais de stabiliser une compréhension exploitable — une spec — et de journaliser la démarche pour éviter de tourner en rond.
Sécurité : code, agents, navigateur
Et justement, sur la question “éviter de répéter le contexte”, un autre papier attire l’attention : Muratcan Koylan décrit son “Personal Brain OS”, un “système d’exploitation personnel” pour agents IA… qui vit entièrement dans un dépôt Git. Pas de base de données, pas de vector store, pas de couche de retrieval maison : juste plus de 80 fichiers Markdown, YAML et JSONL lisibles nativement, autant par un humain que par des outils comme Cursor ou Claude Code.
Son point central, c’est que le goulot d’étranglement n’est pas le prompting, mais le “context engineering” : les LLM ont un budget d’attention limité et, quand on empile tout dans un unique prompt système, on se fait piéger par l’effet “lost in the middle”. Pour y répondre, il découpe en 11 modules et applique une “divulgation progressive” : un fichier de routage léger se charge toujours, ensuite les instructions de module, et les données détaillées — logs, recherches, configs — ne sont chargées que si la tâche le justifie.
Il ajoute aussi une hiérarchie d’instructions pour éviter les règles contradictoires : onboarding au niveau repo, table de décision au niveau “brain” qui mappe les requêtes vers des séquences d’actions, puis contraintes comportementales au niveau module. Le “truc” pratique : JSONL pour les journaux append-only, YAML pour les configs et objectifs annotés, Markdown pour les guides et templates avec des diffs Git propres.
La pièce maîtresse, c’est la mémoire épisodique : logs d’expériences, décisions, échecs, afin que l’agent puisse citer de vrais arbitrages passés au lieu de régurgiter des conseils génériques. Et avec des références croisées — comme des contact_id ou des “pillars” de marque — il simule un modèle relationnel… sans charger tout le dépôt.
On voit émerger ici une philosophie : si l’agent doit être cohérent dans le temps, il lui faut des traces versionnées et des règles de lecture, pas juste un prompt brillant.
Frameworks web et discipline d’agent
Dans la même veine “agents, mais sur votre infra”, Ido Green propose un résumé d’OpenClaw : un framework open source pour transformer des LLM en agents capables d’exécuter des workflows réels via REST et webhooks, avec des canaux type Slack/Telegram/SMS, un moteur de compétences, et surtout un sandbox pour exécuter du code avec des permissions graduelles. C’est modèle-agnostique — OpenAI, Anthropic, ou self-hosted — et sous licence MIT, donc pensée anti lock-in.
Mais qui dit agents, dit aussi sécurité et exploitation : l’article insiste sur la discipline de déploiement, l’auth, et le risque des “skills” tiers.
Et côté produit, Amp publie une prise de position assez radicale : “l’ère des coding agents est finie”… pas parce que ça ne marche pas, mais parce que l’agent layer — prompts, wrappers, intégrations — n’est plus le principal frein avec les nouveaux modèles. Leur conséquence concrète : ils arrêtent leurs extensions VS Code et Cursor, qui “s’auto-détruiront” le 5 mars à 20h Pacific, pour pousser les utilisateurs vers Amp CLI. L’idée est claire : sortir l’agent de la sidebar, et le mettre dans un mode où il peut agir sans que vous ayez le nez dans l’éditeur.
Enfin, Anthropic ajoute un chiffre qui explique pourquoi tout le monde optimise cet axe : environ la moitié des appels d’outils “agentiques” via leur API viendraient de cas d’usage d’ingénierie logicielle. Autrement dit, le développement est déjà le terrain d’entraînement économique et technique des agents — et ça pousse tout le monde à mieux monitorer ces systèmes après déploiement, pas seulement avant.
Économie de l’IA et publicité
Passons à la sécurité, parce que c’est le point de friction immédiat dès qu’un agent touche un vrai dépôt. Anthropic lance Claude Code Security, en preview de recherche : l’outil scanne une base de code pour détecter des vulnérabilités et propose des patchs ciblés, à valider par un humain. Positionnement intéressant : moins “règles et signatures”, plus raisonnement de chercheur sécu, avec analyse des interactions et des flux de données — donc des bugs de logique métier, de contrôle d’accès, etc.
Pour limiter les faux positifs, chaque finding passe par une vérification en plusieurs étapes où le modèle tente de prouver ou réfuter sa propre conclusion, puis affiche sévérité et niveau de confiance. Anthropic dit aussi avoir trouvé plus de 500 vulnérabilités dans des projets open source en production avec Claude Opus 4.6, et être en train de trier et divulguer responsablement.
En parallèle, Wiz pousse une ressource “Securing AI Agents 101” — format one-pager, assez marketing et gated via formulaire — mais le thème est important : où naît le risque quand un agent orchestre des outils, des modèles, des pipelines, et prend des décisions.
Et puis il y a la sécurité côté navigateur : Mozilla sort Firefox 148 avec un “kill switch” IA. Concrètement, vous pouvez désactiver les fonctionnalités IA — prompts de chatbot, résumés de liens — et Mozilla promet que les mises à jour futures ne réactiveront pas l’option. On peut aussi faire du sélectif : garder la traduction locale, refuser l’IA cloud. Bonus sécurité web : Trusted Types API et Sanitizer API pour réduire les risques XSS. C’est un bon rappel : l’IA s’invite partout, donc la gouvernance “opt-out durable” devient un vrai sujet produit.
Raisonnement : preuves et multi-agents
Côté dev et productivité, une étude pratique compare 19 frameworks web sous un angle nouveau : la “token efficiency” pour des agents de code. Martin Alderson demande à Claude Code, en contexte vierge, de construire la même mini app de blog — liste, détail, création, SQLite, CSS, port 3003, vérification via curl — et mesure tokens, tool calls, et temps.
Résultat : tous les frameworks sortent une app fonctionnelle, ce qui est déjà un progrès énorme par rapport à il y a un an. Mais l’écart de coût est net : les frameworks minimalistes gagnent. ASP.NET Minimal API serait le plus économe autour de 26k tokens, quand Phoenix monte vers 74k — presque x3 — probablement parce que l’agent passe du temps à lire du scaffolding ou qu’il a moins de familiarité avec certains patterns.
Quand il reprend la session pour ajouter une feature “catégories”, 18 sur 19 réussissent, et les coûts se rapprochent : l’overhead, c’est surtout l’initialisation; l’extension d’une base existante est plus homogène.
En parallèle, un autre article explique pourquoi beaucoup de devs reviennent à Claude : pas seulement pour “le bon code”, mais pour la discipline de processus sur des tâches multi-fichiers, avec des corrections prudentes, moins de dérives, moins d’éditions inutiles. L’auteur estime même que “savoir coder” pour un agent, c’est 40% génération et 60% comportements de workflow.
Et ça éclaire une question qui a l’air anodine, mais ne l’est pas : pourquoi l’app desktop de Claude est en Electron ? Réponse pragmatique : aujourd’hui, même avec des agents et du spec-driven dev, le dernier 10% — edge cases, maintenance, cohérence multi-plateformes — coûte très cher. Electron reste une manière de réduire la surface de bugs et de garder une base commune.
Compétences d’usage : AI fluency
Sur l’IA et l’économie, Goldman Sachs jette un pavé : selon ses économistes, la flambée de dépenses IA aurait ajouté “basically zero” à la croissance du PIB américain en 2025. Ça contredit le récit facile “plus de data centers = plus de croissance”. Leur argument clé est comptable, mais concret : une partie massive du hardware — surtout les puces — est importée, donc l’investissement gonfle moins le PIB domestique qu’on le croit, et bénéficie aussi à des pays producteurs comme Taïwan ou la Corée du Sud.
Autre point : même si 70% des entreprises déclarent utiliser l’IA, environ 80% ne voient pas encore d’impact sur l’emploi ou la productivité, selon une enquête de près de 6 000 dirigeants. Ce n’est pas “l’IA ne sert à rien”, c’est plutôt “on ne sait pas encore la mesurer proprement à l’échelle macro”, et les gains peuvent être diffus, retardés, ou captés ailleurs.
Et pendant que l’économie cherche ses métriques, la monétisation avance très vite : OpenAI commencerait à afficher des publicités dans ChatGPT aux États-Unis pour les tiers Free et Go, depuis le 9 février 2026. Détail marquant : des placements sponsorisés peuvent apparaître juste après le tout premier prompt — donc avant de disposer d’un contexte ou d’intentions. OpenAI dit que les pubs sont visuellement séparées et n’influencent pas les réponses, et que les conversations restent privées vis-à-vis des annonceurs. Les offres payantes n’auraient pas de pubs. Mais l’impossibilité d’opt-out total côté free, plus les souvenirs d’un précédent backlash sur des “suggestions d’apps”, remettent la confiance au centre du débat.
Wearables : lunettes et voix silencieuse
Recherche et “raisonnement” maintenant. OpenAI publie un document compilant ses tentatives de preuves sur “First Proof”, un challenge de maths de niveau recherche, difficile à vérifier sans experts. Sur 10 problèmes, OpenAI estime qu’au moins cinq tentatives — 4, 5, 6, 9, 10 — ont de bonnes chances d’être correctes, et revient aussi sur une évaluation trop optimiste du problème 2, désormais jugée probablement fausse. Ils décrivent un processus avec supervision humaine limitée : retries de prompts, clarifications après retours d’experts, sélection de la meilleure tentative parmi plusieurs.
L’intérêt ici, c’est moins le score que le format : des “frontier challenges” où l’enjeu est une preuve checkable, pas une réponse qui “a l’air” bonne.
Dans un autre registre, un papier arXiv propose d’utiliser des LLM comme agents de recherche pour découvrir de meilleurs algorithmes d’apprentissage multi-agents dans des jeux à information imparfaite. Leur système, AlphaEvolve, explore un espace de design en faisant évoluer des composants d’algorithmes. Ils annoncent VAD-CFR côté minimisation du regret, et SHOR-PSRO côté entraînement de populations, avec des mécanismes pas forcément intuitifs, du type discounting sensible à la volatilité ou mélange progressif de solveurs.
Et pour ceux qui veulent comprendre l’outillage de nos modèles actuels, un tutoriel “intuition-first” revient sur la RLHF : REINFORCE, puis actor-critic, PPO, et des variantes sans critic comme GRPO. Le point utile : en génération de texte, la récompense est souvent tardive et sparse — un score en fin de réponse — donc il faut des astuces de réduction de variance et une notion d’avantage pour attribuer du crédit token par token.
Outils produits : analytics et no-code
Dernier bloc : usages et produits grand public.
Anthropic publie un “AI Fluency Index” qui mesure non seulement l’adoption, mais la compétence d’usage. Ils analysent près de 10 000 conversations Claude.ai anonymisées sur une semaine en janvier 2026, avec un cadre en 24 comportements, dont 11 observables en logs. Fait marquant : l’usage le plus “fluide” est augmentatif — l’IA comme partenaire de réflexion — et les conversations longues et itératives montrent nettement plus de comportements de collaboration saine : itération et raffinement très fréquents, plus de remise en question du raisonnement, plus d’identification de contexte manquant.
Mais il y a un paradoxe : quand les utilisateurs génèrent des “artifacts” — code, apps, docs — ils deviennent plus directifs sur objectifs et formats, tout en étant moins évaluatifs dans la conversation. Peut-être parce que l’output “propre” donne un faux sentiment de solidité, ou parce que l’évaluation se fait hors chat, en testant.
Côté hardware, Bloomberg dit qu’Apple accélère plusieurs wearables IA : lunettes “smart”, pendentif, AirPods avec caméras. Et la rumeur la plus intrigante : une acquisition autour de la “voix silencieuse”, via micro-mouvements faciaux, pour comprendre la parole sans parler à haute voix. Si ça marche vraiment, ça pourrait changer l’usage des assistants dans les lieux publics — et c’est potentiellement un avantage produit énorme.
Enfin, sur l’outillage produit et marketing : Amplitude pousse un événement “Amplitude AI: Your Unfair Advantage” le 5 mars, avec promesse de démos d’agents qui surveillent des métriques, enquêtent, et poussent des recommandations dans Slack, plus une intégration MCP pour amener des données Amplitude dans Claude, ChatGPT ou Cursor. Et Framer renforce son message “no-code + IA” pour produire des sites rapidement, avec CMS, SEO, analytics, et même un programme qui offre un an de plan Pro aux startups éligibles.
Abonnez-vous aux flux spécifiques par édition:
- Space news
* Apple Podcast English
* Spotify English
* RSS English Spanish French
- Top news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- Tech news
* Apple Podcast English Spanish French
* Spotify English Spanish Spanish
* RSS English Spanish French
- Hacker news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
- AI news
* Apple Podcast English Spanish French
* Spotify English Spanish French
* RSS English Spanish French
Visit our website at https://theautomateddaily.com/
Send feedback to [email protected]
Youtube
LinkedIn
X (Twitter)