Anthropic n’a pas cédé.
L’entreprise américaine à l’origine du chatbot Claude s’est retrouvée face à un ultimatum du gouvernement américain.
Le Pentagone, l’un de ses partenaires, a demandé l’ajout d’une nouvelle clause dans son contrat : autoriser l’utilisation de ses modèles pour « tout usage légal » dans un cadre militaire, sans restriction particulière.
Autrement dit, lever les garde-fous que l’entreprise avait mis en place autour de son chatbot.
Pour l’instant, Anthropic refuse. L’entreprise ne souhaite pas que ses systèmes soient utilisés pour la surveillance domestique de masse ni pour des opérations de tir létal entièrement automatisées.
Cette situation soulève une question fondamentale : qui fixe réellement les limites de l’IA ?
Les États ? Les entreprises ? Le marché ?
Car une fois couplée à la robotique et aux systèmes autonomes, l’IA n’est plus seulement un sujet technologique… c’est aussi une question de responsabilité opérationnelle.
Bon épisode 🍿