Episodio 268.
È scontro totale tra la Silicon Valley e l'esercito degli Stati Uniti.
Dario Amodei, CEO di Anthropic, ha respinto ufficialmente l'ultimatum del Pentagono, rifiutandosi di rimuovere i guardrail etici dal suo modello di intelligenza artificiale Claude.
Le condizioni poste dall'azienda sono due linee rosse invalicabili: l'IA non deve essere usata per la sorveglianza di massa dei cittadini americani né per attivare armi letali autonome senza supervisione umana.
In questa puntata analizzo le conseguenze di questo "gran rifiuto".
Il Dipartimento della Difesa, che accusa Amodei di avere un "complesso di Dio", minaccia ritorsioni senza precedenti: dall'inserimento di Anthropic nella lista nera dei "rischi per la catena di approvvigionamento" (equiparandola a Huawei) fino all'invocazione del Defense Production Act, una legge della Guerra Fredda che potrebbe costringere l'azienda a modificare il proprio codice per decreto.
Vi spiego perché questa non è solo una battaglia legale, ma un rischio operativo enorme: Claude è il cervello del sistema "Maven" di Palantir, fondamentale per l'analisi del campo di battaglia.
Rimuoverlo significherebbe lasciare l'esercito "al buio" per mesi.
E mentre OpenAI e xAI di Elon Musk sono pronte a subentrare senza fare domande, mi faccio una sola domanda: chi decide l'etica della guerra nel ventunesimo secolo?
Per chi volesse approfondire:
https://www.bloomberg.com/news/articles/2026-02-26/anthropic-spurns-latest-pentagon-bid-to-defuse-feud-over-ai-work
🔵Seguimi su Telegram: https://t.me/ilpigreco314
e su 🟣Instagram: https://www.instagram.com/ilpigreco/