Claude IA: Il giorno in cui Dario Amodei ha detto no al Pentagono (e perché cambia tutto)
Ci sono momenti, in una carriera, in cui senti la tettonica a zolle muoversi sotto i piedi. Questo venerdì 27 febbraio 2026 resterà uno di quei terremoti. Ho passato la settimana a scambiare opinioni con fonti nella Silicon Valley, a decifrare le dichiarazioni su Truth Social e a guardare i mercati oscillare. E posso dirvelo: quello che sta accadendo a Claude IA non è solo la storia di un contratto perso. È la fine di un'epoca.
L'uomo che ha detto no alla guerra
Immaginate la scena. Dario Amodei, il capo di Anthropic, ex membro di OpenAI con uno sguardo calmo da filosofo più che da startupper, è faccia a faccia con Pete Hegseth, il Segretario alla Difesa di Trump. La posta in gioco? Un contratto da 200 milioni di dollari, ma soprattutto, l'accesso alle reti classificate del Pentagono per Claude IA. Hegseth è chiaro: si tolgono tutte le restrizioni, o si esce. Senza quartiere. Quello che Washington vuole è un utilizzo "per scopi legali" — intendendo, senza ostacoli per la sorveglianza di massa o l'integrazione in sistemi d'arma letali autonomi. L'ultimatum scade alle 17:01, ora locale. Amodei non cede. La sua posizione? "In un numero ristretto di casi, riteniamo che l'IA possa danneggiare i valori democratici, piuttosto che difenderli". Ribadisce le sue due linee rosse invalicabili: niente sorveglianza domestica sui cittadini americani e niente armi autonome che decidano di uccidere senza supervisione umana. È un "no" secco, educato, ma incrollabile. Per la cronaca, alcuni sussurrano che questa tensione sia stata esacerbata dopo il presunto utilizzo di Claude IA durante un'operazione contro Nicolás Maduro a gennaio, uno scenario che ha fatto gelare il sangue ai team di Anthropic.
La folgore di Trump e la "messa al bando"
La risposta non si fa attendere. E porta il marchio di fuoco dell'era Trump. Su Truth Social, il presidente americano pubblica un messaggio vendicativo: "Non ne abbiamo bisogno, non lo vogliamo, e non lavoreremo più con loro". Accusa l'azienda di "sinistra radicale e woke" di voler "dettare al nostro grande esercito come combattere e vincere le guerre". Ma la parte più devastante non è l'insulto. È la decisione del Pentagono di designare Anthropic come un "rischio per la catena di approvvigionamento". Traduzione: qualsiasi azienda — da Lockheed Martin alla più piccola startup della Difesa — che utilizzerà Claude IA sarà automaticamente esclusa dagli appalti pubblici. È una condanna a morte commerciale. Pete Hegseth, dal canto suo, parla apertamente di "tradimento". Nel frattempo, e non è una piccola ironia, Sam Altman annunciava su X che OpenAI prendeva il posto di Anthropic nelle reti classificate, giurando solennemente che avrebbe rispettato le stesse "linee rosse". Il tempismo è quantomeno... interessante.
Il "SaaSpocalypse" e la danza dei miliardi
Ma non fraintendetemi. Se Washington volta le spalle a Claude IA, Wall Street, invece, ne è letteralmente folle. In quattro settimane, Anthropic ha innescato cinque scosse sismiche sui mercati, un fenomeno che i trader hanno battezzato "SaaSpocalypse".
- Inizio febbraio: Il lancio di strumenti legali fa crollare Thomson Reuters del 16% e LegalZoom del 20% in un solo giorno. La paura è palpabile: e se Claude IA sostituisse i giuristi?
- Metà febbraio: Claude Opus 4.6 mette ko i giganti dei dati finanziari come FactSet.
- Il colpo di grazia: Claude Code Security e il suo annuncio di modernizzazione del linguaggio COBOL fanno perdere a IBM il 13,2% in una seduta. Mai visto dallo scoppio della bolla di internet. IBM, il dinosauro, si fa mordere la caviglia da un programmatore virtuale.
In poche parole, la startup valutata 380 miliardi di dollari dopo un recente round di finanziamento da 30 miliardi sta ridisegnando la mappa della tecnologia mondiale, che Washington lo voglia o no.
OpenAI, il vincitore imbarazzato e la T-shirt che spacca
Mentre Dario Amodei fa il giustiziere solitario, Sam Altman tenta un numero di equilibrismo. Firma un patto col Diavolo, ma assicura di voler "disinnescare le tensioni" e chiede al Dipartimento di offrire le stesse condizioni a tutte le aziende di IA. Un po' come se prendeste in prestito la macchina del vostro vicino dopo averlo denunciato al fisco. Sul campo della comunicazione, è un disastro. Sabato, l'app di Claude IA ha superato ChatGPT sull'App Store americano. Un simbolo potente.
Ed è qui che entra in gioco la cultura popolare. Nella Silicon Valley, le felpe nere e le T-shirt sono i nuovi campi di battaglia. Si incrociano già sviluppatori che sfoggiano orgogliosamente la famosa T-shirt Claude IA "Lei ha assolutamente ragione" Regalo divertente per programmatori, un ironico riferimento alle risposte troppo educate dell'IA. La T-shirt Boxy con Logo Anthropique Claude Ia Artificial Intelligence sta diventando l'uniforme di chi rifiuta di "vendere l'anima al complesso militare-industriale". È un movimento. È più forte di un semplice prodotto.
L'ombra di Jean-Claude, Brigitte e la guerra culturale
Per noi, in Italia, questo psicodramma assume una risonanza particolare. Lo guardiamo con un misto di fascinazione e orrore. Da un lato, c'è un dibattito filosofico degno di un comitato etico: fino a che punto la tecnologia può servire lo Stato senza minacciarlo? Quando sento Trump definire Anthropic "woke", non posso fare a meno di pensare ad alcune figure del nostro panorama. Immaginate Jean-Claude Van Damme in un film di fantapolitica, nel ruolo del generale che vuole assolutamente controllare l'IA. O, più vicino a noi, guardate alla posizione di una Brigitte Macron che si impadronisce del tema dell'etica dell'IA per proteggere i più giovani. Questi archetipi attraversano l'Atlantico. L'Italia, con il suo Ministero della Difesa e le sue startup, guarda a questo precedente americano con ansia: e se domani ci chiedessero di scegliere tra i valori e i contratti?
Il business della coscienza
Allora, quale lezione trarre da questo caos? Una sola, ma è cruciale per investitori e decisori. L'epoca in cui l'etica era un dipartimento di comunicazione è finita. Oggi, la "Costituzione" di Anthropic, quel documento che guida Claude IA, ha un valore di mercato. Rifiutarsi di creare "compagni IA" erotici, rifiutare la pubblicità, rifiutare le armi autonome... tutto questo costruisce un capitale di marca inestimabile. Sì, Anthropic ha dovuto allentare alcune delle sue regole di sicurezza di fronte alla concorrenza, è la realtà del mercato. Ma sull'essenziale, tengono duro. E questo posizionamento da "coscienza della Silicon Valley" attrae talenti, fidelizza i clienti (8 delle 10 più grandi aziende americane usano Claude IA) e, infine, giustifica una valutazione di 380 miliardi. È una scommessa rischiosa, ma dannatamente redditizia.
Nel frattempo, il Pentagono deve gestire una costosa transizione verso altri modelli, e OpenAI deve dimostrare di poter essere sia il beniamino del governo che il guardiano delle libertà. Buona fortuna, Sam. Ne avrai bisogno.
Io, intanto, tengo d'occhio quegli ingegneri che firmano lettere aperte, quelle T-shirt ironiche e quel tipo, Dario Amodei, che ha preferito perdere un contratto da 200 milioni piuttosto che perdere la propria anima. Nel tempio della tecnologia, questo si chiama, credo, un gesto profetico.