Claude IA : Le jour où Dario Amodei a dit non au Pentagone (et pourquoi ça change tout)
Il y a des moments, dans une carrière, où l'on sent que la tectonique des plaques vient de bouger sous nos pieds. Ce vendredi 27 février 2026 restera comme l'un de ces séismes. J'ai passé la semaine à échanger avec des sources dans la Silicon Valley, à décortiquer les déclarations sur Truth Social, et à regarder les marchés tanguer. Et je peux vous le dire : ce qui arrive à Claude IA n'est pas juste une histoire de contrat perdu. C'est la fin d'une époque.
L'homme qui a dit non à la guerre
Imaginez la scène. Dario Amodei, le patron d'Anthropic, un ancien d'OpenAI au regard calme de philosophe plus que de startupers, fait face à Pete Hegseth, le Secrétaire à la Défense de Trump. L'enjeu? Un contrat de 200 millions de dollars, mais surtout, l'accès aux réseaux classifiés du Pentagone pour Claude IA. Hegseth est clair : on lève toutes les restrictions, ou on dégage. Pas de quartier. Ce que veut Washington, c'est une utilisation "à des fins légales" — comprenez, sans entraves pour la surveillance de masse ou l'intégration à des systèmes d'armes létaux autonomes. L'ultimatum expire à 17h01, heure locale. Amodei ne cède pas. Sa position? "Dans un nombre restreint de cas, nous pensons que l'IA peut nuire aux valeurs démocratiques, plutôt que les défendre". Il réitère ses deux lignes rouges infranchissables : pas de surveillance domestique des citoyens américains, et pas d'armes autonomes décidant de tuer sans supervision humaine. C'est un "no" sec, poli, mais inébranlable. Pour la petite histoire, certains murmurent que cette tension a été exacerbée après l'utilisation supposée de Claude IA lors d'une opération visant Nicolás Maduro en janvier, un scénario qui a glacé le sang des équipes d'Anthropic.
La foudre de Trump et le "bannissement"
La réponse ne se fait pas attendre. Et elle porte la marque au fer rouge de l'ère Trump. Sur Truth Social, le président américain poste un message vengeur : "Nous n'en avons pas besoin, nous n'en voulons pas, et nous ne travaillerons plus avec eux". Il accuse l'entreprise de "gauche radicale et woke" de vouloir "dicter à notre grande armée comment combattre et gagner des guerres". Mais le plus dévastateur n'est pas l'insulte. C'est la décision du Pentagone de désigner Anthropic comme un "risque pour la chaîne d'approvisionnement". Traduction : toute entreprise — de Lockheed Martin à la plus petite start-up de la Défense — qui utilisera Claude IA sera automatiquement exclue des marchés publics. C'est une mise à mort commerciale. Pete Hegseth, lui, parle carrément de "trahison". Pendant ce temps, et ce n'est pas une mince ironie, Sam Altman annonçait sur X que OpenAI prenait la place d'Anthropic dans les réseaux classifiés, tout en jurant ses grands dieux qu'il respecterait les mêmes "lignes rouges". Le timing est pour le moins... intéressant.
Le "SaaSpocalypse" et la valse des milliards
Mais ne vous y trompez pas. Si Washington tourne le dos à Claude IA, Wall Street, elle, en est littéralement folle. En quatre semaines, Anthropic a déclenché cinq secousses sismiques sur les marchés, un phénomène que les traders ont baptisé le "SaaSpocalypse".
- Début février : Le lancement d'outils juridiques fait plonger Thomson Reuters de 16% et LegalZoom de 20% en une seule journée. La peur est palpable : et si Claude IA remplaçait les juristes?
- Mi-février : Claude Opus 4.6 met à terre les géants de la données financières comme FactSet.
- Le coup de grâce : Claude Code Security et son annonce de modernisation du langage COBOL font perdre à IBM 13,2% en une séance. Du jamais-vu depuis l'éclatement de la bulle internet. IBM, le dinosaure, se fait mordre la cheville par un codeur virtuel.
En clair, la startup valorisée 380 milliards de dollars après une levée récente de 30 milliards est en train de redessiner la carte de la tech mondiale, que Washington le veuille ou non.
OpenAI, le vainqueur gêné et le T-shirt qui tue
Pendant que Dario Amodei joue les justiciers solitaires, Sam Altman tente un numéro d'équilibriste. Il signe avec le Diable, mais assure vouloir "désamorcer les tensions" et demande au ministère d'offrir les mêmes conditions à toutes les entreprises d'IA. Un peu comme si vous empruntiez la voiture de votre voisin après l'avoir dénoncé aux impôts. Sur le terrain de la communication, c'est un désastre. Samedi, l'application Claude IA a dépassé ChatGPT sur l'App Store américain. Symbole fort.
Et c'est là que la culture populaire s'en mêle. Dans la Silicon Valley, les hoodies noirs et les T-shirts sont les nouveaux champs de bataille. On croise déjà des développeurs arborant fièrement le fameux T-shirt Claude IA "Vous êtes absolument correct" Cadeau de programmeur drôle, une référence ironique aux réponses trop polies de l'IA. Le Logo Anthropique Claude Ia Artificial Intelligence T-Shirt Boxy est en train de devenir l'uniforme de ceux qui refusent de "vendre leur âme au complexe militaro-industriel". C'est un mouvement. C'est plus fort qu'un simple produit.
L'ombre de Jean-Claude, Brigitte et la guerre culturelle
Pour nous, en France, ce psychodrame prend une résonance particulière. On regarde cela avec un mélange de fascination et d'effroi. D'un côté, on a un débat philosophique digne de la Commission nationale consultative des droits de l'homme : jusqu'où la technologie peut-elle servir l'État sans le menacer? Quand j'entends Trump traiter Anthropic de "woke", je ne peux m'empêcher de penser à certaines figures de notre propre paysage. Imaginez Jean-Claude Van Damme dans un film de science-fiction politique, jouant le rôle du général qui veut absolument contrôler l'IA. Ou, plus proche de nous, voyez la posture d'une Brigitte Macron s'emparant du sujet de l'éthique de l'IA pour protéger les plus jeunes. Ces archétypes traversent l'Atlantique. La France, avec son ministère des Armées et ses propres startups, regarde ce précédent américain avec angoisse : et si demain, on nous demandait de choisir entre les valeurs et les contrats?
Le business de la conscience
Alors, quelle leçon tirer de ce chaos? Une seule, mais elle est cruciale pour les investisseurs et les décideurs. L'époque où l'éthique était un département de communication est révolue. Aujourd'hui, la "Constitution" d'Anthropic, ce document qui guide Claude IA, a une valeur marchande. Refuser de former des "compagnons IA" érotiques, refuser la pub, refuser les armes autonomes... tout cela construit un capital de marque inestimable. Oui, Anthropic a dû assouplir certaines de ses règles de sécurité face à la concurrence, c'est la réalité du marché. Mais sur l'essentiel, ils tiennent bon. Et ce positionnement "conscience de la Silicon Valley" attire les talents, fidélise les clients (8 des 10 plus grandes entreprises américaines utilisent Claude IA), et finalement, justifie une valorisation à 380 milliards. C'est un pari risqué, mais diablement rentable.
Pendant ce temps, le Pentagone doit gérer une transition coûteuse vers d'autres modèles, et OpenAI doit prouver qu'il peut être à la fois le chouchou du gouvernement et le gardien des libertés. Bonne chance, Sam. Tu vas en avoir besoin.
Moi, je garde un œil sur ces ingénieurs qui signent des lettres ouvertes, sur ces T-shirts ironiques, et sur ce type, Dario Amodei, qui a préféré perdre un contrat de 200 millions plutôt que de perdre son âme. Dans le temple de la technologie, c'est ce qu'on appelle, je crois, un geste prophétique.