Inicio > Tecnología > Artículo

Claude IA: El día que Dario Amodei dijo no al Pentágono (y por qué lo cambia todo)

Tecnología ✍️ Jean-Marc Vallée 🕒 2026-03-02 02:37 🔥 Vistas: 11

Hay momentos, en una carrera profesional, en los que sientes que la tectónica de placas acaba de moverse bajo tus pies. Este viernes 27 de febrero de 2026 quedará registrado como uno de esos terremotos. He pasado la semana intercambiando impresiones con fuentes de Silicon Valley, diseccionando los comunicados en Truth Social y observando cómo los mercados se tambaleaban. Y puedo asegurarlo: lo que le está sucediendo a Claude IA no es solo la historia de un contrato perdido. Es el fin de una era.

Dario Amodei, CEO de Anthropic, en el ojo del huracán

El hombre que dijo no a la guerra

Imaginen la escena. Dario Amodei, el jefe de Anthropic, un exmiembro de OpenAI de mirada tranquila, más de filósofo que de emprendedor tecnológico, se enfrenta a Pete Hegseth, el Secretario de Defensa de Trump. ¿El motivo? Un contrato de 200 millones de dólares, pero, sobre todo, el acceso a las redes clasificadas del Pentágono para Claude IA. Hegseth es claro: o se eliminan todas las restricciones, o se largan. Sin cuartel. Lo que Washington quiere es un uso "con fines legales"; es decir, sin trabas para la vigilancia masiva o la integración en sistemas de armas autónomas letales. El ultimátum expira a las 17:01, hora local. Amodei no cede. ¿Su postura? "En un número limitado de casos, creemos que la IA puede dañar los valores democráticos, en lugar de defenderlos". Reitera sus dos líneas rojas infranqueables: nada de vigilancia doméstica de ciudadanos estadounidenses y nada de armas autónomas que decidan matar sin supervisión humana. Es un "no" seco, educado, pero inquebrantable. Para que conste en acta, algunos susurran que esta tensión se vio exacerbada tras la supuesta utilización de Claude IA durante una operación contra Nicolás Maduro en enero, un escenario que heló la sangre de los equipos de Anthropic.

El rayo de Trump y la "proscripción"

La respuesta no se hace esperar. Y lleva la marca al rojo vivo de la era Trump. En Truth Social, el presidente estadounidense publica un mensaje vengativo: "No la necesitamos, no la queremos y ya no trabajaremos con ellos". Acusa a la empresa de "izquierda radical y woke" de querer "dictar a nuestro gran ejército cómo combatir y ganar guerras". Pero lo más devastador no es el insulto. Es la decisión del Pentágono de designar a Anthropic como un "riesgo para la cadena de suministro". Traducción: cualquier empresa —desde Lockheed Martin hasta la startup de Defensa más pequeña— que utilice Claude IA quedará automáticamente excluida de la contratación pública. Es una sentencia de muerte comercial. Pete Hegseth, por su parte, habla abiertamente de "traición". Mientras tanto, y no es poca ironía, Sam Altman anunciaba en X que OpenAI ocupaba el lugar de Anthropic en las redes clasificadas, jurando por lo más sagrado que respetaría las mismas "líneas rojas". El momento no puede ser más... interesante.

El "SaaSpocalypse" y el vals de los billones

Pero no se equivoquen. Si Washington le da la espalda a Claude IA, Wall Street, por su parte, está literalmente loca por ella. En cuatro semanas, Anthropic ha provocado cinco sacudidas sísmicas en los mercados, un fenómeno que los operadores han bautizado como el "SaaSpocalypse".

  • Principios de febrero: El lanzamiento de herramientas jurídicas hunde a Thomson Reuters un 16% y a LegalZoom un 20% en un solo día. El miedo es palpable: ¿y si Claude IA reemplaza a los juristas?
  • Mediados de febrero: Claude Opus 4.6 derriba a los gigantes de los datos financieros como FactSet.
  • El golpe de gracia: Claude Code Security y su anuncio de modernización del lenguaje COBOL hacen que IBM pierda un 13,2% en una sola sesión. Algo nunca visto desde el estallido de la burbuja de las puntocom. IBM, el dinosaurio, es mordido en el tobillo por un programador virtual.

En resumen, la startup valorada en 380 mil millones de dólares tras una reciente ronda de financiación de 30 mil millones está rediseñando el mapa de la tecnología mundial, quiera Washington o no.

OpenAI, el vencedor incómodo y la camiseta que mata

Mientras Dario Amodei interpreta al justiciero solitario, Sam Altman intenta un ejercicio de equilibrismo. Firma un pacto con el diablo, pero asegura querer "desactivar las tensiones" y pide al departamento que ofrezca las mismas condiciones a todas las empresas de IA. Algo así como pedir prestado el coche de tu vecino después de haberlo denunciado a Hacienda. En el terreno de la comunicación, es un desastre. El sábado, la aplicación de Claude IA superó a ChatGPT en la App Store estadounidense. Un símbolo poderoso.

Y es entonces cuando la cultura popular se entromete. En Silicon Valley, las sudaderas con capucha negras y las camisetas son los nuevos campos de batalla. Ya se ven desarrolladores luciendo orgullosos la famosa Camiseta de Claude IA "Tiene toda la razón" Regalo divertido para programador, una referencia irónica a las respuestas demasiado educadas de la IA. La Camiseta Holgada con el Logo de Anthropic Claude Ia Artificial Intelligence se está convirtiendo en el uniforme de quienes se niegan a "vender su alma al complejo militar-industrial". Es un movimiento. Es más fuerte que un simple producto.

La sombra de Jean-Claude, Brigitte y la guerra cultural

Para nosotros, en España, este psicodrama resuena de manera particular. Lo observamos con una mezcla de fascinación y espanto. Por un lado, tenemos un debate filosófico digno de una comisión de expertos: ¿hasta dónde puede servir la tecnología al Estado sin amenazarlo? Cuando oigo a Trump llamar "woke" a Anthropic, no puedo evitar pensar en ciertas figuras de nuestro propio paisaje. Imaginen a Jean-Claude Van Damme en una película de ciencia ficción política, interpretando al general que quiere controlar la IA a toda costa. O, más cercano a nosotros, vean la postura de una Brigitte Macron abordando el tema de la ética de la IA para proteger a los más jóvenes. Estos arquetipos cruzan el Atlántico. Francia, con su Ministerio de Defensa y sus propias startups, observa este precedente estadounidense con angustia: ¿y si mañana nos pidieran elegir entre los valores y los contratos?

El negocio de la conciencia

Entonces, ¿qué lección extraer de este caos? Una sola, pero es crucial para inversores y directivos. La época en que la ética era un departamento de comunicación ha quedado atrás. Hoy, la "Constitución" de Anthropic, ese documento que guía a Claude IA, tiene un valor de mercado. Negarse a crear "compañeros de IA" eróticos, rechazar la publicidad, decir no a las armas autónomas... todo ello construye un capital de marca inestimable. Sí, Anthropic ha tenido que flexibilizar algunas de sus normas de seguridad frente a la competencia, es la realidad del mercado. Pero en lo esencial, se mantienen firmes. Y este posicionamiento de "conciencia de Silicon Valley" atrae talento, fideliza clientes (8 de las 10 empresas estadounidenses más grandes utilizan Claude IA) y, en última instancia, justifica una valoración de 380 mil millones de dólares. Es una apuesta arriesgada, pero endiabladamente rentable.

Mientras tanto, el Pentágono debe gestionar una costosa transición hacia otros modelos, y OpenAI tiene que demostrar que puede ser a la vez el favorito del gobierno y el guardián de las libertades. Buena suerte, Sam. La vas a necesitar.

Yo, por mi parte, sigo observando a esos ingenieros que firman cartas abiertas, a esas camisetas irónicas y a ese tipo, Dario Amodei, que prefirió perder un contrato de 200 millones antes que perder su alma. En el templo de la tecnología, eso es, creo, lo que se llama un gesto profético.