Claude AI: Del Pentágono a Teherán – cuando la inteligencia artificial se convierte en arma
En los últimos días, Claude AI ha pasado de ser un nombre conocido en el mundo de la tecnología a convertirse en un protagonista clave de una importante historia geopolítica. Entre las declaraciones del Pentágono, el revuelo mediático sobre su papel en el conflicto iraní y la posterior aclaración de responsables de Google de que el modelo sigue estando disponible fuera de los proyectos de defensa. El panorama es como una apasionante novela donde se entrelazan los renglones de la programación asistida por IA (AI-Assisted Programming) con los hilos del gran juego de las superpotencias.
De San Francisco a Teherán: el viaje de Claude
Lo que sucedió en 2026 no lo olvidarán los entusiastas de la tecnología ni los analistas militares. Tras semanas de hermetismo, se reveló que el modelo Claude (el nombre con el que los desarrolladores llaman a su inteligente aliado) ha pasado a formar parte del arsenal del Departamento de Defensa de Estados Unidos. No como un arma convencional, sino como una mente maestra que ayuda a analizar ingentes cantidades de datos de inteligencia y a acelerar los simulacros de guerra. Lo más impactante son los rumores dentro de los pasillos del Pentágono sobre el uso de técnicas de aprendizaje automático similares a las de Claude para dirigir ataques de precisión durante los recientes enfrentamientos en el Estrecho de Ormuz, lo que trajo a la memoria la célebre frase del economista francés Bastiat: "Lo que se ve y lo que no se ve" – pues los rápidos resultados militares que observamos contrastan con las complejas algoritmos que, invisibles, toman decisiones en lugar de los humanos.
Lealtades cruzadas: ¿A quién pertenece la inteligencia artificial?
Aquí surge la pregunta más apremiante: las Lealtades. En esta nueva guerra fría, ¿puede una inteligencia artificial diseñada en Silicon Valley permanecer neutral? La historia me recuerda a la novela La historia de Edgar Sawtelle, donde la relación entre el hombre y el perro se basa en la confianza absoluta, pero cuando las cosas se complican, las señales se vuelven confusas. Hoy, Claude es ese perro entrenado, pero recibe órdenes de sus nuevos amos en el Pentágono, mientras que los programadores originales de Anthropic mantienen el control de su brújula ética. Este conflicto interno nos recuerda que la inteligencia artificial ya no es solo una herramienta, sino que se ha convertido en una parte más de la ecuación de la lealtad y la traición.
¿Qué significa esto para el desarrollador común?
En medio de todo este revuelo, fuentes conocedoras del asunto han confirmado que los servicios de Claude AI para desarrolladores y empresas comerciales no se verán afectados por los proyectos de defensa. Esto significa que un programador en Riad o Dubái todavía puede aprovechar las capacidades de programación asistida por IA para escribir código complejo o mejorar sus aplicaciones. Sin embargo, el precio que todos pagaremos será un mayor escrutinio gubernamental y, posiblemente, nuevas restricciones a la exportación. La tecnología utilizada en la guerra ya no es un bien libre.
Tres escenarios para 2026 y más allá
Los expertos que han seguido el dossier de la inteligencia artificial y la seguridad nacional creen que los últimos acontecimientos abren la puerta a varias posibilidades:
- Primer escenario: La evolución de modelos como Claude hacia sistemas de defensa autónomos, donde la decisión militar recae en algoritmos que no conocen la duda.
- Segundo escenario: La división de la tecnología en dos ramas: una civil abierta y otra militar cifrada, lo que recuerda a los inicios de la era de Internet.
- Tercer escenario: El surgimiento de una nueva carrera armamentística en inteligencia artificial entre las grandes potencias, siendo Irán y Ucrania meros bancos de pruebas iniciales.
Al final, Claude AI sigue siendo un símbolo de esta era dual: la era del asombro tecnológico, por un lado, y la polarización geopolítica, por el otro. Y entre "lo que se ve" de los logros del software y "lo que no se ve" de los cálculos bélicos, la pregunta sigue abierta: ¿estamos construyendo un futuro más seguro, o estamos programando inocentemente las herramientas de nuestra propia destrucción?