Banner tips.cl
El Gobierno de EEUU dejó de usar Claude por ser una "IA woke". Justo después bombardeó Irán usando Claude, según WSJ

El Gobierno de EEUU dejó de usar Claude por ser una

Este 28 de febrero, Israel y Estados Unidos bombardearon Irán. Es algo que ocurre en paralelo a una 'guerra' que se está dando en suelo estadounidense: la de qué IA debe usar el brazo militar del país. Porque sí, la IA se ha convertido en una herramienta esencial para operaciones de Inteligencia, hasta el punto de que hay informes que apuntan que Claude fue clave en los bombardeos masivos del sábado.

Pero hay un problema. Horas antes del ataque, Trump ordenó que no se usara Claude ni ninguna herramienta de inteligencia artificial de Anthropic en operaciones militares. Y que el Pentágono haya desobedecido sólo responde a una cosa: Claude está demasiado dentro de los sistemas militares de Estados Unidos.

El lío de Antrhopic. Este tema es complejo, por lo que vamos con algo de contexto antes de entrar en materia. Cuando Estados Unidos buscaba una IA para que apoyara sus sistemas de defensa y se integrara con Palantir, Anthropic ofreció la suya por el módico precio de un dólar. Eso valió un contrato de 200 millones y tanto Anthropic como el Pentágono se pusieron a trabajar para integrar los modelos de la compañía en toda clase de sistemas.

El apoyo de Claude es tan importante para el Pentágono en materia de análisis de datos a escala masiva que se estima que fue usado para la captura de Nicolás Maduro hace unos meses. El "problema" es que Anthropic programó su IA para que no violara dos líneas rojas:

  • No se usara para espiar masivamente a ciudadanos estadounidenses.
  • No se empleara para el desarrollo o control de armas y sistemas de ataque autónomos.

“La IA Woke”. El Departamento de Guerra y Donald Trump no estaban de acuerdo con esto y la semana pasada lanzaron un ultimátum: o Anthropic cedía su IA ‘desatada’, o habría consecuencias. ¿Qué consecuencias? Jugar la carta de la Ley de Producción de Defensa de 1950 para adueñarse a la fuerza de la creación de Anthropic. La empresa tenía hasta las 17:01 del pasado viernes para responder, y vaya si lo hizo.

En un largo comunicado firmado por Dario Amodei, CEO de Anthropic, se afirmó que la empresa estaba del lado de los intereses de defensa del país, pero no a cualquier precio. Su vara moral estaba muy clara y no iban a ceder ante el chantaje de una Estados Unidos que horas antes amenazó de “hacerles un Huawei” metiendo Anthropic en una lista negra. La respuesta de Amodei enfureció a Trump y a Pete Hegseth. El Secretario de Defensa calificó Claude como una “IA Woke”, una línea que siguió el propio Trump.

En su red social Truth Social, Trump apuntó que Anthropic es una “empresa de inteligencia artificial de izquierda radical dirigida por personas que no tienen ni idea de cómo va el mundo real”. Llamativo, cuanto menos, y con otra respuesta: Estados Unidos ponía fin a la colaboración con Anthropic y se prohibía usar su IA. El problema es que es… falso.

“Estoy ordenando a TODAS las agencias federales de Estados Unidos que CESEN INMEDIATAMENTE todo el uso de la tecnología de Anthropic. ¡No lo necesitamos, no lo queremos y no volveremos a hacer negocios con ellos! - Donald Trump

Claude para atacar Irán. Como pronto reportó The Wall Street Journal, el ataque aéreo contra Irán se ejecutó con ayuda de esas mismas herramientas de izquierda radical. El medio apuntó que comandos en todo el mundo, incluyendo el Comando Central en Oriente Medio de Estados Unidos, usaron las herramientas de Claude para evaluar la situación, identificar objetivos y simular escenarios de batalla.

Dependencia. Y esto sólo dibuja un escenario, uno en el que el Pentágono va a tener muy difícil eliminar esas herramientas de Anthropic de su sistema. Sucedió en Venezuela y parece que ha vuelto a ocurrir en Irán. Claude está demasiado dentro de los sistemas del Pentágono, manteniendo una relación casi de simbiosis con el software de Palantir, y romper con eso de un día para otro se antoja complicado.

Se estima que se tardarán seis meses en eliminar el rastro de Claude del software del Pentágono, pero pese a la prohibición de uso y a su inclusión en la lista negra por parte de Hegseth, parece que prima otra decisión: si esto ya lo tenemos, lo usaremos hasta que encontremos un sucesor.

OpenAI sale a por las migajas (millonarias). Y no han tardado ni medio segundo en encontrar ese nuevo proveedor de IA. OpenAI -ChatGPT- emitió un comunicado en el que apuntaba que “Estados Unidos necesita modelos de IA para apoyar su misión, especialmente frente a las crecientes amenazas de adversarios potenciales que están integrando cada vez más las tecnologías de inteligencia artificial en sus sistemas”. Curiosamente, tienen las mismas líneas rojas que impuso Anthropic (no usarlo para vigilancia doméstica masiva, no dirigir sistemas de armas autónomos, que la IA no tome decisiones de alto riesgo de forma automática).

Pero hay una diferencia: si Anthropic se negó a dar plenos poderes al Pentágono, OpenAI apunta que, pese a mantener los mismos principios morales, el uso de su IA está atada al uso legal que quiera hacer el Departamento de Defensa. Esto es ambiguo porque si se considera que cierto uso es legal, no se entra en conflicto con esa “moralidad”. Veremos si es un mero cambio de fichas fruto de un enfado porque alguien se opuso a una orden del Gobierno o si el cambio de Anthropic por OpenAI se traduce en eso que EEUU necesita para su seguridad.

En Xataka | La guerra entre Anthropic y el Pentágono apunta a algo terrorífico: un nuevo “Momento Oppenheimer”

-
La noticia El Gobierno de EEUU dejó de usar Claude por ser una "IA woke". Justo después bombardeó Irán usando Claude, según WSJ fue publicada originalmente en Xataka por Alejandro Alcolea .

Marzo 2, 2026 • 1 hora atrás por: Xataka.com 27 visitas 1841956

🔥 Ver noticia completa en Xataka.com 🔥

Comentarios

Comentar

Noticias destacadas


Banner imotores.cl

Contáctanos

completa toda los campos para contáctarnos

Todos los datos son necesarios