El Pentágono acaba de darle a Anthropic hasta este viernes a las 17:01 para aceptar su uso sin restricciones de sus modelos de IA para todo tipo de aplicaciones, incluyendo las de espionaje y las militares. La empresa se ha negado hasta ahora, pero la administración Trump amenaza con invocar una norma de hace 75 años para "apropiarse" de la tecnología de IA de Anthropic.
Líneas rojas. El conflicto tiene su origen en las líneas rojas impuestas por las normas éticas de Anthropic. La empresa, liderada por Dario Amodei, se niega a que sus modelos se utilicen para vigilancia masiva de ciudadanos estadounidenses —no dice nada de otros— o en el desarrollo y uso de armas letales autónomas controladas totalmente por la IA.
El Pentágono quiere usar la IA (casi) sin límites. Este tipo de salvaguardas chocan frontalmente con la postura del Pentágono, que exige que sus proveedores de tecnología abran el uso de sus soluciones software y hardware para cualquier propósito legal definido por los militares, sin vetos externos. Mientras la constitución y las leyes de EEUU lo permitan, una empresa privada no debería poder imponer límites al uso de su tecnología, indican en el Gobierno de EEUU.
Tensión tras el incidente Maduro. Las cosas empezaron a torcerse cuando se supo que el modelo Claude fue utilizado en una operación de las fuerzas especiales de EEUU en enero para capturar al expresidente venezolano, Nicolás Maduro. El incidente puso bajo la lupa la dependencia que el ejército tiene de Claude: actualmente Anthropic es la única empresa de IA que opera en los sistemas clasificados del Pentágono, lo que le otorga una posición de poder notable que ahora quiere ser quebrada por parte de el gobierno estadounidense.
Esto huele mal. La estrategia del Pentágono resulta inquietante desde el punto de vista legal. Hay tres grandes posibilidades de actuación:
Cómo empezó todo este embrollo. La administración Biden impulsó medidas y límites éticos para la restringir la aplicación de la IA, pero todo cambió con el mandato de Donald Trump. En junio de 2025 Anthropic lanzó Claude Gov, una serie especializada de modelos de IA específicamente diseñados para ser usados por parte de las agencias nacionales de EEUU en seguridad, defensa e inteligencia.
IA con aplicaciones militares y de inteligencia. Estos modelos estaban preparados para operar con entornos con información clasificada. Anthropic los ofreció además por un precio simbólico de 1 dólar para asegurarse que el Gobierno los preferiría frente a los de otros competidores. Poco después el DoD le concedió a la empresa un contrato por valor de 200 millones de dólares, y desde entonces la empresa se ha ido integrando con los sistemas de Palantir que se usan en las agencias gubernamentales estadounidenses.
Dos posturas enfrentadas. Anthropic se postula por tanto como una defensora de ciertos límites para el uso de sus modelos de IA. El Departamento de Defensa (DoD) no está de acuerdo, y su argumento es que el uso militar de cualquier tecnología solo debe ceñirse a la Constitución o las leyes de EEUU. La empresa sostiene que busca apoyar la misión de seguridad nacional, pero solo dentro de lo que sus modelos pueden hacer de forma fiable y responsable.
El dilema. Si el Pentágono cumple su amenaza, se sentará un precedente donde el Estado puede intervenir la propiedad intelectual de una empresa de software bajo el argumento de emergencia nacional. Esto obligaría a todas las Big Tech a decidir si están dispuestas a ceder el control total de sus desarrollos tecnológicos a los militares... o a arriesgarse a ser intervenidas por una ley de hace casi 80 años.
Imagen | Ben White | Anthropic
En Xataka | IBM lleva décadas viviendo de que nadie podía matar a COBOL. Anthropic tiene otros planes
-
La noticia
Anthropic tiene líneas rojas para su IA. El Pentágono acaba de exigir que las borre todas
fue publicada originalmente en
Xataka
por
Javier Pastor
.
completa toda los campos para contáctarnos