Hay un nuevo capítulo en el encontronazo entre Anthropic y el Pentágono, y es uno que no debe haber sentado muy bien en la administración Trump. Tras declararla "un riesgo para la cadena de suministro" (meterla en la lista negra, vaya), Anthropic acudió a los tribunales y ahora la jueza acaba de darles la razón, por lo que la orden ha sido paralizada.
Qué ha pasado. La administración Trump buscaba castigar a Anthropic tras negarse a que su IA fuera utilizada en armas autónomas letales y vigilancia masiva, pero la jueza Rita Lin, del distrito norte de California, acaba de bloquear la orden. La jueza ha solicitado al gobierno un informe, que deberán presentar antes del 6 de abril, en el que detallen cómo han cumplido su resolución. El gobierno tiene siete días para apelar.
"Idea orwelliana". La jueza es bastante dura con la decisión del gobierno. Considera que es una jugada "arbitraria y caprichosa" y que "ninguna disposición de la ley aplicable respalda la idea orwelliana de que una empresa estadounidense pueda ser tachada de adversario potencial y saboteador de los Estados Unidos por expresar su desacuerdo con el Gobierno". Además, indica que si el problema es que no confían en la IA de Anthropic "el Departamento de Guerra podría simplemente dejar de utilizar a Claude". No va a sentar demasiado bien en la administración Trump.
En su orden también menciona el "prejuicio financiero y reputacional" al que quedaría expuesta Anthropic si se aplica esta medida, argumentando que podría dejar a la empresa paralizada.
Por qué es importante. Es la primera vez que se aplica una restricción de este calibre a una empresa doméstica. El riesgo para la cadena de suministro se define como "el riesgo de que un adversario pueda sabotear o subvertir un sistema cubierto", pero lo que ha pasado aquí es que se ha usado como un castigo ante un desacuerdo. Además, si la orden se aplicase, Anthropic quedaría aislada comercialmente al prohibirle trabajar, no sólo con agencias civiles, sino también con empresas privadas que quisieran trabajar con el departamento de defensa.
El origen del conflicto. Las negociaciones entre Anthropic y el Pentágono saltaron por los aires cuando la empresa impuso límites éticos al uso de su tecnología en el contexto militar. Las líneas rojas de Anthropic eran el uso de sus modelos en armas autónomas letales y en sistemas de vigilancia masiva, condiciones que OpenAI aceptó unos días después. Claude ha sido usada en operaciones como la captura de Nicolás Maduro y el bombardeo a Irán, que por cierto se produjo después de que Trump ordenara al Pentágono dejar de usar Claude por ser una "IA woke".
Y ahora qué. Varios expertos jurídicos ya advirtieron que la decisión no sobreviviría al escrutinio jurídico y así ha sido. Esta decisión supone una victoria para Anthropic, que en un comunicado ha asegurado que "Nuestro objetivo sigue siendo colaborar de forma constructiva con el Gobierno para garantizar que todos los estadounidenses se beneficien de una IA segura y fiable". La cuestión ahora es cuál será el siguiente paso de la administración Trump, que de momento no se ha pronunciado al respecto.
Imagen | Anthropic, editada
-
La noticia
EEUU intentó tratar a Anthropic como si fuera una empresa enemiga por negarse a armar su IA. La jueza acaba de frenarlo
fue publicada originalmente en
Xataka
por
Amparo Babiloni
.
completa toda los campos para contáctarnos