Anthropic gana orden judicial que suspende prohibición de Trump sobre su herramienta de IA
jueves, 26 de marzo de 2026
La empresa emergente exigió garantías de que su IA no se utilizaría para la vigilancia masiva de estadounidenses ni para el despliegue de armas autónomas
Bloomberg
Anthropic PBC obtuvo una orden judicial que bloqueaba la prohibición impuesta por la administración Trump sobre el uso gubernamental de la tecnología de inteligencia artificial de la compañía, después de que el fabricante del chatbot Claude argumentara que la medida podría costarle miles de millones en pérdidas de ingresos.
La jueza federal Rita F. Lin emitió el jueves una orden judicial preliminar que suspende el plan del gobierno de cortar toda relación con Anthropic mientras se resuelve la disputa legal en el tribunal federal de San Francisco. La jueza cuestionó la justificación del gobierno para la prohibición, afirmando que no parecía estar dirigida a sus declarados intereses de seguridad nacional.
«Si la preocupación radica en la integridad de la cadena de mando operativa, el Departamento de Guerra podría simplemente dejar de usar a Claude», escribió la jueza. «En cambio, estas medidas parecen diseñadas para castigar a Anthropic». Tal acción, escribió, «constituye una clásica represalia ilegal en violación de la Primera Enmienda».
A principios de este mes, la empresa presentó una demanda para bloquear una declaración del Departamento de Defensa que afirmaba que Anthropic representaba una amenaza para la cadena de suministro estadounidense, intensificando así una disputa de alto riesgo sobre las medidas de seguridad relativas a la tecnología de IA utilizada por el ejército.
La empresa emergente exigió garantías de que su IA no se utilizaría para la vigilancia masiva de estadounidenses ni para el despliegue de armas autónomas, mientras que el gobierno alegó seguridad nacional para argumentar que no podía aceptar ninguna restricción.
Lin afirmó que el Departamento de Justicia no tenía ninguna "base legítima" para determinar que la firme postura de Anthropic con respecto a las restricciones en el uso de su tecnología de IA pudiera llevarla a "convertirse en un saboteador".
Un portavoz de Anthropic no respondió de inmediato a la solicitud de comentarios.
El caso es Anthropic v. US Department of War, 26-cv-01996 , Tribunal de Distrito de los Estados Unidos, Distrito Norte de California (San Francisco).