El Departamento de Defensa de EE.UU. ha calificado a Anthropic como un «riesgo para la cadena de suministro», una etiqueta que permite al Gobierno excluir a la empresa de contratos públicos y vetar que otros contratistas trabajen con ella. El Departamento de Defensa de EE.UU. ha calificado a Anthropic como un «riesgo para la cadena de suministro», una etiqueta que permite al Gobierno excluir a la empresa de contratos públicos y vetar que otros contratistas trabajen con ella.
Microsoft, mandos militares retirados y laboratorios de ideas de inteligencia artificial (IA) respaldan a Anthropic en su intento de que se retire la calificación otorgada por la Administración Trump a la empresa como «riesgo para la cadena de suministro».
Las actuaciones del Departamento de Defensa de Estados Unidos (DOD) «obligan a los contratistas del Gobierno a cumplir instrucciones vagas y mal definidas que nunca antes se habían utilizado públicamente contra una empresa estadounidense», afirma el escrito legal de Microsoft.
El recurso del gigante tecnológico sostiene que la etiqueta de riesgo para la cadena de suministro «podría acarrear graves consecuencias económicas que no responden al interés público» y ha pedido a la juez que suspenda temporalmente esa calificación.
Estas presentaciones llegan después de que la semana pasada Anthropic interpusiera una demanda judicial contra el Departamento de Defensa de Estados Unidos.
La etiqueta de Anthropic como riesgo para la cadena de suministro permite al Gobierno excluir a la empresa de la adjudicación de contratos, retirar sus productos de la evaluación y impedir que los contratistas principales recurran a ese proveedor.
Hasta hace poco, Anthropic era la única de sus competidoras autorizada para su uso en redes militares clasificadas. Su chatbot de IA se había desplegado en las redes de información clasificada del Gobierno estadounidense, en laboratorios nucleares nacionales y realizaba análisis de inteligencia para el Departamento de Defensa.
¿Quién apoya a Anthropic?
Se han presentado varios escritos conjuntos en apoyo de Anthropic por parte de mandos militares estadounidenses, grandes tecnológicas y organizaciones de inteligencia artificial.
La actuación del secretario de Defensa de Estados Unidos, Pete Hegseth, contra Anthropic «amenaza los principios de Estado de derecho que durante mucho tiempo han reforzado a nuestras Fuerzas Armadas», según el escrito, respaldado por Michael Hayden, exdirector de la Agencia Central de Inteligencia (CIA).
También alegan que las decisiones de Hegseth suponen un uso indebido de la autoridad pública como «represalia contra una empresa privada que ha disgustado al liderazgo».
El escrito firmado por los exmilitares advierte de que la «incertidumbre repentina» que supone señalar una tecnología ampliamente integrada en plataformas militares podría alterar la planificación y poner en riesgo a los soldados durante operaciones en curso, como la guerra en Irán.
Otro escrito, presentado en nombre de 37 ingenieros de IA que trabajaron anteriormente en OpenAI y en DeepMind de Google, describe las actuaciones del DOD como «un uso inadecuado y arbitrario del poder con graves repercusiones para nuestro sector».
«Si se permite que siga adelante, este intento de castigar a una de las principales empresas estadounidenses de IA tendrá sin duda consecuencias para la competitividad industrial y científica de Estados Unidos en el ámbito de la inteligencia artificial y más allá», señala el escrito. «Y enfriará el debate abierto en nuestro campo sobre los riesgos y beneficios de los sistemas de IA actuales».
Otro escrito advierte de que no es difícil «imaginar un mundo en el que el Gobierno controle de facto lo que hacen y dicen todos los estadounidenses» si puede imponer sus políticas a Anthropic.
El escrito conjunto, firmado por entidades como la Electronic Frontier Foundation y el Cato Institute, sostiene que las actuaciones del Gobierno vulneran la Primera Enmienda, la parte de la Constitución que recoge la libertad de expresión. «Las actuaciones del Gobierno ponen en peligro la vitalidad y la independencia de nuestra democracia», afirma el documento.
¿Cómo empezó el conflicto?
El conflicto entre Anthropic y las Fuerzas Armadas de Estados Unidos comenzó cuando la empresa se negó a conceder al Ejército acceso ilimitado a su chatbot de IA, Claude. El Gobierno dio a Anthropic 48 horas para conceder ese acceso o afrontar sanciones.
El consejero delegado de Anthropic, Dario Amodei, aseguró que la empresa fijó dos líneas rojas para los militares, que su tecnología no se utilizara para una vigilancia masiva dentro del país ni que se integrara en armas totalmente autónomas.
Amodei afirmó en un comunicado del 26 de febrero que «no puedo, en conciencia, acceder a la petición del Pentágono» de permitir un acceso sin restricciones a los sistemas de IA de la empresa.
«En un conjunto limitado de casos, creemos que la IA puede socavar, en lugar de defender, los valores democráticos«, escribió. «Algunos usos están también, sencillamente, fuera de los límites de lo que la tecnología actual puede hacer de forma segura y fiable», añadió.
El escrito presentado por Microsoft respalda las líneas rojas de Anthropic y afirma que «la IA estadounidense no debe emplearse para llevar a cabo una vigilancia masiva dentro del país ni para iniciar una guerra sin control humano», y subraya que esta posición «es coherente con la ley».
Según un comunicado de Hegseth, Claude se retirará progresivamente de las operaciones militares durante los próximos seis meses.
Amodei señaló en otro comunicado que el Departamento de Defensa puede elegir a qué empresas encargar contratos que encajen mejor con su visión, pero añadió que, «dado el considerable valor que la tecnología de Anthropic aporta a nuestras Fuerzas Armadas, esperamos que reconsidere su postura».
Tech-news | Euronews RSS
