La startup californiana Anthropic demandó el lunes al gobierno del presidente Donald Trump por considerar que la penalizó por negarse a autorizar el uso militar sin límites de sus modelos de inteligencia artificial Claude.
El Departamento de Defensa estadounidense designó la semana pasada a Anthropic como un "riesgo" para la cadena de suministro de seguridad nacional, después de que la empresa rechazara la utilización de su tecnología para vigilancia masiva o fines bélicos.
En la demanda de 48 páginas, presentada ante un tribunal federal de San Francisco, Anthropic solicita que dicha designación se revierta y se declare ilegal.
La compañía sostiene que se fundó sobre la convicción de que su IA debe "usarse de una manera que maximice los resultados positivos para la humanidad" y debe "ser la más segura y la más responsable".
"Anthropic presenta esta demanda porque el Gobierno federal ha tomado represalias por expresar ese principio", añade en su escrito.
Anthropic es la primera empresa estadounidense calificada de "riesgo" por el gobierno federal, una consideración reservada a entidades de países rivales, como el gigante tecnológico chino Huawei.
La designación exige a los proveedores y contratistas de defensa que certifiquen que no utilizan los modelos de Anthropic en su trabajo con el Pentágono.
Fundada en 2021 por los hermanos Dario y Daniela Amodei, ambos exempleados de OpenAI, creadora del ChatGPT, Anthropic se ha posicionado en la carrera de la IA como una alternativa centrada en la seguridad.
"Las consecuencias de este caso son enormes", ya que el Gobierno "pretende destruir el valor económico creado por una de las empresas privadas de más rápido crecimiento del mundo", afirma la demanda.
.

