Anthropic Demanda al Gobierno de Trump por Designación de ‘Riesgo en la Cadena de Suministro’
En Resumen
- Anthropic demandó al gobierno federal alegando represalias inconstitucionales tras negarse a permitir el uso de Claude en armas autónomas y vigilancia masiva.
- La demanda nombra a Pete Hegseth, Scott Bessent y Marco Rubio, y busca anular la designación de Anthropic como riesgo de cadena de suministro.
- Pese a la lista negra, Claude siguió siendo usado por el Comando Central de EE.UU. para analizar inteligencia durante los ataques sobre IrÔn.
Anthropic ha recurrido a los tribunales federales para luchar contra una lista negra generalizada por la administración de Donald Trump, alegando que el gobierno etiquetó a la startup de IA como una amenaza para la seguridad nacional en represalia por su negativa a relajar los protocolos de seguridad.
La demanda, presentada el lunes en el Tribunal de Distrito de los Estados Unidos del Norte de California, impugna las acciones tomadas despuĆ©s de que el Presidente Trump ordenara a las agencias federales en febrero dejar de usar la tecnologĆa de Anthropic. Esto siguió a comentarios pĆŗblicos del CEO de Anthropic, Dario Amodei, quien dijo que la empresa no cumplirĆa con la solicitud del PentĆ”gono de acceso irrestricto a Claude. La denuncia nombra a mĆŗltiples agencias federales y altos funcionarios como demandados, incluidos el Secretario de Defensa Pete Hegseth, el Secretario del Tesoro Scott Bessent y el Secretario de Estado Marco Rubio.
“La Constitución no permite al gobierno ejercer su enorme poder para castigar a una empresa por su discurso protegido”, dijeron los abogados de Anthropic en la demanda. “NingĆŗn estatuto federal autoriza las acciones tomadas aquĆ. Anthropic recurre al poder judicial como Ćŗltimo recurso para vindicar sus derechos y detener la campaƱa ilegal de represalias del Ejecutivo.”
At the direction of @POTUS, the @USTreasury is terminating all use of Anthropic products, including the use of its Claude platform, within our department.
The American people deserve confidence that every tool in government serves the public interest, and under President Trump⦠https://t.co/R7rF0ci5CY
ā Treasury Secretary Scott Bessent (@SecScottBessent) March 2, 2026
La disputa comenzó en enero cuando funcionarios del PentĆ”gono exigieron a los contratistas de IA permitir que sus sistemas se utilicen para “cualquier uso legal”, incluidas aplicaciones militares. Si bien Anthropic ya habĆa firmado un contrato de $200 millones con el Departamento de Defensa, se negó a eliminar dos salvaguardias que prohibĆan el uso de Claude para la vigilancia masiva interna de los estadounidenses o para sistemas de armas letales totalmente autónomos.
“Las Acciones Impugnadas infligen daƱos inmediatos e irreparables en Anthropic; en otros cuya libertad de expresión se verĆ” coartada; en aquellos que se benefician del valor económico que la empresa puede seguir creando; y en un pĆŗblico global que merece un diĆ”logo y debate sólidos sobre lo que la IA significa para la guerra y la vigilancia”, afirmaron los abogados de Anthropic en la demanda.
Para los desarrolladores de IA, como el CEO de SingularityNET, Ben Goertzel, la designación es una elección extraƱa y no encaja con el significado tĆpico de una amenaza de la cadena de suministro, algo que generalmente se reserva para software de adversarios que podrĆan contener malware oculto, virus o spyware.
“Que Anthropic no estĆ© dispuesta a que su software se utilice para matanzas autónomas o vigilancia masiva no parece representar un riesgo de esa naturaleza”, seƱaló Goertzel a Decrypt. “Eso simplemente significa que si quieres usar software para matanzas autónomas o vigilancia masiva, entonces compra el software de otra persona. AsĆ que la lógica de convertirlo en un riesgo de la cadena de suministro me resulta difĆcil de entender”.
Goertzel indicó que las diferencias entre los principales modelos de IA pueden limitar el impacto prÔctico de la decisión.
“Al final, Claude, ChatGPT y Gemini no estĆ”n tan lejos el uno del otro”, agregó. “Mientras uno de estos sistemas principales estĆ© siendo utilizado por el gobierno de EE. UU., todo se trata de lo mismo. Y las agencias de inteligencia, bajo el manto de la autorización de alto secreto, usarĆan el software como quisieran.”
Anthropic estĆ” pidiendo a la corte que declare las acciones del gobierno como ilegales y bloquee la aplicación de la designación de “riesgo de cadena de suministro” que impide a las agencias federales y contratistas del PentĆ”gono hacer negocios con la empresa.
“No hay justificación vĆ”lida para las Acciones Impugnadas”, dice la demanda. “El Tribunal deberĆa declararlas ilegales y ordenar a los Demandados que no tomen medidas para implementarlas.”
Anthropic no respondió de inmediato a las solicitudes de comentarios de Decrypt.
Incluso despuƩs de designar a Anthropic como un riesgo para la seguridad nacional, Claude ha sido utilizado en operaciones militares en curso, como por el Comando Central de EE. UU. para ayudar a analizar inteligencia e identificar objetivos durante los ataques en IrƔn.
Jennifer Huddleston, investigadora principal en polĆtica tecnológica en el Instituto Cato, afirmó en un comunicado compartido con Decrypt que el caso plantea preocupaciones sobre las protecciones constitucionales cuando las afirmaciones de seguridad nacional se utilizan para justificar la acción gubernamental.
“Si bien los tribunales han sido reacios en el pasado a cuestionar las afirmaciones del gobierno sobre preocupaciones de seguridad nacional, las circunstancias de este caso ciertamente resaltan el verdadero riesgo para los derechos de la Primera Enmienda de los estadounidenses si las consideraciones subyacentes de tales afirmaciones no son examinadas minuciosamente”, seƱaló.
Daily Debrief Newsletter
Start every day with the top news stories right now, plus original features, a podcast, videos and more.
CrƩdito: Enlace fuente
Responses