Anthropic Demanda al Gobierno de Trump por Designación de ‘Riesgo en la Cadena de Suministro’

En Resumen

  • Anthropic demandó al gobierno federal alegando represalias inconstitucionales tras negarse a permitir el uso de Claude en armas autónomas y vigilancia masiva.
  • La demanda nombra a Pete Hegseth, Scott Bessent y Marco Rubio, y busca anular la designación de Anthropic como riesgo de cadena de suministro.
  • Pese a la lista negra, Claude siguió siendo usado por el Comando Central de EE.UU. para analizar inteligencia durante los ataques sobre IrĆ”n.

Anthropic ha recurrido a los tribunales federales para luchar contra una lista negra generalizada por la administración de Donald Trump, alegando que el gobierno etiquetó a la startup de IA como una amenaza para la seguridad nacional en represalia por su negativa a relajar los protocolos de seguridad.

La demanda, presentada el lunes en el Tribunal de Distrito de los Estados Unidos del Norte de California, impugna las acciones tomadas después de que el Presidente Trump ordenara a las agencias federales en febrero dejar de usar la tecnología de Anthropic. Esto siguió a comentarios públicos del CEO de Anthropic, Dario Amodei, quien dijo que la empresa no cumpliría con la solicitud del PentÔgono de acceso irrestricto a Claude. La denuncia nombra a múltiples agencias federales y altos funcionarios como demandados, incluidos el Secretario de Defensa Pete Hegseth, el Secretario del Tesoro Scott Bessent y el Secretario de Estado Marco Rubio.

“La Constitución no permite al gobierno ejercer su enorme poder para castigar a una empresa por su discurso protegido”, dijeron los abogados de Anthropic en la demanda. “NingĆŗn estatuto federal autoriza las acciones tomadas aquĆ­. Anthropic recurre al poder judicial como Ćŗltimo recurso para vindicar sus derechos y detener la campaƱa ilegal de represalias del Ejecutivo.”

La disputa comenzó en enero cuando funcionarios del PentĆ”gono exigieron a los contratistas de IA permitir que sus sistemas se utilicen para “cualquier uso legal”, incluidas aplicaciones militares. Si bien Anthropic ya habĆ­a firmado un contrato de $200 millones con el Departamento de Defensa, se negó a eliminar dos salvaguardias que prohibĆ­an el uso de Claude para la vigilancia masiva interna de los estadounidenses o para sistemas de armas letales totalmente autónomos.

“Las Acciones Impugnadas infligen daƱos inmediatos e irreparables en Anthropic; en otros cuya libertad de expresión se verĆ” coartada; en aquellos que se benefician del valor económico que la empresa puede seguir creando; y en un pĆŗblico global que merece un diĆ”logo y debate sólidos sobre lo que la IA significa para la guerra y la vigilancia”, afirmaron los abogados de Anthropic en la demanda.

Para los desarrolladores de IA, como el CEO de SingularityNET, Ben Goertzel, la designación es una elección extraña y no encaja con el significado típico de una amenaza de la cadena de suministro, algo que generalmente se reserva para software de adversarios que podrían contener malware oculto, virus o spyware.

“Que Anthropic no estĆ© dispuesta a que su software se utilice para matanzas autónomas o vigilancia masiva no parece representar un riesgo de esa naturaleza”, seƱaló Goertzel a Decrypt. “Eso simplemente significa que si quieres usar software para matanzas autónomas o vigilancia masiva, entonces compra el software de otra persona. AsĆ­ que la lógica de convertirlo en un riesgo de la cadena de suministro me resulta difĆ­cil de entender”.

Goertzel indicó que las diferencias entre los principales modelos de IA pueden limitar el impacto prÔctico de la decisión.

“Al final, Claude, ChatGPT y Gemini no estĆ”n tan lejos el uno del otro”, agregó. “Mientras uno de estos sistemas principales estĆ© siendo utilizado por el gobierno de EE. UU., todo se trata de lo mismo. Y las agencias de inteligencia, bajo el manto de la autorización de alto secreto, usarĆ­an el software como quisieran.”

Anthropic estĆ” pidiendo a la corte que declare las acciones del gobierno como ilegales y bloquee la aplicación de la designación de “riesgo de cadena de suministro” que impide a las agencias federales y contratistas del PentĆ”gono hacer negocios con la empresa.

“No hay justificación vĆ”lida para las Acciones Impugnadas”, dice la demanda. “El Tribunal deberĆ­a declararlas ilegales y ordenar a los Demandados que no tomen medidas para implementarlas.”

Anthropic no respondió de inmediato a las solicitudes de comentarios de Decrypt.

Incluso despuƩs de designar a Anthropic como un riesgo para la seguridad nacional, Claude ha sido utilizado en operaciones militares en curso, como por el Comando Central de EE. UU. para ayudar a analizar inteligencia e identificar objetivos durante los ataques en IrƔn.

Jennifer Huddleston, investigadora principal en política tecnológica en el Instituto Cato, afirmó en un comunicado compartido con Decrypt que el caso plantea preocupaciones sobre las protecciones constitucionales cuando las afirmaciones de seguridad nacional se utilizan para justificar la acción gubernamental.

“Si bien los tribunales han sido reacios en el pasado a cuestionar las afirmaciones del gobierno sobre preocupaciones de seguridad nacional, las circunstancias de este caso ciertamente resaltan el verdadero riesgo para los derechos de la Primera Enmienda de los estadounidenses si las consideraciones subyacentes de tales afirmaciones no son examinadas minuciosamente”, seƱaló.

Daily Debrief Newsletter

Start every day with the top news stories right now, plus original features, a podcast, videos and more.



CrƩdito: Enlace fuente

Related Articles

Responses

Your email address will not be published. Required fields are marked *