Juez Bloquea Designación de Riesgo de la Cadena de Suministro del Pentágono para Anthropic
Desafío Legal a la Designación del Pentágono
Un juez de distrito federal en San Francisco emitió una injunción preliminar que bloquea temporalmente el esfuerzo del Departamento de Defensa para etiquetar a la desarrolladora de inteligencia artificial Anthropic como un riesgo para la cadena de suministro. La orden restaura el status quo que existía antes de las directivas del Pentágono, que habían comenzado a restringir el uso del sistema de inteligencia artificial Claude de Anthropic en las operaciones federales.
Antecedentes del Conflicto
Durante varios años, el Pentágono confió en Claude para redactar documentos sensibles y analizar información clasificada. Las preocupaciones recientes sobre las restricciones de uso de Anthropic llevaron a la administración a emitir múltiples directivas, incluida una designación formal de riesgo para la cadena de suministro. Esas acciones detuvieron gradualmente la implementación de Claude en todo el gobierno y afectaron la reputación comercial de Anthropic.
Hallazgos del Juez
El juez concluyó que la designación del departamento parecía carecer de una base legal legítima y podría considerarse arbitraria. Enfatizó que el alivio temporal no obliga al Departamento de Defensa a seguir utilizando los productos de Anthropic, ni impide que la agencia transite a otros proveedores de inteligencia artificial, siempre que tales movimientos cumplan con las leyes y regulaciones aplicables.
Efectos Inmediatos e Incertidumbres
La injunción no entra en vigor de inmediato, y su impacto práctico remains incierto. Aunque la orden prohíbe al Pentágono citar la etiqueta de riesgo para la cadena de suministro como justificación para restricciones adicionales, deja abierta la posibilidad de que el departamento pueda aún discontinuar Claude por otras razones. Un recurso de apelación separado concerniente a una reclamación legal diferente contra Anthropic sigue pendiente ante un tribunal de apelaciones federal.
Implicaciones para Anthropic y el Paisaje de Inteligencia Artificial Federal
Anthropic considera la sentencia como un refuerzo de su posición legal y un posible señal a los clientes de que la empresa puede no estar sujeta a sanciones ilegales. La decisión también destaca la tensión más amplia entre las agencias gubernamentales que buscan gestionar los riesgos de la inteligencia artificial y las empresas de tecnología que defienden sus prácticas comerciales.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas