Atrás

Jueza califica como intento de 'debilitar' a Anthropic la decisión del Pentágono de etiquetarla como riesgo en la cadena de suministro

Antecedentes del conflicto

Anthropic, la creadora del sistema de inteligencia artificial Claude, ha tomado medidas legales contra el Departamento de Defensa de EE. UU. después de que el Pentágono la designara como un riesgo en la cadena de suministro. La etiqueta se aplicó después de que Anthropic presionara para restricciones sobre cómo sus herramientas de inteligencia artificial podrían ser empleadas por el ejército. La empresa argumenta que la designación es una represalia por su escrutinio público de una disputa contractual, lo que podría violar las protecciones de la Primera Enmienda.

Escrutinio judicial

Durante una audiencia en el tribunal, la jueza del Tribunal de Distrito Rita Lin expresó su preocupación de que la acción del Pentágono se asemejara a un intento de debilitar a Anthropic. Ella señaló que la autoridad de riesgo en la cadena de suministro se reserva típicamente para adversarios extranjeros, terroristas y otros actores hostiles, y cuestionó si la designación estaba adecuadamente adaptada a preocupaciones genuinas de seguridad nacional. La jueza Lin indicó que podría emitir una orden temporal para pausar la designación solo si encuentra que Anthropic tiene probabilidades de éxito en los méritos de su caso.

Posición del gobierno

El Departamento de Defensa, refiriéndose a sí mismo como el Departamento de Guerra, defendió su decisión argumentando que las herramientas de inteligencia artificial de Anthropic no podían confiarse en momentos críticos. Un abogado de la administración Trump, Eric Hamilton, argumentó que el departamento había seguido los procedimientos adecuados y que la evaluación de seguridad no debería ser cuestionada. El Pentágono también anunció planes para reemplazar la tecnología de Anthropic con alternativas de Google, OpenAI y xAI, y afirmó tener salvaguardias para prevenir cualquier manipulación durante la transición.

Restricciones a los contratistas y autoridad legal

El secretario de Defensa, Pete Hegseth, publicó una declaración indicando que cualquier contratista, proveedor o socio que haga negocios con el ejército de EE. UU. estaba prohibido de realizar actividades comerciales con Anthropic. Sin embargo, durante la audiencia, Hamilton reconoció que Hegseth carece de autoridad legal para imponer una prohibición total a los contratistas para trabajos no relacionados con el Departamento de Defensa. Cuando se le preguntó por qué Hegseth hizo la declaración, Hamilton dijo que no lo sabía.

Implicaciones para la inteligencia artificial en el ejército

El caso ha generado un debate público más amplio sobre el papel de la inteligencia artificial en las fuerzas armadas y el grado de deferencia que las empresas de Silicon Valley deberían dar a las determinaciones gubernamentales sobre la implementación de la tecnología. Los críticos argumentan que el enfoque del Pentágono puede sentar un precedente para medidas punitivas contra empresas que plantean preocupaciones sobre las aplicaciones militares de la inteligencia artificial.

Próximos pasos

La jueza Lin está esperada a emitir un fallo sobre la injunción temporal en los próximos días. Una apelación relacionada también está pendiente en un tribunal de apelaciones federales en Washington, D.C., con una decisión anticipada pronto. El resultado dará forma tanto a la relación de Anthropic con el gobierno como al panorama más amplio de la adquisición de inteligencia artificial para fines de seguridad nacional.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: