Tribunal de Apelaciones Mantiene Etiqueta de Riesgo de Cadena de Suministro de Anthropic
El Tribunal de Apelaciones del Circuito de Columbia para el Distrito de Columbia emitió una orden de suspensión el miércoles que mantiene la designación de riesgo de cadena de suministro del Pentágono sobre Anthropic, la empresa detrás del sistema de inteligencia artificial Claude. El panel de apelación, en una decisión de 2 a 1, dijo que eliminar la etiqueta pondría en peligro las operaciones militares durante un conflicto en curso, aunque la empresa pueda enfrentar daños financieros.
La lucha legal de Anthropic se origina en dos estatutos separados que el Departamento de Defensa utilizó para prohibir a la empresa suministrar herramientas de inteligencia artificial a las fuerzas armadas. Un juez federal de San Francisco encontró el mes pasado que el Departamento de Defensa actuó de mala fe, citando la resistencia de la empresa a las políticas de uso restrictivas y su crítica pública a esas limitaciones. Ese juez ordenó que se eliminara la etiqueta de riesgo, lo que llevó a la administración de Trump a restaurar el acceso a Claude en todo el Pentágono y otras agencias federales.
En Washington, el tribunal de apelaciones se centró en una disposición estatutaria diferente pero llegó a la conclusión opuesta. Los jueces enfatizaron las presiones únicas de la adquisición en tiempos de guerra, señalando que "otorgar una suspensión obligaría a las fuerzas armadas de los Estados Unidos a prolongar sus tratos con un proveedor no deseado de servicios de inteligencia artificial críticos en medio de un conflicto militar significativo y en curso". El panel reconoció la posible pérdida de ingresos de Anthropic pero priorizó el juicio del Departamento de Defensa sobre asuntos de seguridad nacional.
El fiscal general interino Todd Blanche elogió la decisión en X, calificándola de "una victoria resonante para la preparación militar". Reiteró que el comandante en jefe y el Departamento de Guerra (como se llama al Pentágono bajo la actual administración) deben retener el acceso completo a los modelos de inteligencia artificial integrados en sistemas sensibles.
La portavoz de Anthropic, Danielle Cohen, expresó gratitud porque el tribunal de D.C. reconoció la urgencia del asunto y reafirmó la confianza de la empresa en que los tribunales eventualmente considerarán que las designaciones son ilegales. La empresa argumenta que la etiqueta le ha costado contratos y que su modelo Claude carece de la precisión necesaria para sistemas de armas autónomos completamente autónomos, una postura que ha generado críticas del Pentágono.
Los expertos legales dicen que el caso pone a prueba el alcance del poder ejecutivo sobre las empresas de tecnología privadas, especialmente a medida que el Pentágono acelera la implementación de la inteligencia artificial en su conflicto con Irán. Algunos académicos advierten que las acciones del Departamento de Defensa podrían sofocar el debate abierto entre los investigadores de inteligencia artificial sobre el rendimiento y la seguridad de los modelos.
Ambos casos judiciales se espera que continúen durante meses. El Circuito de D.C. escuchará argumentos orales el 19 de mayo, mientras que el caso de San Francisco procede según su propio calendario. Los detalles sobre cómo el Departamento de Defensa ha utilizado Claude, o el alcance de su transición a alternativas de Google DeepMind, OpenAI u otros proveedores, siguen siendo escasos.
A medida que se desarrollan las batallas legales, Anthropic enfrenta incertidumbre sobre su papel en las iniciativas de inteligencia artificial federales. El resultado puede dar forma a cómo se aplicarán las designaciones de riesgo de cadena de suministro a las empresas de tecnología nacionales en el futuro, una pregunta que es importante para la industria y para los responsables de la política de seguridad nacional por igual.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas