Anthropic desafiará la designación de riesgo de cadena de suministro del Pentágono en los tribunales
El desafío legal de Anthropic a la designación de riesgo de cadena de suministro del Pentágono
En una publicación de blog reciente, el director ejecutivo de Anthropic, Dario Amodei, reveló que la empresa de inteligencia artificial recibió una carta formal del Departamento de Defensa que oficialmente etiquetó sus productos como un riesgo para la cadena de suministro. La designación, que el Pentágono dijo es efectiva de inmediato, activa restricciones sobre el uso de la tecnología de Anthropic para ciertos propósitos relacionados con la defensa.
Amodei declaró que no cree que la acción del departamento sea legalmente sólida y que Anthropic ve "no hay más remedio" que disputar la designación en los tribunales. Enmarcó la inminente batalla legal como una respuesta necesaria para proteger la capacidad de la empresa para seguir ofreciendo sus servicios de inteligencia artificial.
La etiqueta de riesgo de cadena de suministro, según Amodei, tiene un alcance limitado destinado a proteger los intereses del gobierno. Enfatizó que la restricción no se extiende al público en general o incluso a la mayoría de los contratistas del Departamento de Defensa, lo que permite el acceso continuo al chatbot Claude de Anthropic y a las herramientas de inteligencia artificial relacionadas para aplicaciones no relacionadas con la defensa.
Microsoft, un socio comercial importante, confirmó que seguirá utilizando Claude después de que su equipo legal concluyó que la asociación puede proceder en proyectos no relacionados con la defensa. Esto subraya que la designación no impide todas las relaciones comerciales, solo aquellas que caen bajo las restricciones específicas relacionadas con la defensa.
Negociaciones y excepciones
Amodei también señaló que Anthropic ha tenido "conversaciones productivas" con el Departamento de Defensa durante los últimos días. Las discusiones se centran en cómo la empresa podría seguir sirviendo al Pentágono mientras respeta dos excepciones explícitas: la tecnología no debe ser utilizada para vigilancia masiva o para el desarrollo de armas autónomas completamente.
El director ejecutivo indicó que Anthropic está explorando formas de garantizar una transición fluida en caso de que esas excepciones resulten inviables, sugiriendo una disposición a negociar un nuevo acuerdo que se alinee con las preocupaciones de seguridad del departamento.
Contexto y antecedentes
La designación evoca tensiones anteriores entre el gobierno y las empresas de inteligencia artificial. En instancias anteriores, el departamento amenazó con aplicar una etiqueta similar a empresas de naciones adversarias si no eliminaban salvaguardias relacionadas con la vigilancia masiva y las armas autónomas. La administración actual, referida en la fuente como el Departamento de Guerra, ha ordenado anteriormente a las agencias federales que cesen el uso de la tecnología de Anthropic.
La publicación de blog de Amodei también hizo referencia a un memorándum interno filtrado en el que describió las declaraciones de OpenAI sobre su propio contrato de defensa como "simplemente mentiras directas". Aunque este comentario no se elabora más, destaca la competencia y el escrutinio en curso dentro de la industria de la inteligencia artificial con respecto a los contratos gubernamentales.
Implicaciones
El caso judicial inminente pondrá a prueba los fundamentos legales de la autoridad de riesgo de cadena de suministro del Pentágono. Un fallo a favor de Anthropic podría preservar un uso comercial más amplio de los productos de inteligencia artificial de la empresa, mientras que una decisión que apoye la designación del departamento podría restringir la participación de la empresa en proyectos de defensa y potencialmente influir en cómo otros proveedores de inteligencia artificial interactúan con los contratos gubernamentales.
Independientemente del resultado, la postura de Anthropic señala un compromiso firme para defender su libertad operativa y subraya la creciente fricción entre las tecnologías de inteligencia artificial emergentes y las políticas de seguridad gubernamentales.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas