Atrás

Anthropic demanda al gobierno de EE. UU. por designación de riesgo de cadena de suministro

Antecedentes

Anthropic, un desarrollador líder de inteligencia artificial, recibió una carta del Departamento de Defensa confirmando que la agencia había etiquetado a la empresa como un riesgo de cadena de suministro. Esta designación colocaría a Anthropic en una lista de seguridad nacional, efectivamente prohibiendo a la empresa muchos contratos federales.

Se produjeron semanas de idas y venidas entre Anthropic y el Departamento de Defensa antes de la demanda. A finales de febrero, el secretario de Defensa Pete Hegseth y funcionarios senior presionaron a Anthropic para que eliminara salvaguardas que impiden que los modelos de la empresa se utilicen para la vigilancia masiva o el desarrollo de armas autónomas. El CEO Dario Amodei dejó claro que la empresa no consentiría en tales usos.

Acción legal

Cuando Anthropic se negó a alterar sus salvaguardas, el Pentágono amenazó con agregar a la empresa a la lista de riesgo de cadena de suministro y con cancelar un contrato de $200 millones. La empresa respondió presentando una demanda para solicitar una revisión judicial de la designación. La queja alega que la acción del gobierno es ilegal, viola los derechos de libre expresión y debido proceso de Anthropic y carece de cualquier estatuto federal autorizante.

La declaración de Anthropic a la prensa dice: "Estas acciones son sin precedentes y ilegales. La Constitución no permite que el gobierno ejerza su enorme poder para castigar a una empresa por su discurso protegido". La demanda caracteriza la conducta del gobierno como una "campaña de represalias sin precedentes e ilegal".

Posición de la empresa

Anthropic enfatizó que buscar una revisión judicial no cambia su "compromiso de larga data de aprovechar la inteligencia artificial para proteger nuestra seguridad nacional", pero es un paso necesario para proteger su negocio, clientes y socios. La empresa también señaló que había acordado "colaborar con el Departamento en una transición ordenada a otro proveedor de inteligencia artificial dispuesto a cumplir con sus demandas".

Reacción de la industria

OpenAI entró en escena al asegurar un acuerdo separado con el Departamento de Defensa. El CEO de OpenAI, Sam Altman, destacó los principios de seguridad de la empresa, incluyendo prohibiciones sobre la vigilancia masiva nacional y la responsabilidad humana para el uso de la fuerza, incluidos los sistemas de armas autónomas. El contrato establece explícitamente que "el sistema de inteligencia artificial no se utilizará intencionalmente para la vigilancia doméstica de personas y nacionales de EE. UU.".

Después del acuerdo de OpenAI, el jefe de hardware de robótica de la empresa renunció, y la empleada Caitlin Kalinowski publicó en X que "la vigilancia de estadounidenses sin supervisión judicial y la autonomía letal sin autorización humana son líneas que merecían más deliberación de la que recibieron".

Implicaciones

La demanda subraya un choque creciente entre los objetivos de seguridad del gobierno federal y las salvaguardas éticas de los desarrolladores de inteligencia artificial. También destaca las incertidumbres legales que rodean la autoridad del gobierno para imponer designaciones de riesgo de cadena de suministro a las empresas de tecnología.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: