Atrás

Disputa contractual entre el Pentágono y Anthropic subraya la brecha en la gobernanza de la IA

Antecedentes

El Departamento de Defensa de EE. UU. entró en un contrato con Anthropic, el creador del sistema de inteligencia artificial Claude, para incorporar la tecnología en operaciones de defensa. La solicitud del Pentágono fue para tener la capacidad de usar Claude para "todos los fines legales", una frase que implicaba una implementación amplia y sin restricciones.

Disputa sobre el uso de la IA

Anthropic se opuso, insistiendo en límites que impedirían que el modelo se utilizara para la vigilancia doméstica masiva o para sistemas de armas completamente autónomos. Cuando la empresa se negó a renunciar a estas salvaguardias, el presidente Donald Trump y el secretario de Defensa Pete Hegseth anunciaron que Anthropic sería designada como un "riesgo en la cadena de suministro", lo que efectivamente prohibiría sus productos en contratos de defensa.

Anthropic respondió presentando una demanda federal, calificando la designación de ataque sin precedentes y ilegal contra los derechos de libre expresión de la empresa. El Pentágono argumentó que la ley actual no permite los usos de vigilancia controvertidos y que no tiene planes para emplear la herramienta para armas autónomas, aunque los expertos señalan que la orientación legal sigue siendo ambigua.

Implicaciones legales y de política

La disputa iluminó una brecha en la gobernanza: las leyes y regulaciones existentes no han seguido el ritmo de las capacidades de la IA moderna. Los académicos de la privacidad y la tecnología describieron el episodio como una llamada de atención para el Congreso para establecer líneas rojas estatutarias que definan las aplicaciones de IA permitidas en contextos de seguridad nacional.

Después del conflicto, el Pentágono aseguró un nuevo acuerdo con OpenAI. Aunque el trato con OpenAI contiene menos restricciones explícitas, el liderazgo de la empresa ha prometido fortalecer las salvaguardias, y el CEO Sam Altman señaló públicamente que el Pentágono afirmó que la tecnología no se utilizaría por parte de las agencias de inteligencia.

Reacciones de expertos

Los analistas destacaron el efecto transformador de la IA en la vigilancia, enfatizando cómo los modelos poderosos pueden amalgamar datos dispersos e inocuos en perfiles personales detallados sin una orden judicial. El CEO de Anthropic, Dario Amodei, advirtió que tales capacidades plantean riesgos significativos para la privacidad.

En cuanto a la militarización, Anthropic y otros expertos en IA argumentaron que los modelos fronterizos de hoy carecen de la confiabilidad necesaria para armas completamente autónomas. Urgieron la inclusión de un "ser humano en el bucle" para garantizar la rendición de cuentas, una postura que el Pentágono parece resistir.

Los académicos del derecho enfatizaron que los líderes del sector privado no electos no pueden llenar el vacío regulatorio dejado por el Congreso. Llamaron a reglas claras y democráticamente aprobadas que gobiernen el uso de la IA en la vigilancia y los sistemas letales.

Perspectiva futura

La designación del gobierno de Anthropic como un riesgo en la cadena de suministro puede tener un efecto disuasorio en otras empresas de IA, señalizando que el estado podría retaliar contra las empresas que imponen límites de seguridad. Anthropic aclaró que la designación se aplica solo a contratos directos del Departamento de Guerra, no a todos los clientes.

A pesar del conflicto, el ejército continúa empleando las herramientas de Anthropic en operaciones en curso, incluido el conflicto actual en Irán. La empresa declaró que seguirá proporcionando sus modelos a un costo nominal siempre que siga autorizada.

En general, el episodio subraya la necesidad urgente de una acción comprehensiva del Congreso para establecer límites duraderos y transparentes en la implementación de la IA en entornos de seguridad nacional, equilibrando la innovación con la supervisión democrática y las protecciones de los derechos civiles.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: