Atrás

Anthropic vs. Pentágono: Batalla por el uso de la IA en la defensa

Antecedentes

Anthropic, una empresa de inteligencia artificial, ha adoptado una postura pública de que sus modelos no deben ser utilizados para la vigilancia masiva de ciudadanos estadounidenses o para armas que puedan operar sin un humano en el bucle de decisión. La empresa argumenta que la tecnología de IA plantea riesgos únicos que requieren salvaguardias más allá de las que se aplican típicamente al hardware de defensa tradicional.

Puntos de controversia

El Departamento de Defensa, representado por el Secretario de Defensa, mantiene que cualquier "uso legal" de la IA debe ser permitido y que las restricciones impuestas por los proveedores no deben impedir la preparación militar. Los funcionarios del Pentágono han declarado que no tienen interés en la vigilancia masiva doméstica o en armas autónomas, pero buscan la capacidad de emplear los modelos de Anthropic para todos los propósitos legales. El departamento ha advertido que el fracaso en llegar a un acuerdo podría resultar en que Anthropic sea etiquetada como un riesgo en la cadena de suministro, lo que efectivamente la excluiría de los contratos gubernamentales, o podría invocar la autoridad para forzar el cumplimiento.

Consecuencias potenciales

Los observadores de la industria señalan que una designación de riesgo en la cadena de suministro podría amenazar la viabilidad de Anthropic, mientras que la pérdida de acceso a los modelos de la empresa podría crear una brecha en las capacidades de IA de los militares que podría tardar meses en llenarse con alternativas. El conflicto subraya un debate más amplio sobre el equilibrio de poder entre los desarrolladores de IA, que buscan hacer cumplir límites éticos, y el gobierno, que busca retener la flexibilidad operativa completa.

Implicaciones para el futuro

El resultado de este conflicto puede sentar precedentes para cómo las empresas de IA interactúan con las agencias de defensa, influyendo en la política sobre armas autónomas, vigilancia y la gobernanza más amplia de las tecnologías avanzadas. Las partes interesadas están observando de cerca para ver si se puede llegar a un acuerdo que satisfaga tanto los objetivos de seguridad nacional como los estándares éticos corporativos.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: