Atrás

Anthropic Rechaza la Demanda del Pentágono para Acceso Irrestringido a la IA

Antecedentes

En un intercambio de alto riesgo entre el Departamento de Defensa y las principales empresas de inteligencia artificial, el Pentágono buscó un acceso más amplio a los modelos de IA para fines militares y de inteligencia. La solicitud incluía un lenguaje que permitiría el uso irrestringido de la tecnología, lo que generó preocupaciones entre algunos proveedores sobre posibles aplicaciones que podrían entrar en conflicto con los principios democráticos.

Posición de Anthropic

Anthropic, una destacada empresa de investigación de IA, respondió rechazando la demanda del Pentágono para acceder irrestringidamente a sus modelos. El director ejecutivo de la empresa, Dario Amodei, explicó que aunque Anthropic apoya el uso de la IA para defender a Estados Unidos y a sus aliados, no puede en buena conciencia permitir dos usos específicos: la vigilancia masiva de ciudadanos estadounidenses y las armas letales autónomas que operan sin supervisión humana.

Amodei señaló que Anthropic no se ha opuesto a operaciones militares específicas en el pasado y sigue dispuesta a trabajar con el Departamento de Defensa dentro de límites definidos. Sin embargo, la empresa cree que los sistemas de IA de vanguardia actuales no son lo suficientemente confiables como para alimentar armas que puedan seleccionar y atacar objetivos sin control humano.

Respuesta del Gobierno

Se informa que el Pentágono ha considerado invocar la Ley de Producción de Defensa y clasificar a Anthropic como un riesgo en la cadena de suministro para obligar a la empresa a cumplir. Los funcionarios también han pedido a los principales contratistas de defensa que evalúen su dependencia del modelo Claude de Anthropic, lo que indica un esfuerzo más amplio para asegurar capacidades de IA para la seguridad nacional.

Resultados Posibles

Anthropic indicó que si el Departamento de Defensa elige discontinuar la asociación, la empresa trabajará para garantizar una transición fluida a otro proveedor, con el objetivo de evitar interrupciones en la planificación y las operaciones militares en curso. Esta postura coloca a Anthropic junto a otras empresas de IA que han aceptado los términos revisados del Pentágono, destacando una división en la industria sobre cómo equilibrar las necesidades de seguridad nacional con consideraciones éticas.

Implicaciones para la Ética y la Política de la IA

El conflicto subraya la creciente tensión entre las agencias gubernamentales que buscan un acceso rápido a la IA avanzada y las empresas que priorizan las salvaguardias éticas. Plantea preguntas sobre cómo los contratos futuros abordarán preocupaciones como la privacidad de los civiles, el uso de armas autónomas y la confiabilidad de los sistemas de IA en escenarios de alto riesgo.

A medida que la conversación continúa, es probable que los formuladores de políticas, los líderes de la industria y los grupos de la sociedad civil observen de cerca cómo se negocia el equilibrio entre las imperativas de seguridad y los valores democráticos en el panorama de la IA en evolución.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: