OpenAI obtiene contrato con el Pentágono mientras Anthropic rechaza los términos
Acuerdo de OpenAI con el Pentágono
El director ejecutivo de OpenAI anunció que la empresa había alcanzado un contrato con el Departamento de Defensa. La empresa enfatizó que sus dos principios de seguridad fundamentales — la prohibición de la vigilancia masiva nacional y la responsabilidad humana en el uso de la fuerza — se reflejan en el acuerdo. Según OpenAI, el contrato vincula cualquier uso de sus modelos a las leyes existentes de EE. UU., incluyendo la Cuarta Enmienda, la Ley de Seguridad Nacional de 1947, la Ley de Vigilancia de la Fuerza de Inteligencia Extranjera de 1978, la Orden Ejecutiva 12333 y las directivas relevantes del Departamento de Defensa.
La empresa también dijo que desplegaría salvaguardas técnicas como clasificadores que pueden monitorear el comportamiento del modelo y que algunos empleados recibirían autorizaciones de seguridad para supervisar los sistemas.
Críticos cuestionan las salvaguardas
Observadores de la industria y personal anterior de OpenAI argumentan que la dependencia del acuerdo en "cualquier uso legal" efectivamente deja al Pentágono libre para emplear la tecnología para cualquier actividad que el gobierno considere legal. Señalan que las agencias de inteligencia de EE. UU. han interpretado históricamente las autoridades legales para permitir la recopilación extensa de datos, incluyendo la vigilancia masiva nacional. Los críticos dicen que el lenguaje sobre "uso no restringido", "generalizado" o "abierto" es vago y puede permitir la opción para el ejército.
Los expertos también cuestionan la efectividad de las salvaguardas técnicas. Los clasificadores, explican, no pueden verificar si un ser humano revisó una decisión antes de un ataque letal o si una consulta es parte de un programa de vigilancia masiva. Debido a que el contrato permite que el gobierno defina qué es legal, las salvaguardas podrían ser anuladas si cambia la interpretación legal.
Postura de Anthropic y consecuencias
Anthropic, una empresa rival de IA, declinó firmar un contrato similar que, según dice, específicamente prohibiría la vigilancia masiva y las armas autónomas letales no supervisadas. Después de que las negociaciones se derrumbaron, el Pentágono clasificó a Anthropic como un riesgo en la cadena de suministro, una designación que generalmente se reserva para empresas extranjeras con preocupaciones de ciberseguridad. Anthropic anunció planes para impugnar la clasificación en los tribunales.
El desacuerdo generó apoyo público para Anthropic dentro de la comunidad tecnológica, con figuras notables y usuarios elogiando la decisión de la empresa de mantenerse firme en sus líneas rojas.
Implicaciones para la IA y la defensa
Los enfoques contrastantes de OpenAI y Anthropic ilustran un debate más amplio sobre cómo las empresas de IA deben interactuar con los clientes militares. Mientras que OpenAI argumenta que adherirse a las leyes actuales proporciona una protección suficiente, los críticos advierten que los marcos legales pueden cambiar y pueden no proteger adecuadamente las libertades civiles o prevenir el uso de armas autónomas sin supervisión humana.
La situación subraya la importancia de un lenguaje contractual claro, salvaguardas técnicas sólidas y una supervisión pública continua a medida que la inteligencia artificial se integra cada vez más en las operaciones de seguridad nacional.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas