El acuerdo de OpenAI con el Pentágono genera preocupaciones sobre el uso militar y la vigilancia doméstica
Antecedentes
Anthropic, una empresa de inteligencia artificial, fue etiquetada como un riesgo en la cadena de suministro por el secretario de Defensa Pete Hegseth y posteriormente perdió un contrato de $200 millones del Pentágono después de negarse a permitir que sus modelos se utilizaran para sistemas de armas autónomas y vigilancia doméstica masiva. Este desarrollo sentó las bases para la última participación de OpenAI con el ejército de EE. UU.
El contrato de OpenAI con el Pentágono
OpenAI firmó un nuevo acuerdo con el Departamento de Defensa que, según fuentes internas, contiene un lenguaje que podría permitir el uso de sus modelos de inteligencia artificial para la vigilancia doméstica y otros fines controvertidos. Anteriormente, en 2023, OpenAI tenía una cláusula contractual que prohibía el uso militar de sus modelos, pero los empleados han revelado que el Pentágono accedió a la tecnología de OpenAI a través de un acuerdo con Microsoft-Azure que no estaba sujeto a las mismas restricciones.
En 2024, OpenAI eliminó la prohibición total sobre aplicaciones militares de sus modelos y posteriormente firmó un contrato con el contratista de defensa Anduril para desplegar sus modelos en misiones de seguridad nacional. El CEO de OpenAI, Sam Altman, ha expresado públicamente su apoyo a la postura de Anthropic contra el uso de la inteligencia artificial para fines nefastos, sin embargo, el nuevo acuerdo parece dejar abiertas similares vías.
Lacunas regulatorias y riesgos para la privacidad
Las regulaciones actuales no han seguido el ritmo de los rápidos avances en inteligencia artificial, lo que crea oportunidades para que las agencias gubernamentales adquieran datos personales de corredores de datos y empleen la inteligencia artificial para generar perfiles detallados de los ciudadanos. Los críticos argumentan que el lenguaje del contrato no aborda las nuevas formas en que la inteligencia artificial podría permitir la vigilancia legal, lo que genera preocupaciones sobre la opacidad del uso de la inteligencia artificial militar y su impacto en la privacidad de los civiles.
Reacciones de los expertos
El investigador de OpenAI, Noam Brown, señaló que el lenguaje original del contrato dejó "preguntas legítimas sin respuesta" sobre cómo la inteligencia artificial podría usarse para la vigilancia, y que el lenguaje actualizado intenta abordar esas preocupaciones. La ex jefa del equipo de geopolítica de OpenAI, Sarah Shoker, advirtió que las personas comunes y los civiles en zonas de conflicto son los mayores perdedores, ya que la opacidad en el diseño técnico y la política obstaculiza la comprensión de los efectos de la inteligencia artificial militar.
En general, el acuerdo coloca a OpenAI bajo escrutinio similar al que enfrentó Anthropic, destacando la tensión entre los objetivos de seguridad nacional y la necesidad de salvaguardias robustas contra el mal uso de las tecnologías de inteligencia artificial.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas