Atrás

El Pentágono planea entrenar modelos de inteligencia artificial con datos militares clasificados

Antecedentes

El Departamento de Defensa de los Estados Unidos se está moviendo hacia una postura de "inteligencia artificial primero" en la guerra, como se indicó en una declaración reciente del Secretario de Defensa Pete Hegseth. El uso actual de modelos de inteligencia artificial incluye aplicaciones como Claude de Anthropic, que supuestamente ayudó en operaciones que involucraron la captura del presidente venezolano Nicolás Maduro y un ataque a Irán. Estos despliegues existentes utilizan tecnología de inteligencia artificial disponible públicamente, pero el Pentágono busca capacidades más precisas entrenando modelos con datos clasificados.

Enfoque planificado

Según la MIT Technology Review, el Departamento de Defensa tiene la intención de realizar el entrenamiento en un centro de datos seguro que esté autorizado para proyectos gubernamentales clasificados. El plan consiste en crear copias de modelos de inteligencia artificial que serán propiedad exclusiva del Pentágono, con los datos de entrenamiento permaneciendo bajo control gubernamental. En casos limitados, se puede otorgar a individuos de las empresas de inteligencia artificial las autorizaciones de seguridad necesarias para acceder al material clasificado requerido para el entrenamiento.

Riesgos potenciales

Alek Mehta, ex líder de la política de inteligencia artificial en Google y OpenAI, advirtió que el entrenamiento de modelos con datos clasificados conlleva un riesgo significativo. Si bien los modelos resultantes estarían dedicados a fines militares, existe la preocupación de que si se despliega un solo modelo en todo el Departamento de Defensa, el personal sin la autorización adecuada podría acceder inadvertidamente a información sensible incrustada en las respuestas del modelo.

Participación de la industria

Se espera que la iniciativa involucre a importantes desarrolladores de inteligencia artificial como OpenAI y xAI de Elon Musk, ambos de los cuales han firmado acuerdos recientemente con la agencia. Anthropic, un contratista gubernamental de larga data, puede no participar porque se ha negado a permitir que su tecnología se utilice para la vigilancia masiva o las armas autónomas, una postura que anteriormente llevó a una prohibición de su uso por parte de agencias federales.

Implicaciones

Si se implementa, el programa marcaría un cambio hacia la integración de herramientas de inteligencia artificial altamente especializadas en los procesos de toma de decisiones militares, lo que podría mejorar la precisión y el detalle de las respuestas en escenarios que no están documentados públicamente. Sin embargo, el enfoque también plantea preguntas sobre la seguridad de los datos, la gestión de las autorizaciones y el impacto más amplio de incrustar conocimientos clasificados en los sistemas de inteligencia artificial.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: