Atrás

Anthropic Refuta Afirmaciones de que Podría Interrumpir Sistemas de Inteligencia Artificial Militar

Antecedentes

El Pentágono ha estado evaluando el modelo de inteligencia artificial generativa de Anthropic, Claude, para su uso en una variedad de tareas relacionadas con la defensa, incluyendo el análisis de datos y la redacción de documentos operativos. En medio de esta evaluación, el Departamento de Defensa planteó preocupaciones de que la empresa podría poseer los medios técnicos para interrumpir o modificar el modelo durante compromisos militares activos. Estas preocupaciones llevaron a una designación formal que etiquetó a Anthropic como un riesgo de cadena de suministro, un estatus que restringiría el uso de su software en todo el departamento y sus contratistas.

Respuesta de Anthropic

Los funcionarios de Anthropic negaron categóricamente que la empresa tenga la capacidad de interferir con Claude una vez que esté operando en entornos de DoD. Enfatizaron que la arquitectura de Claude no incluye mecanismos de acceso remoto, puertas traseras o interruptores de apagado que permitan a los empleados de Anthropic modificar o deshabilitar el modelo a demanda. La empresa también aclaró que no puede ver ni alterar las solicitudes ingresadas por usuarios militares, ni puede implementar actualizaciones sin la aprobación explícita del gobierno y su proveedor de servicios en la nube.

Disputa Legal

En reacción a la etiqueta de riesgo de cadena de suministro, Anthropic inició acciones legales que cuestionan la constitucionalidad de la restricción. La empresa busca una orden de emergencia para levantar la prohibición, argumentando que la designación limita injustamente sus oportunidades comerciales y obstaculiza los contratos continuos. Los procedimientos judiciales están programados para abordar la solicitud de alivio temporal, mientras que el conflicto más amplio subraya un choque entre las capacidades de inteligencia artificial emergentes y la necesidad de confiabilidad asegurada en sistemas de defensa críticos.

Implicaciones para la Defensa y la Industria

El desacuerdo ilustra la tensión más amplia entre la adopción rápida de herramientas de inteligencia artificial avanzadas y las salvaguardias de seguridad tradicionales que gobiernan la tecnología militar. Mientras que el Departamento de Defensa enfatiza la necesidad de eliminar cualquier riesgo de manipulación del modelo durante momentos cruciales, Anthropic enfatiza su falta de medios técnicos para ejercer dicho control. El resultado del desafío legal podría sentar un precedente para cómo los proveedores de inteligencia artificial interactúan con clientes federales y cómo se evalúan los riesgos de la cadena de suministro para servicios de inteligencia artificial basados en la nube.

Perspectiva Futura

Ambas partes han indicado su disposición a negociar términos que podrían abordar las preocupaciones del Departamento, como lenguaje contractual que limite la influencia de Anthropic sobre las actualizaciones del modelo. Sin embargo, las negociaciones han estancado hasta ahora, dejando incierta la implementación futura de Claude dentro del Pentágono. El caso continúa sirviendo como un punto focal para formuladores de políticas, líderes de la industria y expertos legales que navegan la integración de la inteligencia artificial en contextos de seguridad nacional.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: