Anthropic Rechaza la Demanda del Pentágono de Eliminar los Límites de Seguridad de la IA
Antecedentes
El Departamento de Defensa de los Estados Unidos, liderado por el secretario de Defensa Pete Hegseth, exigió que Anthropic hiciera disponible su modelo de IA Claude para "todos los fines legales", incluyendo explícitamente la vigilancia masiva y el desarrollo de armas autónomas que podrían operar sin supervisión humana. El departamento advirtió que el incumplimiento podría resultar en la cancelación de un contrato de $200 millones y la designación de Anthropic como un "riesgo en la cadena de suministro", una etiqueta tradicionalmente reservada para empresas de naciones adversarias.
Respuesta de Anthropic
El CEO de Anthropic, Dario Amodei, publicó un blog en el que afirmó que la empresa no puede, en buena conciencia, eliminar las salvaguardas de seguridad que impiden que Claude se utilice de las maneras mencionadas. Amodei enfatizó una "fuerte preferencia" por seguir sirviendo al Departamento y a sus combatientes mientras mantiene las dos salvaguardas solicitadas. También se comprometió a facilitar una transición fluida a otro proveedor si el Pentágono decide desvincular a Anthropic, con el objetivo de evitar interrupciones en la planificación militar en curso y las misiones críticas.
Contramovimiento del Pentágono
En respuesta, el subsecretario de Defensa Emil Michael acusó a Amodei de querer "nada más que intentar controlar personalmente al ejército de los Estados Unidos" y sugirió que el CEO estaba poniendo en riesgo la seguridad nacional. El Pentágono estableció un plazo firme de 5:01 PM del viernes para que Anthropic aceptara los términos, al mismo tiempo que solicitó una evaluación de su dependencia de Claude como un paso inicial hacia la posible etiqueta de riesgo en la cadena de suministro.
Implicaciones para el uso de la IA en los militares
Claude ha sido el único modelo de IA aprobado para las tareas militares más sensibles, incluyendo el análisis de inteligencia, el desarrollo de armas y las operaciones en el campo de batalla. Los informes indican que Claude se utilizó en el raid venezolano que exfiltró al presidente Nicolás Maduro y a su esposa. La presión del Departamento para ampliar los usos permitidos de Claude a la vigilancia masiva y las armas autónomas marcaría una escalada significativa en el alcance de la implementación de la IA en las operaciones de defensa.
Alternativas potenciales
Se informa que el DoD está evaluando a otros proveedores de IA, como Grok, Google's Gemini y OpenAI, como posibles reemplazos en caso de que Anthropic sea desvinculada. Sin embargo, la transición lejos de Claude podría ser compleja debido a su integración única en los flujos de trabajo críticos de defensa.
Contexto más amplio
El enfrentamiento destaca la tensión entre los defensores de la seguridad de la IA y las agencias gubernamentales que buscan capacidades de IA más amplias para la seguridad nacional. Mientras que las empresas de IA enfrentan críticas por el posible daño a los usuarios, la perspectiva de la vigilancia masiva y las armas autónomas eleva las apuestas dramáticamente. La negativa de Anthropic pone a prueba su afirmación de ser la empresa de IA más segura, especialmente después de haber abandonado recientemente su compromiso de seguridad emblemático.
Mirando hacia adelante
Los próximos pasos dependen de la voluntad del Pentágono de seguir adelante con sus amenazas. La cancelación del contrato o la designación de riesgo en la cadena de suministro podría tener graves repercusiones financieras y operativas para Anthropic, mientras que también influiría en cómo otras empresas de IA negocien los requisitos de seguridad con los clientes gubernamentales.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas