Atrás

Pentágono designa a Anthropic como riesgo en la cadena de suministro

Pentágono toma una medida sin precedentes contra una empresa de inteligencia artificial doméstica

El Departamento de Guerra de los Estados Unidos anunció una designación de riesgo en la cadena de suministro para Anthropic, la empresa de inteligencia artificial de San Francisco detrás de los modelos Claude. Esta es la primera aplicación de la designación a una empresa estadounidense, un estatus previamente reservado para adversarios extranjeros como Huawei de China. Según la ley 10 USC 3252, la designación obliga a los proveedores y contratistas de defensa a certificar que no emplean los modelos Claude de Anthropic en ningún trabajo para el Pentágono.

Anthropic inició negociaciones con el Departamento de Guerra en busca de garantías escritas de que su tecnología no se utilizaría para "vigilancia doméstica masiva de estadounidenses" o "armas completamente autónomas" sin la participación humana en la toma de decisiones de targeting. La empresa sostuvo que estos límites eran razonables para cualquier implementación de inteligencia artificial, no solo para la suya. El Pentágono contrargumentó que las leyes existentes ya prohíben la vigilancia masiva y que la política interna del Departamento de Defensa restringe las armas completamente autónomas, argumentando que los límites contractuales eran innecesarios.

Cuando las conversaciones terminaron el 5 de marzo de 2026, el Departamento de Guerra informó formalmente a Anthropic que la empresa y sus productos fueron considerados un riesgo en la cadena de suministro, con efecto inmediato. El CEO de Anthropic, Dario Amodei, declaró que la empresa impugnaría la designación en los tribunales, argumentando que la acción "no es legalmente sólida". También señaló que la designación no puede afectar a los clientes comerciales de Anthropic ni a otras agencias gubernamentales, solo su uso en contratos del Departamento de Guerra.

Contradicciones y uso continuado

A pesar de la lista negra, los informes indicaron que Claude seguía en uso activo por el ejército en Irán a través del sistema Maven Smart de Palantir, que integra Claude para la gestión de datos en contextos operativos. El presidente Donald Trump ordenó a las agencias federales que cesaran todo uso de la tecnología de Anthropic, aunque el impacto en las implementaciones de terceros como la de Palantir no estaba claro.

Reacción de la industria y acuerdos competitivos

La industria tecnológica respondió con una postura dividida. Cientos de empleados de Google y OpenAI firmaron una carta abierta instando a apoyar a Anthropic, mientras que Elon Musk se puso del lado de la administración Trump, afirmando que Anthropic "odia la civilización occidental". OpenAI, por otro lado, anunció un acuerdo separado con el Departamento de Guerra que permite al ejército utilizar los modelos de OpenAI para "todos los fines legales", un lenguaje descrito por algunos empleados de OpenAI como deliberadamente ambiguo.

Dean Ball, un ex asesor de inteligencia artificial de la Casa Blanca de Trump, criticó la designación de riesgo en la cadena de suministro como un "estertor de muerte" de la coherencia estratégica estadounidense, argumentando que tratar a una empresa doméstica peor que a un adversario extranjero refleja "tribalismo matón".

Perspectiva futura

Anthropic ha indicado su disposición a desescalar y buscar un acuerdo que funcione para ambas partes, y Bloomberg informó que las conversaciones habían reiniciado silenciosamente incluso mientras se anunciaba la designación formal. El desafío legal pendiente probará la interpretación del gobierno sobre la disposición de riesgo en la cadena de suministro contra la lectura de Anthropic de que solo se aplica a los contratos del Departamento de Guerra.

La designación establece un precedente, marcando la primera vez que una empresa de inteligencia artificial estadounidense construida sobre principios de inteligencia artificial responsable ha sido clasificada junto a un adversario extranjero por el mismo gobierno que buscaba servir.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: