Atrás

Microsoft, Google y Amazon aseguran acceso continuo a Anthropic Claude para usuarios no defensivos

Antecedentes

El Departamento de Defensa de EE. UU. etiquetó oficialmente a la startup de inteligencia artificial Anthropic como un riesgo de cadena de suministro después de que la empresa se negó a otorgar acceso irrestricto a su modelo Claude para aplicaciones que la empresa consideró inseguras, como la vigilancia masiva y las armas autónomas completamente autónomas. Esta designación suele reservarse para adversarios extranjeros y significa que el Pentágono no puede utilizar los productos de Anthropic y debe certificar que los contratistas no los emplean.

Garantías de las principales empresas de tecnología

Microsoft, la primera gran empresa de tecnología en abordar el tema, confirmó que mantendrá los modelos de Anthropic, incluido Claude, disponibles para sus clientes a través de servicios como Microsoft 365, GitHub y su AI Foundry, excepto para contratos directos del Departamento de Defensa. Un portavoz de Microsoft dijo que la revisión legal de la empresa concluyó que la designación no impide el uso continuo de Claude para fines no defensivos.

Google repitió esta postura, afirmando que la determinación no impide que la empresa trabaje con Anthropic en proyectos no defensivos y que Claude seguirá siendo accesible a través de Google Cloud.

La división de cloud de Amazon, AWS, también informó que sus clientes y socios pueden seguir utilizando Claude para cargas de trabajo no relacionadas con contratos de defensa.

Posición de Anthropic

El CEO de Anthropic, Dario Amodei, reiteró que la designación de riesgo de cadena de suministro solo se aplica al uso de Claude en contratos directos con el Departamento de Defensa y no limita a otros clientes o relaciones comerciales no relacionadas. Enfatizó la intención de la empresa de impugnar la designación en los tribunales.

Implicaciones para los clientes

Las empresas y startups que integran Claude a través de plataformas de Microsoft, Google o AWS pueden continuar con sus iniciativas de inteligencia artificial sin interrupción, siempre que el uso no esté vinculado a contratos de defensa. Las garantías de las tres empresas de tecnología ayudan a mantener la confianza en la disponibilidad de herramientas de inteligencia artificial avanzadas para aplicaciones comerciales y civiles.

Desafío legal en curso

Anthropic ha prometido impugnar la designación del Departamento de Defensa en los tribunales, lo que indica una disputa continua sobre el equilibrio entre las preocupaciones de seguridad nacional y el control corporativo sobre la tecnología de inteligencia artificial.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: