Voltar

Microsoft, Google e Amazon garantem acesso contínuo ao modelo Claude da Anthropic para usuários não militares

Contexto

O Departamento de Defesa dos EUA rotulou oficialmente a startup de IA Anthropic como um risco na cadeia de suprimentos após a empresa recusar-se a conceder acesso irrestrito ao seu modelo Claude para aplicações que a empresa considerou perigosas, como vigilância em massa e armas autônomas totalmente autônomas. Essa designação é normalmente reservada para adversários estrangeiros e significa que o Pentágono não pode usar os produtos da Anthropic e deve certificar que os contratantes não os empregam.

Garantias das principais empresas de tecnologia

A Microsoft, a primeira grande empresa de tecnologia a abordar a questão, confirmou que manterá os modelos da Anthropic, incluindo o Claude, disponíveis para seus clientes por meio de serviços como Microsoft 365, GitHub e sua AI Foundry, exceto para contratos diretos do Departamento de Defesa. Um porta-voz da Microsoft disse que a revisão jurídica da empresa concluiu que a designação não impede o uso contínuo do Claude para fins não militares.

O Google ecoou essa posição, afirmando que a determinação não impede a empresa de trabalhar com a Anthropic em projetos não militares e que o Claude permanecerá acessível por meio do Google Cloud.

A divisão de cloud da Amazon, AWS, também relatou que seus clientes e parceiros podem continuar usando o Claude para cargas de trabalho não relacionadas a contratos de defesa.

Posição da Anthropic

O CEO da Anthropic, Dario Amodei, reiterou que a designação de risco na cadeia de suprimentos se aplica apenas ao uso do Claude em contratos diretos com o Departamento de Defesa e não limita outros clientes ou relacionamentos comerciais não relacionados. Ele enfatizou a intenção da empresa de lutar contra a designação na justiça.

Implicações para os clientes

Empresas e startups que integram o Claude por meio de plataformas da Microsoft, Google ou AWS podem prosseguir com suas iniciativas de IA sem interrupção, desde que o uso não esteja relacionado a contratos de defesa. As garantias das três gigantes da tecnologia ajudam a manter a confiança na disponibilidade de ferramentas de IA avançadas para aplicações comerciais e civis.

Desafio jurídico em andamento

A Anthropic prometeu contestar a designação do Departamento de Defesa na justiça, sinalizando uma disputa contínua sobre o equilíbrio entre as preocupações de segurança nacional e o controle corporativo sobre a tecnologia de IA.

Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas

Também disponível em: