Voltar

Anthropic Recusa Demanda do Pentágono para Remover Guardrails de IA

Fundo

O Departamento de Defesa dos EUA, liderado pelo secretário de Defesa Pete Hegseth, exigiu que a Anthropic tornasse seu modelo de IA Claude disponível para "todos os fins legais", incluindo explicitamente a vigilância em massa e o desenvolvimento de armas autônomas que possam operar sem supervisão humana. O departamento alertou que a falha em cumprir poderia resultar no cancelamento de um contrato de US$ 200 milhões e na designação da Anthropic como "risco na cadeia de suprimentos", um rótulo tradicionalmente reservado para empresas de nações adversárias.

Resposta da Anthropic

O CEO da Anthropic, Dario Amodei, publicou um blog afirmando que a empresa não pode, em boa consciência, remover as salvaguardas de segurança que impedem que o Claude seja usado das maneiras mencionadas. Amodei enfatizou uma "forte preferência" por continuar a servir ao Departamento e aos seus combatentes, enquanto retém as duas salvaguardas solicitadas. Ele também se comprometeu a facilitar uma transição suave para outro fornecedor, caso o Pentágono decida desligar a Anthropic, visando evitar a interrupção do planejamento militar em andamento e missões críticas.

Contra-ataque do Pentágono

Em reação, o subsecretário de Defesa, Emil Michael, acusou Amodei de querer "nada mais do que tentar controlar pessoalmente o militar dos EUA" e sugeriu que o CEO estava colocando a segurança nacional em risco. O Pentágono estabeleceu um prazo firme de 17h01 de sexta-feira para a Anthropic aceitar os termos, solicitando simultaneamente uma avaliação de sua dependência do Claude como um passo inicial para potencialmente rotular a empresa como risco na cadeia de suprimentos.

Implicações para o Uso de IA no Militar

O Claude tem sido o único modelo de IA aprovado para as tarefas militares mais sensíveis, incluindo análise de inteligência, desenvolvimento de armas e operações de batalha. Relatórios indicam que o Claude foi usado na incursão na Venezuela que exfiltrou o presidente Nicolás Maduro e sua esposa. A pressão do Departamento para expandir os usos permitidos do Claude para vigilância em massa e armas autônomas marcaria uma escalada significativa no escopo da implantação de IA nas operações de defesa.

Alternativas Potenciais

O DoD está relatado como avaliando outros fornecedores de IA, como Grok, Gemini do Google e OpenAI, como possíveis substitutos, caso a Anthropic seja desligada. No entanto, a transição para longe do Claude pode se provar complexa, dado seu único integração em fluxos de trabalho críticos de defesa.

Contexto Mais Amplo

O impasse destaca a tensão entre os defensores da segurança da IA e as agências governamentais que buscam capacidades de IA mais amplas para a segurança nacional. Enquanto as empresas de IA enfrentam críticas por possíveis danos aos usuários, a perspectiva de vigilância em massa e armas autônomas eleva as apostas dramaticamente. A recusa da Anthropic testa sua afirmação de ser a empresa de IA mais segura, especialmente após recentemente abandonar seu compromisso de segurança de bandeira.

Olhando para o Futuro

Os próximos passos dependem da disposição do Pentágono em seguir com suas ameaças. O cancelamento do contrato ou a designação de risco na cadeia de suprimentos poderia ter sérias repercussões financeiras e operacionais para a Anthropic, influenciando também como outras empresas de IA negociam requisitos de segurança com clientes governamentais.

Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas

Também disponível em: