Pentágono Designa Anthropic como Risco na Cadeia de Suprimentos
Pentágono Toma Ação sem Precedentes Contra Empresa de IA Nacional
O Departamento de Guerra dos EUA anunciou a designação de risco na cadeia de suprimentos para a Anthropic, a empresa de IA de San Francisco por trás dos modelos Claude. Isso marca a primeira aplicação da designação a uma empresa americana, um status previamente reservado para adversários estrangeiros, como a Huawei da China. Sob a lei 10 USC 3252, a designação obriga os fornecedores e contratantes de defesa a certificar que não empregam os modelos Claude da Anthropic em qualquer trabalho para o Pentágono.
A Anthropic entrou em negociações com o Departamento de Guerra em busca de garantias escritas de que sua tecnologia não seria usada para "vigilância doméstica em massa de americanos" ou "armas totalmente autônomas" sem envolvimento humano nas decisões de alvo. A empresa manteve que esses limites eram razoáveis para qualquer implantação de IA, não apenas a sua própria. O Pentágono contrapôs que as leis existentes já proíbem a vigilância em massa e que a política interna do Departamento de Defesa restringe armas totalmente autônomas, argumentando que limites contratuais eram desnecessários.
Quando as negociações terminaram em 5 de março de 2026, o Departamento de Guerra informou formalmente a Anthropic de que a empresa e seus produtos foram considerados um risco na cadeia de suprimentos, com efeito imediato. O CEO da Anthropic, Dario Amodei, declarou que a empresa contestaria a designação na justiça, afirmando que a ação não é "legalmente sólida". Ele também observou que a designação não pode afetar os clientes comerciais da Anthropic ou outras agências governamentais, apenas seu uso em contratos do Departamento de Guerra.
Contradições e Uso Contínuo
Apesar da lista negra, relatórios indicaram que o Claude permaneceu em uso ativo pelo militar no Irã por meio do sistema Maven Smart da Palantir, que integra o Claude para gerenciamento de dados em contextos operacionais. O presidente Donald Trump ordenou que as agências federais parassem de usar a tecnologia da Anthropic, embora o impacto nas implantações de terceiros, como a da Palantir, fosse incerto.
Reação da Indústria e Acordos Competitivos
A indústria de tecnologia respondeu com uma posição dividida. Centenas de funcionários do Google e da OpenAI assinaram uma carta aberta apoiando a Anthropic, enquanto Elon Musk apoiou a administração Trump, alegando que a Anthropic "odeia a civilização ocidental". A OpenAI, em contraste, anunciou um acordo separado com o Departamento de Guerra que permite que o militar use os modelos da OpenAI para "todos os fins legais", linguagem descrita por alguns funcionários da OpenAI como deliberadamente ambígua.
Dean Ball, um ex-conselheiro de IA da Casa Branca de Trump, criticou a designação de risco na cadeia de suprimentos como um "sussurro de morte" da coerência estratégica americana, argumentando que tratar uma empresa nacional pior do que um adversário estrangeiro reflete "tribalismo brutamontes".
Perspectiva Futura
A Anthropic indicou disposição para desescalar e buscar um acordo que funcione para ambas as partes, e a Bloomberg relatou que as negociações haviam sido reabertas silenciosamente, mesmo enquanto a designação formal foi anunciada. O desafio legal pendente testará a interpretação do governo sobre a provisão de risco na cadeia de suprimentos contra a leitura da Anthropic de que se aplica apenas a contratos do Departamento de Guerra.
A designação estabelece um precedente, marcando a primeira vez que uma empresa de IA americana construída sobre princípios de IA responsável foi classificada ao lado de um adversário estrangeiro pelo próprio governo que ela buscou servir.
Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas