Pentágono Designa Anthropic como Risco na Cadeia de Suprimentos devido a Disputa sobre Uso de IA
Pentágono Toma Medida sem Precedentes Contra Empresa Nacional de IA
O Departamento de Defesa anunciou que formalmente rotulou a Anthropic, a empresa dos EUA por trás do sistema de inteligência artificial Claude, como um risco na cadeia de suprimentos. Essa designação, tradicionalmente reservada para entidades estrangeiras com ligações a governos adversários, marca a primeira vez que uma empresa americana recebeu a etiqueta.
De acordo com o relatório, a medida segue semanas de negociações estagnadas, ultimatos públicos e ameaças de ação legal. A decisão do Pentágono impedirá que contratantes de defesa trabalhem com o governo se incorporarem o Claude em qualquer produto ou serviço. O departamento também advertiu que qualquer atividade comercial com a Anthropic, mesmo fora de contratos governamentais, poderia levar à cancelamento de contratos de defesa.
Disputa Central sobre Políticas de Uso de IA
No centro do conflito está a recusa da Anthropic em permitir que o Pentágono use o Claude para dois propósitos específicos: armas letais autônomas sem supervisão humana e vigilância em massa. A Anthropic argumentou que permitir tais usos colocaria poder excessivo nas mãos de uma empresa privada e que o governo não poderia ser confiável para respeitar as linhas vermelhas da empresa.
O Pentágono contra-argumentou que as exigências da Anthropic dariam ao setor privado controle indevido sobre operações governamentais críticas. À medida que as negociações se deterioravam, o departamento ameaçou invocar a designação de risco na cadeia de suprimentos se a Anthropic não se conformasse.
Resposta da Anthropic e Ameaça Legal
O CEO da Anthropic confirmou o recebimento da notificação do Pentágono e descreveu a ação como "legalmente insustentável". Ele indicou que a empresa vê nenhuma alternativa senão contestar a designação em tribunal. A empresa mantém que a aplicação ampla da lei — potencialmente cancelando qualquer contrato de defesa para qualquer empresa que trabalhe com a Anthropic — seria ilegal.
Implicações para o Uso de IA pelo Governo
A designação levanta questões significativas sobre como o governo dos EUA gerenciará tecnologias de IA desenvolvidas por empresas privadas. Isso também destaca a tensão entre objetivos de segurança nacional e o desejo de empresas de IA de estabelecer limites éticos sobre como sua tecnologia é empregada.
Embora o Pentágono não tenha fornecido mais comentários, a situação sublinha a crescente complexidade de integrar IA avançada em operações de defesa e inteligência, especialmente quando empresas privadas buscam limitar usos que consideram inaceitáveis.
Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas