CEO da Anthropic, Dario Amodei, Retorna às Negociações com o Pentágono para Preservar Acordo de Defesa
Contexto
A Anthropic, a startup por trás da família de modelos de inteligência artificial Claude, tem sido um fornecedor-chave de tecnologia de IA para o Exército dos EUA. Seus sistemas receberam autorização de segurança para lidar com informações classificadas e foram supostamente usados em contextos operacionais. No entanto, a relação azedou quando o Departamento de Defesa buscou acesso irrestrito à tecnologia da empresa.
Conflito sobre Acesso à IA
A insistência do Pentágono em "qualquer uso legal" do Claude entrou em conflito com as restrições políticas da Anthropic. A empresa traçou duas linhas vermelhas firmes: não permitirá a vigilância em massa de cidadãos americanos e se recusa a apoiar armas autônomas letais que possam operar sem supervisão humana. A exigência do Departamento de Defesa de acesso irrestrito e a inclusão de uma cláusula sobre "análise de dados bulk" no contrato foram vistas pela Anthropic como uma violação dessas linhas vermelhas.
Após semanas de disputa pública, as negociações fracassaram em uma sexta-feira, e o Secretário de Defesa Pete Hegseth ameaçou rotular a Anthropic como um risco na cadeia de suprimentos - uma designação normalmente reservada para empresas com ligações estrangeiras que representam preocupações de segurança nacional. Tal rótulo poderia forçar outros contratantes a remover a tecnologia da Anthropic de seus próprios projetos de defesa.
Novas Negociações
De acordo com o Financial Times, Amodei agora está em negociações com o Subsecretário de Defesa para Pesquisa e Engenharia Emil Michael sobre um contrato revisado que permitiria o uso continuado do Claude enquanto preserva as linhas vermelhas da empresa. Michael anteriormente criticou Amodei nas redes sociais, chamando-o de "mentiroso" e acusando-o de colocar em risco a segurança nacional. Apesar da retórica dura, a última rodada de negociações sugere que o departamento pode estar disposto a remover a frase controversa sobre análise de dados bulk.
Amodei circulou um memorando interno para a equipe da Anthropic, descrevendo a posição anterior do Pentágono como "mentiras diretas" e contrastando a postura da Anthropic com a abordagem da OpenAI, que ele rotulou de "teatro de segurança". Ele também observou que a relação da Anthropic com o governo federal havia se deteriorado porque a empresa não fez doações políticas para a atual administração.
Implicações Potenciais
Se um novo acordo for alcançado, poderia preservar a posição da Anthropic no setor de defesa e manter o Claude disponível para missões classificadas. O fracasso em garantir um acordo poderia resultar na designação de risco na cadeia de suprimentos, levando outras empresas de tecnologia a se distanciar da Anthropic para proteger seus próprios contratos de defesa. O resultado também pode influenciar como outras empresas de IA negociam termos de acesso e uso com agências governamentais, especialmente à medida que rivais como a OpenAI e a xAI relataram ter concordado com termos mais permissivos.
O conflito destaca a crescente tensão entre objetivos de segurança nacional e políticas corporativas sobre uso ético de IA. Ele sublinha o desafio de equilibrar as necessidades militares de tecnologia avançada com salvaguardas contra uso indevido, um debate que provavelmente moldará a aquisição e regulação futuras de IA nos EUA.
Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas