Voltar

Pentágono Ameaça Cancelar Acordo com Anthropic por Uso de IA em Armas Autônomas e Vigilância

Pentágono Ameaça Cancelar Acordo com Anthropic por Uso de IA em Armas Autônomas e Vigilância

Contexto do Conflito entre o Pentágono e a Anthropic

O Departamento de Defesa dos Estados Unidos recentemente emitiu uma solicitação a seus parceiros de IA - Anthropic, OpenAI, Google e xAI - pedindo que seus modelos estivessem disponíveis para "todos os fins legais". Essa solicitação ampla despertou um desacordo agudo com a Anthropic, criadora da família de modelos de linguagem Claude.

Preocupações Expressas pela Anthropic

A Anthropic expressou publicamente apreensão de que seus modelos Claude possam ser usados em "armas autônomas totalmente e vigilância doméstica em massa". A política de uso da empresa com o Pentágono está sob revisão, especificamente para abordar esses limites rigorosos. Um porta-voz da Anthropic esclareceu que a empresa não discutiu o uso de Claude para qualquer operação militar específica, embora o Wall Street Journal tenha relatado que Claude foi empregado em uma operação dos EUA para capturar o ex-presidente da Venezuela, Nicolás Maduro.

Resposta do Pentágono

O porta-voz-chefe do Pentágono, Sean Parnell, enfatizou a necessidade de parceiros ajudarem os combatentes a ter sucesso em qualquer conflito, enquadrando a solicitação como essencial para a segurança nacional. Em resposta às reservas da Anthropic, o Pentágono sinalizou que poderia rescindir o contrato existente de US$ 200 milhões se o fornecedor de IA não concordar com a cláusula de uso irrestrito.

Contexto da Indústria

De acordo com um consultor anônimo da administração Trump, uma das empresas de IA já concordou em conceder ao Pentágono acesso total ao seu modelo, enquanto as outras duas estão mostrando flexibilidade. O desacordo com a Anthropic destaca uma fissura crescente entre o establishment de defesa e várias empresas de IA líderes sobre o escopo permitido de aplicações de IA na guerra.

Chamadas para Regulação

Especialistas em segurança, formuladores de políticas e o CEO da Anthropic, Dario Amodei, defendem uma regulação mais rigorosa do desenvolvimento de IA, especialmente no que diz respeito a sistemas de armas e outras tecnologias militares. O impasse atual destaca a tensão entre a inovação rápida de IA e a necessidade de salvaguardas éticas.

Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas

Também disponível em: