Voltar

Pentágono e Anthropic Entram em Conflito sobre Uso Militar do Claude AI

Pentágono e Anthropic Entram em Conflito sobre Uso Militar do Claude AI

Fundo

O Departamento de Defesa dos EUA está pressionando as empresas de inteligência artificial para permitir que o exército utilize seus produtos para qualquer propósito legal. Essa exigência se estende a vários grandes desenvolvedores de IA, incluindo Anthropic, OpenAI, Google e xAI.

Resistência da Anthropic

De acordo com relatos, a Anthropic tem sido a mais relutante em atender ao pedido do Pentágono. A posição da empresa centra-se em uma série de preocupações com a política de uso, especificamente seus limites em armas autônomas e vigilância em massa. A Anthropic indicou que não discutiu o uso de seus modelos Claude para qualquer operação militar específica.

Tensão no Contrato

A pressão do Pentágono levou a um sério desacordo sobre o contrato de US$ 200 milhões da Anthropic. Fontes dizem que o departamento está ameaçando encerrar o acordo se a empresa não ampliar suas permissões de uso.

Desacordo sobre o Uso do Claude

Relatos anteriores destacaram um desacordo significativo entre a Anthropic e os funcionários do Departamento de Defesa sobre a implantação de modelos Claude. Um exemplo notável mencionado foi o uso do Claude em uma operação militar dos EUA que resultou na captura do ex-presidente venezuelano Nicolás Maduro.

Comparação com Outras Empresas de IA

Enquanto a Anthropic permanece firme, um funcionário anônimo da administração Trump observou que pelo menos uma das outras empresas de IA concordou com os termos do Pentágono, e as empresas restantes mostraram alguma flexibilidade. Essa comparação destaca a posição distinta da Anthropic nas negociações.

Resposta da Empresa

A Anthropic não respondeu imediatamente às perguntas da TechCrunch. Um porta-voz da empresa, falando à Axios, reiterou que a Anthropic não discutiu operações específicas e permanece focada em seus limites de política em relação a armas autônomas e vigilância.

Implicações

O impasse destaca tensões mais amplas entre os objetivos de segurança nacional e as diretrizes éticas das empresas de IA. O resultado pode moldar como os modelos de IA avançados são integrados às atividades militares e influenciar futuros contratos entre governo e indústria.

Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas

Também disponível em: