Voltar

Anthropic Refuta Alegações de que Pode Interromper Sistemas de IA Militar

Contexto

O Pentágono tem avaliado o modelo de IA generativa da Anthropic, Claude, para uso em uma variedade de tarefas relacionadas à defesa, incluindo análise de dados e elaboração de documentos operacionais. Durante essa avaliação, o Departamento de Defesa expressou preocupações de que a empresa possa possuir meios técnicos para interromper ou modificar o modelo durante engajamentos militares ativos. Essas preocupações levaram a uma designação formal que rotula a Anthropic como um risco na cadeia de suprimentos, um status que restringiria o uso de seu software em todo o departamento e seus contratantes.

Resposta da Anthropic

Oficiais da Anthropic negaram categoricamente que a empresa possua capacidade de interferir em Claude após sua implantação em ambientes do DoD. Eles enfatizaram que a arquitetura de Claude não inclui mecanismos de acesso remoto, portas de acesso ou mecanismos de desativação que permitam que funcionários da Anthropic modifiquem ou desativem o modelo por demanda. A empresa também esclareceu que não pode visualizar ou alterar os prompts inseridos por usuários militares, nem pode fazer atualizações sem a aprovação explícita do governo e seu provedor de serviços de nuvem.

Disputa Legal

Em reação à designação de risco na cadeia de suprimentos, a Anthropic iniciou ação legal questionando a constitucionalidade da restrição. A empresa busca uma ordem de emergência para suspender a proibição, argumentando que a designação restringe injustamente suas oportunidades comerciais e prejudica contratos em andamento. Os procedimentos judiciais estão programados para tratar do pedido de alívio temporário, enquanto a disputa mais ampla destaca um conflito entre as capacidades de IA emergentes e a necessidade de confiabilidade garantida em sistemas de defesa críticos.

Implicações para a Defesa e a Indústria

A discordância ilustra a tensão mais ampla entre a adoção rápida de ferramentas de IA avançadas e as salvaguardas de segurança tradicionais que governam a tecnologia militar. Enquanto o Departamento de Defesa enfatiza a necessidade de eliminar qualquer risco de manipulação do modelo durante momentos críticos, a Anthropic destaca sua falta de meios técnicos para exercer tal controle. O resultado do desafio legal pode estabelecer precedente para como os provedores de IA interagem com clientes federais e como os riscos na cadeia de suprimentos são avaliados para serviços de IA baseados em nuvem.

Perspectiva Futura

Ambas as partes indicaram disposição para negociar termos que possam atender às preocupações do Departamento, como linguagem contratual limitando a influência da Anthropic sobre atualizações do modelo. No entanto, as negociações até agora estão estagnadas, deixando o futuro da implantação de Claude dentro do Pentágono incerto. O caso continua a servir como um ponto focal para formuladores de políticas, líderes da indústria e especialistas jurídicos que navegam pela integração de IA em contextos de segurança nacional.

Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas

Também disponível em: