Voltar

Juíza Considera Movimento do Pentágono para Rotular a Anthropic como Risco na Cadeia de Suprimentos como 'Tentativa de Paralisar' a Empresa

Fundo do Disputa

A Anthropic, criadora do sistema de inteligência artificial Claude, tomou medidas legais contra o Departamento de Defesa dos EUA após o Pentágono designar a empresa como risco na cadeia de suprimentos. A etiqueta foi aplicada após a Anthropic pressionar por restrições sobre como suas ferramentas de IA poderiam ser empregadas pelo militar. A empresa argumenta que a designação é retaliação por sua fiscalização pública de uma disputa contratual, potencialmente violando proteções da Primeira Emenda.

Scrutínio Judicial

Durante uma audiência no tribunal, a juíza Rita Lin expressou preocupação de que a ação do Pentágono se assemelhasse a uma tentativa de paralisar a Anthropic. Ela notou que a autoridade de risco na cadeia de suprimentos é normalmente reservada para adversários estrangeiros, terroristas e outros atores hostis, e questionou se a designação foi apropriada para preocupações genuínas de segurança nacional. A juíza Lin indicou que poderia emitir uma ordem temporária para pausar a designação apenas se encontrar que a Anthropic tem probabilidade de sucesso nos méritos de seu caso.

Posição do Governo

O Departamento de Defesa, se referindo a si mesmo como Departamento de Guerra, defendeu sua decisão afirmando que as ferramentas de IA da Anthropic não podiam ser confiáveis em momentos críticos. Um advogado da administração Trump, Eric Hamilton, argumentou que o departamento seguiu os procedimentos adequados e que a avaliação de segurança não deve ser questionada. O Pentágono também anunciou planos para substituir a tecnologia da Anthropic por alternativas da Google, OpenAI e xAI, e alegou ter salvaguardas para prevenir qualquer sabotagem durante a transição.

Restrições de Contratantes e Autoridade Legal

O secretário de Defesa, Pete Hegseth, postou uma declaração indicando que qualquer contratante, fornecedor ou parceiro que faz negócios com o militar dos EUA estava proibido de atividade comercial com a Anthropic. No entanto, durante a audiência, Hamilton admitiu que Hegseth não tem autoridade legal para impor uma proibição geral a contratantes para trabalhos não relacionados ao Departamento de Defesa. Quando perguntado por que Hegseth fez a declaração, Hamilton disse que não sabia.

Implicações para a IA no Militar

O caso despertou uma conversa pública mais ampla sobre o papel da inteligência artificial nas forças armadas e o grau de deferência que as empresas de Silicon Valley devem dar às determinações do governo sobre a implantação de tecnologia. Críticos argumentam que a abordagem do Pentágono pode estabelecer um precedente para medidas punitivas contra empresas que levantam preocupações sobre aplicações militares de IA.

Próximos Passos

A juíza Lin deve emitir uma decisão sobre a injunção temporária nos próximos dias. Um apelo relacionado também está pendente em um tribunal de apelações federal em Washington, D.C., com uma decisão esperada em breve. O resultado moldará tanto a relação da Anthropic com o governo quanto o panorama mais amplo da aquisição de IA para fins de segurança nacional.

Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas

Também disponível em: