Voltar

Tribunal de Apelações Mantém Rótulo de Risco na Cadeia de Suprimentos da Anthropic

O Tribunal de Apelações dos EUA para o Circuito de Colúmbia emitiu uma ordem de suspensão na quarta-feira que preserva a designação de risco na cadeia de suprimentos do Pentágono sobre a Anthropic, a empresa por trás do sistema de IA Claude. O painel de apelação, em uma decisão de 2 a 1, disse que remover o rótulo colocaria em risco as operações militares durante um conflito em andamento, mesmo que a empresa possa sofrer danos financeiros.

A luta jurídica da Anthropic decorre de duas leis separadas que o Departamento de Defesa dos EUA usou para proibir a empresa de fornecer ferramentas de IA às forças armadas. Um juiz federal de São Francisco no mês passado encontrou que o DoD agiu de má-fé, citando a resistência da empresa às políticas de uso restritivo e sua crítica pública a essas limitações. Esse juiz ordenou a remoção do rótulo de risco, levando a administração Trump a restaurar o acesso ao Claude em todo o Pentágono e outras agências federais.

Em Washington, o tribunal de apelação se concentrou em uma disposição estatutária diferente, mas chegou à opinião oposta. Os juízes enfatizaram as pressões únicas da aquisição em tempos de guerra, observando que "conceder uma suspensão forçaria as forças armadas dos EUA a prolongar seus negócios com um fornecedor indesejado de serviços de IA críticos no meio de um conflito militar significativo em andamento". O painel reconheceu a perda potencial de receita da Anthropic, mas priorizou o julgamento do Departamento de Defesa sobre questões de segurança nacional.

O procurador-geral interino Todd Blanche elogiou a decisão no X, chamando-a de "uma vitória retumbante para a prontidão militar". Ele reiterou que o comandante-chefe e o Departamento de Guerra (como o Pentágono se refere a si mesmo sob a atual administração) devem reter acesso total a modelos de IA integrados a sistemas sensíveis.

A porta-voz da Anthropic, Danielle Cohen, expressou gratidão por o tribunal de Colúmbia ter reconhecido a urgência da questão e reafirmou a confiança da empresa de que os tribunais eventualmente considerarão as designações ilegais. A empresa argumenta que o rótulo custou contratos e que seu modelo Claude carece da precisão necessária para sistemas de armas totalmente autônomos, uma postura que atraiu críticas do Pentágono.

Especialistas jurídicos dizem que o caso testa a amplitude do poder executivo sobre empresas de tecnologia privadas, especialmente à medida que o Pentágono acelera a implantação de IA em seu conflito com o Irã. Alguns acadêmicos alertam que as ações do DoD podem sufocar o debate aberto entre pesquisadores de IA sobre desempenho e segurança do modelo.

Ambos os processos devem continuar por meses. O Circuito de Colúmbia ouvirá argumentos orais em 19 de maio, enquanto o caso de São Francisco prossegue em seu próprio cronograma. Detalhes sobre como o Departamento de Defesa usou o Claude ou a extensão de sua transição para alternativas da Google DeepMind, OpenAI ou outros fornecedores permanecem escassos.

À medida que as batalhas jurídicas se desenrolam, a Anthropic enfrenta incertezas sobre seu papel em iniciativas de IA federais. O resultado pode moldar como designações de risco na cadeia de suprimentos serão aplicadas a empresas de tecnologia domésticas no futuro, uma questão que paira sobre a indústria e os formuladores de políticas de segurança nacional.

Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas

Também disponível em: