Anthropic Processa Governo dos EUA por Designação de Risco na Cadeia de Suprimentos
Contexto
A Anthropic, um dos principais desenvolvedores privados de inteligência artificial, foi designada como um risco na cadeia de suprimentos pelo governo dos EUA. A designação, normalmente aplicada a empresas estrangeiras consideradas ameaças à cibersegurança, foi incomum para uma empresa nacional. Após a designação, a administração Trump ordenou que todas as agências federais parassem de usar a tecnologia da Anthropic dentro de seis meses. A medida despertou preocupações bipartidárias sobre o impacto do desacordo político na capacidade de uma empresa operar.
Ação Judicial
Em resposta, a Anthropic entrou com uma ação judicial em um tribunal distrital da Califórnia. A queixa alega que as ações do governo punem a empresa por sua fala protegida sobre segurança de IA e os limites das armas autônomas, violando a Primeira Emenda. Ela também afirma que a designação infringe os direitos da Quinta Emenda da Anthropic e excede a autoridade do executivo. A ação busca derrubar a etiqueta de risco na cadeia de suprimentos e restaurar a capacidade da empresa de contratar com agências federais.
Resposta do Governo e das Agências
Desde a designação, várias agências paralisaram o uso dos serviços da Anthropic. A Administração de Serviços Gerais terminou seu contrato OneGov, encerrando a disponibilidade da Anthropic para os três ramos do governo federal. O Departamento do Tesouro, o Departamento de Estado e outras agências também indicaram planos para parar de usar a tecnologia da empresa. O Pentágono se recusou a comentar sobre a ação judicial.
Reações Corporativas
Clientes importantes, como a Microsoft, afirmaram sua continuidade de parceria com a Anthropic, mas estão estabelecendo salvaguardas para separar o trabalho relacionado ao Pentágono de outras colaborações. A Anthropic mantém que desafiará a designação na justiça e continuará seu foco no desenvolvimento responsável de tecnologia de IA emergente.
Implicações
O caso destaca tensões entre as preocupações de segurança do governo e os direitos dos desenvolvedores de IA privados. Ele levanta questões sobre o escopo do poder executivo em rotular empresas nacionais como riscos à segurança nacional e o possível efeito dissuasório sobre a fala relacionada à segurança de IA. O resultado pode estabelecer precedente para como as empresas de IA lidam com contratos federais e como os desacordos de política são gerenciados no setor de tecnologia.
Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas