Pesquisadores de IA Arquivam Breve Amicus Apoiando a Anthropic Contra a Designação de Risco na Cadeia de Suprimentos do Pentágono
Contexto
A Anthropic, uma startup de inteligência artificial, processou o Departamento de Defesa dos EUA e outras agências federais após o Pentágono rotulá-la como um "risco na cadeia de suprimentos". A designação restringe a capacidade da Anthropic de colaborar com contratantes militares e entrou em vigor após as negociações entre a empresa e o Pentágono fracassarem. A Anthropic está buscando uma ordem de restrição temporária para manter suas parcerias militares enquanto a ação judicial avança.
Apresentação do Breve Amicus
Em resposta, mais de 30 pesquisadores e engenheiros de IA da OpenAI e do Google apresentaram um breve amicus apoiando a posição da Anthropic. Entre os signatários está o cientista-chefe da DeepMind, Jeff Dean, junto com os pesquisadores da DeepMind Zhengdong Wang, Alexander Matt Turner e Noah Siegel, e os pesquisadores da OpenAI Gabriel Wu, Pamela Mishkin e Roman Novak. O breve foi apresentado em caráter pessoal, e os signatários esclareceram que não representam as visões oficiais de seus empregadores.
Argumentos Principais no Breve
O breve sustenta que a decisão do Pentágono de incluir a Anthropic na lista negra "introduz uma imprevisibilidade em nossa indústria que subverte a inovação e a competitividade americanas" e "enfria o debate profissional sobre os benefícios e riscos dos sistemas de IA de fronteira". Argumenta que o Departamento de Defesa poderia simplesmente ter terminado o contrato da Anthropic se não quisesse mais ser vinculado por seus termos, em vez de impor uma etiqueta de risco na cadeia de suprimentos abrangente.
O breve também reconhece as linhas vermelhas declaradas pela Anthropic, que incluem proibições ao uso de sua IA para vigilância doméstica em massa e armas letais autônomas. Destaca que, na ausência de lei pública, salvaguardas contratuais e tecnológicas impostas por desenvolvedores de IA servem como proteções vitais contra uso catastrófico.
Reação da Indústria
)Vários líderes de IA questionaram publicamente a designação do Pentágono da Anthropic como um risco na cadeia de suprimentos. O CEO da OpenAI, Sam Altman, postou que aplicar a designação seria "muito ruim para nossa indústria e nosso país" e chamou a decisão de "muito ruim" do Departamento de Guerra, expressando esperança por uma reversão. À medida que a relação da Anthropic com o Pentágono azedou, a OpenAI rapidamente assinou seu próprio contrato com o Exército dos EUA, uma movimentação que alguns observadores criticaram como oportunista.
Implicações para o Desenvolvimento de IA e Segurança Nacional
A apresentação do breve destaca uma preocupação mais ampla dentro da comunidade de IA sobre ações governamentais imprevisíveis que poderiam impedir a inovação e a colaboração. Ao destacar a importância das salvaguardas contratuais, o breve sugere que acordos do setor privado podem desempenhar um papel crítico na gestão de riscos de IA quando os quadros legislativos são deficientes. O caso também levanta questões sobre como o governo dos EUA equilibra considerações de segurança nacional com a necessidade de manter uma vantagem competitiva em tecnologias avançadas.
Conclusão
O breve amicus representa um esforço coordenado por pesquisadores de IA líderes para defender o direito da Anthropic de continuar seu trabalho com parceiros militares, enquanto destaca as apostas mais amplas para a competitividade americana em inteligência artificial. O resultado da ação judicial da Anthropic e a resposta do governo podem estabelecer precedentes para como as designações de risco na cadeia de suprimentos são aplicadas a empresas de tecnologia emergentes no futuro.
Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas