Engenheiros da OpenAI e do Google Apoiam a Ação Judicial da Anthropic Contra o Pentágono
Desafio Legal da Anthropic
A Anthropic entrou com uma ação judicial contra o Departamento de Defesa após a agência designar a empresa como risco na cadeia de suprimentos. A designação, normalmente reservada para empresas estrangeiras consideradas uma ameaça à segurança nacional, foi aplicada porque a Anthropic se recusou a relaxar duas linhas vermelhas que proíbem o uso de sua tecnologia para vigilância em massa nacional e armas letais autônomas.
Resposta da Indústria
Dentro de horas após a apresentação da ação, quase 40 funcionários da OpenAI e do Google, incluindo figuras seniores, apresentaram uma brief amicus em apoio à causa da Anthropic. Os signatários se descreveram como engenheiros, pesquisadores, cientistas e outros profissionais empregados em laboratórios de inteligência artificial de ponta nos EUA.
A brief argumenta que o rótulo de risco na cadeia de suprimentos é uma retaliação imprópria que prejudica o interesse público. Ela destaca que as linhas vermelhas da Anthropic são fundamentadas em preocupações reais que exigem uma resposta.
Riscos da Vigilância em Massa Nacional
A brief observa que, embora os dados dos cidadãos americanos existam em muitas formas fragmentadas — câmeras de vigilância, dados de geolocalização, postagens em redes sociais, transações financeiras —, uma camada de IA que unifique esses fluxos pode criar um aparelho de vigilância em tempo real em todo o país. Os autores alertam que tal capacidade apresenta riscos profundos para a governança democrática, mesmo que utilizada de forma responsável.
Preocupações com Armas Letais Autônomas
Os autores destacam que as armas autônomas podem ser imprevisíveis em condições novas ou ambíguas, carecendo do julgamento nuances que os humanos fornecem. Eles também destacam o fenômeno da alucinação da IA, que pode obscurecer o raciocínio por trás da identificação de alvos, tornando essencial manter os humanos no loop antes de qualquer munição letal ser lançada.
Porque esses sistemas podem não distinguir confiavelmente alvos ou considerar efeitos colaterais, a brief pede salvaguardas técnicas ou restrições de uso para prevenir o deploy sem supervisão humana.
Voz Unificada Across Empresas
Embora os signatários venham de diferentes empresas e tenham visões políticas diversas, compartilham uma convicção de que os sistemas de IA de ponta apresentam riscos quando implantados para vigilância em massa ou armas letais autônomas. Eles instam o desenvolvimento de guardrails — seja técnico ou baseado em políticas — para abordar esses perigos.
Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas