Voltar

Google Assina Acordo de Inteligência Artificial com o Pentágono Amidst Revolta de Funcionários

A Google anunciou um novo contrato classificado que concede ao Departamento de Defesa dos EUA acesso aos modelos de inteligência artificial da empresa para "qualquer propósito governamental legítimo". O acordo, relatado pela The Information, expande a participação da Google em projetos de segurança nacional, permitindo que o Pentágono implante as ferramentas de IA da empresa em aplicações militares sensíveis. Em troca, a Google ajudará o Departamento de Defesa a ajustar configurações de segurança e filtros a pedido da agência e manterá uma posição de que sua tecnologia não deve ser usada para vigilância em massa doméstica ou armas autônomas sem supervisão humana adequada.

Os funcionários da Google reagiram rapidamente. Mais de 600 membros da equipe assinaram uma carta aberta endereçada ao CEO Sundar Pichai, exigindo que a empresa recuse-se a fornecer seus sistemas de IA para cargas de trabalho classificadas. O petition argumenta que os engenheiros da Google, que trabalham em estreita colaboração com a tecnologia, têm o dever de prevenir seus "usos mais antiéticos e perigosos". Os signatários citaram armas autônomas letais e vigilância em massa como principais preocupações, mas alertaram que o trabalho classificado muitas vezes ocorre sem a transparência necessária para que os funcionários intervenham.

A reação ecoa os protestos do Project Maven em 2018, quando milhares de funcionários da Google saíram em protesto contra um programa do Pentágono que usava IA para analisar imagens de drones. Na época, a Google eventualmente optou por não renovar o contrato. O acordo atual, no entanto, marca uma mudança: a Google relaxou a linguagem em seus princípios de IA que anteriormente proibiam a empresa de perseguir tecnologias prováveis de causar dano geral, armas ou certas ferramentas de vigilância. Em um post de blog de fevereiro, o CEO da DeepMind, Demis Hassabis, e o vice-presidente sênior James Manyika enfatizaram que as democracias devem liderar o desenvolvimento de IA e que as empresas e os governos devem colaborar para construir IA que proteja as pessoas, promova o crescimento e apoie a segurança nacional.

A resposta pública da Google enquadrava o acordo como uma "abordagem responsável" para apoiar a segurança nacional. Um porta-voz da empresa disse à CNET que a Google permanece comprometida com a posição de que a IA não deve ser usada para vigilância em massa doméstica ou armas autônomas sem supervisão humana, e que fornecer acesso à API sob práticas comerciais padrão está alinhado com esse compromisso. O Pentágono se recusou a comentar sobre os detalhes do contrato ou a crítica dos funcionários.

Dentro da Google, a resposta foi pessoal, bem como profissional. Andreas Kirsch, um pesquisador da DeepMind, postou no X que se sente "incredivelmente envergonhado" do acordo, refletindo a profundidade da dissidência entre o pessoal técnico da empresa. A carta aberta conclui com um apelo direto a Pichai: "Hoje, chamamos você, Sundar, a agir de acordo com os valores nos quais esta empresa foi construída, e recuse-se a trabalhar com cargas de trabalho classificadas".

O episódio destaca uma tensão crescente entre as empresas de tecnologia ansiosas para atender aos clientes do governo e uma força de trabalho cada vez mais sensível às implicações éticas de seu trabalho. À medida que os sistemas de IA se tornam mais poderosos e suas aplicações mais opacas, os funcionários estão exigindo uma supervisão mais clara e salvaguardas mais fortes. Se a Google ajustará ou se retirará do acordo permanece incerto, mas o episódio já reacendeu um debate que começou com o Project Maven e não mostra nenhum sinal de desaparecer.

Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas

Também disponível em: