Voltar

Acordo da OpenAI com o Pentágono Levanta Preocupações Sobre Uso Militar e Vigilância Doméstica

Contexto

A Anthropic, uma empresa de IA, foi rotulada como um risco de cadeia de suprimentos pelo Secretário de Defesa Pete Hegseth e subsequentemente perdeu um contrato de US$ 200 milhões do Pentágono após se recusar a permitir que seus modelos fossem usados para sistemas de armas autônomas e vigilância doméstica em massa. Esse desenvolvimento preparou o cenário para o mais recente engajamento da OpenAI com o Exército dos EUA.

Contrato da OpenAI com o Pentágono

A OpenAI assinou um novo acordo com o Departamento de Defesa que, de acordo com fontes internas, contém linguagem que poderia permitir o uso de seus modelos de inteligência artificial para vigilância doméstica e outros propósitos controversos. Anteriormente, em 2023, a OpenAI tinha uma cláusula de contrato que proibia o uso militar de seus modelos, mas funcionários divulgaram que o Pentágono acessou a tecnologia da OpenAI por meio de um arranjo da Microsoft-Azure que não estava sujeito às mesmas restrições.

Em 2024, a OpenAI removeu a proibição geral sobre aplicações militares de seus modelos e posteriormente entrou em um contrato com a contratante de defesa Anduril para desployar seus modelos para missões de segurança nacional. O CEO da OpenAI, Sam Altman, expressou publicamente apoio à posição da Anthropic contra o uso de IA para fins nefastos, mas o novo acordo parece deixar abertas vias semelhantes.

Lacunas Regulamentares e Riscos de Privacidade

As regulamentações atuais não acompanharam o ritmo dos avanços rápidos da IA, criando oportunidades para que as agências governamentais adquiram dados pessoais de corretores de dados e empreguem a IA para gerar perfis detalhados de cidadãos. Críticos argumentam que a linguagem do contrato não aborda novas maneiras pelas quais a IA poderia permitir vigilância legal, levantando preocupações sobre a opacidade do uso da IA militar e seu impacto na privacidade civil.

Reações de Especialistas

O pesquisador da OpenAI, Noam Brown, observou que a linguagem original do contrato deixou "perguntas legítimas sem resposta" sobre como a IA poderia ser usada para vigilância, e que a linguagem atualizada tenta abordar essas preocupações. A ex-chefe da equipe de geopolítica da OpenAI, Sarah Shoker, alertou que as pessoas comuns e os civis em zonas de conflito são os maiores perdedores, pois o design técnico e a opacidade das políticas impedem a compreensão dos efeitos da IA militar.

No geral, o acordo coloca a OpenAI sob escrutínio semelhante ao enfrentado pela Anthropic, destacando a tensão entre os objetivos de segurança nacional e a necessidade de salvaguardas robustas contra o mau uso de tecnologias de inteligência artificial.

Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas

Também disponível em: