Voltar

OpenAI Garante Contrato com o Pentágono, enquanto a Anthropic Rejeita os Termos

Acordo da OpenAI com o Pentágono

A CEO da OpenAI anunciou que a empresa havia chegado a um contrato com o Departamento de Defesa. A empresa enfatizou que seus dois princípios de segurança fundamentais — proibição de vigilância em massa nacional e exigência de responsabilidade humana no uso da força — são refletidos no acordo. De acordo com a OpenAI, o contrato vincula qualquer uso de seus modelos às leis existentes dos EUA, incluindo a Quarta Emenda, a Lei de Segurança Nacional de 1947, a Lei de Vigilância de Inteligência Estrangeira de 1978, a Ordem Executiva 12333 e as diretrizes relevantes do Departamento de Defesa.

A empresa também disse que implantaria salvaguardas técnicas, como classificadores que podem monitorar o comportamento do modelo, e que alguns funcionários receberiam autorizações de segurança para supervisionar os sistemas.

Críticos Questionam as Salvaguardas

Observadores da indústria e antigos funcionários da OpenAI argumentam que a dependência do acordo em "qualquer uso legal" efetivamente deixa o Pentágono livre para empregar a tecnologia para qualquer atividade que o governo considere legal. Eles observam que as agências de inteligência dos EUA historicamente interpretaram autoridades legais para permitir coleta extensiva de dados, incluindo vigilância em massa nacional. Críticos dizem que a linguagem sobre "uso não restrito", "generalizado" ou "aberto" é vaga e pode permitir opções para o militar.

Especialistas também questionam a eficácia das salvaguardas técnicas. Classificadores, explicam eles, não podem verificar se um humano revisou uma decisão antes de um ataque letal ou se uma consulta é parte de um programa de vigilância em massa. Como o contrato permite que o governo defina o que é legal, as salvaguardas poderiam ser anuladas se uma interpretação legal mudar.

Posição da Anthropic e Consequências

A Anthropic, uma empresa rival de IA, recusou-se a assinar um contrato semelhante que, segundo ela, proibisse especificamente a vigilância em massa e armas autônomas letais não supervisionadas. Após as negociações terem fracassado, o Pentágono classificou a Anthropic como um risco na cadeia de suprimentos, uma designação normalmente reservada para empresas estrangeiras com preocupações de cibersegurança. A Anthropic anunciou planos para contestar a classificação na justiça.

A discordância despertou apoio público para a Anthropic dentro da comunidade tecnológica, com figuras notáveis e usuários elogiando a decisão da empresa de manter suas linhas vermelhas.

Implicações para a IA e a Defesa

As abordagens contrastantes da OpenAI e da Anthropic ilustram um debate mais amplo sobre como as empresas de IA devem se engajar com clientes militares. Enquanto a OpenAI argumenta que aderir às leis atuais fornece proteção suficiente, os críticos alertam que os quadros legais podem mudar e podem não proteger adequadamente as liberdades civis ou prevenir o uso de armas autônomas sem supervisão humana.

A situação destaca a importância de linguagem contratual clara, salvaguardas técnicas robustas e escrutínio público contínuo à medida que a inteligência artificial se integra cada vez mais às operações de segurança nacional.

Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas

Também disponível em: