Voltar

Trump Ordena Paralisação Federal do Claude AI da Anthropic devido a Preocupações com Vigilância

Contexto

O modelo de IA Claude da Anthropic se tornou o sistema de inteligência artificial mais amplamente utilizado dentro do Exército dos EUA, aparecendo em projetos classificados do Pentágono e em outras aplicações federais. A empresa foi fundada com um foco explícito na segurança da IA e incorporou salvaguardas contratuais que proíbem o uso do Claude para vigilância doméstica em massa de americanos ou para sistemas de armas autônomas totalmente autônomas sem supervisão humana.

O Conflito

O presidente Donald Trump usou sua plataforma Truth Social para ordenar a cessação imediata do uso federal do Claude, chamando a empresa de "empresa de esquerda radical, acordada". Ele anunciou um prazo de seis meses para a fase de desativação de agências como o Departamento de Defesa. Mais cedo na semana, o secretário de Defesa, Pete Hegseth, disse ao CEO da Anthropic, Dario Amodei, que ele invocaria poderes raremente usados para forçar a empresa a permitir que o Pentágono usasse o Claude para qualquer propósito legal, ou rotulasse a Anthropic como um risco na cadeia de suprimentos. Hegseth deu à Anthropic um prazo de sexta-feira para cumprir.

Amodei respondeu que a Anthropic "não pode, em boa consciência, aceder" à solicitação do Pentágono para remover as disposições contratuais que proíbem o uso do Claude em armas autônomas ou vigilância doméstica. Ele alertou que as leis existentes não acompanharam o ritmo da capacidade da IA de agregar dados dispersos, inócuos, em perfis pessoais abrangentes em larga escala, levantando preocupações significativas de privacidade.

Contexto Mais Amplo

Especialistas em direito observaram que a linguagem do contrato em torno de "fins legais" é frequentemente ambígua, e a posição da Anthropic reflete uma relutância mais ampla da indústria em habilitar a vigilância em massa ou armas autônomas letais. Funcionários de empresas rivais, como a OpenAI e o Google, circularam petições pedindo que suas empresas sejam solidárias com a Anthropic sobre essas questões de linha vermelha. O CEO da OpenAI, Sam Altman, teria afirmado guardrails semelhantes, enfatizando salvaguardas técnicas como implantação apenas em nuvem.

O conflito destaca uma discrepância crescente entre a adoção rápida da IA em ambientes governamentais e militares e o desenvolvimento mais lento da supervisão regulatória. Críticos argumentam que o conflito pode estabelecer precedentes para como as empresas de tecnologia negociam com agências governamentais quando as fronteiras éticas estão em jogo.

Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas

Também disponível em: