Voltar

Restrições de Vigilância da Anthropic Geram Tensão com a Casa Branca

Restrições de Vigilância da Anthropic Geram Tensão com a Casa Branca

Contexto

Os modelos de Claude da Anthropic são usados em contextos de alta segurança e estão liberados para situações de segredo máximo por meio da Amazon Web Services’ GovCloud. A empresa tem um acordo especial com o governo federal que fornece seus serviços por uma taxa nominal de $1.

Restrições de Política

As políticas de uso da Anthropic proíbem o uso de seus modelos de IA para vigilância doméstica, uma postura que tem gerado críticas de oficiais seniores da Casa Branca. Contratados que trabalham com agências como o FBI e o Serviço Secreto encontraram obstáculos ao tentar empregar o Claude para tarefas relacionadas à vigilância. Oficiais preocupam-se de que a empresa aplique suas políticas de forma seletiva e use terminologia vaga que permite interpretação ampla.

Acordos Federais

Além do acordo de $1 da Anthropic, a Administração de Serviços Gerais recentemente assinou um acordo abrangente que permite que a OpenAI, o Google e a Anthropic forneçam ferramentas de IA a funcionários federais. A OpenAI anunciou um contrato separado para fornecer acesso ao ChatGPT Enterprise a mais de 2 milhões de funcionários do poder executivo federal por $1 por agência por ano.

Contexto da Indústria

A tensão destaca um conflito entre as políticas de uso ético de provedores de IA privados e a demanda de agências governamentais por capacidades de IA avançadas em operações de aplicação da lei e segurança nacional. Embora a Anthropic também trabalhe com o Departamento de Defesa, suas políticas continuam a proibir o uso de seus modelos para desenvolvimento de armas.

Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas

Também disponível em: