Restrições de Vigilância da Anthropic Geram Tensão com a Casa Branca
Contexto
Os modelos de Claude da Anthropic são usados em contextos de alta segurança e estão liberados para situações de segredo máximo por meio da Amazon Web Services’ GovCloud. A empresa tem um acordo especial com o governo federal que fornece seus serviços por uma taxa nominal de $1.
Restrições de Política
As políticas de uso da Anthropic proíbem o uso de seus modelos de IA para vigilância doméstica, uma postura que tem gerado críticas de oficiais seniores da Casa Branca. Contratados que trabalham com agências como o FBI e o Serviço Secreto encontraram obstáculos ao tentar empregar o Claude para tarefas relacionadas à vigilância. Oficiais preocupam-se de que a empresa aplique suas políticas de forma seletiva e use terminologia vaga que permite interpretação ampla.
Acordos Federais
Além do acordo de $1 da Anthropic, a Administração de Serviços Gerais recentemente assinou um acordo abrangente que permite que a OpenAI, o Google e a Anthropic forneçam ferramentas de IA a funcionários federais. A OpenAI anunciou um contrato separado para fornecer acesso ao ChatGPT Enterprise a mais de 2 milhões de funcionários do poder executivo federal por $1 por agência por ano.
Contexto da Indústria
A tensão destaca um conflito entre as políticas de uso ético de provedores de IA privados e a demanda de agências governamentais por capacidades de IA avançadas em operações de aplicação da lei e segurança nacional. Embora a Anthropic também trabalhe com o Departamento de Defesa, suas políticas continuam a proibir o uso de seus modelos para desenvolvimento de armas.
Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas