Anthropic Flexibiliza Compromissos de Segurança sob Pressão do Pentágono
Mudança de Política na Anthropic
A Anthropic divulgou que está modificando sua Política de Escala Responsável (RSP). Anteriormente, a política continha limites rígidos que interrompiam o treinamento de modelos a menos que garantias de segurança específicas pudessem ser atendidas antecipadamente. A nova versão adopta uma abordagem mais relativa, introduzindo "Relatórios de Risco" e "Planos de Segurança de Fronteira" para fornecer transparência pública em vez de limites rígidos.
Razão da Mudança
A empresa disse que a ajuste decorre de um "problema de ação coletiva" em um cenário competitivo de IA e preocupações de que uma postura anti-regulatória nos Estados Unidos poderia deixar o campo menos seguro se alguns desenvolvedores pausassem enquanto outros avançavam sem mitigações fortes. O diretor de ciência da Anthropic, Jared Kaplan, disse ao Time que o avanço rápido da IA tornou compromissos unilaterais inúteis, observando: "Sentimos que não ajudaria a ninguém se parássemos de treinar modelos de IA".
Pressão do Pentágono Relatada
Concomitantemente com o anúncio da política, o Axios relatou que o Secretário de Defesa Pete Hegseth disse ao CEO da Anthropic, Dario Amodei, que a empresa deve conceder acesso irrestrito ao modelo Claude para o militar até uma data limite ou enfrentar penalidades. As ameaças alegadas de Hegseth incluíam invocar a Lei de Produção de Defesa, que poderia compelir empresas privadas a priorizar certos contratos para defesa nacional, e potencialmente cortar o contrato do Pentágono com a Anthropic enquanto rotulava o modelo como um risco de cadeia de suprimentos.
Implicações para Uso Militar
O Claude é relatado como o único modelo de IA usado para o trabalho mais sensível do Pentágono, com referências à sua participação em uma operação na Venezuela. Um oficial de defesa enfatizou a urgência da tecnologia, dizendo: "A única razão pela qual ainda estamos falando com essas pessoas é que precisamos delas e precisamos agora". A Anthropic indicou disposição para adotar suas políticas de uso para o Pentágono, mas se recusa a permitir que o modelo seja usado para vigilância em massa de americanos ou armas totalmente autônomas.
Reações da Comunidade de Ética de IA
Chris Painter, diretor da organização sem fins lucrativos METR, descreveu a mudança de política como compreensível e potencialmente sinistra. Ele elogiou o foco em relatórios de risco transparentes, mas alertou que uma RSP mais flexível poderia levar a um "efeito de ebulição de sapo", onde racionalizações incrementais gradualmente erodem padrões de segurança. Painter observou que a mudança sugere que a Anthropic está entrando em "modo de triagem" porque os métodos atuais para avaliar e mitigar riscos estão atrasados em relação ao crescimento rápido das capacidades.
Contexto da Indústria
As versões mais recentes do Claude da Anthropic receberam elogios, especialmente para tarefas de codificação. No início do ano, a empresa levantou uma grande rodada de investimentos, aumentando sua valorização para vários hundredos de bilhões de dólares, enquanto uma empresa rival de IA tem uma valorização que excede $800 bilhões. A revisão da política reflete a tensão mais ampla da indústria entre desenvolvimento rápido, pressão competitiva e o desejo de manter salvaguardas de segurança robustas.
Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas