Um conflito entre o Departamento de Defesa dos EUA e a desenvolvedora de IA Anthropic sobre o uso do modelo Claude expôs um vazio regulatório. O Pentágono buscou acesso irrestrito para "todos os fins legais", enquanto a Anthropic estabeleceu limites contra vigilância doméstica e armas totalmente autônomas. Após a Anthropic se recusar, a administração rotulou a empresa como um risco na cadeia de suprimentos, provocando uma ação judicial. Especialistas afirmam que o episódio destaca a necessidade de regras claras do Congresso sobre IA na segurança nacional, à medida que o militar se volta para a OpenAI e o debate mais amplo sobre vigilância e armas impulsionadas por IA se intensifica.
Leia mais →