Líderes da indústria e acadêmicos alertam que, sem padrões claros, os testes de segurança de IA podem se tornar uma ferramenta política. A Microsoft, o Instituto Nacional de Padrões e Tecnologia (NIST) e a Iniciativa de Segurança de IA (CAISI) planejam desenvolver métodos de teste de forma improvisada, mas críticos argumentam que apenas um sistema de auditoria independente pode prevenir a interferência governamental e garantir a responsabilidade. O professor Gregory Falco, da Universidade Cornell, propõe um regime de auditoria rigorosamente aplicado, semelhante ao da Receita Federal, instando as empresas a adotarem verificações de segurança internas antes do lançamento.
Leia mais →