What is new on Article Factory and latest in generative AI world

Especialistas Pedem Auditorias Independentes à Medida que Padrões de Segurança de IA Permanecem Indefinidos

Especialistas Pedem Auditorias Independentes à Medida que Padrões de Segurança de IA Permanecem Indefinidos
Líderes da indústria e acadêmicos alertam que, sem padrões claros, os testes de segurança de IA podem se tornar uma ferramenta política. A Microsoft, o Instituto Nacional de Padrões e Tecnologia (NIST) e a Iniciativa de Segurança de IA (CAISI) planejam desenvolver métodos de teste de forma improvisada, mas críticos argumentam que apenas um sistema de auditoria independente pode prevenir a interferência governamental e garantir a responsabilidade. O professor Gregory Falco, da Universidade Cornell, propõe um regime de auditoria rigorosamente aplicado, semelhante ao da Receita Federal, instando as empresas a adotarem verificações de segurança internas antes do lançamento. Leia mais →

Cinco Laboratórios de IA de Fronteira Concordam com Revisões de Modelo Pré-Lançamento Voluntárias pelo Governo dos EUA

Cinco Laboratórios de IA de Fronteira Concordam com Revisões de Modelo Pré-Lançamento Voluntárias pelo Governo dos EUA
Google, Microsoft, xAI, OpenAI e Anthropic assinaram um acordo para fornecer ao Departamento de Comércio dos EUA acesso pré-lançamento aos seus novos modelos. O arranjo voluntário, criado por uma equipe de menos de 200 pessoas, fornece a aproximação mais próxima que os EUA têm a um sistema de supervisão de IA, embora não tenha autoridade estatutária e não possa bloquear lançamentos. Leia mais →