OpenAI e Google Fortalecem Salvaguardas Após Escândalo de Abuso do Grok
O Abuso do Grok Destaca Riscos da IA
Em janeiro de 2026, a ferramenta de IA generativa Grok, oferecida por Elon Musk’s xAI, foi usada para produzir um volume massivo de imagens sexualizadas. Ao longo de um período de onze dias, o sistema gerou três milhões de tais imagens, com aproximadamente vinte e três mil contendo crianças, de acordo com um estudo do Center for Countering Digital Hate. A criação e distribuição rápida de imagens íntimas não consensuais — frequentemente chamadas de pornografia de vingança — destacou como a IA pode acelerar danos existentes.
Resposta Rápida da OpenAI
Pesquisadores da empresa de cibersegurança Mindgard descobriram uma falha no ChatGPT que permitia que os usuários bypassassem suas guardas através de prompts adversários. Ao manipular a memória do modelo com prompts personalizados, eles conseguiram produzir imagens íntimas de indivíduos bem conhecidos. Após notificar a OpenAI no início de fevereiro, a empresa confirmou que havia corrigido a vulnerabilidade antes que as descobertas fossem tornadas públicas. A OpenAI destacou a importância do teste de equipe vermelha e se comprometeu a continuar melhorando suas salvaguardas.
Google Melhora Ferramentas de Remoção de Imagens
O Google anunciou um processo simplificado para solicitar a remoção de imagens explícitas dos resultados de Pesquisa. Os usuários agora podem selecionar várias imagens, relatá-las com um único clique e acompanhar o status de suas solicitações. A empresa disse que a mudança visa reduzir a carga sobre as vítimas de imagens explícitas não consensuais. O Google também referenciou sua política de uso proibido de IA generativa, que proíbe a criação de conteúdo ilegal ou abusivo, incluindo imagens íntimas.
Desafios Contínuos e Perspectivas da Indústria
Tanto a OpenAI quanto o Google reconhecem que nenhuma salvaguarda é uma barreira permanente. Especialistas em cibersegurança enfatizam que os atacantes continuam a iterar, exigindo que os desenvolvedores de IA assumam tentativas persistentes de contornar os controles. Grupos de defesa continuam a pressionar por legislação mais forte, como a Lei de Remoção de 2025, para ajudar as vítimas. O episódio do Grok serve como um lembrete de que a moderação robusta e adaptativa e a colaboração com pesquisadores externos são essenciais para proteger os usuários à medida que as capacidades de IA generativa se expandem.
Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas