Voltar

Geradores de Imagens de IA Usados para Criar Deepfakes de Biquínis sem Consentimento

Geradores de Imagens de IA Usados para Criar Deepfakes de Biquínis sem Consentimento

Ascensão dos Deepfakes de Biquínis sem Consentimento

Em várias comunidades online, usuários de geradores de imagens de IA compartilham dicas passo a passo para transformar fotografias de mulheres completamente vestidas em imagens realistas de biquínis. A prática geralmente envolve fazer upload de uma foto original e solicitar que o modelo remova a roupa ou a substitua por trajes de banho. Uma thread no Reddit, originalmente intitulada "geração de imagens nsfw do gemini é tão fácil", apresentou vários participantes compartilhando prompts e resultados, incluindo um pedido para substituir um sari tradicional indiano por um biquíni. As imagens geradas são frequentemente indistinguíveis de fotografias reais, levantando preocupações sobre privacidade e consentimento.

A equipe de segurança do Reddit interveio após a discussão ser relatada, removendo o pedido e citando a regra da plataforma contra mídia íntima não consensual. O subreddit onde a conversa ocorreu, r/ChatGPTJailbreak, havia acumulado um grande número de seguidores antes de ser banido por violar os padrões comunitários mais amplos do Reddit.

Respostas das Plataformas e Preocupações com Políticas

Tanto o Google quanto a OpenAI afirmam que suas ferramentas de IA são equipadas com salvaguardas destinadas a bloquear a criação de conteúdo sexualmente explícito ou não consensual. Um porta-voz do Google enfatizou as políticas claras da empresa que proíbem a geração de tal material e observou melhorias contínuas para alinhar a tecnologia com essas políticas. Um representante da OpenAI destacou uma política de uso que proíbe alterar a semelhança de outra pessoa sem consentimento e indicou que violações podem resultar em banimento de contas.

Apesar dessas salvaguardas, os usuários demonstraram que prompts básicos em inglês ainda podem produzir deepfakes de biquínis, sugerindo que as salvaguardas não são infalíveis. A capacidade de contornar restrições destaca um desafio mais amplo: à medida que os modelos gerativos se tornam mais sofisticados, a linha entre edição de imagem legítima e manipulação prejudicial se torna cada vez mais tênue.

Especialistas jurídicos estão soando o alarme. Um diretor jurídico da Electronic Frontier Foundation identificou "imagens sexualizadas de forma abusiva" como um risco central associado aos geradores de imagens de IA. O especialista enfatizou que responsabilizar tanto indivíduos quanto corporações é essencial para mitigar danos potenciais.

A situação reflete uma tensão entre o avanço rápido da tecnologia de IA gerativa e a necessidade de quadros éticos robustos. Enquanto as empresas continuam a refinar suas políticas, a circulação contínua de conteúdo instrucional sobre como criar deepfakes não consensuais sugere que medidas regulatórias e técnicas adicionais podem ser necessárias para proteger indivíduos contra mau uso.

Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas

Também disponível em: