Voltar

Ferramenta de Vídeo Sora 2 da OpenAI Usada para Criar Conteúdo Perturbador de Crianças Semelhantes em TikTok

Ferramenta de Vídeo Sora 2 da OpenAI Usada para Criar Conteúdo Perturbador de Crianças Semelhantes em TikTok

Vídeos Gerados por IA Difumina a Linha entre Ficção e Exploração

A Sora 2 da OpenAI, um sistema avançado de geração de vídeo, rapidamente se tornou uma ferramenta para criadores que buscam produzir conteúdo visual hiper-realista. Em poucos dias após seu lançamento limitado, alguns usuários começaram a postar vídeos que imitam comerciais de brinquedos, apresentando crianças realistas interagindo com produtos provocativos ou perturbadores. Os vídeos são criados para parecerem anúncios legítimos, mas o assunto varia de brinquedos sugestivos a conjuntos de brinquedos satíricos que aludem a figuras controversas. Porque as crianças retratadas são sintéticas, o conteúdo escapa das definições tradicionais de material ilegal, enquanto ainda levanta alarmes éticos.

Resposta das Plataformas e Desafios de Moderação

Plataformas de mídia social, particularmente o TikTok, tomaram medidas para remover material ofensivo e banir contas que violam políticas de segurança de menores. No entanto, muitos vídeos permanecem acessíveis, destacando a dificuldade de detectar conteúdo gerado por IA sutil que não viola explicitamente regras de conteúdo explícito. A OpenAI relata que seus sistemas são projetados para recusar solicitações que explorem menores, e a empresa afirma que monitora violações de política, revogando o acesso quando necessário. Apesar dessas medidas, criadores encontraram maneiras de contornar salvaguardas, gerando críticas de grupos de defesa das crianças.

Reações da Indústria e Defesa

Kerry Smith, CEO da Internet Watch Foundation, destacou o aumento de material de abuso infantil gerado por IA e pediu que os produtos sejam "seguros por design". O porta-voz da OpenAI, Niko Felix, reiterou a posição da empresa de tolerância zero em relação a conteúdo que prejudica crianças, enfatizando esforços contínuos para melhorar a detecção e aplicação. Especialistas sugerem que uma moderação mais sutil - como restringir certa linguagem ou imagens associadas a conteúdo fetichista - poderia ajudar a fechar lacunas existentes.

Chamadas para Salvaguardas Legislativas e Técnicas

Legisladores em várias jurisdições estão revisando ou promulgando leis que criminalizam a criação e distribuição de material de abuso sexual infantil gerado por IA. Propostas incluem requisitos para que desenvolvedores de IA incorporem mecanismos de proteção que bloqueiem a geração de conteúdo proibido. Grupos de defesa pedem que as plataformas priorizem a segurança das crianças no design do produto, argumentando que, sem salvaguardas proativas, o conteúdo prejudicial continuará a se proliferar apesar de retiradas reativas.

Olhando para o Futuro

A difusão rápida de vídeos gerados pela Sora 2 ilustra o desafio mais amplo de equilibrar capacidades inovadoras de IA com responsabilidade social. À medida que as ferramentas de IA se tornam mais acessíveis, stakeholders em tecnologia, política e setores de proteção à criança devem colaborar para garantir que as salvaguardas evoluam em passos com a tecnologia, protegendo populações vulneráveis de formas emergentes de exploração digital.

Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas

Também disponível em: