O Aplicativo Sora da OpenAI Levanta Preocupações Sobre a Propagação de Deepfakes
Vídeos Gerados por IA Vão para o Mainstream com o Sora
A OpenAI lançou o Sora, um aplicativo iOS que transforma qualquer usuário em um criador de vídeos gerados por IA. O aplicativo apresenta uma linha do tempo semelhante à do TikTok, onde cada clipe é produzido pelo modelo, tornando-o um "aplicativo de mídia social" construído inteiramente em mídia sintética.
Marca d'Água Incorporada e Metadados
Cada vídeo exportado do Sora carrega um logotipo de nuvem branca distintivo que salta pelas bordas do clipe. Essa marca d'água em movimento espelha a abordagem usada por plataformas como o TikTok. Além disso, os vídeos incorporam credenciais de conteúdo da Coalition for Content Provenance and Authenticity (C2PA). Os metadados registram que o arquivo foi "emitido pela OpenAI" e o marcam como gerado por IA.
Ferramentas de Verificação
A Content Authenticity Initiative oferece uma ferramenta de verificação gratuita que lê os metadados incorporados. Os usuários podem carregar um vídeo para o serviço e ver um painel que confirma sua origem, data de criação e status de IA. Embora a ferramenta flagre com confiabilidade os vídeos do Sora não alterados, ela pode perder conteúdo que tenha sido reencodado ou privado de sua marca d'água.
Rótulos de Plataforma e Divulgação do Criador
A família de aplicativos da Meta, bem como o TikTok e o YouTube, começaram a rotular postagens que parecem ser geradas por IA. Esses sistemas internos não são perfeitos, e a indicação mais confiável permanece uma divulgação clara do criador. Algumas plataformas agora permitem que os usuários adicionem uma etiqueta "gerado por IA" nas legendas, ajudando a audiência a entender a fonte.
Preocupações da Indústria
Especialistas destacam o risco de que o fluxo de trabalho de baixa habilidade e baixo custo do Sora possa acelerar a propagação de deepfakes e desinformação. Figuras públicas e celebridades são especialmente vulneráveis, levando sindicatos como o SAG-AFTRA a instar a OpenAI a fortalecer as salvaguardas. O CEO da OpenAI, Sam Altman, reconheceu que a sociedade precisará se adaptar a um mundo onde qualquer pessoa pode criar vídeos falsos realistas.
O que os Usuários Podem Fazer
Os consumidores são aconselhados a permanecer vigilantes: procure a marca d'água em movimento, verifique os metadados com ferramentas de verificação e seja cético em relação ao conteúdo que pareça "errado". Embora nenhum método isolado garanta a detecção, combinar pistas visuais, verificações de metadados e rótulos de plataforma fornece a melhor chance de detectar mídia sintética.
Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas