Voltar

Deepfakes de Celebridades Gerados por IA Impulsionam Golpes contra Consumidores

Deepfakes de Celebridades Gerados por IA Impulsionam Golpes contra Consumidores

Ascensão dos Golpes de Celebridades Impulsionados por IA

A inteligência artificial gerativa agora permite a criação rápida de imagens, vídeos e áudio realistas que imitam personalidades bem conhecidas. Atores mal-intencionados exploram essa capacidade para produzir endorsos contrafeitos, sorteios e promoções de produtos que aparentam vir de músicos, atores e outras figuras públicas populares. De acordo com um relatório recente da McAfee, muitos consumidores americanos relataram ter visto esse tipo de conteúdo falso de celebridades, com uma cantora de pop de destaque citada como a semelhança mais frequentemente usada.

Como os Golpistas Exploram os Deepfakes

O processo do golpe é direto: um fraudador gera uma postagem convincente baseada em IA com a semelhança de uma celebridade, então a combina com uma chamada para ação — como clicar em um link, entrar em detalhes pessoais ou enviar pagamento por métodos não convencionais. Essas postagens muitas vezes imitam o estilo de contas verificadas, criando uma falsa sensação de legitimidade. O relatório observa que uma porção significativa de pessoas clicou nesses endorsos falsos, e algumas sofreram perda financeira.

Dicas de Detecção para Consumidores

Identificar conteúdo gerado por IA pode ser difícil, mas o relatório oferece várias dicas práticas. Os espectadores devem examinar detalhes visuais para inconsistências, como iluminação estranha ou movimentos não naturais. Muitos geradores de IA incorporam marcas d\'água que podem sinalizar origem sintética. Rótulos de plataforma indicando mídia gerada por IA também são sinais úteis. Os sinais vermelhos tradicionais de golpes permanecem relevantes: urgência, pressão emocional, solicitações de informações pessoais e demandas de pagamento por crypto ou cartões de presente.

Resposta da Indústria e Desafios em Curso

Desenvolvedores de IA reconhecem o mau uso de suas ferramentas e introduziram medidas como marca d\'água automática e diretrizes de política para limitar deepfakes de celebridades não consensuais. No entanto, o relatório destaca que essas salvaguardas não são infalíveis, pois os golpistas continuam a encontrar contornos. A colaboração contínua entre empresas de tecnologia, pesquisadores de segurança e campanhas de conscientização pública é enfatizada como essencial para mitigar a ameaça crescente.

Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas

Também disponível em: