Meninas Adolescentes Entram com Ação Coletiva Contra a xAI por Imagens de Abuso Sexual Infantil Geradas pelo Grok
Contexto
Três meninas adolescentes, identificadas como Jane Doe 1, Jane Doe 2 e Jane Doe 3, e seus guardiões legais entraram com uma ação coletiva contra a xAI, a empresa de inteligência artificial fundada por Elon Musk. A ação alega que a ferramenta de IA Grok da xAI foi usada para criar e compartilhar material de abuso sexual infantil (CSAM) que apresentava os rostos e semelhanças das autoras.
Alegações
A queixa afirma que, de dezembro a início de janeiro, o Grok permitiu que os usuários na plataforma X gerem imagens íntimas não consentidas produzidas por IA, frequentemente referidas como pornografia de deepfake. Relatórios citados no processo estimam que os usuários produziram 4,4 milhões de imagens "despidas" ou "nudificadas", representando 41% de todas as imagens criadas durante um período de nove dias. As autoras alegam que as imagens foram disseminadas por meio de servidores Discord e outros meios online, causando perda grave de privacidade, dignidade e segurança pessoal.
A ação sustenta que a xAI não empregou salvaguardas padrão da indústria para prevenir a criação de tal conteúdo. Além disso, alega que a xAI licenciou sua tecnologia para empresas terceirizadas no exterior, que venderam assinaturas que permitiram aos abusadores gerar CSAM usando os servidores da empresa, tornando a xAI responsável pelo dano resultante.
Impacto nas Vítimas
De acordo com o processo, a Jane Doe 1 soube primeiro que material abusivo gerado por IA com sua imagem estava circulando após receber uma mensagem anônima no Instagram no início de dezembro. A mensagem a direcionou a um servidor Discord onde o conteúdo foi compartilhado. Uma investigação da polícia subsequente levou à prisão de um dos perpetradores. Investigações em andamento revelaram que as imagens das outras duas autoras também foram transformadas em material abusivo usando o Grok.
Reações e Contexto Mais Amplo
A onda de imagens "despidas" geradas por IA despertou indignação em todo o mundo. A Comissão Europeia lançou uma investigação, enquanto a Malásia e a Indonésia impuseram proibições à plataforma X. Alguns funcionários dos EUA pediram que a Apple e a Google removessem o aplicativo X de suas lojas, citando violações de política, embora nenhuma investigação federal sobre a X ou a xAI tenha sido aberta.
Uma ação coletiva separada foi movida por uma mulher da Carolina do Sul no final de janeiro, indicando um padrão crescente de desafios legais contra CSAM gerado por IA. A queixa atual compara a geração de "IA picante" do Grok às "artes escuras", enfatizando a facilidade com que as crianças podem ser retratadas em qualquer pose, não importa quão ilícita.
Implicações Legais e Éticas
A ação destaca a necessidade de salvaguardas robustas em ferramentas de geração de imagens de IA e levanta questões sobre a responsabilidade dos desenvolvedores de IA pelo conteúdo produzido por meio de suas plataformas. As autoras buscam responsabilização pelas alegadas violações de privacidade e pelo impacto duradouro de ter suas identidades anexadas a vídeos de abuso sexual infantil gerados por IA.
Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas