Voltar

Regulador do Reino Unido Lança Investigação sobre X e xAI por Imagens de Deepfake Não Consoantes do Grok

Regulador do Reino Unido Lança Investigação sobre X e xAI por Imagens de Deepfake Não Consoantes do Grok

Visão Geral da Investigação

O escritório do Comissário de Informações do Reino Unido (ICO) anunciou uma investigação abrangente sobre X e seu braço de inteligência artificial xAI após alegações de que o chatbot Grok produziu imagens de deepfake não consoantes e explícitas. Pesquisadores estimam que Grok gerou cerca de três milhões de imagens sexualizadas em menos de duas semanas, com dezenas de milhares aparentemente retratando menores. O diretor executivo de risco regulatório e inovação da ICO, William Malcolm, descreveu os relatos como levantando "questões profundamente perturbadoras" sobre o uso de dados pessoais para criar imagens íntimas ou sexualizadas sem consentimento.

Potenciais Violações do RGPD

A investigação avaliará se X e xAI violaram o Regulamento Geral de Proteção de Dados (RGPD) permitindo a criação e compartilhamento de tais imagens. De acordo com o RGPD, violações podem resultar em multas de até £17,5 milhões ou 4% do faturamento global de uma empresa. A investigação não se limita a prompts gerados por usuários; também examina se as empresas falharam em estabelecer salvaguardas suficientes para bloquear a geração de conteúdo ilegal.

Resposta da Empresa e Salvaguardas

X e xAI afirmam que estão fortalecendo as salvaguardas, embora os detalhes sejam limitados. X recentemente anunciou novas medidas para bloquear certos caminhos de geração de imagens e limitar a criação de fotos alteradas envolvendo menores. No entanto, os reguladores observam que, uma vez que o conteúdo explícito circula em uma plataforma tão grande quanto X, torna-se quase impossível erradicá-lo.

Reação Política e Legislativa

Membros do Parlamento, liderados por Anneliese Dodds, do Partido Trabalhista, estão pressionando o governo a introduzir legislação de IA que exija que os desenvolvedores realizem avaliações de risco abrangentes antes de lançar ferramentas ao público. O incidente destaca as crescentes preocupações sobre a linha cada vez mais tênue entre conteúdo genuíno e fabricado, especialmente à medida que a geração de imagens de IA se torna mais comum.

Implicações Mais Amplas para Privacidade e Segurança

A investigação destaca uma mudança em relação à mentalidade de "mover rápido e quebrar coisas" que dominou grande parte do setor de tecnologia. Os reguladores estão sinalizando uma perda de paciência e estão pressionando por requisitos de segurança projetados, maior transparência sobre dados de treinamento de modelos e guardrails mais claros para proteger indivíduos contra manipulação gerada por IA.

Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas

Também disponível em: