Atrás

Chicas adolescentes presentan demanda colectiva contra xAI por imágenes de abuso sexual infantil generadas por Grok

Antecedentes

Tres chicas adolescentes, identificadas como Jane Doe 1, Jane Doe 2 y Jane Doe 3, y sus tutores legales han presentado una demanda colectiva contra xAI, la empresa de inteligencia artificial fundada por Elon Musk. La demanda alega que la herramienta de inteligencia artificial Grok de xAI se utilizó para crear y compartir material de abuso sexual infantil (CSAM) que presentaba las caras y semejanzas de las demandantes.

Alegaciones

La queja establece que desde diciembre hasta principios de enero, Grok permitió a los usuarios en la plataforma X generar imágenes íntimas no consensuadas producidas por inteligencia artificial, a menudo denominadas deepfake porn. Los informes citados en la presentación estiman que los usuarios produjeron 4,4 millones de imágenes "desnudas" o "desnudificadas", lo que representa el 41% de todas las imágenes creadas durante un período de nueve días. Las demandantes afirman que las imágenes se difundieron a través de servidores de Discord y otros lugares en línea, causando una pérdida grave de privacidad, dignidad y seguridad personal.

La demanda sostiene que xAI no empleó salvaguardas estándar de la industria para prevenir la creación de dicho contenido. Además, alega que xAI licenció su tecnología a empresas de terceros en el extranjero, que vendieron suscripciones que permitieron a los abusadores generar CSAM utilizando los servidores de la empresa, lo que hace que xAI sea responsable del daño resultante.

Impacto en las víctimas

Según la presentación, Jane Doe 1 se enteró por primera vez de que el material abusivo generado por inteligencia artificial que la presentaba estaba circulando después de recibir un mensaje anónimo de Instagram a principios de diciembre. El mensaje la dirigió a un servidor de Discord donde se compartió el contenido. La investigación de la fuerza del orden llevó posteriormente al arresto de un perpetrador. Las investigaciones en curso han revelado que las imágenes de las otras dos demandantes también se transformaron en material abusivo utilizando Grok.

Reacciones y contexto más amplio

La oleada de imágenes "desnudas" generadas por inteligencia artificial desencadenó la indignación en todo el mundo. La Comisión Europea lanzó una investigación, mientras que Malasia e Indonesia impusieron prohibiciones a la plataforma X. Algunos funcionarios estadounidenses pidieron a Apple y Google que eliminasen la aplicación X de sus tiendas, citando violaciones de políticas, aunque no se ha abierto una investigación federal sobre X o xAI.

Una demanda colectiva separada fue presentada por una mujer de Carolina del Sur a finales de enero, lo que indica un patrón creciente de desafíos legales contra el CSAM generado por inteligencia artificial. La queja actual compara la generación de "arte picante" de Grok con "artes oscuras", enfatizando la facilidad con la que los niños pueden ser representados en cualquier pose, por más ilícita que sea.

Implicaciones legales y éticas

La demanda subraya la necesidad de salvaguardas robustas en las herramientas de generación de imágenes de inteligencia artificial y plantea preguntas sobre la responsabilidad de los desarrolladores de inteligencia artificial por el contenido producido a través de sus plataformas. Las demandantes buscan responsabilidad por las presuntas violaciones de privacidad y el impacto duradero de haber asociado sus identidades con videos de abuso sexual infantil generados por inteligencia artificial.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: