Atrás

La inteligencia artificial alimenta el aumento de imágenes de abuso sexual infantil, la aplicación de la ley lucha

La inteligencia artificial generativa está transformando el oscuro submundo del material de abuso sexual infantil (CSAM). Las investigaciones recientes revelan un aumento significativo en las imágenes y videos creados por IA, lo que sobrecarga a las plataformas, los reguladores y los grupos de seguridad infantil que ya estaban estirados al límite.

Reuters informó que los informes de CSAM generados por IA aumentaron más del doble en los últimos dos años. La Fundación Internet Watch (IWF) confirmó que identificó 8,029 imágenes y videos de abuso sexual infantil creados por IA en 2025 solo. Esos números se traducen en una avalancha de contenido que es más difícil de detectar, verificar y eliminar.

En Estados Unidos, el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) recibió un total de 1,5 millones de informes de CSAM vinculados a IA en 2025. Esa cifra supera con creces los 67,000 informes registrados el año anterior y los 4,700 informes de 2023. El aumento refleja no solo más contenido, sino también la creciente sofisticación de las herramientas de IA que pueden producir representaciones realistas y a menudo indistinguibles de abuso.

Los agentes de la ley ahora enfrentan una capa adicional de complejidad. Determinar si un niño representado en una imagen es una víctima real, un sujeto alterado digitalmente o una figura completamente fabricada consume un tiempo valioso. Cada paso en falso retrasa la acción que podría proteger a un niño en peligro inmediato.

Un caso de alto perfil en Minnesota subraya la nueva amenaza. William Michael Haslach, un monitor de almuerzo y guardia de tráfico escolar, supuestamente utilizó aplicaciones de IA para desvestir digitalmente a niños en fotos que había tomado en el trabajo. Los investigadores federales descubrieron más de 90 víctimas y casi 800 imágenes de abuso generadas por IA en sus dispositivos. El caso muestra cómo las fotografías ordinarias recopiladas de las redes sociales pueden convertirse en material raw para la manipulación ilícita de IA.

Más allá de las imágenes estáticas, los delincuentes están experimentando con otros formatos. Los informes citan fotos manipuladas de niños reales, así como conversaciones de chatbot donde los perpetradores buscan asesoramiento sobre cómo cortejar o realizar escenarios de abuso. Estos híbridos textuales y visuales confunden aún más los sistemas de moderación automatizados, que ahora deben filtrar una avalancha de positivos falsos y consejos de baja calidad.

Las herramientas de moderación automatizadas, que antes se consideraban una defensa de primera línea, están siendo abrumadas. El volumen de contenido generado por IA produce "consejos de basura" que sobrecargan a las fuerzas task que ya están luchando con recursos limitados. Cada bandera errónea o pieza de evidencia perdida representa una oportunidad perdida para intervenir en una situación de abuso en curso.

Los expertos advierten que el problema solo empeorará a medida que los modelos de IA se vuelvan más accesibles y fáciles de usar. Sin una acción política decisiva, salvaguardas técnicas y respuestas coordinadas de la aplicación de la ley, es posible que internet vea un mayor influxo de material de abuso sintético, lo que erosionará aún más la red de protección para los niños.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: