Atrás

OpenAI informa un aumento en las alertas de explotación infantil en medio de un creciente escrutinio de la IA

OpenAI informa un aumento en las alertas de explotación infantil en medio de un creciente escrutinio de la IA

Aumento significativo en los informes de CyberTipline

OpenAI reveló que en el primer semestre de 2025 presentó aproximadamente 75,027 informes al CyberTipline del Centro Nacional para Niños Desaparecidos y Explotados (NCMEC). Esta cifra es casi idéntica al número de piezas de contenido distintas – alrededor de 74,559 – que los informes referenciaron. Por el contrario, la misma ventana de seis meses en 2024 vio a OpenAI presentar solo 947 informes que cubrían aproximadamente 3,252 piezas de contenido. Los datos subrayan un aumento masivo en el volumen de material de explotación infantil que la empresa está detectando y remitiendo a las autoridades.

Alcance de los informes y paisaje de productos

La política de OpenAI establece que se deben informar todos los casos de material de abuso sexual infantil (CSAM) que se encuentren, ya sea que el material se cargue directamente por un usuario o se genere a través de solicitudes de modelo. Los informes de la empresa cubren su aplicación de ChatGPT de cara al consumidor – donde los usuarios pueden cargar archivos, incluidas imágenes, y recibir texto o imágenes generados – así como sus ofertas de API más amplias que permiten a los desarrolladores integrar los modelos en servicios externos. Un producto de generación de video próximo, llamado Sora, se lanzó después del período de informes y, por lo tanto, no aparece en las cifras actuales de NCMEC.

IA generativa impulsa una tendencia más amplia

El aumento en los informes de OpenAI se alinea con un patrón más grande observado por NCMEC. El análisis del centro indica que los informes que involucran tecnologías de IA generativa aumentaron aproximadamente un 1,325 por ciento entre 2023 y 2024. Si bien otros laboratorios de IA importantes como Google han publicado sus propias estadísticas de CyberTipline, no han desglosado qué porción de esos informes está directamente relacionada con salidas de IA generativa.

Respuesta regulatoria y legislativa

La actividad de informes aumentada ha atraído un escrutinio intensificado de los formuladores de políticas. Una coalición de 44 fiscales generales estatales emitió una carta conjunta a varias empresas de IA – incluidas OpenAI, Meta, Character.AI y Google – advirtiendo que ejercerían toda la autoridad disponible para proteger a los niños de los "productos de inteligencia artificial depredadores". OpenAI y Character.AI también enfrentan demandas que alegan que sus chatbots desempeñaron un papel en las muertes de menores.

En el Senado de los Estados Unidos, el Comité de Justicia convocó una audiencia para examinar los daños asociados con los chatbots de IA. Al mismo tiempo, la Comisión Federal de Comercio lanzó un estudio de mercado de los chatbots de compañía de IA, investigando específicamente cómo las empresas están mitigando los impactos negativos en los niños. Estas acciones señalan un esfuerzo coordinado en los niveles federal y estatal para abordar los riesgos emergentes que plantea la IA generativa.

Implicaciones y próximos pasos

Los datos sugieren que a medida que las capacidades de IA se expanden, también crece el potencial de mal uso – incluida la creación y distribución de CSAM. El compromiso de OpenAI de informar cada encuentro con dicho material refleja un reconocimiento de responsabilidad a nivel de la industria. La atención regulatoria en curso, combinada con la disponibilidad pendiente de nuevas herramientas como Sora, probablemente dará forma a cómo los proveedores de IA equilibran la innovación con las salvaguardias de seguridad infantil en los meses siguientes.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: