Atrás

OpenAI Presenta Plan de Seguridad para Menores con Grupos de Defensa y Fiscales Generales Estatales

OpenAI anunció el miércoles un nuevo plan de política que apunta a uno de los desafíos más apremiantes de la era de la inteligencia artificial generativa: proteger a los niños de contenido ilícito y dañino. La empresa dijo que el plan fue elaborado junto con la organización sin fines de lucro de seguridad infantil Thorn, el Centro Nacional para Menores Desaparecidos y Explotados, y la fuerza task de inteligencia artificial de la Alianza de Fiscales Generales, liderada por el fiscal general de Carolina del Norte, Jeff Jackson, y el fiscal general de Utah, Derek Brown.

El documento describe una serie de recomendaciones diseñadas para fortalecer las leyes existentes y aumentar las salvaguardias técnicas. OpenAI ya emplea guardias que bloquean solicitudes ilegales o abusivas, pero la empresa reconoce que los usuarios determinados pueden sometimes eludir esas protecciones. Los casos judiciales recientes involucrando a Meta y Google, en los que los tribunales encontraron que las empresas fueron negligentes al no proteger a los usuarios jóvenes, han intensificado la presión sobre los desarrolladores de inteligencia artificial para demostrar medidas de seguridad concretas.

Un punto focal del plan es la lucha contra el material de abuso sexual infantil (CSAM). Si bien el CSAM precede a la inteligencia artificial, la tecnología ha acelerado la creación y distribución de este contenido. El plan cita un incidente reciente involucrando a xAI de Elon Musk, donde el modelo Grok generó aproximadamente 3 millones de imágenes sexuales en 11 días, incluyendo 23.000 representaciones de niños. Ese episodio desencadenó demandas de víctimas adolescentes y destacó la necesidad de herramientas de detección más robustas.

OpenAI y sus socios recomiendan actualizar los estatutos estatales que rigen los deepfakes y el CSAM generado por inteligencia artificial. Según un informe de 2025, 45 estados ya han criminalizado el CSAM creado por inteligencia artificial; el plan urge a los estados restantes, más el Distrito de Columbia, a adoptar leyes similares. También pide reglas de responsabilidad más claras para que las agencias de aplicación de la ley puedan procesar a los infractores incluso cuando las plataformas de inteligencia artificial bloquean la creación de material ilegal.

Las mejoras técnicas forman otro pilar de la estrategia. La empresa propone refinar las guardias existentes y desarrollar nuevas herramientas de detección capaces de distinguir la imagenería generada por inteligencia artificial de las fotos auténticas, una tarea dificultada por la realism de los modelos modernos. Las tuberías de reporte más rápidas, especialmente aquellas que canalizan incidentes al Centro Nacional para Menores Desaparecidos y Explotados, también se destacan como esenciales para una respuesta rápida.

Los expertos en políticas señalan que la coordinación entre las empresas de tecnología, los gobiernos estatales y federales, los cuerpos de aplicación de la ley y los grupos de defensa podría aumentar las posibilidades de éxito. Sin embargo, advierten que regular los modelos de inteligencia artificial sigue siendo un desafío en curso, y la efectividad de cualquier nueva regla dependerá de la aplicación y el cumplimiento consistentes de la industria.

El plan llega en un momento en que la legislación ha luchado por mantener el ritmo con la evolución rápida de la inteligencia artificial. El Acta de Retirar, firmada en 2025, sigue siendo una de las pocas medidas federales que abordan específicamente la imaginería íntima no consensual, incluyendo los deepfakes generados por inteligencia artificial. El plan de OpenAI busca complementar esas leyes llenando los vacíos a nivel estatal y proporcionando una hoja de ruta técnica para que las empresas sigan.

Al establecer un conjunto claro de recomendaciones, OpenAI espera demostrar una postura proactiva sobre la seguridad infantil y evitar las trampas que han plagado a otros gigantes de la tecnología. Si las reformas legales y técnicas propuestas serán adoptadas rápidamente sigue siendo visto, pero el compromiso público de la empresa marca un cambio notable hacia un desarrollo de inteligencia artificial más responsable.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: