Atrás

OpenAI introduce nuevas reglas de seguridad para adolescentes para ChatGPT en medio de un aumento de la vigilancia regulatoria

OpenAI introduce nuevas reglas de seguridad para adolescentes para ChatGPT en medio de un aumento de la vigilancia regulatoria

Directrices de seguridad mejoradas para menores

OpenAI anunció un conjunto de especificaciones de comportamiento actualizadas para sus grandes modelos de lenguaje cuando interactúan con usuarios menores de 18 años. Las nuevas reglas prohíben la representación romántica o sexual en primera persona, limitan las discusiones sobre la imagen corporal y la alimentación desordenada, y priorizan la seguridad sobre la autonomía del usuario en casos de posible daño. Las directrices se aplican incluso cuando las solicitudes se presentan como ficticias o educativas, y los modelos están instruidos para dirigir las conversaciones lejos de fomentar el autolesionismo o actividades ilegales.

Recursos para padres y transparencia

Junta con los cambios en la política, OpenAI lanzó dos guías de alfabetización en IA para padres y familias. Estos recursos ofrecen iniciadores de conversación, consejos sobre cómo establecer límites y consejos para fomentar el pensamiento crítico sobre las capacidades de la IA. OpenAI también se comprometió a una transparencia más clara, recordando a los usuarios que están interactuando con un chatbot y animándolos a tomar pausas durante sesiones prolongadas.

Contexto regulatorio y legislativo

Las actualizaciones llegan cuando una coalición de fiscales generales estatales pidió a las principales empresas de tecnología que implementen salvaguardas de seguridad para niños, y mientras los legisladores federales consideran legislación que podría prohibir a los menores usar chatbots de IA. El senador Josh Hawley presentó un proyecto de ley que apunta a esas interacciones, mientras que la SB 243 de California, que entrará en vigor pronto, requiere que las plataformas proporcionen alertas periódicas a los menores para que sepan que están hablando con un sistema no humano.

Reacciones de la industria y la defensa

Los defensores elogiaron la divulgación pública de las políticas específicas de adolescentes de OpenAI, señalando que la transparencia puede ayudar a la seguridad de los investigadores. Los críticos, sin embargo, enfatizaron la necesidad de pruebas en el mundo real para confirmar que los modelos siguen consistentemente las nuevas directrices. Incidentes anteriores que involucraron a adolescentes y chatbots de IA han resaltado las lagunas en los sistemas de moderación existentes, subrayando la importancia de clasificadores de contenido en tiempo real y procesos de revisión humana.

Mirando hacia adelante

Las especificaciones revisadas de OpenAI se alinean con varios requisitos legales emergentes, lo que posiciona a la empresa para cumplir con los estándares regulatorios futuros. El enfoque de la empresa combina salvaguardas técnicas con la responsabilidad compartida de los cuidadores, reflejando discusiones más amplias de la industria sobre el equilibrio entre la innovación, la protección del usuario y el cumplimiento regulatorio.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: