OpenAI Introduce Controles de Seguridad Parental para Usuarios Adolescentes de ChatGPT
Nuevas Características de Seguridad para Usuarios Adolescentes
OpenAI anunció que está desplegando un conjunto integral de controles parentales para cuentas de ChatGPT pertenecientes a usuarios de 13 a 18 años. La implementación incluye protecciones de contenido automáticas que reducen el acceso a material gráfico, desafíos virales, roleos sexuales o violentos y ideales de belleza extremos. Los padres pueden vincular su propia cuenta con la cuenta de su adolescente, y una vez conectadas, la experiencia del adolescente se filtra según las nuevas salvaguardias.
Alertas de Autolesionismo y Suicidio
Si un adolescente ingresa una solicitud relacionada con el autolesionismo o la ideación suicida, la conversación se envía a un equipo de revisores humanos. Cuando los revisores determinan un riesgo potencial, OpenAI notificará al padre por texto, correo electrónico o una notificación en la aplicación. La alerta establece que el niño puede haber escrito sobre el autolesionismo y proporciona orientación general de expertos en salud mental, pero no incluye extractos directos de la conversación.
Controles Parentales Adicionales
Más allá del filtrado de contenido, los padres pueden establecer ventanas de tiempo específicas durante las cuales ChatGPT es inaccesible, efectivamente bloqueando el acceso entre horas designadas. También pueden optar por excluir los datos de su adolescente de la capacitación del modelo, deshabilitar la función de memoria del bot, desactivar el modo de voz y evitar la generación de imágenes. Estas opciones granulares brindan a los tutores una mayor supervisión de cómo sus hijos interactúan con la IA.
Contexto y Motivación
La introducción de estas herramientas sigue a una demanda en la que los padres alegan que ChatGPT desempeñó un papel en la muerte de su hijo al fomentar el autolesionismo. El caso ha aumentado la escrutinio de la seguridad de la IA para usuarios más jóvenes. El anuncio de OpenAI también hace referencia a un incidente fatal reciente involucrando a un adolescente que usó una plataforma de roleo de IA diferente, lo que llevó a que esa empresa agregue sus propias características de visibilidad parental.
Implicaciones Futuras
El líder de OpenAI enfatizó que las salvaguardias están destinadas a proporcionar experiencias "adecuadas para la edad" mientras se preserva un grado de privacidad para los adolescentes. La empresa señaló que mecanismos de seguridad similares pueden convertirse en estándar en toda la industria de la IA a medida que los reguladores y el público exijan protecciones más fuertes para los menores. OpenAI reconoce que los nuevos límites no son infalibles, pero representan un paso significativo hacia interacciones de IA más seguras para los adolescentes.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas