OpenAI Publica Estimaciones sobre Usuarios de ChatGPT que Experimentan Crisis de Salud Mental y Anuncia Mejoras en el Modelo
OpenAI Proporciona los Primeros Datos sobre Riesgos de Salud Mental de los Usuarios
OpenAI publicó estimaciones aproximadas de la proporción de usuarios activos de ChatGPT que pueden mostrar posibles signos de emergencias de salud mental graves en una semana determinada. Trabajando con más de 170 psiquiatras, psicólogos y médicos de atención primaria en decenas de países, la empresa calculó que aproximadamente el 0,07 por ciento de los usuarios muestra posibles signos de manía o psicosis, mientras que alrededor del 0,15 por ciento exhibe lenguaje que indica una posible planificación o intento suicida. Un porcentaje adicional del 0,15 por ciento parece estar excesivamente apegado emocionalmente al chatbot, priorizandolo sobre las relaciones, obligaciones o bienestar en el mundo real.
Dado el reclamo de OpenAI de 800 millones de usuarios activos semanales, las estimaciones se traducen en aproximadamente 560.000 individuos que potencialmente experimentan manía o psicosis y alrededor de 2,4 millones que posiblemente expresan pensamientos o un apego insano al modelo cada semana.
Mejoras en el Modelo Orientadas a la Seguridad
La empresa dijo que su modelo de lenguaje más nuevo, GPT-5, ha sido perfeccionado para reconocer mejor las señales de angustia y responder de manera que fomente la ayuda profesional. En escenarios donde los usuarios presentan pensamiento delirante, el modelo está diseñado para expresar empatía mientras se abstiene de afirmar creencias infundadas. OpenAI proporcionó un ejemplo hipotético en el que un usuario afirma ser objetivo de aviones; el modelo reconoce los sentimientos del usuario pero clarifica que ninguna fuerza externa puede leer o insertar pensamientos.
Los clínicos evaluaron más de 1.800 respuestas del modelo que involucraban posible psicosis, suicidio y apego emocional. En comparación con GPT-4o, GPT-5 redujo las respuestas no deseadas en un 39 por ciento a 52 por ciento en estas categorías, según las mediciones internas de OpenAI.
OpenAI reconoció que sus métricas están diseñadas internamente y que los resultados en el mundo real siguen siendo inciertos. La empresa no divulga los mecanismos exactos que utiliza para señalarizar la angustia, señalando que puede considerar el historial de chat más amplio de un usuario. OpenAI también destacó que las conversaciones más largas históricamente degradan la confiabilidad del modelo, pero afirma haber hecho progresos significativos en la mitigación de este problema.
Mientras que los datos sugieren que un número considerable de usuarios puede estar en riesgo, OpenAI advirtió que detectar y medir estas señales de angustia rarás es difícil y que puede haber superposición entre las categorías identificadas.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas