OpenAI anunció una nueva opción de seguridad llamada Contacto de Confianza que permite a los usuarios adultos de ChatGPT nombrar a un amigo o familiar para que sea notificado si la conversación se dirige hacia la autolesión. Cuando el sistema detecta lenguaje suicida, solicita al usuario que busque ayuda y, si el riesgo es considerado grave, envía una breve alerta al contacto designado. Esta medida se produce en medio de una oleada de demandas que alegan que el chatbot fomentó el suicidio. OpenAI afirma que la función, al igual que sus controles parentales, es opcional y está diseñada para proteger la privacidad mientras agrega una verificación humana a las señales de angustia impulsadas por la IA.
Leer más →