OpenAI agrega la función de Contacto de Confianza para señalar a usuarios de ChatGPT en crisis
OpenAI anunció una nueva herramienta de seguridad opcional para ChatGPT llamada Contacto de Confianza. La herramienta permite a cualquier usuario adulto designar a un adulto de confianza - amigo, familiar o cuidador - para que sea alertado si la inteligencia artificial detecta que la conversación puede involucrar autolesiones o ideación suicida. La función está diseñada para complementar las líneas de ayuda integradas en el chatbot, dándoles a los usuarios una línea directa a alguien que ya conocen.
Habilitar el Contacto de Confianza es un proceso sencillo. Los usuarios van a la configuración de su cuenta de ChatGPT, ingresan el nombre y correo electrónico o número de teléfono del contacto, y envían una invitación. La persona invitada tiene siete días para aceptar; de lo contrario, la solicitud caduca. Ambas partes retienen el control total: el usuario puede editar o eliminar el contacto en cualquier momento, y el contacto puede eliminarse de la lista sin penalización.
Cuando los sistemas automatizados de OpenAI señalan una conversación como potencialmente peligrosa, el chatbot primero anima al usuario a comunicarse con su Contacto de Confianza designado. Si el usuario no responde, un pequeño equipo de personal capacitado revisa el intercambio. Después de una breve evaluación, el equipo puede enviar un correo electrónico conciso, un mensaje de texto o una notificación en la aplicación al contacto, advirtiéndole de un posible problema de seguridad. Es importante destacar que la notificación no incluye ninguna transcripción de chat ni detalles personales más allá del hecho de que se planteó una inquietud.
La función de Contacto de Confianza se basa en una opción de contacto de emergencia introducida en septiembre, que siguió a un caso trágico en el que un menor de 16 años que confió en ChatGPT se quitó la vida. Meta ha lanzado un sistema comparable para Instagram, alertando a los padres cuando los menores buscan contenido de autolesiones de forma reiterada. La última medida de OpenAI señala un impulso más amplio de la industria para incorporar salvaguardias de salud mental directamente en los productos de inteligencia artificial.
OpenAI presentó la adición como un enfoque "validado por expertos", destacando que conectar a una persona en crisis con alguien de confianza puede marcar una diferencia significativa. Mientras que la empresa destacó la naturaleza limitada de las alertas, los defensores de la privacidad han planteado preguntas sobre cómo el equipo de revisión determina la seriedad de una conversación señalada y qué datos se retienen. OpenAI mantiene que la función no comparte contenido de chat con el contacto y que cualquier revisión es realizada por un pequeño equipo capacitado.
Los expertos dicen que la opción de Contacto de Confianza podría llenar un vacío entre la asistencia anónima de la inteligencia artificial y la ayuda profesional. Al dar a los usuarios una forma de involucrar a su red de apoyo personal, la función puede reducir la dependencia de las líneas de crisis genéricas y fomentar una intervención más temprana. A medida que los asistentes de inteligencia artificial se vuelven más ubicuos, herramientas como el Contacto de Confianza podrían convertirse en una parte estándar de la implementación responsable de la inteligencia artificial.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas