Atrás

OpenAI agrega función de Contacto de Confianza a ChatGPT para usuarios adultos

OpenAI comenzó a ofrecer una opción de Contacto de Confianza a usuarios adultos de ChatGPT esta semana, extendiendo la caja de herramientas de seguridad que ya cubre las cuentas de adolescentes. La función aparece en la configuración de la aplicación y permite a un usuario nominar a una sola persona - al menos 18 años de edad (19 en Corea del Sur) - que será notificada si el chatbot señala una conversación como potencialmente indicativa de autolesión.

Configurar el contacto es opcional. Una vez que un usuario selecciona a un nominado, la aplicación envía al contacto una invitación que explica el papel y ofrece una ventana de una semana para aceptar. Si la invitación es rechazada, el usuario puede elegir a alguien más. El proceso no comparte ninguna parte de la conversación; la alerta simplemente establece que se mencionó la autolesión de una manera preocupante y pide al contacto que verifique.

Cuando los algoritmos de ChatGPT detectan lenguaje que puede señalar un riesgo grave, el sistema primero informa al usuario de que un Contacto de Confianza podría ser notificado. También sugiere iniciadores de conversación para ayudar al usuario a comunicarse directamente. Un pequeño equipo de revisores humanos especialmente capacitados evalúa entonces la situación. Si confirman una amenaza genuina, el contacto recibe una notificación a través de correo electrónico, mensaje de texto o una alerta en la aplicación. OpenAI tiene como objetivo completar esta revisión humana dentro de una hora.

La función de Contacto de Confianza se basa en los esfuerzos de seguridad más amplios de OpenAI, que incluyen alertas para cuentas de adolescentes vinculadas cuando aparecen signos de angustia. El desarrollo involucró a clínicos, investigadores y organizaciones de salud mental como la Asociación Estadounidense de Psicología. OpenAI enfatiza que la nueva herramienta no reemplaza las líneas de ayuda de crisis, los servicios de emergencia o la atención profesional; el chatbot continúa dirigiendo a los usuarios a esos recursos cuando es necesario.

Los usuarios retienen el control total sobre la función. Pueden eliminar o reemplazar su Contacto de Confianza en cualquier momento, y los contactos pueden optar por salir ellos mismos. Al dar a los usuarios una forma de involucrar a una persona de confianza, OpenAI espera mitigar los límites de la conversación impulsada por IA al tratar con cuestiones profundamente personales.

Los observadores de la industria señalan que la adición refleja una tendencia creciente entre los proveedores de IA para incorporar salvaguardas de humano en el bucle. A medida que los chatbots de IA se vuelven más arraigados en la vida diaria, las plataformas están bajo presión para abordar los posibles daños sin comprometer la privacidad del usuario. El enfoque de OpenAI - que combina la detección algorítmica, la revisión humana rápida y el intercambio mínimo de datos - ofrece un modelo que equilibra la seguridad con la confidencialidad.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: