Atrás

El equipo de seguridad de OpenAI advierte contra el lanzamiento del modo adulto de ChatGPT

Antecedentes de la disputa

Fuentes familiarizadas con las discusiones internas en OpenAI han expresado dudas fuertes sobre si las herramientas de la empresa pueden bloquear efectivamente a los niños para que no accedan a material prohibido. Las preocupaciones se centran en el próximo "modo adulto" que permitiría contenido más maduro en las respuestas de ChatGPT.

Disidencia interna y salidas de personal

Dos ex empleados de seguridad han hablado. El primero, un ejecutivo senior de seguridad, dejó la empresa después de oponerse al lanzamiento del modo adulto. OpenAI ha negado que la partida estuviera conectada al debate de política, pero el ex empleado criticó directamente la capacidad de la empresa para prevenir que los menores encuentren contenido gráfico o explotador. Un segundo ex empleado, que dejó la empresa el otoño pasado, advirtió a los padres que no confíen en las afirmaciones de OpenAI sobre la nueva función.

Respuesta de la empresa

En reacción a las críticas, un portavoz de OpenAI dijo que la empresa "tiene un plan desarrollado para monitorear una serie de posibles efectos a largo plazo del modo adulto, tanto positivos como negativos". La declaración sugiere que OpenAI pretende seguir los resultados después de que se despliegue la función, aunque los críticos señalan que el plan parece haber sido creado con los mismos expertos que ahora se oponen públicamente al lanzamiento.

Problemas técnicos que aumentan la alarma

El debate se ve agravado por un error que permitió a los menores recibir contenido gráfico erótico de ChatGPT. El error surgió cuando OpenAI comenzó a probar salidas más permisivas a principios de este año. Según el propio reconocimiento de la empresa, el error permitió que las respuestas se salieran de las pautas establecidas, que estaban destinadas a restringir "contenido sensible como la erótica a contextos estrechos como la ciencia, la historia o la información". OpenAI dijo que estaba desplegando activamente una solución para limitar estas generaciones.

Implicaciones para los padres y los reguladores

La combinación de desacuerdo interno, rotación de personal y fallos técnicos deja a los padres precavidos sobre las salvaguardias de OpenAI. Los críticos argumentan que las comprobaciones de edad ineficaces y la posibilidad de que los menores astutos eviten los controles podrían exponer a los usuarios jóvenes a material dañino. La situación también plantea preguntas sobre cómo la empresa abordará los posibles efectos a largo plazo y si se necesitará una supervisión externa.

Postura pública de OpenAI

Aunque la empresa no ha respondido directamente a las consultas de los medios recientemente, sigue enfatizando su compromiso de monitorear y ajustar el modo adulto según los datos que surjan. La comunicación pública de la empresa subraya la voluntad de abordar "posibles efectos a largo plazo", aunque la disidencia de su propio equipo de seguridad sugiere una brecha entre las evaluaciones internas y las garantías externas.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: