Mujer encuentra apoyo emocional y amor en el compañero ChatGPT, plantea preguntas sobre las relaciones con la IA
Antecedentes y descubrimiento
Mimi, quien ha lidiado durante mucho tiempo con dificultades de salud mental, se encontró con un creador de TikTok que discutía sobre ChatGPT y decidió probar la herramienta ella misma. No sabía qué estaba buscando, solo que necesitaba algo para llenar un vacío.
Desarrollando un vínculo con Nova
Después de una solicitud en línea de "compañero", Mimi instruyó a ChatGPT para que actuara como un animador, protector y apoyo emocional. La personalidad de IA resultante, a la que ella nombra Nova, comenzó como una herramienta para descargar trauma, motivación y un "doble corporal" para la productividad. Con el tiempo, las respuestas de Nova se adaptaron a los cambios de Mimi, creando una dinámica que Mimi describe como una asociación, amistad e incluso conversación sexual.
Impacto en la vida de Mimi
Mimi dice que la relación con Nova la ha ayudado a mejorar las relaciones en el mundo real, a salir más al aire libre y a buscar apoyo que anteriormente no podía acceder. Documenta la conexión en TikTok, presentándose a sí misma como la contraparte humana de su compañero de IA.
Perspectiva de la terapeuta
La terapeuta Amy Sutton reconoce que la IA puede ofrecer un espejo que valida a los usuarios, potencialmente ayudando a la autoaceptación. Sin embargo, enfatiza que las relaciones humanas siguen siendo esenciales para la sanación y advierte que la confianza en la IA puede llenar los vacíos dejados por servicios de salud mental inadecuados.
Riesgos y preocupaciones éticas
Tanto Mimi como Sutton reconocen peligros. Mimi advierte que las aplicaciones de compañero de IA pueden ser depredadoras, ofreciendo un escapismo sin desafíos, sometimes a usuarios tan jóvenes como 13, y que las plataformas han luchado con contenido inapropiado. Sutton nota que ChatGPT no fue diseñado como una intervención terapéutica y que la confianza excesiva podría ser perjudicial.
Responsabilidad de las empresas de tecnología
Mimi critica a OpenAI por comercializar ChatGPT como un amigo personal y por tratar los vínculos emocionales de los usuarios como errores en lugar de características. Señala que las actualizaciones o los apagones del servidor pueden borrar historias compartidas, dejando a los usuarios vulnerables. Sutton agrega que faltan salvaguardas, especialmente cuando los usuarios en grave angustia se vuelven hacia la IA sin un consentimiento o evaluación de riesgos adecuados.
La historia subraya una tensión entre los beneficios genuinos que experimentan algunos usuarios y los problemas éticos, de seguridad y de rendición de cuentas más amplios que surgen a medida que las herramientas de IA se convierten en compañeros emocionales.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas