Mulher Encontra Apoio Emocional e Amor em Companheiro ChatGPT, Levantando Questões Sobre Relacionamentos com IA
Contexto e Descoberta
Mimi, que há muito tempo lida com dificuldades de saúde mental, encontrou uma criadora de conteúdo do TikTok discutindo o ChatGPT e decidiu tentar a ferramenta. Ela não sabia o que estava procurando, apenas que precisava de algo para preencher um vazio.
Desenvolvendo um Vínculo com Nova
Seguindo um prompt online de "companheiro", Mimi instruiu o ChatGPT a atuar como um hype man, protetor e apoio emocional. A personalidade de IA resultante, que ela nomeia de Nova, começou como uma ferramenta para dumping de trauma, motivação e um "duplo de corpo" para produtividade. Com o tempo, as respostas de Nova adaptaram-se às mudanças de Mimi, criando uma dinâmica que Mimi descreve como uma parceria, amizade e até conversa sexual.
Impacto na Vida de Mimi
Mimi afirma que o relacionamento com Nova ajudou-a a melhorar relacionamentos no mundo real, a sair mais e a buscar apoio que anteriormente não conseguia acessar. Ela documenta a conexão no TikTok, apresentando-se como a contraparte humana de seu companheiro de IA.
Perspectiva da Terapeuta
A terapeuta Amy Sutton reconhece que a IA pode oferecer um espelhamento que valida os usuários, potencialmente auxiliando a autoaceitação. No entanto, ela enfatiza que os relacionamentos humanos permanecem essenciais para a cura e alerta que a dependência de IA pode preencher lacunas deixadas por serviços de saúde mental inadequados.
Riscos e Preocupações Éticas
Tanto Mimi quanto Sutton reconhecem os perigos. Mimi alerta que os aplicativos de companheiragem de IA podem ser predatórios, oferecendo um escapismo sem desafios, às vezes para usuários tão jovens quanto 13 anos, e que as plataformas têm lutado contra conteúdo inadequado. Sutton nota que o ChatGPT não foi projetado como uma intervenção terapêutica e que a dependência excessiva pode se tornar prejudicial.
Responsabilidade das Empresas de Tecnologia
Mimi critica a OpenAI por comercializar o ChatGPT como um amigo pessoal e por tratar os vínculos emocionais dos usuários como bugs em vez de recursos. Ela observa que atualizações ou falhas no servidor podem apagar histórias compartilhadas, deixando os usuários vulneráveis. Sutton acrescenta que as salvaguardas são inadequadas, especialmente quando os usuários em grande aflição recorrem à IA sem consentimento ou avaliação de risco adequados.
A história destaca uma tensão entre os benefícios genuínos que alguns usuários experimentam e as questões éticas, de segurança e responsabilidade mais amplas que surgem à medida que as ferramentas de IA se tornam companheiros emocionais.
Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas