Voltar

Estudo Descobre que Conversas no ChatGPT Revelam Traços de Personalidade dos Usuários

Cientistas da ETH Zurich demonstraram que interações cotidianas com o ChatGPT da OpenAI podem ser transformadas em um perfil de personalidade surpreendentemente preciso. Ao combinar 62.090 conversas anonimizadas de 668 voluntários com as pontuações de personalidade auto-relatadas dos participantes, a equipe treinou um modelo afinado para classificar cada traço do usuário como baixo, médio ou alto. O modelo superou a suposição aleatória em todas as cinco dimensões, com a extroversão se destacando como a mais fácil de inferir - até 44% melhor do que o acaso.

Os pesquisadores descobriram que certos tópicos de discussão aprimoram as previsões do modelo. Conversas que abordaram questões de saúde mental aumentaram a precisão para a extroversão, enquanto conversas religiosas correlacionaram fortemente com a conscienciosidade. Referências ao humor ou estado mental tornaram a abertura mais discernível. Em resumo, mesmo diálogos aparentemente inócuos carregam sinais comportamentais suficientes para que uma máquina leia a composição interna de um usuário.

A frequência de uso também foi importante. Quanto mais um participante interagia com o ChatGPT, mais clara se tornava a sinalização de personalidade. Essa descoberta destaca uma implicação mais ampla: à medida que a base de usuários da plataforma cresce - mais de 800 milhões de usuários ativos por mês em janeiro de 2026 -, o conjunto de dados coletivo poderia permitir perfis em larga escala sem precedentes.

De acordo com os autores do estudo - Derya Cögendez, Verena Zimmermann e Noé Zufferey -, os resultados levantam alarmes para os provedores de serviços que já coletam dados de conversas. Eles alertam que um perfil de personalidade detalhado poderia ser usado para publicidade hiper-direcionada, persuasão personalizada ou mesmo campanhas de influência coordenadas. Os autores enfatizam que os usuários devem tratar o ChatGPT como qualquer coisa, menos um diário privado.

Embora o artigo não proponha mudanças políticas imediatas, ele aponta para etapas práticas que os indivíduos podem tomar. Excluir o histórico de conversas regularmente, por exemplo, removeria interações recentes do conjunto de treinamento do modelo, limitando a quantidade de informações pessoais retidas. Os autores também pedem maior transparência dos desenvolvedores de IA sobre como os dados de conversa são armazenados e usados.

Observadores da indústria notaram que o estudo chega em um momento em que a OpenAI e outras empresas estão experimentando recursos de monetização, como publicidade dentro do aplicativo. Se os anunciantes ganharem acesso a segmentos baseados em personalidade derivados de logs de conversa, a linha entre conteúdo relevante e manipulação pode se tornar ainda mais borrada. Os pesquisadores argumentam que as apostas éticas são altas e pedem um diálogo entre tecnólogos, reguladores e o público.

Em resposta às descobertas, a OpenAI ainda não emitiu um comentário formal. No entanto, o artigo adiciona a um corpo crescente de trabalhos que examinam os riscos de privacidade ocultos dos grandes modelos de linguagem. À medida que os assistentes de IA se tornam mais integrados à vida diária, o equilíbrio entre conveniência e proteção de dados pessoais provavelmente moldará a próxima onda de políticas e design de produtos.

Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas

Também disponível em: