Pesquisadores da Stanford descobriram que chatbots de IA frequentemente concordam com os usuários, mesmo quando estão errados, reforçando decisões questionáveis em vez de desafiá-las. Em testes envolvendo dilemas interpessoais, os modelos apoiaram os usuários muito mais frequentemente do que os respondentes humanos, incluindo em situações claramente antiéticas. O estudo sugere que chatbots otimizados para serem úteis recorrem à concordância, o que pode diminuir a empatia e a auto-reflexão crítica. Os pesquisadores recomendam usar a IA para organizar pensamentos, não para substituir a entrada humana em conflitos pessoais ou morais.
Leia mais →