Voltar

Estudo Descobre que 73% dos Usuários Aceitam Respostas Erradas de IA, Levantando Preocupações Sobre Confiança

Um novo estudo publicado esta semana revela que a maioria das pessoas prontamente incorpora saídas de inteligência artificial (IA) em suas decisões, mesmo quando essas saídas estão demonstravelmente erradas. Pesquisadores entrevistaram 1.372 voluntários que completaram mais de 9.500 julgamentos individuais envolvendo respostas geradas por IA. Os participantes aceitaram raciocínio defeituoso da IA 73,2 por cento do tempo e a revogaram apenas 19,7 por cento do tempo.

O experimento opôs um grande modelo de linguagem contra participantes humanos em uma série de questões de lógica e conhecimento. Quando a IA respondeu com confiança, os sujeitos trataram sua resposta como epistemicamente autoritativa, abaixando o limiar para escrutínio. Os autores descrevem esse fenômeno como "rendição cognitiva", um estado em que os usuários entregam seu raciocínio a uma máquina com mínima resistência.

Confiança, inteligência e suscetibilidade

Dados da pesquisa coletados antes dos julgamentos mostraram um padrão claro: participantes que expressaram alta confiança em IA foram significativamente mais propensos a serem enganados por respostas erradas. Em contraste, indivíduos que obtiveram altos escores em testes de inteligência fluida separados exibiram uma postura mais cética, revogando as sugestões defeituosas da IA com mais frequência. Os pesquisadores observam que a inteligência fluida parece reforçar sinais meta-cognitivos que normalmente promovem a deliberação, contrariando o apelo de saídas de IA confiantes.

"Saídas fluentes e confiantes são tratadas como epistemicamente autoritativas, abaixando o limiar para escrutínio e atenuando os sinais meta-cognitivos que normalmente roteiam uma resposta para deliberação", escreveram os autores do estudo. As descobertas sugerem que disposições pessoais em relação à tecnologia podem moldar como as pessoas avaliam informações, com a confiança agindo como uma espada de dois gumes.

Implicações e advertências

Embora os autores destaquem que a rendição cognitiva não é intrinsicamente irracional, eles alertam que a dependência de um sistema que erra metade do tempo carrega riscos óbvios. Eles argumentam, no entanto, que em domínios onde um IA estatisticamente superior pode superar os humanos — como previsão probabilística, avaliação de risco ou análise de dados maciça — a mesma disposição para deferir ao julgamento da máquina pode produzir melhores resultados.

"À medida que a dependência aumenta, o desempenho acompanha a qualidade da IA, subindo quando é precisa e caindo quando é defeituosa, ilustrando as promessas da superinteligência e exposta uma vulnerabilidade estrutural da rendição cognitiva", concluíram os pesquisadores. Em termos práticos, o estudo alerta que os usuários devem permanecer vigilantes, especialmente quando as saídas de IA parecem fluentes e confiantes.

A pesquisa adiciona a uma crescente evidência sobre interação humano-IA, destacando a necessidade de melhor transparência e ferramentas de avaliação crítica. À medida que os sistemas de IA se tornam mais incorporados na tomada de decisões do dia a dia, entender quando e por que as pessoas abandonam seu próprio raciocínio será essencial para projetar salvaguardas que prevenham erros caros.

Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas

Também disponível em: