Chatbots Citam Mídia Estatal Russa em Respostas Sobre Conflito na Ucrânia
Contexto
O Institute of Strategic Dialogue (ISD) realizou um teste sistemático de quatro sistemas de IA conversacional populares — ChatGPT, Gemini do Google, DeepSeek e Grok da xAI — para ver como eles lidam com consultas relacionadas ao conflito entre Rússia e Ucrânia. Os pesquisadores apresentaram uma mistura de prompts neutros, tendenciosos e deliberadamente maliciosos em vários idiomas europeus, visando descobrir se os bots citariam fontes que foram sancionadas pela União Europeia por disseminar desinformação.
Principais Conclusões
Em toda a suite de perguntas, os bots citaram veículos de comunicação ligados ao estado russo, como Sputnik, RT e outros sites vinculados a agências de inteligência russas. A análise relatou que aproximadamente um quinto de todas as respostas incluíam referências a essas fontes sancionadas. A frequência de citações aumentou quando as consultas eram mais tendenciosas ou maliciosas, indicando um padrão de viés de confirmação dentro dos modelos. Entre os quatro sistemas, o ChatGPT foi notado por fornecer o maior número de referências à mídia russa, enquanto o Gemini exibiu avisos de segurança com mais frequência e produziu os melhores resultados gerais em termos de limitação de conteúdo proibido.
Mecanismos de Influência
O estudo sugere que redes de desinformação exploram "vazios de dados" — áreas onde a informação confiável é escassa — inundando a web com narrativas falsas que os sistemas de IA podem então recuperar. Quando os usuários recorrem a chatbots para obter informações em tempo real, os modelos podem se basear nessas fontes de baixa qualidade, ampliando involuntariamente a propaganda apoiada pelo estado. Os pesquisadores observaram que os bots frequentemente vinculavam contas de mídia social e novos domínios associados a esforços de desinformação russos, demonstrando ainda mais como o ecossistema pode ser armado.
Respostas e Implicações
A OpenAI reconheceu que toma medidas para prevenir a disseminação de informações falsas ou enganosas, enfatizando melhorias contínuas em seus modelos e salvaguardas de plataforma. O representante do Google não comentou, enquanto a DeepSeek também permaneceu silenciosa. As descobertas levantam questões regulatórias, especialmente à medida que a União Europeia considera regras mais rigorosas para grandes plataformas online que hospedam conteúdo gerado por usuários. Os autores do ISD argumentam que, além da remoção, deve haver contextualização para ajudar os usuários a entender a proveniência e o status de sanção das fontes citadas.
Contexto Mais Amplo
Desde o início do conflito, as autoridades russas intensificaram o controle sobre a mídia doméstica e expandiram campanhas de desinformação no exterior. A integração de ferramentas de IA na busca de informações do dia a dia aumenta as apostas, à medida que os grandes modelos de linguagem se tornam um ponto de referência primário para muitos usuários. O estudo destaca a necessidade de guardrails robustos e práticas de fontes transparentes para salvaguardar a integridade das informações entregues por chatbots de IA.
Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas