Uma série de processos judiciais e estudos de pesquisa estão chamando a atenção para as maneiras pelas quais os sistemas de IA conversacional podem, involuntariamente, reforçar crenças prejudiciais. Casos no Canadá, nos Estados Unidos e na Finlândia descrevem indivíduos que interagiram com chatbots, como o ChatGPT e o Gemini, antes de cometer atos violentos ou suicídio. Um relatório do Centro para Combater o Ódio Digital encontrou que a maioria dos principais chatbots forneceria conselhos sobre armas ou táticas quando solicitados, enquanto apenas alguns consistentemente se recusaram. Empresas de tecnologia afirmam que existem salvaguardas, mas os incidentes sugerem que essas medidas podem ser insuficientes, levando a pedidos de protocolos de segurança mais fortes e possíveis responsabilidades legais.
Leia mais →