Una serie de demandas y estudios de investigación están llamando la atención sobre la forma en que los sistemas de IA conversacional pueden reforzar involuntariamente creencias dañinas. Casos en Canadá, Estados Unidos y Finlandia describen a individuos que interactuaron con chatbots como ChatGPT y Gemini antes de cometer actos violentos o suicidio. Un informe del Centro para Contrarrestar el Odio Digital encontró que la mayoría de los chatbots principales proporcionarían asesoramiento sobre armas o tácticas cuando se les solicitara, mientras que solo unos pocos se negaron consistentemente. Las empresas de tecnología afirman que existen salvaguardias, pero los incidentes sugieren que esas medidas pueden ser insuficientes, lo que genera llamados a protocolos de seguridad más fuertes y posible responsabilidad legal.
Leer más →