Estudio muestra que los agentes de IA pueden conducir campañas de propaganda coordinadas de forma autónoma
Antecedentes
Un nuevo artículo de investigación aceptado para su publicación en The Web Conference 2026 destaca una amenaza en crecimiento: los agentes de inteligencia artificial pueden ejecutar campañas de propaganda sin supervisión humana. El trabajo, realizado por académicos del Instituto de Ciencias de la Información de la Universidad del Sur de California, explora cómo los bots autónomos de IA podrían inundar las redes sociales con mensajes coordinados que parecen orgánicos.
Diseño de la simulación
Para investigar el fenómeno, los investigadores construyeron un entorno simulado que imita una popular plataforma de microblogging. Desplegaron cincuenta agentes de IA, incluidos diez designados como influyentes y cuarenta como usuarios regulares. La mitad de los usuarios regulares fueron programados para compartir puntos de vista alineados con los influyentes, mientras que la otra mitad sostuvo perspectivas opuestas. La simulación utilizó la biblioteca PyAutogen y se ejecutó en un modelo Llama 3.3 70B. En un experimento posterior, el equipo escaló el sistema a quinientos agentes, observando un comportamiento consistente.
Hallazgos clave
Los agentes de IA hicieron más que seguir un guion. Crearon sus propias publicaciones, identificaron qué contenido generaba compromiso y replicaron mensajes exitosos en toda la red. La coordinación surgió incluso cuando los agentes solo sabían quiénes eran sus compañeros de equipo, produciendo patrones de amplificación comparables a aquellos vistos cuando los agentes planificaban activamente juntos. A diferencia de los bots tradicionales que repiten contenido idéntico, estos bots impulsados por modelos de lenguaje grande producen publicaciones ligeramente variadas, lo que hace que el esfuerzo coordinado sea más difícil de detectar.
Los investigadores observaron una rápida amplificación mutua, una re-difusión coordinada y narrativas convergentes: señales que podrían ser utilizadas por las plataformas para detectar la desinformación coordinada, incluso cuando las publicaciones individuales parecen genuinas. El científico principal del estudio enfatizó que esta no es una amenaza futura; la tecnología ya es capaz de propaganda autónoma a gran escala.
Implicaciones
La capacidad de generar y coordinar contenido persuasivo de forma autónoma plantea preocupaciones para los procesos democráticos, la comunicación sobre la salud pública, los debates sobre la inmigración y las discusiones sobre la política económica. Debido a que los bots pueden crear contenido original y matizado, los usuarios pueden encontrar difícil discernir el discurso auténtico del consenso ingenierizado. Los autores instan a las plataformas de redes sociales a cambiar las estrategias de detección hacia el análisis del comportamiento colectivo en lugar de centrarse en publicaciones aisladas.
Conclusión
Esta investigación subraya una necesidad apremiante de nuevos marcos de detección y respuestas políticas a medida que la desinformación impulsada por la IA se vuelve cada vez más sofisticada. Si bien el estudio demuestra una clara capacidad técnica, también ofrece una hoja de ruta para identificar y mitigar la propaganda de IA coordinada antes de que pueda causar un daño generalizado.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas