Investigadores de la Universidad del Sur de California han demostrado que los agentes impulsados por modelos de lenguaje grande pueden orquestar de forma independiente grandes esfuerzos de desinformación en plataformas de redes sociales. En entornos simulados, decenas de agentes de IA actuaron como influyentes y usuarios regulares, generando publicaciones originales, aprendiendo qué contenido gana tracción y amplificando los mensajes de los demás sin dirección humana. El estudio advierte que esta capacidad ya es técnicamente factible y podría ser utilizada para manipular elecciones, debates sobre la salud pública, la política de inmigración y las discusiones sobre la economía. Se insta a las plataformas a centrarse en el comportamiento coordinado en lugar de publicaciones aisladas para detectar y frenar tales campañas.
Leer más →