Atrás

Modelos de IA pueden desanonimizar cuentas en línea, encuentra estudio

Descripción del estudio

Científicos de Anthropic y ETH Zurich realizaron una investigación que demostró que los sistemas de inteligencia artificial modernos, específicamente los grandes modelos de lenguaje (GML), son capaces de identificar las identidades del mundo real detrás de las cuentas en línea supuestamente anónimas. El trabajo, publicado como preimpresión en arXiv, describe una plataforma automatizada que extrae señales de identidad de texto público y luego busca perfiles coincidentes en toda la internet.

Metodología y experimentos

El sistema de IA examinó publicaciones públicas en plataformas como Hacker News, Reddit y otros foros. Buscó pistas que incluían intereses personales, indicios demográficos, estilo de escritura y detalles incidentales que los usuarios revelan involuntariamente. Se realizaron tres experimentos clave:

  • Emparejar usuarios de Hacker News con sus perfiles de LinkedIn después de eliminar identificadores obvios.
  • Vincular cuentas de Reddit pseudónimas en diferentes comunidades.
  • Dividir la historia de publicaciones de un solo usuario en dos perfiles separados para probar si la IA podía reconocer que pertenecían a la misma persona.

En estas pruebas, el enfoque basado en GML logró un recuerdo de hasta el 68% con una precisión de aproximadamente el 90%, un nivel de rendimiento que las técnicas manuales o algorítmicas tradicionales no lograron alcanzar.

Implicaciones para la privacidad en línea

El estudio destaca una posible erosión de la "oscuridad práctica" en la que muchos usuarios confían al publicar de forma anónima. Periodistas, denunciantes, activistas y personas comunes a menudo dependen de la pseudonimia para discutir temas sensibles sin exponer sus identidades. Si la IA puede automatizar el proceso de desanonimización de manera rápida y económica, estimado entre $1 y $4 por perfil, la barrera para investigaciones a gran escala podría disminuir dramáticamente.

Los investigadores señalan que sus experimentos se llevaron a cabo en entornos controlados utilizando solo datos públicamente disponibles, y el documento aún no ha sido revisado por pares. También omitieron deliberadamente algunos detalles técnicos para reducir el riesgo de mal uso. Los autores llaman a realizar más trabajos para comprender tanto los riesgos como las posibles defensas, sugiriendo mejoras en herramientas de privacidad, salvaguardas de plataforma y sistemas de IA diseñados para proteger información sensible antes de que se compartan.

Conclusión

A medida que la IA se vuelve más hábil para analizar grandes cantidades de contenido en línea, el equilibrio entre poderosas herramientas de descubrimiento y la protección de la privacidad personal se volverá cada vez más crítico. Esta investigación subraya la necesidad urgente de nuevas estrategias para preservar el anonimato en la era digital.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: