Atrás

Sistema de IA muestra capacidad para reidentificar cuentas en línea anónimas

Nuevo enfoque de IA para la desanonimización

Científicos de ETH Zurich, Anthropic y el programa de becarios de Alineación y Teoría de Aprendizaje Automático desarrollaron un sistema automatizado que utiliza modelos de lenguaje grande para identificar a los propietarios de cuentas en línea anónimas. El sistema trata cada publicación o texto como una colección de pistas — rarezas de escritura, pistas biográficas, frecuencia y momento de publicación — y busca patrones coincidentes en conjuntos de datos masivos.

Rendimiento en comparación con métodos tradicionales

Al probar con conjuntos de datos públicamente disponibles, incluyendo publicaciones de Hacker News, LinkedIn y Reddit, el enfoque impulsado por la IA identificó correctamente hasta el 68 por ciento de las cuentas coincidentes mientras mantenía una precisión del 90 por ciento. Por el contrario, las técnicas no LLM comparables identificaron casi none de las coincidencias. Las tasas de éxito aumentaron cuando estaba disponible más información estructurada; por ejemplo, vincular a los usuarios de Reddit que mencionaron diez o más películas tuvo éxito casi la mitad de las veces, mientras que vincular a aquellos que mencionaron solo una película tuvo éxito alrededor del 3 por ciento de las veces.

Costo y accesibilidad

Los investigadores informaron que todo el experimento costó menos de $2,000, lo que se traduce en entre $1 y $4 por perfil analizado. Este bajo costo reduce dramáticamente la barrera para que las entidades deseen realizar una desanonimización a gran escala.

Implicaciones para la privacidad y la seguridad

Los hallazgos sugieren que la suposición de seguridad detrás de la publicación pseudónima puede ser cada vez más poco confiable. Aunque el estudio se llevó a cabo en condiciones controladas con conjuntos de datos curados, los investigadores advierten que las aplicaciones del mundo real podrían volverse más efectivas a medida que los modelos de IA mejoran y acceden a piscinas de datos más grandes. Recomiendan que los usuarios limiten los detalles personales, eviten patrones de publicación identificables y mantengan cuentas separadas para mitigar el riesgo.

Llamadas a salvaguardias

Los autores argumentan que la responsabilidad no debe recaer únicamente en los usuarios. Sugieren que los desarrolladores de IA monitoren cómo se utilizan sus herramientas y que las plataformas de redes sociales frenen la extracción masiva de datos que permite tales esfuerzos de desanonimización. A pesar de los avances, los investigadores señalan que las técnicas actuales aún están lejos de las capacidades de un investigador humano experto, y que la anonimidad para objetivos de alto perfil — como el creador de Bitcoin — permanece intacta.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: