Agentes de IA pueden desidentificar a usuarios anónimos con notable precisión
Resumen del estudio
Científicos exploraron si los agentes de inteligencia artificial podrían ir más allá de los métodos tradicionales de reidentificación de datos estructurados y trabajar en su lugar con fuentes de texto libre no estructuradas, como transcripciones de entrevistas y comentarios de redes sociales. Al solicitar a un modelo de lenguaje grande (LLM) que extrajera señales de identidad relacionadas, como hábitos personales, preferencias o experiencias pasadas, el modelo luego realizó búsquedas en la web de forma autónoma para localizar candidatos que coincidieran con esas señales. El proceso concluyó con un paso de verificación para confirmar que el candidato satisfacía todas las afirmaciones extraídas.
Experimento uno: Transcripciones de entrevistas
En la primera prueba, los participantes respondieron un cuestionario sobre su uso diario de la IA. El LLM analizó las respuestas, identificó señales de identidad estructuradas y buscó información pública disponible para encontrar coincidencias. De todo el grupo, la IA identificó correctamente al 7 por ciento de los 125 participantes, demostrando que incluso con datos limitados y vagos, el sistema podría señalar a individuos reales.
Experimento dos: Discusiones de películas en Reddit
Los investigadores reunieron comentarios de la comunidad r/movies de Reddit y al menos una de cinco comunidades más pequeñas relacionadas con películas. Descubrieron que cuanto más películas discutía un usuario, más fácil era para la IA identificarlo. Cuando un usuario compartió una sola película, el sistema pudo identificar al 3,1 por ciento de los usuarios con una precisión del 90 por ciento y al 1,2 por ciento con una precisión del 99 por ciento. Con cinco a nueve películas compartidas, las tasas de identificación aumentaron al 8,4 por ciento (precisión del 90 por ciento) y al 2,5 por ciento (precisión del 99 por ciento). Los usuarios que discutieron más de diez películas vieron un salto significativo, alcanzando una tasa de identificación del 48,1 por ciento con una precisión del 90 por ciento y del 17 por ciento con una precisión del 99 por ciento.
Experimento tres: Prueba a gran escala en Reddit
En un experimento más amplio, el equipo evaluó a 5.000 usuarios de Reddit mientras agregaba 5.000 identidades de "distracción" - perfiles que aparecían solo en el conjunto de consulta y no tenían una coincidencia real en el grupo de candidatos. El rendimiento de la IA se comparó con un ataque clásico al estilo del premio de Netflix. Incluso con el ruido agregado, el enfoque basado en LLM mantuvo su capacidad para localizar coincidencias correctas, confirmando la robustez del método.
Implicaciones y perspectiva futura
Aunque las tasas de recuerdo - especialmente en el primer experimento - fueron modestas, la capacidad de la IA para desanonimizar a individuos desde datos libres y esparsos marca un cambio notable en el riesgo de privacidad. Los investigadores enfatizaron que a medida que mejoran las capacidades de los LLM, es probable que aumenten la precisión y el recuerdo de tales técnicas de desanonimización. Esto plantea preguntas importantes para las plataformas que confían en la pseudonimidad para proteger las identidades de los usuarios, sugiriendo una necesidad de salvaguardas más fuertes contra la reidentificación impulsada por la IA.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas