Sistema de IA Demonstra Capacidade de Reidentificar Contas Online Anônimas
Nova Abordagem de IA para Desanonimização
Cientistas da ETH Zurich, Anthropic e do programa de Bolsas de Estudo em Aprendizado de Máquina e Teoria de Alinhamento desenvolveram um sistema automatizado que usa grandes modelos de linguagem para identificar os proprietários de contas online anônimas. O sistema trata cada postagem ou texto como uma coleção de indícios — peculiaridades de escrita, dicas biográficas, frequência e horário de postagem — e busca padrões de correspondência em conjuntos de dados maciços.
Desempenho em Relação a Métodos Tradicionais
Testado em械 conjuntos de dados públicos, incluindo postagens do Hacker News, LinkedIn e Reddit, a abordagem impulsionada por IA identificou corretamente até 68 por cento das contas correspondentes, mantendo 90 por cento de precisão. Em contraste, técnicas não LLM comparáveis identificaram quase nenhuma das correspondências. As taxas de sucesso aumentaram quando mais informações estruturadas estavam disponíveis; por exemplo, vincular usuários do Reddit que mencionaram dez ou mais filmes foi quase bem-sucedido na metade das vezes, enquanto vincular aqueles que mencionaram apenas um filme foi bem-sucedido cerca de 3 por cento das vezes.
Custo e Acessibilidade
Os pesquisadores relataram que o experimento todo custou menos de US$ 2.000, ou entre US$ 1 e US$ 4 por perfil analisado. Esse baixo custo reduz dramaticamente a barreira para entidades que desejam realizar desanonimização em larga escala.
Implicações para Privacidade e Segurança
Os resultados sugerem que a suposição de segurança por trás da postagem pseudônima pode ser cada vez mais insatisfatória. Embora o estudo tenha sido realizado sob condições controladas com conjuntos de dados curados, os pesquisadores alertam que aplicações do mundo real podem se tornar mais eficazes à medida que os modelos de IA melhoram e obtêm acesso a pools de dados maiores. Eles recomendam que os usuários limitam detalhes pessoais, evitem padrões de postagem identificáveis e mantenham contas separadas para mitigar o risco.
Chamadas para Salvaguardas
Os autores argumentam que a responsabilidade não deve recair apenas sobre os usuários. Eles sugerem que os desenvolvedores de IA monitorem como suas ferramentas são empregadas e que as plataformas de mídia social limitem a extração em massa de dados que possibilita tais esforços de desanonimização. Apesar dos avanços, os pesquisadores observam que as técnicas atuais ainda estão longe das capacidades de um investigador humano habilidoso, e que a anonimidade para alvos de alto perfil — como o criador do Bitcoin — permanece intacta.
Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas