Pesquisadores Revelam Roubo de Modelo de IA por meio de Emissões Eletromagnéticas
Nova Ameaça Física para Modelos de IA
Uma equipe de pesquisa liderada por cientistas da KAIST descobriu uma nova maneira de roubar modelos de inteligência artificial sem violar um sistema computacional. O método depende da captura de sinais eletromagnéticos minúsculos que as GPUs emitem enquanto processam cargas de trabalho de IA. Analisando essas emissões, a equipe conseguiu inferir a estrutura interna do modelo, incluindo configurações de camadas e escolhas de parâmetros.
Como o ModelSpy Funciona
Os pesquisadores construíram um dispositivo que chamaram de ModelSpy, que consiste em uma pequena antena que pode ser escondida dentro de uma bolsa. A antena capta traços eletromagnéticos fracos produzidos pela GPU enquanto executa cálculos. Esses traços são sutis, mas seguem padrões que correspondem à arquitetura da rede neural em execução. A equipe coletou dados de vários tipos de GPU e demonstrou que a antena poderia operar a uma distância de até seis metros, mesmo através de paredes.
Precisão e Escopo da Extração
Ao processar os sinais capturados, os pesquisadores conseguiram reconstruir detalhes-chave do design do modelo de IA. Testes mostraram que estruturas centrais poderiam ser identificadas com até 97,6 por cento de precisão. A abordagem não requer contato físico com o sistema-alvo, nem depende de exploits de software tradicionais ou acesso à rede. Em vez disso, trata a computação em si como um canal lateral que inadvertidamente revela informações sensíveis.
Implicações para a Indústria
Os resultados levantam preocupações de segurança imediatas para organizações que dependem de modelos de IA como ativos proprietários. Muitas empresas consideram a arquitetura de seus modelos como propriedade intelectual central, e a capacidade de extrair essa informação remotamente poderia representar um risco comercial direto. Defesas existentes que se concentram no endurecimento de software ou segmentação de rede podem ser insuficientes porque a vulnerabilidade origina-se de emissões de hardware.
Contra-Medidas Potenciais
Os autores do estudo também sugeriram maneiras de mitigar o risco. Adicionar ruído eletromagnético ao ambiente e ajustar como os cálculos são agendados pode tornar os padrões emitidos mais difíceis de interpretar. Essas recomendações apontam para uma mudança mais ampla na segurança de IA, onde ajustes de nível de hardware se tornam tão importantes quanto atualizações de software.
Reconhecimento e Perspectiva Futura
A pesquisa foi apresentada no Simpósio NDSS, sinalizando que a comunidade de segurança leva a ameaça a sério. À medida que os sistemas de IA se tornam mais disseminados, a possibilidade de ataques de canal lateral, como o ModelSpy, pode crescer, enfatizando a necessidade de estratégias de proteção abrangentes que abordem tanto aspectos digitais quanto físicos da computação.
Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas