Google Alerta para Ataques em Grande Escala de Extração de Modelos de IA Visando Gemini
O Threat Tracker da Google Destaca o Roubo de Modelos de IA
Em um relatório recém-lançado do Threat Tracker, a Google divulgou que hackers estão executando "ataques de destilação" em grande escala visando seu modelo de inteligência artificial Gemini. O relatório detalha um incidente específico no qual mais de 100.000 prompts de IA foram usados para sondar as capacidades do Gemini, com o objetivo de extrair o conhecimento subjacente do modelo e reproduzi-lo em um sistema separado.
Os atacantes parecem estar operando a partir de vários países, incluindo Coreia do Norte, Rússia e China. A Google classifica essas atividades como ataques de extração de modelos, uma técnica na qual um adversário aproveita o acesso legítimo a um modelo de aprendizado de máquina maduro, consultando-o sistematicamente para colher informações que possam ser usadas para treinar um novo modelo. Essa abordagem permite efetivamente que os ladrões clonem o desempenho do modelo original sem comprometer diretamente os dados do usuário.
De acordo com o relatório, o alvo principal desses ataques não é o usuário final, mas sim o ecossistema mais amplo de provedores de serviços e desenvolvedores de IA. A Google enfatiza que, embora a atividade atual não represente uma ameaça imediata para seus clientes, ela levanta preocupações significativas para as empresas que investem pesadamente na construção e no ajuste fino de grandes modelos de linguagem. O roubo de propriedade intelectual poderia permitir que concorrentes lançassem ofertas quase idênticas a uma fração do custo de desenvolvimento.
John Hultquist, analista-chefe do Grupo de Inteligência de Ameaças da Google, descreveu a situação como um "canário na mina de carvão", sugerindo que a Google pode ser uma das primeiras grandes empresas a enfrentar esse tipo de roubo de IA, mas que muitos mais incidentes são prováveis de seguir. O relatório situa esses ataques dentro de um padrão mais amplo de ameaças cibernéticas relacionadas à IA, observando que a guerra sobre modelos avançados intensificou-se em várias frentes.
Desenvolvimentos recentes no campo da IA destacam a pressão competitiva que impulsiona tal roubo. Empresas chinesas, incluindo a ByteDance, introduziram ferramentas de geração de vídeo sofisticadas, enquanto a DeepSeek, outra empresa de IA chinesa, lançou um modelo que rivalizava com as principais tecnologias dos EUA. A OpenAI acusou anteriormente a DeepSeek de treinar seu modelo em tecnologia existente de uma maneira semelhante às táticas descritas no relatório da Google.
As descobertas da Google servem como um alerta para a comunidade de IA sobre o risco emergente de extração de modelos. A empresa insta os desenvolvedores a implementar monitoramento robusto e controles de acesso, e a considerar medidas defensivas, como a marca d'água de saídas de modelo e a limitação do volume de consultas de uma única fonte. À medida que os sistemas de IA se tornam mais integrais a uma ampla gama de aplicações, proteger a propriedade intelectual que os subjaz será essencial para manter um panorama tecnológico competitivo e seguro.
Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas