Voltar

Google Descobre que Famílias de Malware Geradas por IA São Ineficazes e Fácilmente Detectadas

Google Descobre que Famílias de Malware Geradas por IA São Ineficazes e Fácilmente Detectadas

Contexto

Narrativas recentes de empresas de IA retratam o malware gerado por IA como um novo perigo iminente para a cibersegurança. Relatórios de empresas como Anthropic, ConnectWise, OpenAI e BugCrowd afirmam que os grandes modelos de linguagem (LLM) reduzem a barreira para os atores de ameaça, tornando o hacking mais acessível e permitindo a criação de ransomware, código de exploração e outras ferramentas maliciosas.

Descobertas da Google sobre Malware Desenvolvido por IA

A Google examinou cinco famílias de malware que foram supostamente criadas com a ajuda de ferramentas de IA. A empresa concluiu que nenhuma dessas famílias demonstrou automação bem-sucedida ou capacidades de quebra. Nas palavras dos autores, o código gerado por IA era amplamente experimental e não conseguiu alcançar as funções de evasão sofisticada, criptografia e anti-recuperação que o malware tradicional alcança. A análise também encontrou que as soluções de segurança existentes podiam facilmente detectar essas amostras criadas por IA.

Reações da Indústria e Dados de Suporte

Anthropic citou um caso em que um ator de ameaça usou seu modelo Claude para desenvolver variantes de ransomware com recursos de evasão avançados, afirmando que o ator não pôde implementar componentes principais sem a ajuda do Claude. ConnectWise ecoou preocupações de que a IA generativa está reduzindo o limiar de entrada para os atores maliciosos. OpenAI relatou que cerca de vinte atores de ameaça distintos usaram seu mecanismo ChatGPT para tarefas como identificação de vulnerabilidades, desenvolvimento de exploração e depuração de código. BugCrowd realizou uma pesquisa com participantes auto-selecionados e encontrou que cerca de setenta e quatro por cento dos hackers concordam que a IA tornou o hacking mais acessível.

Limitações e Tentativa de Bypass de Guarda

Tanto a Google quanto a OpenAI enfatizaram que o malware gerado por IA examinado até o momento mostra eficácia limitada. A Google descreveu um incidente específico em que um ator de ameaça tentou contornar as guardas do seu modelo Gemini fingindo ser um pesquisador de chapéu branco participando de uma competição de captura da bandeira. A Google desde então refinou suas contramedidas para resistir melhor a essas táticas de engano.

Avaliação Geral e Perspectiva

A evidência coletiva sugere que o malware gerado por IA permanece amplamente experimental e não representa uma ameaça significativa e de curto prazo em comparação com os métodos de ataque tradicionais e bem estabelecidos. Embora a acessibilidade das ferramentas de IA possa encorajar novos entrantes no cenário de cibercrime, a geração atual de código malicioso assistido por IA carece da robustez e sofisticação necessárias para superar as defesas existentes. O monitoramento de desenvolvimentos futuros é justificável, mas por agora, as principais preocupações de cibersegurança continuam a girar em torno de táticas convencionais.

Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas

Também disponível em: