10.000 variantes de malware criadas por IA
Pesquisadores em cibersegurança revelaram que modelos de linguagem (LLMs) podem ser usados para modificar códigos maliciosos, dificultando sua detecção por sistemas tradicionais. Embora não sejam projetados para criar malwares do zero, criminosos têm explorado essas ferramentas para reescrever e ofuscar códigos existentes. Essa estratégia torna os códigos mais naturais, escapando da identificação por ferramentas de análise.
Técnicas de Transformação de Código
De acordo com a análise da Palo Alto Networks Unit 42, os atacantes utilizam várias técnicas de modificação, como:
- Renomeação de variáveis: Alteração de nomes sem impacto na funcionalidade.
- Inserção de código inútil: Linhas extras para confundir análises.
- Reimplementação completa: Reescrita do código com mesma finalidade.
Essas transformações podem gerar até 10.000 variantes de um único malware, reduzindo a detecção de maliciosidade em ferramentas como o VirusTotal em 88% dos casos.
Ferramentas e Implicações
Produtos como o WormGPT, amplamente divulgados em fóruns de cibercrime, permitem automação em campanhas de phishing e criação de variantes de malware. Apesar das barreiras de segurança implementadas por LLMs modernos, criminosos continuam encontrando maneiras criativas de explorar essas ferramentas.
Desafios e Inovação
O avanço das IAs generativas impõe um desafio significativo à segurança cibernética. Se, por um lado, elas auxiliam na melhoria da detecção de ameaças, por outro, podem ser usadas para sofisticar ataques. Especialistas reforçam a necessidade de inovação constante para enfrentar essas novas dinâmicas.
Fonte: BoletimSec