Clicky

La IA podría generar 10.000 variantes de malware y evadir la detección en el 88% de los casos

Malware a través de IA

La técnica transforma el malware utilizando varios métodos

Investigadores en ciberseguridad han descubierto que es posible utilizar modelos de lenguaje grandes (LLM) para generar nuevas variantes de código JavaScript malicioso a escala, de manera que puedan evadir mejor la detección.

"Aunque los LLM tienen dificultades para crear malware desde cero, los delincuentes pueden utilizarlos fácilmente para reescribir u ofuscar malware existente, lo que dificulta su detección", afirmaron los investigadores de la Unidad 42 de Palo Alto Networks en un nuevo análisis. "Los delincuentes pueden hacer que los LLM realicen transformaciones que tienen un aspecto mucho más natural, lo que dificulta la detección de este malware".

Con suficientes transformaciones a lo largo del tiempo, el enfoque podría tener la ventaja de degradar el rendimiento de los sistemas de clasificación de malware, engañándolos y haciéndoles creer que un fragmento de código nefasto es en realidad benigno.

Si bien los proveedores de LLM han reforzado cada vez más las medidas de seguridad para evitar salirse de sus carriles y producir resultados no deseados, los actores maliciosos han publicitado herramientas como WormGPT como una forma de automatizar el proceso de creación de convincentes correos electrónicos de phishing que estén dirigidos a potenciales objetivos e incluso crear novedoso malware.

En octubre de 2024 OpenAI reveló que había bloqueado más de 20 operaciones y redes engañosas que intentaban utilizar su plataforma para reconocimiento, investigación de vulnerabilidades, soporte de scripts y depuración.

La Unidad 42 afirmó que aprovechó el poder de los LLM para reescribir iterativamente muestras de malware existentes con el objetivo de eludir la detección por parte de modelos de aprendizaje automático (ML) como Innocent Until Proven Guilty (IUPG) o PhishingJS , allanando efectivamente el camino para la creación de 10.000 nuevas variantes de JavaScript sin alterar la funcionalidad.

La técnica de aprendizaje automático adversarial está diseñada para transformar el malware utilizando varios métodos (a saber, cambio de nombre de variables, división de cadenas, inserción de código basura, eliminación de espacios innecesarios y una reimplementación completa del código) cada vez que se introduce en el sistema como entrada.

ofuscación de phishing

"El resultado final es una nueva variante del JavaScript malicioso que mantiene el mismo comportamiento del script original, aunque casi siempre tiene una puntuación maliciosa mucho más baja", dijo la compañía, añadiendo que el algoritmo codicioso cambió el veredicto de su propio modelo de clasificación de malware de malicioso a benigno el 88% de las veces.

Para empeorar las cosas, estos artefactos de JavaScript reescritos también evaden la detección de otros analizadores de malware cuando se cargan en la plataforma VirusTotal.

Otra ventaja crucial que ofrece la ofuscación basada en LLM es que sus reescrituras parecen mucho más naturales que las logradas por bibliotecas como obfuscator.io, las últimas de las cuales son más fáciles de detectar y marcar de manera confiable debido a la forma en que introducen cambios en el código fuente.

"La escala de nuevas variantes de códigos maliciosos podría aumentar con la ayuda de la IA generativa", dijo Unit 42. "Sin embargo, podemos usar las mismas tácticas para reescribir el código malicioso y ayudar a generar datos de entrenamiento que puedan mejorar la solidez de los modelos de ML".

Jesus_Caceres