Redazione RHC : 28 julio 2025 07:41
Los especialistas de Kaspersky Lab estudiaron la actividad del grupo FunkSec, surgido a finales de 2024. Sus principales características eran el uso de herramientas basadas en IA (incluso en el desarrollo de ransomware), un alto grado de adaptabilidad y ciberataques masivos.
Según los expertos, FunkSec ataca a organizaciones del sector público, así como de los sectores de TI, financiero y educativo en Europa y Asia. Los operadores de FunkSec suelen exigir rescates inusualmente bajos, a veces de hasta 10 000 dólares. Los atacantes también venden los datos robados a sus víctimas a un precio muy bajo.
Los expertos creen que este enfoque les permite lanzar una gran cantidad de ciberataques y forjarse rápidamente una reputación dentro de la comunidad criminal. Además, la naturaleza masiva de los ataques indica que los atacantes están utilizando inteligencia artificial para optimizar y escalar sus operaciones.
El informe enfatiza que el ransomware FunkSec destaca por su compleja arquitectura técnica y el uso de inteligencia artificial. Los desarrolladores del malware han incluido la capacidad de cifrar completamente y robar datos en un solo archivo ejecutable escrito en Rust. Puede finalizar más de 50 procesos en los dispositivos de las víctimas y cuenta con funciones de autolimpieza, lo que dificulta el análisis de incidentes.
Cabe destacar también que FunkSec utiliza métodos avanzados para evadir la detección, lo que complica el trabajo de los investigadores. La herramienta de cifrado FunkSec no se proporciona sola: también utiliza un generador de contraseñas (para ataques de fuerza bruta y rociado de contraseñas) y una herramienta para ataques DDoS.
En todos los casos, los investigadores encontraron indicios claros de generación de código mediante grandes modelos de lenguaje (LLM). Por ejemplo, muchos fragmentos de código claramente no se escribieron manualmente, sino automáticamente. Esto se confirma con los comentarios sobre el código «stub» (p. ej., «stub para verificación real»), así como con inconsistencias técnicas. Por ejemplo, se observó que un programa utiliza comandos para diferentes sistemas operativos. Además, la presencia de funciones declaradas pero no utilizadas refleja cómo los LLM combinan diferentes fragmentos de código sin eliminar elementos innecesarios.
«Cada vez vemos más atacantes que utilizan IA generativa para crear herramientas maliciosas. Esto acelera el proceso de desarrollo, lo que permite a los atacantes adaptar sus tácticas con mayor rapidez y, además, reduce las barreras de entrada al sector. Sin embargo, el código generado por este tipo de malware suele contener errores, por lo que los atacantes no pueden confiar plenamente en las nuevas tecnologías en desarrollo», comenta Tatyana Shishkova, experta en Kaspersky GReAT.
Expertos de Palo Alto Networks han identificado un nuevo grupo de hackers vinculado al Partido Comunista Chino. Unit 42, la división de inteligencia de amenazas de la compañía con sede en Californi...
Los sistemas de Inteligencia Artificial Generativa (GenAI) están revolucionando la forma en que interactuamos con la tecnología, ofreciendo capacidades extraordinarias en la creación de texto, imá...
La Agencia de Seguridad de Infraestructura y Ciberseguridad de Estados Unidos (CISA) ha añadido una vulnerabilidad crítica en la popular utilidad Sudo, utilizada en sistemas Linux y similares a Unix...
El Departamento de Justicia de EE. UU. recibió autorización judicial para realizar una inspección remota de los servidores de Telegram como parte de una investigación sobre explotación infantil. ...
Importantes agencias de todo el mundo han alertado sobre una amenaza crítica a la infraestructura de red: vulnerabilidades en los dispositivos Cisco Adaptive Security Appliance (ASA) y Firepower han ...