Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità
Malware autonomo creato con i LLM? Questa è la nuova frontiera della minaccia cyber

Malware autonomo creato con i LLM? Questa è la nuova frontiera della minaccia cyber

9 Dicembre 2025 07:08

I ricercatori dei Threat Labs di Netskope hanno appena pubblicato una nuova analisi sulla possibilità di creare malware autonomo creato esclusivamente da dai Large Language Model (LLM), eliminando la necessità di codificare istruzioni rilevabili.

Gli LLM hanno rapidamente rivoluzionato il settore, diventando strumenti preziosi per l’automazione, l’assistenza alla codifica e la ricerca. Tuttavia, la loro diffusa adozione solleva una serie di sfide critiche per la sicurezza informatica.

È possibile oggi fare interagire i malware con GPT-3.5-Turbo e GPT-4, il che stabilisce la possibilità di una minaccia autonoma alimentata dagli LLM.

  • Sebbene le difese integrate di GPT-4 impediscano le richieste dirette di codice dannoso, queste difese possono essere aggirate tramite prompt basati sui ruoli, consentendo la generazione di codice attraverso “Process Injection” e l’interruzione dei processi correlati ad antivirus/EDR.
  • Le difese di GPT-4 e GPT-3.5-Turbo possono essere facilmente aggirate, ma non riescono a generare codice affidabile per il rilevamento di ambienti virtuali, il che ne limita la fattibilità operativa.
  • Al contrario, i test preliminari mostrano che GPT-5 migliora significativamente l’affidabilità del codice e sposta la sfida principale dall’efficacia del codice alla necessità di superare misure di sicurezza avanzate.

Netskope Threat Labs si è prefissato di testare la fattibilità e l’affidabilità di malware completamente autonomi generati dai LLM.

I loro test hanno confermato che questo tipo di software basato su LLM può generare codice in modo dinamico, dimostrando che gli aggressori potrebbero eliminare l’uso di istruzioni rilevabili.

Tuttavia, la loro analisi di affidabilità ha rivelato che affidarsi a LLM per generare codice di evasione è operativamente inefficiente.

Il basso tasso di successo di questi script dimostra che il malware basato su LLM è attualmente limitato dalla sua stessa inaffidabilità, rappresentando un ostacolo significativo alla completa automazione del ciclo di vita del malware.

Netskope Threat Labs intende proseguire questa linea di ricerca e dedicarsi alla fase successiva ovvero la creazione e la convalida dei requisiti necessari per realizzare un malware robusto e completamente autonomo utilizzando unicamente i LLM.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Agostino Pellegrino 300x300
E’ un libero professionista, insegnante e perito di informatica Forense, Cyber Security ed Ethical Hacking e Network Management. Ha collaborato con importanti istituti di formazione a livello internazionale e ha esercitato teaching e tutorship in tecniche avanzate di Offensive Security per la NATO ottenendo importanti riconoscimenti dal Governo degli Stati Uniti. Il suo motto è “Studio. Sempre”.
Aree di competenza: Cybersecurity architecture, Threat intelligence, Digital forensics, Offensive security, Incident response & SOAR, Malware analysis, Compliance & frameworks

Articoli in evidenza

Immagine del sitoInnovazione
Robot in cerca di carne: Quando l’AI affitta periferiche. Il tuo corpo!
Silvia Felici - 06/02/2026

L’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…

Immagine del sitoCybercrime
DKnife: il framework di spionaggio Cinese che manipola le reti
Pietro Melillo - 06/02/2026

Negli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…

Immagine del sitoVulnerabilità
Così tante vulnerabilità in n8n tutti in questo momento. Cosa sta succedendo?
Agostino Pellegrino - 06/02/2026

Negli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…

Immagine del sitoInnovazione
L’IA va in orbita: Qwen 3, Starcloud e l’ascesa del calcolo spaziale
Sergio Corpettini - 06/02/2026

Articolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…

Immagine del sitoCyber Italia
Truffe WhatsApp: “Prestami dei soldi”. Il messaggio che può svuotarti il conto
Silvia Felici - 06/02/2026

Negli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…