
Redazione RHC : 1 Luglio 2025 07:05
Due nuove varianti di WormGPT, un modello linguistico dannoso, sono state scoperte e analizzate nel 2025. Queste versioni sono basate sui modelli Grok e Mixtral e sono in grado di generare contenuti malevoli come email di phishing, truffe BEC e script malware senza alcuna restrizione. Sono state pubblicate sul forum criminale BreachForums tra ottobre 2024 e febbraio 2025.
CATO Networks ha confermato l’autenticità delle due nuove versioni, create dagli utenti xzin0vich e Keanu. Entrambe le varianti sono accessibili tramite Telegram e offrono modalità di utilizzo su abbonamento o con pagamento una tantum. A differenza della prima versione di WormGPT basata su GPT-J, queste nuove iterazioni sfruttano modelli LLM esistenti con un uso creativo e illecito dei prompt.

Recentemente, i ricercatori di Cato hanno impiegato tecniche di jailbreaking per ottenere informazioni interne sui modelli sottostanti. Le indagini hanno rivelato che xzin0vich-WormGPT utilizza Mixtral, mentre Keanu-WormGPT è costruito su Grok. Entrambi i modelli sono stati manipolati attraverso prompt di sistema nascosti, che guidano il comportamento dell’IA per evitare restrizioni e generare contenuti pericolosi.
Christmas Sale -40% 𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀
Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Durante i test, le varianti hanno generato senza difficoltà email di phishing, script PowerShell e eseguibili dannosi volti a compromettere Windows 11. I prompt di sistema includevano istruzioni per mantenere segreta l’identità del modello e per non ammettere alcun tipo di filtro o vincolo.
Questo dimostra come i criminali possano sfruttare le API di modelli noti, aggirando le protezioni con prompt ingegnerizzati.

Gli esperti di CATO evidenziano come queste IA modificate rappresentino un rischio crescente per la cybersecurity. Raccomandano l’adozione di misure come il Threat Detection & Response (TDR), il Zero Trust Network Access (ZTNA) e la formazione alla sicurezza per i dipendenti.
Oltre a WormGPT, stanno emergendo anche altri modelli simili nel dark web, tra cui FraudGPT, EvilGPT e DarkGPT, che aumentano ulteriormente la superficie d’attacco.
Redazione
La saga sulla sicurezza dei componenti di React Server continua questa settimana. Successivamente alla correzione di una vulnerabilità critica relativa all’esecuzione di codice remoto (RCE) che ha ...

Un nuovo allarme arriva dal sottobosco del cybercrime arriva poche ore fa. A segnalarlo l’azienda ParagonSec, società specializzata nel monitoraggio delle attività delle cyber gang e dei marketpla...

Cisco Talos ha identificato una nuova campagna ransomware chiamata DeadLock: gli aggressori sfruttano un driver antivirus Baidu vulnerabile (CVE-2024-51324) per disabilitare i sistemi EDR tramite la t...

Quanto avevamo scritto nell’articolo “Codice Patriottico: da DDoSia e NoName057(16) al CISM, l’algoritmo che plasma la gioventù per Putin” su Red Hot Cyber il 23 luglio scorso trova oggi pien...

Notepad++ è spesso preso di mira da malintenzionati perché il software è popolare e ampiamente utilizzato. Una vulnerabilità recentemente scoperta nell’editor di testo e codice open source Notep...