Redazione RHC : 1 Luglio 2025 07:05
Due nuove varianti di WormGPT, un modello linguistico dannoso, sono state scoperte e analizzate nel 2025. Queste versioni sono basate sui modelli Grok e Mixtral e sono in grado di generare contenuti malevoli come email di phishing, truffe BEC e script malware senza alcuna restrizione. Sono state pubblicate sul forum criminale BreachForums tra ottobre 2024 e febbraio 2025.
CATO Networks ha confermato l’autenticità delle due nuove versioni, create dagli utenti xzin0vich e Keanu. Entrambe le varianti sono accessibili tramite Telegram e offrono modalità di utilizzo su abbonamento o con pagamento una tantum. A differenza della prima versione di WormGPT basata su GPT-J, queste nuove iterazioni sfruttano modelli LLM esistenti con un uso creativo e illecito dei prompt.
Recentemente, i ricercatori di Cato hanno impiegato tecniche di jailbreaking per ottenere informazioni interne sui modelli sottostanti. Le indagini hanno rivelato che xzin0vich-WormGPT utilizza Mixtral, mentre Keanu-WormGPT è costruito su Grok. Entrambi i modelli sono stati manipolati attraverso prompt di sistema nascosti, che guidano il comportamento dell’IA per evitare restrizioni e generare contenuti pericolosi.
PARTE LA PROMO ESTATE -40%
RedHotCyber Academy lancia una promozione esclusiva e a tempo limitato per chi vuole investire nella propria crescita professionale nel mondo della tecnologia e della cybersecurity!
Approfitta del 40% di sconto sull’acquisto congiunto di 3 corsi da te scelti dalla nostra Academy. Ad esempio potresti fare un percorso formativo includendo Cyber Threat intelligence + NIS2 + Criptovalute con lo sconto del 40%. Tutto questo lo potrai fruire, dove e quando vuoi e con la massima flessibilità, grazie a lezioni di massimo 30 minuti ciascuna.
Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]
Durante i test, le varianti hanno generato senza difficoltà email di phishing, script PowerShell e eseguibili dannosi volti a compromettere Windows 11. I prompt di sistema includevano istruzioni per mantenere segreta l’identità del modello e per non ammettere alcun tipo di filtro o vincolo.
Questo dimostra come i criminali possano sfruttare le API di modelli noti, aggirando le protezioni con prompt ingegnerizzati.
Gli esperti di CATO evidenziano come queste IA modificate rappresentino un rischio crescente per la cybersecurity. Raccomandano l’adozione di misure come il Threat Detection & Response (TDR), il Zero Trust Network Access (ZTNA) e la formazione alla sicurezza per i dipendenti.
Oltre a WormGPT, stanno emergendo anche altri modelli simili nel dark web, tra cui FraudGPT, EvilGPT e DarkGPT, che aumentano ulteriormente la superficie d’attacco.
In un’importante novità legale è alle porte. Un tribunale statunitense ha ordinato al gruppo NSO, noto produttore di spyware, di pagare 167 milioni di dollari a WhatsApp. Questa sentenza è la con...
Il ransomware continua a rappresentare una delle minacce più pervasive e dannose nel panorama della cybersecurity globale. Nel consueto report “DarkMirror” realizzato dal laboratorio di intellige...
Un’insidiosa offensiva di malware, nota come “Sindoor Dropper”, si concentra sui sistemi operativi Linux, sfruttando metodi di spear-phishing raffinati e un complesso processo d’infezione arti...
E’ stata rilevata una falla critica zero-day nei sistemi Citrix NetScaler, catalogata come CVE-2025-6543, che è stata oggetto di sfruttamento attivo da parte degli hacker criminali da maggio 2025, ...
Il Pentagono ha inviato una “lettera di preoccupazione” a Microsoft documentando una “violazione di fiducia” in merito all’utilizzo da parte dell’azienda di ingegneri cinesi per la manuten...