Redazione RHC : 1 Luglio 2025 07:05
Due nuove varianti di WormGPT, un modello linguistico dannoso, sono state scoperte e analizzate nel 2025. Queste versioni sono basate sui modelli Grok e Mixtral e sono in grado di generare contenuti malevoli come email di phishing, truffe BEC e script malware senza alcuna restrizione. Sono state pubblicate sul forum criminale BreachForums tra ottobre 2024 e febbraio 2025.
CATO Networks ha confermato l’autenticità delle due nuove versioni, create dagli utenti xzin0vich e Keanu. Entrambe le varianti sono accessibili tramite Telegram e offrono modalità di utilizzo su abbonamento o con pagamento una tantum. A differenza della prima versione di WormGPT basata su GPT-J, queste nuove iterazioni sfruttano modelli LLM esistenti con un uso creativo e illecito dei prompt.
Recentemente, i ricercatori di Cato hanno impiegato tecniche di jailbreaking per ottenere informazioni interne sui modelli sottostanti. Le indagini hanno rivelato che xzin0vich-WormGPT utilizza Mixtral, mentre Keanu-WormGPT è costruito su Grok. Entrambi i modelli sono stati manipolati attraverso prompt di sistema nascosti, che guidano il comportamento dell’IA per evitare restrizioni e generare contenuti pericolosi.
Vuoi diventare un esperto del Dark Web e della Cyber Threat Intelligence (CTI)?
Stiamo per avviare il corso intermedio in modalità "Live Class", previsto per febbraio.
A differenza dei corsi in e-learning, disponibili online sulla nostra piattaforma con lezioni pre-registrate, i corsi in Live Class offrono un’esperienza formativa interattiva e coinvolgente.
Condotti dal professor Pietro Melillo, le lezioni si svolgono online in tempo reale, permettendo ai partecipanti di interagire direttamente con il docente e approfondire i contenuti in modo personalizzato.
Questi corsi, ideali per aziende, consentono di sviluppare competenze mirate, affrontare casi pratici e personalizzare il percorso formativo in base alle esigenze specifiche del team, garantendo un apprendimento efficace e immediatamente applicabile.
Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]
Durante i test, le varianti hanno generato senza difficoltà email di phishing, script PowerShell e eseguibili dannosi volti a compromettere Windows 11. I prompt di sistema includevano istruzioni per mantenere segreta l’identità del modello e per non ammettere alcun tipo di filtro o vincolo.
Questo dimostra come i criminali possano sfruttare le API di modelli noti, aggirando le protezioni con prompt ingegnerizzati.
Gli esperti di CATO evidenziano come queste IA modificate rappresentino un rischio crescente per la cybersecurity. Raccomandano l’adozione di misure come il Threat Detection & Response (TDR), il Zero Trust Network Access (ZTNA) e la formazione alla sicurezza per i dipendenti.
Oltre a WormGPT, stanno emergendo anche altri modelli simili nel dark web, tra cui FraudGPT, EvilGPT e DarkGPT, che aumentano ulteriormente la superficie d’attacco.
“Il sistema di difesa militare Skynet entrerà in funzione il 4 agosto 1997. Comincerà ad autoistruirsi imparando a ritmo esponenziale e diverrà autocosciente alle 2:14 del giorno...
Un nuovo strumento per disabilitare i sistemi EDR è apparso nell’ambiente dei criminali informatici , che gli esperti di Sophos ritengono essere un’estensione dell’utility ED...
Una vulnerabilità di WinRAR recentemente chiusa monitorata con il codice CVE-2025-8088 è stata sfruttata in attacchi di phishing mirati prima del rilascio della patch. Il problema era un Dir...
Alla conferenza Black Hat di Las Vegas, VisionSpace Technologies ha dimostrato che è molto più facile ed economico disattivare un satellite o modificarne la traiettoria rispetto all’u...
Una falla di sicurezza cruciale nell’HTTP/1.1 è stata resa pubblica dagli esperti di sicurezza, mettendo in luce una minaccia che continua ad impattare sull’infrastruttura web da pi...