Redazione RHC : 1 Luglio 2025 07:05
Due nuove varianti di WormGPT, un modello linguistico dannoso, sono state scoperte e analizzate nel 2025. Queste versioni sono basate sui modelli Grok e Mixtral e sono in grado di generare contenuti malevoli come email di phishing, truffe BEC e script malware senza alcuna restrizione. Sono state pubblicate sul forum criminale BreachForums tra ottobre 2024 e febbraio 2025.
CATO Networks ha confermato l’autenticità delle due nuove versioni, create dagli utenti xzin0vich e Keanu. Entrambe le varianti sono accessibili tramite Telegram e offrono modalità di utilizzo su abbonamento o con pagamento una tantum. A differenza della prima versione di WormGPT basata su GPT-J, queste nuove iterazioni sfruttano modelli LLM esistenti con un uso creativo e illecito dei prompt.
Recentemente, i ricercatori di Cato hanno impiegato tecniche di jailbreaking per ottenere informazioni interne sui modelli sottostanti. Le indagini hanno rivelato che xzin0vich-WormGPT utilizza Mixtral, mentre Keanu-WormGPT è costruito su Grok. Entrambi i modelli sono stati manipolati attraverso prompt di sistema nascosti, che guidano il comportamento dell’IA per evitare restrizioni e generare contenuti pericolosi.
Distribuisci i nostri corsi di formazione diventando un nostro Affiliato
Se sei un influencer, gestisci una community, un blog, un profilo social o semplicemente hai tanta voglia di diffondere cultura digitale e cybersecurity, questo è il momento perfetto per collaborare con RHC Academy. Unisciti al nostro Affiliate Program: potrai promuovere i nostri corsi online e guadagnare provvigioni ad ogni corso venduto. Fai parte del cambiamento. Diffondi conoscenza, costruisci fiducia, genera valore.
Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Durante i test, le varianti hanno generato senza difficoltà email di phishing, script PowerShell e eseguibili dannosi volti a compromettere Windows 11. I prompt di sistema includevano istruzioni per mantenere segreta l’identità del modello e per non ammettere alcun tipo di filtro o vincolo.
Questo dimostra come i criminali possano sfruttare le API di modelli noti, aggirando le protezioni con prompt ingegnerizzati.
Gli esperti di CATO evidenziano come queste IA modificate rappresentino un rischio crescente per la cybersecurity. Raccomandano l’adozione di misure come il Threat Detection & Response (TDR), il Zero Trust Network Access (ZTNA) e la formazione alla sicurezza per i dipendenti.
Oltre a WormGPT, stanno emergendo anche altri modelli simili nel dark web, tra cui FraudGPT, EvilGPT e DarkGPT, che aumentano ulteriormente la superficie d’attacco.
La Sfida della Sicurezza nelle Reti Wi-Fi e una Soluzione Adattiva. Nell’era della connettività pervasiva, lo standard IEEE 802.11(meglio noto come Wi-Fi ), è diventato la spina dorsa...
Nel mese di aprile 2025, una valvola idraulica di una diga norvegese è stata forzatamente aperta da remoto per diverse ore, a seguito di un attacco informatico mirato. L’episodio, riportat...
Sul forum underground russo XSS è apparso un post che offre una “Collection di Lead Verificati Italia 2025” con oltre 1 milione di record. Questo tipo di inserzioni evidenzia la con...
Nel cuore dei conflitti contemporanei, accanto ai carri armati, ai droni e alle truppe, si combatte una guerra invisibile, silenziosa e spesso sottovalutata: la cyber war. Non è solo uno scenario...
Le autorità iberiche sono impegnate in un’indagine riguardante un pirata informatico che ha divulgato informazioni sensibili relative a funzionari pubblici e figure politiche di spicco. Tr...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006