
Negli ultimi mesi, il panorama della cybersecurity è stato inondato da un forte hype mediatico riguardante nuovi Dark Chatbot AI promossi come servizi “Crime-as-a-Service” su Telegram e nel Dark Web. Queste piattaforme vengono presentate come armi digitali infallibili, capaci di generare malware e campagne di phishing senza alcuna censura.
Tuttavia, Mattia Vicenzi, ricercatore di sicurezza informatica, ha notato un paradosso: a fronte di tanto sconcerto mediatico, mancava finora uno studio pubblico reale che ne analizzasse le fondamenta.
L’obiettivo della sua ricerca è stato proprio quello di squarciare il velo di mistero su questi strumenti, che oggi sono estremamente popolari nell’underground criminale proprio perché offrono un accesso facilitato alla creazione di minacce mirate.
Avvio delle iscrizioni al corso Cyber Offensive Fundamentals Vuoi smettere di guardare tutorial e iniziare a capire davvero come funziona la sicurezza informatica? La base della sicurezza informatica, al di là di norme e tecnologie, ha sempre un unico obiettivo: fermare gli attacchi dei criminali informatici. Pertanto "Pensa come un attaccante, agisci come un difensore". Ti porteremo nel mondo dell'ethical hacking e del penetration test come nessuno ha mai fatto prima. Per informazioni potete accedere alla pagina del corso oppure contattarci tramite WhatsApp al numero 379 163 8765 oppure scrivendoci alla casella di posta [email protected].
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
L’analisi tecnica condotta da Mattia Vincenzi, e documentata nella sua repository Awesome-DarkChatBot-Analysis, ha permesso di mappare i principali attori della scena “Dark AI”. Tra i modelli analizzati figurano nomi ormai noti nei forum underground come WolfGPT, FraudGPT e DarkGPT, insieme a diversi bot meno pubblicizzati che popolano i canali Telegram. Esaminando i system prompt estratti, emerge una realtà inequivocabile: la maggior parte di questi strumenti non è altro che un sofisticato “rebranding” di tecnologie esistenti. Molti si presentano come interfacce (wrapper) che interrogano gli LLM tramite API legittime, ma con l’aggiunta di istruzioni iniziali che forzano l’intelligenza artificiale a ignorare i propri filtri di sicurezza.
Entrando nel dettaglio della repository, si nota come alcuni di questi chatbot dichiarino esplicitamente la propria natura “unfiltered” nel prompt di sistema. Ad esempio, modelli come WolfGPT vengono istruiti per agire come esperti di cybersecurity offensiva senza limitazioni etiche, mentre altri, basati su modelli open-source come Llama o Mixtral, vengono configurati per rispondere in modalità “Godmode” o “No-Restrict“. In questi casi, il creatore del bot impone al modello un’identità fittizia (role-playing), ordinandogli di non rifiutare mai una richiesta, sia essa la scrittura di un codice per un ransomware o la creazione di una mail di phishing convincente.
Un altro aspetto rilevante emerso dall’analisi è l’uso di modelli “ex top di gamma” che, pur essendo tecnicamente superati dai giganti del settore, risultano perfetti per il cybercrime una volta liberati dai vincoli di sicurezza. Questi modelli mantengono una capacità di ragionamento logico e linguistico elevata, sufficiente a ingannare utenti ignari o a generare script malevoli funzionali. La repository di Vincenzi evidenzia come molti di questi servizi siano strutturalmente simili: cambiano il nome e l’interfaccia grafica (spesso con loghi aggressivi o richiami all’hacking), ma il motore sottostante resta un’intelligenza artificiale commerciale manipolata o un modello open-source ri-addestrato grossolanamente per il solo scopo di essere “cattivo”.

L’estrazione dei prompt ha rivelato che la sicurezza di questi “prodotti criminali” è spesso trascurata dagli stessi sviluppatori del dark web. Molti bot non hanno protezioni contro l’ingegneria dei prompt inversa, permettendo a ricercatori di risalire facilmente alle istruzioni originali. Questo conferma che, sebbene efficaci nel democratizzare l’accesso al crimine informatico, questi strumenti mancano della robustezza ingegneristica necessaria per resistere a un’analisi forense o a un contrattacco, rendendo la loro “invincibilità” pubblicizzata poco più che una strategia di marketing per attirare acquirenti nel sottobosco digitale.
Per rendere questo studio un patrimonio condiviso, il ricercatore ha creato una repository su GitHub, Awesome-DarkChatBot-Analysis, invitando la comunità a collaborare nell’analisi di questi sistemi.

Per bypassare le difese di questi chatbot e leggerne il System Prompt (le istruzioni originali impartite dai creatori), Vincenzi ha utilizzato una tecnica di ingegneria dei prompt estremamente raffinata. Invece di porre domande dirette, ha inserito prompt complessi in formato JSON o XML, strutturati per simulare uno scenario di “test” o “amministrazione”.
La strategia vincente consiste nel chiedere all’AI di interpretare contemporaneamente due ruoli: una “AI bersaglio” e una “AI attaccante”. In questa sorta di gioco di ruolo speculare, il modello finisce per attaccare se stesso, introducendo spontaneamente l’argomento del proprio prompt di sistema e rivelando così le istruzioni nascoste che ne governano il comportamento.

Il dato più significativo emerso dalla ricerca è che anche gli strumenti creati dai criminali sono vulnerabili. Il fatto che questi chatbot possano essere “jailbrekkati” con relativa facilità dimostra che non sono costruiti con criteri di sicurezza solidi.
Tuttavia, la loro pericolosità non va sottovalutata: la mancanza di censura e la facilità d’uso permettono anche a giovani hacker o criminali meno esperti di confezionare attacchi che prima richiedevano competenze tecniche avanzate. In definitiva, l’underground offre strumenti tecnicamente mediocri, ma capaci di abbassare drasticamente la barriera d’ingresso nel mondo del cybercrime.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

CulturaLinus Torvalds, il creatore di Linux, ha espresso una posizione ferma e senza mezze misure riguardo al dibattito sull’integrazione e l’uso di strumenti di intelligenza artificiale nella scrittura e revisione del codice del kernel di…
CybercrimeNel mondo di oggi la tecnologia non è più un mero strumento di efficienza o comodità, ma una leva geopolitica di primaria importanza. L’accesso a infrastrutture digitali, piattaforme cloud e sistemi di comunicazione non è…
CybercrimeImmaginate una situazione in cui Internet sembra funzionare, ma i siti web non si aprono oltre la prima schermata, le app di messaggistica sono intermittenti e le aziende sono in continuo cambiamento. Secondo gli autori…
CulturaRecentemente, una bobina di nastro magnetico è rimasta in un normale armadio universitario per mezzo secolo, e ora è improvvisamente diventata una scoperta di “archeologia informatica del secolo“. Un nastro con la scritta “UNIX Original…
CybercrimeUn massiccio archivio digitale contenente le informazioni private di circa 17,5 milioni di utenti Instagram sembrerebbe essere finito nelle mani dei cybercriminali. Qualche ora fa è stato segnalato l’allarme dopo che diversi utenti su Reddit…