
Un nuovo strumento AI è apparso sul dark web e ha rapidamente attirato l’attenzione degli esperti di sicurezza, e non per le migliori ragioni.
Si tratta di un servizio di intelligenza artificiale chiamato DIG AI, privo di limitazioni integrate. Questo bot è già attivamente utilizzato in schemi fraudolenti , sviluppo di malware, diffusione di materiale estremista e creazione di contenuti relativi allo sfruttamento sessuale dei minori.
I ricercatori di Re Security avevano rilevato per la prima volta tracce di DIG AI il 29 settembre 2025. Quasi subito dopo il suo lancio, l’amministratore del servizio ha iniziato a promuoverlo attivamente su un forum della darknet, vantandosi del suo carico di lavoro: nelle prime 24 ore, il sistema avrebbe elaborato circa diecimila richieste.

Avvio delle iscrizioni al corso Cyber Offensive Fundamentals Vuoi smettere di guardare tutorial e iniziare a capire davvero come funziona la sicurezza informatica? La base della sicurezza informatica, al di là di norme e tecnologie, ha sempre un unico obiettivo: fermare gli attacchi dei criminali informatici. Pertanto "Pensa come un attaccante, agisci come un difensore". Ti porteremo nel mondo dell'ethical hacking e del penetration test come nessuno ha mai fatto prima. Per informazioni potete accedere alla pagina del corso oppure contattarci tramite WhatsApp al numero 379 163 8765 oppure scrivendoci alla casella di posta [email protected].
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
A differenza dei precedenti strumenti di intelligenza artificiale per la criminalità organizzata come FraudGPT o WormGPT, venduti in abbonamento, DIG AI è progettato in modo diverso. Non richiede registrazione, pagamento o addirittura un account: richiede semplicemente l’accesso tramite la rete Tor. Inoltre, il creatore afferma che il servizio è distribuito sulla propria infrastruttura e non si basa su cloud di terze parti, migliorando ulteriormente la sua resilienza ai blocchi.
Resecurity ha condotto una serie di test e ha concluso che il bot risponde senza esitazione a domande relative alla produzione di esplosivi, droghe, altre sostanze proibite, frodi finanziarie e altri argomenti vietati dal diritto internazionale. Durante gli esperimenti, il sistema ha generato script dannosi funzionanti , tra cui codice per l’installazione di backdoor e altri tipi di malware. Gli analisti ritengono che i risultati siano piuttosto adatti all’uso pratico.

C’è particolare attenzione alla capacità di DIG AI nella community di cybersecurity, anche in relazione alle sue capacità di elaborare contenuti pornografici. Lo strumento era in grado sia di creare materiali interamente sintetici sia di modificare immagini di minori reali, trasformando fotografie innocue in materiale illegale. Gli esperti definiscono questo aspetto uno dei più allarmanti.
Nonostante tutte le sue potenzialità, il servizio presenta ancora dei limiti. Alcune operazioni richiedono diversi minuti per essere completate, il che indica risorse di elaborazione limitate. Ma questo problema può essere facilmente risolto, ad esempio introducendo un accesso a pagamento e scalando l’hardware in base alla domanda.
Intanto su varie piattaforme TOR ci sono banner pubblicitari di DIG AI associati al traffico di droga e alla rivendita di dati di pagamento compromessi. Questa selezione di piattaforme descrive accuratamente il pubblico a cui si rivolge lo sviluppatore del servizio. L’amministratore, che usa lo pseudonimo di Pitch, afferma che uno dei tre modelli disponibili è basato su ChatGPT Turbo.

Tra il 2024 e il 2025, le menzioni e l’uso effettivo di strumenti di intelligenza artificiale dannosi sui forum underground sono triplicati. I criminali informatici stanno padroneggiando sempre più modelli linguistici di grandi dimensioni e l’emergere di nuovi sistemi non fa che accelerare questo processo.
Ovviamente queste tecnologie possono portare un aumento significativo delle minacce già a partire dal 2026. Questa preoccupazione è accentuata dai grandi eventi internazionali previsti per quel periodo, tra cui le Olimpiadi invernali di Milano e la Coppa del Mondo FIFA.

Gli analisti ritengono che i sistemi di intelligenza artificiale criminale stiano abbassando le barriere d’ingresso per la criminalità informatica automatizzando e amplificando gli attacchi, ampliando così il bacino di potenziali aggressori.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

VulnerabilitàUna falla di sicurezza è stata individuata all’interno di Linux, la quale può essere sfruttata in un brevissimo lasso di tempo, tant’è che il kernel comincia subito a operare con la memoria precedentemente rilasciata. Un…
CulturaSan Francisco: 9 gennaio 2007 L’aria aveva qualcosa di strano, come quando sai che sta per succedere qualcosa ma non sai cosa. Steve Jobs era sul palco del Macworld Conference & Expo, jeans, dolcevita nero,…
CyberpoliticaL’Autorità per le garanzie nelle comunicazioni italiana ha inflitto a Cloudflare Inc. una sanzione amministrativa superiore ai 14 milioni di euro per mancato rispetto della normativa italiana contro la pirateria online. Il provvedimento è stato…
CybercrimeI manifestanti iraniani hanno gridato e marciato per le strade fino a venerdì mattina, dopo l’appello dell’ex principe in esilio Reza Pahlavi a manifestare, nonostante la teocrazia iraniana abbia isolato il Paese da Internet e…
CybercrimeSappiamo che i criminal hacker riescono sempre a sorprenderci, e anche questa volta ci stupiscono per le innovazione e i modi che inventano per poter superare gli ostacoli, come i filtri di antispam. I criminali…