Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità

Il Cybercrime è deluso dall’IA Generativa. Gli hacker criminali sono divisi sull’uso dei Chatbot negli Attacchi Informatici

6 Dicembre 2023 07:37

Nonostante le preoccupazioni dei ricercatori di sicurezza e delle forze dell’ordine in alcuni paesi riguardo all’uso dannoso di ChatGPT e modelli LLM simili, uno studio sui forum sulla criminalità informatica condotto da Sophos mostra che molti aggressori rimangono ancora scettici riguardo all’uso dei chatbot per attività malevole.

I ricercatori di Sophos hanno scoperto diversi modelli LLM nel cyber underground che affermano di avere capacità simili a WormGPT FraudGPT, di cui abbiamo parlato recentemente. Tali modelli per i crimini professionali su Internet includono EvilGPT, DarkGPT, PentesterGPT e altri. Tuttavia, gli esperti hanno notato un chiaro scetticismo nei confronti di alcuni di essi. In particolare, gli autori di questi modelli sono stati accusati di frode e di fatto che i chatbot non soddisfacessero le capacità dichiarate.

Lo scetticismo è rafforzato dalle affermazioni secondo cui la stessa tecnologia GPT è ampiamente sopravvalutata, pubblicizzata dai media e completamente inadatta alla generazione di malware utilizzabile o alla creazione di tattiche di inganno avanzate. Anche se le “reti neurali criminali” possono aiutare un po’ i loro utenti, questo chiaramente non sarà sufficiente per sferrare un attacco complesso e ben congegnato.

I criminali informatici hanno altre preoccupazioni riguardo al codice generato da LLM, tra cui problemi di sicurezza uniti al rischio di essere rilevati da sistemi antivirus ed EDR .

Per quanto riguarda l’applicazione pratica, la maggior parte delle idee e dei concetti rimangono al livello delle discussioni e delle teorie. Esistono solo pochi esempi di successo di utilizzo di LLM per generare malware e strumenti di attacco, e solo in un contesto proof-of-concept (PoC).

Allo stesso tempo, alcuni forum segnalano l’uso efficace di LLM per risolvere altri compiti non direttamente legati al crimine informatico, come la codifica di routine, la generazione di dati di test, il porting di librerie in altri linguaggi, ecc. Tuttavia, anche il normale ChatGPT è adatto a queste attività.

I criminali informatici molto inesperti hanno mostrato un certo interesse nell’utilizzo di GPT per generare malware, ma spesso non sono in grado di aggirare i limiti dei modelli o comprendere gli errori nel codice risultante.

Nel complesso, almeno nei forum esaminati, gli LLM non sono ancora un argomento di discussione importante o un mercato particolarmente attivo rispetto ad altri prodotti e servizi legati alla criminalità informatica.

La maggior parte dei partecipanti ai forum continua a svolgere le proprie attività quotidiane di criminalità informatica, sperimentando solo occasionalmente le capacità dell’intelligenza artificiale generativa. Tuttavia, il numero di servizi GPT scoperti dai ricercatori suggerisce che questo mercato sta gradualmente crescendo e presto sempre più aggressori inizieranno a introdurre gradualmente componenti basati su LLM nei loro servizi.

In definitiva, lo studio di Sophos mostra che molti criminali informatici devono affrontare le stesse preoccupazioni di tutti gli altri riguardo ai LLM, inclusi problemi di accuratezza, privacy e applicabilità in scenari del mondo reale.

Questi dubbi chiaramente non impediscono assolutamente a tutti i criminali informatici di utilizzare LLM, ma la maggior parte finora ha adottato un approccio di attesa fino a quando la tecnologia non sarà ulteriormente aggiornata.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Marcello Filacchioni 300x300
ICT CISO e Cyber Security Manager con oltre vent’anni di esperienza tra settore pubblico e privato, ha guidato progetti di sicurezza informatica per realtà di primo piano. Specializzato in risk management, governance e trasformazione digitale, ha collaborato con vendor internazionali e startup innovative, contribuendo all’introduzione di soluzioni di cybersecurity avanzate. Possiede numerose certificazioni (CISM, CRISC, CISA, PMP, ITIL, CEH, Cisco, Microsoft, VMware) e svolge attività di docenza pro bono in ambito Cyber Security, unendo passione per l’innovazione tecnologica e impegno nella diffusione della cultura della sicurezza digitale.
Aree di competenza: Cyber Security Strategy & Governance, Vulnerability Management & Security Operations. 

Articoli in evidenza

Immagine del sitoInnovazione
Robot in cerca di carne: Quando l’AI affitta periferiche. Il tuo corpo!
Silvia Felici - 06/02/2026

L’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…

Immagine del sitoCybercrime
DKnife: il framework di spionaggio Cinese che manipola le reti
Pietro Melillo - 06/02/2026

Negli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…

Immagine del sitoVulnerabilità
Così tante vulnerabilità in n8n tutti in questo momento. Cosa sta succedendo?
Agostino Pellegrino - 06/02/2026

Negli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…

Immagine del sitoInnovazione
L’IA va in orbita: Qwen 3, Starcloud e l’ascesa del calcolo spaziale
Sergio Corpettini - 06/02/2026

Articolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…

Immagine del sitoCyber Italia
Truffe WhatsApp: “Prestami dei soldi”. Il messaggio che può svuotarti il conto
Silvia Felici - 06/02/2026

Negli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…