Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
LECS 970x120 1
Banner Ransomfeed 320x100 1
Il Cybercrime è deluso dall’IA Generativa. Gli hacker criminali sono divisi sull’uso dei Chatbot negli Attacchi Informatici

Il Cybercrime è deluso dall’IA Generativa. Gli hacker criminali sono divisi sull’uso dei Chatbot negli Attacchi Informatici

Redazione RHC : 6 Dicembre 2023 07:37

Nonostante le preoccupazioni dei ricercatori di sicurezza e delle forze dell’ordine in alcuni paesi riguardo all’uso dannoso di ChatGPT e modelli LLM simili, uno studio sui forum sulla criminalità informatica condotto da Sophos mostra che molti aggressori rimangono ancora scettici riguardo all’uso dei chatbot per attività malevole.

I ricercatori di Sophos hanno scoperto diversi modelli LLM nel cyber underground che affermano di avere capacità simili a WormGPT FraudGPT, di cui abbiamo parlato recentemente. Tali modelli per i crimini professionali su Internet includono EvilGPT, DarkGPT, PentesterGPT e altri. Tuttavia, gli esperti hanno notato un chiaro scetticismo nei confronti di alcuni di essi. In particolare, gli autori di questi modelli sono stati accusati di frode e di fatto che i chatbot non soddisfacessero le capacità dichiarate.

Lo scetticismo è rafforzato dalle affermazioni secondo cui la stessa tecnologia GPT è ampiamente sopravvalutata, pubblicizzata dai media e completamente inadatta alla generazione di malware utilizzabile o alla creazione di tattiche di inganno avanzate. Anche se le “reti neurali criminali” possono aiutare un po’ i loro utenti, questo chiaramente non sarà sufficiente per sferrare un attacco complesso e ben congegnato.

I criminali informatici hanno altre preoccupazioni riguardo al codice generato da LLM, tra cui problemi di sicurezza uniti al rischio di essere rilevati da sistemi antivirus ed EDR .

Per quanto riguarda l’applicazione pratica, la maggior parte delle idee e dei concetti rimangono al livello delle discussioni e delle teorie. Esistono solo pochi esempi di successo di utilizzo di LLM per generare malware e strumenti di attacco, e solo in un contesto proof-of-concept (PoC).

Allo stesso tempo, alcuni forum segnalano l’uso efficace di LLM per risolvere altri compiti non direttamente legati al crimine informatico, come la codifica di routine, la generazione di dati di test, il porting di librerie in altri linguaggi, ecc. Tuttavia, anche il normale ChatGPT è adatto a queste attività.

I criminali informatici molto inesperti hanno mostrato un certo interesse nell’utilizzo di GPT per generare malware, ma spesso non sono in grado di aggirare i limiti dei modelli o comprendere gli errori nel codice risultante.

Nel complesso, almeno nei forum esaminati, gli LLM non sono ancora un argomento di discussione importante o un mercato particolarmente attivo rispetto ad altri prodotti e servizi legati alla criminalità informatica.

La maggior parte dei partecipanti ai forum continua a svolgere le proprie attività quotidiane di criminalità informatica, sperimentando solo occasionalmente le capacità dell’intelligenza artificiale generativa. Tuttavia, il numero di servizi GPT scoperti dai ricercatori suggerisce che questo mercato sta gradualmente crescendo e presto sempre più aggressori inizieranno a introdurre gradualmente componenti basati su LLM nei loro servizi.

In definitiva, lo studio di Sophos mostra che molti criminali informatici devono affrontare le stesse preoccupazioni di tutti gli altri riguardo ai LLM, inclusi problemi di accuratezza, privacy e applicabilità in scenari del mondo reale.

Questi dubbi chiaramente non impediscono assolutamente a tutti i criminali informatici di utilizzare LLM, ma la maggior parte finora ha adottato un approccio di attesa fino a quando la tecnologia non sarà ulteriormente aggiornata.

Immagine del sitoRedazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

Lista degli articoli

Articoli in evidenza

Immagine del sito
“Vogliamo Hackerarvi Ancora!”. La NSO Group non ci sta nella causa di WhatsApp per Pegasus
Di Redazione RHC - 22/11/2025

L’azienda israeliana NSO Group ha presentato ricorso contro una decisione di un tribunale federale della California che le vieta di utilizzare l’infrastruttura di WhatsApp per diffondere il softwa...

Immagine del sito
Oracle sotto attacco: scoperta una vulnerabilità RCE pre-auth che compromette interi sistemi
Di Redazione RHC - 22/11/2025

Una vulnerabilità, contrassegnata come CVE-2025-61757, è stata resa pubblica Searchlight Cyber giovedì scorso. I ricercatori dell’azienda hanno individuato il problema e hanno informato Oracle, c...

Immagine del sito
CrowdStrike: licenziato un insider per aver fornito dati sensibili agli hacker criminali
Di Redazione RHC - 22/11/2025

Negli ultimi mesi il problema degli insider sta assumendo un peso sempre più crescente per le grandi aziende, e un episodio ha coinvolto recentemente CrowdStrike. La società di cybersecurity ha infa...

Immagine del sito
TamperedChef: malware tramite falsi installer di app
Di Redazione RHC - 21/11/2025

La campagna su larga scala TamperedChef sta nuovamente attirando l’attenzione degli specialisti, poiché gli aggressori continuano a distribuire malware tramite falsi programmi di installazione di a...

Immagine del sito
Bug critico da score 10 per Azure Bastion. Quando RDP e SSH sul cloud sono in scacco matto
Di Redazione RHC - 21/11/2025

Una vulnerabilità di tipo authentication bypass è stata individuata in Azure Bastion (scoperta da RHC grazie al monitoraggio costante delle CVE critiche presente sul nostro portale), il servizio g...