Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca
Crowdstrike
Crowdstrike

Il Cybercrime è deluso dall’IA Generativa. Gli hacker criminali sono divisi sull’uso dei Chatbot negli Attacchi Informatici

Redazione RHC : 6 Dicembre 2023 07:37

Nonostante le preoccupazioni dei ricercatori di sicurezza e delle forze dell’ordine in alcuni paesi riguardo all’uso dannoso di ChatGPT e modelli LLM simili, uno studio sui forum sulla criminalità informatica condotto da Sophos mostra che molti aggressori rimangono ancora scettici riguardo all’uso dei chatbot per attività malevole.

I ricercatori di Sophos hanno scoperto diversi modelli LLM nel cyber underground che affermano di avere capacità simili a WormGPT FraudGPT, di cui abbiamo parlato recentemente. Tali modelli per i crimini professionali su Internet includono EvilGPT, DarkGPT, PentesterGPT e altri. Tuttavia, gli esperti hanno notato un chiaro scetticismo nei confronti di alcuni di essi. In particolare, gli autori di questi modelli sono stati accusati di frode e di fatto che i chatbot non soddisfacessero le capacità dichiarate.

Lo scetticismo è rafforzato dalle affermazioni secondo cui la stessa tecnologia GPT è ampiamente sopravvalutata, pubblicizzata dai media e completamente inadatta alla generazione di malware utilizzabile o alla creazione di tattiche di inganno avanzate. Anche se le “reti neurali criminali” possono aiutare un po’ i loro utenti, questo chiaramente non sarà sufficiente per sferrare un attacco complesso e ben congegnato.

I criminali informatici hanno altre preoccupazioni riguardo al codice generato da LLM, tra cui problemi di sicurezza uniti al rischio di essere rilevati da sistemi antivirus ed EDR .

Per quanto riguarda l’applicazione pratica, la maggior parte delle idee e dei concetti rimangono al livello delle discussioni e delle teorie. Esistono solo pochi esempi di successo di utilizzo di LLM per generare malware e strumenti di attacco, e solo in un contesto proof-of-concept (PoC).

Allo stesso tempo, alcuni forum segnalano l’uso efficace di LLM per risolvere altri compiti non direttamente legati al crimine informatico, come la codifica di routine, la generazione di dati di test, il porting di librerie in altri linguaggi, ecc. Tuttavia, anche il normale ChatGPT è adatto a queste attività.

I criminali informatici molto inesperti hanno mostrato un certo interesse nell’utilizzo di GPT per generare malware, ma spesso non sono in grado di aggirare i limiti dei modelli o comprendere gli errori nel codice risultante.

Nel complesso, almeno nei forum esaminati, gli LLM non sono ancora un argomento di discussione importante o un mercato particolarmente attivo rispetto ad altri prodotti e servizi legati alla criminalità informatica.

La maggior parte dei partecipanti ai forum continua a svolgere le proprie attività quotidiane di criminalità informatica, sperimentando solo occasionalmente le capacità dell’intelligenza artificiale generativa. Tuttavia, il numero di servizi GPT scoperti dai ricercatori suggerisce che questo mercato sta gradualmente crescendo e presto sempre più aggressori inizieranno a introdurre gradualmente componenti basati su LLM nei loro servizi.

In definitiva, lo studio di Sophos mostra che molti criminali informatici devono affrontare le stesse preoccupazioni di tutti gli altri riguardo ai LLM, inclusi problemi di accuratezza, privacy e applicabilità in scenari del mondo reale.

Questi dubbi chiaramente non impediscono assolutamente a tutti i criminali informatici di utilizzare LLM, ma la maggior parte finora ha adottato un approccio di attesa fino a quando la tecnologia non sarà ulteriormente aggiornata.

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.