
Nonostante le preoccupazioni dei ricercatori di sicurezza e delle forze dell’ordine in alcuni paesi riguardo all’uso dannoso di ChatGPT e modelli LLM simili, uno studio sui forum sulla criminalità informatica condotto da Sophos mostra che molti aggressori rimangono ancora scettici riguardo all’uso dei chatbot per attività malevole.
I ricercatori di Sophos hanno scoperto diversi modelli LLM nel cyber underground che affermano di avere capacità simili a WormGPT e FraudGPT, di cui abbiamo parlato recentemente. Tali modelli per i crimini professionali su Internet includono EvilGPT, DarkGPT, PentesterGPT e altri. Tuttavia, gli esperti hanno notato un chiaro scetticismo nei confronti di alcuni di essi. In particolare, gli autori di questi modelli sono stati accusati di frode e di fatto che i chatbot non soddisfacessero le capacità dichiarate.
Lo scetticismo è rafforzato dalle affermazioni secondo cui la stessa tecnologia GPT è ampiamente sopravvalutata, pubblicizzata dai media e completamente inadatta alla generazione di malware utilizzabile o alla creazione di tattiche di inganno avanzate. Anche se le “reti neurali criminali” possono aiutare un po’ i loro utenti, questo chiaramente non sarà sufficiente per sferrare un attacco complesso e ben congegnato.
I criminali informatici hanno altre preoccupazioni riguardo al codice generato da LLM, tra cui problemi di sicurezza uniti al rischio di essere rilevati da sistemi antivirus ed EDR .
Per quanto riguarda l’applicazione pratica, la maggior parte delle idee e dei concetti rimangono al livello delle discussioni e delle teorie. Esistono solo pochi esempi di successo di utilizzo di LLM per generare malware e strumenti di attacco, e solo in un contesto proof-of-concept (PoC).
Allo stesso tempo, alcuni forum segnalano l’uso efficace di LLM per risolvere altri compiti non direttamente legati al crimine informatico, come la codifica di routine, la generazione di dati di test, il porting di librerie in altri linguaggi, ecc. Tuttavia, anche il normale ChatGPT è adatto a queste attività.
I criminali informatici molto inesperti hanno mostrato un certo interesse nell’utilizzo di GPT per generare malware, ma spesso non sono in grado di aggirare i limiti dei modelli o comprendere gli errori nel codice risultante.
Nel complesso, almeno nei forum esaminati, gli LLM non sono ancora un argomento di discussione importante o un mercato particolarmente attivo rispetto ad altri prodotti e servizi legati alla criminalità informatica.
La maggior parte dei partecipanti ai forum continua a svolgere le proprie attività quotidiane di criminalità informatica, sperimentando solo occasionalmente le capacità dell’intelligenza artificiale generativa. Tuttavia, il numero di servizi GPT scoperti dai ricercatori suggerisce che questo mercato sta gradualmente crescendo e presto sempre più aggressori inizieranno a introdurre gradualmente componenti basati su LLM nei loro servizi.
In definitiva, lo studio di Sophos mostra che molti criminali informatici devono affrontare le stesse preoccupazioni di tutti gli altri riguardo ai LLM, inclusi problemi di accuratezza, privacy e applicabilità in scenari del mondo reale.
Questi dubbi chiaramente non impediscono assolutamente a tutti i criminali informatici di utilizzare LLM, ma la maggior parte finora ha adottato un approccio di attesa fino a quando la tecnologia non sarà ulteriormente aggiornata.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

HackingUn nuovo script open source consente agli utenti di Windows 11 di disattivare in modo esteso le funzionalità di intelligenza artificiale integrate nel sistema operativo. Il progetto, sviluppato da Zoicware, si chiama RemoveWindowsAI e nasce…
InnovazioneQuando si parla di sicurezza applicativa, il problema raramente è uno solo. È quasi sempre una catena di piccoli difetti, scelte sbagliate e controlli mancanti che, sommati, aprono la strada a incidenti gravi. È anche…
Cybercrimen8n, la piattaforma di automazione del flusso di lavoro “fair-code” apprezzata dai team tecnici per la sua combinazione di velocità low-code e flessibilità di programmazione, ha emesso un avviso di sicurezza critico. Pochi dettagli sono…
VulnerabilitàWhatsApp, l’app di messaggistica di Meta con oltre 3 miliardi di utenti attivi mensili, ha iniziato a introdurre modifiche tecniche per mitigare alcune vulnerabilità legate alla privacy dei dispositivi degli utenti. Le correzioni, individuate tramite…
Cyber ItaliaIl CERT-AGID ha individuato una nuova campagna di smishing che utilizza il nome dell’INPS come esca per sottrarre informazioni personali e documenti sensibili ai cittadini. L’operazione fraudolenta è stata rilevata nei primi giorni di gennaio…