Red Hot Cyber

La cybersecurity è condivisione.
Riconosci il rischio, combattilo, condividi le tue esperienze ed 
incentiva gli altri a fare meglio di te.

Cerca

L’intelligenza artificiale ora si addestra nel Dark Web. DarkBART consentirà di migliorare la cyber threat intelligence?

Pietro Melillo : 2 Agosto 2023 15:42

Lo sviluppatore di chatbot FraudGPT sta sviluppando attivamente strumenti avanzati che utilizzano modelli di intelligenza artificiale generativa, simili alla tecnologia chatbot di Google Bard e OpenAI. 

Si tratta di un Large Language Model (LLM), che utilizza tutti i dati prelevati dal dark web come base di conoscenza. Lo riferisce l’azienda SlashNext, riferendosi ai messaggi dell’autore di FraudGPT.

Un hacker etico che in precedenza aveva scoperto un altro strumento di intelligenza artificiale (AI), WormGPT, ha avvisato i ricercatori che lo sviluppatore di FraudGPT – noto anche nei forum underground come “CanadianKingpin12“ – sta lavorando a nuovi chatbot capaci di generare truffe online.

I prossimi bot DarkBART e DarkBERT, avranno funzionalità simili a ChatGPT, e consentiranno agli hacker di sviluppare sofisticate campagne di phishing, rilevare e sfruttare le vulnerabilità, verificare la presenza di punti deboli nelle infrastrutture critiche e creare e distribuire malware.

DarkBART è la “versione oscura” di Google BART. La base di DarkBART sarà il modello DarkBERT LLM, sviluppato da scienziati della Corea del Sud per combattere il crimine informatico. Lo sviluppatore ha anche annunciato la possibilità di integrare il nuovo strumento con Google Lens. Ciò ti consentirà di inviare testo con immagini, il che apre nuove prospettive, poiché fino a d oggi gli strumenti AI sono basati su testo.

DarkBERT utilizzerà tutte le informazioni della rete oscura come dati di addestramento, offrendo agli aggressori l’accesso ad informazioni underground sulle minacce informatiche.

La protezione dalle minacce richiederà un’azione attiva. Oltre alla consueta formazione dei dipendenti aziendali sul riconoscimento degli attacchi di phishing, le organizzazioni dovrebbero fornire una formazione specializzata volta a sensibilizzare i dipendenti sulla natura degli attacchi e sul ruolo dell’intelligenza artificiale. 

Inoltre, le misure di verifica delle e-mail per combattere le minacce basate sull’intelligenza artificiale devono essere rafforzate aggiungendo procedure rigorose e meccanismi di tracciamento delle parole chiave alle misure esistenti.

Pietro Melillo
Ingegnere Informatico specializzato in Cyber Security con una profonda passione per l’Hacking e la tecnologia, attualmente CISO di WURTH Italia, è stato responsabile dei servizi di Cyber Threat Intelligence & Dark Web analysis in IBM, svolge attività di ricerca e docenza su tematiche di Cyber Threat Intelligence presso l’Università del Sannio, come Ph.D, autore di paper scientifici e sviluppo di strumenti a supporto delle attività di cybersecurity.