Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

Il lato oscuro dell’Intelligenza Artificiale. Come il cybercrime sta innovando nell’ombra

Redazione RHC : 26 Gennaio 2024 11:29

Gli specialisti di Kaspersky Digital Footprint Intelligence hanno studiato i messaggi nel darknet relativi all’uso di ChatGPT e altre soluzioni simili basate su Large Language Model (LLM). Di conseguenza, nel 2023, sono stati trovati più di 2.890 post di questo tipo sui forum underground e sui canali Telegram.

Il maggior numero di discussioni si è verificato nel mese di aprile: questo mese gli esperti hanno registrato 509 messaggi.

Statistiche generali delle discussioni relative all’intelligenza artificiale

Il rapporto della società rivela che numerose discussioni possono essere suddivise nelle seguenti aree.

Abuso di ChatGPT

Prompt Engineering & Sicurezza: diventa l’esperto che guida l’AI

Vuoi dominare l’AI generativa e usarla in modo sicuro e professionale? Con il Corso Prompt Engineering: dalle basi alla cybersecurity, guidato da Luca Vinciguerra, data scientist ed esperto di sicurezza informatica, impari a creare prompt efficaci, ottimizzare i modelli linguistici e difenderti dai rischi legati all’intelligenza artificiale. Un percorso pratico e subito spendibile per distinguerti nel mondo del lavoro.
Non restare indietro: investi oggi nelle tue competenze e porta il tuo profilo professionale a un nuovo livello.
Guarda subito l'anteprima gratuita del corso su academy.redhotcyber.com
Contattaci per ulteriori informazioni tramite WhatsApp al 375 593 1011 oppure scrivi a [email protected]



Supporta RHC attraverso:
 

  1. L'acquisto del fumetto sul Cybersecurity Awareness
  2. Ascoltando i nostri Podcast
  3. Seguendo RHC su WhatsApp
  4. Seguendo RHC su Telegram
  5. Scarica gratuitamente “Byte The Silence”, il fumetto sul Cyberbullismo di Red Hot Cyber

Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì.
 

Ad esempio, un post suggerisce di utilizzare GPT per generare codice dannoso polimorfico con una determinata funzionalità. Cioè, accedendo a un dominio legittimo (openai.com) da un oggetto infetto, un utente malintenzionato può generare ed eseguire codice dannoso. Questo è possibile aggirando una serie di controlli di sicurezza standard. I ricercatori sottolineano di non aver ancora scoperto un malware che agisca in questo modo, ma potrebbe apparire in futuro.

I criminali hanno anche iniziato a utilizzare spesso ChatGPT per sviluppare malware e per altri scopi illegali. Un visitatore di un forum di hacking ha descritto come l’uso dell’intelligenza artificiale lo abbia aiutato a risolvere un problema durante l’elaborazione dei dump dei dati degli utenti.

Jailbreak dei LLM

Per consentire ai LLM di fornire risposte “proibite”, gli hacker ricorrono a varie forme di jailbreack attraverso le “Prompt injection”. Nel 2023, i ricercatori hanno trovato 249 proposte per la distribuzione e la vendita di tali jailbreack. Si noti che il jailbreak può essere utilizzato anche per migliorare legittimamente il funzionamento di tali servizi.

Creazione di Malware

Inoltre, i partecipanti ai forum underground si scambiano attivamente idee sull’utilizzo dell’IA per migliorare il malware e aumentare l’efficacia degli attacchi informatici. In uno dei messaggi si parlava i un software che utilizzando l’intelligenza artificiale garantiva agli operatori di cambiare automaticamente i domini di copertura utilizzati.

Open source e programmi per il pentesting

Diverse soluzioni basate su ChatGPT vengono testate attivamente dagli sviluppatori open source, anche in progetti destinati a specialisti di sicurezza informatica. Anche gli hacker criminali prestano attenzione a questi sviluppi.

Ad esempio, su GitHub puoi trovare un’utilità open source basata su un modello generativo, progettato per offuscare il codice PowerShell. L’offuscamento consente di evitare il rilevamento da parte di sistemi di monitoraggio e soluzioni di sicurezza.

Tali utilità possono essere utilizzate sia dai pentester che dagli aggressori, e questi ultimi sono stati visti discutere su come questa soluzione potrebbe essere utilizzata per scopi dannosi.

LLM malevoli ma senza i limiti di ChatGPT

E’ innegabile che i chatbot hanno suscitato grande interesse all’interno delle community underground. Alcuni sistemi malevoli sono stati realizzati e tra questi WormGPT , XXXGPT, FraudGPT. Vengono offerti in sostituzione di ChatGPT, non presentano le limitazioni degli originali e dispongono di funzionalità aggiuntive (ad esempio, per organizzare mailing di phishing e compromettere la posta elettronica aziendale).

Tuttavia, una maggiore attenzione a tali sviluppi non sempre gioca a favore dei loro creatori. Pertanto, WormGPT è stato chiuso nell’agosto 2023 a causa dei timori diffusi che potesse rappresentare una minaccia. Inoltre, molti siti e annunci pubblicitari scoperti dagli specialisti di Kaspersky Lab che offrivano di acquistare l’accesso a WormGPT si sono rivelati phishing e truffe.

Anche la vendita di account per la versione a pagamento di ChatGPT, rubati a utenti reali e aziende, è un argomento molto popolare nelle darknet. Oltre agli account hackerati, è comune anche la vendita di account gratuiti creati automaticamente. Gli aggressori automatizzano la registrazione sulla piattaforma utilizzando dati falsi o temporanei. Tali account hanno un limite al numero di richieste all’API e vengono venduti in pacchetti. Ciò consente agli hacker di risparmiare tempo e di passare immediatamente a un nuovo account non appena quello precedente smette di funzionare.

Si teme che lo sviluppo di modelli linguistici di grandi dimensioni consenta agli aggressori di semplificare le proprie attività e allo stesso tempo riduca le barriere che impediscono loro di entrare nel settore. Tuttavia, al momento non vediamo casi reali in cui siano state utilizzate tali soluzioni. Tuttavia, la tecnologia si sta sviluppando a un ritmo rapido ed è probabile che le capacità dei modelli linguistici consentiranno presto attacchi sofisticati, quindi è importante monitorare da vicino quest’area”, commenta Alisa Kulishenko, analista di Kaspersky Digital Footprint Intelligence.

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

Lista degli articoli

Articoli in evidenza

Attacchi agli aeroporti europei: ENISA identifica il ransomware
Di Redazione RHC - 22/09/2025

L’Agenzia europea per la sicurezza informatica (ENISA) ha annunciato di aver identificato il ransomware che ha bloccato gli aeroporti europei. L’incidente ha colpito diverse città europee, tra cu...

I vincitori della corsa all’Intelligenza artificiale? Saranno gli elettricisti e gli idraulici
Di Redazione RHC - 22/09/2025

In un’intervista con Channel 4 News, il CEO di Nvidia, Jensen Huang, ha dichiarato che nella corsa al successo nell’era dell’intelligenza artificiale, “i grandi vincitori saranno elettricisti ...

Maxi leak su DarkForums: 196 siti italiani esposti con credenziali FTP in chiaro
Di Luca Stivali - 22/09/2025

Il 20 settembre 2025 alle 23:52 è comparso su DarkForums un thread dal titolo “FRESH FTP LEAK”, pubblicato dall’utente Hackfut. Il materiale esporrebbe accessi a server FTP distribuiti in d...

Dal guinzaglio all’autonomia: Ban, blocco Nvidia e soluzioni cluster AI di Huawei
Di Redazione RHC - 22/09/2025

La cinese Huawei ha compiuto un passo importante nello sviluppo della propria infrastruttura di intelligenza artificiale. L’azienda ha presentato soluzioni progettate per aumentare la potenza di cal...

Gli hacker non vogliono salvarti: vogliono cancellarti
Di Redazione RHC - 21/09/2025

Gli hacker prendono sempre più di mira i backup , non i sistemi o i server, ma i dati che le aziende conservano per un periodo di tempo limitato, in modo da potersi riprendere in caso di attacchi. Un...