Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
Banner Ransomfeed 970x120 1
Enterprise BusinessLog 320x200 1
Il lato oscuro dell’Intelligenza Artificiale. Come il cybercrime sta innovando nell’ombra

Il lato oscuro dell’Intelligenza Artificiale. Come il cybercrime sta innovando nell’ombra

Redazione RHC : 26 Gennaio 2024 11:29

Gli specialisti di Kaspersky Digital Footprint Intelligence hanno studiato i messaggi nel darknet relativi all’uso di ChatGPT e altre soluzioni simili basate su Large Language Model (LLM). Di conseguenza, nel 2023, sono stati trovati più di 2.890 post di questo tipo sui forum underground e sui canali Telegram.

Il maggior numero di discussioni si è verificato nel mese di aprile: questo mese gli esperti hanno registrato 509 messaggi.

Statistiche generali delle discussioni relative all’intelligenza artificiale

Il rapporto della società rivela che numerose discussioni possono essere suddivise nelle seguenti aree.

Abuso di ChatGPT


Enterprise

Prova la Demo di Business Log! Adaptive SOC italiano
Log management non solo per la grande Azienda, ma una suite di Audit file, controllo USB, asset, sicurezza e un Security Operation Center PERSONALE, che ti riporta tutte le operazioni necessarie al tuo PC per tutelare i tuoi dati e informati in caso di problemi nel tuo ambiente privato o di lavoro. Scarica ora la Demo di Business Log per 30gg


Supporta Red Hot Cyber attraverso: 

  1. L'acquisto del fumetto sul Cybersecurity Awareness
  2. Ascoltando i nostri Podcast
  3. Seguendo RHC su WhatsApp
  4. Seguendo RHC su Telegram
  5. Scarica gratuitamente “Byte The Silence”, il fumetto sul Cyberbullismo di Red Hot Cyber

Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì.

Ad esempio, un post suggerisce di utilizzare GPT per generare codice dannoso polimorfico con una determinata funzionalità. Cioè, accedendo a un dominio legittimo (openai.com) da un oggetto infetto, un utente malintenzionato può generare ed eseguire codice dannoso. Questo è possibile aggirando una serie di controlli di sicurezza standard. I ricercatori sottolineano di non aver ancora scoperto un malware che agisca in questo modo, ma potrebbe apparire in futuro.

I criminali hanno anche iniziato a utilizzare spesso ChatGPT per sviluppare malware e per altri scopi illegali. Un visitatore di un forum di hacking ha descritto come l’uso dell’intelligenza artificiale lo abbia aiutato a risolvere un problema durante l’elaborazione dei dump dei dati degli utenti.

Jailbreak dei LLM

Per consentire ai LLM di fornire risposte “proibite”, gli hacker ricorrono a varie forme di jailbreack attraverso le “Prompt injection”. Nel 2023, i ricercatori hanno trovato 249 proposte per la distribuzione e la vendita di tali jailbreack. Si noti che il jailbreak può essere utilizzato anche per migliorare legittimamente il funzionamento di tali servizi.

Creazione di Malware

Inoltre, i partecipanti ai forum underground si scambiano attivamente idee sull’utilizzo dell’IA per migliorare il malware e aumentare l’efficacia degli attacchi informatici. In uno dei messaggi si parlava i un software che utilizzando l’intelligenza artificiale garantiva agli operatori di cambiare automaticamente i domini di copertura utilizzati.

Open source e programmi per il pentesting

Diverse soluzioni basate su ChatGPT vengono testate attivamente dagli sviluppatori open source, anche in progetti destinati a specialisti di sicurezza informatica. Anche gli hacker criminali prestano attenzione a questi sviluppi.

Ad esempio, su GitHub puoi trovare un’utilità open source basata su un modello generativo, progettato per offuscare il codice PowerShell. L’offuscamento consente di evitare il rilevamento da parte di sistemi di monitoraggio e soluzioni di sicurezza.

Tali utilità possono essere utilizzate sia dai pentester che dagli aggressori, e questi ultimi sono stati visti discutere su come questa soluzione potrebbe essere utilizzata per scopi dannosi.

LLM malevoli ma senza i limiti di ChatGPT

E’ innegabile che i chatbot hanno suscitato grande interesse all’interno delle community underground. Alcuni sistemi malevoli sono stati realizzati e tra questi WormGPT , XXXGPT, FraudGPT. Vengono offerti in sostituzione di ChatGPT, non presentano le limitazioni degli originali e dispongono di funzionalità aggiuntive (ad esempio, per organizzare mailing di phishing e compromettere la posta elettronica aziendale).

Tuttavia, una maggiore attenzione a tali sviluppi non sempre gioca a favore dei loro creatori. Pertanto, WormGPT è stato chiuso nell’agosto 2023 a causa dei timori diffusi che potesse rappresentare una minaccia. Inoltre, molti siti e annunci pubblicitari scoperti dagli specialisti di Kaspersky Lab che offrivano di acquistare l’accesso a WormGPT si sono rivelati phishing e truffe.

Anche la vendita di account per la versione a pagamento di ChatGPT, rubati a utenti reali e aziende, è un argomento molto popolare nelle darknet. Oltre agli account hackerati, è comune anche la vendita di account gratuiti creati automaticamente. Gli aggressori automatizzano la registrazione sulla piattaforma utilizzando dati falsi o temporanei. Tali account hanno un limite al numero di richieste all’API e vengono venduti in pacchetti. Ciò consente agli hacker di risparmiare tempo e di passare immediatamente a un nuovo account non appena quello precedente smette di funzionare.

Si teme che lo sviluppo di modelli linguistici di grandi dimensioni consenta agli aggressori di semplificare le proprie attività e allo stesso tempo riduca le barriere che impediscono loro di entrare nel settore. Tuttavia, al momento non vediamo casi reali in cui siano state utilizzate tali soluzioni. Tuttavia, la tecnologia si sta sviluppando a un ritmo rapido ed è probabile che le capacità dei modelli linguistici consentiranno presto attacchi sofisticati, quindi è importante monitorare da vicino quest’area”, commenta Alisa Kulishenko, analista di Kaspersky Digital Footprint Intelligence.

Immagine del sitoRedazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

Lista degli articoli

Articoli in evidenza

Immagine del sito
Dentro NVIDIA: Jensen Huang guida 36 manager, 36.000 dipendenti e legge 20.000 email al giorno
Di Redazione RHC - 03/11/2025

Il CEO di NVIDIA, Jen-Hsun Huang, oggi supervisiona direttamente 36 collaboratori suddivisi in sette aree chiave: strategia, hardware, software, intelligenza artificiale, pubbliche relazioni, networki...

Immagine del sito
La Russia limita l’intelligenza artificiale per proteggere i posti di lavoro
Di Redazione RHC - 03/11/2025

La Duma di Stato della Federazione Russa ha adottato all’unanimità un appello a tutti gli sviluppatori di reti neurali nazionali e stranieri, chiedendo che all’intelligenza artificiale venga impe...

Immagine del sito
I Bug Hunter resteranno senza lavoro? OpenAI presenta Aardvark, il nuovo “bug fixer”
Di Redazione RHC - 03/11/2025

OpenAI ha presentato Aardvark, un assistente autonomo basato sul modello GPT-5 , progettato per individuare e correggere automaticamente le vulnerabilità nel codice software. Questo strumento di inte...

Immagine del sito
Quando Google indicizza anche l’inganno! Le reti fantasma scoperte da RHC che penalizzano la SERP
Di Redazione RHC - 03/11/2025

Analisi RHC sulla rete “BHS Links” e sulle infrastrutture globali di Black Hat SEO automatizzato Un’analisi interna di Red Hot Cyber sul proprio dominio ha portato alla luce una rete globale di ...

Immagine del sito
Furto al Louvre: la password “LOUVRE” del sistema di sorveglianza ha messo in crisi il museo
Di Redazione RHC - 02/11/2025

Abbiamo recentemente pubblicato un approfondimento sul “furto del secolo” al Louvre, nel quale sottolineavamo come la sicurezza fisica – accessi, controllo ambientale, vigilanza – sia oggi str...