Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

Il lato oscuro dell’Intelligenza Artificiale. Come il cybercrime sta innovando nell’ombra

Redazione RHC : 26 Gennaio 2024 11:29

Gli specialisti di Kaspersky Digital Footprint Intelligence hanno studiato i messaggi nel darknet relativi all’uso di ChatGPT e altre soluzioni simili basate su Large Language Model (LLM). Di conseguenza, nel 2023, sono stati trovati più di 2.890 post di questo tipo sui forum underground e sui canali Telegram.

Il maggior numero di discussioni si è verificato nel mese di aprile: questo mese gli esperti hanno registrato 509 messaggi.

Statistiche generali delle discussioni relative all’intelligenza artificiale

Il rapporto della società rivela che numerose discussioni possono essere suddivise nelle seguenti aree.

Abuso di ChatGPT

Iscriviti GRATIS ai WorkShop Hands-On della RHC Conference 2025 (Giovedì 8 maggio 2025)

Il giorno giovedì 8 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terranno i workshop "hands-on", creati per far avvicinare i ragazzi (o persone di qualsiasi età) alla sicurezza informatica e alla tecnologia. Questo anno i workshop saranno:

  • Creare Un Sistema Ai Di Visual Object Tracking (Hands on)
  • Social Engineering 2.0: Alla Scoperta Delle Minacce DeepFake
  • Doxing Con Langflow: Stiamo Costruendo La Fine Della Privacy?
  • Come Hackerare Un Sito WordPress (Hands on)
  • Il Cyberbullismo Tra Virtuale E Reale
  • Come Entrare Nel Dark Web In Sicurezza (Hands on)

  • Potete iscrivervi gratuitamente all'evento, che è stato creato per poter ispirare i ragazzi verso la sicurezza informatica e la tecnologia.
    Per ulteriori informazioni, scrivi a [email protected] oppure su Whatsapp al 379 163 8765


    Supporta RHC attraverso:


    Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.

    Ad esempio, un post suggerisce di utilizzare GPT per generare codice dannoso polimorfico con una determinata funzionalità. Cioè, accedendo a un dominio legittimo (openai.com) da un oggetto infetto, un utente malintenzionato può generare ed eseguire codice dannoso. Questo è possibile aggirando una serie di controlli di sicurezza standard. I ricercatori sottolineano di non aver ancora scoperto un malware che agisca in questo modo, ma potrebbe apparire in futuro.

    I criminali hanno anche iniziato a utilizzare spesso ChatGPT per sviluppare malware e per altri scopi illegali. Un visitatore di un forum di hacking ha descritto come l’uso dell’intelligenza artificiale lo abbia aiutato a risolvere un problema durante l’elaborazione dei dump dei dati degli utenti.

    Jailbreak dei LLM

    Per consentire ai LLM di fornire risposte “proibite”, gli hacker ricorrono a varie forme di jailbreack attraverso le “Prompt injection”. Nel 2023, i ricercatori hanno trovato 249 proposte per la distribuzione e la vendita di tali jailbreack. Si noti che il jailbreak può essere utilizzato anche per migliorare legittimamente il funzionamento di tali servizi.

    Creazione di Malware

    Inoltre, i partecipanti ai forum underground si scambiano attivamente idee sull’utilizzo dell’IA per migliorare il malware e aumentare l’efficacia degli attacchi informatici. In uno dei messaggi si parlava i un software che utilizzando l’intelligenza artificiale garantiva agli operatori di cambiare automaticamente i domini di copertura utilizzati.

    Open source e programmi per il pentesting

    Diverse soluzioni basate su ChatGPT vengono testate attivamente dagli sviluppatori open source, anche in progetti destinati a specialisti di sicurezza informatica. Anche gli hacker criminali prestano attenzione a questi sviluppi.

    Ad esempio, su GitHub puoi trovare un’utilità open source basata su un modello generativo, progettato per offuscare il codice PowerShell. L’offuscamento consente di evitare il rilevamento da parte di sistemi di monitoraggio e soluzioni di sicurezza.

    Tali utilità possono essere utilizzate sia dai pentester che dagli aggressori, e questi ultimi sono stati visti discutere su come questa soluzione potrebbe essere utilizzata per scopi dannosi.

    LLM malevoli ma senza i limiti di ChatGPT

    E’ innegabile che i chatbot hanno suscitato grande interesse all’interno delle community underground. Alcuni sistemi malevoli sono stati realizzati e tra questi WormGPT , XXXGPT, FraudGPT. Vengono offerti in sostituzione di ChatGPT, non presentano le limitazioni degli originali e dispongono di funzionalità aggiuntive (ad esempio, per organizzare mailing di phishing e compromettere la posta elettronica aziendale).

    Tuttavia, una maggiore attenzione a tali sviluppi non sempre gioca a favore dei loro creatori. Pertanto, WormGPT è stato chiuso nell’agosto 2023 a causa dei timori diffusi che potesse rappresentare una minaccia. Inoltre, molti siti e annunci pubblicitari scoperti dagli specialisti di Kaspersky Lab che offrivano di acquistare l’accesso a WormGPT si sono rivelati phishing e truffe.

    Anche la vendita di account per la versione a pagamento di ChatGPT, rubati a utenti reali e aziende, è un argomento molto popolare nelle darknet. Oltre agli account hackerati, è comune anche la vendita di account gratuiti creati automaticamente. Gli aggressori automatizzano la registrazione sulla piattaforma utilizzando dati falsi o temporanei. Tali account hanno un limite al numero di richieste all’API e vengono venduti in pacchetti. Ciò consente agli hacker di risparmiare tempo e di passare immediatamente a un nuovo account non appena quello precedente smette di funzionare.

    Si teme che lo sviluppo di modelli linguistici di grandi dimensioni consenta agli aggressori di semplificare le proprie attività e allo stesso tempo riduca le barriere che impediscono loro di entrare nel settore. Tuttavia, al momento non vediamo casi reali in cui siano state utilizzate tali soluzioni. Tuttavia, la tecnologia si sta sviluppando a un ritmo rapido ed è probabile che le capacità dei modelli linguistici consentiranno presto attacchi sofisticati, quindi è importante monitorare da vicino quest’area”, commenta Alisa Kulishenko, analista di Kaspersky Digital Footprint Intelligence.

    Redazione
    La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

    Lista degli articoli

    Articoli in evidenza

    Buon World Password Day! Tra MIT, Hacker, Infostealer e MFA. Perchè sono così vulnerabili

    Domani celebreremo uno degli elementi più iconici – e al tempo stesso vulnerabili – della nostra vita digitale: la password. Da semplice chiave d’accesso inventata negli anni...

    Benvenuti su Mist Market: dove con un click compri droga, identità e banconote false

    Ci sono luoghi nel web dove la normalità cede il passo all’illecito, dove l’apparenza di un marketplace moderno e funzionale si trasforma in una vetrina globale per ogni tipo di rea...

    La Cina Accusa la NSA di aver usato Backdoor Native su Windows per hackerare i Giochi Asiatici

    Le backdoor come sappiamo sono ovunque e qualora presenti possono essere utilizzate sia da chi le ha richieste ma anche a vantaggio di chi le ha scoperte e questo potrebbe essere un caso emblematico s...

    WindTre comunica un DataBreach che ha coinvolto i sistemi dei rivenditori

    Il 25 febbraio 2025 WindTre ha rilevato un accesso non autorizzato ai sistemi informatici utilizzati dai propri rivenditori. L’intrusione, riconosciuta come un’azione malevola, è st...

    Non sono ancora chiari i motivi del grande blackout in Spagna e Portogallo

    Ancora non sono chiari i motivi che hanno causato un grave Blackout in Spagna e Portogallo nelle ultime ore. Vaste aree sono rimaste senza energia elettrica, scatenando un’ondata di speculazion...