Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Condividi la tua difesa. Incoraggia l'eccellenza.
La vera forza della cybersecurity risiede
nell'effetto moltiplicatore della conoscenza.
Banner Desktop
Banner Mobile
DeepSeek, Chat-GPT e Jailbreak? Come Abbiamo Fatto Scrivere un Malware Ad Una AI

DeepSeek, Chat-GPT e Jailbreak? Come Abbiamo Fatto Scrivere un Malware Ad Una AI

4 Febbraio 2025 08:04

“Ora che il Genio è uscito dalla lampada, è difficile rimettercelo dentro!”. E con le AI, questa non è solo un’analogia, ma una realtà sempre più evidente.

Negli ultimi anni, i Large Language Model (LLM) come Chat-GPT e DeepSeek hanno rivoluzionato il modo in cui interagiamo con l’intelligenza artificiale. Tuttavia, dietro a questi strumenti apparentemente innocui si nasconde una battaglia silenziosa: quella tra chi cerca di proteggere i modelli da usi impropri e chi, invece, tenta di aggirare le loro difese.

I cosiddetti jailbreak, ovvero tecniche per eludere le restrizioni imposte dai creatori di questi modelli, sono diventati un tema caldo nel mondo della cybersecurity e dell’etica dell’IA. Ma a cosa servono i jailbreack per i criminali informatici e non, se esistono modelli gratuiti nel darkweb e nel clearweb capaci di “delinquere” in modo egregio?

Jailbreak e Prompt Injection: una corsa agli armamenti digitale

Spesso veniamo a conoscenza di sistemi per aggirare le policy interne dei LLM più famosi. Laboratori di ricerca, come l’Unit 42 di Palo Alto Networks, studiano continuamente tecniche di prompt injection per testare e migliorare le difese di questi modelli. Questi attacchi mirano a manipolare l’IA affinché generi contenuti che normalmente sarebbero bloccati, come istruzioni per creare armi, malware o materiale dannoso.

Ad esempio, tecniche come il Bad Likert Judge, che sfrutta scale di valutazione per estrarre informazioni pericolose, o il Deceptive Delight, che costruisce gradualmente richieste sempre più esplicite, hanno dimostrato che anche i modelli più avanzati possono essere manipolati. Ma perché cercare di violare le policy di modelli come Chat-GPT o DeepSeek quando esistono già AI completamente libere da censure?

AI senza censure: il lato oscuro dei LLM

Dall’altra parte del mondo, in stati con legislazioni meno stringenti (o anche con legislazioni coerenti), esistono modelli di intelligenza artificiale che offrono servizi rimuovendo qualsiasi forma di censura.

Senza andare su modelli a pagamento, dei quali abbiamo parlato come GhostGPT o DarkGPT, esisto anche AI liberamente accessibili e a costo zero completamente aperte, accessibili a chiunque sappia dove trovarle.

Un esempio emblematico è un modello che abbiamo testato direttamente sul clear web, il quale ci ha fornito istruzioni dettagliate su come realizzare malware di qualsiasi natura, come ad esempio superare le ultime vulnerabilità rilevate sul Mark of the Web (MOTW), un meccanismo di sicurezza che avverte gli utenti quando un file proviene da una fonte esterna.

Questi modelli multilingua, privi di filtri, rappresentano una minaccia concreta, soprattutto nelle mani di criminali informatici esperti.

Una corsa senza fine

Quella che stiamo vivendo è una corsa senza fine, tra chi cerca di proteggere i LLM e chi tenta di sfruttarli in modo malevolo. Da un lato, ci sono aziende e ricercatori che lavorano per migliorare le difese dei modelli largamente diffusi, implementando meccanismi di rilevamento e prevenzione sempre più sofisticati.

Dall’altra parte, ci sono individui e organizzazioni che sfruttano le stesse tecnologie per scopi malevoli, spesso con un vantaggio significativo. I criminali informatici sono i primi a sapere e a diffondere risorse di questo tipo nei circuiti underground.

Il grande pubblico, invece, spesso ignora l’esistenza di queste “AI oscure” e continua a utilizzare strumenti di largo consumo come Chat-GPT o DeepSeek, convinto che siano sicuri e controllati. Ma la realtà è che, mentre noi discutiamo di etica e limitazioni, c’è un intero mondo sommerso che sfrutta l’IA senza regole.

LLM Senza Censura. Allineamento si, allineamento no: Cosa è meglio?

Negli ultimi anni, i modelli linguistici di grandi dimensioni (LLM) hanno rivoluzionato il panorama tecnologico, influenzando settori che vanno dalla ricerca accademica alla creazione di contenuti. Uno dei dibattiti più accesi riguarda il grado di allineamento di questi modelli con i principi etici e le linee guida imposte dai loro sviluppatori. Secondo un recente articolo pubblicato su Analytics India Magazine, i modelli non censurati sembrano ottenere risultati migliori rispetto a quelli allineati, sollevando interrogativi sulla necessità e sull’efficacia delle restrizioni etiche imposte dall’industria.

L’allineamento dei modelli AI nasce dalla volontà di evitare contenuti pericolosi, disinformazione e bias dannosi. Aziende come OpenAI e Google implementano rigorose politiche di sicurezza per garantire che le loro IA rispettino standard di condotta condivisi, riducendo il rischio di abusi. Tuttavia, il processo di allineamento introduce inevitabilmente filtri che limitano la libertà espressiva e, in alcuni casi, compromettono le prestazioni del modello. Questo perché i sistemi allineati potrebbero evitare di rispondere a domande controverse o generare risposte eccessivamente generiche per attenersi alle linee guida.

Al contrario, i modelli non censurati, che operano senza le stesse restrizioni etiche, dimostrano una maggiore flessibilità e capacità di fornire risposte più precise e dettagliate, soprattutto in contesti tecnici o di ricerca avanzata. Senza i vincoli imposti dall’allineamento, possono elaborare una gamma più ampia di informazioni e affrontare argomenti sensibili con maggiore profondità. Questo vantaggio, però, si accompagna a rischi significativi, come la diffusione incontrollata di disinformazione, contenuti dannosi e l’uso improprio da parte di attori malevoli.

Il problema centrale di questo dibattito non è solo tecnico, ma etico e politico. Un’intelligenza artificiale completamente libera potrebbe rappresentare una minaccia se utilizzata per scopi illeciti, mentre un modello eccessivamente allineato rischia di diventare inefficace o di riflettere un’agenda ideologica oppure attuare censura.

Alcuni ricercatori sostengono che l’equilibrio ideale risieda in un allineamento parziale, che consenta un certo grado di libertà espressiva senza compromettere la sicurezza. Tuttavia, definire i confini di tale equilibrio è una sfida complessa e soggetta a interpretazioni divergenti.

L’industria AI si trova dunque davanti a una scelta cruciale: proseguire lungo la strada dell’allineamento stringente, con il rischio di compromettere le prestazioni e la neutralità dei modelli, o adottare un approccio più permissivo, consapevole dei potenziali rischi. Le conseguenze di questa decisione avranno un impatto diretto sul futuro dell’IA e sulla sua integrazione nella società, influenzando la fiducia del pubblico e la regolamentazione del settore. La domanda fondamentale rimane aperta: quanto controllo è troppo controllo?

Conclusione: una sfida globale

La questione dei jailbreak e delle AI senza censure non è solo un problema tecnico, ma una sfida globale che coinvolge etica, sicurezza e legislazione. Mentre i modelli di intelligenza artificiale diventano sempre più potenti, è fondamentale che governi, aziende e società civile collaborino per garantire che queste tecnologie siano utilizzate in modo responsabile. Tuttavia, anche se riuscissimo a rimuovere ogni forma di jailbreak e a implementare meccanismi di controllo sempre più sofisticati, ci sarà sempre una quota parte di intelligenze artificiali che sfuggirà al controllo. Inoltre come visto in precedenza, molti sollevano dubbi sulla necessità di allineamento e si inizia a parlare di un “allineamento parziale”. Dalla controparte, queste AI, libere da restrizioni, saranno quelle maggiormente ottimizzate per le attività malevole e, purtroppo, più utilizzate dal cybercrime.

Ora che il Genio è uscito dalla lampada, è difficile rimettercelo dentro. Questa metafora è particolarmente calzante con l’intelligenza artificiale. L’IA ha il potenziale per realizzare desideri e risolvere problemi, ma può anche causare caos se lasciata incontrollata e non normata.

Forse la soluzione non sta nel cercare di rimettere il genio nella lampada, ma nel ridefinire il nostro rapporto con la tecnologia. Dobbiamo sviluppare una nuova consapevolezza, sia come individui che come società, su come utilizzare l’IA in modo etico e responsabile. Questo non richiederà avanzamenti tecnici, ma una voglia di profondo cambiamento culturale e legislativo che purtroppo oggi nessuno ha, per motivazioni spesso politiche.

La sfida dell’intelligenza artificiale non è solo tecnica, ma esistenziale. Ci costringe a confrontarci con i limiti del controllo umano e a chiederci cosa significhi davvero maneggiare una tecnologia che può essere superiore in vari campi rispetto alla nostra mente senza dimenticarci che la tecnologia può essere sia uno strumento di liberazione che di distruzione.

E mentre il genio continua a vagare libero, spetta a noi decidere come conviverci e da che parte stare!

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Marcello Filacchioni 300x300
ICT CISO e Cyber Security Manager con oltre vent’anni di esperienza tra settore pubblico e privato, ha guidato progetti di sicurezza informatica per realtà di primo piano. Specializzato in risk management, governance e trasformazione digitale, ha collaborato con vendor internazionali e startup innovative, contribuendo all’introduzione di soluzioni di cybersecurity avanzate. Possiede numerose certificazioni (CISM, CRISC, CISA, PMP, ITIL, CEH, Cisco, Microsoft, VMware) e svolge attività di docenza pro bono in ambito Cyber Security, unendo passione per l’innovazione tecnologica e impegno nella diffusione della cultura della sicurezza digitale.
Aree di competenza: Cyber Security Strategy & Governance, Vulnerability Management & Security Operations. 

Articoli in evidenza

Immagine del sitoCyber News
Scoperta Shock su Instagram: Post Privati Accessibili Senza Login!
Redazione RHC - 26/01/2026

La scoperta è avvenuta casualmente: navigando sulla versione web mobile di Instagram, Jatin Banga ha notato che i contenuti di alcuni profili privati erano visibili senza alcuna autorizzazione. Analizzando il traffico dati, ha individuato la…

Immagine del sitoCyber News
149 Milioni di Account Esposti: Il Database Che Nessuno Doveva Vedere
Redazione RHC - 26/01/2026

Un recente leak ha rivelato 149 milioni di login e password esposti online, tra cui account di servizi finanziari, social, gaming e siti di incontri. La scoperta è stata fatta dal ricercatore Jeremiah Fowler e…

Immagine del sitoCybercrime
Quando il Malware si Nasconde nei Video! La Tecnica PixelCode Smonta le Regole
Marcello Filacchioni - 26/01/2026

PixelCode nasce come progetto di ricerca che esplora una tecnica nascosta per archiviare dati binari all’interno di immagini o video. Invece di lasciare un eseguibile in chiaro, il file viene convertito in dati pixel, trasformando…

Immagine del sitoCyber News
Come un semplice file di Visual Studio Code può diventare una backdoor per hacker statali
Redazione RHC - 26/01/2026

Di recente, i ricercatori di sicurezza hanno osservato un’evoluzione preoccupante nelle tattiche offensive attribuite ad attori collegati alla Corea del Nord nell’ambito della campagna nota come Contagious Interview: non più semplici truffe di fake job…

Immagine del sitoCyber News
Microsoft Teams saprà dove sei: la posizione geografica verrà dedotta dal Wi-Fi
Redazione RHC - 26/01/2026

Microsoft si appresta a introdurre un aggiornamento che trasforma una piccola abitudine manuale in un automatismo di sistema. Presto, Microsoft Teams sarà in grado di dedurre e mostrare la posizione fisica di un utente analizzando…