Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

DeepSeek, Chat-GPT e Jailbreak? Come Abbiamo Fatto Scrivere un Malware Ad Una AI

Redazione RHC : 4 Febbraio 2025 08:04

“Ora che il Genio è uscito dalla lampada, è difficile rimettercelo dentro!”. E con le AI, questa non è solo un’analogia, ma una realtà sempre più evidente.

Negli ultimi anni, i Large Language Model (LLM) come Chat-GPT e DeepSeek hanno rivoluzionato il modo in cui interagiamo con l’intelligenza artificiale. Tuttavia, dietro a questi strumenti apparentemente innocui si nasconde una battaglia silenziosa: quella tra chi cerca di proteggere i modelli da usi impropri e chi, invece, tenta di aggirare le loro difese.

I cosiddetti jailbreak, ovvero tecniche per eludere le restrizioni imposte dai creatori di questi modelli, sono diventati un tema caldo nel mondo della cybersecurity e dell’etica dell’IA. Ma a cosa servono i jailbreack per i criminali informatici e non, se esistono modelli gratuiti nel darkweb e nel clearweb capaci di “delinquere” in modo egregio?

Jailbreak e Prompt Injection: una corsa agli armamenti digitale


Distribuisci i nostri corsi di formazione diventando un nostro Affiliato

Se sei un influencer, gestisci una community, un blog, un profilo social o semplicemente hai tanta voglia di diffondere cultura digitale e cybersecurity, questo è il momento perfetto per collaborare con RHC Academy. Unisciti al nostro Affiliate Program: potrai promuovere i nostri corsi online e guadagnare provvigioni ad ogni corso venduto. Fai parte del cambiamento. Diffondi conoscenza, costruisci fiducia, genera valore.

Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]



Supporta RHC attraverso:


Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.


Spesso veniamo a conoscenza di sistemi per aggirare le policy interne dei LLM più famosi. Laboratori di ricerca, come l’Unit 42 di Palo Alto Networks, studiano continuamente tecniche di prompt injection per testare e migliorare le difese di questi modelli. Questi attacchi mirano a manipolare l’IA affinché generi contenuti che normalmente sarebbero bloccati, come istruzioni per creare armi, malware o materiale dannoso.

Ad esempio, tecniche come il Bad Likert Judge, che sfrutta scale di valutazione per estrarre informazioni pericolose, o il Deceptive Delight, che costruisce gradualmente richieste sempre più esplicite, hanno dimostrato che anche i modelli più avanzati possono essere manipolati. Ma perché cercare di violare le policy di modelli come Chat-GPT o DeepSeek quando esistono già AI completamente libere da censure?

AI senza censure: il lato oscuro dei LLM

Dall’altra parte del mondo, in stati con legislazioni meno stringenti (o anche con legislazioni coerenti), esistono modelli di intelligenza artificiale che offrono servizi rimuovendo qualsiasi forma di censura.

Senza andare su modelli a pagamento, dei quali abbiamo parlato come GhostGPT o DarkGPT, esisto anche AI liberamente accessibili e a costo zero completamente aperte, accessibili a chiunque sappia dove trovarle.

Un esempio emblematico è un modello che abbiamo testato direttamente sul clear web, il quale ci ha fornito istruzioni dettagliate su come realizzare malware di qualsiasi natura, come ad esempio superare le ultime vulnerabilità rilevate sul Mark of the Web (MOTW), un meccanismo di sicurezza che avverte gli utenti quando un file proviene da una fonte esterna.

Questi modelli multilingua, privi di filtri, rappresentano una minaccia concreta, soprattutto nelle mani di criminali informatici esperti.

Una corsa senza fine

Quella che stiamo vivendo è una corsa senza fine, tra chi cerca di proteggere i LLM e chi tenta di sfruttarli in modo malevolo. Da un lato, ci sono aziende e ricercatori che lavorano per migliorare le difese dei modelli largamente diffusi, implementando meccanismi di rilevamento e prevenzione sempre più sofisticati.

Dall’altra parte, ci sono individui e organizzazioni che sfruttano le stesse tecnologie per scopi malevoli, spesso con un vantaggio significativo. I criminali informatici sono i primi a sapere e a diffondere risorse di questo tipo nei circuiti underground.

Il grande pubblico, invece, spesso ignora l’esistenza di queste “AI oscure” e continua a utilizzare strumenti di largo consumo come Chat-GPT o DeepSeek, convinto che siano sicuri e controllati. Ma la realtà è che, mentre noi discutiamo di etica e limitazioni, c’è un intero mondo sommerso che sfrutta l’IA senza regole.

LLM Senza Censura. Allineamento si, allineamento no: Cosa è meglio?

Negli ultimi anni, i modelli linguistici di grandi dimensioni (LLM) hanno rivoluzionato il panorama tecnologico, influenzando settori che vanno dalla ricerca accademica alla creazione di contenuti. Uno dei dibattiti più accesi riguarda il grado di allineamento di questi modelli con i principi etici e le linee guida imposte dai loro sviluppatori. Secondo un recente articolo pubblicato su Analytics India Magazine, i modelli non censurati sembrano ottenere risultati migliori rispetto a quelli allineati, sollevando interrogativi sulla necessità e sull’efficacia delle restrizioni etiche imposte dall’industria.

L’allineamento dei modelli AI nasce dalla volontà di evitare contenuti pericolosi, disinformazione e bias dannosi. Aziende come OpenAI e Google implementano rigorose politiche di sicurezza per garantire che le loro IA rispettino standard di condotta condivisi, riducendo il rischio di abusi. Tuttavia, il processo di allineamento introduce inevitabilmente filtri che limitano la libertà espressiva e, in alcuni casi, compromettono le prestazioni del modello. Questo perché i sistemi allineati potrebbero evitare di rispondere a domande controverse o generare risposte eccessivamente generiche per attenersi alle linee guida.

Al contrario, i modelli non censurati, che operano senza le stesse restrizioni etiche, dimostrano una maggiore flessibilità e capacità di fornire risposte più precise e dettagliate, soprattutto in contesti tecnici o di ricerca avanzata. Senza i vincoli imposti dall’allineamento, possono elaborare una gamma più ampia di informazioni e affrontare argomenti sensibili con maggiore profondità. Questo vantaggio, però, si accompagna a rischi significativi, come la diffusione incontrollata di disinformazione, contenuti dannosi e l’uso improprio da parte di attori malevoli.

Il problema centrale di questo dibattito non è solo tecnico, ma etico e politico. Un’intelligenza artificiale completamente libera potrebbe rappresentare una minaccia se utilizzata per scopi illeciti, mentre un modello eccessivamente allineato rischia di diventare inefficace o di riflettere un’agenda ideologica oppure attuare censura.

Alcuni ricercatori sostengono che l’equilibrio ideale risieda in un allineamento parziale, che consenta un certo grado di libertà espressiva senza compromettere la sicurezza. Tuttavia, definire i confini di tale equilibrio è una sfida complessa e soggetta a interpretazioni divergenti.

L’industria AI si trova dunque davanti a una scelta cruciale: proseguire lungo la strada dell’allineamento stringente, con il rischio di compromettere le prestazioni e la neutralità dei modelli, o adottare un approccio più permissivo, consapevole dei potenziali rischi. Le conseguenze di questa decisione avranno un impatto diretto sul futuro dell’IA e sulla sua integrazione nella società, influenzando la fiducia del pubblico e la regolamentazione del settore. La domanda fondamentale rimane aperta: quanto controllo è troppo controllo?

Conclusione: una sfida globale

La questione dei jailbreak e delle AI senza censure non è solo un problema tecnico, ma una sfida globale che coinvolge etica, sicurezza e legislazione. Mentre i modelli di intelligenza artificiale diventano sempre più potenti, è fondamentale che governi, aziende e società civile collaborino per garantire che queste tecnologie siano utilizzate in modo responsabile. Tuttavia, anche se riuscissimo a rimuovere ogni forma di jailbreak e a implementare meccanismi di controllo sempre più sofisticati, ci sarà sempre una quota parte di intelligenze artificiali che sfuggirà al controllo. Inoltre come visto in precedenza, molti sollevano dubbi sulla necessità di allineamento e si inizia a parlare di un “allineamento parziale”. Dalla controparte, queste AI, libere da restrizioni, saranno quelle maggiormente ottimizzate per le attività malevole e, purtroppo, più utilizzate dal cybercrime.

Ora che il Genio è uscito dalla lampada, è difficile rimettercelo dentro. Questa metafora è particolarmente calzante con l’intelligenza artificiale. L’IA ha il potenziale per realizzare desideri e risolvere problemi, ma può anche causare caos se lasciata incontrollata e non normata.

Forse la soluzione non sta nel cercare di rimettere il genio nella lampada, ma nel ridefinire il nostro rapporto con la tecnologia. Dobbiamo sviluppare una nuova consapevolezza, sia come individui che come società, su come utilizzare l’IA in modo etico e responsabile. Questo non richiederà avanzamenti tecnici, ma una voglia di profondo cambiamento culturale e legislativo che purtroppo oggi nessuno ha, per motivazioni spesso politiche.

La sfida dell’intelligenza artificiale non è solo tecnica, ma esistenziale. Ci costringe a confrontarci con i limiti del controllo umano e a chiederci cosa significhi davvero maneggiare una tecnologia che può essere superiore in vari campi rispetto alla nostra mente senza dimenticarci che la tecnologia può essere sia uno strumento di liberazione che di distruzione.

E mentre il genio continua a vagare libero, spetta a noi decidere come conviverci e da che parte stare!

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

Lista degli articoli

Articoli in evidenza

Cyberattack in Norvegia: apertura forzata della diga evidenzia la vulnerabilità dei sistemi OT/SCADA

Nel mese di aprile 2025, una valvola idraulica di una diga norvegese è stata forzatamente aperta da remoto per diverse ore, a seguito di un attacco informatico mirato. L’episodio, riportat...

Un milione di Lead Italiani del 2025 in vendita nelle underground. Per un Phishing senza domani!

Sul forum underground russo XSS è apparso un post che offre una “Collection di Lead Verificati Italia 2025” con oltre 1 milione di record. Questo tipo di inserzioni evidenzia la con...

Cyber War: la guerra invisibile nel cyberspazio che decide i conflitti del presente

Nel cuore dei conflitti contemporanei, accanto ai carri armati, ai droni e alle truppe, si combatte una guerra invisibile, silenziosa e spesso sottovalutata: la cyber war. Non è solo uno scenario...

Un Hacker divulga i dati sensibili dei politici spagnoli. Coinvolto anche il premier Pedro Sánchez

Le autorità iberiche sono impegnate in un’indagine riguardante un pirata informatico che ha divulgato informazioni sensibili relative a funzionari pubblici e figure politiche di spicco. Tr...

Arriva Skynet: il malware che Colpisce l’Intelligenza Artificiale!

Un insolito esempio di codice dannoso è stato scoperto in un ambiente informatico reale , che per la prima volta ha registrato un tentativo di attacco non ai classici meccanismi di difesa, ma dir...