Redazione RHC : 24 Giugno 2025 15:31
Secondo un rapporto di Cato Networks, i criminali informatici continuano a utilizzare attivamente i modelli LLM nei loro attacchi. In particolare, stiamo parlando di versioni dei modelli Grok e Mixtral deliberatamente modificate per aggirare le restrizioni integrate e generare contenuti dannosi.
A quanto pare, una di queste versioni modificate di Grok è apparsa sul popolare forum BreachForums a febbraio 2025. È stata pubblicata da un utente con lo pseudonimo di Keanu. Lo strumento è un wrapper per il modello Grok originale ed è controllato tramite un prompt di sistema appositamente scritto. È in questo modo che gli autori garantiscono che il modello ignori i meccanismi di protezione e generi email di phishing, codice dannoso e istruzioni di hacking.
Un secondo modello modificato, basato su Mixtral, un prodotto dell’azienda francese Mistral AI, è stato trovato anch’esso su BreachForums. È stato pubblicato da un altro utente del forum con il nickname xzin0vich a ottobre. Entrambi i modelli sono disponibili per l’acquisto da chiunque sul dark web.
Scarica Gratuitamente Byte The Silence, il fumetto sul Cyberbullismo di Red Hot Cyber
«Il cyberbullismo è una delle minacce più insidiose e silenziose che colpiscono i nostri ragazzi. Non si tratta di semplici "bravate online", ma di veri e propri atti di violenza digitale, capaci di lasciare ferite profonde e spesso irreversibili nell’animo delle vittime. Non possiamo più permetterci di chiudere gli occhi».
Così si apre la prefazione del fumetto di Massimiliano Brolli, fondatore di Red Hot Cyber, un’opera che affronta con sensibilità e realismo uno dei temi più urgenti della nostra epoca.
Distribuito gratuitamente, questo fumetto nasce con l'obiettivo di sensibilizzare e informare. È uno strumento pensato per scuole, insegnanti, genitori e vittime, ma anche per chi, per qualsiasi ragione, si è ritrovato nel ruolo del bullo, affinché possa comprendere, riflettere e cambiare.
Con la speranza che venga letto, condiviso e discusso, Red Hot Cyber è orgogliosa di offrire un contributo concreto per costruire una cultura digitale più consapevole, empatica e sicura.
Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]
Vale la pena notare che né xAI né Mistral AI hanno rilasciato dichiarazioni ufficiali su come i loro sviluppi siano finiti nelle mani dei criminali informatici.
Secondo Cato Networks, tali modifiche non rappresentano una vulnerabilità dei modelli Grok o Mixtral in sé. Rappresentano piuttosto un abuso del principio del prompt di sistema che determina il comportamento della rete neurale. Quando un aggressore invia una richiesta, questa diventa parte del dialogo generale con il modello, incluso il prompt stesso che imposta le istruzioni per aggirare le restrizioni.
Gli esperti hanno sottolineato che queste versioni “sbloccate” stanno diventando sempre più comuni. Attorno a esse si stanno gradualmente formando interi ecosistemi ombra, basati principalmente su LLM aperti. Con il loro aiuto, i criminali informatici ottengono accesso a potenti strumenti che semplificano notevolmente la creazione di phishing, malware e altri scenari di attacco.
Ciò che rende questa tendenza particolarmente difficile da contrastare è il fatto che Mixtral è distribuito come un modello completamente aperto, consentendo agli aggressori di eseguirlo sui propri server e di aprirne l’accesso tramite API ad altri partecipanti al darknet. I prodotti basati su Grok sono teoricamente controllati da xAI stessa, ma anche in questo caso, tracciare e bloccare gli abusi è un gioco del gatto e del topo.
La situazione è complicata dal fatto che tali strumenti sono andati ben oltre le build locali. Le prime versioni di tali prodotti, note come WormGPT, sono apparse sul darknet nel giugno 2023. All’epoca, l’IA generativa, basata su un modello aperto di EleutherAI, divenne rapidamente nota dopo un’inchiesta del giornalista Brian Krebs. Sebbene la versione originale fosse stata presto bloccata, i suoi analoghi con nomi come FraudGPT ed EvilGPT iniziarono a diffondersi in massa sui forum underground.
I prezzi per questi strumenti variano dai 60 ai 100 euro al mese, mentre per build private e configurazioni individuali si parla di circa 5.000 euro. Secondo Cato Networks, i criminali informatici stanno assumendo sempre più specialisti di intelligenza artificiale per creare le proprie versioni di tali modelli. Allo stesso tempo, come ha dimostrato lo studio, spesso non si tratta di uno sviluppo autonomo da zero, ma di modificare reti neurali esistenti.
Gli esperti del settore sottolineano che il mercato degli LLM “sbloccati” è enorme. Centinaia di questi modelli sono già disponibili nelle darknet, compresi quelli basati su DeepSeek . La tecnica principale utilizzata dagli aggressori è la manipolazione immediata. Riferimenti storici, abili parafrasi o costrutti nascosti contribuiscono a ingannare l’IA e a indurla a generare contenuti dannosi. La minaccia principale non risiede tanto nelle vulnerabilità tecniche, quanto nella rapidità con cui i criminali imparano a utilizzare l’IA per migliorare l’efficacia degli attacchi, accelerandone la preparazione e la precisione.
Secondo gli esperti, le attuali misure di protezione sono chiaramente insufficienti. Inoltre, sui forum underground si sta già assistendo all’emergere di un mercato di “jailbreak as a service”, dove è possibile ottenere reti neurali hackerate già pronte all’uso senza doverne comprendere i dettagli tecnici.
Un’insidiosa offensiva di malware, nota come “Sindoor Dropper”, si concentra sui sistemi operativi Linux, sfruttando metodi di spear-phishing raffinati e un complesso processo d’infezione arti...
E’ stata rilevata una falla critica zero-day nei sistemi Citrix NetScaler, catalogata come CVE-2025-6543, che è stata oggetto di sfruttamento attivo da parte degli hacker criminali da maggio 2025, ...
Il Pentagono ha inviato una “lettera di preoccupazione” a Microsoft documentando una “violazione di fiducia” in merito all’utilizzo da parte dell’azienda di ingegneri cinesi per la manuten...
Google è pronta ad adottare una posizione più proattiva per proteggere se stessa e potenzialmente altre organizzazioni statunitensi dagli attacchi informatici, con l’azienda che suggerisce di pote...
Una falla di sicurezza nelle app di messaggistica di WhatsApp per Apple iOS e macOS è stata sanata, come riferito dalla stessa società, dopo essere stata probabilmente sfruttata su larga scala insie...