Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Condividi la tua difesa. Incoraggia l'eccellenza.
La vera forza della cybersecurity risiede
nell'effetto moltiplicatore della conoscenza.
HackTheBox 970x120 1
Enterprise BusinessLog 320x200 1
Ecco come Chat-GPT sa tutti di noi! Quando l’AI Diventa il Nemico degli Hacker

Ecco come Chat-GPT sa tutti di noi! Quando l’AI Diventa il Nemico degli Hacker

12 Ottobre 2024 11:51

OpenAI, lo sviluppatore del popolare chatbot ChatGPT, ha presentato un rapporto sull’effetto insolito (e persino divertente) dell’utilizzo dell’intelligenza artificiale per scopi dannosi. Si scopre che i recenti tentativi da parte degli aggressori di utilizzare ChatGPT non hanno fatto altro che aiutare le indagini: il sistema ha rivelato molte informazioni preziose sulle loro intenzioni e metodi.

Isolati i Criminali informatici di Cina, Iran e Israele

Durante lo studio, OpenAI ha identificato 20 casi di uso improprio dei suoi prodotti. Questi includono lo sviluppo di malware più complessi e la creazione di post falsi sui social network. Il rapporto menziona le attività di gruppi provenienti da paesi come Cina, Iran e Israele.

Uno dei casi più significativi riguarda il gruppo SweetSpecter, presumibilmente operante dalla Cina. Gli hacker hanno utilizzato le richieste inviate a ChatGPT per preparare una campagna di phishing rivolta a funzionari governativi e dipendenti di OpenAI. Nelle e-mail, fingendosi utenti comuni, hanno riferito di aver riscontrato problemi tecnici sulla piattaforma. L’allegato e-mail conteneva il malware SugarGh0st RAT, in grado di prendere immediatamente il controllo di un computer infetto.


Cyber Offensive Fundamentale Ethical Hacking 02

Avvio delle iscrizioni al corso Cyber Offensive Fundamentals
Vuoi smettere di guardare tutorial e iniziare a capire davvero come funziona la sicurezza informatica?
La base della sicurezza informatica, al di là di norme e tecnologie, ha sempre un unico obiettivo: fermare gli attacchi dei criminali informatici. Pertanto "Pensa come un attaccante, agisci come un difensore". Ti porteremo nel mondo dell'ethical hacking e del penetration test come nessuno ha mai fatto prima. Per informazioni potete accedere alla pagina del corso oppure contattarci tramite WhatsApp al numero 379 163 8765 oppure scrivendoci alla casella di posta [email protected].


Supporta Red Hot Cyber attraverso: 

  1. L'acquisto del fumetto sul Cybersecurity Awareness
  2. Ascoltando i nostri Podcast
  3. Seguendo RHC su WhatsApp
  4. Seguendo RHC su Telegram
  5. Scarica gratuitamente “Byte The Silence”, il fumetto sul Cyberbullismo di Red Hot Cyber

Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì.

Tracciando le richieste di SweetSpecter a ChatGPT, OpenAI è riuscita a rilevare il primo attacco noto del gruppo contro un’azienda statunitense che si occupa anche di soluzioni AI. Gli hacker hanno chiesto al chatbot quali argomenti potrebbero interessare i dipendenti pubblici e come aggirare i sistemi di filtraggio degli allegati.

Un altro caso ha coinvolto un gruppo chiamato CyberAv3ngers, ritenuto associato all’esercito iraniano. Gli aggressori, noti per i loro attacchi distruttivi alle infrastrutture negli Stati Uniti, Irlanda e Israele, hanno prestato particolare attenzione alla raccolta di dati sui controllori logici programmabili (PLC) e al tentativo di trovare combinazioni standard di login e password per hackerarli. Alcune delle richieste hanno indicato interesse per siti in Giordania e in Europa centrale. L’analisi delle richieste al chatbot ha rivelato ulteriori tecnologie e programmi che il team potrebbe utilizzare durante le operazioni future.

Allo stesso modo sono state interrotte le attività del gruppo hacker iraniano STORM-0817. L’azienda ha scoperto i primi sforzi del gruppo volti a utilizzare modelli di intelligenza artificiale e ha acquisito una visione unica dell’infrastruttura e delle funzionalità in fase di sviluppo. Ad esempio, dalle domande al chatbot è emerso che il gruppo stava testando un codice per raccogliere dati dai profili Instagram di un giornalista iraniano critico nei confronti del governo del paese. Oltre a ChatGPT i criminali hanno tentato di utilizzare anche il generatore di immagini DALL-E di OpenAI.

Più si avvicinano a ChatGPT, più possono essere smascherati

Il rapporto afferma inoltre che altri paesi, tra cui Iran e Israele, hanno utilizzato ChatGPT per creare disinformazione sui social media e articoli falsi sui siti web.

Sebbene il rapporto OpenAI documenti i tentativi di abusare degli strumenti di intelligenza artificiale, gli autori sembrano minimizzare i potenziali danni dei chatbot. L’azienda sottolinea ripetutamente che i loro modelli non hanno fornito agli aggressori alcuna nuova funzionalità che non avrebbero potuto ottenere da altre fonti disponibili al pubblico.

Infatti, quanto più gli aggressori si affidano agli strumenti di intelligenza artificiale, tanto più facile sarà identificarli e neutralizzarli. OpenAI cita ad esempio il caso dell’interferenza elettorale di quest’estate. Dall’inizio del 2024, gli aggressori hanno cercato di utilizzare l’intelligenza artificiale per creare contenuti che potessero influenzare l’esito della corsa presidenziale. Sono stati registrati tentativi di generare fake news, post sui social network e altro materiale. Dopo aver bloccato l’accesso al sistema all’inizio di giugno, gli account dei social media associati a questa operazione hanno cessato l’attività per l’intero periodo critico.

L’azienda ha bloccato molte altre reti che distribuiscono notizie false. Uno di loro aveva sede in Ruanda, dove venivano creati account falsi e pubblicati contenuti relativi alle elezioni locali. Ad agosto sono stati scoperti i resoconti di un gruppo iraniano che generavano articoli sulle elezioni americane e sul conflitto a Gaza. Sono state registrate anche operazioni contro le elezioni in India e al Parlamento europeo. Nessuna di queste false campagne ha attirato un’attenzione significativa.

Man mano che i modelli ChatGPT miglioreranno, saranno in grado di analizzare gli allegati dannosi che i criminali inviano ai dipendenti dell’azienda durante gli attacchi di phishing. Gli sviluppatori ritengono che questo sia un passo avanti molto significativo nella lotta alle minacce informatiche.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cropped RHC 3d Transp2 1766828557 300x300
La redazione di Red Hot Cyber è composta da professionisti del settore IT e della sicurezza informatica, affiancati da una rete di fonti qualificate che operano anche in forma riservata. Il team lavora quotidianamente nell’analisi, verifica e pubblicazione di notizie, approfondimenti e segnalazioni su cybersecurity, tecnologia e minacce digitali, con particolare attenzione all’accuratezza delle informazioni e alla tutela delle fonti. Le informazioni pubblicate derivano da attività di ricerca diretta, esperienza sul campo e contributi provenienti da contesti operativi nazionali e internazionali.

Articoli in evidenza

Immagine del sitoCybercrime
BSOD fake e phishing perfetto: così una mail Booking.com infetta i sistemi Windows
Redazione RHC - 07/01/2026

Un messaggio di cancellazione da Booking.com con una penale elevata sembra una pratica commerciale tipica di hotel e appartamenti. Ma è proprio questo tipo di email a dare il via a una nuova campagna malware,…

Immagine del sitoHacking
Mai più in ostaggio delle AI in Windows 11. Uno script consente di disattivarle tutte
Redazione RHC - 07/01/2026

Un nuovo script open source consente agli utenti di Windows 11 di disattivare in modo esteso le funzionalità di intelligenza artificiale integrate nel sistema operativo. Il progetto, sviluppato da Zoicware, si chiama RemoveWindowsAI e nasce…

Immagine del sitoInnovazione
Il Futuro dello Sviluppo Sicuro del Software: tra Sast, Dast, Iast, Sbom, Pentest e Tool Agentici
Massimiliano Brolli - 07/01/2026

Quando si parla di sicurezza applicativa, il problema raramente è uno solo. È quasi sempre una catena di piccoli difetti, scelte sbagliate e controlli mancanti che, sommati, aprono la strada a incidenti gravi. È anche…

Immagine del sitoCybercrime
n8n nel mirino! Un bug con CVSS 10 permette la compromissione totale delle istanze
Redazione RHC - 07/01/2026

n8n, la piattaforma di automazione del flusso di lavoro “fair-code” apprezzata dai team tecnici per la sua combinazione di velocità low-code e flessibilità di programmazione, ha emesso un avviso di sicurezza critico. Pochi dettagli sono…

Immagine del sitoVulnerabilità
Una falla su WhatsApp viene corretta silenziosamente, ma la community non ci sta
Redazione RHC - 06/01/2026

WhatsApp, l’app di messaggistica di Meta con oltre 3 miliardi di utenti attivi mensili, ha iniziato a introdurre modifiche tecniche per mitigare alcune vulnerabilità legate alla privacy dei dispositivi degli utenti. Le correzioni, individuate tramite…