Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

Gli hacker cinesi e russi usano ChatGPT di OpenAI per automatizzare la scansione delle vulnerabilità

Redazione RHC : 24 Febbraio 2024 08:43

Microsoft ha affermato che gli APT stranieri (collegati a Cina, Russia, Iran e Corea del Nord) utilizzano ChatGPT per automatizzare la scansione delle vulnerabilità, la ricognizione e varie attività di creazione di malware. OpenAI ha affermato di aver già bloccato diversi account di questo tipo.

In un nuovo rapporto, gli esperti Microsoft scrivono che stanno lavorando a stretto contatto con OpenAI e studiando l’uso di modelli linguistici di grandi dimensioni (LLM) da parte degli aggressori. Questi studi hanno dimostrato che diversi noti gruppi APT stanno sperimentando ChatGPT per ottenere maggiori informazioni dalle potenziali vittime, ottimizzare la scrittura di script dannosi, analizzare i bollettini di sicurezza disponibili al pubblico e studiare le ultime vulnerabilità.

Sebbene gli esperti non abbiano rilevato attacchi gravi utilizzando LLM, Microsoft afferma che gruppi di hacker provenienti da Russia, Cina, Corea del Nord e Iran utilizzano l’intelligenza artificiale nelle loro operazioni.

CORSO NIS2 : Network and Information system 2
La direttiva NIS2 rappresenta una delle novità più importanti per la sicurezza informatica in Europa, imponendo nuovi obblighi alle aziende e alle infrastrutture critiche per migliorare la resilienza contro le cyber minacce. Con scadenze stringenti e penalità elevate per chi non si adegua, comprendere i requisiti della NIS2 è essenziale per garantire la compliance e proteggere la tua organizzazione.

Accedi All'Anteprima del Corso condotto dall'Avv. Andrea Capelli sulla nostra Academy e segui l'anteprima gratuita.
Per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765 

Supporta RHC attraverso:


Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.

“Gruppi criminali informatici, hacker governativi e altri avversari stanno esplorando e testando varie tecnologie di intelligenza artificiale man mano che emergono, cercando di comprenderne il potenziale valore per le loro operazioni e contro le difese che potrebbero dover aggirare”, hanno scritto gli analisti di Microsoft.

Ad esempio, in un caso, i ricercatori hanno scoperto che il gruppo Forest Blizzard (noto anche come APT28 e FancyBear) stava utilizzando LLM per condurre ricerche su vari protocolli di comunicazione satellitare e tecnologie di imaging radar.

Altri esempi forniti nel rapporto includono:

  • Emerald Sleet (aka Kimusky): il gruppo nordcoreano ha utilizzato LLM per identificare esperti, think tank e organizzazioni coinvolte in questioni di difesa nella regione Asia-Pacifico, studiare le vulnerabilità disponibili al pubblico, eseguire attività di scripting di base e creare contenuti che potrebbero essere utilizzati nelle campagne di phishing;
  • Crimson Sandstorm (alias Imperial Kitten): il gruppo iraniano ha utilizzato LLM per creare snippet relativi allo sviluppo di app e siti Web, generare e-mail di phishing e ricercare modi comuni per aggirare il rilevamento di malware;
  • Charcoal Typhoon (aka Aquatic Panda): un gruppo di hacker cinese che ha utilizzato LLM per studiare varie aziende e vulnerabilità, creare script, contenuti per campagne di phishing e analizzare tecniche post-sfruttamento;
  • Salmon Typhoon (alias Maverick Panda): un gruppo cinese che ha utilizzato LLM per tradurre documenti tecnici, ottenere informazioni pubbliche su varie agenzie di intelligence e minacce regionali, correggere bug nel codice e trovare tattiche per eludere il rilevamento.

I rappresentanti di OpenAI riferiscono di aver già bloccato gli account degli aggressori scoperti in collaborazione con Microsoft. L’azienda scrive che gli hacker “hanno cercato di utilizzare i servizi OpenAI per richiedere informazioni da fonti aperte, traduzioni, trovare errori nel codice ed eseguire attività di codifica di routine”.

Allo stesso tempo, OpenAI ha osservato che era stato precedentemente stabilito che “GPT-4 fornisce funzionalità aggiuntive molto limitate per eseguire attività dannose oltre a quelle già realizzabili utilizzando strumenti disponibili pubblicamente senza l’uso dell’intelligenza artificiale”.

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

Lista degli articoli

Articoli in evidenza

Intelligenza Artificiale: Come stiamo diventando più stupidi, in modo meraviglioso!

Sullo sfondo della diffusa popolarità degli assistenti AI generativi che promettono di creare codice funzionante per tutti basato su una semplice descrizione in linguaggio naturale, il team ...

Arriva KaliGPT! Ora l’hacking etico è diventato veramente alla portata di tutti?

Da tempo circolano modelli di intelligenza artificiale pensati per accelerare le attività di hacking, sia nel mondo underground che in contesti più legittimi e visibili. Kali GPT, un modello...

GhostSec: Azienda Italiana Commissiona Attacco Informatico Al Governo Macedone

GhostSec, noto collettivo di hacktivisti, ha recentemente rivelato dettagli su un’operazione controversa che coinvolge un’azienda italiana e obiettivi governativi macedoni. In un’...

Un Database AT&T da 3GB viene Venduto nel Dark Web: 73 Milioni di Record a Rischio

Negli ultimi giorni, su due noti forum underground specializzati nella compravendita di dati trafugati e metodi fraudolenti, sono comparsi dei post separati (ma identici nel contenuto), riguardanti un...

Non fidarti del codice prodotto dalle AI! Un bug Giurassico del 2010 infetta anche GPT-4

E se le intelligenze artificiali producessero del codice vulnerabile oppure utilizzassero librerie e costrutti contenenti bug vecchi mai sanati? Si tratta di allucinazione o apprendimento errato? Una ...