Il fenomeno dei falsi lavoratori IT legati alla Corea del Nord non è una novità nel panorama della sicurezza informatica. Negli ultimi anni questa operazione ha iniziato a evolversi, sfruttando strumenti di intelligenza artificiale per rendere le identità false sempre più credibili.
Le tecnologie AI non hanno rivoluzionato la strategia, ma hanno reso più efficiente un meccanismo già rodato. Il risultato è una campagna capace di infiltrarsi in aziende reali, ottenendo accessi legittimi ai sistemi e mantenendo a lungo l’inganno.
Secondo le analisi di Microsoft, gruppi di attori collegati alla Corea del Nord – identificati come Jasper Sleet e Coral Sleet – utilizzano strumenti basati su AI per migliorare ogni fase delle loro campagne. L’obiettivo è semplice: apparire come professionisti IT autentici e convincere aziende occidentali ad assumerli.
Prima ancora di inviare una candidatura, gli attori studiano attentamente le offerte di lavoro. Utilizzano strumenti AI per analizzare gli annunci e individuare competenze, certificazioni e tecnologie richieste. Queste informazioni vengono poi integrate nei curriculum falsi per renderli più credibili.
Gli stessi sistemi generativi vengono impiegati per creare nomi, indirizzi email e profili social plausibili. A quel punto prendono forma vere e proprie identità digitali: sviluppatori o ingegneri informatici apparentemente perfetti, completi di curriculum, foto professionali e storia lavorativa.
In alcuni casi le immagini dei candidati sono generate interamente tramite AI. In altri, gli attori utilizzano applicazioni di face swapping come Faceswap per inserire volti scelti su documenti d’identità rubati.
Il processo non si ferma alla candidatura. Durante i colloqui di lavoro entrano in gioco software di modifica della voce che permettono di mascherare accenti o provenienze geografiche. In questo modo i candidati riescono a sostenere interviste senza sollevare sospetti immediati.
Una volta ottenuto il lavoro, la stessa intelligenza artificiale viene utilizzata per mantenere coerente il personaggio creato. Chatbot e modelli linguistici aiutano a rispondere alle email, scrivere codice o comunicare con i colleghi nei sistemi aziendali.
Ottenere lo stipendio è solo una parte dell’operazione. L’accesso legittimo ai sistemi aziendali rappresenta un’opportunità preziosa per gli attori malevoli.
Gli operatori possono sfruttare l’AI per generare infrastrutture Web, perfezionare malware o facilitare attività di social engineering. In alcuni casi vengono sperimentati anche sistemi di AI agentica per automatizzare intere catene di attacco: dalla creazione di siti falsi fino alla distribuzione di payload malevoli.
Secondo gli esperti, l’aumento della consapevolezza tra i team HR sta iniziando a produrre effetti. Alcune aziende durante i colloqui pongono domande su luoghi specifici della città dichiarata dal candidato oppure su aspetti culturali locali. Non è una soluzione perfetta, ma dimostra una crescente attenzione verso questo tipo di minaccia.
La ricerca che descrive queste tecniche è stata pubblicata dal team di threat intelligence di Microsoft ed è disponibile nell’articolo pubblicato su Dark Reading.
Per la community di Red Hot Cyber, questa vicenda dimostra quanto il fattore umano resti uno dei punti più critici della sicurezza moderna. Non sempre l’attacco passa da exploit sofisticati: a volte basta un curriculum convincente, un colloquio ben recitato e un accesso legittimo per trasformare un dipendente in un potenziale insider threat.