Redazione RHC : 12 Maggio 2025 06:25
L’idea che lo spam possa essere facilmente identificato da errori di ortografia e sintassi non funziona più. Le reti neurali generative non solo hanno migliorato la qualità delle e-mail fraudolente, ma le hanno trasformate in messaggi impeccabili, adattati culturalmente e linguisticamente, sempre più difficili da distinguere dalla corrispondenza autentica. Lo spam quindi oggi è divenuto perfetto.
In passato, i truffatori si limitavano all’inglese, allo spagnolo o, nella migliore delle ipotesi, al francese formale, perché assumere madrelingua di altre lingue era dispendioso in termini di tempo e denaro. Ora, con l’aiuto dell’intelligenza artificiale, i criminali possono facilmente generare lettere e messaggi in qualsiasi dialetto. Di conseguenza, le vittime ricevono lettere false e convincenti, scritte come se fossero state scritte da un vicino di pianerottolo.
Secondo Chester Wisniewski, CISO di Sophos, alla conferenza RSAC ha detto che è probabile che fino alla metà di tutto lo spam sia ormai generato da reti neurali. Sottolinea che la grammatica e la punteggiatura di tali email sono diventate così impeccabili che questo, al contrario, dovrebbe essere allarmante. Le persone, a differenza delle macchine, commettono quasi sempre errori, anche quando scrivono nella loro lingua madre.
Sei un Esperto di Formazione?
Entra anche tu nel Partner program! Accedi alla sezione riservata ai Creator sulla nostra Academy e scopri i vantaggi riservati ai membri del Partner program.
Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Il passaggio all’intelligenza artificiale ha offerto agli aggressori un altro vantaggio: la scalabilità. Non sono più limitati dalla geografia o dalla lingua. In Quebec, ad esempio, il phishing è fallito per molto tempo semplicemente perché era scritto in un francese formale e non nel familiare Quebec. Ora le reti neurali generano frasi che suonano assolutamente native. La situazione è simile in Portogallo: in precedenza i truffatori prendevano di mira il Brasile in quanto mercato di massa, ma ora anche la versione europea della lingua è rientrata nella zona a rischio.
Una delle forme più insidiose di inganno, la frode sentimentale, ha anch’essa subito una trasformazione. Nelle prime fasi della “seduzione”, un chatbot dialoga con la vittima, interpretando abilmente il ruolo di un interlocutore comprensivo, attento e interessato. Una volta stabilito il contatto, la persona si coinvolge e inizia a richiedere aiuto, a trasferire denaro o ad essere adescata in truffe finanziarie con il pretesto di investimenti.
Ma forse la tecnologia più pericolosa resa popolare dall’intelligenza artificiale è l’audio deepfake. Secondo Visnevsky, oggi è possibile letteralmente generare la voce di qualsiasi dipendente per pochi centesimi, ad esempio uno specialista IT, può inviare messaggi a tutti i colleghi chiedendo loro di fornire una password o altre informazioni sensibili. Questo tipo di inganno funziona in tempo reale e non richiede particolari competenze tecniche.
Per quanto riguarda i video deepfake, per ora la situazione è relativamente calma. Visnevsky nutre delle riserve su incidenti di alto profilo come quello di Hong Kong, dove una videochiamata deepfake avrebbe convinto un dipendente a trasferire 25 milioni di dollari. Lui ritiene che questo sia più un tentativo di attribuire l’errore a una minaccia legata alla moda che un esempio reale. Nemmeno le aziende AI più grandi sono ancora in grado di realizzare modelli video interattivi realistici, ma è solo questione di tempo. Prevede che, al ritmo attuale dello sviluppo tecnologico, i deepfake di massa nelle videochiamate diventeranno realtà entro due anni.
Tuttavia, Kevin Brown, direttore operativo del gruppo NCC, non è d’accordo. A suo dire, si sono ottenuti dei successi nella creazione di falsi video per compiti specifici. La tecnologia esiste, ma non è ancora in produzione. Ma è solo questione di tempo.
Sia Wisniewski che Brown concordano su una cosa: è giunto il momento di ristrutturare il sistema di verifica delle comunicazioni. I vecchi tratti distintivi del phishing (errori di ortografia, senso di urgenza e linguaggio incoerente) non sono più validi. Il futuro risiede nella verifica dell’identità attraverso nuovi canali che non possono ancora essere falsificati al volo.
Una vulnerabilità critica è stata scoperta nel driver di offload del canale dati di OpenVPN per Windows, che può essere sfruttata da attaccanti locali per mandare in crash i sistemi. Il...
Durante una RHC Conference, Corrado Giustozzi sottolineò una verità tanto semplice quanto potente: “L’essere umano è, da sempre, un creatore di amplificatori.”. Dal...
Nelle ultime ore, un’ondata massiccia di defacement ha preso di mira almeno una quindicina di siti web italiani. L’attacco è stato rivendicato dal threat actor xNot_RespondinGx (tea...
Nel mezzo degli intensi combattimenti tra Iran e Israele, il cyberspazio è stato coinvolto in una nuova fase di conflitto. Con il lancio dell’operazione israeliana Rising Lion, mirata all&...
Gli esperti avvertono che due nuove vulnerabilità di escalation dei privilegi locali possono essere sfruttate per ottenere privilegi di root sui sistemi che eseguono le distribuzioni Linux pi...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006