Redazione RHC : 12 Maggio 2025 06:25
L’idea che lo spam possa essere facilmente identificato da errori di ortografia e sintassi non funziona più. Le reti neurali generative non solo hanno migliorato la qualità delle e-mail fraudolente, ma le hanno trasformate in messaggi impeccabili, adattati culturalmente e linguisticamente, sempre più difficili da distinguere dalla corrispondenza autentica. Lo spam quindi oggi è divenuto perfetto.
In passato, i truffatori si limitavano all’inglese, allo spagnolo o, nella migliore delle ipotesi, al francese formale, perché assumere madrelingua di altre lingue era dispendioso in termini di tempo e denaro. Ora, con l’aiuto dell’intelligenza artificiale, i criminali possono facilmente generare lettere e messaggi in qualsiasi dialetto. Di conseguenza, le vittime ricevono lettere false e convincenti, scritte come se fossero state scritte da un vicino di pianerottolo.
Secondo Chester Wisniewski, CISO di Sophos, alla conferenza RSAC ha detto che è probabile che fino alla metà di tutto lo spam sia ormai generato da reti neurali. Sottolinea che la grammatica e la punteggiatura di tali email sono diventate così impeccabili che questo, al contrario, dovrebbe essere allarmante. Le persone, a differenza delle macchine, commettono quasi sempre errori, anche quando scrivono nella loro lingua madre.
Vuoi diventare un esperto del Dark Web e della Cyber Threat Intelligence (CTI)?
Stiamo per avviare il corso intermedio in modalità "Live Class", previsto per febbraio.
A differenza dei corsi in e-learning, disponibili online sulla nostra piattaforma con lezioni pre-registrate, i corsi in Live Class offrono un’esperienza formativa interattiva e coinvolgente.
Condotti dal professor Pietro Melillo, le lezioni si svolgono online in tempo reale, permettendo ai partecipanti di interagire direttamente con il docente e approfondire i contenuti in modo personalizzato.
Questi corsi, ideali per aziende, consentono di sviluppare competenze mirate, affrontare casi pratici e personalizzare il percorso formativo in base alle esigenze specifiche del team, garantendo un apprendimento efficace e immediatamente applicabile.
Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]
Il passaggio all’intelligenza artificiale ha offerto agli aggressori un altro vantaggio: la scalabilità. Non sono più limitati dalla geografia o dalla lingua. In Quebec, ad esempio, il phishing è fallito per molto tempo semplicemente perché era scritto in un francese formale e non nel familiare Quebec. Ora le reti neurali generano frasi che suonano assolutamente native. La situazione è simile in Portogallo: in precedenza i truffatori prendevano di mira il Brasile in quanto mercato di massa, ma ora anche la versione europea della lingua è rientrata nella zona a rischio.
Una delle forme più insidiose di inganno, la frode sentimentale, ha anch’essa subito una trasformazione. Nelle prime fasi della “seduzione”, un chatbot dialoga con la vittima, interpretando abilmente il ruolo di un interlocutore comprensivo, attento e interessato. Una volta stabilito il contatto, la persona si coinvolge e inizia a richiedere aiuto, a trasferire denaro o ad essere adescata in truffe finanziarie con il pretesto di investimenti.
Ma forse la tecnologia più pericolosa resa popolare dall’intelligenza artificiale è l’audio deepfake. Secondo Visnevsky, oggi è possibile letteralmente generare la voce di qualsiasi dipendente per pochi centesimi, ad esempio uno specialista IT, può inviare messaggi a tutti i colleghi chiedendo loro di fornire una password o altre informazioni sensibili. Questo tipo di inganno funziona in tempo reale e non richiede particolari competenze tecniche.
Per quanto riguarda i video deepfake, per ora la situazione è relativamente calma. Visnevsky nutre delle riserve su incidenti di alto profilo come quello di Hong Kong, dove una videochiamata deepfake avrebbe convinto un dipendente a trasferire 25 milioni di dollari. Lui ritiene che questo sia più un tentativo di attribuire l’errore a una minaccia legata alla moda che un esempio reale. Nemmeno le aziende AI più grandi sono ancora in grado di realizzare modelli video interattivi realistici, ma è solo questione di tempo. Prevede che, al ritmo attuale dello sviluppo tecnologico, i deepfake di massa nelle videochiamate diventeranno realtà entro due anni.
Tuttavia, Kevin Brown, direttore operativo del gruppo NCC, non è d’accordo. A suo dire, si sono ottenuti dei successi nella creazione di falsi video per compiti specifici. La tecnologia esiste, ma non è ancora in produzione. Ma è solo questione di tempo.
Sia Wisniewski che Brown concordano su una cosa: è giunto il momento di ristrutturare il sistema di verifica delle comunicazioni. I vecchi tratti distintivi del phishing (errori di ortografia, senso di urgenza e linguaggio incoerente) non sono più validi. Il futuro risiede nella verifica dell’identità attraverso nuovi canali che non possono ancora essere falsificati al volo.
I ricercatori di Trellix hanno scoperto un insolito schema di attacco su Linux, in cui l’elemento chiave non è un allegato con contenuto dannoso, ma il nome del file all’interno del...
La recente vicenda del gruppo Facebook “Mia Moglie”, attivo dal 2019 e popolato da oltre 32.000 iscritti, mette in luce una dinamica che intreccia violazione della privacy, pornografia n...
Per i dipendenti di Google, “stare al passo con i tempi” significa non solo sviluppare l’intelligenza artificiale, ma anche essere in grado di utilizzarla ogni giorno. Negli ultim...
Advanced Security Solutions, con sede negli Emirati Arabi Uniti, è nata questo mese ed offre fino a 20 milioni di dollari per vulnerabilità zero-day ed exploit che consentirebbero a chiunque...
Un difetto critico riscontrato nel più recente modello di OpenAI, ChatGPT-5, permette a malintenzionati di aggirare le avanzate funzionalità di sicurezza attraverso l’uso di semplici ...