Redazione RHC : 12 Maggio 2025 06:25
L’idea che lo spam possa essere facilmente identificato da errori di ortografia e sintassi non funziona più. Le reti neurali generative non solo hanno migliorato la qualità delle e-mail fraudolente, ma le hanno trasformate in messaggi impeccabili, adattati culturalmente e linguisticamente, sempre più difficili da distinguere dalla corrispondenza autentica. Lo spam quindi oggi è divenuto perfetto.
In passato, i truffatori si limitavano all’inglese, allo spagnolo o, nella migliore delle ipotesi, al francese formale, perché assumere madrelingua di altre lingue era dispendioso in termini di tempo e denaro. Ora, con l’aiuto dell’intelligenza artificiale, i criminali possono facilmente generare lettere e messaggi in qualsiasi dialetto. Di conseguenza, le vittime ricevono lettere false e convincenti, scritte come se fossero state scritte da un vicino di pianerottolo.
Secondo Chester Wisniewski, CISO di Sophos, alla conferenza RSAC ha detto che è probabile che fino alla metà di tutto lo spam sia ormai generato da reti neurali. Sottolinea che la grammatica e la punteggiatura di tali email sono diventate così impeccabili che questo, al contrario, dovrebbe essere allarmante. Le persone, a differenza delle macchine, commettono quasi sempre errori, anche quando scrivono nella loro lingua madre.
Prompt Engineering & Sicurezza: diventa l’esperto che guida l’AIVuoi dominare l’AI generativa e usarla in modo sicuro e professionale? Con il Corso Prompt Engineering: dalle basi alla cybersecurity, guidato da Luca Vinciguerra, data scientist ed esperto di sicurezza informatica, impari a creare prompt efficaci, ottimizzare i modelli linguistici e difenderti dai rischi legati all’intelligenza artificiale. Un percorso pratico e subito spendibile per distinguerti nel mondo del lavoro. Non restare indietro: investi oggi nelle tue competenze e porta il tuo profilo professionale a un nuovo livello. Guarda subito l'anteprima gratuita del corso su academy.redhotcyber.com Contattaci per ulteriori informazioni tramite WhatsApp al 375 593 1011 oppure scrivi a [email protected] ![]() Supporta RHC attraverso:
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Il passaggio all’intelligenza artificiale ha offerto agli aggressori un altro vantaggio: la scalabilità. Non sono più limitati dalla geografia o dalla lingua. In Quebec, ad esempio, il phishing è fallito per molto tempo semplicemente perché era scritto in un francese formale e non nel familiare Quebec. Ora le reti neurali generano frasi che suonano assolutamente native. La situazione è simile in Portogallo: in precedenza i truffatori prendevano di mira il Brasile in quanto mercato di massa, ma ora anche la versione europea della lingua è rientrata nella zona a rischio.
Una delle forme più insidiose di inganno, la frode sentimentale, ha anch’essa subito una trasformazione. Nelle prime fasi della “seduzione”, un chatbot dialoga con la vittima, interpretando abilmente il ruolo di un interlocutore comprensivo, attento e interessato. Una volta stabilito il contatto, la persona si coinvolge e inizia a richiedere aiuto, a trasferire denaro o ad essere adescata in truffe finanziarie con il pretesto di investimenti.
Ma forse la tecnologia più pericolosa resa popolare dall’intelligenza artificiale è l’audio deepfake. Secondo Visnevsky, oggi è possibile letteralmente generare la voce di qualsiasi dipendente per pochi centesimi, ad esempio uno specialista IT, può inviare messaggi a tutti i colleghi chiedendo loro di fornire una password o altre informazioni sensibili. Questo tipo di inganno funziona in tempo reale e non richiede particolari competenze tecniche.
Per quanto riguarda i video deepfake, per ora la situazione è relativamente calma. Visnevsky nutre delle riserve su incidenti di alto profilo come quello di Hong Kong, dove una videochiamata deepfake avrebbe convinto un dipendente a trasferire 25 milioni di dollari. Lui ritiene che questo sia più un tentativo di attribuire l’errore a una minaccia legata alla moda che un esempio reale. Nemmeno le aziende AI più grandi sono ancora in grado di realizzare modelli video interattivi realistici, ma è solo questione di tempo. Prevede che, al ritmo attuale dello sviluppo tecnologico, i deepfake di massa nelle videochiamate diventeranno realtà entro due anni.
Tuttavia, Kevin Brown, direttore operativo del gruppo NCC, non è d’accordo. A suo dire, si sono ottenuti dei successi nella creazione di falsi video per compiti specifici. La tecnologia esiste, ma non è ancora in produzione. Ma è solo questione di tempo.
Sia Wisniewski che Brown concordano su una cosa: è giunto il momento di ristrutturare il sistema di verifica delle comunicazioni. I vecchi tratti distintivi del phishing (errori di ortografia, senso di urgenza e linguaggio incoerente) non sono più validi. Il futuro risiede nella verifica dell’identità attraverso nuovi canali che non possono ancora essere falsificati al volo.
La notizia è semplice, la tecnologia no. Chat Control (CSAR) nasce per scovare CSAM e dinamiche di grooming dentro le piattaforme di messaggistica. La versione “modernizzata” rinuncia alla backdo...
A cura di Luca Stivali e Olivia Terragni. L’11 settembre 2025 è esploso mediaticamente, in modo massivo e massiccio, quello che può essere definito il più grande leak mai subito dal Great Fir...
Una violazione di dati senza precedenti ha colpito il Great Firewall of China (GFW), con oltre 500 GB di materiale riservato che è stato sottratto e reso pubblico in rete. Tra le informazioni comprom...
Negli ultimi anni le truffe online hanno assunto forme sempre più sofisticate, sfruttando non solo tecniche di ingegneria sociale, ma anche la fiducia che milioni di persone ripongono in figure relig...
Microsoft ha ricordato agli utenti che tra un mese terminerà il supporto per l’amato Windows 10. Dal 14 ottobre 2025, il sistema non riceverà più aggiornamenti di sicurezza , correzioni di bug e ...