
Redazione RHC : 12 Maggio 2025 06:25
L’idea che lo spam possa essere facilmente identificato da errori di ortografia e sintassi non funziona più. Le reti neurali generative non solo hanno migliorato la qualità delle e-mail fraudolente, ma le hanno trasformate in messaggi impeccabili, adattati culturalmente e linguisticamente, sempre più difficili da distinguere dalla corrispondenza autentica. Lo spam quindi oggi è divenuto perfetto.
In passato, i truffatori si limitavano all’inglese, allo spagnolo o, nella migliore delle ipotesi, al francese formale, perché assumere madrelingua di altre lingue era dispendioso in termini di tempo e denaro. Ora, con l’aiuto dell’intelligenza artificiale, i criminali possono facilmente generare lettere e messaggi in qualsiasi dialetto. Di conseguenza, le vittime ricevono lettere false e convincenti, scritte come se fossero state scritte da un vicino di pianerottolo.
Secondo Chester Wisniewski, CISO di Sophos, alla conferenza RSAC ha detto che è probabile che fino alla metà di tutto lo spam sia ormai generato da reti neurali. Sottolinea che la grammatica e la punteggiatura di tali email sono diventate così impeccabili che questo, al contrario, dovrebbe essere allarmante. Le persone, a differenza delle macchine, commettono quasi sempre errori, anche quando scrivono nella loro lingua madre.
Christmas Sale -40% 𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀
Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Il passaggio all’intelligenza artificiale ha offerto agli aggressori un altro vantaggio: la scalabilità. Non sono più limitati dalla geografia o dalla lingua. In Quebec, ad esempio, il phishing è fallito per molto tempo semplicemente perché era scritto in un francese formale e non nel familiare Quebec. Ora le reti neurali generano frasi che suonano assolutamente native. La situazione è simile in Portogallo: in precedenza i truffatori prendevano di mira il Brasile in quanto mercato di massa, ma ora anche la versione europea della lingua è rientrata nella zona a rischio.
Una delle forme più insidiose di inganno, la frode sentimentale, ha anch’essa subito una trasformazione. Nelle prime fasi della “seduzione”, un chatbot dialoga con la vittima, interpretando abilmente il ruolo di un interlocutore comprensivo, attento e interessato. Una volta stabilito il contatto, la persona si coinvolge e inizia a richiedere aiuto, a trasferire denaro o ad essere adescata in truffe finanziarie con il pretesto di investimenti.
Ma forse la tecnologia più pericolosa resa popolare dall’intelligenza artificiale è l’audio deepfake. Secondo Visnevsky, oggi è possibile letteralmente generare la voce di qualsiasi dipendente per pochi centesimi, ad esempio uno specialista IT, può inviare messaggi a tutti i colleghi chiedendo loro di fornire una password o altre informazioni sensibili. Questo tipo di inganno funziona in tempo reale e non richiede particolari competenze tecniche.
Per quanto riguarda i video deepfake, per ora la situazione è relativamente calma. Visnevsky nutre delle riserve su incidenti di alto profilo come quello di Hong Kong, dove una videochiamata deepfake avrebbe convinto un dipendente a trasferire 25 milioni di dollari. Lui ritiene che questo sia più un tentativo di attribuire l’errore a una minaccia legata alla moda che un esempio reale. Nemmeno le aziende AI più grandi sono ancora in grado di realizzare modelli video interattivi realistici, ma è solo questione di tempo. Prevede che, al ritmo attuale dello sviluppo tecnologico, i deepfake di massa nelle videochiamate diventeranno realtà entro due anni.
Tuttavia, Kevin Brown, direttore operativo del gruppo NCC, non è d’accordo. A suo dire, si sono ottenuti dei successi nella creazione di falsi video per compiti specifici. La tecnologia esiste, ma non è ancora in produzione. Ma è solo questione di tempo.
Sia Wisniewski che Brown concordano su una cosa: è giunto il momento di ristrutturare il sistema di verifica delle comunicazioni. I vecchi tratti distintivi del phishing (errori di ortografia, senso di urgenza e linguaggio incoerente) non sono più validi. Il futuro risiede nella verifica dell’identità attraverso nuovi canali che non possono ancora essere falsificati al volo.
Seguici su Google News, LinkedIn, Facebook e Instagram per ricevere aggiornamenti quotidiani sulla sicurezza informatica. Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.
Redazione
Il MITRE ha reso pubblica la classifica delle 25 più pericolose debolezze software previste per il 2025, secondo i dati raccolti attraverso le vulnerabilità del national Vulnerability Database. Tali...

Un recente resoconto del gruppo Google Threat Intelligence (GTIG) illustra gli esiti disordinati della diffusione di informazioni, mettendo in luce come gli avversari più esperti abbiano già preso p...

All’interno del noto Dark Forum, l’utente identificato come “espansive” ha messo in vendita quello che descrive come l’accesso al pannello di amministrazione dell’Agenzia delle Entrate. Tu...

In seguito alla scoperta di due vulnerabilità zero-day estremamente critiche nel motore del browser WebKit, Apple ha pubblicato urgentemente degli aggiornamenti di sicurezza per gli utenti di iPhone ...

La recente edizione 2025.4 di Kali Linux è stata messa a disposizione del pubblico, introducendo significative migliorie per quanto riguarda gli ambienti desktop GNOME, KDE e Xfce. D’ora in poi, Wa...