
Redazione RHC : 29 Luglio 2024 15:52
In un incidente avvenuto ad inizio di questo mese, un dirigente della Ferrari si è trovato a ricevere messaggi insoliti che sembravano provenire dall’amministratore delegato dell’azienda, Benedetto Vigna.
I messaggi sono arrivati tramite WhatsApp, di proprietà di Meta Inc. e suggerivano che era in corso un’importante acquisizione e che era necessaria l’assistenza del dirigente.
I messaggi provenienti da Vigna avevano un numero di telefono e una foto del profilo diversi dal solito. Nonostante l’immagine convincente dell’amministratore delegato con gli occhiali di fronte al logo del cavallino rampante della Ferrari, il dirigente si è insospettito.
Christmas Sale -40% 𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀
Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Un messaggio esortava, “Siate pronti a firmare l’accordo di riservatezza che il nostro avvocato vi invierà il prima possibile,” e menzionava che “l’autorità di regolamentazione del mercato italiano e la borsa di Milano sono già state informate. Tenetevi pronti e per favore massima discrezione” ha riferito Bloomberg.
Si è trattato di un sofisticato tentativo di utilizzare la tecnologia deepfake per infiltrarsi all’interno della casa del Cavallino Rampante. Il dirigente si è reso conto che qualcosa non andava quando notò delle lievi intonazioni meccaniche nella voce e un numero di telefono diverso.
I sospetti furono confermati quando l’impostore non è riuscito a rispondere a una domanda di verifica su un libro consigliatogli di recente da Vigna, cosa che causò la brusca conclusione della chiamata.
Questo incidente fa parte di una tendenza crescente nel mondo del crimine informatico. L‘utilizzo delle truffe deepfake che prendono di mira dirigenti di alto profilo. “Quest’anno stiamo assistendo a un aumento dei criminali che tentano di clonare la voce utilizzando l’intelligenza artificiale”, ha affermato Rachel Tobac, CEO della società di formazione sulla sicurezza informatica SocialProof Security .
Sebbene la tecnologia deepfake non abbia ancora causato inganni diffusi, si sono verificate perdite significative. Una multinazionale di Hong Kong è stata truffata per 26 milioni di dollari all’inizio di quest’anno tramite la tecnologia deepfake.
“È solo questione di tempo prima che questi strumenti deepfake basati sull’intelligenza artificiale diventino incredibilmente accurati”, ha avvertito Stefano Zanero, professore di sicurezza informatica al Politecnico di Milano.
Redazione
Cloudflare ha registrato un’interruzione significativa nella mattina del 5 dicembre 2025, quando alle 08:47 UTC una parte della propria infrastruttura ha iniziato a generare errori interni. L’inci...

Una campagna sempre più aggressiva, che punta direttamente alle infrastrutture di accesso remoto, ha spinto gli autori delle minacce a tentare di sfruttare attivamente le vulnerabilità dei portali V...

Dietro molte delle applicazioni e servizi digitali che diamo per scontati ogni giorno si cela un gigante silenzioso: FreeBSD. Conosciuto soprattutto dagli addetti ai lavori, questo sistema operativo U...

Molto spesso parliamo su questo sito del fatto che la finestra tra la pubblicazione di un exploit e l’avvio di attacchi attivi si sta riducendo drasticamente. Per questo motivo diventa sempre più f...

Dal 1° luglio, Cloudflare ha bloccato 416 miliardi di richieste da parte di bot di intelligenza artificiale che tentavano di estrarre contenuti dai siti web dei suoi clienti. Secondo Matthew Prince, ...