Redazione RHC : 6 Marzo 2024 07:17
Le moderne tecnologie di intelligenza artificiale (IA) stanno raggiungendo livelli di sofisticazione tali da consentire la generazione di messaggi audio estremamente realistici a partire da brevi frammenti di registrazioni vocali.
Questa nuova frontiera tecnologica è stata sfruttata anche dai cybercriminali, i quali, mediante l’acquisizione di registrazioni vocali di individui, addestrano reti neurali per creare messaggi audio falsificati. Questi messaggi sono utilizzati con l’intento di ingannare amici e familiari delle vittime, spesso per scopi di estorsione finanziaria o truffa.
La procedura per la falsificazione vocale richiede una registrazione audio della voce della vittima, della durata di circa 30-40 secondi, preferibilmente anche più lunga. Con una registrazione di oltre un minuto, i truffatori possono creare uno schema in grado di replicare con notevole precisione qualsiasi testo desiderato.
Vorresti toccare con mano la Cybersecurity e la tecnologia? Iscriviti GRATIS ai WorkShop Hands-On della RHC Conference 2025 (Giovedì 8 maggio 2025)
Se sei un ragazzo delle scuole medie, superiori o frequenti l'università, oppure banalmente un curioso di qualsiasi età, il giorno giovedì 8 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terranno i workshop "hands-on", creati per far avvicinare i ragazzi alla sicurezza informatica e alla tecnologia. Questo anno i workshop saranno:
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Il rischio in questo contesto risiede nel fatto che, a orecchio, risulta estremamente difficile distinguere un messaggio audio genuino da uno generato da una rete neurale addestrata in modo appropriato. Pertanto, l’esperto consiglia di contattare direttamente l’interlocutore desiderato e di discutere con lui i dettagli della conversazione per evitare di cadere in truffe o attacchi di phishing basati su falsificazioni vocali.
Oltre all’uso di reti neurali per creare messaggi audio falsificati, l’intelligenza artificiale (IA) viene ampiamente utilizzata anche nel campo del cybercrime per sviluppare strumenti e tattiche sempre più sofisticati. Ad esempio:
In sintesi, l’intelligenza artificiale offre ai cybercriminali nuove opportunità per condurre attacchi più sofisticati, efficaci e difficili da rilevare. È fondamentale che le organizzazioni riconoscano questa minaccia e adottino misure di sicurezza avanzate per proteggere i propri sistemi e dati sensibili.
Una nuova campagna di phishing sta circolando in queste ore con un obiettivo ben preciso: spaventare le vittime con la minaccia di una multa stradale imminente e gonfiata, apparentemente proveniente d...
Negli ultimi giorni, NS Power, una delle principali aziende elettriche canadesi, ha confermato di essere stata vittima di un attacco informatico e ha pubblicato degli update all’interno della H...
1° Maggio, un giorno per onorare chi lavora, chi lotta per farlo in modo dignitoso e chi, troppo spesso, perde la vita mentre svolge la propria mansione. Nel 2025, l’Italia continua a pian...
Domani celebreremo uno degli elementi più iconici – e al tempo stesso vulnerabili – della nostra vita digitale: la password. Da semplice chiave d’accesso inventata negli anni...
Ci sono luoghi nel web dove la normalità cede il passo all’illecito, dove l’apparenza di un marketplace moderno e funzionale si trasforma in una vetrina globale per ogni tipo di rea...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006