
Redazione RHC : 6 Marzo 2024 07:17
Le moderne tecnologie di intelligenza artificiale (IA) stanno raggiungendo livelli di sofisticazione tali da consentire la generazione di messaggi audio estremamente realistici a partire da brevi frammenti di registrazioni vocali.
Questa nuova frontiera tecnologica è stata sfruttata anche dai cybercriminali, i quali, mediante l’acquisizione di registrazioni vocali di individui, addestrano reti neurali per creare messaggi audio falsificati. Questi messaggi sono utilizzati con l’intento di ingannare amici e familiari delle vittime, spesso per scopi di estorsione finanziaria o truffa.
La procedura per la falsificazione vocale richiede una registrazione audio della voce della vittima, della durata di circa 30-40 secondi, preferibilmente anche più lunga. Con una registrazione di oltre un minuto, i truffatori possono creare uno schema in grado di replicare con notevole precisione qualsiasi testo desiderato.
CALL FOR SPONSOR - Sponsorizza la Graphic Novel Betti-RHC Sei un'azienda innovativa, che crede nella diffusione di concetti attraverso metodi "non convenzionali"? Conosci il nostro corso sul cybersecurity awareness a fumetti? Red Hot Cyber sta ricercando un nuovo sponsor per una nuova puntata del fumetto Betti-RHC mentre il team è impegnato a realizzare 3 nuovi episodi che ci sono stati commissionati. Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Il rischio in questo contesto risiede nel fatto che, a orecchio, risulta estremamente difficile distinguere un messaggio audio genuino da uno generato da una rete neurale addestrata in modo appropriato. Pertanto, l’esperto consiglia di contattare direttamente l’interlocutore desiderato e di discutere con lui i dettagli della conversazione per evitare di cadere in truffe o attacchi di phishing basati su falsificazioni vocali.
Oltre all’uso di reti neurali per creare messaggi audio falsificati, l’intelligenza artificiale (IA) viene ampiamente utilizzata anche nel campo del cybercrime per sviluppare strumenti e tattiche sempre più sofisticati. Ad esempio:
In sintesi, l’intelligenza artificiale offre ai cybercriminali nuove opportunità per condurre attacchi più sofisticati, efficaci e difficili da rilevare. È fondamentale che le organizzazioni riconoscano questa minaccia e adottino misure di sicurezza avanzate per proteggere i propri sistemi e dati sensibili.
Redazione
Cloudflare ha registrato un’interruzione significativa nella mattina del 5 dicembre 2025, quando alle 08:47 UTC una parte della propria infrastruttura ha iniziato a generare errori interni. L’inci...

Una campagna sempre più aggressiva, che punta direttamente alle infrastrutture di accesso remoto, ha spinto gli autori delle minacce a tentare di sfruttare attivamente le vulnerabilità dei portali V...

Dietro molte delle applicazioni e servizi digitali che diamo per scontati ogni giorno si cela un gigante silenzioso: FreeBSD. Conosciuto soprattutto dagli addetti ai lavori, questo sistema operativo U...

Molto spesso parliamo su questo sito del fatto che la finestra tra la pubblicazione di un exploit e l’avvio di attacchi attivi si sta riducendo drasticamente. Per questo motivo diventa sempre più f...

Dal 1° luglio, Cloudflare ha bloccato 416 miliardi di richieste da parte di bot di intelligenza artificiale che tentavano di estrarre contenuti dai siti web dei suoi clienti. Secondo Matthew Prince, ...