Redazione RHC : 16 Agosto 2023 08:27
I deepfake sono media sintetici che imitano la voce o l’aspetto di una persona reale. Possono essere utilizzati per la manipolazione e l’inganno e sono una delle principali minacce associate allo sviluppo dell’IA.
Gli scienziati di Londra hanno testato quanto le persone possono riconoscere i deepfake. Hanno chiesto a 529 persone di ascoltare registrazioni audio vere e false in inglese e cinese, create utilizzando un algoritmo di sintesi vocale (TTS).
I ricercatori hanno generato 50 campioni vocali deepfake in ciascuna lingua che non corrispondevano ai campioni utilizzati per addestrare l’algoritmo. Gli ascoltatori dovevano determinare quali fossero artificiali.
Vorresti toccare con mano la Cybersecurity e la tecnologia? Iscriviti GRATIS ai WorkShop Hands-On della RHC Conference 2025 (Giovedì 8 maggio 2025)
Se sei un ragazzo delle scuole medie, superiori o frequenti l'università, oppure banalmente un curioso di qualsiasi età, il giorno giovedì 8 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terranno i workshop "hands-on", creati per far avvicinare i ragazzi alla sicurezza informatica e alla tecnologia. Questo anno i workshop saranno:
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
I risultati hanno mostrato che le persone hanno identificato correttamente i falsi solo il 73% delle volte e il linguaggio non ha avuto alcun effetto sulla precisione.
Anche dopo che agli ascoltatori sono stati forniti esempi di deepfake per aumentare la consapevolezza, le loro prestazioni non sono migliorate molto.
Gli scienziati hanno concluso che le persone non possono identificare in modo affidabile i deepfake, anche se hanno ricevuto una formazione per distinguere il contenuto artificiale dal contenuto reale.
I ricercatori hanno anche notato che i deepfake diventeranno più realistici e difficili da riconoscere con lo sviluppo degli algoritmi di sintesi vocale.
Ad esempio, se prima per creare un deepfake erano necessari migliaia di campioni della voce di una persona, ora è sufficiente solo un frammento di tre secondi di un discorso.
La difficoltà di rilevare discorsi deepfake evidenzia il loro potenziale e indica la necessità di sviluppare misure protettive.
Un ricercatore senior presso il Citizen Lab dell’Università di Toronto, ha scritto che le tendenze attuali sono della massima importanza per il phishing e le truffe.
Ha notato che i buoni deepfake e i truffatori creativi possono unire i loro sforzi e adattarsi rapidamente alla situazione. Il ricercatore ritiene che le truffe telefoniche e il phishing si basino su cicli di feedback molto brevi, in cui gli operatori imparano istantaneamente dai propri errori e successi.
Nel vasto arsenale del cybercrimine, una categoria di malware continua ad evolversi con una velocità e una precisione quasi industriale: gli information stealer. Questi strumenti, nati inizialmen...
Sabato 3 maggio, un post pubblicato su un canale Telegram legato al gruppo “Mr Hamza” ha rivendicato un cyberattacco ai danni del Ministero della Difesa italiano. Il messaggio, scritto i...
Microsoft ha confermato che il protocollo RDP (Remote Desktop Protocol) consente l’accesso ai sistemi Windows anche utilizzando password già modificate o revocate. L’azienda ha chia...
Una nuova campagna di phishing sta circolando in queste ore con un obiettivo ben preciso: spaventare le vittime con la minaccia di una multa stradale imminente e gonfiata, apparentemente proveniente d...
Negli ultimi giorni, NS Power, una delle principali aziende elettriche canadesi, ha confermato di essere stata vittima di un attacco informatico e ha pubblicato degli update all’interno della H...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006