I deepfake sono media sintetici che imitano la voce o l’aspetto di una persona reale. Possono essere utilizzati per la manipolazione e l’inganno e sono una delle principali minacce associate allo sviluppo dell’IA.
Gli scienziati di Londra hanno testato quanto le persone possono riconoscere i deepfake. Hanno chiesto a 529 persone di ascoltare registrazioni audio vere e false in inglese e cinese, create utilizzando un algoritmo di sintesi vocale (TTS).
I ricercatori hanno generato 50 campioni vocali deepfake in ciascuna lingua che non corrispondevano ai campioni utilizzati per addestrare l’algoritmo. Gli ascoltatori dovevano determinare quali fossero artificiali.
I risultati hanno mostrato che le persone hanno identificato correttamente i falsi solo il 73% delle volte e il linguaggio non ha avuto alcun effetto sulla precisione.
Anche dopo che agli ascoltatori sono stati forniti esempi di deepfake per aumentare la consapevolezza, le loro prestazioni non sono migliorate molto.
Gli scienziati hanno concluso che le persone non possono identificare in modo affidabile i deepfake, anche se hanno ricevuto una formazione per distinguere il contenuto artificiale dal contenuto reale.
I ricercatori hanno anche notato che i deepfake diventeranno più realistici e difficili da riconoscere con lo sviluppo degli algoritmi di sintesi vocale.
Ad esempio, se prima per creare un deepfake erano necessari migliaia di campioni della voce di una persona, ora è sufficiente solo un frammento di tre secondi di un discorso.
La difficoltà di rilevare discorsi deepfake evidenzia il loro potenziale e indica la necessità di sviluppare misure protettive.
Un ricercatore senior presso il Citizen Lab dell’Università di Toronto, ha scritto che le tendenze attuali sono della massima importanza per il phishing e le truffe.
Ha notato che i buoni deepfake e i truffatori creativi possono unire i loro sforzi e adattarsi rapidamente alla situazione. Il ricercatore ritiene che le truffe telefoniche e il phishing si basino su cicli di feedback molto brevi, in cui gli operatori imparano istantaneamente dai propri errori e successi.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

InnovazioneL’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…
CybercrimeNegli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…
VulnerabilitàNegli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…
InnovazioneArticolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…
Cyber ItaliaNegli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…