
L’Europol Innovation Lab, entità responsabile dell’identificazione, promozione e sviluppo di soluzioni innovative per supportare il lavoro operativo degli Stati membri, ha dedicato una relazione ai deepfake, che stanno diventando sempre più difficili da rilevare.
Il viso e la voce di chiunque possono essere imitati a volte quasi perfettamente partendo da un campione limitato di informazioni, grazie alle tecniche di apprendimento automatico.

Gli esempi di deepfake noti sono numerosi.
Come abbiamo riportato recentemente, settimane dopo che la Russia ha invaso l’Ucraina, un deepfake di Volodymyr Zelensky, il presidente ucraino, è stato trasmesso sul canale di notizie hackerato Ukraine 24 e su diversi social network.
Anche se il video non era di una ottima qualità, ha permesso al presidente di esortare la sua popolazione ad arrendersi alle armi. Gli autori di questo trucco non sono stati ancora trovati (e potrebbero non esserlo mai).
Per Europol, questa generalizzazione dei deepfake deve essere presa molto sul serio da tutti gli anelli della catena repressiva, dalla polizia ai tribunali. In effetti,
“i progressi nell’intelligenza artificiale e la disponibilità di grandi database di immagini e video significano che il volume e la qualità dei contenuti ‘deepfake’ stanno aumentando“
scrive l’agenzia europea nel suo rapporto. Più precisamente, è lo sviluppo delle reti generative adversarial networketwork (GAN) che ha permesso la democratizzazione di questi trucchi. È una tecnica di machine learning che si distingue per la sua capacità di “creare”.
Europol osserva che esistono molti casi d’uso per i deepfake. I criminali possono utilizzarlo per manipolare le informazioni del pubblico in generale ma anche delle aziende.
“Con l’aumento del volume dei deepfake, la fiducia nelle autorità e nei fatti viene minata“
osserva il rapporto. Anche le autorità rischiano di essere ingannate, facendo prendere “decisioni sbagliate” nell’ambito di interventi o indagini. Questa tecnologia può essere utilizzata anche per modificare documenti di identità, sconvolgere i mercati finanziari, promuovere lo sfruttamento sessuale dei bambini online, perpetrare estorsioni, frodi…
Pertanto, aggiunge l’Europol:
“la prevenzione e l’individuazione dei deepfake devono essere la massima priorità per le forze dell’ordine“
Anche se abituata a dover fare i conti con prove false, la polizia non dispone necessariamente delle tecnologie necessarie per rilevare questi trucchi.
“Le forze dell’ordine non solo dovranno formare il proprio personale per rilevare i deepfake, ma anche investire nelle proprie capacità tecniche per affrontare efficacemente le sfide future rispettando i diritti fondamentali“
conclude il rapporto.
Le aziende tecnologiche e gli attori accademici stanno sviluppando strumenti anti-deepfake. Microsoft e la Peking University hanno presentato due strumenti: FaceShifter è in grado di sopravvivere ai volti mantenendo una serie di caratteristiche (sfondo, illuminazione, posa della testa…) e Face X-Ray può rilevare con precisione la parte di un’immagine che è stata precedentemente modificata.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

InnovazioneL’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…
CybercrimeNegli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…
VulnerabilitàNegli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…
InnovazioneArticolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…
Cyber ItaliaNegli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…