Redazione RHC : 1 Maggio 2022 18:15
L’Europol Innovation Lab, entità responsabile dell’identificazione, promozione e sviluppo di soluzioni innovative per supportare il lavoro operativo degli Stati membri, ha dedicato una relazione ai deepfake, che stanno diventando sempre più difficili da rilevare.
Il viso e la voce di chiunque possono essere imitati a volte quasi perfettamente partendo da un campione limitato di informazioni, grazie alle tecniche di apprendimento automatico.
Gli esempi di deepfake noti sono numerosi.
Supporta Red Hot Cyber attraverso
Come abbiamo riportato recentemente, settimane dopo che la Russia ha invaso l’Ucraina, un deepfake di Volodymyr Zelensky, il presidente ucraino, è stato trasmesso sul canale di notizie hackerato Ukraine 24 e su diversi social network.
Anche se il video non era di una ottima qualità, ha permesso al presidente di esortare la sua popolazione ad arrendersi alle armi. Gli autori di questo trucco non sono stati ancora trovati (e potrebbero non esserlo mai).
Per Europol, questa generalizzazione dei deepfake deve essere presa molto sul serio da tutti gli anelli della catena repressiva, dalla polizia ai tribunali. In effetti,
“i progressi nell’intelligenza artificiale e la disponibilità di grandi database di immagini e video significano che il volume e la qualità dei contenuti ‘deepfake’ stanno aumentando“
scrive l’agenzia europea nel suo rapporto. Più precisamente, è lo sviluppo delle reti generative adversarial networketwork (GAN) che ha permesso la democratizzazione di questi trucchi. È una tecnica di machine learning che si distingue per la sua capacità di “creare”.
Europol osserva che esistono molti casi d’uso per i deepfake. I criminali possono utilizzarlo per manipolare le informazioni del pubblico in generale ma anche delle aziende.
“Con l’aumento del volume dei deepfake, la fiducia nelle autorità e nei fatti viene minata“
osserva il rapporto. Anche le autorità rischiano di essere ingannate, facendo prendere “decisioni sbagliate” nell’ambito di interventi o indagini. Questa tecnologia può essere utilizzata anche per modificare documenti di identità, sconvolgere i mercati finanziari, promuovere lo sfruttamento sessuale dei bambini online, perpetrare estorsioni, frodi…
Pertanto, aggiunge l’Europol:
“la prevenzione e l’individuazione dei deepfake devono essere la massima priorità per le forze dell’ordine“
Anche se abituata a dover fare i conti con prove false, la polizia non dispone necessariamente delle tecnologie necessarie per rilevare questi trucchi.
“Le forze dell’ordine non solo dovranno formare il proprio personale per rilevare i deepfake, ma anche investire nelle proprie capacità tecniche per affrontare efficacemente le sfide future rispettando i diritti fondamentali“
conclude il rapporto.
Le aziende tecnologiche e gli attori accademici stanno sviluppando strumenti anti-deepfake. Microsoft e la Peking University hanno presentato due strumenti: FaceShifter è in grado di sopravvivere ai volti mantenendo una serie di caratteristiche (sfondo, illuminazione, posa della testa…) e Face X-Ray può rilevare con precisione la parte di un’immagine che è stata precedentemente modificata.
Redazione: [email protected]
© Copyright RED HOT CYBER. PIVA 16821691009