Red Hot Cyber

Sicurezza informatica, cybercrime, hack
news, e altro ancora
  • English

Zelensky parla in un video deepfake. Un’altra arma molto pericolosa

Un video deepfake di un falso Volodymyr Zelensky, presidente dell’Ucraina, è stato pubblicato su Twitter questa mattina presto.

Al momento della stesura di questo articolo, il video ha accumulato più di 2.600 Mi piace e quasi 500 retweet e 129.000 visualizzazioni.

L’account che ha pubblicato il deepfake sembra non appartenere alla persona che lo ha creato, poiché lo stesso account ha risposto al tweet originale con un commento su quanto sia irrealistico il video pubblicato.

Il tweet di risposta commenta il tono della pelle non corrispondente, la densità dei pixel irregolare, le proporzioni della testa e del corpo e la voce come segni evidenti che il video è stato alterato digitalmente.

Advertisements

Nina Schick, l’autrice di “Deepfakes”, ha detto che il video sembrava “uno scambio di facce assolutamente terribile”, riferendosi a programmi che possono innestare digitalmente la faccia di una persona sul corpo di un’altra, software appartenenti ad una più ampia famiglia di tecniche informatiche che possono creare falsi iperrealistici noto come “deepfake”.

La stazione televisiva Ukraine24 (presa di mira dagli hacker di recente) ha dichiarato in un post su Facebook che il video è stato trasmesso da “hacker nemici” ed era “FALSO! FALSO!”.

Il Ministero della Difesa ucraino ha successivamente rilasciato un video del vero Zelenskiy, apparentemente liquidando il filmato come una “provocazione infantile”.

Per quanto riguarda la qualità dei deepfake contemporanei, questo è davvero molto scadente.

Advertisements

Coloro abituati alla ricerca dei falsi video, non avranno molti problemi a discernere che questo non è, in effetti, Zelensky. Ma la tecnologia per creare deepfake davvero convincenti è migliorata enormemente nell’ultimo anno, come ad esempio questo deepfake di Tom Cruise.

Tuttavia, anche i deepfake mal realizzati sono pericolosi.

Le persone generalmente non sono molto brave a identificare i deepfake. Molti utenti di Internet sono disposti a credere che un video di un personaggio pubblico sia effettivamente quel personaggio pubblico senza ulteriori indagini.

È logico che in questo caso stiamo assistendo a qualcosa di diverso. Il deepfake fa parlare il leader di un paese che è attualmente in guerra ed invaso da un’altra nazione, presumibilmente chiedendo di ritirarsi e arrendersi.

Advertisements

Creare deepfake legati alla guerra è una cosa; consentire loro di essere condivisi su una piattaforma è un’altra. Twitter avrebbe dovuto già agire su questo video, inserendo un’etichetta o eliminando completamente il tweet.

Già nel febbraio 2020, Twitter ha istituito una politica più severa sui media manipolati. Il risultato di tale politica dipende molto dal fatto che il contenuto possa o meno “incidere sulla sicurezza pubblica o causare gravi danni”.

Dato che stiamo parlando di un leader politico intrappolato nel mezzo di una guerra mortale, la risposta a questa domanda sembra evidente.

Senza etichettarlo come media manipolato, il video deepfake può essere ricondiviso su Twitter senza alcuna indicazione del suo contesto. Alcuni spettatori prenderanno senza dubbio la dichiarazione di Deepfake-Zelensky come verità.

Advertisements

Lo avevamo detto in tempi non sospetti.

I deepfake possono portare a conseguenze molto pericolose.