Red Hot Cyber

La cybersecurity è condivisione.
Riconosci il rischio, combattilo, condividi le tue esperienze ed 
incentiva gli altri a fare meglio di te.

Cerca

La “macchina della verità” per i deepfake

Alessia Tomaselli : 4 Febbraio 2023 10:00

I deepfakes sono video falsi di persone reali, generati da software di intelligenza artificiale per mano di persone che vogliono minarne la fiducia.

Al giorno d’oggi, i deepfakes stanno diventando così realistici che gli esperti si stanno preoccupando dell’impatto che avranno sulle notizie e sulla democrazia.

Due anni fa, Eric Horvitz, Chief Scientific Officer di Microsoft e co-creatore del filtro antispam per le email, ha iniziato a cercare di risolvere questo problema.

“Entro cinque o dieci anni, se non avremo questa tecnologia, la maggior parte di ciò che la gente vedrà, o una buona parte di esso, sarà falso. Non saremo in grado di distinguerli.”

“Chissà se c’è una via d’uscita!” si chiedeva Horvitz.

Si è scoperto che anche Adobe stava pensando ad una soluzione: “Volevamo pensare di dare a tutti uno strumento, un modo per capire se una cosa è vera o no”, ha detto Dana Rao, Chief Counsel e Chief Trust Officer di Adobe.

“Il problema è che sia la tecnologia per individuare l’IA che quella per modificarla si stanno sviluppando” ha detto Rao. “Ci sarà sempre questa corsa tra i due, dove uno vincerà sull’altro. Quindi sappiamo che, in una prospettiva a lungo termine, l’IA non sarà la risposta”.

Entrambe le aziende hanno concluso che cercare di distinguere i video reali da quelli falsi sarebbe una corsa agli armamenti senza fine. Così, ha affermato Rao: “Abbiamo ribaltato il problema, ci siamo detti: “Ciò di cui abbiamo bisogno è fornire alle persone un modo per sapere cosa è vero, invece di cercare di trovare tutto ciò che è falso”.

Ciò che stanno facendo non è quindi sviluppare una tecnologia in grado di dimostrare che qualcosa è falso, ma che qualcosa è vero. L’obiettivo è quello di creare una macchina della verità per foto e video.

Alla fine, Microsoft e Adobe hanno unito le forze e hanno progettato una nuova funzione chiamata Content Credentials (credenziali di contenuto), che sperano un giorno possa apparire su ogni foto e video autentici.

Come funziona

Immaginate di scorrere i feed dei vostri social. Qualcuno vi invia una foto di alcune piramidi innevate, affermando che gli scienziati le hanno trovate in Antartide, lontano dall’Egitto! L’icona Content Credentials, pubblicata insieme alla foto, rivelerà la sua cronologia quando si clicca su di essa.

“È possibile vedere chi l’ha scattata, quando l’ha scattata, dove è stata scattata e le modifiche apportate”, ha dichiarato Rao. Senza l’icona di verifica, l’utente potrebbe domandarsi se il contenuto sia veritiero.

Già 900 aziende hanno accettato di usare il pulsante “Credenziali di contenuto”. L’etichetta mostra l’intero ciclo di vita di foto e video, dalla macchina fotografica che li scatta (come Nikon e Canon) fino ai siti web che li visualizzano (New York Times, Wall Street Journal).

Rao ha dichiarato: “I truffatori non useranno questo strumento, cercheranno di ingannarvi e si inventeranno qualcosa. Se qualcuno decide di celare queste informazioni, probabilmente non dovresti credergli”.

Horvitz ha detto che stanno testando diversi prototipi. Uno di questi indica se qualcuno ha cercato di manomettere un video. Viene visualizzato un simbolo dorato che dice: “Credenziali di contenuto incomplete”. Se lo vedete fate un passo indietro, siate scettici.

Conclusioni

Ora, le credenziali non saranno una pallottola d’argento. Saranno necessarie anche leggi ed educazione, in modo che la gente possa rilevare ogni tipo di deepfake.

Ma nei prossimi due anni inizierete a vedere quel pulsante speciale su ogni foto e video online, o almeno su quelli che non sono falsi.

Alessia Tomaselli
Laureata in Mediazione Linguistica per le lingue inglese e spagnolo, attualmente lavora come copywriter presso s-mart.biz, società leader nella sicurezza informatica.