Alessia Tomaselli : 4 Febbraio 2023 10:00
I deepfakes sono video falsi di persone reali, generati da software di intelligenza artificiale per mano di persone che vogliono minarne la fiducia.
Al giorno d’oggi, i deepfakes stanno diventando così realistici che gli esperti si stanno preoccupando dell’impatto che avranno sulle notizie e sulla democrazia.
Due anni fa, Eric Horvitz, Chief Scientific Officer di Microsoft e co-creatore del filtro antispam per le email, ha iniziato a cercare di risolvere questo problema.
Cybersecurity Awareness per la tua azienda? Scopri BETTI RHC!
Sei un'azienda innovativa, che crede nella diffusione di concetti attraverso metodi "non convenzionali"?
Red hot cyber ha sviluppato da diversi anni una Graphic Novel, l'unica nel suo genere nel mondo, che consente di formare i dipendenti sulla sicurezza informatica attraverso la lettura di un fumetto.
Scopri di più sul corso a fumetti di Red Hot Cyber. Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]
Supporta Red Hot Cyber attraverso:
- L'acquisto del fumetto sul Cybersecurity Awareness
- Ascoltando i nostri Podcast
- Seguendo RHC su WhatsApp
- Seguendo RHC su Telegram
- Scarica gratuitamente “Byte The Silence”, il fumetto sul Cyberbullismo di Red Hot Cyber
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì.“Entro cinque o dieci anni, se non avremo questa tecnologia, la maggior parte di ciò che la gente vedrà, o una buona parte di esso, sarà falso. Non saremo in grado di distinguerli.”
“Chissà se c’è una via d’uscita!” si chiedeva Horvitz.
Si è scoperto che anche Adobe stava pensando ad una soluzione: “Volevamo pensare di dare a tutti uno strumento, un modo per capire se una cosa è vera o no”, ha detto Dana Rao, Chief Counsel e Chief Trust Officer di Adobe.
“Il problema è che sia la tecnologia per individuare l’IA che quella per modificarla si stanno sviluppando” ha detto Rao. “Ci sarà sempre questa corsa tra i due, dove uno vincerà sull’altro. Quindi sappiamo che, in una prospettiva a lungo termine, l’IA non sarà la risposta”.
Entrambe le aziende hanno concluso che cercare di distinguere i video reali da quelli falsi sarebbe una corsa agli armamenti senza fine. Così, ha affermato Rao: “Abbiamo ribaltato il problema, ci siamo detti: “Ciò di cui abbiamo bisogno è fornire alle persone un modo per sapere cosa è vero, invece di cercare di trovare tutto ciò che è falso”.
Ciò che stanno facendo non è quindi sviluppare una tecnologia in grado di dimostrare che qualcosa è falso, ma che qualcosa è vero. L’obiettivo è quello di creare una macchina della verità per foto e video.
Alla fine, Microsoft e Adobe hanno unito le forze e hanno progettato una nuova funzione chiamata Content Credentials (credenziali di contenuto), che sperano un giorno possa apparire su ogni foto e video autentici.
Immaginate di scorrere i feed dei vostri social. Qualcuno vi invia una foto di alcune piramidi innevate, affermando che gli scienziati le hanno trovate in Antartide, lontano dall’Egitto! L’icona “Content Credentials“, pubblicata insieme alla foto, rivelerà la sua cronologia quando si clicca su di essa.
“È possibile vedere chi l’ha scattata, quando l’ha scattata, dove è stata scattata e le modifiche apportate”, ha dichiarato Rao. Senza l’icona di verifica, l’utente potrebbe domandarsi se il contenuto sia veritiero.
Già 900 aziende hanno accettato di usare il pulsante “Credenziali di contenuto”. L’etichetta mostra l’intero ciclo di vita di foto e video, dalla macchina fotografica che li scatta (come Nikon e Canon) fino ai siti web che li visualizzano (New York Times, Wall Street Journal).
Rao ha dichiarato: “I truffatori non useranno questo strumento, cercheranno di ingannarvi e si inventeranno qualcosa. Se qualcuno decide di celare queste informazioni, probabilmente non dovresti credergli”.
Horvitz ha detto che stanno testando diversi prototipi. Uno di questi indica se qualcuno ha cercato di manomettere un video. Viene visualizzato un simbolo dorato che dice: “Credenziali di contenuto incomplete”. Se lo vedete fate un passo indietro, siate scettici.
Ora, le credenziali non saranno una pallottola d’argento. Saranno necessarie anche leggi ed educazione, in modo che la gente possa rilevare ogni tipo di deepfake.
Ma nei prossimi due anni inizierete a vedere quel pulsante speciale su ogni foto e video online, o almeno su quelli che non sono falsi.
Il CERT-AGID ha rilevato una nuova variante del phishing ai danni di PagoPA. La campagna, ancora a tema multe come le precedenti, sfrutta questa volta un meccanismo di open redirect su domini legittim...
Jen-Hsun Huang, fondatore e CEO di Nvidia, ha rivelato che le recenti restrizioni all’esportazione hanno drasticamente ridotto la presenza dei chip AI dell’azienda in Cina, passando dal 95% a una ...
Il Giubileo 2025 a Roma rappresenta una sfida non solo per la gestione di milioni di pellegrini e turisti, ma anche per la protezione dello spazio aereo urbano. I droni, sempre più diffusi e accessib...
Il 15 ottobre 2025 segna un anniversario di eccezionale rilievo nella storia della sicurezza nazionale italiana: cento anni dalla nascita del Servizio Informazioni Militare (SIM), primo servizio di in...
Un nuovo post sul dark web offre l’accesso completo a migliaia di server e database MySQL appartenenti a provider italiani di hosting condiviso. Nelle ultime ore è apparso su un forum underground u...