
Alessia Tomaselli : 4 Febbraio 2023 10:00
I deepfakes sono video falsi di persone reali, generati da software di intelligenza artificiale per mano di persone che vogliono minarne la fiducia.
Al giorno d’oggi, i deepfakes stanno diventando così realistici che gli esperti si stanno preoccupando dell’impatto che avranno sulle notizie e sulla democrazia.
Due anni fa, Eric Horvitz, Chief Scientific Officer di Microsoft e co-creatore del filtro antispam per le email, ha iniziato a cercare di risolvere questo problema.
CALL FOR SPONSOR - Sponsorizza la Graphic Novel Betti-RHCSei un'azienda innovativa, che crede nella diffusione di concetti attraverso metodi "non convenzionali"?
Conosci il nostro corso sul cybersecurity awareness a fumetti?
Red Hot Cyber sta ricercando un nuovo sponsor per una nuova puntata del fumetto Betti-RHC mentre il team è impegnato a realizzare 3 nuovi episodi che ci sono stati commissionati.
Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]
Supporta Red Hot Cyber attraverso:
- L'acquisto del fumetto sul Cybersecurity Awareness
- Ascoltando i nostri Podcast
- Seguendo RHC su WhatsApp
- Seguendo RHC su Telegram
- Scarica gratuitamente “Byte The Silence”, il fumetto sul Cyberbullismo di Red Hot Cyber
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì.“Entro cinque o dieci anni, se non avremo questa tecnologia, la maggior parte di ciò che la gente vedrà, o una buona parte di esso, sarà falso. Non saremo in grado di distinguerli.”
“Chissà se c’è una via d’uscita!” si chiedeva Horvitz.
Si è scoperto che anche Adobe stava pensando ad una soluzione: “Volevamo pensare di dare a tutti uno strumento, un modo per capire se una cosa è vera o no”, ha detto Dana Rao, Chief Counsel e Chief Trust Officer di Adobe.
“Il problema è che sia la tecnologia per individuare l’IA che quella per modificarla si stanno sviluppando” ha detto Rao. “Ci sarà sempre questa corsa tra i due, dove uno vincerà sull’altro. Quindi sappiamo che, in una prospettiva a lungo termine, l’IA non sarà la risposta”.
Entrambe le aziende hanno concluso che cercare di distinguere i video reali da quelli falsi sarebbe una corsa agli armamenti senza fine. Così, ha affermato Rao: “Abbiamo ribaltato il problema, ci siamo detti: “Ciò di cui abbiamo bisogno è fornire alle persone un modo per sapere cosa è vero, invece di cercare di trovare tutto ciò che è falso”.
Ciò che stanno facendo non è quindi sviluppare una tecnologia in grado di dimostrare che qualcosa è falso, ma che qualcosa è vero. L’obiettivo è quello di creare una macchina della verità per foto e video.
Alla fine, Microsoft e Adobe hanno unito le forze e hanno progettato una nuova funzione chiamata Content Credentials (credenziali di contenuto), che sperano un giorno possa apparire su ogni foto e video autentici.
Immaginate di scorrere i feed dei vostri social. Qualcuno vi invia una foto di alcune piramidi innevate, affermando che gli scienziati le hanno trovate in Antartide, lontano dall’Egitto! L’icona “Content Credentials“, pubblicata insieme alla foto, rivelerà la sua cronologia quando si clicca su di essa.
“È possibile vedere chi l’ha scattata, quando l’ha scattata, dove è stata scattata e le modifiche apportate”, ha dichiarato Rao. Senza l’icona di verifica, l’utente potrebbe domandarsi se il contenuto sia veritiero.
Già 900 aziende hanno accettato di usare il pulsante “Credenziali di contenuto”. L’etichetta mostra l’intero ciclo di vita di foto e video, dalla macchina fotografica che li scatta (come Nikon e Canon) fino ai siti web che li visualizzano (New York Times, Wall Street Journal).
Rao ha dichiarato: “I truffatori non useranno questo strumento, cercheranno di ingannarvi e si inventeranno qualcosa. Se qualcuno decide di celare queste informazioni, probabilmente non dovresti credergli”.
Horvitz ha detto che stanno testando diversi prototipi. Uno di questi indica se qualcuno ha cercato di manomettere un video. Viene visualizzato un simbolo dorato che dice: “Credenziali di contenuto incomplete”. Se lo vedete fate un passo indietro, siate scettici.
Ora, le credenziali non saranno una pallottola d’argento. Saranno necessarie anche leggi ed educazione, in modo che la gente possa rilevare ogni tipo di deepfake.
Ma nei prossimi due anni inizierete a vedere quel pulsante speciale su ogni foto e video online, o almeno su quelli che non sono falsi.
Alessia Tomaselli
Dal 1° luglio, Cloudflare ha bloccato 416 miliardi di richieste da parte di bot di intelligenza artificiale che tentavano di estrarre contenuti dai siti web dei suoi clienti. Secondo Matthew Prince, ...

Nel 2025, le comunità IT e della sicurezza sono in fermento per un solo nome: “React2Shell“. Con la divulgazione di una nuova vulnerabilità, CVE-2025-55182, classificata CVSS 10.0, sviluppatori ...

Cloudflare torna sotto i riflettori dopo una nuova ondata di disservizi che, nella giornata del 5 dicembre 2025, sta colpendo diversi componenti della piattaforma. Oltre ai problemi al Dashboard e all...

Le spie informatiche cinesi sono rimaste nascoste per anni nelle reti di organizzazioni critiche, infettando le infrastrutture con malware sofisticati e rubando dati, avvertono agenzie governative ed ...

Nove mesi dopo la sua implementazione in Europa, lo strumento di intelligenza artificiale (IA) conversazionale di Meta, integrato direttamente in WhatsApp, sarà oggetto di indagine da parte della Com...