Quante volte ci siamo imbattuti ad osservare una immagine, che altri utenti di Internet per divertimento spacciavano per qualcosa di assolutamente reale?
Le reti neurali aumentano la velocità e la qualità della generazione ogni mese, quindi è estremamente importante ora imparare a distinguere le foto reali dai falsi sfacciati.
Advertising
Per semplificare il compito, alcune aziende promettono speciali servizi di rilevamento in grado di analizzare immagini dubbie utilizzando algoritmi complessi e formulare il proprio verdetto.
Ma quanto sono efficaci e affidabili tali servizi?
L’edizione americana del New York Times ha deciso di controllare alcuni di questi servizi come ad esempio “Illuminarty”, “AI or Not”, “Hive” e “Sensity”.
Per fare ciò, i ricercatori hanno “alimentato” i servizi con più di 100 fotografie, che raffiguravano vari paesaggi, strutture architettoniche, cibo, ritratti di persone e animali e molto altro. Molte delle immagini erano reali, ma il resto, ovviamente, è stato generato utilizzando reti neurali.
Per creare falsi realistici, i ricercatori hanno utilizzato generatori di intelligenza artificiale: Midjourney, Stable Diffusion e DALL-E .
Advertising
I servizi stanno cercando schemi insoliti nella disposizione dei pixel, che spesso si verificano durante la generazione artificiale. Tuttavia, tali servizi non tengono conto del contesto e della logica dell’immagine, quindi a volte possono perdere falsi evidenti o scambiare una foto reale per un falso e viceversa.
Ad esempio, una delle immagini verificate mostrava Elon Musk in compagnia di una realistica ragazza androide. L’immagine è stata creata utilizzando Midjourney, ma è riuscita a ingannare due dei cinque rilevatori facendogli credere che l’immagine fosse autentica.
Elon Musk bacia una bellissima ragazza androide (generata da AI)
Inoltre, i rilevatori AI hanno difficoltà con le immagini che sono state alterate rispetto al loro aspetto originale o sono di scarsa qualità.
Tali immagini si trovano spesso su Internet, dove vengono copiate, salvate nuovamente, ridotte o ritagliate. Tutto ciò influisce negativamente su quei marcatori su cui solitamente si basano i rilevatori di immagini generative.
Ad esempio, una delle immagini conteneva una foto molto vecchia di un gigantesco uomo di Neanderthal in piedi accanto a persone comuni.
Naturalmente, l’immagine è stata creata con Midjourney. Quando i rilevatori hanno analizzato l’immagine ad alta risoluzione, tutti l’hanno identificata correttamente come falsa, tuttavia, quando la qualità dell’immagine è stata intenzionalmente ridotta, tutti e cinque i rilevatori hanno riferito che l’immagine era autentica.
L’uomo di Neanderthal gigante in piedi accanto alla gente comune (generato dall’IA)
Oltre a una banale riduzione della qualità, l’aggiunta artificiale di rumore o grana digitale può aiutare a ingannare tali rilevatori, poiché le reti neurali di solito generano immagini “troppo perfette”.
I rilevatori hanno svolto un lavoro molto migliore nell’identificare le immagini reali.
Anche se a volte uno dei servizi potrebbe erroneamente considerare un’immagine di un artista astratto come opera di una rete neurale.
“Convergenza ” – Jackson Pollock (immagine reale)
In generale, gli esperti ritengono che i rilevatori di intelligenza artificiale non dovrebbero essere l’unica difesa contro i contenuti falsi.
Suggeriscono di utilizzare anche altri metodi, come filigrane, avvisi online e restrizioni sulla distribuzione di immagini false. Chiedono inoltre maggiore trasparenza e responsabilità da parte dei creatori di tali contenuti e delle piattaforme su cui sono distribuiti.
L’intelligenza artificiale è in grado di generare non solo immagini realistiche, ma anche testi, audio e video, che possono essere utilizzati anche per manipolare l’opinione pubblica, i mercati finanziari e i processi politici.
Ciò crea nuove sfide e minacce per la società, che richiedono maggiore vigilanza e scetticismo nei confronti di qualsiasi contenuto Internet.
📢 Resta aggiornatoTi è piaciuto questo articolo? Rimani sempre informato seguendoci su Google Discover (scorri in basso e clicca segui) e su 🔔 Google News. Ne stiamo anche discutendo sui nostri social: 💼 LinkedIn, 📘 Facebook e 📸 Instagram. Hai una notizia o un approfondimento da segnalarci? ✉️ Scrivici
La Redazione di Red Hot Cyber fornisce aggiornamenti quotidiani su bug, data breach e minacce globali. Ogni contenuto è validato dalla nostra community di esperti come Pietro Melillo, Massimiliano Brolli, Sandro Sana, Olivia Terragni e Stefano Gazzella.
Grazie alla sinergia con i nostri Partner leader nel settore (tra cui Accenture, CrowdStrike, Trend Micro e Fortinet), trasformiamo la complessità tecnica in consapevolezza collettiva, garantendo un'informazione accurata basata sull'analisi di fonti primarie e su una rigorosa peer-review tecnica.
Ritorna lunedì 18 e martedì 19 maggio la Red Hot Cyber Conference 2026, l’evento gratuito creato dalla community di Red Hot Cyber, che si terrà a Roma in Via Bari 18, presso il Teatro Italia. L’iniziativa è pensata per promuovere la cultura della sicurezza informatica, dell’innovazione digitale e della consapevolezza del rischio cyber. Rappresenta un punto di incontro tra professionisti, studenti, aziende e appassionati del settore, offrendo contenuti tecnici, workshop e momenti di confronto ad alto valore formativo.
L’edizione 2026 si svolgerà a Roma nelle giornate del 18 e 19 maggio presso il Teatro Italia e includerà attività formative, sessioni pratiche e la tradizionale Capture The Flag. L’evento è completamente gratuito, ma la partecipazione è subordinata a registrazione obbligatoria tramite i canali ufficiali, al fine di garantire una corretta organizzazione e gestione degli accessi.
Le iscrizioni saranno disponibili a partire dal 16 marzo 2026 attraverso la piattaforma Eventbrite, dove sarà possibile registrarsi ai diversi percorsi dell’evento: workshop, conferenza principale e competizione CTF. I link ufficiali di registrazione saranno pubblicati sui canali di Red Hot Cyber e costituiranno l’unico punto valido per la prenotazione dei posti all’evento.