Redazione RHC : 19 Aprile 2023 16:00
Negli ultimi anni, l’uso di intelligenza artificiale (AI) nella creazione di immagini ha fatto grandi progressi, ma con esso sono emersi anche problemi di disinformazione e manipolazione delle immagini. L’uso di immagini create con AI per la diffusione di notizie false può rappresentare una minaccia significativa per la società, poiché le immagini hanno il potere di influenzare le opinioni delle persone e di plasmare le loro percezioni della realtà.
Le immagini create con l’AI possono essere utilizzate per una vasta gamma di attività fraudolente, tra cui la falsificazione di documenti ufficiali, la creazione di profili social fasulli e la creazione di immagini pornografiche non consensuali.
Inoltre, le immagini create con AI possono essere utilizzate per creare contenuti che sembrano reali ma che in realtà non lo sono, come ad esempio la creazione di video deepfake che mostrano persone che dicono cose che non hanno mai detto.
Vorresti toccare con mano la Cybersecurity e la tecnologia? Iscriviti GRATIS ai WorkShop Hands-On della RHC Conference 2025 (Giovedì 8 maggio 2025)
Se sei un ragazzo delle scuole medie, superiori o frequenti l'università, oppure banalmente un curioso di qualsiasi età, il giorno giovedì 8 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terranno i workshop "hands-on", creati per far avvicinare i ragazzi alla sicurezza informatica e alla tecnologia. Questo anno i workshop saranno:
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
La disinformazione tramite immagini create con l’AI può essere particolarmente pericolosa quando si tratta di questioni di sicurezza nazionale. Ad esempio, potrebbe essere utilizzata per creare immagini false di eventi che non sono mai accaduti, come attacchi terroristici o incidenti nucleari, con conseguente allarme pubblico e risposta da parte delle autorità.
Inoltre, l’uso di immagini create con AI per diffondere disinformazione può anche alimentare la polarizzazione politica e la diffidenza verso le istituzioni. La diffusione di immagini false che dipingono i politici in modo negativo può aumentare il cinismo pubblico verso il governo e alimentare la sfiducia nelle elezioni e nei processi democratici.
L’uso di immagini create con AI per la disinformazione rappresenta anche una sfida per la verificabilità delle notizie. Con la diffusione di immagini false che sembrano reali, diventa più difficile per le persone determinare se una notizia è vera o falsa. Ciò può alimentare la diffidenza verso i media tradizionali e la propensione a credere a teorie del complotto.
Questa foto sembra essere autentica e ritrae Boris Johnson accanto a della spazzatura con una faccia depressa, mentre un cane gli sta vicino per alleviare la sua solitudine. Questa immagine è stata creata con una intelligenza artificiale che consente, passati alcuni parametri di input di ricreare immagini che possono risultare ad un primo sguardo autentiche.
Per contrastare la disinformazione tramite immagini create con l’AI, sono necessarie misure di sicurezza tecniche e politiche. Ad esempio, le piattaforme di social media devono sviluppare metodi per rilevare e rimuovere immagini create con AI che diffondono disinformazione. Inoltre, i governi dovrebbero promuovere la trasparenza e la responsabilità nell’uso dell’AI e fornire risorse per educare il pubblico sulla disinformazione e sulle tecniche di verifica delle notizie.
In conclusione, la disinformazione tramite immagini create con l’AI rappresenta una minaccia per la società che richiede un’azione urgente. Le conseguenze della disinformazione possono essere gravi e le immagini create con AI stanno diventando sempre più sofisticate, quindi è importante agire con prontezza per prevenire ulteriori danni.
Per poter comprendere se si è di fronte ad una immagine fake, è possibile utilizzare gli strumenti di ricerca inversa messi a disposizione dal web, come ad esempio Google ricerca inversa delle immagini per trovare l’origine della fonte e vedere se è stata manipolata o meno.
Effettuare delle ricerche incrociate di più fonti per comprendere e confrontare la copertura della notizia.
Sicuramente il lavoro per capire se si è di fronte ad una notizia autentica o meno diventa sempre più complicato sul web.
È stata individuata una campagna di phishing mirata agli utenti SPID dal gruppo del CERT-AgID, che sfrutta indebitamente il nome e il logo della stessa AgID, insieme al dominio recentemente regis...
Nel mondo del cybercrime organizzato, Darcula rappresenta un salto di paradigma. Non stiamo parlando di un semplice kit di phishing o di una botnet mal gestita. Darcula è una piattaforma vera e p...
Cloudflare afferma di aver prevenuto un numero record di attacchi DDoS da record nel 2024. Il numero di incidenti è aumentato del 358% rispetto all’anno precedente e del 198% ris...
Il gigante delle telecomunicazioni sudcoreano SK Telecom ha sospeso le sottoscrizioni di nuovi abbonati in tutto il paese, concentrandosi sulla sostituzione delle schede SIM di 25 milioni di...
“La protezione dei diritti di bambini e adolescenti rappresenta una priorità per la Polizia di Stato e richiede un’attenta valutazione delle minacce emergenti, l’impiego di t...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006