
Redazione RHC : 19 Aprile 2023 16:00
Negli ultimi anni, l’uso di intelligenza artificiale (AI) nella creazione di immagini ha fatto grandi progressi, ma con esso sono emersi anche problemi di disinformazione e manipolazione delle immagini. L’uso di immagini create con AI per la diffusione di notizie false può rappresentare una minaccia significativa per la società, poiché le immagini hanno il potere di influenzare le opinioni delle persone e di plasmare le loro percezioni della realtà.
Le immagini create con l’AI possono essere utilizzate per una vasta gamma di attività fraudolente, tra cui la falsificazione di documenti ufficiali, la creazione di profili social fasulli e la creazione di immagini pornografiche non consensuali.
Inoltre, le immagini create con AI possono essere utilizzate per creare contenuti che sembrano reali ma che in realtà non lo sono, come ad esempio la creazione di video deepfake che mostrano persone che dicono cose che non hanno mai detto.
CVE Enrichment Mentre la finestra tra divulgazione pubblica di una vulnerabilità e sfruttamento si riduce sempre di più, Red Hot Cyber ha lanciato un servizio pensato per supportare professionisti IT, analisti della sicurezza, aziende e pentester: un sistema di monitoraggio gratuito che mostra le vulnerabilità critiche pubblicate negli ultimi 3 giorni dal database NVD degli Stati Uniti e l'accesso ai loro exploit su GitHub.
Cosa trovi nel servizio: ✅ Visualizzazione immediata delle CVE con filtri per gravità e vendor. ✅ Pagine dedicate per ogni CVE con arricchimento dati (NIST, EPSS, percentile di rischio, stato di sfruttamento CISA KEV). ✅ Link ad articoli di approfondimento ed exploit correlati su GitHub, per ottenere un quadro completo della minaccia. ✅ Funzione di ricerca: inserisci un codice CVE e accedi subito a insight completi e contestualizzati.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
La disinformazione tramite immagini create con l’AI può essere particolarmente pericolosa quando si tratta di questioni di sicurezza nazionale. Ad esempio, potrebbe essere utilizzata per creare immagini false di eventi che non sono mai accaduti, come attacchi terroristici o incidenti nucleari, con conseguente allarme pubblico e risposta da parte delle autorità.
Inoltre, l’uso di immagini create con AI per diffondere disinformazione può anche alimentare la polarizzazione politica e la diffidenza verso le istituzioni. La diffusione di immagini false che dipingono i politici in modo negativo può aumentare il cinismo pubblico verso il governo e alimentare la sfiducia nelle elezioni e nei processi democratici.
L’uso di immagini create con AI per la disinformazione rappresenta anche una sfida per la verificabilità delle notizie. Con la diffusione di immagini false che sembrano reali, diventa più difficile per le persone determinare se una notizia è vera o falsa. Ciò può alimentare la diffidenza verso i media tradizionali e la propensione a credere a teorie del complotto.
Questa foto sembra essere autentica e ritrae Boris Johnson accanto a della spazzatura con una faccia depressa, mentre un cane gli sta vicino per alleviare la sua solitudine. Questa immagine è stata creata con una intelligenza artificiale che consente, passati alcuni parametri di input di ricreare immagini che possono risultare ad un primo sguardo autentiche.

Per contrastare la disinformazione tramite immagini create con l’AI, sono necessarie misure di sicurezza tecniche e politiche. Ad esempio, le piattaforme di social media devono sviluppare metodi per rilevare e rimuovere immagini create con AI che diffondono disinformazione. Inoltre, i governi dovrebbero promuovere la trasparenza e la responsabilità nell’uso dell’AI e fornire risorse per educare il pubblico sulla disinformazione e sulle tecniche di verifica delle notizie.
In conclusione, la disinformazione tramite immagini create con l’AI rappresenta una minaccia per la società che richiede un’azione urgente. Le conseguenze della disinformazione possono essere gravi e le immagini create con AI stanno diventando sempre più sofisticate, quindi è importante agire con prontezza per prevenire ulteriori danni.
Per poter comprendere se si è di fronte ad una immagine fake, è possibile utilizzare gli strumenti di ricerca inversa messi a disposizione dal web, come ad esempio Google ricerca inversa delle immagini per trovare l’origine della fonte e vedere se è stata manipolata o meno.

Effettuare delle ricerche incrociate di più fonti per comprendere e confrontare la copertura della notizia.
Sicuramente il lavoro per capire se si è di fronte ad una notizia autentica o meno diventa sempre più complicato sul web.
Redazione
Dal 1° luglio, Cloudflare ha bloccato 416 miliardi di richieste da parte di bot di intelligenza artificiale che tentavano di estrarre contenuti dai siti web dei suoi clienti. Secondo Matthew Prince, ...

Nel 2025, le comunità IT e della sicurezza sono in fermento per un solo nome: “React2Shell“. Con la divulgazione di una nuova vulnerabilità, CVE-2025-55182, classificata CVSS 10.0, sviluppatori ...

Cloudflare torna sotto i riflettori dopo una nuova ondata di disservizi che, nella giornata del 5 dicembre 2025, sta colpendo diversi componenti della piattaforma. Oltre ai problemi al Dashboard e all...

Le spie informatiche cinesi sono rimaste nascoste per anni nelle reti di organizzazioni critiche, infettando le infrastrutture con malware sofisticati e rubando dati, avvertono agenzie governative ed ...

Nove mesi dopo la sua implementazione in Europa, lo strumento di intelligenza artificiale (IA) conversazionale di Meta, integrato direttamente in WhatsApp, sarà oggetto di indagine da parte della Com...