
Redazione RHC : 19 Aprile 2023 16:00
Negli ultimi anni, l’uso di intelligenza artificiale (AI) nella creazione di immagini ha fatto grandi progressi, ma con esso sono emersi anche problemi di disinformazione e manipolazione delle immagini. L’uso di immagini create con AI per la diffusione di notizie false può rappresentare una minaccia significativa per la società, poiché le immagini hanno il potere di influenzare le opinioni delle persone e di plasmare le loro percezioni della realtà.
Le immagini create con l’AI possono essere utilizzate per una vasta gamma di attività fraudolente, tra cui la falsificazione di documenti ufficiali, la creazione di profili social fasulli e la creazione di immagini pornografiche non consensuali.
Inoltre, le immagini create con AI possono essere utilizzate per creare contenuti che sembrano reali ma che in realtà non lo sono, come ad esempio la creazione di video deepfake che mostrano persone che dicono cose che non hanno mai detto.
Vuoi diventare un esperto del Dark Web e della Cyber Threat Intelligence (CTI)? Stiamo per avviare il corso intermedio in modalità "Live Class" del corso "Dark Web & Cyber Threat Intelligence". A differenza dei corsi in e-learning, disponibili online sulla nostra piattaforma con lezioni pre-registrate, i corsi in Live Class offrono un’esperienza formativa interattiva e coinvolgente. Condotti dal professor Pietro Melillo, le lezioni si svolgono online in tempo reale, permettendo ai partecipanti di interagire direttamente con il docente e approfondire i contenuti in modo personalizzato. Questi corsi, ideali per aziende, consentono di sviluppare competenze mirate, affrontare casi pratici e personalizzare il percorso formativo in base alle esigenze specifiche del team, garantendo un apprendimento efficace e immediatamente applicabile. Guarda subito l'anteprima gratuita del corso su academy.redhotcyber.com Contattaci per ulteriori informazioni tramite WhatsApp al 375 593 1011 oppure scrivi a [email protected]
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
La disinformazione tramite immagini create con l’AI può essere particolarmente pericolosa quando si tratta di questioni di sicurezza nazionale. Ad esempio, potrebbe essere utilizzata per creare immagini false di eventi che non sono mai accaduti, come attacchi terroristici o incidenti nucleari, con conseguente allarme pubblico e risposta da parte delle autorità.
Inoltre, l’uso di immagini create con AI per diffondere disinformazione può anche alimentare la polarizzazione politica e la diffidenza verso le istituzioni. La diffusione di immagini false che dipingono i politici in modo negativo può aumentare il cinismo pubblico verso il governo e alimentare la sfiducia nelle elezioni e nei processi democratici.
L’uso di immagini create con AI per la disinformazione rappresenta anche una sfida per la verificabilità delle notizie. Con la diffusione di immagini false che sembrano reali, diventa più difficile per le persone determinare se una notizia è vera o falsa. Ciò può alimentare la diffidenza verso i media tradizionali e la propensione a credere a teorie del complotto.
Questa foto sembra essere autentica e ritrae Boris Johnson accanto a della spazzatura con una faccia depressa, mentre un cane gli sta vicino per alleviare la sua solitudine. Questa immagine è stata creata con una intelligenza artificiale che consente, passati alcuni parametri di input di ricreare immagini che possono risultare ad un primo sguardo autentiche.

Per contrastare la disinformazione tramite immagini create con l’AI, sono necessarie misure di sicurezza tecniche e politiche. Ad esempio, le piattaforme di social media devono sviluppare metodi per rilevare e rimuovere immagini create con AI che diffondono disinformazione. Inoltre, i governi dovrebbero promuovere la trasparenza e la responsabilità nell’uso dell’AI e fornire risorse per educare il pubblico sulla disinformazione e sulle tecniche di verifica delle notizie.
In conclusione, la disinformazione tramite immagini create con l’AI rappresenta una minaccia per la società che richiede un’azione urgente. Le conseguenze della disinformazione possono essere gravi e le immagini create con AI stanno diventando sempre più sofisticate, quindi è importante agire con prontezza per prevenire ulteriori danni.
Per poter comprendere se si è di fronte ad una immagine fake, è possibile utilizzare gli strumenti di ricerca inversa messi a disposizione dal web, come ad esempio Google ricerca inversa delle immagini per trovare l’origine della fonte e vedere se è stata manipolata o meno.

Effettuare delle ricerche incrociate di più fonti per comprendere e confrontare la copertura della notizia.
Sicuramente il lavoro per capire se si è di fronte ad una notizia autentica o meno diventa sempre più complicato sul web.
Redazione
Il team di GrapheneOS annuncia la chiusura completa della sua infrastruttura in Francia. Gli sviluppatori stanno accelerando il passaggio dal provider di hosting OVH e accusano dalle autorità frances...

Il Roskomnadzor della Federazione Russa ha annunciato che continua a imporre restrizioni sistematiche all’app di messaggistica WhatsApp a causa di violazioni della legge russa. Secondo l’agenzia, ...

Siamo nell’era dell’inganno a pagamento. Ogni tuo click è un referendum privato in cui vincono sempre loro, gli algoritmi. E non sbagliano mai: ti osservano, ti profilano, ti conoscono meglio di ...

Questa mattina Paragon Sec è stata contattata da un’azienda italiana vittima di un nuovo tentativo di frode conosciuto come Truffa del CEO. L’ufficio contabilità ha ricevuto un’e-mail urgente,...

i ricercatori di Check Point Software, hanno recentemente pubblicato un’indagine sull’aumento delle truffe farmaceutiche basate sull’intelligenza artificiale. È stato rilevato come i criminali ...