Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità
Cina, stretta contro le fake news generate dall’intelligenza artificiale

Cina, stretta contro le fake news generate dall’intelligenza artificiale

4 Ottobre 2025 08:28

La Cyberspace Administration of China ha annunciato l’avvio di una campagna nazionale straordinaria di due mesi, partita il 24 luglio, con l’obiettivo di contrastare la diffusione di informazioni false pubblicate dai cosiddetti self-media.

L’iniziativa, dal titolo “Chiaro e pulito: correggere i ‘self-media’ dalla pubblicazione di informazioni false”, punta a regolamentare il funzionamento di queste piattaforme, reprimendo le manipolazioni malevole, la distorsione dei fatti e le speculazioni ingannevoli.

Disinformazione e intelligenza artificiale

Uno degli aspetti centrali del programma riguarda l’utilizzo dell’intelligenza artificiale per creare contenuti sintetici, impersonare altre persone o fabbricare notizie false legate a questioni sociali sensibili. Negli ultimi anni, lo sviluppo rapido delle tecnologie di IA ha rivoluzionato la circolazione delle informazioni, ma ha anche aperto nuove criticità.

Un esempio recente si è verificato il 20 luglio, quando ha iniziato a circolare la notizia del presunto capovolgimento di una nave da crociera a Yichang, nella provincia di Hubei, con numerosi passeggeri in acqua.

Dopo le verifiche, è stato accertato che si trattava di una fake news generata dall’IA, accompagnata da immagini manipolate digitalmente per renderla più credibile.

Rischi e impatto sociale

Rispetto alle fake news tradizionali, quelle prodotte dall’IA sono più difficili da riconoscere: testi, foto e video risultano estremamente realistici, al punto che i cittadini comuni non riescono a verificarne l’autenticità con il solo buon senso.

In settori sensibili come la sicurezza pubblica o la gestione delle emergenze, tali contenuti possono innescare panico collettivo e compromettere la vita quotidiana.

Un ulteriore fattore di rischio è rappresentato dal basso costo e dall’alta efficienza con cui l’IA può generare grandi quantità di disinformazione. Questo fenomeno mina la fiducia nella rete, riduce lo spazio per contenuti di qualità e danneggia lo sviluppo sano dell’industria digitale.

Le misure previste

Contrastare la disinformazione artificiale non è semplice: i contenuti evolvono rapidamente, sfumando i confini tra reale e falso, mentre l’individuazione delle fonti resta complessa. La campagna della Cyberspace Administration prevede perciò una serie di interventi mirati:

  • potenziamento dei meccanismi di etichettatura delle informazioni, con particolare attenzione all’identificazione dei contenuti generati dall’IA;
  • obbligo per le piattaforme di self-media di segnalare in modo chiaro i contenuti sintetici;
  • esclusione dai sistemi di raccomandazione algoritmica dei materiali non etichettati correttamente.

Oltre alle regole, le piattaforme dovranno investire nello sviluppo tecnologico per migliorare la capacità di riconoscere e bloccare la disinformazione, riducendone la diffusione alla fonte. Parallelamente, le autorità invitano a rafforzare i programmi di educazione del pubblico, così da accrescere la consapevolezza e le competenze dei cittadini nell’identificazione di notizie false.

Verso una governance a lungo termine

Gli esperti sottolineano che la lotta alla disinformazione basata sull’IA richiede costanza e collaborazione. La campagna attuale, pur avendo carattere straordinario, rappresenta un passo verso una governance più stabile, capace di passare da interventi sporadici a strategie preventive e istituzionalizzate.

Il successo dipenderà dal lavoro congiunto di autorità di regolamentazione, piattaforme digitali, associazioni di settore e comunità degli utenti. Solo un approccio condiviso potrà garantire un cyberspazio più affidabile e sicuro.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Luca Vinciguerra 300x300
Machine Learning Engineer specializzato nel Natural Language Processing. Appassionato di Intelligenza Artificiale, Coding e tecnologia in generale. Aspetta l'avvento di Skynet.
Aree di competenza: Artificial Intelligence Engineer, Machine Learning & Deep Learning Specialist, Python Developer

Articoli in evidenza

Immagine del sitoInnovazione
Robot in cerca di carne: Quando l’AI affitta periferiche. Il tuo corpo!
Silvia Felici - 06/02/2026

L’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…

Immagine del sitoCybercrime
DKnife: il framework di spionaggio Cinese che manipola le reti
Pietro Melillo - 06/02/2026

Negli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…

Immagine del sitoVulnerabilità
Così tante vulnerabilità in n8n tutti in questo momento. Cosa sta succedendo?
Agostino Pellegrino - 06/02/2026

Negli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…

Immagine del sitoInnovazione
L’IA va in orbita: Qwen 3, Starcloud e l’ascesa del calcolo spaziale
Sergio Corpettini - 06/02/2026

Articolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…

Immagine del sitoCyber Italia
Truffe WhatsApp: “Prestami dei soldi”. Il messaggio che può svuotarti il conto
Silvia Felici - 06/02/2026

Negli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…