
La Cyberspace Administration of China ha annunciato l’avvio di una campagna nazionale straordinaria di due mesi, partita il 24 luglio, con l’obiettivo di contrastare la diffusione di informazioni false pubblicate dai cosiddetti self-media.
L’iniziativa, dal titolo “Chiaro e pulito: correggere i ‘self-media’ dalla pubblicazione di informazioni false”, punta a regolamentare il funzionamento di queste piattaforme, reprimendo le manipolazioni malevole, la distorsione dei fatti e le speculazioni ingannevoli.
Uno degli aspetti centrali del programma riguarda l’utilizzo dell’intelligenza artificiale per creare contenuti sintetici, impersonare altre persone o fabbricare notizie false legate a questioni sociali sensibili. Negli ultimi anni, lo sviluppo rapido delle tecnologie di IA ha rivoluzionato la circolazione delle informazioni, ma ha anche aperto nuove criticità.
Christmas Sale -40% 𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀
Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Un esempio recente si è verificato il 20 luglio, quando ha iniziato a circolare la notizia del presunto capovolgimento di una nave da crociera a Yichang, nella provincia di Hubei, con numerosi passeggeri in acqua.
Dopo le verifiche, è stato accertato che si trattava di una fake news generata dall’IA, accompagnata da immagini manipolate digitalmente per renderla più credibile.
Rispetto alle fake news tradizionali, quelle prodotte dall’IA sono più difficili da riconoscere: testi, foto e video risultano estremamente realistici, al punto che i cittadini comuni non riescono a verificarne l’autenticità con il solo buon senso.
In settori sensibili come la sicurezza pubblica o la gestione delle emergenze, tali contenuti possono innescare panico collettivo e compromettere la vita quotidiana.
Un ulteriore fattore di rischio è rappresentato dal basso costo e dall’alta efficienza con cui l’IA può generare grandi quantità di disinformazione. Questo fenomeno mina la fiducia nella rete, riduce lo spazio per contenuti di qualità e danneggia lo sviluppo sano dell’industria digitale.
Contrastare la disinformazione artificiale non è semplice: i contenuti evolvono rapidamente, sfumando i confini tra reale e falso, mentre l’individuazione delle fonti resta complessa. La campagna della Cyberspace Administration prevede perciò una serie di interventi mirati:
Oltre alle regole, le piattaforme dovranno investire nello sviluppo tecnologico per migliorare la capacità di riconoscere e bloccare la disinformazione, riducendone la diffusione alla fonte. Parallelamente, le autorità invitano a rafforzare i programmi di educazione del pubblico, così da accrescere la consapevolezza e le competenze dei cittadini nell’identificazione di notizie false.
Gli esperti sottolineano che la lotta alla disinformazione basata sull’IA richiede costanza e collaborazione. La campagna attuale, pur avendo carattere straordinario, rappresenta un passo verso una governance più stabile, capace di passare da interventi sporadici a strategie preventive e istituzionalizzate.
Il successo dipenderà dal lavoro congiunto di autorità di regolamentazione, piattaforme digitali, associazioni di settore e comunità degli utenti. Solo un approccio condiviso potrà garantire un cyberspazio più affidabile e sicuro.
Seguici su Google News, LinkedIn, Facebook e Instagram per ricevere aggiornamenti quotidiani sulla sicurezza informatica. Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

CyberpoliticaDietro il nome tecnicamente anodino di ChatControl si muove una delle più profonde torsioni del rapporto tra Stato, tecnologia e cittadini mai tentate nell’Unione europea. Non è una legge “contro la pedopornografia online”, come viene…
CulturaConosciamo quello che è stato considerato uno degli uomini di scienza, forse pari solo a Einstein, più poliedrici e geniali dello scorso secolo. Con un ampissimo spettro di talenti scientifici, sviluppati anche grazie ad un…
CybercrimeLa comunità dei criminali informatici sta rapidamente aumentando il suo interesse nel reclutare personale all’interno delle aziende. Invece di sofisticati attacchi esterni, i criminali si affidano sempre più a fonti interne, ovvero persone disposte a…
CyberpoliticaNella Virginia settentrionale, lungo quello che viene ormai definito il “corridoio dei data center”, sorgono enormi strutture senza finestre che costituiscono l’ossatura fisica della corsa statunitense all’intelligenza artificiale. Questi edifici, grandi quanto hangar industriali, assorbono…
HackingIl team AI Research (STAR) di Straiker ha individuato Villager, un framework di penetration testing nativo basato sull’intelligenza artificiale, sviluppato dal gruppo cinese Cyberspike. Lo strumento, presentato come soluzione red team, è progettato per automatizzare…