
Dal 1° settembre 2025, tutti i contenuti generati dall’intelligenza artificiale (IA) in Cina devono essere contrassegnati con una “filigrana elettronica”, in base alle nuove disposizioni legislative. L’obiettivo dichiarato è migliorare la trasparenza dei contenuti digitali e ridurre la diffusione di informazioni false.
A marzo di quest’anno, la Cyberspace Administration of China (CAC), insieme ad altri quattro dipartimenti, ha pubblicato le “Misure per l’identificazione di contenuti sintetici generati dall’intelligenza artificiale” (note come “Misure di identificazione”).
Secondo queste regole, testi, immagini, audio, video e scene virtuali realizzati tramite IA devono riportare identificatori sia espliciti, visibili agli utenti, sia impliciti, incorporati nei dati che producono il contenuto.

Avvio delle iscrizioni al corso Cyber Offensive Fundamentals Vuoi smettere di guardare tutorial e iniziare a capire davvero come funziona la sicurezza informatica? La base della sicurezza informatica, al di là di norme e tecnologie, ha sempre un unico obiettivo: fermare gli attacchi dei criminali informatici. Pertanto "Pensa come un attaccante, agisci come un difensore". Ti porteremo nel mondo dell'ethical hacking e del penetration test come nessuno ha mai fatto prima. Per informazioni potete accedere alla pagina del corso oppure contattarci tramite WhatsApp al numero 379 163 8765 oppure scrivendoci alla casella di posta [email protected].
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Le piattaforme di social media, tra cui Bilibili, Douyin, Weibo e Xiaohongshu, richiedono agli editori di contrassegnare proattivamente i contenuti generati dall’IA. Gli utenti o editori che non rispettano queste norme rischiano sanzioni che variano dalla limitazione del traffico alla rimozione dei contenuti e al blocco degli account. In particolare, Douyin ha previsto anche la sospensione dei guadagni e la riduzione dei follower per chi non etichetta correttamente i contenuti AI.
Molte piattaforme hanno introdotto sistemi di “etichettatura automatica” per gestire contenuti non contrassegnati, ma la loro efficacia è limitata. I giornalisti che hanno cercato termini come “immagini AI” hanno comunque rilevato una significativa quantità di contenuti generati dall’IA privi di identificazione. Alcune piattaforme hanno avviato queste regole già prima dell’emanazione delle nuove misure, dimostrando che l’etichettatura dei contenuti AI è un processo lungo e complesso.
Secondo Yao Zhiwei, professore di Giurisprudenza presso l’Università di Finanza ed Economia del Guangdong, le nuove normative richiedono competenze tecniche elevate e resta incerto se le piattaforme di piccole e medie dimensioni riusciranno a rispettarle pienamente.
La mancata segnalazione dei contenuti AI da parte degli editori è spesso legata a motivazioni economiche, come l’incremento del traffico, la creazione di nuovi account e la monetizzazione dei contenuti. Studi sull’impatto della segnalazione dei deepfake suggeriscono che, sebbene i promemoria agli utenti possano migliorare la consapevolezza, allo stesso tempo riducono la propensione a condividere i contenuti.
Le piattaforme mostrano un rapporto ambivalente con l’IA: da un lato favoriscono la creazione di contenuti generati dall’IA, incrementando traffico e promozione; dall’altro devono affrontare abusi, tra cui diffusione di informazioni false, contenuti pornografici e manipolazioni di immagini e volti.
Ad aprile 2025, la CAC ha lanciato la campagna speciale di tre mesi “Clear and Clear: Rettificare l’abuso della tecnologia AI”. L’Amministrazione del Cyberspace di Shanghai ha coordinato l’azione di 15 piattaforme chiave, tra cui Xiaohongshu, Bilibili e Pinduoduo, intercettando oltre 820.000 contenuti illegali, eliminando 1.400 account e rimuovendo più di 2.700 entità AI non conformi. Questi interventi hanno ridotto significativamente la presenza online di contenuti AI illeciti.
I rapporti settimanali delle piattaforme, come il “Clear and Bright: Rectifying the Abuse of AI Technology”, evidenziano i tipi di abuso più frequenti: pubblicità ingannevole, contenuti volgari, marketing illegale di prodotti AI e scambi illeciti di volti e voci. Bilibili segnala anche violazioni legate a video falsi su questioni militari internazionali, contenuti educativi con esperti virtuali, storie di viaggi nel tempo e modelli AI per preparazione agli esami universitari.
Secondo l’Ufficio Informazioni Internet di Shanghai, le piattaforme come Xiyu Technology, Jieyuexingchen, Tongyi, Xiaohongshu, Bilibili e Soul hanno quasi completato l’implementazione delle specifiche per l’identificazione esplicita, accelerando lo sviluppo di sistemi di identificazione implicita e di verifica della catena di comunicazione. Xiaohongshu ha guidato anche la creazione di una guida pratica per il riconoscimento dei metadati delle immagini. Questi sforzi hanno prodotto risultati graduali ma concreti nella gestione dei contenuti generati dall’IA.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

CybercrimeQuando si parla di cybersecurity, non è raro imbattersi in notizie che sembrano prese da un film di fantascienza. Eppure, la realtà è ancora più sorprendente e a volte inquietante. La storia dei due cittadini…
CybercrimeDopo un lungo periodo di silenzio, il malware downloader Gootloader è tornato alla ribalta. Lo scorso novembre il team di Huntress ha rilevato una nuova campagna che indicava il ritorno di uno sviluppatore precedentemente associato…
CybercrimeNel corso di un’audizione al Senato francese, il ministro dell’Interno Laurent Nuñez ha illustrato in modo dettagliato le modalità del cyberattacco che ha colpito il suo dicastero, precisando fin da subito che parte delle informazioni…
VulnerabilitàCisco ha confermato che una falla critica di sicurezza zero-day, che consente l’esecuzione remota di codice, è attualmente oggetto di sfruttamento attivo nei suoi dispositivi Secure Email Gateway e Secure Email and Web Manager. Questa…
InnovazioneQuesta settimana ha segnato la fine di un’era: Microsoft ha finalmente terminato il supporto per Windows Server 2008, il sistema operativo basato su Windows Vista. Il sistema operativo server, nome in codice Longhorn Server, è…