Dal 1° settembre 2025, tutti i contenuti generati dall’intelligenza artificiale (IA) in Cina devono essere contrassegnati con una “filigrana elettronica”, in base alle nuove disposizioni legislative. L’obiettivo dichiarato è migliorare la trasparenza dei contenuti digitali e ridurre la diffusione di informazioni false.
A marzo di quest’anno, la Cyberspace Administration of China (CAC), insieme ad altri quattro dipartimenti, ha pubblicato le “Misure per l’identificazione di contenuti sintetici generati dall’intelligenza artificiale” (note come “Misure di identificazione”).
Secondo queste regole, testi, immagini, audio, video e scene virtuali realizzati tramite IA devono riportare identificatori sia espliciti, visibili agli utenti, sia impliciti, incorporati nei dati che producono il contenuto.

Le piattaforme di social media, tra cui Bilibili, Douyin, Weibo e Xiaohongshu, richiedono agli editori di contrassegnare proattivamente i contenuti generati dall’IA. Gli utenti o editori che non rispettano queste norme rischiano sanzioni che variano dalla limitazione del traffico alla rimozione dei contenuti e al blocco degli account. In particolare, Douyin ha previsto anche la sospensione dei guadagni e la riduzione dei follower per chi non etichetta correttamente i contenuti AI.
Molte piattaforme hanno introdotto sistemi di “etichettatura automatica” per gestire contenuti non contrassegnati, ma la loro efficacia è limitata. I giornalisti che hanno cercato termini come “immagini AI” hanno comunque rilevato una significativa quantità di contenuti generati dall’IA privi di identificazione. Alcune piattaforme hanno avviato queste regole già prima dell’emanazione delle nuove misure, dimostrando che l’etichettatura dei contenuti AI è un processo lungo e complesso.
Secondo Yao Zhiwei, professore di Giurisprudenza presso l’Università di Finanza ed Economia del Guangdong, le nuove normative richiedono competenze tecniche elevate e resta incerto se le piattaforme di piccole e medie dimensioni riusciranno a rispettarle pienamente.
La mancata segnalazione dei contenuti AI da parte degli editori è spesso legata a motivazioni economiche, come l’incremento del traffico, la creazione di nuovi account e la monetizzazione dei contenuti. Studi sull’impatto della segnalazione dei deepfake suggeriscono che, sebbene i promemoria agli utenti possano migliorare la consapevolezza, allo stesso tempo riducono la propensione a condividere i contenuti.
Le piattaforme mostrano un rapporto ambivalente con l’IA: da un lato favoriscono la creazione di contenuti generati dall’IA, incrementando traffico e promozione; dall’altro devono affrontare abusi, tra cui diffusione di informazioni false, contenuti pornografici e manipolazioni di immagini e volti.
Ad aprile 2025, la CAC ha lanciato la campagna speciale di tre mesi “Clear and Clear: Rettificare l’abuso della tecnologia AI”. L’Amministrazione del Cyberspace di Shanghai ha coordinato l’azione di 15 piattaforme chiave, tra cui Xiaohongshu, Bilibili e Pinduoduo, intercettando oltre 820.000 contenuti illegali, eliminando 1.400 account e rimuovendo più di 2.700 entità AI non conformi. Questi interventi hanno ridotto significativamente la presenza online di contenuti AI illeciti.
I rapporti settimanali delle piattaforme, come il “Clear and Bright: Rectifying the Abuse of AI Technology”, evidenziano i tipi di abuso più frequenti: pubblicità ingannevole, contenuti volgari, marketing illegale di prodotti AI e scambi illeciti di volti e voci. Bilibili segnala anche violazioni legate a video falsi su questioni militari internazionali, contenuti educativi con esperti virtuali, storie di viaggi nel tempo e modelli AI per preparazione agli esami universitari.
Secondo l’Ufficio Informazioni Internet di Shanghai, le piattaforme come Xiyu Technology, Jieyuexingchen, Tongyi, Xiaohongshu, Bilibili e Soul hanno quasi completato l’implementazione delle specifiche per l’identificazione esplicita, accelerando lo sviluppo di sistemi di identificazione implicita e di verifica della catena di comunicazione. Xiaohongshu ha guidato anche la creazione di una guida pratica per il riconoscimento dei metadati delle immagini. Questi sforzi hanno prodotto risultati graduali ma concreti nella gestione dei contenuti generati dall’IA.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

CybercrimeLe autorità tedesche hanno recentemente lanciato un avviso riguardante una sofisticata campagna di phishing che prende di mira gli utenti di Signal in Germania e nel resto d’Europa. L’attacco si concentra su profili specifici, tra…
InnovazioneL’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…
CybercrimeNegli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…
VulnerabilitàNegli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…
InnovazioneArticolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…