
Uno scandalo è scoppiato nell’Assemblea Nazionale sudcoreana dopo che un deputato del Partito del Potere Popolare, ha mostrato un video deepfake con alti funzionari durante una seduta. Il video, creato utilizzando l’intelligenza artificiale, mostrava un “incontro segreto” tra il viceministro Bae Kyung-hoon e l’ex presidente della Commissione Giustizia.
Secondo il parlamentare, lo scopo del deepfake era quello di attirare l’attenzione sulla crescente minaccia di abuso dell’intelligenza artificiale e di dimostrare quanto sia facile creare un falso convincente. Tuttavia, i suoi colleghi parlamentari hanno ritenuto le azioni di Kim provocatorie e inaccettabili durante una sessione ufficiale.
Un tentativo di mettere in guardia dai rischi della tecnologia si è ritorto contro il suo promotore. I legislatori lo hanno accusato di aver offuscato il confine tra dimostrazioni educative e manipolazione, utilizzando persone reali.
La discussione verbale è rapidamente degenerata nel caos, con i membri del parlamento che si urlavano contro e la riunione del Comitato per la scienza, le TIC, la radiodiffusione e le comunicazioni è stata sospesa dopo un’ora e quindici minuti.
Il deputato ha affermato che ci sono innumerevoli casi simili di “abuso dell’intelligenza artificiale e dei suoi effetti collaterali” e ha insistito sul fatto che il video avesse il solo scopo di sensibilizzare l’opinione pubblica. Tuttavia, l’effetto è stato opposto: l‘attenzione del Parlamento si è spostata dalla sostanza della questione allo scandalo stesso.
L’incidente è diventato un chiaro esempio di come anche il tentativo di denunciare i pericoli delle tecnologie deepfake possa trasformarsi in disinformazione.
Incidenti simili stanno diventando sempre più comuni nella politica globale. Nel Regno Unito, nel 2024, sono circolati online più di cento video in cui l’ex Primo Ministro Rishi Sunak “parlava” con una voce generata dall’intelligenza artificiale.
I ricercatori della società Fenimore Harper hanno scoperto che i video hanno raggiunto oltre 400.000 utenti e imitavano lo stile dei reportage della BBC.
Nel caso della Corea del Sud, la situazione è stata particolarmente ironica: un parlamentare che aveva cercato di mettere in guardia dai rischi dell’intelligenza artificiale è diventato lui stesso vittima dei suoi effetti, non tecnologici, ma politici.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cyber NewsL’Italia è finita ancora una volta nel mirino del collettivo hacktivista filorusso NoName057(16). Dopo i pesanti disservizi che hanno colpito l‘Università La Sapienza e le Gallerie degli Uffizi all’inizio di questa settimana. L’offensiva digitale russa…
Cyber NewsSecondo quanto riportato dal Corriere della Sera, l’attacco informatico che ha paralizzato i sistemi dell’Università La Sapienza non sarebbe motivato da fini politici. Gli hacker avrebbero inviato messaggi di rivendicazione spiegando di non agire per…
CybercrimeNella cyber security, spesso ci si concentra sulla ricerca di complessi bug nel codice sorgente, ignorando che la fiducia dell’utente finale passa per un elemento molto più semplice: un link di download. L’incidente che ha…
Cyber NewsNella giornata di lunedì mattina, un grave incidente informatico ha colpito l’Università La Sapienza di Roma, mettendo fuori uso una parte rilevante dell’infrastruttura digitale dell’ateneo. L’attacco ha avuto effetti immediati sulla didattica e sui servizi…
InnovazioneL’evoluzione delle piattaforme digitali ha raggiunto un punto di rottura dove la presenza umana non è più richiesta per alimentare il dibattito. Moltbook emerge come un esperimento sociale senza precedenti, un ecosistema dove milioni di…