
Uno scandalo è scoppiato nell’Assemblea Nazionale sudcoreana dopo che un deputato del Partito del Potere Popolare, ha mostrato un video deepfake con alti funzionari durante una seduta. Il video, creato utilizzando l’intelligenza artificiale, mostrava un “incontro segreto” tra il viceministro Bae Kyung-hoon e l’ex presidente della Commissione Giustizia.
Secondo il parlamentare, lo scopo del deepfake era quello di attirare l’attenzione sulla crescente minaccia di abuso dell’intelligenza artificiale e di dimostrare quanto sia facile creare un falso convincente. Tuttavia, i suoi colleghi parlamentari hanno ritenuto le azioni di Kim provocatorie e inaccettabili durante una sessione ufficiale.
Un tentativo di mettere in guardia dai rischi della tecnologia si è ritorto contro il suo promotore. I legislatori lo hanno accusato di aver offuscato il confine tra dimostrazioni educative e manipolazione, utilizzando persone reali.
La discussione verbale è rapidamente degenerata nel caos, con i membri del parlamento che si urlavano contro e la riunione del Comitato per la scienza, le TIC, la radiodiffusione e le comunicazioni è stata sospesa dopo un’ora e quindici minuti.
Il deputato ha affermato che ci sono innumerevoli casi simili di “abuso dell’intelligenza artificiale e dei suoi effetti collaterali” e ha insistito sul fatto che il video avesse il solo scopo di sensibilizzare l’opinione pubblica. Tuttavia, l’effetto è stato opposto: l‘attenzione del Parlamento si è spostata dalla sostanza della questione allo scandalo stesso.
L’incidente è diventato un chiaro esempio di come anche il tentativo di denunciare i pericoli delle tecnologie deepfake possa trasformarsi in disinformazione.
Incidenti simili stanno diventando sempre più comuni nella politica globale. Nel Regno Unito, nel 2024, sono circolati online più di cento video in cui l’ex Primo Ministro Rishi Sunak “parlava” con una voce generata dall’intelligenza artificiale.
I ricercatori della società Fenimore Harper hanno scoperto che i video hanno raggiunto oltre 400.000 utenti e imitavano lo stile dei reportage della BBC.
Nel caso della Corea del Sud, la situazione è stata particolarmente ironica: un parlamentare che aveva cercato di mettere in guardia dai rischi dell’intelligenza artificiale è diventato lui stesso vittima dei suoi effetti, non tecnologici, ma politici.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

InnovazioneL’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…
CybercrimeNegli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…
VulnerabilitàNegli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…
InnovazioneArticolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…
Cyber ItaliaNegli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…