
Le falsificazioni generate dall’intelligenza artificiale hanno ormai varcato la soglia tra realtà e fantasia. Sempre più credibili e insidiose, queste contraffazioni video e audio stanno assumendo una pericolosità crescente. Le loro potenzialità di nuocere sono evidenti: dalle campagne diffamatorie a sfondo politico alle imitazioni di personaggi famosi, senza tralasciare le truffe ai danni di imprese e singoli individui, tali tecnologie sono in grado di minare la credibilità delle informazioni che percepiamo sui canali online.
I legislatori danesi hanno compiuto un passo importante introducendo una normativa che si occupa direttamente di questa minaccia in aumento. La recente normativa concede agli individui il diritto di proprietà legale sul proprio volto e sulla propria voce, dichiarando illegale la creazione di deepfake dannosi. Questo provvedimento segna un progresso importante, stabilendo un modello per altri paesi dell’Unione Europea e mettendo in evidenza l’indispensabile esigenza di una strategia legale unificata per contrastare l’utilizzo distorto dell’Intelligenza Artificiale.
Anna Collard, Senior Vice President of Content Strategy ed Evangelist di KnowBe4, ha dichiarato: “I legislatori danesi stanno dando il buon esempio: è urgentemente necessaria una protezione legale contro i deepfake. Restituendo alle persone la proprietà del proprio volto e della propria voce, la Danimarca sta compiendo un passo importante nella lotta contro l’abuso dell’IA. Ma la legislazione da sola non basta. Le persone devono imparare a riconoscere i segnali dei deepfake. Oltre ai governi, anche gli istituti scolastici e le aziende tecnologiche devono investire nella resilienza digitale”.
Christmas Sale -40% 𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀
Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
La natura del problema è estremamente individuale e riguarda l’identità personale. Tecnologie come il deepfake sono ormai in grado di replicare in modo credibile caratteristiche distintive come la tua voce e il tuo viso, che sono unici quanto le impronte digitali.
In assenza di adeguate misure di sicurezza, il rischio è che chiunque possa essere oggetto di imitazioni digitali a scopo fraudolento, ad esempio attraverso false chiamate telefoniche attribuite al CEO per truffare le aziende, o ancora diffondendo messaggi politici falsi. La legge danese riconosce questo rischio trattando la voce e l’aspetto del volto come beni personali, legalmente protetti dallo sfruttamento. Si tratta di un limite giuridico indispensabile in un panorama in rapida evoluzione, in cui i contenuti generati dall’intelligenza artificiale stanno diventando quasi indistinguibili dalle registrazioni autentiche.
Secondo Collard, la legislazione, pur essendo fondamentale, rappresenta solo una parte della soluzione. Infatti, le tecnologie per rilevare i falsi sono ancora in via di sviluppo e non tutti posseggono le risorse o le competenze adeguate per riconoscere i contenuti contraffatti. Di conseguenza, man mano che i deepfake si fanno più accessibili e credibili, è il pubblico a dover sostenere il peso di distinguere tra realtà e finzione.
Ecco perché l’istruzione è fondamentale quanto la regolamentazione. Campagne di sensibilizzazione, programmi di alfabetizzazione digitale nelle scuole e sessioni di formazione sul posto di lavoro svolgono tutti un ruolo chiave nel rafforzare la resilienza, ha continuato. “Si tratta di insegnare alle persone a riconoscere l’inganno narrativo e a sviluppare la capacità di riconoscere la manipolazione quando si verifica”.
In definitiva, la lotta ai deepfake (come quella del phishing, persa alla grande) richiederà un approccio articolato. I governi devono definire i quadri giuridici, le aziende tecnologiche devono sviluppare strumenti di rilevamento più efficaci e dare priorità allo sviluppo responsabile dell’intelligenza artificiale, e i cittadini devono essere messi in grado di orientarsi in un mondo online in cui vedere non significa più necessariamente credere.
La Danimarca ha fatto una prima mossa coraggiosa. Ora vediamo se l’Europa seguirà l’esempio, integrando le tutele legali con gli strumenti, la formazione e la consapevolezza necessari per difendersi da questo inganno digitale.
Ti è piaciutno questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

CybercrimeAnalisi e correlazioni costruite anche grazie alla piattaforma Recorded Future (Insikt Group), che in questi casi è utile per mettere ordine nel caos tra segnali, rumor e priorità operative. C’è una tradizione natalizia che nessuno…
HackingQuesto articolo analizza una recente e sofisticata campagna di phishing che sfrutta la tecnica Browser-in-the-Browser (BitB) per rubare credenziali, in particolare quelle di servizi come Microsoft 365. L’attacco BitB si distingue per la sua capacità…
VulnerabilitàQuando si parla di sicurezza informatica, è facile cadere nella trappola di pensare che i problemi siano sempre lontani, che riguardino solo gli altri. Ma la realtà è che la vulnerabilità è sempre dietro l’angolo,…
VulnerabilitàÈ stata scoperta, come riportato in precedenza, una grave vulnerabilità in MongoDB che consente a un aggressore remoto, senza alcuna autenticazione, di accedere alla memoria non inizializzata del server. Al problema è stato assegnato l’identificatore…
CyberpoliticaDietro il nome tecnicamente anodino di ChatControl si muove una delle più profonde torsioni del rapporto tra Stato, tecnologia e cittadini mai tentate nell’Unione europea. Non è una legge “contro la pedopornografia online”, come viene…