Redazione RHC : 25 Luglio 2025 11:44
Le falsificazioni generate dall’intelligenza artificiale hanno ormai varcato la soglia tra realtà e fantasia. Sempre più credibili e insidiose, queste contraffazioni video e audio stanno assumendo una pericolosità crescente. Le loro potenzialità di nuocere sono evidenti: dalle campagne diffamatorie a sfondo politico alle imitazioni di personaggi famosi, senza tralasciare le truffe ai danni di imprese e singoli individui, tali tecnologie sono in grado di minare la credibilità delle informazioni che percepiamo sui canali online.
I legislatori danesi hanno compiuto un passo importante introducendo una normativa che si occupa direttamente di questa minaccia in aumento. La recente normativa concede agli individui il diritto di proprietà legale sul proprio volto e sulla propria voce, dichiarando illegale la creazione di deepfake dannosi. Questo provvedimento segna un progresso importante, stabilendo un modello per altri paesi dell’Unione Europea e mettendo in evidenza l’indispensabile esigenza di una strategia legale unificata per contrastare l’utilizzo distorto dell’Intelligenza Artificiale.
Anna Collard, Senior Vice President of Content Strategy ed Evangelist di KnowBe4, ha dichiarato: “I legislatori danesi stanno dando il buon esempio: è urgentemente necessaria una protezione legale contro i deepfake. Restituendo alle persone la proprietà del proprio volto e della propria voce, la Danimarca sta compiendo un passo importante nella lotta contro l’abuso dell’IA. Ma la legislazione da sola non basta. Le persone devono imparare a riconoscere i segnali dei deepfake. Oltre ai governi, anche gli istituti scolastici e le aziende tecnologiche devono investire nella resilienza digitale”.
Vuoi diventare un esperto del Dark Web e della Cyber Threat Intelligence (CTI)?
Stiamo per avviare il corso intermedio in modalità "Live Class", previsto per febbraio.
A differenza dei corsi in e-learning, disponibili online sulla nostra piattaforma con lezioni pre-registrate, i corsi in Live Class offrono un’esperienza formativa interattiva e coinvolgente.
Condotti dal professor Pietro Melillo, le lezioni si svolgono online in tempo reale, permettendo ai partecipanti di interagire direttamente con il docente e approfondire i contenuti in modo personalizzato.
Questi corsi, ideali per aziende, consentono di sviluppare competenze mirate, affrontare casi pratici e personalizzare il percorso formativo in base alle esigenze specifiche del team, garantendo un apprendimento efficace e immediatamente applicabile.
Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]
La natura del problema è estremamente individuale e riguarda l’identità personale. Tecnologie come il deepfake sono ormai in grado di replicare in modo credibile caratteristiche distintive come la tua voce e il tuo viso, che sono unici quanto le impronte digitali.
In assenza di adeguate misure di sicurezza, il rischio è che chiunque possa essere oggetto di imitazioni digitali a scopo fraudolento, ad esempio attraverso false chiamate telefoniche attribuite al CEO per truffare le aziende, o ancora diffondendo messaggi politici falsi. La legge danese riconosce questo rischio trattando la voce e l’aspetto del volto come beni personali, legalmente protetti dallo sfruttamento. Si tratta di un limite giuridico indispensabile in un panorama in rapida evoluzione, in cui i contenuti generati dall’intelligenza artificiale stanno diventando quasi indistinguibili dalle registrazioni autentiche.
Secondo Collard, la legislazione, pur essendo fondamentale, rappresenta solo una parte della soluzione. Infatti, le tecnologie per rilevare i falsi sono ancora in via di sviluppo e non tutti posseggono le risorse o le competenze adeguate per riconoscere i contenuti contraffatti. Di conseguenza, man mano che i deepfake si fanno più accessibili e credibili, è il pubblico a dover sostenere il peso di distinguere tra realtà e finzione.
Ecco perché l’istruzione è fondamentale quanto la regolamentazione. Campagne di sensibilizzazione, programmi di alfabetizzazione digitale nelle scuole e sessioni di formazione sul posto di lavoro svolgono tutti un ruolo chiave nel rafforzare la resilienza, ha continuato. “Si tratta di insegnare alle persone a riconoscere l’inganno narrativo e a sviluppare la capacità di riconoscere la manipolazione quando si verifica”.
In definitiva, la lotta ai deepfake (come quella del phishing, persa alla grande) richiederà un approccio articolato. I governi devono definire i quadri giuridici, le aziende tecnologiche devono sviluppare strumenti di rilevamento più efficaci e dare priorità allo sviluppo responsabile dell’intelligenza artificiale, e i cittadini devono essere messi in grado di orientarsi in un mondo online in cui vedere non significa più necessariamente credere.
La Danimarca ha fatto una prima mossa coraggiosa. Ora vediamo se l’Europa seguirà l’esempio, integrando le tutele legali con gli strumenti, la formazione e la consapevolezza necessari per difendersi da questo inganno digitale.
Sembra che gli Stati Uniti abbiano già seriamente preso in considerazione il concetto di guerra autonoma. Il jet da combattimento autonomo della DARPA , risulta in grado di combattere senza pilot...
CrowdStrike ha pubblicato il suo Global Threat Report 2025, che documenta un balzo in avanti nel comportamento dei criminali informatici e dei gruppi statali. Gli esperti definiscono il 2024 “l...
Solamente due settimane fa, il robot umanoide prodotto da Figure ha destato in noi grande meraviglia, quando con destrezza ha preso degli indumenti da un paniere dei panni sporchi e li ha collocati al...
Il team di ricerca di Trustwave SpiderLabs ha identificato una nuova ondata di attacchi EncryptHub che combinano l’errore umano e lo sfruttamento di una vulnerabilità nella Microsoft Manag...
Gli aggressori hanno iniziato a utilizzare un trucco insolito per mascherare i link di phishing, facendoli apparire come indirizzi di Booking.com. La nuova campagna malware utilizza il carattere hirag...