DeepNude: quando il Deep fake ti spoglia.



Il 23 ottobre 2020, il Garante della Privacy ha aperto un’istruttoria nei confronti di Telegram dopo che alcuni utenti avevano manipolato delle foto di ragazze tramite un software chiamato “Deep Nude,” disponibile sulla piattaforma stessa, con il quale, partendo da una normale fotografia, è possibile ricostruire l’aspetto del corpo senza gli indumenti addosso.


Quanto accaduto ha dato il via a molteplici riflessioni sui possibili risvolti negativi di un’eventuale diffusione incontrollata delle immagini così prodotte, a partire dalle potenziali gravi lesioni alla dignità e alla privacy dei soggetti, nonché del possibile rischio che le stesse vengano utilizzate a fini estorsivi o di revenge porn.



Si vengono a prospettare, quindi, da un punto di vista giuridico, non solo delle criticità sull’eventuale rispetto delle norme sulla protezione dei dati personali nella messa a disposizione agli utenti di un simile programma informatico, ma anche delle questioni sulla possibile rilevanza penale delle condotte che ne derivano.


Occorre chiedersi, però, da un lato, se l’istruttoria del Garante nei confronti di Telegram – nonché un eventuale successivo provvedimento – possa essere sufficiente ad arginare tale fenomeno, dall’altro, che tipo di tutela si possa configurare allo stato attuale, considerando l’assenza di una disciplina normativa puntuale in tal senso.


Il Deep Nude, una particolare forma di Deep Fake


Con il termine Deep fake, in generale, si intende quel fenomeno per cui delle immagini o dei video che ritraggono soggetti reali vengono rielaborate artificialmente e adattate ad un contesto diverso da quello originario tramite un sistema di intelligenza artificiale. Questi software, in sostanza, catturano i caratteri corporei e facciali del soggetto ritratto in un’immagine presente in internet e li rielaborano tramite un sofisticato algoritmo.


Particolare fattispecie