Red Hot Cyber

La cybersecurity è condivisione.
Riconosci il rischio, combattilo, condividi le tue esperienze ed 
incentiva gli altri a fare meglio di te.

Cerca

L’orribile verità sui deepfake: Bikinioff e la necessità di una tutela digitale

Stefano Gazzella : 5 Maggio 2023 15:53

Quando si parla di deepfake e dei rischi derivanti dalle manipolazioni delle immagini, può essere emblematico l’esempio che in questi ultimi tempi viene offerto da Bikinioff. Il concetto della neutralità tecnologica impone una riflessione. Come può dirsi neutrale uno strumento o un sistema la cui destinazione d’uso prevedibile è la violazione sistematica di diritti? A nulla vale infatti un wishful thinking con cui poi si espongono condizioni d’uso o privacy policy, se non per far paper compliance.

I diritti devono essere tutelati in modo sostanziale anche nella dimensione digitale, dal momento che i principi esistono e possono ben essere declinati pur nell’accelerato mondo dell’innovazione.

Ritenere che ciò che è possibile è lecito comporta infatti la retrocessione di ogni pretesa di tutela di fronte all’entusiasmo tecnologico. Il movente? O l’accettazione di una sconfitta o una posizione di privilegio. E qui è bene ricordare che il privilegio altro non è che il potersi disinteressare di qualcosa posto come un problema in quanto non può in alcun modo riguardarci. Come ad esempio un problema di vittimizzazione di genere. Non sorprenderà infatti che gran parte delle immagini impiegate riguardano donne.
Qualcuno potrebbe poi menzionare che anche i programmi di ritocco o editing delle fotografie possono essere idonei a generare analoghi risultati. Questo però significa confondere – in modo colpevole o doloso – un punto fondamentale: mentre alcuni strumenti possono essere impiegati anche per azioni illecite, altri sono invece nativamente destinati ad un probabile impiego illecito.

La risposta alle preoccupazioni porta la data del 21 aprile.

Nel canale Telegram è stata infatti annunciata un “novità” chee dovrebbe tutelare gli utenti:

Dear users, we have recently noticed instances of misuse of our tool, in violation of our user agreement. To prevent any harmful usage of processed images, we have now implemented a “FAKE” watermark on all outputs. Additionally, as part of our commitment to child safety, we have significantly enhanced our age filter’s accuracy. We appreciate your understanding and cooperation in ensuring the responsible use of our AI tool. Thank you.

Insomma: un rafforzamento del filtro minori e un watermark “FAKE” sulle immagini generate.
Quello che salta più all’occhio è una volontà, invero espressa in maniera piuttosto impacciata, di voler allontanare ogni responsabilità da parte dello sviluppatore che si vorrebbe irresponsabile. Il tutto, nel nome di una non meglio definita promozione dell’utilizzo responsabile dello strumento da parte degli utenti.

Bikinioff: Condizioni d’uso e Privacy Policy

Già leggendo le scarne Condizioni d’uso e la Privacy Policy di Bikinioff emergono non poche criticità.

Tutte le Condizioni d’uso non fanno altro che ribadire che è un prodotto “as is”, privo di ogni garanzia e per cui non si risponde in alcun modo dell’impiego da parte dell’utente. E da cui sono dichiaratamente esclusi i minori, tanto come utenti che come soggetti delle immagini.

Insomma: tutto è costruito per ricondurre la responsabilità esclusivamente lato utente.

Some images processed using BikiniOff may be offensive, inappropriate, or otherwise objectionable. By using our tool, you acknowledge and accept the risks associated with processing such content and agree that we are not liable for any harm or liability arising from your use of our tool or the content processed by our tool.

Non solo: si rappresenta come eventuale ma prevedibile un rischio molto elevato di impiego illecito e non offensivo, inappropriato, o altrimenti sgradevole.

Rischio che però sembra essere affrontato ribadendo ancora una volta che ogni responsabilità è lato utente:

You are solely responsible for the distribution of any images that you processed using BikiniOff, and we are not responsible for any harm or liability that may arise from the distribution of such images.

e che anzi l’utente si impegna a tenere immune BikiniOff da ogni conseguenza negativa derivante dall’impiego in violazione dei termini e condizioni:

You agree to indemnify and hold harmless BikiniOff and its owners, officers, employees, and agents from and against any claims, liabilities, damages, and expenses (including reasonable attorneys’ fees) arising from your use of our tool or any violation of these terms and conditions.

Ciò che viene invece precisato in modo estremamente chiaro riguarda i pagamenti anticipati e senza possibilità di rimborso.

Per quanto riguarda la Privacy Policy, invece, emerge in modo dirompente l’assenza di ogni minima misura di trasparenza nei confronti dell’interessato. Non solo non è possibile identificare il titolare del trattamento o i soggetti coinvolti, ma manca ogni elementare indicazione circa la base giuridica impiegata e i diritti esercitabili.

Se questo non giova a fondare motivi gravi ed urgenti non solo per intervenire, ma per preoccuparsi, allora il vulnus culturale ben più ampio della privacy è ben più grave di quel di cui riteniamo di aver avuto esperienza negli ultimi anni.

Insomma: spogliare senza consenso è davvero “tecnologia neutrale”?

Stefano Gazzella
Privacy Officer e Data Protection Officer, specializzato in advisoring legale per la compliance dei processi in ambito ICT Law. Formatore e trainer per la data protection e la gestione della sicurezza delle informazioni nelle organizzazioni, pone attenzione alle tematiche relative all’ingegneria sociale. Giornalista pubblicista, fa divulgazione su temi collegati a diritti di quarta generazione, nuove tecnologie e sicurezza delle informazioni.