Red Hot Cyber

La cybersecurity è condivisione.
Riconosci il rischio, combattilo, condividi le tue esperienze ed 
incentiva gli altri a fare meglio di te.

Cerca

Don’t Spy EU: il progetto che mira a contrastare le tentazioni dell’impiego di AI nella sorveglianza di massa.

Stefano Gazzella : 5 Novembre 2023 09:11

Avevamo già affrontato il tema delle tentazioni del tecnocontrollo grazie ad un’intervista agli attivisti di Privacy Pride riguardante ChatControl. Ora, vista la situazione geopolitica corrente, è chiaro che una possibile crepa nei diritti fondamentali potrebbe rischiosamente o essere sottostimata o ignorata da parte di policy maker europei. Anche grazie alle facili polarizzazioni che è possibile creare in virtù dello stato d’emergenza che muta rapidamente in stato d’eccezione anche grazie alle promesse, spesso indimostrate, di sicurezza che sono in grado di affascinare più che di convincere. Ma in fondo tanto basta per concludere una vendita o realizzare un’azione di lobbying.

Il progetto Don’t Spy EU vuole portare all’attenzione del pubblico tutti i rischi della sorveglianza di massa che potrebbe essere realizzata tramite il riconoscimento facciale con impiego di AI. Vero è che al momento attuale l’AI Act esclude l’impiego di sistemi di Remote Biometric Identification (RBI) in tempo reale in spazi accessibili al pubblico a fini di attività di contrasto, ma possono esserci delle eccezioni e scappatoie. Innanzitutto, la definizione che viene proposta:

“sistema di identificazione biometrica remota”: un sistema di IA finalizzato all’identificazione a distanza di persone fisiche mediante il confronto dei dati biometrici di una persona con i dati biometrici contenuti in una banca dati di riferimento, e senza che l’utente del sistema di IA sappia in anticipo se la persona sarà presente e può essere identificata;

comporta il rischio che vengano escluse talune forme di RBI comunque negativamente impattanti sui diritti fondamentali dei cittadini. L’impiego del termine “a distanza”, inoltre, comporta un’incertezza definitoria piuttosto significativa.

Inoltre, gli ampi margini di deroga offerti nella norma dedicata alle pratiche di AI vietate, dopo un “a meno che e nella misura in cui tale uso sia strettamente necessario per uno dei seguenti obiettivi”, più che un’eccezione sembrano introdurre in via surrettizia un framework normativo. Si può ben ritenere infatti che lo scopo di vietare per non consentire un largo impiego di taluni sistemi quali quelli di RBI sia più cosmetico, negli intenti della legge e nella rubrica, che nella sua successiva e più che prevedibile applicazione.

Le preoccupazioni degli attivisti sul punto sono infatti piuttosto chiare:

As of now, predictive policing tools, real-time remote face recognition and biometric identification in public spaces are forbidden, and the AI Act’s current version maintains this ban as well.
However, exceptions will be granted for ex-post technologies employed in the prosecution of serious crimes and under judicial authorization; law enforcement will also be able to use predictive policing algorithms that analyse personal data in order to identify potential future offenders. And who gets to determine who could turn into an “offender”?

L’azione intrapresa – che può ben essere ricondotta nel novero dell’ethical trolling, ovverosia una provocazione svolta a fin di bene – consiste nella possibilità offerta agli utenti di caricare fotto dei politici e sottoporle alle scansioni di un algoritmo di riconoscimento facciale. Insomma: si fornisce un’anticipazione di un possibile futuro che essi stessi potrebbero realizzare attraverso questo complesso iter normativo.

Ever wondered what living under AI surveillance in Europe would feel like?
Don’t Spy EU allows you to scan the faces of European lawmakers through a face recognition algorithm.
They’re the ones in charge of finalizing the AI Act, so let’s make sure they fully understand the risks of biometric surveillance.

Viene da chiedersi come mai non ci sia sufficiente clamore mediatico a riguardo. Giovandoci di Occam, potremmo arrivare alla conclusione che l’argomento non sia di sufficiente interesse per il pubblico e destinato a giacere all’interno di determinate bolle informative. Piuttosto, viene da domandarsi come mai e con quali metodi si sia creato questo generale disinteresse diffuso e un’analoga inadeguatezza della classe politica nell’essere un effettivo baluardo dei diritti fondamentali dei cittadini. Soprattutto quando si parla di nuovi orizzonti tecnologici.

Probabilmente è al contempo merito di chi agisce come portatore d’interesse e demerito di chi invece dovrebbe svolgere un ruolo di tutela. A pensar male, si sa, si fa peccato. Raramente, però, si sbaglia,

Stefano Gazzella
Privacy Officer e Data Protection Officer, specializzato in advisoring legale per la compliance dei processi in ambito ICT Law. Formatore e trainer per la data protection e la gestione della sicurezza delle informazioni nelle organizzazioni, pone attenzione alle tematiche relative all’ingegneria sociale. Giornalista pubblicista, fa divulgazione su temi collegati a diritti di quarta generazione, nuove tecnologie e sicurezza delle informazioni.