Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità
Minority Report si avvicina: al voto in UE l’emendamento sulla “polizia predittiva”. A rischio le minoranze etniche

Minority Report si avvicina: al voto in UE l’emendamento sulla “polizia predittiva”. A rischio le minoranze etniche

11 Maggio 2023 07:06

L’11 maggio il Parlamento europeo voterà gli emendamenti alla legge sull’IA, che dovrebbero regolamentare l’uso dell’IA in vari ambiti. Tuttavia, le organizzazioni per i diritti umani chiedono ai parlamentari di vietare l’uso dell’intelligenza artificiale per la polizia, che potrebbe aumentare la discriminazione nei confronti delle minoranze etniche.

La polizia predittiva, è un sistema che utilizza l’intelligenza artificiale per analizzare grandi quantità di dati e identificare potenziali autori di reati o vittime di reati. Tale sistema può includere il riconoscimento di volti, emozioni o altre caratteristiche biometriche.

Advertising

Tuttavia, tale tecnologia ha ricevuto molte critiche per aver spesso identificato erroneamente i neri come criminali, il che può portare ad un aumento del razzismo.

“L’uso di tale tecnologia di sorveglianza è razzista, autoritaria e incredibilmente opprimente. La sua normalizzazione in occasione di eventi pubblici e manifestazioni conferirà alla polizia e ai governi un potere terribile. Questa tecnologia non dovrebbe mai essere utilizzata”, ha affermato Fair Trials.

Fair Trials è una delle organizzazioni che sostengono l’emendamento CA 11 all’AI Act, che vieta l’uso della polizia predittiva in tutti i paesi dell’UE. Se questo emendamento verrà approvato, sarà il primo divieto di questo tipo in Europa.

Secondo Fair Trials, la polizia sta anche monitorando le persone utilizzando sistemi di riconoscimento facciale, contrassegnando quasi ogni comportamento come “sospetto” e usandolo come scusa per interrogare, fermare e perquisire le persone. I poteri di arresto e perquisizione della polizia sono stati a lungo criticati nel Regno Unito, dove sarebbero usati in modo sproporzionato nei confronti delle minoranze etniche.

Fair Trials teme inoltre che l’applicazione di questa tecnologia influenzi altre comunità vulnerabili, come la classe operaia, dove è più probabile che la tecnologia venga utilizzata. Inoltre, la tecnologia di sorveglianza dell’intelligenza artificiale e altri sistemi di polizia automatizzati minano i diritti fondamentali come la privacy e la presunzione di innocenza fino a prova contraria.



Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cropped RHC 3d Transp2 1766828557 300x300
La Redazione di Red Hot Cyber fornisce aggiornamenti quotidiani su bug, data breach e minacce globali. Ogni contenuto è validato dalla nostra community di esperti come Pietro Melillo, Massimiliano Brolli, Sandro Sana, Olivia Terragni e Stefano Gazzella. Grazie alla sinergia con i nostri Partner leader nel settore (tra cui Accenture, CrowdStrike, Trend Micro e Fortinet), trasformiamo la complessità tecnica in consapevolezza collettiva, garantendo un'informazione accurata basata sull'analisi di fonti primarie e su una rigorosa peer-review tecnica.