
Redazione RHC : 11 Maggio 2023 07:06
L’11 maggio il Parlamento europeo voterà gli emendamenti alla legge sull’IA, che dovrebbero regolamentare l’uso dell’IA in vari ambiti. Tuttavia, le organizzazioni per i diritti umani chiedono ai parlamentari di vietare l’uso dell’intelligenza artificiale per la polizia, che potrebbe aumentare la discriminazione nei confronti delle minoranze etniche.
La polizia predittiva, è un sistema che utilizza l’intelligenza artificiale per analizzare grandi quantità di dati e identificare potenziali autori di reati o vittime di reati. Tale sistema può includere il riconoscimento di volti, emozioni o altre caratteristiche biometriche.
Tuttavia, tale tecnologia ha ricevuto molte critiche per aver spesso identificato erroneamente i neri come criminali, il che può portare ad un aumento del razzismo.
Prova la Demo di Business Log! Adaptive SOC italiano Log management non solo per la grande Azienda, ma una suite di Audit file, controllo USB, asset, sicurezza e un Security Operation Center PERSONALE, che ti riporta tutte le operazioni necessarie al tuo PC per tutelare i tuoi dati e informati in caso di problemi nel tuo ambiente privato o di lavoro.
Scarica ora la Demo di Business Log per 30gg
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
“L’uso di tale tecnologia di sorveglianza è razzista, autoritaria e incredibilmente opprimente. La sua normalizzazione in occasione di eventi pubblici e manifestazioni conferirà alla polizia e ai governi un potere terribile. Questa tecnologia non dovrebbe mai essere utilizzata”, ha affermato Fair Trials.
Fair Trials è una delle organizzazioni che sostengono l’emendamento CA 11 all’AI Act, che vieta l’uso della polizia predittiva in tutti i paesi dell’UE. Se questo emendamento verrà approvato, sarà il primo divieto di questo tipo in Europa.
Secondo Fair Trials, la polizia sta anche monitorando le persone utilizzando sistemi di riconoscimento facciale, contrassegnando quasi ogni comportamento come “sospetto” e usandolo come scusa per interrogare, fermare e perquisire le persone. I poteri di arresto e perquisizione della polizia sono stati a lungo criticati nel Regno Unito, dove sarebbero usati in modo sproporzionato nei confronti delle minoranze etniche.
Fair Trials teme inoltre che l’applicazione di questa tecnologia influenzi altre comunità vulnerabili, come la classe operaia, dove è più probabile che la tecnologia venga utilizzata. Inoltre, la tecnologia di sorveglianza dell’intelligenza artificiale e altri sistemi di polizia automatizzati minano i diritti fondamentali come la privacy e la presunzione di innocenza fino a prova contraria.
Redazione
I ladri sono entrati attraverso una finestra del secondo piano del Musée du Louvre, ma il museo aveva avuto anche altri problemi oltre alle finestre non protette, secondo un rapporto di audit sulla s...

Reuters ha riferito che Trump ha detto ai giornalisti durante un’intervista preregistrata nel programma “60 Minutes” della CBS e sull’Air Force One durante il viaggio di ritorno: “I chip pi�...

Il primo computer quantistico atomico cinese ha raggiunto un importante traguardo commerciale, registrando le sue prime vendite a clienti nazionali e internazionali, secondo quanto riportato dai media...

Il CEO di NVIDIA, Jen-Hsun Huang, oggi supervisiona direttamente 36 collaboratori suddivisi in sette aree chiave: strategia, hardware, software, intelligenza artificiale, pubbliche relazioni, networki...

OpenAI ha presentato Aardvark, un assistente autonomo basato sul modello GPT-5 , progettato per individuare e correggere automaticamente le vulnerabilità nel codice software. Questo strumento di inte...