Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità
Twitter istituisce un bug bounty sui pregiudizi delle IA.

Twitter istituisce un bug bounty sui pregiudizi delle IA.

11 Agosto 2021 00:08

Nel maggio di quest’anno, Twitter ha annunciato la fine del suo algoritmo di ritaglio automatico basato sull’intelligenza artificiale, che, a quanto pare, favoriva i volti bianchi e femminili.

Advertising

La società ha recentemente lanciato anche un programma insolito per premiare i ricercatori che hanno scoperto “pregiudizi algoritmici” sulla piattaforma.

Il programma funziona secondo lo stesso principio del bug bounty per trovare le vulnerabilità.

Il nuovo programma ha rivelato che lo stesso algoritmo, progettato per identificare gli elementi più importanti nelle immagini durante il ritaglio, discrimina le persone nelle fotografie per età e peso e preferisce i testi in inglese e in altre lingue europee.

Bogdan Kulinich, uno studente laureato presso il Politecnico federale di Losanna, in Svizzera, ha scoperto che l’algoritmo di Twitter per il ritaglio automatico delle foto favorisce i giovani snelli.

Durante lo studio, utilizzando tecnologie deepfake, il ricercatore ha generato automaticamente vari volti e testato l’algoritmo per ritagliare le immagini su di essi.

La scoperta di Kulinich è stata confermata anche dal ricercatore senior della BNH Patrick Hall.

“In generale, più una fotografia è snella, giovane e femminile, più è probabile che venga approvata”

ha detto Hall.

Secondo la ricercatrice di sicurezza OpenAI Arielle Herbert-Voss, i pregiudizi trovati nell’algoritmo riflettono i pregiudizi delle persone che forniscono dati per addestrare un modello di intelligenza artificiale.

Nel settembre 2020, uno studente canadese ha attirato l’attenzione sul modo in cui l’algoritmo di Twitter stava ritagliando le foto.

In teoria, l’algoritmo dovrebbe lasciare nella foto i volti di persone, testi e animali. Tuttavia, come si è scoperto, nelle fotografie in cui sono state raffigurate diverse persone, ha preferito i volti caucasici e femminili, tagliando il resto. Si scoprì presto che l’algoritmo mostrava pregiudizi di genere e razziali.



Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Agostino Pellegrino 300x300
E’ un libero professionista, insegnante e perito di informatica Forense, Cyber Security ed Ethical Hacking e Network Management. Ha collaborato con importanti istituti di formazione a livello internazionale e ha esercitato teaching e tutorship in tecniche avanzate di Offensive Security per la NATO ottenendo importanti riconoscimenti dal Governo degli Stati Uniti. Il suo motto è “Studio. Sempre”.
Aree di competenza: Cybersecurity architecture, Threat intelligence, Digital forensics, Offensive security, Incident response & SOAR, Malware analysis, Compliance & frameworks