Red Hot Cyber

La cybersecurity è condivisione.
Riconosci il rischio, combattilo, condividi le tue esperienze ed 
incentiva gli altri a fare meglio di te.

Cerca

Facebook la fa grossa: etichetta un video di persone di colore come “primati”.

Redazione RHC : 4 Settembre 2021 10:06

Uno scandalo colossale è stato causato dal lavoro del servizio di raccomandazione di Facebook: ha contrassegnato il video del Daily Mail di una lotta tra uomini bianchi e neri come “un video con primati”.

Come notato in un articolo del New York Times, oltre a questo grave errore, i robot una volta che gli utenti avevano finito di vedere il video, hanno chiesto di “continuare a guardare il video dei primati”.

L’incidente si qualifica come un brutto e inaccettabile errore, ma tutta la colpa ricade sulle AI e algoritmi, notano gli autori del progetto politico-satirico “The Goat Shouted”.

Infatti, un portavoce del social network ha già affermato che:

“nonostante stiamo lavorando per migliorare l’intelligenza artificiale, sappiamo che non è perfetta e abbiamo molto lavoro da fare”.

ed inoltre hanno aggiunto:

“Ci scusiamo con tutti coloro che potrebbero aver visto queste raccomandazioni offensive”, – ci scusiamo su Facebook.

Si noti che esperti e lettori di entrambe le pubblicazioni hanno già suggerito che una tale pubblicazione sul social network

“viola le basi di BLM, che sono diventate le basi del mondo occidentale”.

Per BLM si intende Black Lives Matter (BLM, letteralmente “Le Vite Nere Contano”).

Ed inoltre riportano che Facebook è considerato uno dei social network più censurati al mondo.

Ricorda il NYT che nel 2015, Google Foto ha erroneamente etichettato le immagini di persone di colore come “gorilla”, per le quali Google si è detto “genuinamente dispiaciuto” e avrebbe lavorato per risolvere immediatamente il problema. Più di due anni dopo, Wired ha scoperto che la soluzione di Google era censurare la parola “gorilla” dalle ricerche, bloccando anche “scimpanzé”, “scimpanzé” e “scimmia”.

Facebook ha uno dei più grandi repository al mondo di immagini caricate dagli utenti su cui addestrare i suoi algoritmi di riconoscimento facciale e degli oggetti. La società, che adatta i contenuti agli utenti in base alle loro abitudini di navigazione e visualizzazione passate, a volte chiede alle persone se desiderano continuare a vedere i post nelle categorie correlate.

Fonte

https://www.nytimes.com/2021/09/03/technology/facebook-ai-race-primates.html

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.