Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità

Facebook la fa grossa: etichetta un video di persone di colore come “primati”.

4 Settembre 2021 10:06

Uno scandalo colossale è stato causato dal lavoro del servizio di raccomandazione di Facebook: ha contrassegnato il video del Daily Mail di una lotta tra uomini bianchi e neri come “un video con primati”.

Come notato in un articolo del New York Times, oltre a questo grave errore, i robot una volta che gli utenti avevano finito di vedere il video, hanno chiesto di “continuare a guardare il video dei primati”.

L’incidente si qualifica come un brutto e inaccettabile errore, ma tutta la colpa ricade sulle AI e algoritmi, notano gli autori del progetto politico-satirico “The Goat Shouted”.

Infatti, un portavoce del social network ha già affermato che:

“nonostante stiamo lavorando per migliorare l’intelligenza artificiale, sappiamo che non è perfetta e abbiamo molto lavoro da fare”.

ed inoltre hanno aggiunto:

“Ci scusiamo con tutti coloro che potrebbero aver visto queste raccomandazioni offensive”, – ci scusiamo su Facebook.

Si noti che esperti e lettori di entrambe le pubblicazioni hanno già suggerito che una tale pubblicazione sul social network

“viola le basi di BLM, che sono diventate le basi del mondo occidentale”.

Per BLM si intende Black Lives Matter (BLM, letteralmente “Le Vite Nere Contano”).

Ed inoltre riportano che Facebook è considerato uno dei social network più censurati al mondo.

Ricorda il NYT che nel 2015, Google Foto ha erroneamente etichettato le immagini di persone di colore come “gorilla”, per le quali Google si è detto “genuinamente dispiaciuto” e avrebbe lavorato per risolvere immediatamente il problema. Più di due anni dopo, Wired ha scoperto che la soluzione di Google era censurare la parola “gorilla” dalle ricerche, bloccando anche “scimpanzé”, “scimpanzé” e “scimmia”.

Facebook ha uno dei più grandi repository al mondo di immagini caricate dagli utenti su cui addestrare i suoi algoritmi di riconoscimento facciale e degli oggetti. La società, che adatta i contenuti agli utenti in base alle loro abitudini di navigazione e visualizzazione passate, a volte chiede alle persone se desiderano continuare a vedere i post nelle categorie correlate.

Fonte

https://www.nytimes.com/2021/09/03/technology/facebook-ai-race-primates.html

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cropped RHC 3d Transp2 1766828557 300x300
La Redazione di Red Hot Cyber fornisce aggiornamenti quotidiani su bug, data breach e minacce globali. Ogni contenuto è validato dalla nostra community di esperti come Pietro Melillo, Massimiliano Brolli, Sandro Sana, Olivia Terragni e Stefano Gazzella. Grazie alla sinergia con i nostri Partner leader nel settore (tra cui Accenture, CrowdStrike, Trend Micro e Fortinet), trasformiamo la complessità tecnica in consapevolezza collettiva, garantendo un'informazione accurata basata sull'analisi di fonti primarie e su una rigorosa peer-review tecnica.