Redazione RHC : 4 Settembre 2021 10:06
Uno scandalo colossale è stato causato dal lavoro del servizio di raccomandazione di Facebook: ha contrassegnato il video del Daily Mail di una lotta tra uomini bianchi e neri come “un video con primati”.
Sei un Esperto di Formazione?
Entra anche tu nel Partner program! Accedi alla sezione riservata ai Creator sulla nostra Academy e scopri i vantaggi riservati ai membri del Partner program.
Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Come notato in un articolo del New York Times, oltre a questo grave errore, i robot una volta che gli utenti avevano finito di vedere il video, hanno chiesto di “continuare a guardare il video dei primati”.
L’incidente si qualifica come un brutto e inaccettabile errore, ma tutta la colpa ricade sulle AI e algoritmi, notano gli autori del progetto politico-satirico “The Goat Shouted”.
Infatti, un portavoce del social network ha già affermato che:
“nonostante stiamo lavorando per migliorare l’intelligenza artificiale, sappiamo che non è perfetta e abbiamo molto lavoro da fare”.
ed inoltre hanno aggiunto:
“Ci scusiamo con tutti coloro che potrebbero aver visto queste raccomandazioni offensive”, – ci scusiamo su Facebook.
Si noti che esperti e lettori di entrambe le pubblicazioni hanno già suggerito che una tale pubblicazione sul social network
“viola le basi di BLM, che sono diventate le basi del mondo occidentale”.
Per BLM si intende Black Lives Matter (BLM, letteralmente “Le Vite Nere Contano”).
Ed inoltre riportano che Facebook è considerato uno dei social network più censurati al mondo.
Ricorda il NYT che nel 2015, Google Foto ha erroneamente etichettato le immagini di persone di colore come “gorilla”, per le quali Google si è detto “genuinamente dispiaciuto” e avrebbe lavorato per risolvere immediatamente il problema. Più di due anni dopo, Wired ha scoperto che la soluzione di Google era censurare la parola “gorilla” dalle ricerche, bloccando anche “scimpanzé”, “scimpanzé” e “scimmia”.
Facebook ha uno dei più grandi repository al mondo di immagini caricate dagli utenti su cui addestrare i suoi algoritmi di riconoscimento facciale e degli oggetti. La società, che adatta i contenuti agli utenti in base alle loro abitudini di navigazione e visualizzazione passate, a volte chiede alle persone se desiderano continuare a vedere i post nelle categorie correlate.
Fonte
https://www.nytimes.com/2021/09/03/technology/facebook-ai-race-primates.html
Secondo un nuovo rapporto del gruppo per i diritti umani Amnesty International, pubblicato dopo quasi due anni di ricerche sulla situazione, la Cambogia resta un punto caldo sulla mappa mondiale della...
Hunters International, il gruppo responsabile di uno dei più grandi attacchi ransomware degli ultimi anni, ha annunciato ufficialmente la cessazione delle sue attività. In una dichiarazione ...
I ricercatori di Okta hanno notato che aggressori sconosciuti stanno utilizzando lo strumento di intelligenza artificiale generativa v0 di Vercel per creare pagine false che imitano qu...
Google è al centro di un’imponente causa in California che si è conclusa con la decisione di pagare oltre 314 milioni di dollari agli utenti di smartphone Android nello stato. Una giu...
La RHC Conference 2025, organizzata da Red Hot Cyber, ha rappresentato un punto di riferimento per la comunità italiana della cybersecurity, offrendo un ricco programma di talk, workshop e compet...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006