
Uno scandalo colossale è stato causato dal lavoro del servizio di raccomandazione di Facebook: ha contrassegnato il video del Daily Mail di una lotta tra uomini bianchi e neri come “un video con primati”.
Come notato in un articolo del New York Times, oltre a questo grave errore, i robot una volta che gli utenti avevano finito di vedere il video, hanno chiesto di “continuare a guardare il video dei primati”.
L’incidente si qualifica come un brutto e inaccettabile errore, ma tutta la colpa ricade sulle AI e algoritmi, notano gli autori del progetto politico-satirico “The Goat Shouted”.
Infatti, un portavoce del social network ha già affermato che:
“nonostante stiamo lavorando per migliorare l’intelligenza artificiale, sappiamo che non è perfetta e abbiamo molto lavoro da fare”.
ed inoltre hanno aggiunto:
“Ci scusiamo con tutti coloro che potrebbero aver visto queste raccomandazioni offensive”, – ci scusiamo su Facebook.
Si noti che esperti e lettori di entrambe le pubblicazioni hanno già suggerito che una tale pubblicazione sul social network
“viola le basi di BLM, che sono diventate le basi del mondo occidentale”.
Per BLM si intende Black Lives Matter (BLM, letteralmente “Le Vite Nere Contano”).
Ed inoltre riportano che Facebook è considerato uno dei social network più censurati al mondo.
Ricorda il NYT che nel 2015, Google Foto ha erroneamente etichettato le immagini di persone di colore come “gorilla”, per le quali Google si è detto “genuinamente dispiaciuto” e avrebbe lavorato per risolvere immediatamente il problema. Più di due anni dopo, Wired ha scoperto che la soluzione di Google era censurare la parola “gorilla” dalle ricerche, bloccando anche “scimpanzé”, “scimpanzé” e “scimmia”.
Facebook ha uno dei più grandi repository al mondo di immagini caricate dagli utenti su cui addestrare i suoi algoritmi di riconoscimento facciale e degli oggetti. La società, che adatta i contenuti agli utenti in base alle loro abitudini di navigazione e visualizzazione passate, a volte chiede alle persone se desiderano continuare a vedere i post nelle categorie correlate.
Fonte
https://www.nytimes.com/2021/09/03/technology/facebook-ai-race-primates.html
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cybercrimen8n, la piattaforma di automazione del flusso di lavoro “fair-code” apprezzata dai team tecnici per la sua combinazione di velocità low-code e flessibilità di programmazione, ha emesso un avviso di sicurezza critico. Pochi dettagli sono…
VulnerabilitàWhatsApp, l’app di messaggistica di Meta con oltre 3 miliardi di utenti attivi mensili, ha iniziato a introdurre modifiche tecniche per mitigare alcune vulnerabilità legate alla privacy dei dispositivi degli utenti. Le correzioni, individuate tramite…
Cyber ItaliaIl CERT-AGID ha individuato una nuova campagna di smishing che utilizza il nome dell’INPS come esca per sottrarre informazioni personali e documenti sensibili ai cittadini. L’operazione fraudolenta è stata rilevata nei primi giorni di gennaio…
HackingUn recente evento ha visto un hacker anonimo rendere pubblica una chiave di sicurezza cruciale, impiegata da Sony per salvaguardare l’integrità della catena di trust nella console PlayStation 5. Questa chiave di sicurezza, conosciuta con…
InnovazionePentestAgent è un altro nuovo progetto open source sviluppato dal gruppo GH05TCREW che mira a supportare le attività di penetration testing attraverso l’uso di agenti basati su modelli linguistici. Il tool è progettato per funzionare…