Red Hot Cyber

Sicurezza informatica, cybercrime, hack
news, e altro ancora
  • English

Apple toglie dal sito web i collegamenti al Child Sexual Abuse Material (CSAM).

Apple ha rimosso silenziosamente tutti i riferimenti alla sua funzione di sicurezza Child Sexual Abuse Material (CSAM) dalla sua pagina web.

Ricordiamo che nell’agosto di quest’anno, il gigante della tecnologia ha iniziato a sviluppare un sistema per la scansione di foto di utenti iPhone alla ricerca di immagini illegali. Un programma speciale avrebbe dovuto analizzare le immagini alla ricerca di materiali fotografici proibiti relativi agli abusi sui minori. Se nella galleria sarebbero state trovate immagini sospette, tali immagini venivano inviate ai dipendenti per la revisione.

Advertisements

Tale funzionalità è subito stata soggetta a critiche da una vasta gamma di individui e organizzazioni, tra cui i ricercatori sulla sicurezza, Edward Snowden, un’organizzazione per i diritti umani Electronic Frontier Foundation (EFF), l’ex capo delle forze di sicurezza di Facebook, politici, ricercatori universitari e persino alcuni dipendenti Apple.

Gran parte delle critiche è stata associata all’uso di tecnologie pericolose che rasentano la sorveglianza, oltre ad essere inefficace nel rilevare contenuti proibiti. Apple ha cercato di chiarire alcuni equivoci e rassicurare gli utenti, ma la polemica è continuata.

Il portavoce di Apple Shane Bauer ha dichiarato a The Verge che sebbene il rilevamento CSAM non sia più elencato sul suo sito Web, la società non interromperà il suo sviluppo.

Advertisements