Apple ha rimosso silenziosamente tutti i riferimenti alla sua funzione di sicurezza Child Sexual Abuse Material (CSAM) dalla sua pagina web.
Ricordiamo che nell’agosto di quest’anno, il gigante della tecnologia ha iniziato a sviluppare un sistema per la scansione di foto di utenti iPhone alla ricerca di immagini illegali. Un programma speciale avrebbe dovuto analizzare le immagini alla ricerca di materiali fotografici proibiti relativi agli abusi sui minori. Se nella galleria sarebbero state trovate immagini sospette, tali immagini venivano inviate ai dipendenti per la revisione.
Tale funzionalità è subito stata soggetta a critiche da una vasta gamma di individui e organizzazioni, tra cui i ricercatori sulla sicurezza, Edward Snowden, un’organizzazione per i diritti umani Electronic Frontier Foundation (EFF), l’ex capo delle forze di sicurezza di Facebook, politici, ricercatori universitari e persino alcuni dipendenti Apple.
Gran parte delle critiche è stata associata all’uso di tecnologie pericolose che rasentano la sorveglianza, oltre ad essere inefficace nel rilevare contenuti proibiti. Apple ha cercato di chiarire alcuni equivoci e rassicurare gli utenti, ma la polemica è continuata.
Il portavoce di Apple Shane Bauer ha dichiarato a The Verge che sebbene il rilevamento CSAM non sia più elencato sul suo sito Web, la società non interromperà il suo sviluppo.
La Redazione di Red Hot Cyber fornisce aggiornamenti quotidiani su
bug,
data breach e
minacce globali. Ogni contenuto è validato dalla nostra community di esperti come
Pietro Melillo,
Massimiliano Brolli,
Sandro Sana,
Olivia Terragni e
Stefano Gazzella.
Grazie alla sinergia con i nostri
Partner leader nel settore (tra cui
Accenture,
CrowdStrike,
Trend Micro e
Fortinet), trasformiamo la complessità tecnica in consapevolezza collettiva, garantendo un'informazione accurata basata sull'analisi di fonti primarie e su una rigorosa
peer-review tecnica.