Redazione RHC : 20 Dicembre 2021 07:44
Apple ha rimosso silenziosamente tutti i riferimenti alla sua funzione di sicurezza Child Sexual Abuse Material (CSAM) dalla sua pagina web.
Ricordiamo che nell’agosto di quest’anno, il gigante della tecnologia ha iniziato a sviluppare un sistema per la scansione di foto di utenti iPhone alla ricerca di immagini illegali. Un programma speciale avrebbe dovuto analizzare le immagini alla ricerca di materiali fotografici proibiti relativi agli abusi sui minori. Se nella galleria sarebbero state trovate immagini sospette, tali immagini venivano inviate ai dipendenti per la revisione.
Vuoi diventare un Ethical Hacker?
Non perdere i nostri corsi e scrivi subito su WhatsApp al numero
375 593 1011
per richiedere informazioni dicendo che hai trovato il numero sulle pagine di Red Hot Cyber
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Tale funzionalità è subito stata soggetta a critiche da una vasta gamma di individui e organizzazioni, tra cui i ricercatori sulla sicurezza, Edward Snowden, un’organizzazione per i diritti umani Electronic Frontier Foundation (EFF), l’ex capo delle forze di sicurezza di Facebook, politici, ricercatori universitari e persino alcuni dipendenti Apple.
Gran parte delle critiche è stata associata all’uso di tecnologie pericolose che rasentano la sorveglianza, oltre ad essere inefficace nel rilevare contenuti proibiti. Apple ha cercato di chiarire alcuni equivoci e rassicurare gli utenti, ma la polemica è continuata.
Il portavoce di Apple Shane Bauer ha dichiarato a The Verge che sebbene il rilevamento CSAM non sia più elencato sul suo sito Web, la società non interromperà il suo sviluppo.
Copyright @ 2003 – 2024 RED HOT CYBER
PIVA 16821691009