Redazione RHC : 20 Dicembre 2021 07:44
Apple ha rimosso silenziosamente tutti i riferimenti alla sua funzione di sicurezza Child Sexual Abuse Material (CSAM) dalla sua pagina web.
Ricordiamo che nell’agosto di quest’anno, il gigante della tecnologia ha iniziato a sviluppare un sistema per la scansione di foto di utenti iPhone alla ricerca di immagini illegali. Un programma speciale avrebbe dovuto analizzare le immagini alla ricerca di materiali fotografici proibiti relativi agli abusi sui minori. Se nella galleria sarebbero state trovate immagini sospette, tali immagini venivano inviate ai dipendenti per la revisione.
Prompt Engineering & Sicurezza: diventa l’esperto che guida l’AIVuoi dominare l’AI generativa e usarla in modo sicuro e professionale? Con il Corso Prompt Engineering: dalle basi alla cybersecurity, guidato da Luca Vinciguerra, data scientist ed esperto di sicurezza informatica, impari a creare prompt efficaci, ottimizzare i modelli linguistici e difenderti dai rischi legati all’intelligenza artificiale. Un percorso pratico e subito spendibile per distinguerti nel mondo del lavoro. Non restare indietro: investi oggi nelle tue competenze e porta il tuo profilo professionale a un nuovo livello. Guarda subito l'anteprima gratuita del corso su academy.redhotcyber.com Contattaci per ulteriori informazioni tramite WhatsApp al 375 593 1011 oppure scrivi a [email protected] ![]() Supporta RHC attraverso:
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Tale funzionalità è subito stata soggetta a critiche da una vasta gamma di individui e organizzazioni, tra cui i ricercatori sulla sicurezza, Edward Snowden, un’organizzazione per i diritti umani Electronic Frontier Foundation (EFF), l’ex capo delle forze di sicurezza di Facebook, politici, ricercatori universitari e persino alcuni dipendenti Apple.
Gran parte delle critiche è stata associata all’uso di tecnologie pericolose che rasentano la sorveglianza, oltre ad essere inefficace nel rilevare contenuti proibiti. Apple ha cercato di chiarire alcuni equivoci e rassicurare gli utenti, ma la polemica è continuata.
Il portavoce di Apple Shane Bauer ha dichiarato a The Verge che sebbene il rilevamento CSAM non sia più elencato sul suo sito Web, la società non interromperà il suo sviluppo.
Avevamo già parlato della proposta di regolamento “ChatControl” quasi due anni fa, ma vista la roadmap che è in atto ci troviamo nell’imbarazzo di doverne parlare nuovamente. Sembra però un d...
ShinyHunters è un gruppo noto per il coinvolgimento in diversi attacchi informatici di alto profilo. Formatosi intorno al 2020, il gruppo ha guadagnato notorietà attraverso una serie di attacchi mir...
La notizia è semplice, la tecnologia no. Chat Control (CSAR) nasce per scovare CSAM e dinamiche di grooming dentro le piattaforme di messaggistica. La versione “modernizzata” rinuncia alla backdo...
A cura di Luca Stivali e Olivia Terragni. L’11 settembre 2025 è esploso mediaticamente, in modo massivo e massiccio, quello che può essere definito il più grande leak mai subito dal Great Fir...
Una violazione di dati senza precedenti ha colpito il Great Firewall of China (GFW), con oltre 500 GB di materiale riservato che è stato sottratto e reso pubblico in rete. Tra le informazioni comprom...