Redazione RHC : 6 Settembre 2021 16:53
Come abbiamo già visto in precedenza, la funzionalità introdotta da Apple all’interno di iOS 15, consentirà di analizzare le foto sul dispositivo prima che queste vengano caricate su iCloud.
Il match verrà fatto attraverso foto contenute su un database CSAM (Child Sexual Abuse Material) di immagini pedo pornografiche estratto da almeno due entità diverse.
Distribuisci i nostri corsi di formazione diventando un nostro Affiliato
Se sei un influencer, gestisci una community, un blog, un profilo social o semplicemente hai tanta voglia di diffondere cultura digitale e cybersecurity, questo è il momento perfetto per collaborare con RHC Academy. Unisciti al nostro Affiliate Program: potrai promuovere i nostri corsi online e guadagnare provvigioni ad ogni corso venduto. Fai parte del cambiamento. Diffondi conoscenza, costruisci fiducia, genera valore.
Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Questo, secondo Snowden, “cancellerà il confine che divide quali dispositivi funzionano per te e quali dispositivi funzionano per loro“ ed infatti ha aggiunto:
“Una volta stabilito il precedente secondo cui è appropriato anche per un’azienda ‘pro-privacy’ come Apple realizzare prodotti che tradiscono i propri utenti, Apple stessa perderà ogni controllo su come viene applicato tale precedente.”
Per Snowden infatti il problema è varcare quella soglia di confine prima di tutto e continua:
“L’implementazione di Apple delle funzionalità di rilevamento CSAM ha più a che fare con l’immagine del marchio che con la protezione dei bambini o la conformità alle normative, visto che la funzione può essere evitata semplicemente disabilitando i caricamenti di iCloud Photo. Anche l’idea che Apple introdurrà la misura in preparazione della crittografia end-to-end su iCloud è ridicola. L’implementazione di un tale sistema non avrebbe importanza, perché iPhone avrà già una capacità di sorveglianza integrata.”
Snowden teme che i governi facciano incetta di queste funzionalità per monitoraggio e sorveglianza con una successiva espansione di questo prodotto da parte di Apple:
“Non esiste un limite tecnologico fondamentale a quanto può essere spinto il precedente che Apple sta stabilendo, il che significa che l’unico freno è la politica aziendale fin troppo flessibile di Apple, qualcosa che i governi capiscono fin troppo bene“.
Apple da parte sua afferma che non si piegherà alle richieste del governo di espandere il sistema oltre la sua direttiva originale legate solo alle immagini pedopornografiche.
iPhone 12. Anche se sappiamo che la storia ci insegna altro.
Nella giornata di ieri, Red Hot Cyber ha pubblicato un approfondimento su una grave vulnerabilità scoperta in SUDO (CVE-2025-32463), che consente l’escalation dei privilegi a root in ambie...
Il Dipartimento di Giustizia degli Stati Uniti ha annunciato la scoperta di un sistema su larga scala in cui falsi specialisti IT provenienti dalla RPDC i quali ottenevano lavoro presso aziende americ...
Le persone tendono a essere più comprensive nei confronti dei chatbot se li considerano interlocutori reali. Questa è la conclusione a cui sono giunti gli scienziati dell’Universit&#x...
La Sfida della Sicurezza nelle Reti Wi-Fi e una Soluzione Adattiva. Nell’era della connettività pervasiva, lo standard IEEE 802.11(meglio noto come Wi-Fi ), è diventato la spina dorsa...
Nel mese di aprile 2025, una valvola idraulica di una diga norvegese è stata forzatamente aperta da remoto per diverse ore, a seguito di un attacco informatico mirato. L’episodio, riportat...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006