
Redazione RHC : 7 Giugno 2023 07:10
Lo scorso dicembre, Apple ha annunciato che stava terminando i lavori sul controverso strumento di scansione delle foto di iCloud che l’azienda aveva sviluppato per combattere il materiale pedopornografico (CSAM) nel rispetto della privacy degli utenti.
Alla fine Apple si è concentrata sulla funzionalità chiamata “Communication Safety“ per i bambini, annunciata per la prima volta nell’agosto 2021. Inoltre alla recente conferenza WWDC 2023, Apple ha svelato un’estensione di queste funzionalità.
L’opzione Communication Safety scansiona i messaggi localmente sui dispositivi dei giovani utenti per rilevare i contenuti di nudità che i bambini ricevono o inviano nei messaggi.

CVE Enrichment Mentre la finestra tra divulgazione pubblica di una vulnerabilità e sfruttamento si riduce sempre di più, Red Hot Cyber ha lanciato un servizio pensato per supportare professionisti IT, analisti della sicurezza, aziende e pentester: un sistema di monitoraggio gratuito che mostra le vulnerabilità critiche pubblicate negli ultimi 3 giorni dal database NVD degli Stati Uniti e l'accesso ai loro exploit su GitHub.
Cosa trovi nel servizio: ✅ Visualizzazione immediata delle CVE con filtri per gravità e vendor. ✅ Pagine dedicate per ogni CVE con arricchimento dati (NIST, EPSS, percentile di rischio, stato di sfruttamento CISA KEV). ✅ Link ad articoli di approfondimento ed exploit correlati su GitHub, per ottenere un quadro completo della minaccia. ✅ Funzione di ricerca: inserisci un codice CVE e accedi subito a insight completi e contestualizzati.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Apple ha annunciato che la funzione si sta ora espandendo ai videomessaggi FaceTime, agli avatar dei contatti e prima di inviare un messaggio (dove gli utenti selezionano una foto o un video da inviare), così come agli AirDrop. L’elaborazione locale significa che Apple non vede i contenuti contrassegnati.
A partire dall’autunno 2023, Communication Safety sarà abilitato per impostazione predefinita per tutti gli account per bambini (minori di 13 anni) nel piano di condivisione familiare. I genitori possono disabilitare la funzione se lo desiderano.
Apple ha dichiarato a dicembre che intende rendere disponibile l’API in modo che gli sviluppatori di terze parti possano facilmente integrare Communication Safety nelle loro app e utilizzarla per rilevare materiale CSAM. Un’API nota come framework di analisi dei contenuti sensibili è già disponibile per gli sviluppatori. Si noti che Discord ha già dichiarato che la piattaforma prevede di includere l’API nelle proprie app iOS.
Una delle critiche alle funzionalità di Communication Safety è che non coprono tutte le applicazioni e i servizi, aprendo potenzialmente le porte a un utente malintenzionato per stabilire un contatto con un bambino.
Apple ha anche lanciato un’opzione per adulti simile, Sensitive Content Warning, che utilizza in modo simile la scansione locale per contrassegnare e sfocare immagini e video di nudità. La funzione è facoltativa ed è gestita nel menu delle impostazioni di privacy e sicurezza di iOS. La scansione è più accurata di Communication Safety. Lo scopo dell’opzione è proteggere gli utenti adulti dai contenuti che non vogliono vedere.

Avviso sui contenuti sensibili per account per adulti
La riduzione dei contenuti CSAM sul Web è una questione complessa. Apple afferma che la società non ha finito di esplorare e investire in nuove soluzioni. Ma con la posta in gioco così alta, c’è una reale necessità per un’azienda come Apple di sviluppare funzionalità che siano efficienti e abbiano una portata più ampia possibile.
Ricordiamo che nel 2021 Apple ha annunciato lo sviluppo di un sistema per la scansione di foto di utenti iPhone alla ricerca di immagini illegali. Secondo quanto riferito, le immagini verranno visualizzate dal programma al fine di cercare materiale fotografico proibito, come pornografia infantile o altro sfruttamento dei minori. Il sistema è progettato per funzionare sui dispositivi degli utenti dei prodotti Apple. Se nella galleria vengono trovati contenuti sospetti, le immagini verranno inviate ai dipendenti per la verifica.
Gran parte delle critiche alla funzione sono state legate al suo utilizzo di una tecnologia pericolosa che rasenta lo snooping , nonché alla sua inefficacia nel rilevare contenuti proibiti. Apple ha cercato di dissipare alcuni malintesi e rassicurare gli utenti, ma la polemica non si è placata.
Redazione
Dal 1° luglio, Cloudflare ha bloccato 416 miliardi di richieste da parte di bot di intelligenza artificiale che tentavano di estrarre contenuti dai siti web dei suoi clienti. Secondo Matthew Prince, ...

Nel 2025, le comunità IT e della sicurezza sono in fermento per un solo nome: “React2Shell“. Con la divulgazione di una nuova vulnerabilità, CVE-2025-55182, classificata CVSS 10.0, sviluppatori ...

Cloudflare torna sotto i riflettori dopo una nuova ondata di disservizi che, nella giornata del 5 dicembre 2025, sta colpendo diversi componenti della piattaforma. Oltre ai problemi al Dashboard e all...

Le spie informatiche cinesi sono rimaste nascoste per anni nelle reti di organizzazioni critiche, infettando le infrastrutture con malware sofisticati e rubando dati, avvertono agenzie governative ed ...

Nove mesi dopo la sua implementazione in Europa, lo strumento di intelligenza artificiale (IA) conversazionale di Meta, integrato direttamente in WhatsApp, sarà oggetto di indagine da parte della Com...