Redazione RHC : 20 Dicembre 2021 07:44
Apple ha rimosso silenziosamente tutti i riferimenti alla sua funzione di sicurezza Child Sexual Abuse Material (CSAM) dalla sua pagina web.
Ricordiamo che nell’agosto di quest’anno, il gigante della tecnologia ha iniziato a sviluppare un sistema per la scansione di foto di utenti iPhone alla ricerca di immagini illegali. Un programma speciale avrebbe dovuto analizzare le immagini alla ricerca di materiali fotografici proibiti relativi agli abusi sui minori. Se nella galleria sarebbero state trovate immagini sospette, tali immagini venivano inviate ai dipendenti per la revisione.
CORSO NIS2 : Network and Information system 2
La direttiva NIS2 rappresenta una delle novità più importanti per la sicurezza informatica in Europa, imponendo nuovi obblighi alle aziende e alle infrastrutture critiche per migliorare la resilienza contro le cyber minacce.
Con scadenze stringenti e penalità elevate per chi non si adegua, comprendere i requisiti della NIS2 è essenziale per garantire la compliance e proteggere la tua organizzazione.
Accedi All'Anteprima del Corso condotto dall'Avv. Andrea Capelli sulla nostra Academy e segui l'anteprima gratuita.
Per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Tale funzionalità è subito stata soggetta a critiche da una vasta gamma di individui e organizzazioni, tra cui i ricercatori sulla sicurezza, Edward Snowden, un’organizzazione per i diritti umani Electronic Frontier Foundation (EFF), l’ex capo delle forze di sicurezza di Facebook, politici, ricercatori universitari e persino alcuni dipendenti Apple.
Gran parte delle critiche è stata associata all’uso di tecnologie pericolose che rasentano la sorveglianza, oltre ad essere inefficace nel rilevare contenuti proibiti. Apple ha cercato di chiarire alcuni equivoci e rassicurare gli utenti, ma la polemica è continuata.
Il portavoce di Apple Shane Bauer ha dichiarato a The Verge che sebbene il rilevamento CSAM non sia più elencato sul suo sito Web, la società non interromperà il suo sviluppo.
Sullo sfondo della diffusa popolarità degli assistenti AI generativi che promettono di creare codice funzionante per tutti basato su una semplice descrizione in linguaggio naturale, il team ...
Da tempo circolano modelli di intelligenza artificiale pensati per accelerare le attività di hacking, sia nel mondo underground che in contesti più legittimi e visibili. Kali GPT, un modello...
GhostSec, noto collettivo di hacktivisti, ha recentemente rivelato dettagli su un’operazione controversa che coinvolge un’azienda italiana e obiettivi governativi macedoni. In un’...
Negli ultimi giorni, su due noti forum underground specializzati nella compravendita di dati trafugati e metodi fraudolenti, sono comparsi dei post separati (ma identici nel contenuto), riguardanti un...
E se le intelligenze artificiali producessero del codice vulnerabile oppure utilizzassero librerie e costrutti contenenti bug vecchi mai sanati? Si tratta di allucinazione o apprendimento errato? Una ...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006