
Redazione RHC : 6 Dicembre 2021 08:48
Negli ultimi cinque anni, gli attacchi ai sistemi di riconoscimento dei modelli con immagini contraddittorie accuratamente realizzate sono stati considerati una prova di concetto divertente ma banale.
Tuttavia, un team di scienziati dell’Università di Adelaide in Australia suggerisce che l’uso accidentale di set di dati di immagini molto popolari per progetti commerciali di intelligenza artificiale potrebbe creare una nuova minaccia alla sicurezza informatica.
In un esperimento, un sistema di riconoscimento facciale che sa chiaramente come riconoscere l’ex presidente degli Stati Uniti Barack Obama è stato fuorviato. Il sistema era certo all’80% che l’uomo che reggeva l’immagine stampata ed elaborata fosse Barack Obama. Al sistema non è interessato nemmeno che la “faccia finta” sia sul petto del modello e non sulle sue spalle.
La ricerca condotta dagli scienziati dimostra un difetto nell’intera architettura attuale per lo sviluppo dell’IA per il riconoscimento delle immagini. Questa vulnerabilità potrebbe esporre molti futuri sistemi di riconoscimento delle immagini a una facile manipolazione da parte di aggressori e scartare eventuali misure di sicurezza successive. Il potenziale per nuovi attacchi di immagini contraddittorie sarà inesauribile perché l’architettura fondamentale del sistema non prevede problemi futuri.
Le immagini contraddittorie vengono create accedendo a set di dati di immagini con modelli di computer addestrati. Un utente malintenzionato non ha bisogno di un accesso privilegiato ai dati di addestramento (o alle architetture del modello) poiché i set di dati più popolari sono ampiamente disponibili nella scena torrent costantemente aggiornata.
Secondo gli scienziati, la capacità di ingannare tali sistemi con immagini create è facilmente trasferibile a molte architetture.
“Gli attacchi di Universal NaTuralistic adversarial patch [TnTs] sono efficaci contro molti classificatori moderni, che vanno dalla rete neurale profonda ampiamente utilizzata WideResNet50 nel compito di riconoscimento visivo su larga scala del set di dati ImageNet, ai modelli facciali della rete neurale convoluzionale VGG nel compito di riconoscere i volti del set di dati PubFig sia negli attacchi mirati che in quelli non mirati”
hanno osservato gli scienziati.
Gli aggressori possono utilizzare correzioni di oggetti sottili e dall’aspetto naturale per fuorviare i sistemi di rete neurale senza manomettere il modello o rischiare il rilevamento.
Questo approccio è dovuto al fatto che i set di dati che si sono dimostrati efficaci, sono molto più economici da implementare rispetto a “iniziare da zero” e sono supportati e aggiornati da organizzazioni leader nel mondo accademico e industriale con ingenti finanziamenti.
I database ImageNet e PubFig sono progetti per la creazione e il mantenimento di un enorme database di immagini, destinato allo sviluppo e alla sperimentazione di metodi di riconoscimento delle immagini e visione artificiale.
Redazione
Nel panorama dei forum underground esistono attori che operano in modo episodico, alla ricerca di un singolo colpo mediatico, e altri che costruiscono nel tempo una pipeline quasi industriale di comp...

Nel contesto odierno, proteggere una rete richiede molto più che impostare una password complessa. Un attacco informatico contro una rete wireless segue un percorso strutturato che evolve dal monitor...

Il DPO, ma anche il consulente privacy, interagisce in modo significativo con il mondo dell’IT. Purtroppo non sempre lo fa in modo corretto, soprattutto perché alcuni falsi miti provocano quel rumo...

Il post 462 del canale ufficiale di Durov ha attivato subito la “modalità urlo”: “Fine dell’internet libero. L’internet libero sta diventando uno strumento di controllo”. Niente auguri pe...

Il mercato clandestino del cybercrime continua a evolversi rapidamente, alimentato da gruppi specializzati che progettano e vendono strumenti per truffe digitali sempre più sofisticate. Tra questi, u...