
Redazione RHC : 6 Dicembre 2021 08:48
Negli ultimi cinque anni, gli attacchi ai sistemi di riconoscimento dei modelli con immagini contraddittorie accuratamente realizzate sono stati considerati una prova di concetto divertente ma banale.
Tuttavia, un team di scienziati dell’Università di Adelaide in Australia suggerisce che l’uso accidentale di set di dati di immagini molto popolari per progetti commerciali di intelligenza artificiale potrebbe creare una nuova minaccia alla sicurezza informatica.
In un esperimento, un sistema di riconoscimento facciale che sa chiaramente come riconoscere l’ex presidente degli Stati Uniti Barack Obama è stato fuorviato. Il sistema era certo all’80% che l’uomo che reggeva l’immagine stampata ed elaborata fosse Barack Obama. Al sistema non è interessato nemmeno che la “faccia finta” sia sul petto del modello e non sulle sue spalle.
La ricerca condotta dagli scienziati dimostra un difetto nell’intera architettura attuale per lo sviluppo dell’IA per il riconoscimento delle immagini. Questa vulnerabilità potrebbe esporre molti futuri sistemi di riconoscimento delle immagini a una facile manipolazione da parte di aggressori e scartare eventuali misure di sicurezza successive. Il potenziale per nuovi attacchi di immagini contraddittorie sarà inesauribile perché l’architettura fondamentale del sistema non prevede problemi futuri.
Le immagini contraddittorie vengono create accedendo a set di dati di immagini con modelli di computer addestrati. Un utente malintenzionato non ha bisogno di un accesso privilegiato ai dati di addestramento (o alle architetture del modello) poiché i set di dati più popolari sono ampiamente disponibili nella scena torrent costantemente aggiornata.
Secondo gli scienziati, la capacità di ingannare tali sistemi con immagini create è facilmente trasferibile a molte architetture.
“Gli attacchi di Universal NaTuralistic adversarial patch [TnTs] sono efficaci contro molti classificatori moderni, che vanno dalla rete neurale profonda ampiamente utilizzata WideResNet50 nel compito di riconoscimento visivo su larga scala del set di dati ImageNet, ai modelli facciali della rete neurale convoluzionale VGG nel compito di riconoscere i volti del set di dati PubFig sia negli attacchi mirati che in quelli non mirati”
hanno osservato gli scienziati.
Gli aggressori possono utilizzare correzioni di oggetti sottili e dall’aspetto naturale per fuorviare i sistemi di rete neurale senza manomettere il modello o rischiare il rilevamento.
Questo approccio è dovuto al fatto che i set di dati che si sono dimostrati efficaci, sono molto più economici da implementare rispetto a “iniziare da zero” e sono supportati e aggiornati da organizzazioni leader nel mondo accademico e industriale con ingenti finanziamenti.
I database ImageNet e PubFig sono progetti per la creazione e il mantenimento di un enorme database di immagini, destinato allo sviluppo e alla sperimentazione di metodi di riconoscimento delle immagini e visione artificiale.
Redazione
Nel 2025, gli utenti fanno ancora molto affidamento sulle password di base per proteggere i propri account. Uno studio di Comparitech, basato sull’analisi di oltre 2 miliardi di password reali trape...

Numerosi apprezzamenti stanno arrivando per Elon Musk, che continua a guidare con destrezza le molteplici attività del suo impero, tra cui Tesla, SpaceX, xAI e Starlink, mantenendo salda la sua posiz...

Tre ex dipendenti di DigitalMint, che hanno indagato sugli incidenti ransomware e negoziato con i gruppi di ransomware, sono accusati di aver hackerato le reti di cinque aziende americane. Secondo il ...

Cisco ha reso noto recentemente di aver scoperto una nuova tipologia di attacco informatico mirato a compromettere i dispositivi che operano con i software Cisco Secure Firewall Adaptive Security Appl...

Nel mese di Settembre è uscita una nuova vulnerabilità che riguarda Notepad++. La vulnerabilità è stata identificata con la CVE-2025-56383 i dettagli possono essere consultati nel sito del NIST. L...