Redazione RHC : 6 Dicembre 2021 08:48
Negli ultimi cinque anni, gli attacchi ai sistemi di riconoscimento dei modelli con immagini contraddittorie accuratamente realizzate sono stati considerati una prova di concetto divertente ma banale.
NIS2: diventa pronto alle nuove regole europeeLa Direttiva NIS2 cambia le regole della cybersecurity in Europa: nuovi obblighi, scadenze serrate e sanzioni pesanti per chi non si adegua. Essere pronti non è più un’opzione, è una necessità per ogni azienda e infrastruttura critica. Scopri come garantire la compliance e proteggere la tua organizzazione con l’Anteprima Gratuita del Corso NIS2, condotto dall’Avv. Andrea Capelli. Guarda subito l'anteprima gratuita del corso su academy.redhotcyber.com Contattaci per ulteriori informazioni tramite WhatsApp al 375 593 1011 oppure scrivi a [email protected] ![]()
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Tuttavia, un team di scienziati dell’Università di Adelaide in Australia suggerisce che l’uso accidentale di set di dati di immagini molto popolari per progetti commerciali di intelligenza artificiale potrebbe creare una nuova minaccia alla sicurezza informatica.
In un esperimento, un sistema di riconoscimento facciale che sa chiaramente come riconoscere l’ex presidente degli Stati Uniti Barack Obama è stato fuorviato. Il sistema era certo all’80% che l’uomo che reggeva l’immagine stampata ed elaborata fosse Barack Obama. Al sistema non è interessato nemmeno che la “faccia finta” sia sul petto del modello e non sulle sue spalle.
La ricerca condotta dagli scienziati dimostra un difetto nell’intera architettura attuale per lo sviluppo dell’IA per il riconoscimento delle immagini. Questa vulnerabilità potrebbe esporre molti futuri sistemi di riconoscimento delle immagini a una facile manipolazione da parte di aggressori e scartare eventuali misure di sicurezza successive. Il potenziale per nuovi attacchi di immagini contraddittorie sarà inesauribile perché l’architettura fondamentale del sistema non prevede problemi futuri.
Le immagini contraddittorie vengono create accedendo a set di dati di immagini con modelli di computer addestrati. Un utente malintenzionato non ha bisogno di un accesso privilegiato ai dati di addestramento (o alle architetture del modello) poiché i set di dati più popolari sono ampiamente disponibili nella scena torrent costantemente aggiornata.
Secondo gli scienziati, la capacità di ingannare tali sistemi con immagini create è facilmente trasferibile a molte architetture.
“Gli attacchi di Universal NaTuralistic adversarial patch [TnTs] sono efficaci contro molti classificatori moderni, che vanno dalla rete neurale profonda ampiamente utilizzata WideResNet50 nel compito di riconoscimento visivo su larga scala del set di dati ImageNet, ai modelli facciali della rete neurale convoluzionale VGG nel compito di riconoscere i volti del set di dati PubFig sia negli attacchi mirati che in quelli non mirati”
hanno osservato gli scienziati.
Gli aggressori possono utilizzare correzioni di oggetti sottili e dall’aspetto naturale per fuorviare i sistemi di rete neurale senza manomettere il modello o rischiare il rilevamento.
Questo approccio è dovuto al fatto che i set di dati che si sono dimostrati efficaci, sono molto più economici da implementare rispetto a “iniziare da zero” e sono supportati e aggiornati da organizzazioni leader nel mondo accademico e industriale con ingenti finanziamenti.
I database ImageNet e PubFig sono progetti per la creazione e il mantenimento di un enorme database di immagini, destinato allo sviluppo e alla sperimentazione di metodi di riconoscimento delle immagini e visione artificiale.
Una violazione di dati senza precedenti ha colpito il Great Firewall of China (GFW), con oltre 500 GB di materiale riservato che è stato sottratto e reso pubblico in rete. Tra le informazioni comprom...
Negli ultimi anni le truffe online hanno assunto forme sempre più sofisticate, sfruttando non solo tecniche di ingegneria sociale, ma anche la fiducia che milioni di persone ripongono in figure relig...
Microsoft ha ricordato agli utenti che tra un mese terminerà il supporto per l’amato Windows 10. Dal 14 ottobre 2025, il sistema non riceverà più aggiornamenti di sicurezza , correzioni di bug e ...
Negli ultimi mesi mi sono trovato più volte a redigere querele per video falsi che circolavano online. Non parliamo soltanto di contenuti rubati e diffusi senza consenso, ma anche di deepfake: filmat...
Le aziende appaltatrici della difesa statunitense stanno sviluppando uno strumento di intelligenza artificiale chiamato Cyber Resilience On-Orbit (CROO) per rilevare attacchi informatici ai satelliti ...