Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
Banner Ancharia Desktop 1 1
UtiliaCS 320x100
Gli attacchi contraddittori alle AI, sono più pericolosi di quanto sembri.

Gli attacchi contraddittori alle AI, sono più pericolosi di quanto sembri.

Redazione RHC : 6 Dicembre 2021 08:48

Negli ultimi cinque anni, gli attacchi ai sistemi di riconoscimento dei modelli con immagini contraddittorie accuratamente realizzate sono stati considerati una prova di concetto divertente ma banale.

Tuttavia, un team di scienziati dell’Università di Adelaide in Australia suggerisce che l’uso accidentale di set di dati di immagini molto popolari per progetti commerciali di intelligenza artificiale potrebbe creare una nuova minaccia alla sicurezza informatica.

In un esperimento, un sistema di riconoscimento facciale che sa chiaramente come riconoscere l’ex presidente degli Stati Uniti Barack Obama è stato fuorviato. Il sistema era certo all’80% che l’uomo che reggeva l’immagine stampata ed elaborata fosse Barack Obama. Al sistema non è interessato nemmeno che la “faccia finta” sia sul petto del modello e non sulle sue spalle.

La ricerca condotta dagli scienziati dimostra un difetto nell’intera architettura attuale per lo sviluppo dell’IA per il riconoscimento delle immagini. Questa vulnerabilità potrebbe esporre molti futuri sistemi di riconoscimento delle immagini a una facile manipolazione da parte di aggressori e scartare eventuali misure di sicurezza successive. Il potenziale per nuovi attacchi di immagini contraddittorie sarà inesauribile perché l’architettura fondamentale del sistema non prevede problemi futuri.

Le immagini contraddittorie vengono create accedendo a set di dati di immagini con modelli di computer addestrati. Un utente malintenzionato non ha bisogno di un accesso privilegiato ai dati di addestramento (o alle architetture del modello) poiché i set di dati più popolari sono ampiamente disponibili nella scena torrent costantemente aggiornata.

Secondo gli scienziati, la capacità di ingannare tali sistemi con immagini create è facilmente trasferibile a molte architetture.

“Gli attacchi di Universal NaTuralistic adversarial patch [TnTs] sono efficaci contro molti classificatori moderni, che vanno dalla rete neurale profonda ampiamente utilizzata WideResNet50 nel compito di riconoscimento visivo su larga scala del set di dati ImageNet, ai modelli facciali della rete neurale convoluzionale VGG nel compito di riconoscere i volti del set di dati PubFig sia negli attacchi mirati che in quelli non mirati”

hanno osservato gli scienziati.

Gli aggressori possono utilizzare correzioni di oggetti sottili e dall’aspetto naturale per fuorviare i sistemi di rete neurale senza manomettere il modello o rischiare il rilevamento.

Questo approccio è dovuto al fatto che i set di dati che si sono dimostrati efficaci, sono molto più economici da implementare rispetto a “iniziare da zero” e sono supportati e aggiornati da organizzazioni leader nel mondo accademico e industriale con ingenti finanziamenti.

I database ImageNet e PubFig sono progetti per la creazione e il mantenimento di un enorme database di immagini, destinato allo sviluppo e alla sperimentazione di metodi di riconoscimento delle immagini e visione artificiale.

Immagine del sitoRedazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

Lista degli articoli

Articoli in evidenza

Immagine del sito
Dio è in Cloud: ti hanno hackerato il cervello e ti è piaciuto
Di Fabrizio Saviano - 28/11/2025

Siamo nell’era dell’inganno a pagamento. Ogni tuo click è un referendum privato in cui vincono sempre loro, gli algoritmi. E non sbagliano mai: ti osservano, ti profilano, ti conoscono meglio di ...

Immagine del sito
La Truffa del CEO! l’inganno che sta travolgendo le aziende italiane
Di Redazione RHC - 27/11/2025

Questa mattina Paragon Sec è stata contattata da un’azienda italiana vittima di un nuovo tentativo di frode conosciuto come Truffa del CEO. L’ufficio contabilità ha ricevuto un’e-mail urgente,...

Immagine del sito
Italia: allarme intelligenza artificiale, cliniche e referti falsi circolano online
Di Redazione RHC - 27/11/2025

i ricercatori di Check Point Software, hanno recentemente pubblicato un’indagine sull’aumento delle truffe farmaceutiche basate sull’intelligenza artificiale. È stato rilevato come i criminali ...

Immagine del sito
ENISA assume il ruolo di Root nel programma CVE per la sicurezza informatica europea
Di Redazione RHC - 27/11/2025

L’Agenzia dell’Unione europea per la sicurezza informatica (ENISA) ha assunto il ruolo di Root all’interno del programma Common Vulnerabilities and Exposures (CVE), diventando il principale punt...

Immagine del sito
Tor Browser e Tails OS pronti per il nuovo standard CGO
Di Redazione RHC - 27/11/2025

Il progetto Tor ha annunciato l’introduzione di un nuovo schema di crittografia, chiamato Counter Galois Onion (CGO), destinato a sostituire il precedente metodo Tor1 Relay. L’aggiornamento mira a...