Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Condividi la tua difesa. Incoraggia l'eccellenza.
La vera forza della cybersecurity risiede
nell'effetto moltiplicatore della conoscenza.
Banner Ancharia Desktop 1 1
Fortinet 320x100px
Machine Learning Hacking: gli attacchi contraddittori.

Machine Learning Hacking: gli attacchi contraddittori.

23 Maggio 2021 10:01

Quello che viene definito come Adversarial machine learning (Apprendimento automatico del contraddittorio) è quella tecnica di apprendimento automatico che tenta di ingannare i modelli di intelligenza artificiale fornendo input ingannevoli. Si tratta di una sorta di “fuzzing” evoluto ad immagini, suoni, video e tutto quello che possa essere ingerito da un algoritmo di Machine Learning, con il tentativo di causare un malfunzionamento nel modello di apprendimento automatico.

Le reti neurali profonde sono modelli che hanno recentemente raggiunto prestazioni impressionanti nelle attività di riconoscimento vocale e visivo. Ma essendo algoritmi assetati di input, hanno difficoltà nel riconoscere un input malevolo da un input corretto.

Su Red Hot Cyber avevamo riportato a suo tempo nella rubrica “Quotes” la seguente citazione:

B939cf A2b376bdb4e242f1b4c5fd2b169ab95e Mv2

La meraviglia dell’apprendimento automatico è la sua capacità di eseguire attività che non possono essere rappresentate da regole rigide. Ad esempio, quando noi esseri umani riconosciamo il cane in un’immagine, la nostra mente attraversa un processo complicato, consciamente e inconsciamente tenendo conto di molte delle caratteristiche visive che vediamo nell’immagine.

Con questo articolo spiegheremo come è possibile ingannare un algoritmo di intelligenza artificiale attraverso l’arte del contraddittorio.

Machine learning Hacking

Possono essere eseguiti degli attacchi agli algoritmi di intelligenza artificiale in due aree distinte, che possono essere classificate in:

  • inferenza: si verificano quando si hanno informazioni sul funzionamento del modello;
  • addestramento: si verificano quando si tende a corrompere il modello nella fase di addestramento fornendo input errati, portando l’algoritmo ad effettuare delle scelte errate.

A loro volta questi attacchi possono essere caratterizzati in:

  • Attacchi di evasione: utilizzando degli input errati, si porta l’algoritmo ad etichettare output in modo differente rispetto alla realtà;
  • Attacchi avvelenamento : si avvelenano i data-set di addestramento, compromettendo la capacità dell’algoritmo di etichettare gli output;
  • Attacchi alla privacy: utilizzando la fase di addestramento, si tenta di recuperare informazioni sensibili dall’algoritmo.

All’interno degli attacchi di Evasione e di Avvelenamento, rientrano gli attacchi “contraddittori”, quelli che vedremo oggi, ovvero quando si tenta attraverso un input errato di causare un errore nel modello di apprendimento che possiamo paragonare (facendo un paragone con il cervello umano) a delle vere e proprie “illusioni ottiche per le macchine”.

Per avere un’idea di come sia un esempi di contraddittorio, vi mostriamo questo esempio un po’ datato, tratto da Explaining and Harnessing Adversarial examples della Cornell University, che mostra che partendo da un’immagine di un panda, l’attaccante aggiungendo una piccola perturbazione consente di ingannare l’AI, facendo etichettare l’immagine erroneamente per un gibbone.

B939cf Ce59c370958f4ace8445c3c7f6ca1722 Mv2
Un input contraddittorio, sovrapposto a un’immagine tipica, può indurre un classificatore a classificare erroneamente un panda come gibbone.

Ricerche recenti hanno dimostrato che gli esempi di contraddittorio possono essere stampati su carta e poi fotografati con uno smartphone per trarre l’algoritmo in errore, come nel caso odierno dei sistemi di riconoscimento delle mascherine per il COVID-19. Infatti la maggior parte degli algoritmi oggi non sa riconoscere se i dati in input siano o meno reali, in quanto si basa su una immagine 2d e non 3d.

B939cf Ea5587ff70f643c491f6104c08d864d5 Mv2

Gli esempi di contraddittorio hanno il potenziale per essere molto pericolosi.

Ad esempio, gli aggressori potrebbero prendere di mira gli algoritmi che alimentano la guida autonoma di un veicolo, utilizzando adesivi o vernice per creare un segnale di stop che potrebbe essere interpretato in un segnale di tutt’altra natura.

Come riportato in molti attacchi Black-Box contro i sistemi di apprendimento profondo che utilizzano quello che viene denominato “attacco antagonista”.

B939cf 9f16e301ce5e4eaaa3b8a5abac01bcd6 Mv2

Diverse ricerche mostrano che gli algoritmi RL (Reinforcement Learnig, è una famiglia di algoritmi di Intelligenza Artificiale che, immersi in un ambiente, prendono decisioni per massimizzare la somma delle ricompense), come DQN, TRPO e A3C, sono vulnerabili agli input contraddittori.

Questi possono portare a prestazioni degradate anche in presenza di perturbazioni molto piccole da essere percepite da un essere umano, facendo sì che l’algoritmo sposti una racchetta da ping pong (o un altra tipologia di player) nel verso opposto interferendo sulle sue capacità di individuare i nemici, come ad esempio nel videogioco Seaquest in calce.

Se vuoi sperimentare meglio tutto questo, cercando falle all’interno dei tuoi modelli, puoi usare cleverhans, una libreria open source sviluppata congiuntamente da Ian Goodfellow e Nicolas Papernot per testare le vulnerabilità della tua intelligenza artificiale attraverso gli esempi contraddittori.


Come difenderci

Gli esempi contraddittori mostrano che molti algoritmi moderni di apprendimento automatico possono essere violati in modi sorprendente. Questi fallimenti dell’apprendimento automatico dimostrano che anche semplici algoritmi possono comportarsi in modo molto diverso da ciò che avevano pensato i loro progettisti.

Dobbiamo incoraggiare i ricercatori di machine learning a definire metodi per prevenire esempi contraddittori, al fine di colmare questo divario tra ciò che i progettisti intendono e come si comportano realmente gli algoritmi. Se sei interessato a lavorare su esempi di contraddittorio, prendi in considerazione l’adesione ad OpenAI .

I data scientist di tutto il mondo stanno lavorando a soluzioni di sicurezza informatica per rendere l’IA più resiliente agli attacchi di hacking. Molti approcci lavorano per lo stesso obiettivo. L’obiettivo è impedire che gli algoritmi di apprendimento automatico vengano ingannati facilmente.

Il primo approccio consigliato è quello di rendere l’IA più resiliente addestrandola con big data antagonisti, allenando gli algoritmi ad essere resilienti a potenziali exploit di sicurezza. Esistono due modi in cui i data scientist e gli ingegneri di sicurezza informatica lavorano con i big data antagonisti e sono:

  • Pensare come un essere umano: l’intelligenza artificiale prende decisioni sbagliate in situazioni in cui un cervello umano probabilmente non sbaglierebbe. I data scientist incorporano il pensiero umano negli algoritmi di machine learning e nei modelli di deep learning. Lo scopo è impedire che vengano sfruttati utilizzando dati avvelenati;
  • Rilevamento delle minacce prima dell’addestramento: In questo scenario, si cerca di rilevare i dati potenzialmente pericolosi prima che questi entrino nel set di addestramento, pertanto, massima attenzione ai dati scaricati da internet per scopi che non siano di test.

Fonte

https://broutonlab.com/blog/how-to-hack-ai-machine-learning-vulnerabilities

https://github.com/openai/cleverhans

https://openai.com/blog/adversarial-example-research/?fbclid=IwAR1dlK1goPI213OC_e8VPmD68h7JmN-PyC9jM0QjM1AYMDGXFsHFKvFJ5DU

https://venturebeat.com/2021/04/21/adversarial-machine-learning-underrated-threat-data-poisoning/

https://bdtechtalks.com/2020/10/07/machine-learning-data-poisoning/

Seguici su Google News, LinkedIn, Facebook e Instagram per ricevere aggiornamenti quotidiani sulla sicurezza informatica. Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Immagine del sito
La redazione di Red Hot Cyber è composta da professionisti del settore IT e della sicurezza informatica, affiancati da una rete di fonti qualificate che operano anche in forma riservata. Il team lavora quotidianamente nell’analisi, verifica e pubblicazione di notizie, approfondimenti e segnalazioni su cybersecurity, tecnologia e minacce digitali, con particolare attenzione all’accuratezza delle informazioni e alla tutela delle fonti. Le informazioni pubblicate derivano da attività di ricerca diretta, esperienza sul campo e contributi provenienti da contesti operativi nazionali e internazionali.

Articoli in evidenza

Immagine del sitoCybercrime
Il Cybercrime cerca Dipendenti Infedeli. Aumento delle richieste nelle underground
Redazione RHC - 27/12/2025

La comunità dei criminali informatici sta rapidamente aumentando il suo interesse nel reclutare personale all’interno delle aziende. Invece di sofisticati attacchi esterni, i criminali si affidano sempre più a fonti interne, ovvero persone disposte a…

Immagine del sitoCyberpolitica
La guerra dell’energia invisibile: come la Cina controlla il cuore dell’IA occidentale
Redazione RHC - 27/12/2025

Nella Virginia settentrionale, lungo quello che viene ormai definito il “corridoio dei data center”, sorgono enormi strutture senza finestre che costituiscono l’ossatura fisica della corsa statunitense all’intelligenza artificiale. Questi edifici, grandi quanto hangar industriali, assorbono…

Immagine del sitoHacking
Villager: il framework di pentesting basato su AI che preoccupa la sicurezza globale
Redazione RHC - 26/12/2025

Il team AI Research (STAR) di Straiker ha individuato Villager, un framework di penetration testing nativo basato sull’intelligenza artificiale, sviluppato dal gruppo cinese Cyberspike. Lo strumento, presentato come soluzione red team, è progettato per automatizzare…

Immagine del sitoInnovazione
Non mangiano, dormono e sbagliano: i soldati della Cina al confine saranno robot
Redazione RHC - 26/12/2025

Il confine tra Cina e Vietnam avrà presto nuovi “dipendenti” che non hanno bisogno di dormire, mangiare o fare turni. L’azienda cinese UBTech Robotics ha ricevuto un contratto da 264 milioni di yuan (circa 37…

Immagine del sitoCultura
Dal Game of Life al simbolo degli hacker: la vera storia del Glider
Massimiliano Brolli - 26/12/2025

La cultura hacker è una materia affascinante. E’ una ricca miniera di stravaganti innovazioni, genialità ed intuito. Di personaggi bizzarri, di umorismo fatalista, di meme, ma soprattutto cultura, ingegneria e scienza. Ma mentre Linux ha…