Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Condividi la tua difesa. Incoraggia l'eccellenza.
La vera forza della cybersecurity risiede
nell'effetto moltiplicatore della conoscenza.
LECS 970x120 1
Redhotcyber Banner Sito 320x100px Uscita 101125
Machine Learning Hacking: gli attacchi contraddittori.

Machine Learning Hacking: gli attacchi contraddittori.

23 Maggio 2021 10:01

Quello che viene definito come Adversarial machine learning (Apprendimento automatico del contraddittorio) è quella tecnica di apprendimento automatico che tenta di ingannare i modelli di intelligenza artificiale fornendo input ingannevoli. Si tratta di una sorta di “fuzzing” evoluto ad immagini, suoni, video e tutto quello che possa essere ingerito da un algoritmo di Machine Learning, con il tentativo di causare un malfunzionamento nel modello di apprendimento automatico.

Le reti neurali profonde sono modelli che hanno recentemente raggiunto prestazioni impressionanti nelle attività di riconoscimento vocale e visivo. Ma essendo algoritmi assetati di input, hanno difficoltà nel riconoscere un input malevolo da un input corretto.

Su Red Hot Cyber avevamo riportato a suo tempo nella rubrica “Quotes” la seguente citazione:

B939cf A2b376bdb4e242f1b4c5fd2b169ab95e Mv2

La meraviglia dell’apprendimento automatico è la sua capacità di eseguire attività che non possono essere rappresentate da regole rigide. Ad esempio, quando noi esseri umani riconosciamo il cane in un’immagine, la nostra mente attraversa un processo complicato, consciamente e inconsciamente tenendo conto di molte delle caratteristiche visive che vediamo nell’immagine.

Con questo articolo spiegheremo come è possibile ingannare un algoritmo di intelligenza artificiale attraverso l’arte del contraddittorio.

Machine learning Hacking

Possono essere eseguiti degli attacchi agli algoritmi di intelligenza artificiale in due aree distinte, che possono essere classificate in:

  • inferenza: si verificano quando si hanno informazioni sul funzionamento del modello;
  • addestramento: si verificano quando si tende a corrompere il modello nella fase di addestramento fornendo input errati, portando l’algoritmo ad effettuare delle scelte errate.

A loro volta questi attacchi possono essere caratterizzati in:

  • Attacchi di evasione: utilizzando degli input errati, si porta l’algoritmo ad etichettare output in modo differente rispetto alla realtà;
  • Attacchi avvelenamento : si avvelenano i data-set di addestramento, compromettendo la capacità dell’algoritmo di etichettare gli output;
  • Attacchi alla privacy: utilizzando la fase di addestramento, si tenta di recuperare informazioni sensibili dall’algoritmo.

All’interno degli attacchi di Evasione e di Avvelenamento, rientrano gli attacchi “contraddittori”, quelli che vedremo oggi, ovvero quando si tenta attraverso un input errato di causare un errore nel modello di apprendimento che possiamo paragonare (facendo un paragone con il cervello umano) a delle vere e proprie “illusioni ottiche per le macchine”.

Per avere un’idea di come sia un esempi di contraddittorio, vi mostriamo questo esempio un po’ datato, tratto da Explaining and Harnessing Adversarial examples della Cornell University, che mostra che partendo da un’immagine di un panda, l’attaccante aggiungendo una piccola perturbazione consente di ingannare l’AI, facendo etichettare l’immagine erroneamente per un gibbone.

B939cf Ce59c370958f4ace8445c3c7f6ca1722 Mv2
Un input contraddittorio, sovrapposto a un’immagine tipica, può indurre un classificatore a classificare erroneamente un panda come gibbone.

Ricerche recenti hanno dimostrato che gli esempi di contraddittorio possono essere stampati su carta e poi fotografati con uno smartphone per trarre l’algoritmo in errore, come nel caso odierno dei sistemi di riconoscimento delle mascherine per il COVID-19. Infatti la maggior parte degli algoritmi oggi non sa riconoscere se i dati in input siano o meno reali, in quanto si basa su una immagine 2d e non 3d.

B939cf Ea5587ff70f643c491f6104c08d864d5 Mv2

Gli esempi di contraddittorio hanno il potenziale per essere molto pericolosi.

Ad esempio, gli aggressori potrebbero prendere di mira gli algoritmi che alimentano la guida autonoma di un veicolo, utilizzando adesivi o vernice per creare un segnale di stop che potrebbe essere interpretato in un segnale di tutt’altra natura.

Come riportato in molti attacchi Black-Box contro i sistemi di apprendimento profondo che utilizzano quello che viene denominato “attacco antagonista”.

B939cf 9f16e301ce5e4eaaa3b8a5abac01bcd6 Mv2

Diverse ricerche mostrano che gli algoritmi RL (Reinforcement Learnig, è una famiglia di algoritmi di Intelligenza Artificiale che, immersi in un ambiente, prendono decisioni per massimizzare la somma delle ricompense), come DQN, TRPO e A3C, sono vulnerabili agli input contraddittori.

Questi possono portare a prestazioni degradate anche in presenza di perturbazioni molto piccole da essere percepite da un essere umano, facendo sì che l’algoritmo sposti una racchetta da ping pong (o un altra tipologia di player) nel verso opposto interferendo sulle sue capacità di individuare i nemici, come ad esempio nel videogioco Seaquest in calce.

Se vuoi sperimentare meglio tutto questo, cercando falle all’interno dei tuoi modelli, puoi usare cleverhans, una libreria open source sviluppata congiuntamente da Ian Goodfellow e Nicolas Papernot per testare le vulnerabilità della tua intelligenza artificiale attraverso gli esempi contraddittori.


Come difenderci

Gli esempi contraddittori mostrano che molti algoritmi moderni di apprendimento automatico possono essere violati in modi sorprendente. Questi fallimenti dell’apprendimento automatico dimostrano che anche semplici algoritmi possono comportarsi in modo molto diverso da ciò che avevano pensato i loro progettisti.

Dobbiamo incoraggiare i ricercatori di machine learning a definire metodi per prevenire esempi contraddittori, al fine di colmare questo divario tra ciò che i progettisti intendono e come si comportano realmente gli algoritmi. Se sei interessato a lavorare su esempi di contraddittorio, prendi in considerazione l’adesione ad OpenAI .

I data scientist di tutto il mondo stanno lavorando a soluzioni di sicurezza informatica per rendere l’IA più resiliente agli attacchi di hacking. Molti approcci lavorano per lo stesso obiettivo. L’obiettivo è impedire che gli algoritmi di apprendimento automatico vengano ingannati facilmente.

Il primo approccio consigliato è quello di rendere l’IA più resiliente addestrandola con big data antagonisti, allenando gli algoritmi ad essere resilienti a potenziali exploit di sicurezza. Esistono due modi in cui i data scientist e gli ingegneri di sicurezza informatica lavorano con i big data antagonisti e sono:

  • Pensare come un essere umano: l’intelligenza artificiale prende decisioni sbagliate in situazioni in cui un cervello umano probabilmente non sbaglierebbe. I data scientist incorporano il pensiero umano negli algoritmi di machine learning e nei modelli di deep learning. Lo scopo è impedire che vengano sfruttati utilizzando dati avvelenati;
  • Rilevamento delle minacce prima dell’addestramento: In questo scenario, si cerca di rilevare i dati potenzialmente pericolosi prima che questi entrino nel set di addestramento, pertanto, massima attenzione ai dati scaricati da internet per scopi che non siano di test.

Fonte

https://broutonlab.com/blog/how-to-hack-ai-machine-learning-vulnerabilities

https://github.com/openai/cleverhans

https://openai.com/blog/adversarial-example-research/?fbclid=IwAR1dlK1goPI213OC_e8VPmD68h7JmN-PyC9jM0QjM1AYMDGXFsHFKvFJ5DU

https://venturebeat.com/2021/04/21/adversarial-machine-learning-underrated-threat-data-poisoning/

https://bdtechtalks.com/2020/10/07/machine-learning-data-poisoning/

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cropped RHC 3d Transp2 1766828557 300x300
La redazione di Red Hot Cyber è composta da professionisti del settore IT e della sicurezza informatica, affiancati da una rete di fonti qualificate che operano anche in forma riservata. Il team lavora quotidianamente nell’analisi, verifica e pubblicazione di notizie, approfondimenti e segnalazioni su cybersecurity, tecnologia e minacce digitali, con particolare attenzione all’accuratezza delle informazioni e alla tutela delle fonti. Le informazioni pubblicate derivano da attività di ricerca diretta, esperienza sul campo e contributi provenienti da contesti operativi nazionali e internazionali.

Articoli in evidenza

Immagine del sitoCybercrime
Attacco al Ministero dell’interno francese: Credenziali condivise via email e dati sottratti
Redazione RHC - 17/01/2026

Nel corso di un’audizione al Senato francese, il ministro dell’Interno Laurent Nuñez ha illustrato in modo dettagliato le modalità del cyberattacco che ha colpito il suo dicastero, precisando fin da subito che parte delle informazioni…

Immagine del sitoVulnerabilità
Allarme Cisco: falla CVSS 10 consente RCE come root, attacchi in corso
Redazione RHC - 16/01/2026

Cisco ha confermato che una falla critica di sicurezza zero-day, che consente l’esecuzione remota di codice, è attualmente oggetto di sfruttamento attivo nei suoi dispositivi Secure Email Gateway e Secure Email and Web Manager. Questa…

Immagine del sitoInnovazione
Addio a Windows Server 2008! Microsoft termina definitivamente il supporto
Redazione RHC - 16/01/2026

Questa settimana ha segnato la fine di un’era: Microsoft ha finalmente terminato il supporto per Windows Server 2008, il sistema operativo basato su Windows Vista. Il sistema operativo server, nome in codice Longhorn Server, è…

Immagine del sitoCyberpolitica
Cloudflare, Piracy Shield e il punto cieco europeo: quando la governance diventa un rischio cyber
Sandro Sana - 15/01/2026

L’articolo pubblicato ieri su Red Hot Cyber ha raccontato i fatti: la multa, le dichiarazioni durissime di Matthew Prince, le minacce di disimpegno di Cloudflare dall’Italia, il possibile effetto domino su Olimpiadi, investimenti e servizi…

Immagine del sitoCultura
Il Brussels Effect e la sfida della sovranità tecnologica nel contrasto al CSAM
Paolo Galdieri - 15/01/2026

Dopo aver analizzato nei due articoli precedenti l’inquadramento normativo e il conflitto tra algoritmi e diritti fondamentali è necessario volgere lo sguardo alle ripercussioni che la proposta CSAR avrà sulla competitività digitale dell’Europa e sulla…