DDoS per i sistemi di machine learning.


Un nuovo attacco contraddittorio, sviluppato dagli scienziati dell'Università del Maryland, College Park, può costringere i sistemi di apprendimento automatico (AI) a rallentare la loro elaborazione fino pressoché a fermarsi in alcune applicazioni.


Presentata alla Conferenza internazionale sulle rappresentazioni dell'apprendimento (ICLR), la tecnica neutralizza le tecniche di ottimizzazione che accelerano il funzionamento delle reti neurali profonde.


Le reti neurali profonde richiedono gigabyte di memoria e processori molto potenti, che non possono girare su dispositivi IoT, smartphone e dispositivi indossabili. Molti di questi dispositivi devono inviare i propri dati a un server cloud in grado di eseguire modelli di deep learning.



Per superare queste sfide, i ricercatori hanno inventato diverse tecniche per ottimizzare le reti neurali per piccoli dispositivi attraverso le cosiddette "architetture multiuscita", una tecnica di ottimizzazione che fa sì che le reti neurali interrompano il calcolo non appena raggiungono una soglia accettabile.

"I modelli di uscita sono un concetto relativamente nuovo, ma c'è un interesse crescente"

ha detto al Daily Swig Tudor Dumitras, ricercatore presso l'Università del Maryland.

"Questo perché i modelli di deep learning stanno diventando sempre più costosi, dal punto di vista computazionale, e i ricercatori cercano modi per renderli più efficienti".

Dumitras ei suoi collaboratori hanno sviluppato un attacco avversario di rallentamento che prende di mira l'efficacia delle reti neurali multiuscita. Chiamato DeepSloth, l'attacco apporta sottili modifiche ai dati di input per impedire alle reti neurali di uscire anticipatamente dal circuito e quindi costringerle a eseguire più calcoli del necessario.



"Gli attacchi di rallentamento hanno il potenziale di negare i vantaggi delle architetture multiuscita"

ha affermato Dumitras.

"Queste architetture possono dimezzare il consumo energetico di un modello DNN al momento dell'inferenza e abbiamo dimostrato che per qualsiasi input possiamo creare una perturbazione che cancelli completamente quei risparmi".

I ricercatori hanno testato DeepSloth su varie architetture multiuscita.


Nei casi in cui gli aggressori avevano piena conoscenza dell'architettura del modello di destinazione, gli attacchi di rallentamento hanno ridotto l'efficacia dell'uscita anticipata del 90-100%. Ma anche quando l'attaccante non ha informazioni esatte sul modello bersaglio, DeepSloth ha comunque ridotto l'efficacia del 5-45%.


Questo è l'equivalente di un attacco DoS (Denial of Service) alle reti neurali.



Quando i modelli vengono serviti direttamente da un server, DeepSloth può occupare le risorse del server e impedirgli di utilizzarle secondo le sue necessità.

"In uno scenario tipico delle implementazioni IoT, in cui il modello è partizionato tra i dispositivi edge e il cloud, DeepSloth amplifica la latenza di 1,5-5 volte, annullando i vantaggi del partizionamento del modello"

ha affermato Dumitras.


Ciò potrebbe far sì che il dispositivo periferico non rispetti le scadenze critiche, ad esempio in un programma di monitoraggio per anziani che utilizza l' intelligenza artificiale per rilevare rapidamente gli incidenti e richiedere aiuto se necessario ".



Fonte

https://portswigger.net/daily-swig/amp/deepsloth-researchers-find-denial-of-service-equivalent-against-machine-learning-systems