Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
2nd Edition GlitchZone RHC 970x120 2
LECS 320x100 1
DDoS per i sistemi di machine learning.

DDoS per i sistemi di machine learning.

Redazione RHC : 30 Maggio 2021 10:00

Un nuovo attacco contraddittorio, sviluppato dagli scienziati dell’Università del Maryland, College Park, può costringere i sistemi di apprendimento automatico (AI) a rallentare la loro elaborazione fino pressoché a fermarsi in alcune applicazioni.

Presentata alla Conferenza internazionale sulle rappresentazioni dell’apprendimento (ICLR), la tecnica neutralizza le tecniche di ottimizzazione che accelerano il funzionamento delle reti neurali profonde.

Le reti neurali profonde richiedono gigabyte di memoria e processori molto potenti, che non possono girare su dispositivi IoT, smartphone e dispositivi indossabili. Molti di questi dispositivi devono inviare i propri dati a un server cloud in grado di eseguire modelli di deep learning.

Per superare queste sfide, i ricercatori hanno inventato diverse tecniche per ottimizzare le reti neurali per piccoli dispositivi attraverso le cosiddette “architetture multiuscita”, una tecnica di ottimizzazione che fa sì che le reti neurali interrompano il calcolo non appena raggiungono una soglia accettabile.

“I modelli di uscita sono un concetto relativamente nuovo, ma c’è un interesse crescente”

ha detto al Daily Swig Tudor Dumitras, ricercatore presso l’Università del Maryland.

“Questo perché i modelli di deep learning stanno diventando sempre più costosi, dal punto di vista computazionale, e i ricercatori cercano modi per renderli più efficienti”.

Dumitras ei suoi collaboratori hanno sviluppato un attacco avversario di rallentamento che prende di mira l’efficacia delle reti neurali multiuscita. Chiamato DeepSloth, l’attacco apporta sottili modifiche ai dati di input per impedire alle reti neurali di uscire anticipatamente dal circuito e quindi costringerle a eseguire più calcoli del necessario.

“Gli attacchi di rallentamento hanno il potenziale di negare i vantaggi delle architetture multiuscita”

ha affermato Dumitras.

“Queste architetture possono dimezzare il consumo energetico di un modello DNN al momento dell’inferenza e abbiamo dimostrato che per qualsiasi input possiamo creare una perturbazione che cancelli completamente quei risparmi”.

I ricercatori hanno testato DeepSloth su varie architetture multiuscita.

Nei casi in cui gli aggressori avevano piena conoscenza dell’architettura del modello di destinazione, gli attacchi di rallentamento hanno ridotto l’efficacia dell’uscita anticipata del 90-100%. Ma anche quando l’attaccante non ha informazioni esatte sul modello bersaglio, DeepSloth ha comunque ridotto l’efficacia del 5-45%.

Questo è l’equivalente di un attacco DoS (Denial of Service) alle reti neurali.

Quando i modelli vengono serviti direttamente da un server, DeepSloth può occupare le risorse del server e impedirgli di utilizzarle secondo le sue necessità.

“In uno scenario tipico delle implementazioni IoT, in cui il modello è partizionato tra i dispositivi edge e il cloud, DeepSloth amplifica la latenza di 1,5-5 volte, annullando i vantaggi del partizionamento del modello”

ha affermato Dumitras.

Ciò potrebbe far sì che il dispositivo periferico non rispetti le scadenze critiche, ad esempio in un programma di monitoraggio per anziani che utilizza l’ intelligenza artificiale per rilevare rapidamente gli incidenti e richiedere aiuto se necessario “.

Fonte

https://portswigger.net/daily-swig/amp/deepsloth-researchers-find-denial-of-service-equivalent-against-machine-learning-systems

Immagine del sitoRedazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

Lista degli articoli

Articoli in evidenza

Immagine del sito
Shakerati Anonimi: la storia di Marco e il “prezzo” della Fiducia
Di Redazione RHC - 26/11/2025

Ciao a tutti… mi chiamo Marco, ho 37 anni e lavoro come impiegata amministrativa in uno studio commerciale. È la prima volta che parlo davanti a tutti voi e sono un pò emozionato … e vi assicuro...

Immagine del sito
Gli USA puntano tutto sulla “scienza automatica”. Al via la Missione Genesis: più AI e meno persone
Di Redazione RHC - 26/11/2025

Il presidente degli Stati Uniti Donald Trump ha firmato un ordine esecutivo, “Launching the Genesis Mission”, che avvia un programma nazionale per l’utilizzo dell’intelligenza artificiale nell...

Immagine del sito
Inviare un’email a un destinatario sbagliato, è da considerarsi data breach?
Di Stefano Gazzella - 25/11/2025

Piaccia o meno, l’invio di un’email a un destinatario errato costituisce una violazione di dati personali secondo il GDPR. Ovviamente, questo vale se l’email contiene dati personali o se altrime...

Immagine del sito
5.000 utenti italiani “freschi” in vendita nelle underground. Scopriamo di cosa si tratta
Di Redazione RHC - 25/11/2025

Nel gergo dei forum underground e dei marketplace del cybercrime, il termine combo indica un insieme di credenziali rubate composto da coppie del tipo email:password. Non si tratta di semplici elenchi...

Immagine del sito
AGI: Storia dell’Intelligenza Artificiale Generale. Dalla nascita alla corsa agli armamenti
Di Redazione RHC - 25/11/2025

Sulla veranda di una vecchia baita in Colorado, Mark Gubrud, 67 anni, osserva distrattamente il crepuscolo in lontananza, con il telefono accanto a sé, lo schermo ancora acceso su un’app di notizie...