Redazione RHC : 30 Maggio 2021 10:00
Un nuovo attacco contraddittorio, sviluppato dagli scienziati dell’Università del Maryland, College Park, può costringere i sistemi di apprendimento automatico (AI) a rallentare la loro elaborazione fino pressoché a fermarsi in alcune applicazioni.
Presentata alla Conferenza internazionale sulle rappresentazioni dell’apprendimento (ICLR), la tecnica neutralizza le tecniche di ottimizzazione che accelerano il funzionamento delle reti neurali profonde.
Prompt Engineering & Sicurezza: diventa l’esperto che guida l’AIVuoi dominare l’AI generativa e usarla in modo sicuro e professionale? Con il Corso Prompt Engineering: dalle basi alla cybersecurity, guidato da Luca Vinciguerra, data scientist ed esperto di sicurezza informatica, impari a creare prompt efficaci, ottimizzare i modelli linguistici e difenderti dai rischi legati all’intelligenza artificiale. Un percorso pratico e subito spendibile per distinguerti nel mondo del lavoro. Non restare indietro: investi oggi nelle tue competenze e porta il tuo profilo professionale a un nuovo livello. Guarda subito l'anteprima gratuita del corso su academy.redhotcyber.com Contattaci per ulteriori informazioni tramite WhatsApp al 375 593 1011 oppure scrivi a [email protected] ![]() Supporta RHC attraverso:
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Le reti neurali profonde richiedono gigabyte di memoria e processori molto potenti, che non possono girare su dispositivi IoT, smartphone e dispositivi indossabili. Molti di questi dispositivi devono inviare i propri dati a un server cloud in grado di eseguire modelli di deep learning.
Per superare queste sfide, i ricercatori hanno inventato diverse tecniche per ottimizzare le reti neurali per piccoli dispositivi attraverso le cosiddette “architetture multiuscita”, una tecnica di ottimizzazione che fa sì che le reti neurali interrompano il calcolo non appena raggiungono una soglia accettabile.
“I modelli di uscita sono un concetto relativamente nuovo, ma c’è un interesse crescente”
ha detto al Daily Swig Tudor Dumitras, ricercatore presso l’Università del Maryland.
“Questo perché i modelli di deep learning stanno diventando sempre più costosi, dal punto di vista computazionale, e i ricercatori cercano modi per renderli più efficienti”.
Dumitras ei suoi collaboratori hanno sviluppato un attacco avversario di rallentamento che prende di mira l’efficacia delle reti neurali multiuscita. Chiamato DeepSloth, l’attacco apporta sottili modifiche ai dati di input per impedire alle reti neurali di uscire anticipatamente dal circuito e quindi costringerle a eseguire più calcoli del necessario.
“Gli attacchi di rallentamento hanno il potenziale di negare i vantaggi delle architetture multiuscita”
ha affermato Dumitras.
“Queste architetture possono dimezzare il consumo energetico di un modello DNN al momento dell’inferenza e abbiamo dimostrato che per qualsiasi input possiamo creare una perturbazione che cancelli completamente quei risparmi”.
I ricercatori hanno testato DeepSloth su varie architetture multiuscita.
Nei casi in cui gli aggressori avevano piena conoscenza dell’architettura del modello di destinazione, gli attacchi di rallentamento hanno ridotto l’efficacia dell’uscita anticipata del 90-100%. Ma anche quando l’attaccante non ha informazioni esatte sul modello bersaglio, DeepSloth ha comunque ridotto l’efficacia del 5-45%.
Questo è l’equivalente di un attacco DoS (Denial of Service) alle reti neurali.
Quando i modelli vengono serviti direttamente da un server, DeepSloth può occupare le risorse del server e impedirgli di utilizzarle secondo le sue necessità.
“In uno scenario tipico delle implementazioni IoT, in cui il modello è partizionato tra i dispositivi edge e il cloud, DeepSloth amplifica la latenza di 1,5-5 volte, annullando i vantaggi del partizionamento del modello”
ha affermato Dumitras.
Ciò potrebbe far sì che il dispositivo periferico non rispetti le scadenze critiche, ad esempio in un programma di monitoraggio per anziani che utilizza l’ intelligenza artificiale per rilevare rapidamente gli incidenti e richiedere aiuto se necessario “.
Fonte
Avevamo già parlato della proposta di regolamento “ChatControl” quasi due anni fa, ma vista la roadmap che è in atto ci troviamo nell’imbarazzo di doverne parlare nuovamente. Sembra però un d...
ShinyHunters è un gruppo noto per il coinvolgimento in diversi attacchi informatici di alto profilo. Formatosi intorno al 2020, il gruppo ha guadagnato notorietà attraverso una serie di attacchi mir...
La notizia è semplice, la tecnologia no. Chat Control (CSAR) nasce per scovare CSAM e dinamiche di grooming dentro le piattaforme di messaggistica. La versione “modernizzata” rinuncia alla backdo...
A cura di Luca Stivali e Olivia Terragni. L’11 settembre 2025 è esploso mediaticamente, in modo massivo e massiccio, quello che può essere definito il più grande leak mai subito dal Great Fir...
Una violazione di dati senza precedenti ha colpito il Great Firewall of China (GFW), con oltre 500 GB di materiale riservato che è stato sottratto e reso pubblico in rete. Tra le informazioni comprom...