NeuralWare: Un malware nascosto in una rete neurale? Si è possibile.

Aggiornamento: lug 25


All'Università dell'Accademia cinese delle scienze, erano convinti che sarebbe stato possibile nascondere del malware all'interno di una rete neurale (Neuralware), in modo da evitare il rilevamento da parte degli Antivirus. E così hanno fatto.


Lo studio ha dimostrato che fino alla metà dei neuroni artificiali presenti nella rete, possono essere sostituiti nel modello senza che gli antivirus si accorgano della presenza del malware.


Questo comporterà da parte della rete neurale una perdita accettabile di performance, difficilmente rilevabile, inferiore al 7%.


Il malware nella rete neurale

Per gli esperimenti è stata scelta la rete neurale convoluzionale (PDF) AlexNet, un modello spesso utilizzato per testare l'efficacia degli algoritmi di visione artificiale.


Armati con diversi campioni di malware reale, i ricercatori li hanno nascosti in vari modi in differenti strati nascosti della rete, senza eccessivamente degradare le performance della rete.


Di conseguenza, si è scoperto che è possibile iniettare fino a 36,9 MB di malware nel modello di riferimento AlexNet, del peso complessivo di 178 MB con una perdita di prestazioni inferiore all'1%. Il controllo dei risultati è stato fatto utilizzando 58 antivirus della collezione VirusTotal, il quale non ha dato una sola risposta positiva.



Per effettuare un attacco, il malintenzionato secondo i ricercatori, deve prima costruire una rete neurale e addestrarla su un set di dati precedentemente preparato. E' possibile anche acquistare un campione pre-addestrato ed iniettare del codice dannoso e assicurarti che la sua presenza non comporti un'inaccettabile perdita di prestazioni.


Il deploy del modello

Successivamente il modello preparato viene pubblicato in un archivio pubblico per iniziare la sua distribuzione, ad esempio, come aggiornamento per poter avviare un attacco in supply-chain.


L'approccio proposto prevede lo smontaggio del codice dannoso prima di incorporarlo nei neuroni artificiali. La ricostruzione viene eseguita dal programma di caricamento in esecuzione sul dispositivo di destinazione. In questo caso, l'esecuzione del malware può essere impedita se le impostazioni del sistema nel quale viene installata la rete neurale prevede la verifica del contenuto AI caricato. L'analisi del codice statico o dinamico può anche identificare un ospite inatteso e non attivo.



"Attualmente è difficile rilevare questo tipo di malware utilizzando un software antivirus"

commenta il noto specialista della sicurezza delle informazioni Lukasz Olejnik.

"Ma l'unico motivo è che nessuno penserebbe di cercarlo in un posto come questo."

Gli esperti avvertono che l'aumento di popolarità della tecnologia delle reti neurali apre nuove opportunità per il suo abuso.



Può essere utilizzato, ad esempio, per hacking CAPTCHA, trolling, ricatti e frodi e backdoor seeding (PDF). Lo studio dei possibili scenari di abuso dell'IA è la chiave per combattere con successo questa nuova e insidiosa minaccia.