Machine Learning e sicurezza informatica: minaccia crescente.


I sistemi di machine Learning (ML) sono un elemento fondamentale nella nostra vita quotidiana e le relative minacce di sicurezza si riverseranno in tutti i tipi di applicazioni che utilizziamo, secondo il nuovo rapporto "The Road to Secure and Trusted AI" dei ricercatori della start-up israeliana Adversa.


A differenza del software tradizionale (in cui i difetti di progettazione e di sviluppo del codice rappresentano la maggior parte dei problemi di sicurezza), nei sistemi di intelligenza artificiale, possono esistere vulnerabilità all'interno di immagini, file audio, testo e altri dati utilizzati dagli algoritmi come input, che vengono elaborati in modo errato ed inconsapevole dai modelli di apprendimento automatico.


"Questo rende difficile filtrare, gestire e rilevare input potenzialmente dannosi", avverte il report, aggiungendo che i criminali informatici finiranno per utilizzare l'IA per i loro scopi dannosi.



"Sfortunatamente, il settore dell'IA non ha ancora iniziato a risolvere queste sfide, mettendo a repentaglio la sicurezza dei sistemi di IA già implementati, oltre a quelli futuri".


Esistono già delle ricerche che mostrano che molti sistemi di apprendimento automatico sono vulnerabili ad attacchi di "contraddittorio". Si tratta di manipolazioni impercettibili dei dati di input che fanno sì che i modelli si comportino in modo irregolare.


Secondo i ricercatori di Adversa, i sistemi di apprendimento automatico che elaborano i dati visivi rappresentano la maggior parte del lavoro sugli attacchi avversari, seguiti da analisi, elaborazione del linguaggio e guida autonoma.


"Con la crescita dell'IA, gli attacchi informatici si concentreranno sull'ingannare nuove interfacce visive e conversazionali", scrivono i ricercatori.


"Inoltre, poiché i sistemi di intelligenza artificiale si basano sul proprio apprendimento e sul proprio processo decisionale, i criminali informatici sposteranno la loro attenzione dai flussi di lavoro software tradizionali agli algoritmi che alimentano le capacità analitiche e di autonomia dei sistemi di intelligenza artificiale".


Gli sviluppatori web che stanno integrando modelli di machine learning nelle loro applicazioni dovrebbero prendere nota di questi problemi di sicurezza, afferma Alex Polyakov, co-fondatore e CEO di Adversa.



Polyakov ha anche avvertito delle vulnerabilità nei modelli di apprendimento automatico serviti sul Web attraverso servizi di API forniti da grandi aziende tecnologiche.


"La maggior parte dei modelli che abbiamo visto online sono vulnerabili ed è stato dimostrato da diversi rapporti di ricerca e dai nostri test interni", ha detto Polyakov. “Con alcuni accorgimenti, è possibile addestrare un attacco su un modello e poi trasferirlo su un altro modello tramite CopyCat, che consente di rubare un modello, applicare l'attacco su di esso e quindi utilizzarlo per attaccare le API".


La maggior parte degli algoritmi di apprendimento automatico richiede grandi set di dati processati ed etichettati per addestrare i modelli. In molti casi, invece di impegnarsi per creare i propri set di dati, gli sviluppatori di machine learning cercano e scaricano i set di dati pubblicati su GitHub, Kaggle o altre piattaforme web che consentono loro di velocizzare l'apprendimento degli algoritmi di ML.


Eugene Neelou, co-fondatore e CTO di Adversa, ha messo in guardia sulle potenziali vulnerabilità in questi set di dati che possono portare ad attacchi di avvelenamento.


"L'avvelenamento è quella tecnica che consente di inserire all'interno dei dati dei campioni creati in modo dannoso. Questi dati possono far sì che i modelli di intelligenza artificiale apprendano informazioni errate durante l'addestramento, apprendendo", ha detto Neelou a The Daily Swig . "Il modello si comporterà come previsto in condizioni normali, ma i malintenzionati potrebbero chiamare quei trigger nascosti durante gli attacchi".



Neelou ha anche avvertito degli attacchi di trojan, in cui gli avversari distribuiscono modelli contaminati sulle piattaforme web.


"Invece di avvelenare i dati, gli aggressori hanno il controllo sui parametri interni del modello AI", ha detto Neelou. "Potrebbero addestrare, personalizzare e distribuire i loro modelli infetti tramite GitHub o altre piattaforme".


Sfortunatamente, GitHub e altre piattaforme non dispongono ancora di alcuna protezione per rilevare e difendersi dagli schemi di avvelenamento dei dati.


Ciò rende molto facile per gli aggressori diffondere set di dati e modelli contaminati sul Web ed il rischio potrebbe essere molto alto.



Fonte

https://adversa.ai/report-secure-and-trusted-ai/

https://www.mdpi.com/1999-4893/10/2/59/htm

https://portswigger.net/daily-swig/amp/machine-learning-security-vulnerabilities-are-a-growing-threat-to-the-web-report-highlights