
I sistemi di machine Learning (ML) sono un elemento fondamentale nella nostra vita quotidiana e le relative minacce di sicurezza si riverseranno in tutti i tipi di applicazioni che utilizziamo, secondo il nuovo rapporto “The Road to Secure and Trusted AI” dei ricercatori della start-up israeliana Adversa.
A differenza del software tradizionale (in cui i difetti di progettazione e di sviluppo del codice rappresentano la maggior parte dei problemi di sicurezza), nei sistemi di intelligenza artificiale, possono esistere vulnerabilità all’interno di immagini, file audio, testo e altri dati utilizzati dagli algoritmi come input, che vengono elaborati in modo errato ed inconsapevole dai modelli di apprendimento automatico.
“Questo rende difficile filtrare, gestire e rilevare input potenzialmente dannosi”, avverte il report, aggiungendo che i criminali informatici finiranno per utilizzare l’IA per i loro scopi dannosi.
“Sfortunatamente, il settore dell’IA non ha ancora iniziato a risolvere queste sfide, mettendo a repentaglio la sicurezza dei sistemi di IA già implementati, oltre a quelli futuri”.
Esistono già delle ricerche che mostrano che molti sistemi di apprendimento automatico sono vulnerabili ad attacchi di “contraddittorio”. Si tratta di manipolazioni impercettibili dei dati di input che fanno sì che i modelli si comportino in modo irregolare.
Secondo i ricercatori di Adversa, i sistemi di apprendimento automatico che elaborano i dati visivi rappresentano la maggior parte del lavoro sugli attacchi avversari, seguiti da analisi, elaborazione del linguaggio e guida autonoma.
“Con la crescita dell’IA, gli attacchi informatici si concentreranno sull’ingannare nuove interfacce visive e conversazionali”, scrivono i ricercatori.
“Inoltre, poiché i sistemi di intelligenza artificiale si basano sul proprio apprendimento e sul proprio processo decisionale, i criminali informatici sposteranno la loro attenzione dai flussi di lavoro software tradizionali agli algoritmi che alimentano le capacità analitiche e di autonomia dei sistemi di intelligenza artificiale”.
Gli sviluppatori web che stanno integrando modelli di machine learning nelle loro applicazioni dovrebbero prendere nota di questi problemi di sicurezza, afferma Alex Polyakov, co-fondatore e CEO di Adversa.
Polyakov ha anche avvertito delle vulnerabilità nei modelli di apprendimento automatico serviti sul Web attraverso servizi di API forniti da grandi aziende tecnologiche.
“La maggior parte dei modelli che abbiamo visto online sono vulnerabili ed è stato dimostrato da diversi rapporti di ricerca e dai nostri test interni”, ha detto Polyakov. “Con alcuni accorgimenti, è possibile addestrare un attacco su un modello e poi trasferirlo su un altro modello tramite CopyCat, che consente di rubare un modello, applicare l’attacco su di esso e quindi utilizzarlo per attaccare le API”.
La maggior parte degli algoritmi di apprendimento automatico richiede grandi set di dati processati ed etichettati per addestrare i modelli. In molti casi, invece di impegnarsi per creare i propri set di dati, gli sviluppatori di machine learning cercano e scaricano i set di dati pubblicati su GitHub, Kaggle o altre piattaforme web che consentono loro di velocizzare l’apprendimento degli algoritmi di ML.
Eugene Neelou, co-fondatore e CTO di Adversa, ha messo in guardia sulle potenziali vulnerabilità in questi set di dati che possono portare ad attacchi di avvelenamento.
“L’avvelenamento è quella tecnica che consente di inserire all’interno dei dati dei campioni creati in modo dannoso. Questi dati possono far sì che i modelli di intelligenza artificiale apprendano informazioni errate durante l’addestramento, apprendendo”, ha detto Neelou a The Daily Swig . “Il modello si comporterà come previsto in condizioni normali, ma i malintenzionati potrebbero chiamare quei trigger nascosti durante gli attacchi”.
Neelou ha anche avvertito degli attacchi di trojan, in cui gli avversari distribuiscono modelli contaminati sulle piattaforme web.
“Invece di avvelenare i dati, gli aggressori hanno il controllo sui parametri interni del modello AI”, ha detto Neelou. “Potrebbero addestrare, personalizzare e distribuire i loro modelli infetti tramite GitHub o altre piattaforme”.
Sfortunatamente, GitHub e altre piattaforme non dispongono ancora di alcuna protezione per rilevare e difendersi dagli schemi di avvelenamento dei dati.
Ciò rende molto facile per gli aggressori diffondere set di dati e modelli contaminati sul Web ed il rischio potrebbe essere molto alto.
Fonte
https://adversa.ai/report-secure-and-trusted-ai/
https://www.mdpi.com/1999-4893/10/2/59/htm
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

CulturaRecentemente, una bobina di nastro magnetico è rimasta in un normale armadio universitario per mezzo secolo, e ora è improvvisamente diventata una scoperta di “archeologia informatica del secolo“. Un nastro con la scritta “UNIX Original…
CybercrimeUn massiccio archivio digitale contenente le informazioni private di circa 17,5 milioni di utenti Instagram sembrerebbe essere finito nelle mani dei cybercriminali. Qualche ora fa è stato segnalato l’allarme dopo che diversi utenti su Reddit…
Cyber ItaliaA nome di tutta la redazione di Red Hot Cyber, desideriamo rivolgere un sentito ringraziamento alla Polizia Postale e per la Sicurezza Cibernetica per il lavoro quotidiano svolto con professionalità, competenza e profondo senso dello…
VulnerabilitàUna falla di sicurezza è stata individuata all’interno di Linux, la quale può essere sfruttata in un brevissimo lasso di tempo, tant’è che il kernel comincia subito a operare con la memoria precedentemente rilasciata. Un…
CulturaSan Francisco: 9 gennaio 2007 L’aria aveva qualcosa di strano, come quando sai che sta per succedere qualcosa ma non sai cosa. Steve Jobs era sul palco del Macworld Conference & Expo, jeans, dolcevita nero,…