Machine Learning e sicurezza informatica: minaccia crescente.


I sistemi di machine Learning (ML) sono un elemento fondamentale nella nostra vita quotidiana e le relative minacce di sicurezza si riverseranno in tutti i tipi di applicazioni che utilizziamo, secondo il nuovo rapporto "The Road to Secure and Trusted AI" dei ricercatori della start-up israeliana Adversa.


A differenza del software tradizionale (in cui i difetti di progettazione e di sviluppo del codice rappresentano la maggior parte dei problemi di sicurezza), nei sistemi di intelligenza artificiale, possono esistere vulnerabilità all'interno di immagini, file audio, testo e altri dati utilizzati dagli algoritmi come input, che vengono elaborati in modo errato ed inconsapevole dai modelli di apprendimento automatico.


"Questo rende difficile filtrare, gestire e rilevare input potenzialmente dannosi", avverte il report, aggiungendo che i criminali informatici finiranno per utilizzare l'IA per i loro scopi dannosi.



"Sfortunatamente, il settore dell'IA non ha ancora iniziato a risolvere queste sfide, mettendo a repentaglio la sicurezza dei sistemi di IA già implementati, oltre a quelli futuri".


Esistono già delle ricerche che mostrano che molti sistemi di apprendimento automatico sono vulnerabili ad attacchi di "contraddittorio". Si tratta di manipolazioni impercettibili dei dati di input che fanno sì che i modelli si comportino in modo irregolare.


Secondo i ricercatori di Adversa, i sistemi di apprendimento automatico che elaborano i dati visivi rappresentano la maggior parte del lavoro sugli attacchi avversari, seguiti da analisi, elaborazione del linguaggio e guida autonoma.