Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità

Machine Learning e sicurezza informatica: minaccia crescente.

28 Aprile 2021 06:44

I sistemi di machine Learning (ML) sono un elemento fondamentale nella nostra vita quotidiana e le relative minacce di sicurezza si riverseranno in tutti i tipi di applicazioni che utilizziamo, secondo il nuovo rapporto “The Road to Secure and Trusted AI” dei ricercatori della start-up israeliana Adversa.

A differenza del software tradizionale (in cui i difetti di progettazione e di sviluppo del codice rappresentano la maggior parte dei problemi di sicurezza), nei sistemi di intelligenza artificiale, possono esistere vulnerabilità all’interno di immagini, file audio, testo e altri dati utilizzati dagli algoritmi come input, che vengono elaborati in modo errato ed inconsapevole dai modelli di apprendimento automatico.

Questo rende difficile filtrare, gestire e rilevare input potenzialmente dannosi”, avverte il report, aggiungendo che i criminali informatici finiranno per utilizzare l’IA per i loro scopi dannosi.

“Sfortunatamente, il settore dell’IA non ha ancora iniziato a risolvere queste sfide, mettendo a repentaglio la sicurezza dei sistemi di IA già implementati, oltre a quelli futuri”.

Esistono già delle ricerche che mostrano che molti sistemi di apprendimento automatico sono vulnerabili ad attacchi di “contraddittorio”. Si tratta di manipolazioni impercettibili dei dati di input che fanno sì che i modelli si comportino in modo irregolare.

Secondo i ricercatori di Adversa, i sistemi di apprendimento automatico che elaborano i dati visivi rappresentano la maggior parte del lavoro sugli attacchi avversari, seguiti da analisi, elaborazione del linguaggio e guida autonoma.

“Con la crescita dell’IA, gli attacchi informatici si concentreranno sull’ingannare nuove interfacce visive e conversazionali”, scrivono i ricercatori.

Inoltre, poiché i sistemi di intelligenza artificiale si basano sul proprio apprendimento e sul proprio processo decisionale, i criminali informatici sposteranno la loro attenzione dai flussi di lavoro software tradizionali agli algoritmi che alimentano le capacità analitiche e di autonomia dei sistemi di intelligenza artificiale”.

Gli sviluppatori web che stanno integrando modelli di machine learning nelle loro applicazioni dovrebbero prendere nota di questi problemi di sicurezza, afferma Alex Polyakov, co-fondatore e CEO di Adversa.

Polyakov ha anche avvertito delle vulnerabilità nei modelli di apprendimento automatico serviti sul Web attraverso servizi di API forniti da grandi aziende tecnologiche.

“La maggior parte dei modelli che abbiamo visto online sono vulnerabili ed è stato dimostrato da diversi rapporti di ricerca e dai nostri test interni”, ha detto Polyakov. “Con alcuni accorgimenti, è possibile addestrare un attacco su un modello e poi trasferirlo su un altro modello tramite CopyCat, che consente di rubare un modello, applicare l’attacco su di esso e quindi utilizzarlo per attaccare le API”.

La maggior parte degli algoritmi di apprendimento automatico richiede grandi set di dati processati ed etichettati per addestrare i modelli. In molti casi, invece di impegnarsi per creare i propri set di dati, gli sviluppatori di machine learning cercano e scaricano i set di dati pubblicati su GitHub, Kaggle o altre piattaforme web che consentono loro di velocizzare l’apprendimento degli algoritmi di ML.

Eugene Neelou, co-fondatore e CTO di Adversa, ha messo in guardia sulle potenziali vulnerabilità in questi set di dati che possono portare ad attacchi di avvelenamento.

L’avvelenamento è quella tecnica che consente di inserire all’interno dei dati dei campioni creati in modo dannoso. Questi dati possono far sì che i modelli di intelligenza artificiale apprendano informazioni errate durante l’addestramento, apprendendo”, ha detto Neelou a The Daily Swig . “Il modello si comporterà come previsto in condizioni normali, ma i malintenzionati potrebbero chiamare quei trigger nascosti durante gli attacchi”.

Neelou ha anche avvertito degli attacchi di trojan, in cui gli avversari distribuiscono modelli contaminati sulle piattaforme web.

Invece di avvelenare i dati, gli aggressori hanno il controllo sui parametri interni del modello AI”, ha detto Neelou. “Potrebbero addestrare, personalizzare e distribuire i loro modelli infetti tramite GitHub o altre piattaforme”.

Sfortunatamente, GitHub e altre piattaforme non dispongono ancora di alcuna protezione per rilevare e difendersi dagli schemi di avvelenamento dei dati.

Ciò rende molto facile per gli aggressori diffondere set di dati e modelli contaminati sul Web ed il rischio potrebbe essere molto alto.

Fonte

https://adversa.ai/report-secure-and-trusted-ai/

https://www.mdpi.com/1999-4893/10/2/59/htm

https://portswigger.net/daily-swig/amp/machine-learning-security-vulnerabilities-are-a-growing-threat-to-the-web-report-highlights

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cropped RHC 3d Transp2 1766828557 300x300
La Redazione di Red Hot Cyber fornisce aggiornamenti quotidiani su bug, data breach e minacce globali. Ogni contenuto è validato dalla nostra community di esperti come Pietro Melillo, Massimiliano Brolli, Sandro Sana, Olivia Terragni e Stefano Gazzella. Grazie alla sinergia con i nostri Partner leader nel settore (tra cui Accenture, CrowdStrike, Trend Micro e Fortinet), trasformiamo la complessità tecnica in consapevolezza collettiva, garantendo un'informazione accurata basata sull'analisi di fonti primarie e su una rigorosa peer-review tecnica.

Articoli in evidenza

Immagine del sitoInnovazione
Robot in cerca di carne: Quando l’AI affitta periferiche. Il tuo corpo!
Silvia Felici - 06/02/2026

L’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…

Immagine del sitoCybercrime
DKnife: il framework di spionaggio Cinese che manipola le reti
Pietro Melillo - 06/02/2026

Negli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…

Immagine del sitoVulnerabilità
Così tante vulnerabilità in n8n tutti in questo momento. Cosa sta succedendo?
Agostino Pellegrino - 06/02/2026

Negli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…

Immagine del sitoInnovazione
L’IA va in orbita: Qwen 3, Starcloud e l’ascesa del calcolo spaziale
Sergio Corpettini - 06/02/2026

Articolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…

Immagine del sitoCyber Italia
Truffe WhatsApp: “Prestami dei soldi”. Il messaggio che può svuotarti il conto
Silvia Felici - 06/02/2026

Negli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…