Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Condividi la tua difesa. Incoraggia l'eccellenza.
La vera forza della cybersecurity risiede
nell'effetto moltiplicatore della conoscenza.
Cyber Offensive Fundamentals 970x120 V0.1
Redhotcyber Banner Sito 320x100px Uscita 101125
Machine Learning e sicurezza informatica: minaccia crescente.

Machine Learning e sicurezza informatica: minaccia crescente.

28 Aprile 2021 06:44

I sistemi di machine Learning (ML) sono un elemento fondamentale nella nostra vita quotidiana e le relative minacce di sicurezza si riverseranno in tutti i tipi di applicazioni che utilizziamo, secondo il nuovo rapporto “The Road to Secure and Trusted AI” dei ricercatori della start-up israeliana Adversa.

A differenza del software tradizionale (in cui i difetti di progettazione e di sviluppo del codice rappresentano la maggior parte dei problemi di sicurezza), nei sistemi di intelligenza artificiale, possono esistere vulnerabilità all’interno di immagini, file audio, testo e altri dati utilizzati dagli algoritmi come input, che vengono elaborati in modo errato ed inconsapevole dai modelli di apprendimento automatico.

Questo rende difficile filtrare, gestire e rilevare input potenzialmente dannosi”, avverte il report, aggiungendo che i criminali informatici finiranno per utilizzare l’IA per i loro scopi dannosi.

“Sfortunatamente, il settore dell’IA non ha ancora iniziato a risolvere queste sfide, mettendo a repentaglio la sicurezza dei sistemi di IA già implementati, oltre a quelli futuri”.

Esistono già delle ricerche che mostrano che molti sistemi di apprendimento automatico sono vulnerabili ad attacchi di “contraddittorio”. Si tratta di manipolazioni impercettibili dei dati di input che fanno sì che i modelli si comportino in modo irregolare.

Secondo i ricercatori di Adversa, i sistemi di apprendimento automatico che elaborano i dati visivi rappresentano la maggior parte del lavoro sugli attacchi avversari, seguiti da analisi, elaborazione del linguaggio e guida autonoma.

“Con la crescita dell’IA, gli attacchi informatici si concentreranno sull’ingannare nuove interfacce visive e conversazionali”, scrivono i ricercatori.

Inoltre, poiché i sistemi di intelligenza artificiale si basano sul proprio apprendimento e sul proprio processo decisionale, i criminali informatici sposteranno la loro attenzione dai flussi di lavoro software tradizionali agli algoritmi che alimentano le capacità analitiche e di autonomia dei sistemi di intelligenza artificiale”.

Gli sviluppatori web che stanno integrando modelli di machine learning nelle loro applicazioni dovrebbero prendere nota di questi problemi di sicurezza, afferma Alex Polyakov, co-fondatore e CEO di Adversa.

Polyakov ha anche avvertito delle vulnerabilità nei modelli di apprendimento automatico serviti sul Web attraverso servizi di API forniti da grandi aziende tecnologiche.

“La maggior parte dei modelli che abbiamo visto online sono vulnerabili ed è stato dimostrato da diversi rapporti di ricerca e dai nostri test interni”, ha detto Polyakov. “Con alcuni accorgimenti, è possibile addestrare un attacco su un modello e poi trasferirlo su un altro modello tramite CopyCat, che consente di rubare un modello, applicare l’attacco su di esso e quindi utilizzarlo per attaccare le API”.

La maggior parte degli algoritmi di apprendimento automatico richiede grandi set di dati processati ed etichettati per addestrare i modelli. In molti casi, invece di impegnarsi per creare i propri set di dati, gli sviluppatori di machine learning cercano e scaricano i set di dati pubblicati su GitHub, Kaggle o altre piattaforme web che consentono loro di velocizzare l’apprendimento degli algoritmi di ML.

Eugene Neelou, co-fondatore e CTO di Adversa, ha messo in guardia sulle potenziali vulnerabilità in questi set di dati che possono portare ad attacchi di avvelenamento.

L’avvelenamento è quella tecnica che consente di inserire all’interno dei dati dei campioni creati in modo dannoso. Questi dati possono far sì che i modelli di intelligenza artificiale apprendano informazioni errate durante l’addestramento, apprendendo”, ha detto Neelou a The Daily Swig . “Il modello si comporterà come previsto in condizioni normali, ma i malintenzionati potrebbero chiamare quei trigger nascosti durante gli attacchi”.

Neelou ha anche avvertito degli attacchi di trojan, in cui gli avversari distribuiscono modelli contaminati sulle piattaforme web.

Invece di avvelenare i dati, gli aggressori hanno il controllo sui parametri interni del modello AI”, ha detto Neelou. “Potrebbero addestrare, personalizzare e distribuire i loro modelli infetti tramite GitHub o altre piattaforme”.

Sfortunatamente, GitHub e altre piattaforme non dispongono ancora di alcuna protezione per rilevare e difendersi dagli schemi di avvelenamento dei dati.

Ciò rende molto facile per gli aggressori diffondere set di dati e modelli contaminati sul Web ed il rischio potrebbe essere molto alto.

Fonte

https://adversa.ai/report-secure-and-trusted-ai/

https://www.mdpi.com/1999-4893/10/2/59/htm

https://portswigger.net/daily-swig/amp/machine-learning-security-vulnerabilities-are-a-growing-threat-to-the-web-report-highlights

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cropped RHC 3d Transp2 1766828557 300x300
La redazione di Red Hot Cyber è composta da professionisti del settore IT e della sicurezza informatica, affiancati da una rete di fonti qualificate che operano anche in forma riservata. Il team lavora quotidianamente nell’analisi, verifica e pubblicazione di notizie, approfondimenti e segnalazioni su cybersecurity, tecnologia e minacce digitali, con particolare attenzione all’accuratezza delle informazioni e alla tutela delle fonti. Le informazioni pubblicate derivano da attività di ricerca diretta, esperienza sul campo e contributi provenienti da contesti operativi nazionali e internazionali.

Articoli in evidenza

Immagine del sitoVulnerabilità
Arriva Reprompt! Un nuovo Attacco a Copilot per esfiltrare i dati sensibili degli utenti
Redazione RHC - 15/01/2026

Una vulnerabilità recentemente risolta permetteva agli aggressori di sfruttare Microsoft Copilot Personal con un semplice clic, al fine di rubare di nascosto dati sensibili degli utenti. Mediante un link di phishing, i malintenzionati erano in…

Immagine del sitoCultura
La Nascita di Wikipedia: Un’Esperienza di Libertà e Conoscenza
Redazione RHC - 15/01/2026

Wikipedia nacque il 15 gennaio 2001, in un freddo pomeriggio di metà gennaio che nessuno ricorda più davvero più. Jimmy Wales e Larry Sanger decisero di fare un esperimento, uno di quelli che sembrano folli…

Immagine del sitoCybercrime
Ospedale paralizzato da un attacco hacker: interventi e chemio annullati, pazienti trasferiti
Redazione RHC - 14/01/2026

Nelle prime ore del mattino del 13 gennaio, uno dei principali ospedali del Belgio si è trovato improvvisamente quasi paralizzato. L’AZ Monica, con sedi ad Anversa e Deurne, è stato colpito da un attacco informatico…

Immagine del sitoCyberpolitica
Cloudflare minaccia di chiudere in Italia per una multa milionaria. Ma la verità dove sta?
Redazione RHC - 14/01/2026

Il CEO di Cloudflare, Matthew Prince, ha minacciato di chiudere le attività dell’azienda in Italia dopo che l’autorità di regolamentazione delle telecomunicazioni del Paese le ha imposto una multa pari al doppio del suo fatturato…

Immagine del sitoCybercrime
Orion Leaks: Erede Legittimo o “Scavenger” nell’Ombra di LockBit?
Raffaela Crisci - 14/01/2026

Un’analisi approfondita sulle connessioni infrastrutturali del gruppo emergente Orion Leaks e il suo possibile legame con l’ex gigante LockBit RaaS. Negli ultimi mesi, a seguito dell’Operazione Cronos, condotta da agenzie internazionali per smantellare l’infrastruttura e…