I sistemi di intelligenza artificiale, sono già penetrati nella società moderna, lavorando in vari settori. Dalla guida autonoma, alle diagnosi di malattie e all’interazione con i clienti come chatbot online.
Per imparare come eseguire questi compiti, i chatbot vengono addestrati su enormi quantità di dati. Tuttavia, uno dei problemi principali è che proprio questi dati possono essere inaffidabili. Gli aggressori hanno molte opportunità per corromperli. Questo sia durante il periodo di addestramento del sistema AI che successivamente.
Un sistema di intelligenza artificiale può funzionare male se un avversario trova il modo di confondere il suo processo decisionale. (Fonte NIST)
Il National Institute of Standards and Technology (NIST) degli Stati Uniti ha pubblicato un elenco di raccomandazioni. Tali raccomandazioni aiutano a comprendere come contrastare gli attacchi informatici volti a manipolare il comportamento dei sistemi delle IA. Ciascun tipo di attacco di questo tipo è stato discusso in dettaglio in un lavoro scientifico separato. Il titolo è “Adversarial Machine Learning: tassonomia e terminologia di attacchi e rimedi”.
Advertising
I principali attacchi ai modelli di intelligenza artificiale
I ricercatori del NIST hanno identificato i seguenti tipi di attacchi che possono manipolare il funzionamento dei sistemi di intelligenza artificiale.
Attacchi di evasione. Questi attacchi si verificano dopo che il sistema di intelligenza artificiale è stato implementato. Hanno lo scopo di modificare i dati di input al fine di distorcere la risposta del sistema. Ad esempio, distorcere fisicamente i segnali stradali in modo che un’auto a guida autonoma li interpreti erroneamente e possa leggere erroneamente il limite di velocità su un tratto stradale o comunque creare una situazione di emergenza;
Attacchi di avvelenamento. Questi attacchi vengono effettuati nella fase di addestramento dell’IA, quando nei dati di addestramento vengono introdotte informazioni deliberatamente distorte. Ad esempio, includere grandi quantità di linguaggio osceno nelle registrazioni delle conversazioni in modo che il chatbot inizi a percepire il linguaggio osceno come la norma da utilizzare nell’interazione con i clienti. I rischi reputazionali e i costi di riqualificazione di un modello possono rendere questo tipo di attacco altamente distruttivo per molte aziende;
Attacchi alla privacy. Questi attacchi avvengono durante l’utilizzo del sistema e hanno lo scopo di estrarre informazioni sensibili sul sistema AI stesso o sui dati su cui è stato addestrato, per un successivo utilizzo improprio. Ad esempio, un utente malintenzionato potrebbe porre a un chatbot una serie di domande legittime e quindi utilizzare le risposte per ricostruire il modello per rivelarne i punti deboli o le ipotesi sulle sue fonti di informazione;
Attacchi di Abuso. Questi attacchi comportano l’inserimento di informazioni errate in una fonte, come una pagina web o un documento online, che l’IA percepisce poi come valide. A differenza dell’avvelenamento, gli attacchi di abuso colpiscono i contenuti a cui accede il modello AI in tempo reale, ad esempio attraverso un motore di ricerca. Tali attacchi cercano di fornire all’IA informazioni errate provenienti da una fonte legittima ma compromessa al fine di modificare la destinazione d’uso del sistema AI.
“La maggior parte di questi attacchi sono abbastanza facili da organizzare. Richiedono una conoscenza minima del sistema artificiale”. Ha spiegato la coautrice dello studio Alina Oprea, professoressa alla Northeastern University negli Stati Uniti.
La Mitigazione dei rischi parte da Controllo e collaborazione
Per mitigare le minacce associate alla manipolazione dei sistemi di IA, gli esperti del NIST raccomandano un approccio globale. Questo include test approfonditi e aggiornamento continui dei sistemi di IA, il monitoraggio costante dei dati di input e delle reazioni del sistema, lo sviluppo di algoritmi specializzati per rilevare gli attacchi, la creazione di sistemi di protezione e backup multilivello, la collaborazione con la comunità di esperti per condividere conoscenze e informazioni sulle nuove minacce, nonché sensibilizzare e formare il personale che lavora con l’intelligenza artificiale.
Queste misure mirano a ridurre al minimo i rischi e ad aumentare la resistenza dei sistemi di intelligenza artificiale alle suddette forme di attacchi manipolativi.
Il rapporto del NIST non solo rivela i potenziali rischi associati allo sfruttamento dell’intelligenza artificiale, ma incoraggia anche sviluppatori e ricercatori a trovare modi nuovi e più efficaci per proteggersi. Ciò, a sua volta, contribuisce allo sviluppo di uno spazio digitale più sicuro in cui l’intelligenza artificiale può servire la società senza la minaccia di manipolazioni e abusi esterni, pur mantenendo l’integrità e la riservatezza dei dati trattati.
Advertising
📢 Resta aggiornatoTi è piaciuto questo articolo? Rimani sempre informato seguendoci su Google Discover (scorri in basso e clicca segui) e su 🔔 Google News. Ne stiamo anche discutendo sui nostri social: 💼 LinkedIn, 📘 Facebook e 📸 Instagram. Hai una notizia o un approfondimento da segnalarci? ✉️ Scrivici
Machine Learning Engineer specializzato nel Natural Language Processing.
Appassionato di Intelligenza Artificiale, Coding e tecnologia in generale.
Aspetta l'avvento di Skynet.
Aree di competenza:Artificial Intelligence Engineer, Machine Learning & Deep Learning Specialist, Python Developer
Ritorna lunedì 18 e martedì 19 maggio la Red Hot Cyber Conference 2026, l’evento gratuito creato dalla community di Red Hot Cyber, che si terrà a Roma in Via Bari 18, presso il Teatro Italia. L’iniziativa è pensata per promuovere la cultura della sicurezza informatica, dell’innovazione digitale e della consapevolezza del rischio cyber. Rappresenta un punto di incontro tra professionisti, studenti, aziende e appassionati del settore, offrendo contenuti tecnici, workshop e momenti di confronto ad alto valore formativo.
L’edizione 2026 si svolgerà a Roma nelle giornate del 18 e 19 maggio presso il Teatro Italia e includerà attività formative, sessioni pratiche e la tradizionale Capture The Flag. L’evento è completamente gratuito, ma la partecipazione è subordinata a registrazione obbligatoria tramite i canali ufficiali, al fine di garantire una corretta organizzazione e gestione degli accessi.
Le iscrizioni saranno disponibili a partire dal 16 marzo 2026 attraverso la piattaforma Eventbrite, dove sarà possibile registrarsi ai diversi percorsi dell’evento: workshop, conferenza principale e competizione CTF. I link ufficiali di registrazione saranno pubblicati sui canali di Red Hot Cyber e costituiranno l’unico punto valido per la prenotazione dei posti all’evento.