Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

Il NIST svela gli attacchi all’Intelligenza Artificiale e pubblica delle strategie e raccomandazioni

Redazione RHC : 6 Gennaio 2024 10:32

I sistemi di intelligenza artificiale, sono già penetrati nella società moderna, lavorando in vari settori. Dalla guida autonoma, alle diagnosi di malattie e all’interazione con i clienti come chatbot online.

Per imparare come eseguire questi compiti, i chatbot vengono addestrati su enormi quantità di dati. Tuttavia, uno dei problemi principali è che proprio questi dati possono essere inaffidabili. Gli aggressori hanno molte opportunità per corromperli. Questo sia durante il periodo di addestramento del sistema AI che successivamente.

Un sistema di intelligenza artificiale può funzionare male se un avversario trova il modo di confondere il suo processo decisionale. (Fonte NIST)

Il National Institute of Standards and Technology (NIST) degli Stati Uniti ha pubblicato un elenco di raccomandazioni. Tali raccomandazioni aiutano a comprendere come contrastare gli attacchi informatici volti a manipolare il comportamento dei sistemi delle IA. Ciascun tipo di attacco di questo tipo è stato discusso in dettaglio in un lavoro scientifico separato. Il titolo è “Adversarial Machine Learning: tassonomia e terminologia di attacchi e rimedi”.

I principali attacchi ai modelli di intelligenza artificiale

Scarica Gratuitamente Byte The Silence, il fumetto sul Cyberbullismo di Red Hot Cyber

"Il cyberbullismo è una delle minacce più insidiose e silenziose che colpiscono i nostri ragazzi. Non si tratta di semplici "bravate online", ma di veri e propri atti di violenza digitale, capaci di lasciare ferite profonde e spesso irreversibili nell’animo delle vittime. 
Non possiamo più permetterci di chiudere gli occhi". Così si apre la prefazione del fumetto di Massimiliano Brolli, fondatore di Red Hot Cyber, un’opera che affronta con sensibilità e realismo uno dei temi più urgenti della nostra epoca.
 Distribuito gratuitamente, questo fumetto nasce con l'obiettivo di sensibilizzare e informare. È uno strumento pensato per scuole, insegnanti, genitori e vittime, ma anche per chi, per qualsiasi ragione, si è ritrovato nel ruolo del bullo, affinché possa comprendere, riflettere e cambiare. 
Con la speranza che venga letto, condiviso e discusso, Red Hot Cyber è orgogliosa di offrire un contributo concreto per costruire una cultura digitale più consapevole, empatica e sicura. Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]



Supporta RHC attraverso:
 

  1. L'acquisto del fumetto sul Cybersecurity Awareness
  2. Ascoltando i nostri Podcast
  3. Seguendo RHC su WhatsApp
  4. Seguendo RHC su Telegram
  5. Scarica gratuitamente “Byte The Silence”, il fumetto sul Cyberbullismo di Red Hot Cyber

Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì.
 

I ricercatori del NIST hanno identificato i seguenti tipi di attacchi che possono manipolare il funzionamento dei sistemi di intelligenza artificiale.

  • Attacchi di evasione. Questi attacchi si verificano dopo che il sistema di intelligenza artificiale è stato implementato. Hanno lo scopo di modificare i dati di input al fine di distorcere la risposta del sistema. Ad esempio, distorcere fisicamente i segnali stradali in modo che un’auto a guida autonoma li interpreti erroneamente e possa leggere erroneamente il limite di velocità su un tratto stradale o comunque creare una situazione di emergenza;
  • Attacchi di avvelenamento. Questi attacchi vengono effettuati nella fase di addestramento dell’IA, quando nei dati di addestramento vengono introdotte informazioni deliberatamente distorte. Ad esempio, includere grandi quantità di linguaggio osceno nelle registrazioni delle conversazioni in modo che il chatbot inizi a percepire il linguaggio osceno come la norma da utilizzare nell’interazione con i clienti. I rischi reputazionali e i costi di riqualificazione di un modello possono rendere questo tipo di attacco altamente distruttivo per molte aziende;
  • Attacchi alla privacy. Questi attacchi avvengono durante l’utilizzo del sistema e hanno lo scopo di estrarre informazioni sensibili sul sistema AI stesso o sui dati su cui è stato addestrato, per un successivo utilizzo improprio. Ad esempio, un utente malintenzionato potrebbe porre a un chatbot una serie di domande legittime e quindi utilizzare le risposte per ricostruire il modello per rivelarne i punti deboli o le ipotesi sulle sue fonti di informazione;
  • Attacchi di Abuso. Questi attacchi comportano l’inserimento di informazioni errate in una fonte, come una pagina web o un documento online, che l’IA percepisce poi come valide. A differenza dell’avvelenamento, gli attacchi di abuso colpiscono i contenuti a cui accede il modello AI in tempo reale, ad esempio attraverso un motore di ricerca. Tali attacchi cercano di fornire all’IA informazioni errate provenienti da una fonte legittima ma compromessa al fine di modificare la destinazione d’uso del sistema AI.

“La maggior parte di questi attacchi sono abbastanza facili da organizzare. Richiedono una conoscenza minima del sistema artificiale”. Ha spiegato la coautrice dello studio Alina Oprea, professoressa alla Northeastern University negli Stati Uniti.

La Mitigazione dei rischi parte da Controllo e collaborazione

Per mitigare le minacce associate alla manipolazione dei sistemi di IA, gli esperti del NIST raccomandano un approccio globale. Questo include test approfonditi e aggiornamento continui dei sistemi di IA, il monitoraggio costante dei dati di input e delle reazioni del sistema, lo sviluppo di algoritmi specializzati per rilevare gli attacchi, la creazione di sistemi di protezione e backup multilivello, la collaborazione con la comunità di esperti per condividere conoscenze e informazioni sulle nuove minacce, nonché sensibilizzare e formare il personale che lavora con l’intelligenza artificiale. 

Queste misure mirano a ridurre al minimo i rischi e ad aumentare la resistenza dei sistemi di intelligenza artificiale alle suddette forme di attacchi manipolativi.

Il rapporto del NIST non solo rivela i potenziali rischi associati allo sfruttamento dell’intelligenza artificiale, ma incoraggia anche sviluppatori e ricercatori a trovare modi nuovi e più efficaci per proteggersi. Ciò, a sua volta, contribuisce allo sviluppo di uno spazio digitale più sicuro in cui l’intelligenza artificiale può servire la società senza la minaccia di manipolazioni e abusi esterni, pur mantenendo l’integrità e la riservatezza dei dati trattati.

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

Lista degli articoli

Articoli in evidenza

Microsoft si butta sulle scarpe! Lanciate le Crocs da collezione a tema Windows XP
Di Redazione RHC - 02/10/2025

Quest’anno Microsoft celebra i suoi primi 50 anni, un traguardo che riflette la trasformazione dell’azienda da piccola start-up nel 1975 a colosso globale della tecnologia. Fondata da Bill Gates e...

Caos per Outlook: il client Windows va in crash e blocca le caselle di posta
Di Redazione RHC - 02/10/2025

La società Microsoft ha reso noto di essere impegnata nell’investigazione di un’anomalia di rilievo riguardante il client desktop tradizionale di Outlook per il sistema operativo Windows, anomali...

Stati Uniti Sotto Tiro! Arriva Phantom Taurus, gli hacker cinesi che spiano governi e ambasciate
Di Redazione RHC - 02/10/2025

Un nuovo gruppo di hacker legato al Partito Comunista Cinese è stato identificato dagli esperti di Palo Alto Networks. L’Unità 42, divisione di intelligence sulle minacce della società california...

Alla scoperta del prompt injection: quando l’IA viene ingannata dalle parole
Di Manuel Roccon - 02/10/2025

I sistemi di Intelligenza Artificiale Generativa (GenAI) stanno rivoluzionando il modo in cui interagiamo con la tecnologia, offrendo capacità straordinarie nella creazione di contenuti testuali, imm...

Un bug critico in VMware Aria Operations e VMware Tools utilizzato da mesi dagli hacker cinesi
Di Redazione RHC - 01/10/2025

Broadcom ha risolto una grave vulnerabilità di escalation dei privilegi in VMware Aria Operations e VMware Tools, che era stata sfruttata in attacchi a partire da ottobre 2024. Al problema è stato a...