I ricercatori dell’Università della Carolina del Nord hanno sviluppato un nuovo metodo per ingannare i sistemi di intelligenza artificiale che analizzano le immagini. Il metodo, chiamato RisingAttacK, può indurre l’IA a “non vedere” oggetti chiaramente presenti in una fotografia. L’essenza della tecnologia risiede in cambiamenti nell’immagine impercettibili all’occhio umano. Due immagini possono sembrare perfettamente identiche, ma l’IA vedrà l’auto solo in una delle due e non nella seconda. Allo stesso tempo, una persona vedrà facilmente l’auto in entrambe le foto.
Tali attacchi potrebbero rappresentare gravi rischi per la sicurezza nelle aree in cui vengono utilizzati sistemi di visione artificiale . Ad esempio, gli aggressori potrebbero impedire a un’auto a guida autonoma di riconoscere semafori, pedoni o altre auto sulla strada. Tali influenze in campo medico non sono meno pericolose. Gli hacker possono iniettare codice in un apparecchio a raggi X , il che porterebbe a diagnosi imprecise da parte di un sistema di intelligenza artificiale. Anche le tecnologie di sicurezza basate sul riconoscimento automatico di pattern sono a rischio.
RisingAttacK funziona in diverse fasi. Innanzitutto, il programma identifica tutte le caratteristiche visive dell’immagine, quindi determina quali di esse sono più importanti per raggiungere l’obiettivo dell’attacco. Questo richiede potenza di calcolo, ma consente modifiche molto precise e minime. “Volevamo trovare un modo efficace per hackerare i sistemi di visione artificiale perché vengono spesso utilizzati in contesti che possono avere un impatto sulla salute e la sicurezza umana”, spiega Tianfu Wu, uno degli autori dello studio.
Gli sviluppatori hanno testato il loro metodo con quattro dei programmi di visione artificiale più comuni: ResNet-50, DenseNet-121, ViTB e DEiT-B. La tecnologia si è dimostrata efficace su tutti i sistemi, senza eccezioni. I ricercatori sottolineano l’importanza di identificare tali vulnerabilità. Solo conoscendo l’esistenza di una minaccia è possibile sviluppare una protezione affidabile contro di essa. Pertanto, il team sta già lavorando alla creazione di metodi per contrastare tali attacchi .
I ricercatori stanno ora esplorando la possibilità di utilizzare RisingAttacK contro altri tipi di sistemi di intelligenza artificiale, compresi i grandi modelli linguistici, per comprendere la portata completa delle potenziali minacce .
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

CybercrimeLe autorità tedesche hanno recentemente lanciato un avviso riguardante una sofisticata campagna di phishing che prende di mira gli utenti di Signal in Germania e nel resto d’Europa. L’attacco si concentra su profili specifici, tra…
InnovazioneL’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…
CybercrimeNegli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…
VulnerabilitàNegli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…
InnovazioneArticolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…