Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità

RisingAttacK: Quando con un exploit l’intelligenza artificiale diventa cieca

4 Luglio 2025 13:09

I ricercatori dell’Università della Carolina del Nord hanno sviluppato un nuovo metodo per ingannare i sistemi di intelligenza artificiale che analizzano le immagini. Il metodo, chiamato RisingAttacK, può indurre l’IA a “non vedere” oggetti chiaramente presenti in una fotografia. L’essenza della tecnologia risiede in cambiamenti nell’immagine impercettibili all’occhio umano. Due immagini possono sembrare perfettamente identiche, ma l’IA vedrà l’auto solo in una delle due e non nella seconda. Allo stesso tempo, una persona vedrà facilmente l’auto in entrambe le foto.

Tali attacchi potrebbero rappresentare gravi rischi per la sicurezza nelle aree in cui vengono utilizzati sistemi di visione artificiale . Ad esempio, gli aggressori potrebbero impedire a un’auto a guida autonoma di riconoscere semafori, pedoni o altre auto sulla strada. Tali influenze in campo medico non sono meno pericolose. Gli hacker possono iniettare codice in un apparecchio a raggi X , il che porterebbe a diagnosi imprecise da parte di un sistema di intelligenza artificiale. Anche le tecnologie di sicurezza basate sul riconoscimento automatico di pattern sono a rischio.

RisingAttacK funziona in diverse fasi. Innanzitutto, il programma identifica tutte le caratteristiche visive dell’immagine, quindi determina quali di esse sono più importanti per raggiungere l’obiettivo dell’attacco. Questo richiede potenza di calcolo, ma consente modifiche molto precise e minime. “Volevamo trovare un modo efficace per hackerare i sistemi di visione artificiale perché vengono spesso utilizzati in contesti che possono avere un impatto sulla salute e la sicurezza umana”, spiega Tianfu Wu, uno degli autori dello studio.

Gli sviluppatori hanno testato il loro metodo con quattro dei programmi di visione artificiale più comuni: ResNet-50, DenseNet-121, ViTB e DEiT-B. La tecnologia si è dimostrata efficace su tutti i sistemi, senza eccezioni. I ricercatori sottolineano l’importanza di identificare tali vulnerabilità. Solo conoscendo l’esistenza di una minaccia è possibile sviluppare una protezione affidabile contro di essa. Pertanto, il team sta già lavorando alla creazione di metodi per contrastare tali attacchi .

I ricercatori stanno ora esplorando la possibilità di utilizzare RisingAttacK contro altri tipi di sistemi di intelligenza artificiale, compresi i grandi modelli linguistici, per comprendere la portata completa delle potenziali minacce .

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Manuel Roccon 300x300
Ho iniziato la mia carriera occuparmi nella ricerca e nell’implementazioni di soluzioni in campo ICT e nello sviluppo di applicazioni. Al fine di aggiungere aspetti di sicurezza in questi campi, da alcuni anni ho aggiunto competenze inerenti al ramo offensive security (OSCP), occupandomi anche di analisi di sicurezza e pentest in molte organizzazioni.
Aree di competenza: Ethical Hacking, Bug Hunting, Penetration Testing, Red Teaming, Security Research, Cybersecurity Communication

Articoli in evidenza

Immagine del sitoCybercrime
Campagna di phishing su Signal in Europa: sospetto coinvolgimento di attori statali
Bajram Zeqiri - 07/02/2026

Le autorità tedesche hanno recentemente lanciato un avviso riguardante una sofisticata campagna di phishing che prende di mira gli utenti di Signal in Germania e nel resto d’Europa. L’attacco si concentra su profili specifici, tra…

Immagine del sitoInnovazione
Robot in cerca di carne: Quando l’AI affitta periferiche. Il tuo corpo!
Silvia Felici - 06/02/2026

L’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…

Immagine del sitoCybercrime
DKnife: il framework di spionaggio Cinese che manipola le reti
Pietro Melillo - 06/02/2026

Negli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…

Immagine del sitoVulnerabilità
Così tante vulnerabilità in n8n tutti in questo momento. Cosa sta succedendo?
Agostino Pellegrino - 06/02/2026

Negli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…

Immagine del sitoInnovazione
L’IA va in orbita: Qwen 3, Starcloud e l’ascesa del calcolo spaziale
Sergio Corpettini - 06/02/2026

Articolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…