Redazione RHC : 4 Luglio 2025 13:09
I ricercatori dell’Università della Carolina del Nord hanno sviluppato un nuovo metodo per ingannare i sistemi di intelligenza artificiale che analizzano le immagini. Il metodo, chiamato RisingAttacK, può indurre l’IA a “non vedere” oggetti chiaramente presenti in una fotografia. L’essenza della tecnologia risiede in cambiamenti nell’immagine impercettibili all’occhio umano. Due immagini possono sembrare perfettamente identiche, ma l’IA vedrà l’auto solo in una delle due e non nella seconda. Allo stesso tempo, una persona vedrà facilmente l’auto in entrambe le foto.
Tali attacchi potrebbero rappresentare gravi rischi per la sicurezza nelle aree in cui vengono utilizzati sistemi di visione artificiale . Ad esempio, gli aggressori potrebbero impedire a un’auto a guida autonoma di riconoscere semafori, pedoni o altre auto sulla strada. Tali influenze in campo medico non sono meno pericolose. Gli hacker possono iniettare codice in un apparecchio a raggi X , il che porterebbe a diagnosi imprecise da parte di un sistema di intelligenza artificiale. Anche le tecnologie di sicurezza basate sul riconoscimento automatico di pattern sono a rischio.
RisingAttacK funziona in diverse fasi. Innanzitutto, il programma identifica tutte le caratteristiche visive dell’immagine, quindi determina quali di esse sono più importanti per raggiungere l’obiettivo dell’attacco. Questo richiede potenza di calcolo, ma consente modifiche molto precise e minime. “Volevamo trovare un modo efficace per hackerare i sistemi di visione artificiale perché vengono spesso utilizzati in contesti che possono avere un impatto sulla salute e la sicurezza umana”, spiega Tianfu Wu, uno degli autori dello studio.
PARTE LA PROMO ESTATE -40%
RedHotCyber Academy lancia una promozione esclusiva e a tempo limitato per chi vuole investire nella propria crescita professionale nel mondo della tecnologia e della cybersecurity!
Approfitta del 40% di sconto sull’acquisto congiunto di 3 corsi da te scelti dalla nostra Academy. Ad esempio potresti fare un percorso formativo includendo Cyber Threat intelligence + NIS2 + Criptovalute con lo sconto del 40%. Tutto questo lo potrai fruire, dove e quando vuoi e con la massima flessibilità, grazie a lezioni di massimo 30 minuti ciascuna.
Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]
Gli sviluppatori hanno testato il loro metodo con quattro dei programmi di visione artificiale più comuni: ResNet-50, DenseNet-121, ViTB e DEiT-B. La tecnologia si è dimostrata efficace su tutti i sistemi, senza eccezioni. I ricercatori sottolineano l’importanza di identificare tali vulnerabilità. Solo conoscendo l’esistenza di una minaccia è possibile sviluppare una protezione affidabile contro di essa. Pertanto, il team sta già lavorando alla creazione di metodi per contrastare tali attacchi .
I ricercatori stanno ora esplorando la possibilità di utilizzare RisingAttacK contro altri tipi di sistemi di intelligenza artificiale, compresi i grandi modelli linguistici, per comprendere la portata completa delle potenziali minacce .
Google sta testando una nuova funzionalità per migliorare la privacy nella modalità di navigazione in incognito di Chrome su Windows: il blocco degli script in incognito (PrivacySandboxFinge...
Sembra che gli Stati Uniti abbiano già seriamente preso in considerazione il concetto di guerra autonoma. Il jet da combattimento autonomo della DARPA , risulta in grado di combattere senza pilot...
CrowdStrike ha pubblicato il suo Global Threat Report 2025, che documenta un balzo in avanti nel comportamento dei criminali informatici e dei gruppi statali. Gli esperti definiscono il 2024 “l...
Solamente due settimane fa, il robot umanoide prodotto da Figure ha destato in noi grande meraviglia, quando con destrezza ha preso degli indumenti da un paniere dei panni sporchi e li ha collocati al...
Il team di ricerca di Trustwave SpiderLabs ha identificato una nuova ondata di attacchi EncryptHub che combinano l’errore umano e lo sfruttamento di una vulnerabilità nella Microsoft Manag...