
Redazione RHC : 10 Settembre 2024 14:08
I ricercatori hanno sviluppato un nuovo metodo di attacco backdoor chiamato NoiseAttack, capace di compromettere più classi contemporaneamente con un minimo di configurazione. A differenza dei precedenti approcci che si concentrano su una singola classe, NoiseAttack utilizza la densità spettrale di potenza del rumore gaussiano bianco (WGN) come trigger invisibile durante la fase di addestramento.
I test sperimentali mostrano che NoiseAttack ottiene alti tassi di successo su diversi modelli e set di dati, eludendo i sistemi di rilevamento delle backdoor più avanzati.
Quando si parla di “più classi” in riferimento a NoiseAttack, si intende che l’attacco non si limita a colpire una sola categoria o classe di dati in un modello di classificazione. Invece, può prendere di mira contemporaneamente più classi, inducendo errori in varie categorie di output. Ciò significa che il modello può essere manipolato per commettere errori in diverse classificazioni contemporaneamente, rendendo l’attacco più versatile e potente.

Prova la Demo di Business Log! Adaptive SOC italiano Log management non solo per la grande Azienda, ma una suite di Audit file, controllo USB, asset, sicurezza e un Security Operation Center PERSONALE, che ti riporta tutte le operazioni necessarie al tuo PC per tutelare i tuoi dati e informati in caso di problemi nel tuo ambiente privato o di lavoro.
Scarica ora la Demo di Business Log per 30gg
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Il rumore gaussiano bianco (WGN) utilizzato in NoiseAttack è impercettibile e applicato universalmente, ma attivato solo su campioni selezionati per indurre classificazioni errate su più etichette target.
Questo metodo consente un attacco backdoor multi-target su modelli di deep learning senza compromettere le prestazioni sugli input non compromessi.
Addestrando il modello su un dataset contaminato con WGN accuratamente applicato, gli avversari possono causare classificazioni errate intenzionali, superando le difese avanzate e offrendo grande flessibilità nel controllo delle etichette di destinazione.

Il framework elude efficacemente le difese all’avanguardia e raggiunge alti tassi di successo degli attacchi su vari set di dati e modelli. Introducendo rumore gaussiano bianco nelle immagini di input, NoiseAttack può classificarle erroneamente in etichette mirate senza influire in modo significativo sulle prestazioni del modello su dati puliti.

Attraverso analisi teoriche ed esperimenti approfonditi, gli autori dimostrano la fattibilità e l’ubiquità di questo attacco. NoiseAttack raggiunge alti tassi di successo medi degli attacchi su vari set di dati e modelli senza influire in modo significativo sulla precisione per le classi di non vittime.
Redazione
Cisco ha reso noto recentemente di aver scoperto una nuova tipologia di attacco informatico mirato a compromettere i dispositivi che operano con i software Cisco Secure Firewall Adaptive Security Appl...

Nel mese di Settembre è uscita una nuova vulnerabilità che riguarda Notepad++. La vulnerabilità è stata identificata con la CVE-2025-56383 i dettagli possono essere consultati nel sito del NIST. L...

Gli aggressori stanno utilizzando una tecnica avanzata che implica il caricamento laterale di DLL tramite l’applicazione Microsoft OneDrive. In questo modo riescono ad eseguire codice malevolo senza...

I ladri sono entrati attraverso una finestra del secondo piano del Musée du Louvre, ma il museo aveva avuto anche altri problemi oltre alle finestre non protette, secondo un rapporto di audit sulla s...

Reuters ha riferito che Trump ha detto ai giornalisti durante un’intervista preregistrata nel programma “60 Minutes” della CBS e sull’Air Force One durante il viaggio di ritorno: “I chip pi�...