Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
Banner Ransomfeed 970x120 1
Crowdstrike 320×100

Tag: avvelenamento dei dati

Poison Tap: l’attacco che inganna il tuo computer e ruba tutto il traffico di rete

Il Poison Tap rappresenta una tecnica di attacco informatico tanto semplice quanto insidiosa, capace di compromettere la sicurezza di un sistema manipolando il traffico di rete in entrata e in uscita dal dispositivo vittima. Questo attacco sfrutta un dispositivo fisico, opportunamente configurato, per ottenere l’accesso non autorizzato ai dati in transito da e verso un computer. Come funziona L’attacco si basa sull’impiego di un dispositivo hardware, spesso un Raspberry Pi o un’alternativa simile, configurato per simulare il comportamento di una scheda di rete. Collegandosi fisicamente al computer bersaglio, il dispositivo riesce ad ingannare il sistema operativo fingendosi un’interfaccia di rete legittima. Una

Come Rubare Un Modello AI di Google? Attraverso un Trojan AI!

Palo Alto Networks ha scoperto una serie di vulnerabilità nella piattaforma Vertex AI di Google che potrebbero consentire agli aggressori di rubare preziosi modelli di machine learning (ML) e large Language Model (LLM) sviluppati internamente dalle aziende. Queste vulnerabilità includono la possibilità di escalation di privilegi ed esfiltrazione di dati attraverso modelli infetti. La prima vulnerabilità riguardava l’escalation dei privilegi tramite processi personalizzati nelle pipeline Vertex AI. Utilizzando questi lavori, i ricercatori sono stati in grado di accedere a dati a cui non avrebbero dovuto avere accesso, inclusi l’archiviazione nel cloud e le tabelle BigQuery. Gli aggressori potrebbero trarne vantaggio per scaricare dati e modelli sensibili. La

Attacchi Invisibili all’AI: I Segnalibri Nascosti nel Cuore dei Modelli di Machine Learning

Recentemente il gruppo di ricerca HiddenLayer ha presentato la tecnica “ShadowLogic”, che consente di implementare segnalibri nascosti nei modelli di machine learning. Questo metodo senza codice si basa sulla manipolazione dei grafici del modello computazionale. Consente agli aggressori di creare attacchi all’intelligenza artificiale che si attivano solo quando ricevono uno speciale messaggio di attivazione, rendendoli una minaccia seria e difficile da rilevare. I segnalibri nel software in genere consentono agli aggressori di accedere al sistema, consentendo loro di rubare dati o effettuare sabotaggi. Tuttavia, in questo caso, il segnalibro è implementato a livello logico del modello, consente di controllare il risultato del suo lavoro. Questi

NoiseAttack: il nuovo attacco backdoor multi-target che sfida le difese AI

I ricercatori hanno sviluppato un nuovo metodo di attacco backdoor chiamato NoiseAttack, capace di compromettere più classi contemporaneamente con un minimo di configurazione. A differenza dei precedenti approcci che si concentrano su una singola classe, NoiseAttack utilizza la densità spettrale di potenza del rumore gaussiano bianco (WGN) come trigger invisibile durante la fase di addestramento. I test sperimentali mostrano che NoiseAttack ottiene alti tassi di successo su diversi modelli e set di dati, eludendo i sistemi di rilevamento delle backdoor più avanzati. Quando si parla di “più classi” in riferimento a NoiseAttack, si intende che l’attacco non si limita a colpire una

Dall’Analisi del NIST Risk Management Framework al Problema del Poisoning negli Algoritmi AI

Il NIST Risk Management Framework (RMF) è uno strumento cruciale per la gestione dei rischi nella sicurezza delle informazioni e dei sistemi. Questo framework, suddiviso in sette passaggi principali, guida le organizzazioni attraverso un processo sistematico per identificare, valutare e mitigare i rischi. Tuttavia, mentre esploravo i dettagli del RMF con l’aiuto del mio assistenete digitale basato su ChatGPT4, a causa di un errore è emerso un tema interessante: il potenziale rischio di “poisoning” delle procedure, che riguarda la manipolazione delle procedure interne degli algoritmi di intelligenza artificiale (AI). Questo articolo prende spunto dal RMF per esplorare tale aspetto, evidenziando le sfide

ZeroTrust Dataset: Il Profondo Rosso degli Attacchi Contraddittori e di Avvelenamento dei dati e il loro controllo

Gli attacchi di Avvelenamento dei dati nell’ambito dell’Intelligenza Artificiale (IA) stanno diventando sempre più pervasivi, con potenziali conseguenze devastanti. L’accesso non autorizzato ai dataset e la manipolazione degli stessi possono generare gravi problemi di sicurezza e affidabilità nei modelli di apprendimento automatico. La manipolazione di queste preziose informazioni, attraverso attacchi di avvelenamento dei dati (Poisoning Attack) o contraddittori (Adversarial Attack), possono portare a degli output completamente differenti rispetto alle attese. Ad esempio, nell’ambito del riconoscimento delle immagini, un’immagine può essere modificata in modo impercettibile aggiungendo del rumore o alterando pochissimi pixel. Tuttavia, queste piccolissime modifiche possono essere sufficienti a confondere un modello

Categorie