Red Hot Cyber

La cybersecurity è condivisione.
Riconosci il rischio, combattilo, condividi le tue esperienze ed 
incentiva gli altri a fare meglio di te.

Cerca

Google lancia SAIF: i 6 principi di sicurezza nell’intelligenza artificiale

Redazione RHC : 11 Giugno 2023 10:00

Google ha annunciato il lancio del Secure AI Framework (SAIF). SI tratta di un framework concettuale per la protezione dei sistemi di intelligenza artificiale. Google è proprietario del chatbot generativo Bard e della società madre del laboratorio di ricerca sull’intelligenza artificiale DeepMind.

DeepMind ha affermato che è necessario un framework a livello di settore pubblico e privato affinché gli attori responsabili proteggano la tecnologia che supporta i progressi nell’intelligenza artificiale, in modo che quando implementano i modelli AI sarebbe al sicuro per impostazione predefinita. 

Il suo nuovo concetto di framework è un passo importante in questa direzione, afferma il gigante della tecnologia. SAIF è progettato per mitigare i rischi specifici dei sistemi di intelligenza artificiale, come l’avvelenamento dei dati di addestramento, gli input dannosi tramite l’inserimento di query e l’estrazione di informazioni sensibili nei dati di addestramento. 

“Poiché le capacità di intelligenza artificiale sono sempre più integrate nei prodotti di tutto il mondo, aderire a un framework audace e responsabile sarà ancora più importante”, ha scritto Google in un post sul blog.

Il lancio arriva in mezzo all’avvento dell’intelligenza artificiale generativa e al suo impatto sulla sicurezza informatica, che continua a fare notizia e catturare l’attenzione di organizzazioni e governi. Le preoccupazioni circa i rischi che queste nuove tecnologie potrebbero introdurre vanno da potenziali problemi con lo scambio di informazioni aziendali sensibili con algoritmi avanzati di autoapprendimento agli aggressori che li utilizzano per amplificare notevolmente gli attacchi.

Il framework di sicurezza AI di Google si basa sui se principi

Il framework di sicurezza AI di Google si basa sulla sua esperienza nello sviluppo di modelli di sicurezza informatica come il framework collaborativo Supply-chain Levels for Software Artifacts (SLSA) e BeyondCorp, la sua architettura zero-trust utilizzata da molte organizzazioni. 

Si basa su sei elementi principali che sono questi:

1 – Espandere solide basi di sicurezza all’ecosistema AI

Ciò include lo sfruttamento delle protezioni dell’infrastruttura per impostazione predefinita e delle competenze sviluppate negli ultimi due decenni per proteggere i sistemi, le applicazioni e gli utenti di intelligenza artificiale. Allo stesso tempo, sviluppa competenze organizzative per stare al passo con i progressi dell’IA e iniziare a ridimensionare e adattare le protezioni dell’infrastruttura nel contesto dell’IA e dei modelli di minaccia in evoluzione. Ad esempio, le tecniche di iniezione come SQL injection esistono da tempo e le organizzazioni possono adattare le mitigazioni, come la sanificazione e la limitazione dell’input, per aiutare a difendersi meglio dagli attacchi in stile prompt injection.

2 – Estendere il rilevamento e la risposta per portare l’IA nell’universo delle minacce di un’organizzazione

La tempestività è fondamentale per rilevare e rispondere agli incidenti informatici correlati all’intelligenza artificiale e l’estensione dell’intelligence sulle minacce e di altre capacità a un’organizzazione migliora entrambi. Per le organizzazioni, ciò include il monitoraggio degli input e degli output dei sistemi di intelligenza artificiale generativa per rilevare anomalie e utilizzare l’intelligence sulle minacce per anticipare gli attacchi. Questo sforzo in genere richiede la collaborazione con i team di fiducia nella sicurezza e nelle informazioni sulle minacce e contro gli abusi.

3 – Automatizzare le difese per tenere il passo con le minacce esistenti e nuove

Le ultime innovazioni dell’IA possono migliorare la portata e la velocità degli sforzi di risposta agli incidenti di sicurezza. È probabile che gli avversari utilizzino l’intelligenza artificiale per ridimensionare il proprio impatto, quindi è importante utilizzare l’intelligenza artificiale e le sue capacità attuali ed emergenti per rimanere agili nella protezione.

4 – Armonizzare i controlli a livello di piattaforma per garantire una sicurezza coerente in tutta l’organizzazione

La coerenza tra i framework di controllo può supportare la mitigazione dei rischi dell’IA e ridimensionare le protezioni su diverse piattaforme e strumenti per garantire che le migliori protezioni siano disponibili per tutte le applicazioni di intelligenza artificiale in modo scalabile ed efficiente in termini di costi. In Google, ciò include l’estensione delle protezioni sicure per impostazione predefinita a piattaforme di intelligenza artificiale come Vertex AI e Security AI Workbench e la creazione di controlli e protezioni nel ciclo di vita dello sviluppo del software. Le funzionalità che si rivolgono a casi d’uso generali, come l’API Perspective, possono aiutare l’intera organizzazione a beneficiare di protezioni all’avanguardia.

5 – Adattare i controlli per regolare le mitigazioni e creare cicli di feedback più rapidi per l’implementazione dell’IA

Il test costante delle implementazioni attraverso l’apprendimento continuo può garantire che le capacità di rilevamento e protezione affrontino il mutevole ambiente delle minacce. Ciò include tecniche come l’apprendimento per rinforzo basato su incidenti e feedback degli utenti e comporta passaggi come l’aggiornamento di set di dati di addestramento, modelli di messa a punto per rispondere strategicamente agli attacchi e consentire al software utilizzato di creare modelli ed incorporare ulteriore sicurezza nel contesto (ad esempio, rilevare il comportamento anomalo). Le organizzazioni possono anche condurre esercitazioni regolari attraverso attività di Red Team per migliorare la garanzia di sicurezza dei prodotti e le capacità basati sull’intelligenza artificiale.

6 – Contestualizza i rischi del sistema di intelligenza artificiale nei processi aziendali circostanti

Infine, condurre valutazioni del rischio end-to-end relative al modo in cui le organizzazioni implementeranno l’IA può aiutare a prendere decisioni. Ciò include una valutazione del rischio aziendale end-to-end, come la derivazione dei dati, la convalida e il monitoraggio del comportamento operativo per determinati tipi di applicazioni. Inoltre, le organizzazioni dovrebbero costruire controlli automatizzati per convalidare le prestazioni dell’IA.

“Presto pubblicheremo diversi strumenti open source per aiutare a mettere in pratica gli elementi di SAIF per la sicurezza dell’IA”, ha affermato Google. Hanno anche promesso di espandere i programmi di ricerca dei bug di Google per premiare e incentivare la ricerca sulla sicurezza dell’IA.

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.