Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca
Banner Desktop V1
TM RedHotCyber 320x100 042514
Google lancia SAIF: i 6 principi di sicurezza nell’intelligenza artificiale

Google lancia SAIF: i 6 principi di sicurezza nell’intelligenza artificiale

Redazione RHC : 11 Giugno 2023 10:00

Google ha annunciato il lancio del Secure AI Framework (SAIF). SI tratta di un framework concettuale per la protezione dei sistemi di intelligenza artificiale. Google è proprietario del chatbot generativo Bard e della società madre del laboratorio di ricerca sull’intelligenza artificiale DeepMind.

DeepMind ha affermato che è necessario un framework a livello di settore pubblico e privato affinché gli attori responsabili proteggano la tecnologia che supporta i progressi nell’intelligenza artificiale, in modo che quando implementano i modelli AI sarebbe al sicuro per impostazione predefinita. 

Il suo nuovo concetto di framework è un passo importante in questa direzione, afferma il gigante della tecnologia. SAIF è progettato per mitigare i rischi specifici dei sistemi di intelligenza artificiale, come l’avvelenamento dei dati di addestramento, gli input dannosi tramite l’inserimento di query e l’estrazione di informazioni sensibili nei dati di addestramento. 


Nuovo Fumetto Betti

CALL FOR SPONSOR - Sponsorizza l'ottavo episodio della serie Betti-RHC

Sei un'azienda innovativa, che crede nella diffusione di concetti attraverso metodi "non convenzionali"? 
Conosci il nostro corso sul cybersecurity awareness a fumetti? 
Red Hot Cyber sta ricercando un nuovo sponsor per una nuova puntata del fumetto Betti-RHC mentre il team è impegnato a realizzare 3 nuovi episodi che ci sono stati commissionati. 
Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]


Supporta Red Hot Cyber attraverso: 

  1. L'acquisto del fumetto sul Cybersecurity Awareness
  2. Ascoltando i nostri Podcast
  3. Seguendo RHC su WhatsApp
  4. Seguendo RHC su Telegram
  5. Scarica gratuitamente “Byte The Silence”, il fumetto sul Cyberbullismo di Red Hot Cyber

Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì.

“Poiché le capacità di intelligenza artificiale sono sempre più integrate nei prodotti di tutto il mondo, aderire a un framework audace e responsabile sarà ancora più importante”, ha scritto Google in un post sul blog.

Il lancio arriva in mezzo all’avvento dell’intelligenza artificiale generativa e al suo impatto sulla sicurezza informatica, che continua a fare notizia e catturare l’attenzione di organizzazioni e governi. Le preoccupazioni circa i rischi che queste nuove tecnologie potrebbero introdurre vanno da potenziali problemi con lo scambio di informazioni aziendali sensibili con algoritmi avanzati di autoapprendimento agli aggressori che li utilizzano per amplificare notevolmente gli attacchi.

Il framework di sicurezza AI di Google si basa sui se principi

Il framework di sicurezza AI di Google si basa sulla sua esperienza nello sviluppo di modelli di sicurezza informatica come il framework collaborativo Supply-chain Levels for Software Artifacts (SLSA) e BeyondCorp, la sua architettura zero-trust utilizzata da molte organizzazioni. 

Si basa su sei elementi principali che sono questi:

1 – Espandere solide basi di sicurezza all’ecosistema AI

Ciò include lo sfruttamento delle protezioni dell’infrastruttura per impostazione predefinita e delle competenze sviluppate negli ultimi due decenni per proteggere i sistemi, le applicazioni e gli utenti di intelligenza artificiale. Allo stesso tempo, sviluppa competenze organizzative per stare al passo con i progressi dell’IA e iniziare a ridimensionare e adattare le protezioni dell’infrastruttura nel contesto dell’IA e dei modelli di minaccia in evoluzione. Ad esempio, le tecniche di iniezione come SQL injection esistono da tempo e le organizzazioni possono adattare le mitigazioni, come la sanificazione e la limitazione dell’input, per aiutare a difendersi meglio dagli attacchi in stile prompt injection.

2 – Estendere il rilevamento e la risposta per portare l’IA nell’universo delle minacce di un’organizzazione

La tempestività è fondamentale per rilevare e rispondere agli incidenti informatici correlati all’intelligenza artificiale e l’estensione dell’intelligence sulle minacce e di altre capacità a un’organizzazione migliora entrambi. Per le organizzazioni, ciò include il monitoraggio degli input e degli output dei sistemi di intelligenza artificiale generativa per rilevare anomalie e utilizzare l’intelligence sulle minacce per anticipare gli attacchi. Questo sforzo in genere richiede la collaborazione con i team di fiducia nella sicurezza e nelle informazioni sulle minacce e contro gli abusi.

3 – Automatizzare le difese per tenere il passo con le minacce esistenti e nuove

Le ultime innovazioni dell’IA possono migliorare la portata e la velocità degli sforzi di risposta agli incidenti di sicurezza. È probabile che gli avversari utilizzino l’intelligenza artificiale per ridimensionare il proprio impatto, quindi è importante utilizzare l’intelligenza artificiale e le sue capacità attuali ed emergenti per rimanere agili nella protezione.

4 – Armonizzare i controlli a livello di piattaforma per garantire una sicurezza coerente in tutta l’organizzazione

La coerenza tra i framework di controllo può supportare la mitigazione dei rischi dell’IA e ridimensionare le protezioni su diverse piattaforme e strumenti per garantire che le migliori protezioni siano disponibili per tutte le applicazioni di intelligenza artificiale in modo scalabile ed efficiente in termini di costi. In Google, ciò include l’estensione delle protezioni sicure per impostazione predefinita a piattaforme di intelligenza artificiale come Vertex AI e Security AI Workbench e la creazione di controlli e protezioni nel ciclo di vita dello sviluppo del software. Le funzionalità che si rivolgono a casi d’uso generali, come l’API Perspective, possono aiutare l’intera organizzazione a beneficiare di protezioni all’avanguardia.

5 – Adattare i controlli per regolare le mitigazioni e creare cicli di feedback più rapidi per l’implementazione dell’IA

Il test costante delle implementazioni attraverso l’apprendimento continuo può garantire che le capacità di rilevamento e protezione affrontino il mutevole ambiente delle minacce. Ciò include tecniche come l’apprendimento per rinforzo basato su incidenti e feedback degli utenti e comporta passaggi come l’aggiornamento di set di dati di addestramento, modelli di messa a punto per rispondere strategicamente agli attacchi e consentire al software utilizzato di creare modelli ed incorporare ulteriore sicurezza nel contesto (ad esempio, rilevare il comportamento anomalo). Le organizzazioni possono anche condurre esercitazioni regolari attraverso attività di Red Team per migliorare la garanzia di sicurezza dei prodotti e le capacità basati sull’intelligenza artificiale.

6 – Contestualizza i rischi del sistema di intelligenza artificiale nei processi aziendali circostanti

Infine, condurre valutazioni del rischio end-to-end relative al modo in cui le organizzazioni implementeranno l’IA può aiutare a prendere decisioni. Ciò include una valutazione del rischio aziendale end-to-end, come la derivazione dei dati, la convalida e il monitoraggio del comportamento operativo per determinati tipi di applicazioni. Inoltre, le organizzazioni dovrebbero costruire controlli automatizzati per convalidare le prestazioni dell’IA.

“Presto pubblicheremo diversi strumenti open source per aiutare a mettere in pratica gli elementi di SAIF per la sicurezza dell’IA”, ha affermato Google. Hanno anche promesso di espandere i programmi di ricerca dei bug di Google per premiare e incentivare la ricerca sulla sicurezza dell’IA.

Immagine del sitoRedazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

Lista degli articoli

Articoli in evidenza

Immagine del sito
F5 subisce una violazione di sicurezza: codice sorgente e dati sensibili rubati
Di Redazione RHC - 16/10/2025

Un grave incidente di sicurezza è stato segnalato da F5, principale fornitore di soluzioni per la sicurezza e la distribuzione delle applicazioni. Era stato ottenuto l’accesso a lungo termine ai si...

Immagine del sito
Il “Double Bind” porta al Jailbreak di GPT-5: L’AI che è stata convinta di essere schizofrenica
Di Luca Vinciguerra - 15/10/2025

Un nuovo e insolito metodo di jailbreaking, ovvero l’arte di aggirare i limiti imposti alle intelligenze artificiali, è arrivato in redazione. A idearlo è stato Alin Grigoras, ricercatore di sicur...

Immagine del sito
Microsoft Patch Tuesday col botto! 175 bug corretti e due zero-day sfruttati
Di Redazione RHC - 14/10/2025

Nel suo ultimo aggiornamento, il colosso della tecnologia ha risolto 175 vulnerabilità che interessano i suoi prodotti principali e i sistemi sottostanti, tra cui due vulnerabilità zero-day attivame...

Immagine del sito
Internet Explorer è “morto”, ma continua a infettare con i suoi bug i PC tramite Edge
Di Luca Galuppi - 14/10/2025

Nonostante Internet Explorer sia ufficialmente fuori supporto dal giugno 2022, Microsoft ha recentemente dovuto affrontare una minaccia che sfrutta la modalità Internet Explorer (IE Mode) in Edge, pr...

Immagine del sito
Jeff Bezos all’Italian Tech Week: “Milioni di persone vivranno nello spazio”
Di Carlo Denza - 14/10/2025

Datacenter nello spazio, lander lunari, missioni marziane: il futuro disegnato da Bezos a Torino. Ma la vera rivelazione è l’aneddoto del nonno che ne svela il profilo umano Anche quest’anno Tori...