Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

Google lancia SAIF: i 6 principi di sicurezza nell’intelligenza artificiale

Redazione RHC : 11 Giugno 2023 10:00

Google ha annunciato il lancio del Secure AI Framework (SAIF). SI tratta di un framework concettuale per la protezione dei sistemi di intelligenza artificiale. Google è proprietario del chatbot generativo Bard e della società madre del laboratorio di ricerca sull’intelligenza artificiale DeepMind.

DeepMind ha affermato che è necessario un framework a livello di settore pubblico e privato affinché gli attori responsabili proteggano la tecnologia che supporta i progressi nell’intelligenza artificiale, in modo che quando implementano i modelli AI sarebbe al sicuro per impostazione predefinita. 

Il suo nuovo concetto di framework è un passo importante in questa direzione, afferma il gigante della tecnologia. SAIF è progettato per mitigare i rischi specifici dei sistemi di intelligenza artificiale, come l’avvelenamento dei dati di addestramento, gli input dannosi tramite l’inserimento di query e l’estrazione di informazioni sensibili nei dati di addestramento. 


PARTE LA PROMO ESTATE -40%

RedHotCyber Academy lancia una promozione esclusiva e a tempo limitato per chi vuole investire nella propria crescita professionale nel mondo della tecnologia e della cybersecurity!

Approfitta del 40% di sconto sull’acquisto congiunto di 3 corsi da te scelti dalla nostra Academy. Ad esempio potresti fare un percorso formativo includendo Cyber Threat intelligence + NIS2 + Criptovalute con lo sconto del 40%. Tutto questo lo potrai fruire, dove e quando vuoi e con la massima flessibilità, grazie a lezioni di massimo 30 minuti ciascuna.

Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]


Supporta RHC attraverso:
  • L'acquisto del fumetto sul Cybersecurity Awareness
  • Ascoltando i nostri Podcast
  • Seguendo RHC su WhatsApp
  • Seguendo RHC su Telegram
  • Scarica gratuitamente "Dark Mirror", il report sul ransomware di Dark Lab


  • Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.


    “Poiché le capacità di intelligenza artificiale sono sempre più integrate nei prodotti di tutto il mondo, aderire a un framework audace e responsabile sarà ancora più importante”, ha scritto Google in un post sul blog.

    Il lancio arriva in mezzo all’avvento dell’intelligenza artificiale generativa e al suo impatto sulla sicurezza informatica, che continua a fare notizia e catturare l’attenzione di organizzazioni e governi. Le preoccupazioni circa i rischi che queste nuove tecnologie potrebbero introdurre vanno da potenziali problemi con lo scambio di informazioni aziendali sensibili con algoritmi avanzati di autoapprendimento agli aggressori che li utilizzano per amplificare notevolmente gli attacchi.

    Il framework di sicurezza AI di Google si basa sui se principi

    Il framework di sicurezza AI di Google si basa sulla sua esperienza nello sviluppo di modelli di sicurezza informatica come il framework collaborativo Supply-chain Levels for Software Artifacts (SLSA) e BeyondCorp, la sua architettura zero-trust utilizzata da molte organizzazioni. 

    Si basa su sei elementi principali che sono questi:

    1 – Espandere solide basi di sicurezza all’ecosistema AI

    Ciò include lo sfruttamento delle protezioni dell’infrastruttura per impostazione predefinita e delle competenze sviluppate negli ultimi due decenni per proteggere i sistemi, le applicazioni e gli utenti di intelligenza artificiale. Allo stesso tempo, sviluppa competenze organizzative per stare al passo con i progressi dell’IA e iniziare a ridimensionare e adattare le protezioni dell’infrastruttura nel contesto dell’IA e dei modelli di minaccia in evoluzione. Ad esempio, le tecniche di iniezione come SQL injection esistono da tempo e le organizzazioni possono adattare le mitigazioni, come la sanificazione e la limitazione dell’input, per aiutare a difendersi meglio dagli attacchi in stile prompt injection.

    2 – Estendere il rilevamento e la risposta per portare l’IA nell’universo delle minacce di un’organizzazione

    La tempestività è fondamentale per rilevare e rispondere agli incidenti informatici correlati all’intelligenza artificiale e l’estensione dell’intelligence sulle minacce e di altre capacità a un’organizzazione migliora entrambi. Per le organizzazioni, ciò include il monitoraggio degli input e degli output dei sistemi di intelligenza artificiale generativa per rilevare anomalie e utilizzare l’intelligence sulle minacce per anticipare gli attacchi. Questo sforzo in genere richiede la collaborazione con i team di fiducia nella sicurezza e nelle informazioni sulle minacce e contro gli abusi.

    3 – Automatizzare le difese per tenere il passo con le minacce esistenti e nuove

    Le ultime innovazioni dell’IA possono migliorare la portata e la velocità degli sforzi di risposta agli incidenti di sicurezza. È probabile che gli avversari utilizzino l’intelligenza artificiale per ridimensionare il proprio impatto, quindi è importante utilizzare l’intelligenza artificiale e le sue capacità attuali ed emergenti per rimanere agili nella protezione.

    4 – Armonizzare i controlli a livello di piattaforma per garantire una sicurezza coerente in tutta l’organizzazione

    La coerenza tra i framework di controllo può supportare la mitigazione dei rischi dell’IA e ridimensionare le protezioni su diverse piattaforme e strumenti per garantire che le migliori protezioni siano disponibili per tutte le applicazioni di intelligenza artificiale in modo scalabile ed efficiente in termini di costi. In Google, ciò include l’estensione delle protezioni sicure per impostazione predefinita a piattaforme di intelligenza artificiale come Vertex AI e Security AI Workbench e la creazione di controlli e protezioni nel ciclo di vita dello sviluppo del software. Le funzionalità che si rivolgono a casi d’uso generali, come l’API Perspective, possono aiutare l’intera organizzazione a beneficiare di protezioni all’avanguardia.

    5 – Adattare i controlli per regolare le mitigazioni e creare cicli di feedback più rapidi per l’implementazione dell’IA

    Il test costante delle implementazioni attraverso l’apprendimento continuo può garantire che le capacità di rilevamento e protezione affrontino il mutevole ambiente delle minacce. Ciò include tecniche come l’apprendimento per rinforzo basato su incidenti e feedback degli utenti e comporta passaggi come l’aggiornamento di set di dati di addestramento, modelli di messa a punto per rispondere strategicamente agli attacchi e consentire al software utilizzato di creare modelli ed incorporare ulteriore sicurezza nel contesto (ad esempio, rilevare il comportamento anomalo). Le organizzazioni possono anche condurre esercitazioni regolari attraverso attività di Red Team per migliorare la garanzia di sicurezza dei prodotti e le capacità basati sull’intelligenza artificiale.

    6 – Contestualizza i rischi del sistema di intelligenza artificiale nei processi aziendali circostanti

    Infine, condurre valutazioni del rischio end-to-end relative al modo in cui le organizzazioni implementeranno l’IA può aiutare a prendere decisioni. Ciò include una valutazione del rischio aziendale end-to-end, come la derivazione dei dati, la convalida e il monitoraggio del comportamento operativo per determinati tipi di applicazioni. Inoltre, le organizzazioni dovrebbero costruire controlli automatizzati per convalidare le prestazioni dell’IA.

    “Presto pubblicheremo diversi strumenti open source per aiutare a mettere in pratica gli elementi di SAIF per la sicurezza dell’IA”, ha affermato Google. Hanno anche promesso di espandere i programmi di ricerca dei bug di Google per premiare e incentivare la ricerca sulla sicurezza dell’IA.

    Redazione
    La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

    Lista degli articoli

    Articoli in evidenza

    Un nome di un file può compromettere un sistema Linux? Gli hacker cinesi dicono di sì
    Di Redazione RHC - 24/08/2025

    I ricercatori di Trellix hanno scoperto un insolito schema di attacco su Linux, in cui l’elemento chiave non è un allegato con contenuto dannoso, ma il nome del file all’interno del...

    Il caso “Mia Moglie” e le sfide della responsabilità digitale tra privacy, revenge porn e ruolo delle piattaforme
    Di Paolo Galdieri - 23/08/2025

    La recente vicenda del gruppo Facebook “Mia Moglie”, attivo dal 2019 e popolato da oltre 32.000 iscritti, mette in luce una dinamica che intreccia violazione della privacy, pornografia n...

    Performance review 2025 per Google: meno bug, più vibe coding
    Di Redazione RHC - 23/08/2025

    Per i dipendenti di Google, “stare al passo con i tempi” significa non solo sviluppare l’intelligenza artificiale, ma anche essere in grado di utilizzarla ogni giorno. Negli ultim...

    20 milioni di dollari per exploit zero-day dal broker Advanced Security Solutions
    Di Redazione RHC - 22/08/2025

    Advanced Security Solutions, con sede negli Emirati Arabi Uniti, è nata questo mese ed offre fino a 20 milioni di dollari per vulnerabilità zero-day ed exploit che consentirebbero a chiunque...

    Un bug critico di Downgrade in Chat-GPT porta al Jailbreak del modello
    Di Redazione RHC - 22/08/2025

    Un difetto critico riscontrato nel più recente modello di OpenAI, ChatGPT-5, permette a malintenzionati di aggirare le avanzate funzionalità di sicurezza attraverso l’uso di semplici ...