
Redazione RHC : 11 Giugno 2023 10:00
Google ha annunciato il lancio del Secure AI Framework (SAIF). SI tratta di un framework concettuale per la protezione dei sistemi di intelligenza artificiale. Google è proprietario del chatbot generativo Bard e della società madre del laboratorio di ricerca sull’intelligenza artificiale DeepMind.
DeepMind ha affermato che è necessario un framework a livello di settore pubblico e privato affinché gli attori responsabili proteggano la tecnologia che supporta i progressi nell’intelligenza artificiale, in modo che quando implementano i modelli AI sarebbe al sicuro per impostazione predefinita.
Il suo nuovo concetto di framework è un passo importante in questa direzione, afferma il gigante della tecnologia. SAIF è progettato per mitigare i rischi specifici dei sistemi di intelligenza artificiale, come l’avvelenamento dei dati di addestramento, gli input dannosi tramite l’inserimento di query e l’estrazione di informazioni sensibili nei dati di addestramento.
Sponsorizza la prossima Red Hot Cyber Conference! Il giorno Lunedì 18 maggio e martedì 19 maggio 2026 9 maggio 2026, presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terrà la V edizione della la RHC Conference. Si tratta dell’appuntamento annuale gratuito, creato dalla community di RHC, per far accrescere l’interesse verso le tecnologie digitali, l’innovazione digitale e la consapevolezza del rischio informatico. Se sei interessato a sponsorizzare l'evento e a rendere la tua azienda protagonista del più grande evento della Cybersecurity Italiana, non perdere questa opportunità. E ricorda che assieme alla sponsorizzazione della conferenza, incluso nel prezzo, avrai un pacchetto di Branding sul sito di Red Hot Cyber composto da Banner più un numero di articoli che saranno ospitati all'interno del nostro portale. Quindi cosa stai aspettando? Scrivici subito a [email protected] per maggiori informazioni e per accedere al programma sponsor e al media Kit di Red Hot Cyber.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
“Poiché le capacità di intelligenza artificiale sono sempre più integrate nei prodotti di tutto il mondo, aderire a un framework audace e responsabile sarà ancora più importante”, ha scritto Google in un post sul blog.
Il lancio arriva in mezzo all’avvento dell’intelligenza artificiale generativa e al suo impatto sulla sicurezza informatica, che continua a fare notizia e catturare l’attenzione di organizzazioni e governi. Le preoccupazioni circa i rischi che queste nuove tecnologie potrebbero introdurre vanno da potenziali problemi con lo scambio di informazioni aziendali sensibili con algoritmi avanzati di autoapprendimento agli aggressori che li utilizzano per amplificare notevolmente gli attacchi.
Il framework di sicurezza AI di Google si basa sulla sua esperienza nello sviluppo di modelli di sicurezza informatica come il framework collaborativo Supply-chain Levels for Software Artifacts (SLSA) e BeyondCorp, la sua architettura zero-trust utilizzata da molte organizzazioni.
Si basa su sei elementi principali che sono questi:
Ciò include lo sfruttamento delle protezioni dell’infrastruttura per impostazione predefinita e delle competenze sviluppate negli ultimi due decenni per proteggere i sistemi, le applicazioni e gli utenti di intelligenza artificiale. Allo stesso tempo, sviluppa competenze organizzative per stare al passo con i progressi dell’IA e iniziare a ridimensionare e adattare le protezioni dell’infrastruttura nel contesto dell’IA e dei modelli di minaccia in evoluzione. Ad esempio, le tecniche di iniezione come SQL injection esistono da tempo e le organizzazioni possono adattare le mitigazioni, come la sanificazione e la limitazione dell’input, per aiutare a difendersi meglio dagli attacchi in stile prompt injection.
La tempestività è fondamentale per rilevare e rispondere agli incidenti informatici correlati all’intelligenza artificiale e l’estensione dell’intelligence sulle minacce e di altre capacità a un’organizzazione migliora entrambi. Per le organizzazioni, ciò include il monitoraggio degli input e degli output dei sistemi di intelligenza artificiale generativa per rilevare anomalie e utilizzare l’intelligence sulle minacce per anticipare gli attacchi. Questo sforzo in genere richiede la collaborazione con i team di fiducia nella sicurezza e nelle informazioni sulle minacce e contro gli abusi.
Le ultime innovazioni dell’IA possono migliorare la portata e la velocità degli sforzi di risposta agli incidenti di sicurezza. È probabile che gli avversari utilizzino l’intelligenza artificiale per ridimensionare il proprio impatto, quindi è importante utilizzare l’intelligenza artificiale e le sue capacità attuali ed emergenti per rimanere agili nella protezione.
La coerenza tra i framework di controllo può supportare la mitigazione dei rischi dell’IA e ridimensionare le protezioni su diverse piattaforme e strumenti per garantire che le migliori protezioni siano disponibili per tutte le applicazioni di intelligenza artificiale in modo scalabile ed efficiente in termini di costi. In Google, ciò include l’estensione delle protezioni sicure per impostazione predefinita a piattaforme di intelligenza artificiale come Vertex AI e Security AI Workbench e la creazione di controlli e protezioni nel ciclo di vita dello sviluppo del software. Le funzionalità che si rivolgono a casi d’uso generali, come l’API Perspective, possono aiutare l’intera organizzazione a beneficiare di protezioni all’avanguardia.
Il test costante delle implementazioni attraverso l’apprendimento continuo può garantire che le capacità di rilevamento e protezione affrontino il mutevole ambiente delle minacce. Ciò include tecniche come l’apprendimento per rinforzo basato su incidenti e feedback degli utenti e comporta passaggi come l’aggiornamento di set di dati di addestramento, modelli di messa a punto per rispondere strategicamente agli attacchi e consentire al software utilizzato di creare modelli ed incorporare ulteriore sicurezza nel contesto (ad esempio, rilevare il comportamento anomalo). Le organizzazioni possono anche condurre esercitazioni regolari attraverso attività di Red Team per migliorare la garanzia di sicurezza dei prodotti e le capacità basati sull’intelligenza artificiale.
Infine, condurre valutazioni del rischio end-to-end relative al modo in cui le organizzazioni implementeranno l’IA può aiutare a prendere decisioni. Ciò include una valutazione del rischio aziendale end-to-end, come la derivazione dei dati, la convalida e il monitoraggio del comportamento operativo per determinati tipi di applicazioni. Inoltre, le organizzazioni dovrebbero costruire controlli automatizzati per convalidare le prestazioni dell’IA.
“Presto pubblicheremo diversi strumenti open source per aiutare a mettere in pratica gli elementi di SAIF per la sicurezza dell’IA”, ha affermato Google. Hanno anche promesso di espandere i programmi di ricerca dei bug di Google per premiare e incentivare la ricerca sulla sicurezza dell’IA.
Redazione
Nel corso dell’ultima settimana, Google ha annunciato che l’assistente Gemini potrà da ora integrare nativamente i servizi YouTube e Google Maps senza la necessità di utilizzare comandi specific...

C’era una volta una Città che aveva un Bosco Magico. Era felice di averlo, anche un po’ orgoglioso. Motivo per cui tutti i cittadini facevano volentieri meno a qualche piccola comodità per mante...

La città di New York ha intentato una causa mercoledì contro un gruppo di piattaforme di social media di spicco, come TikTok, YouTube, Instagram e Facebook, con l’accusa di aver contribuito a scat...

Il colosso della tecnologia ha annunciato la creazione di un nuovo team di sviluppo per un’intelligenza artificiale “sovrumana” che supererà in accuratezza gli esperti umani nelle diagnosi medi...

Nel 2025, gli utenti fanno ancora molto affidamento sulle password di base per proteggere i propri account. Uno studio di Comparitech, basato sull’analisi di oltre 2 miliardi di password reali trape...