Redazione RHC : 11 Giugno 2023 10:00
Google ha annunciato il lancio del Secure AI Framework (SAIF). SI tratta di un framework concettuale per la protezione dei sistemi di intelligenza artificiale. Google è proprietario del chatbot generativo Bard e della società madre del laboratorio di ricerca sull’intelligenza artificiale DeepMind.
DeepMind ha affermato che è necessario un framework a livello di settore pubblico e privato affinché gli attori responsabili proteggano la tecnologia che supporta i progressi nell’intelligenza artificiale, in modo che quando implementano i modelli AI sarebbe al sicuro per impostazione predefinita.
Il suo nuovo concetto di framework è un passo importante in questa direzione, afferma il gigante della tecnologia. SAIF è progettato per mitigare i rischi specifici dei sistemi di intelligenza artificiale, come l’avvelenamento dei dati di addestramento, gli input dannosi tramite l’inserimento di query e l’estrazione di informazioni sensibili nei dati di addestramento.
CALL FOR SPONSOR - Sponsorizza l'ottavo episodio della serie Betti-RHCSei un'azienda innovativa, che crede nella diffusione di concetti attraverso metodi "non convenzionali"? Conosci il nostro corso sul cybersecurity awareness a fumetti? Red Hot Cyber sta ricercando un nuovo sponsor per una nuova puntata del fumetto Betti-RHC mentre il team è impegnato a realizzare 3 nuovi episodi che ci sono stati commissionati. Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected] ![]()
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
“Poiché le capacità di intelligenza artificiale sono sempre più integrate nei prodotti di tutto il mondo, aderire a un framework audace e responsabile sarà ancora più importante”, ha scritto Google in un post sul blog.
Il lancio arriva in mezzo all’avvento dell’intelligenza artificiale generativa e al suo impatto sulla sicurezza informatica, che continua a fare notizia e catturare l’attenzione di organizzazioni e governi. Le preoccupazioni circa i rischi che queste nuove tecnologie potrebbero introdurre vanno da potenziali problemi con lo scambio di informazioni aziendali sensibili con algoritmi avanzati di autoapprendimento agli aggressori che li utilizzano per amplificare notevolmente gli attacchi.
Il framework di sicurezza AI di Google si basa sulla sua esperienza nello sviluppo di modelli di sicurezza informatica come il framework collaborativo Supply-chain Levels for Software Artifacts (SLSA) e BeyondCorp, la sua architettura zero-trust utilizzata da molte organizzazioni.
Si basa su sei elementi principali che sono questi:
Ciò include lo sfruttamento delle protezioni dell’infrastruttura per impostazione predefinita e delle competenze sviluppate negli ultimi due decenni per proteggere i sistemi, le applicazioni e gli utenti di intelligenza artificiale. Allo stesso tempo, sviluppa competenze organizzative per stare al passo con i progressi dell’IA e iniziare a ridimensionare e adattare le protezioni dell’infrastruttura nel contesto dell’IA e dei modelli di minaccia in evoluzione. Ad esempio, le tecniche di iniezione come SQL injection esistono da tempo e le organizzazioni possono adattare le mitigazioni, come la sanificazione e la limitazione dell’input, per aiutare a difendersi meglio dagli attacchi in stile prompt injection.
La tempestività è fondamentale per rilevare e rispondere agli incidenti informatici correlati all’intelligenza artificiale e l’estensione dell’intelligence sulle minacce e di altre capacità a un’organizzazione migliora entrambi. Per le organizzazioni, ciò include il monitoraggio degli input e degli output dei sistemi di intelligenza artificiale generativa per rilevare anomalie e utilizzare l’intelligence sulle minacce per anticipare gli attacchi. Questo sforzo in genere richiede la collaborazione con i team di fiducia nella sicurezza e nelle informazioni sulle minacce e contro gli abusi.
Le ultime innovazioni dell’IA possono migliorare la portata e la velocità degli sforzi di risposta agli incidenti di sicurezza. È probabile che gli avversari utilizzino l’intelligenza artificiale per ridimensionare il proprio impatto, quindi è importante utilizzare l’intelligenza artificiale e le sue capacità attuali ed emergenti per rimanere agili nella protezione.
La coerenza tra i framework di controllo può supportare la mitigazione dei rischi dell’IA e ridimensionare le protezioni su diverse piattaforme e strumenti per garantire che le migliori protezioni siano disponibili per tutte le applicazioni di intelligenza artificiale in modo scalabile ed efficiente in termini di costi. In Google, ciò include l’estensione delle protezioni sicure per impostazione predefinita a piattaforme di intelligenza artificiale come Vertex AI e Security AI Workbench e la creazione di controlli e protezioni nel ciclo di vita dello sviluppo del software. Le funzionalità che si rivolgono a casi d’uso generali, come l’API Perspective, possono aiutare l’intera organizzazione a beneficiare di protezioni all’avanguardia.
Il test costante delle implementazioni attraverso l’apprendimento continuo può garantire che le capacità di rilevamento e protezione affrontino il mutevole ambiente delle minacce. Ciò include tecniche come l’apprendimento per rinforzo basato su incidenti e feedback degli utenti e comporta passaggi come l’aggiornamento di set di dati di addestramento, modelli di messa a punto per rispondere strategicamente agli attacchi e consentire al software utilizzato di creare modelli ed incorporare ulteriore sicurezza nel contesto (ad esempio, rilevare il comportamento anomalo). Le organizzazioni possono anche condurre esercitazioni regolari attraverso attività di Red Team per migliorare la garanzia di sicurezza dei prodotti e le capacità basati sull’intelligenza artificiale.
Infine, condurre valutazioni del rischio end-to-end relative al modo in cui le organizzazioni implementeranno l’IA può aiutare a prendere decisioni. Ciò include una valutazione del rischio aziendale end-to-end, come la derivazione dei dati, la convalida e il monitoraggio del comportamento operativo per determinati tipi di applicazioni. Inoltre, le organizzazioni dovrebbero costruire controlli automatizzati per convalidare le prestazioni dell’IA.
“Presto pubblicheremo diversi strumenti open source per aiutare a mettere in pratica gli elementi di SAIF per la sicurezza dell’IA”, ha affermato Google. Hanno anche promesso di espandere i programmi di ricerca dei bug di Google per premiare e incentivare la ricerca sulla sicurezza dell’IA.
Le aziende appaltatrici della difesa statunitense stanno sviluppando uno strumento di intelligenza artificiale chiamato Cyber Resilience On-Orbit (CROO) per rilevare attacchi informatici ai satelliti ...
Non brilliamo molto nella sicurezza informatica, ma sugli Spyware siamo tra i primi della classe! Secondo una ricerca dell’Atlantic Council, il settore dello spyware è in piena espansione, poiché ...
Gli utenti di Windows 11 che hanno installato l’aggiornamento di settembre 2025 potrebbero pensare che non cambi praticamente nulla. A prima vista, KB5065426 sembra una normale piccola patch che Mic...
Un nuovo strumento chiamato SpamGPT è apparso sui forum underground ed è rapidamente diventato oggetto di discussione nel campo della sicurezza informatica. Il software malevolo combina le capacità...
Nella giornata di oggi, la nuova cyber-gang “The Gentlemen” rivendica all’interno del proprio Data Leak Site (DLS) al laboratorio Santa Rita. Disclaimer: Questo rapporto include screenshot e/o t...