Red Hot Cyber

La cybersecurity è condivisione.
Riconosci il rischio, combattilo, condividi le tue esperienze ed 
incentiva gli altri a fare meglio di te.

Cerca

L’amministrazione Biden crea l’AI Safety Institute Consortium (AISIC). Miglioreremo le IA?

Redazione RHC : 18 Febbraio 2024 16:53

L’amministrazione Biden ha annunciato la creazione dell’AI Safety Institute Consortium (AISIC), il primo nel suo genere dedicato alla sicurezza dell’IA. La mossa segue la nomina del direttore del nuovo AI Safety Institute (USAISI) presso il NIST.

Il consorzio AISIC riunisce più di 200 aziende e organizzazioni, tra cui importanti aziende tecnologiche come Google, Microsoft e Amazon. Si tratta di aziende leader di grandi modelli linguistici come OpenAI, Cohere e Anthropic. Nonché laboratori di ricerca, gruppi civici e accademici, organizzazioni locali e enti pubblici e organizzazioni no-profit.

Secondo un post sul blog del NIST, l’AISIC sarà il più grande raduno di team di test e valutazione e contribuirà a sviluppare le basi per la nuova scienza della misurazione nella sicurezza dell’IA. Il consorzio opererà sotto gli auspici dell’USAISI. Contribuirà alla realizzazione delle azioni prioritarie delineate nell’ordine esecutivo statunitense. Compreso lo sviluppo di linee guida per test di penetrazione, valutazioni delle capacità, gestione del rischio, sicurezza e protezione e watermarking per i contenuti generati.

Lo sviluppo del consorzio è stato annunciato il 31 ottobre 2023. La partecipazione al consorzio è aperta a tutte le organizzazioni interessate che possono contribuire con la propria esperienza, prodotti, dati e/o modelli alle attività del consorzio. I partecipanti selezionati al Consorzio sono tenuti a pagare una quota annuale di 1.000 dollari.

Secondo il NIST, i membri del Consorzio contribuiranno all’attuazione dei seguenti principi:

  • Sviluppare nuove linee guida, strumenti, metodi, protocolli e migliori pratiche per promuovere lo sviluppo di standard di settore per lo sviluppo dell’IA;
  • Sviluppare linee guida e criteri per identificare e valutare le capacità dell’IA, con particolare attenzione alle capacità che possono potenzialmente causare danni;
  • Sviluppare approcci per l’implementazione di pratiche di sviluppo sicure per l’IA generativa, comprese considerazioni speciali per i modelli principali a duplice uso, tra cui;
    • Linee guida relative alla valutazione e alla gestione della sicurezza, della protezione e dell’affidabilità dei modelli, nonché all’apprendimento automatico che preserva la privacy;
    • Linee guida sulla disponibilità dell’ambiente di test;
  • Sviluppare e garantire la disponibilità di ambienti di test;
  • Sviluppare linee guida, metodi, competenze e pratiche per un red team di successo;
  • Sviluppare linee guida e strumenti per l’autenticazione dei contenuti digitali;
  • Sviluppare linee guida e criteri per le competenze di intelligenza artificiale dei dipendenti, tra cui l’identificazione e la gestione del rischio. Test, la valutazione, convalida e verifica (TEVV) e le competenze in materia;
  • Esplorare le complessità all’intersezione tra società e tecnologia, inclusa la scienza su come gli esseri umani comprendono e interagiscono con l’intelligenza artificiale in diversi contesti;
  • Sviluppare linee guida per comprendere e gestire le interdipendenze tra i partecipanti all’IA durante tutto il ciclo di vita.

Nonostante l’annuncio dell’AI Security Institute e del relativo Consorzio a novembre, ci sono ancora poche informazioni su come funzionerà l’istituto o da dove arriveranno i soldi per finanziarlo, soprattutto perché lo stesso NIST è sottofinanziato.

Vale la pena notare che a gennaio un gruppo bipartisan di senatori ha chiesto al Senato di stanziare 10 milioni di dollari per contribuire alla creazione dell’USAISI. Tuttavia non è ancora chiaro a che punto sia la richiesta di finanziamento. Inoltre, la Camera dei Rappresentanti ha anche inviato una lettera al NIST criticando l’agenzia per la sua mancanza di trasparenza e per non aver annunciato un processo competitivo per le sovvenzioni di ricerca previste relative all’USAISI.

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.