Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità

L’amministrazione Biden crea l’AI Safety Institute Consortium (AISIC). Miglioreremo le IA?

18 Febbraio 2024 16:53

L’amministrazione Biden ha annunciato la creazione dell’AI Safety Institute Consortium (AISIC), il primo nel suo genere dedicato alla sicurezza dell’IA. La mossa segue la nomina del direttore del nuovo AI Safety Institute (USAISI) presso il NIST.

Il consorzio AISIC riunisce più di 200 aziende e organizzazioni, tra cui importanti aziende tecnologiche come Google, Microsoft e Amazon. Si tratta di aziende leader di grandi modelli linguistici come OpenAI, Cohere e Anthropic. Nonché laboratori di ricerca, gruppi civici e accademici, organizzazioni locali e enti pubblici e organizzazioni no-profit.

Secondo un post sul blog del NIST, l’AISIC sarà il più grande raduno di team di test e valutazione e contribuirà a sviluppare le basi per la nuova scienza della misurazione nella sicurezza dell’IA. Il consorzio opererà sotto gli auspici dell’USAISI. Contribuirà alla realizzazione delle azioni prioritarie delineate nell’ordine esecutivo statunitense. Compreso lo sviluppo di linee guida per test di penetrazione, valutazioni delle capacità, gestione del rischio, sicurezza e protezione e watermarking per i contenuti generati.

Lo sviluppo del consorzio è stato annunciato il 31 ottobre 2023. La partecipazione al consorzio è aperta a tutte le organizzazioni interessate che possono contribuire con la propria esperienza, prodotti, dati e/o modelli alle attività del consorzio. I partecipanti selezionati al Consorzio sono tenuti a pagare una quota annuale di 1.000 dollari.

Secondo il NIST, i membri del Consorzio contribuiranno all’attuazione dei seguenti principi:

  • Sviluppare nuove linee guida, strumenti, metodi, protocolli e migliori pratiche per promuovere lo sviluppo di standard di settore per lo sviluppo dell’IA;
  • Sviluppare linee guida e criteri per identificare e valutare le capacità dell’IA, con particolare attenzione alle capacità che possono potenzialmente causare danni;
  • Sviluppare approcci per l’implementazione di pratiche di sviluppo sicure per l’IA generativa, comprese considerazioni speciali per i modelli principali a duplice uso, tra cui;
    • Linee guida relative alla valutazione e alla gestione della sicurezza, della protezione e dell’affidabilità dei modelli, nonché all’apprendimento automatico che preserva la privacy;
    • Linee guida sulla disponibilità dell’ambiente di test;
  • Sviluppare e garantire la disponibilità di ambienti di test;
  • Sviluppare linee guida, metodi, competenze e pratiche per un red team di successo;
  • Sviluppare linee guida e strumenti per l’autenticazione dei contenuti digitali;
  • Sviluppare linee guida e criteri per le competenze di intelligenza artificiale dei dipendenti, tra cui l’identificazione e la gestione del rischio. Test, la valutazione, convalida e verifica (TEVV) e le competenze in materia;
  • Esplorare le complessità all’intersezione tra società e tecnologia, inclusa la scienza su come gli esseri umani comprendono e interagiscono con l’intelligenza artificiale in diversi contesti;
  • Sviluppare linee guida per comprendere e gestire le interdipendenze tra i partecipanti all’IA durante tutto il ciclo di vita.

Nonostante l’annuncio dell’AI Security Institute e del relativo Consorzio a novembre, ci sono ancora poche informazioni su come funzionerà l’istituto o da dove arriveranno i soldi per finanziarlo, soprattutto perché lo stesso NIST è sottofinanziato.

Vale la pena notare che a gennaio un gruppo bipartisan di senatori ha chiesto al Senato di stanziare 10 milioni di dollari per contribuire alla creazione dell’USAISI. Tuttavia non è ancora chiaro a che punto sia la richiesta di finanziamento. Inoltre, la Camera dei Rappresentanti ha anche inviato una lettera al NIST criticando l’agenzia per la sua mancanza di trasparenza e per non aver annunciato un processo competitivo per le sovvenzioni di ricerca previste relative all’USAISI.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cropped RHC 3d Transp2 1766828557 300x300
La Redazione di Red Hot Cyber fornisce aggiornamenti quotidiani su bug, data breach e minacce globali. Ogni contenuto è validato dalla nostra community di esperti come Pietro Melillo, Massimiliano Brolli, Sandro Sana, Olivia Terragni e Stefano Gazzella. Grazie alla sinergia con i nostri Partner leader nel settore (tra cui Accenture, CrowdStrike, Trend Micro e Fortinet), trasformiamo la complessità tecnica in consapevolezza collettiva, garantendo un'informazione accurata basata sull'analisi di fonti primarie e su una rigorosa peer-review tecnica.

Articoli in evidenza

Immagine del sitoInnovazione
Robot in cerca di carne: Quando l’AI affitta periferiche. Il tuo corpo!
Silvia Felici - 06/02/2026

L’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…

Immagine del sitoCybercrime
DKnife: il framework di spionaggio Cinese che manipola le reti
Pietro Melillo - 06/02/2026

Negli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…

Immagine del sitoVulnerabilità
Così tante vulnerabilità in n8n tutti in questo momento. Cosa sta succedendo?
Agostino Pellegrino - 06/02/2026

Negli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…

Immagine del sitoInnovazione
L’IA va in orbita: Qwen 3, Starcloud e l’ascesa del calcolo spaziale
Sergio Corpettini - 06/02/2026

Articolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…

Immagine del sitoCyber Italia
Truffe WhatsApp: “Prestami dei soldi”. Il messaggio che può svuotarti il conto
Silvia Felici - 06/02/2026

Negli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…