
Redazione RHC : 25 Ottobre 2023 14:29
I ricercatori della Stanford University hanno recentemente pubblicato un rapporto sull’indice chiamato Foundation Model Transparency Index, o FMTI, che misura la trasparenza dei modelli di intelligenza artificiale sottostanti. Gli autori invitano le aziende a divulgare maggiori informazioni, come i dati e il lavoro umano utilizzati per addestrare i modelli.
Il professore di Stanford Percy Liang, uno dei ricercatori, ha dichiarato: “Negli ultimi tre anni è diventato chiaro che la trasparenza dei modelli di intelligenza artificiale sta diminuendo, mentre le loro capacità stanno aumentando. Ciò è problematico perché in altri settori, come i social media, la mancanza di trasparenza ha già avuto conseguenze indesiderate”.
I modelli di base (large Language Models, LLM) sono sistemi di intelligenza artificiale addestrati su enormi set di dati, in grado di eseguire compiti che vanno dalla scrittura alla programmazione. Questi includono, ad esempio, GPT-4 di OpenAI , Llama-2 di Meta e Google .
Prova la Demo di Business Log! Adaptive SOC italiano Log management non solo per la grande Azienda, ma una suite di Audit file, controllo USB, asset, sicurezza e un Security Operation Center PERSONALE, che ti riporta tutte le operazioni necessarie al tuo PC per tutelare i tuoi dati e informati in caso di problemi nel tuo ambiente privato o di lavoro.
Scarica ora la Demo di Business Log per 30gg
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Le aziende che sviluppano tali modelli sono in prima linea nello sviluppo dell’intelligenza artificiale generativa che, dal lancio di ChatGPT da parte di OpenAI con il supporto attivo di Microsoft , ha attirato l’attenzione di aziende di varie dimensioni.
L’indice ha valutato 10 modelli popolari attraverso 100 diversi parametri di trasparenza. Tutti i modelli hanno mostrato risultati “bassi”: anche il modello più trasparente, Llama 2 di Meta, ha ricevuto solo 54 punti su 100.
Mentre il modello Titan di Amazon si è classificato all’ultimo posto con 12 punti ridicoli.

Poiché il mondo fa sempre più affidamento su questi modelli per prendere decisioni, è fondamentale comprenderne i limiti e i pregiudizi, affermano gli autori dell’indice.
I ricercatori sperano inoltre che il loro rapporto incoraggi le aziende a essere più trasparenti sui loro modelli sottostanti e fornisca un punto di partenza per gli Stati che cercano modi per regolamentare questo settore in rapida crescita.
L’indice è un progetto del Centro per la ricerca sui modelli fondamentali presso lo Stanford Institute for Human-Centered Artificial Intelligence.
Redazione
I ladri sono entrati attraverso una finestra del secondo piano del Musée du Louvre, ma il museo aveva avuto anche altri problemi oltre alle finestre non protette, secondo un rapporto di audit sulla s...

Reuters ha riferito che Trump ha detto ai giornalisti durante un’intervista preregistrata nel programma “60 Minutes” della CBS e sull’Air Force One durante il viaggio di ritorno: “I chip pi�...

Il primo computer quantistico atomico cinese ha raggiunto un importante traguardo commerciale, registrando le sue prime vendite a clienti nazionali e internazionali, secondo quanto riportato dai media...

Il CEO di NVIDIA, Jen-Hsun Huang, oggi supervisiona direttamente 36 collaboratori suddivisi in sette aree chiave: strategia, hardware, software, intelligenza artificiale, pubbliche relazioni, networki...

OpenAI ha presentato Aardvark, un assistente autonomo basato sul modello GPT-5 , progettato per individuare e correggere automaticamente le vulnerabilità nel codice software. Questo strumento di inte...