Redazione RHC : 25 Ottobre 2023 14:29
I ricercatori della Stanford University hanno recentemente pubblicato un rapporto sull’indice chiamato Foundation Model Transparency Index, o FMTI, che misura la trasparenza dei modelli di intelligenza artificiale sottostanti. Gli autori invitano le aziende a divulgare maggiori informazioni, come i dati e il lavoro umano utilizzati per addestrare i modelli.
Il professore di Stanford Percy Liang, uno dei ricercatori, ha dichiarato: “Negli ultimi tre anni è diventato chiaro che la trasparenza dei modelli di intelligenza artificiale sta diminuendo, mentre le loro capacità stanno aumentando. Ciò è problematico perché in altri settori, come i social media, la mancanza di trasparenza ha già avuto conseguenze indesiderate”.
I modelli di base (large Language Models, LLM) sono sistemi di intelligenza artificiale addestrati su enormi set di dati, in grado di eseguire compiti che vanno dalla scrittura alla programmazione. Questi includono, ad esempio, GPT-4 di OpenAI , Llama-2 di Meta e Google .
Sei un Esperto di Formazione?
Entra anche tu nel Partner program! Accedi alla sezione riservata ai Creator sulla nostra Academy e scopri i vantaggi riservati ai membri del Partner program.
Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Le aziende che sviluppano tali modelli sono in prima linea nello sviluppo dell’intelligenza artificiale generativa che, dal lancio di ChatGPT da parte di OpenAI con il supporto attivo di Microsoft , ha attirato l’attenzione di aziende di varie dimensioni.
L’indice ha valutato 10 modelli popolari attraverso 100 diversi parametri di trasparenza. Tutti i modelli hanno mostrato risultati “bassi”: anche il modello più trasparente, Llama 2 di Meta, ha ricevuto solo 54 punti su 100.
Mentre il modello Titan di Amazon si è classificato all’ultimo posto con 12 punti ridicoli.
Poiché il mondo fa sempre più affidamento su questi modelli per prendere decisioni, è fondamentale comprenderne i limiti e i pregiudizi, affermano gli autori dell’indice.
I ricercatori sperano inoltre che il loro rapporto incoraggi le aziende a essere più trasparenti sui loro modelli sottostanti e fornisca un punto di partenza per gli Stati che cercano modi per regolamentare questo settore in rapida crescita.
L’indice è un progetto del Centro per la ricerca sui modelli fondamentali presso lo Stanford Institute for Human-Centered Artificial Intelligence.
Secondo un nuovo rapporto del gruppo per i diritti umani Amnesty International, pubblicato dopo quasi due anni di ricerche sulla situazione, la Cambogia resta un punto caldo sulla mappa mondiale della...
Hunters International, il gruppo responsabile di uno dei più grandi attacchi ransomware degli ultimi anni, ha annunciato ufficialmente la cessazione delle sue attività. In una dichiarazione ...
I ricercatori di Okta hanno notato che aggressori sconosciuti stanno utilizzando lo strumento di intelligenza artificiale generativa v0 di Vercel per creare pagine false che imitano qu...
Google è al centro di un’imponente causa in California che si è conclusa con la decisione di pagare oltre 314 milioni di dollari agli utenti di smartphone Android nello stato. Una giu...
La RHC Conference 2025, organizzata da Red Hot Cyber, ha rappresentato un punto di riferimento per la comunità italiana della cybersecurity, offrendo un ricco programma di talk, workshop e compet...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006