Redazione RHC : 25 Ottobre 2023 14:29
I ricercatori della Stanford University hanno recentemente pubblicato un rapporto sull’indice chiamato Foundation Model Transparency Index, o FMTI, che misura la trasparenza dei modelli di intelligenza artificiale sottostanti. Gli autori invitano le aziende a divulgare maggiori informazioni, come i dati e il lavoro umano utilizzati per addestrare i modelli.
Il professore di Stanford Percy Liang, uno dei ricercatori, ha dichiarato: “Negli ultimi tre anni è diventato chiaro che la trasparenza dei modelli di intelligenza artificiale sta diminuendo, mentre le loro capacità stanno aumentando. Ciò è problematico perché in altri settori, come i social media, la mancanza di trasparenza ha già avuto conseguenze indesiderate”.
I modelli di base (large Language Models, LLM) sono sistemi di intelligenza artificiale addestrati su enormi set di dati, in grado di eseguire compiti che vanno dalla scrittura alla programmazione. Questi includono, ad esempio, GPT-4 di OpenAI , Llama-2 di Meta e Google .
Distribuisci i nostri corsi di formazione diventando un nostro Affiliato
Se sei un influencer, gestisci una community, un blog, un profilo social o semplicemente hai tanta voglia di diffondere cultura digitale e cybersecurity, questo è il momento perfetto per collaborare con RHC Academy. Unisciti al nostro Affiliate Program: potrai promuovere i nostri corsi online e guadagnare provvigioni ad ogni corso venduto. Fai parte del cambiamento. Diffondi conoscenza, costruisci fiducia, genera valore.
Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Le aziende che sviluppano tali modelli sono in prima linea nello sviluppo dell’intelligenza artificiale generativa che, dal lancio di ChatGPT da parte di OpenAI con il supporto attivo di Microsoft , ha attirato l’attenzione di aziende di varie dimensioni.
L’indice ha valutato 10 modelli popolari attraverso 100 diversi parametri di trasparenza. Tutti i modelli hanno mostrato risultati “bassi”: anche il modello più trasparente, Llama 2 di Meta, ha ricevuto solo 54 punti su 100.
Mentre il modello Titan di Amazon si è classificato all’ultimo posto con 12 punti ridicoli.
Poiché il mondo fa sempre più affidamento su questi modelli per prendere decisioni, è fondamentale comprenderne i limiti e i pregiudizi, affermano gli autori dell’indice.
I ricercatori sperano inoltre che il loro rapporto incoraggi le aziende a essere più trasparenti sui loro modelli sottostanti e fornisca un punto di partenza per gli Stati che cercano modi per regolamentare questo settore in rapida crescita.
L’indice è un progetto del Centro per la ricerca sui modelli fondamentali presso lo Stanford Institute for Human-Centered Artificial Intelligence.
A soli 13 anni, Dylan è diventato il più giovane ricercatore di sicurezza a collaborare con il Microsoft Security Response Center (MSRC), dimostrando come la curiosità e la perseveranza...
Secondo un nuovo rapporto del gruppo per i diritti umani Amnesty International, pubblicato dopo quasi due anni di ricerche sulla situazione, la Cambogia resta un punto caldo sulla mappa mondiale della...
Hunters International, il gruppo responsabile di uno dei più grandi attacchi ransomware degli ultimi anni, ha annunciato ufficialmente la cessazione delle sue attività. In una dichiarazione ...
I ricercatori di Okta hanno notato che aggressori sconosciuti stanno utilizzando lo strumento di intelligenza artificiale generativa v0 di Vercel per creare pagine false che imitano qu...
Google è al centro di un’imponente causa in California che si è conclusa con la decisione di pagare oltre 314 milioni di dollari agli utenti di smartphone Android nello stato. Una giu...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006