
OpenAI, uno dei principali sviluppatori di intelligenza artificiale, ha presentato un sistema a cinque livelli che verrà utilizzato per monitorare i progressi nella creazione di un’intelligenza artificiale che superi le capacità umane. Questa iniziativa mira a spiegare meglio al pubblico e agli investitori l’approccio dell’azienda alla sicurezza e al futuro dell’intelligenza artificiale.
In una riunione di tutto lo staff, OpenAI ha condiviso un nuovo sistema di classificazione che copre l’intelligenza artificiale dal livello disponibile oggi al livello al quale l’intelligenza artificiale può svolgere compiti organizzativi. Un rappresentante dell’azienda ha affermato che OpenAI è attualmente al primo livello, ma è già vicino al secondo, chiamato “Reasoners”. Questo livello comprende sistemi in grado di risolvere problemi di base al livello di una persona con un dottorato.
Nello stesso incontro, la direzione aziendale ha presentato un progetto di ricerca basato sul modello GPT-4, dimostrando nuove competenze vicine al ragionamento umano. Un rappresentante di OpenAI ha confermato che l’azienda testa costantemente nuove funzionalità dei suoi modelli.
OpenAI ha dichiarato da diversi anni il suo obiettivo di creare la cosiddetta intelligenza generale artificiale ( AGI ), ovvero computer in grado di eseguire la maggior parte dei compiti meglio degli esseri umani. Il CEO di OpenAI Sam Altman ha precedentemente affermato che l’AGI potrebbe essere raggiunta in questo decennio.
I ricercatori sull’intelligenza artificiale hanno a lungo dibattuto sui criteri per determinare il raggiungimento dell’AGI. Nel novembre 2023, i ricercatori di Google DeepMind hanno proposto un sistema a cinque livelli, inclusi livelli come “esperto” e “sovrumano”. Queste classifiche ricordano il sistema utilizzato nell’industria automobilistica per valutare il grado di automazione delle auto a guida autonoma.
Secondo il sistema di livelli sviluppato da OpenAI, il terzo livello che porta all’AGI si chiamerà “Agenti” e prevede l’intelligenza artificiale in grado di eseguire azioni per conto dell’utente per un periodo di giorni. Il quarto livello descrive l’intelligenza artificiale che può creare nuove innovazioni. Il livello più avanzato, il quinto, sarà denominato “Organizzazioni”.
Questo sistema di livellamento è stato sviluppato dal management di OpenAI e dal personale senior ed è una versione funzionante. La società prevede di raccogliere feedback da dipendenti, investitori e consiglio di amministrazione per apportare le modifiche necessarie.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cyber ItaliaPoco fa, l’Università La Sapienza intorno alle 12:28 ha confermato di essere stata vittima di un attacco informatico che ha costretto al blocco temporaneo di tutti i sistemi digitali dell’ateneo. A darne informazione è il…
CybercrimeSe vi state chiedendo quanto sia grande 31,4 terabit al secondo, la risposta pratica è: abbastanza da far sembrare “un problema di rete” quello che in realtà è un problema di ecosistema. Perché il punto…
Cyber ItaliaLa mattina di lunedì 2 febbraio si è aperta con una notizia inattesa per studenti, docenti e personale della Sapienza Università di Roma. I principali servizi digitali dell’ateneo sono risultati improvvisamente irraggiungibili, generando incertezza e…
Cyber NewsBETTI RHC è un progetto editoriale e culturale ideato da Red Hot Cyber, realtà italiana punto di riferimento nel panorama della cybersecurity e della divulgazione tecnologica. Non si tratta di un semplice fumetto, ma di…
Cyber NewsMentre il cloud è diventato il cuore dell’economia digitale, l’Unione europea si trova davanti a una scelta storica: trasformare la certificazione cloud in uno strumento di sovranità o limitarsi ad un semplice controllo tecnico. Il…