
Il 20 dicembre, il nuovo sistema di intelligenza artificiale di OpenAI, o3, ha raggiunto un traguardo importante. Il modello ha ottenuto un punteggio dell’85% nel test di pensiero ARC-AGI, che è lo stesso del punteggio umano medio. Oltre a questo, eccelleva nei problemi di matematica complessi.
Fino ad ora, il miglior risultato tra sviluppi simili non ha superato il 55%. Molti ricercatori ritengono che o3 abbia compiuto un importante passo avanti verso l’intelligenza artificiale generale (AGI), anche se gli scettici dubitano ancora dell’importanza di questo risultato.
Qui è importante comprendere le caratteristiche del test ARC-AGI. L’indicatore principale in esso è “l’efficienza del campionamento”, ovvero la capacità di adattarsi alle nuove condizioni, avendo un minimo di esempi. In poche parole, il test determina quanti campioni di una nuova situazione sono necessari per comprenderne il funzionamento.
I modelli linguistici moderni come ChatGPT basati su GPT-4 non possono vantare un’elevata efficienza di campionamento. Durante l’allenamento, esaminano milioni di frammenti di testi umani e, sulla base di essi, ricavano le combinazioni di parole più probabili. Questo metodo aiuta a far fronte alle attività tipiche, ma fallisce in situazioni non standard, semplicemente perché non ci sono abbastanza esempi simili nel database.
Per ora, l’intelligenza artificiale può essere utilizzata solo dove i compiti vengono ripetuti o dove gli errori casuali non portano a conseguenze gravi. Il problema principale è che i modelli non sanno come apprendere rapidamente e adattarsi alle nuove circostanze.
La capacità di trovare soluzioni corrette a problemi non familiari sulla base di un insieme limitato di informazioni è chiamata generalizzazione da parte degli scienziati. Nella comunità scientifica questo tratto è considerato un segno necessario e fondamentale dell’intelligenza. L’ARC-AGI consiste in problemi a griglia di quadrati simili ai test del QI scolastico. Sullo schermo appaiono due immagini: lo schema iniziale e un esempio dello stato a cui dovrebbe arrivare dopo determinate manipolazioni. Il programma deve comprendere il modello di trasformazione dello stato iniziale nello stato finale.
Ogni attività viene fornita con tre esempi didattici. Dopo averli studiati, l’algoritmo deve derivare le regole e applicarle nella pratica. Questo approccio consente di verificare la rapidità con cui avviene l’adattamento.
Quando si ricercano modelli, è importante non fare supposizioni inutili o entrare in dettagli non necessari. In teoria, se si riescono a trovare le regole più semplici che siano sufficienti per una soluzione, il programma sarà in grado di adattarsi meglio alle nuove situazioni.
Le “regole semplici” di solito possono essere descritte con frasi brevi. Ad esempio, in un problema con una griglia di quadrati, la regola potrebbe essere: “La figura con la linea sporgente si sposterà fino alla fine di questa linea e coprirà tutte le figure sul suo percorso”.
Il modo esatto in cui funziona o3 è ancora sconosciuto, ma è improbabile che le sia stato specificamente insegnato a cercare “regole semplici”. OpenAI ha preso come base una versione generica del modello in grado di riflettere più a lungo su questioni complesse, quindi l’ha addestrata ulteriormente per superare il test ARC-AGI.
Il ricercatore francese sull’intelligenza artificiale Francois Chollet, che ha creato il test, suggerisce che o3 itera attraverso diverse “catene di ragionamento”, ovvero sequenze di passaggi per raggiungere un obiettivo. Quindi l’opzione migliore viene selezionata in base a determinati suggerimenti sulle regole.
Tuttavia, è troppo presto per dire quanto questo ci avvicini alla creazione dell’AGI. I meccanismi di base per lavorare con la lingua potrebbero rimanere gli stessi, solo che ora sono adattati in modo più efficace per risolvere un tipo specifico di problema.
OpenAI mantiene segrete quasi tutte le informazioni sul suo sviluppo. L’azienda si è limitata ad alcune presentazioni mediatiche e ha permesso che o3 venisse testato solo da alcuni ricercatori, laboratori e organizzazioni che lavorano sulla sicurezza dell’IA.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cyber ItaliaIl 29 gennaio 2026, sul forum BreachForums, l’utente p0ppin ha pubblicato un annuncio di vendita relativo a un presunto accesso amministrativo non autorizzato ai sistemi interni di una “Italian Car Company”. Come spesso accade in questo tipo di annunci, nessun riferimento…
Cyber NewsIvanti ha rilasciato una serie di aggiornamenti critici per arginare due vulnerabilità di sicurezza che hanno colpito Ivanti Endpoint Manager Mobile (EPMM). Si tratta di falle sfruttate attivamente in attacchi zero-day, una criticità tale da…
CulturaAlla fine degli anni 90, Internet era ancora piccolo, lento e per pochi. In quel periodo, essere “smanettoni” significava avere una conoscenza tecnica che sembrava quasi magia agli occhi degli altri. Non era raro che…
CulturaCerte volte, pensandoci bene, uno si chiede come facciamo a dare per scontato il mondo che ci circonda. Tipo, clicchiamo, scorriamo, digitiamo, e tutto sembra così naturale, quasi fosse sempre stato qui. E invece no,…
InnovazioneL’intelligenza artificiale è entrata nel lavoro senza bussare. Non come una rivoluzione urlata, ma come una presenza costante, quasi banale a forza di ripetersi. Ha cambiato il modo in cui le persone lavorano, sì, ma…