
Il 20 dicembre, il nuovo sistema di intelligenza artificiale di OpenAI, o3, ha raggiunto un traguardo importante. Il modello ha ottenuto un punteggio dell’85% nel test di pensiero ARC-AGI, che è lo stesso del punteggio umano medio. Oltre a questo, eccelleva nei problemi di matematica complessi.
Fino ad ora, il miglior risultato tra sviluppi simili non ha superato il 55%. Molti ricercatori ritengono che o3 abbia compiuto un importante passo avanti verso l’intelligenza artificiale generale (AGI), anche se gli scettici dubitano ancora dell’importanza di questo risultato.
Qui è importante comprendere le caratteristiche del test ARC-AGI. L’indicatore principale in esso è “l’efficienza del campionamento”, ovvero la capacità di adattarsi alle nuove condizioni, avendo un minimo di esempi. In poche parole, il test determina quanti campioni di una nuova situazione sono necessari per comprenderne il funzionamento.
Christmas Sale -40% 𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀
Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
I modelli linguistici moderni come ChatGPT basati su GPT-4 non possono vantare un’elevata efficienza di campionamento. Durante l’allenamento, esaminano milioni di frammenti di testi umani e, sulla base di essi, ricavano le combinazioni di parole più probabili. Questo metodo aiuta a far fronte alle attività tipiche, ma fallisce in situazioni non standard, semplicemente perché non ci sono abbastanza esempi simili nel database.
Per ora, l’intelligenza artificiale può essere utilizzata solo dove i compiti vengono ripetuti o dove gli errori casuali non portano a conseguenze gravi. Il problema principale è che i modelli non sanno come apprendere rapidamente e adattarsi alle nuove circostanze.
La capacità di trovare soluzioni corrette a problemi non familiari sulla base di un insieme limitato di informazioni è chiamata generalizzazione da parte degli scienziati. Nella comunità scientifica questo tratto è considerato un segno necessario e fondamentale dell’intelligenza. L’ARC-AGI consiste in problemi a griglia di quadrati simili ai test del QI scolastico. Sullo schermo appaiono due immagini: lo schema iniziale e un esempio dello stato a cui dovrebbe arrivare dopo determinate manipolazioni. Il programma deve comprendere il modello di trasformazione dello stato iniziale nello stato finale.
Ogni attività viene fornita con tre esempi didattici. Dopo averli studiati, l’algoritmo deve derivare le regole e applicarle nella pratica. Questo approccio consente di verificare la rapidità con cui avviene l’adattamento.
Quando si ricercano modelli, è importante non fare supposizioni inutili o entrare in dettagli non necessari. In teoria, se si riescono a trovare le regole più semplici che siano sufficienti per una soluzione, il programma sarà in grado di adattarsi meglio alle nuove situazioni.
Le “regole semplici” di solito possono essere descritte con frasi brevi. Ad esempio, in un problema con una griglia di quadrati, la regola potrebbe essere: “La figura con la linea sporgente si sposterà fino alla fine di questa linea e coprirà tutte le figure sul suo percorso”.
Il modo esatto in cui funziona o3 è ancora sconosciuto, ma è improbabile che le sia stato specificamente insegnato a cercare “regole semplici”. OpenAI ha preso come base una versione generica del modello in grado di riflettere più a lungo su questioni complesse, quindi l’ha addestrata ulteriormente per superare il test ARC-AGI.
Il ricercatore francese sull’intelligenza artificiale Francois Chollet, che ha creato il test, suggerisce che o3 itera attraverso diverse “catene di ragionamento”, ovvero sequenze di passaggi per raggiungere un obiettivo. Quindi l’opzione migliore viene selezionata in base a determinati suggerimenti sulle regole.
Tuttavia, è troppo presto per dire quanto questo ci avvicini alla creazione dell’AGI. I meccanismi di base per lavorare con la lingua potrebbero rimanere gli stessi, solo che ora sono adattati in modo più efficace per risolvere un tipo specifico di problema.
OpenAI mantiene segrete quasi tutte le informazioni sul suo sviluppo. L’azienda si è limitata ad alcune presentazioni mediatiche e ha permesso che o3 venisse testato solo da alcuni ricercatori, laboratori e organizzazioni che lavorano sulla sicurezza dell’IA.
Seguici su Google News, LinkedIn, Facebook e Instagram per ricevere aggiornamenti quotidiani sulla sicurezza informatica. Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.


Le estensioni del browser sono da tempo un modo comune per velocizzare il lavoro e aggiungere funzionalità utili, ma un altro caso dimostra con quanta facilità questo comodo strumento possa trasform...

Una nuova versione, la 8.8.9, del noto editor di testo Notepad++, è stata distribuita dagli sviluppatori, risolvendo una criticità nel sistema di aggiornamento automatico. Questo problema è venuto ...

Questa non è la classica violazione fatta di password rubate e carte di credito clonate.È qualcosa di molto più delicato. Il data breach che ha coinvolto Pornhub nel dicembre 2025 rappresenta uno d...

Un recente studio condotto da SentinelLabs getta nuova luce sulle radici del gruppo di hacker noto come “Salt Typhoon“, artefice di una delle più audaci operazioni di spionaggio degli ultimi diec...

Con l’espansione dell’Internet of Things (IoT), il numero di dispositivi connessi alle reti wireless è in continua crescita, sia nelle case che nelle aziende . Questo scenario rende la sicurezza ...