
OpenAI ha lanciato il suo nuovo modello di punta e il messaggio è chiaro: affidabilità, potenza e un cambio radicale nel modo in cui interagiamo con l’intelligenza artificiale. Dopo anni in cui i modelli linguistici erano visti come strumenti sperimentali, GPT-5 segna il passaggio definitivo dal prototipo alla produzione.
Uno dei punti di forza è il sistema unificato con “smart router”: non serve più scegliere manualmente quale modello usare. GPT-5 analizza la richiesta e decide autonomamente se fornire una risposta rapida o attivare una modalità di calcolo più complessa per problemi impegnativi. Un’unica interfaccia, potenza su richiesta.
Sul fronte dell’affidabilità, i progressi sono notevoli. OpenAI dichiara una riduzione delle allucinazioni compresa tra il 45% e l’80% rispetto ai modelli precedenti, frutto di un lavoro ingegneristico mirato. È un passo cruciale per rendere l’IA uno strumento di lavoro concreto, sicuro e prevedibile.
Le prestazioni sui compiti chiave confermano il salto di qualità: nel coding GPT-5 raggiunge il 74,9% su SWE-bench, posizionandosi ai vertici per l’ingegneria del software; nel ragionamento scientifico registra progressi significativi in matematica (AIME), scienze (GPQA) e percezione multimodale; nella scrittura dimostra una gestione superiore di struttura, ritmo e metafora, andando ben oltre la semplice correttezza grammaticale.
Infine, accesso e costi: GPT-5 è già disponibile in ChatGPT (sostituendo GPT-4o) e via API in vari formati (-5, mini, nano) con contesto di 256k in input e 128k in output. Le tariffe, fino a 10$ per milione di token in output e 1,25$ per milione in input, sono estremamente competitive, in linea con modelli come Google Gemini 2.5. Ma la vera svolta non è solo la potenza: è la fiducia. L’era dei giocattoli è finita – questa IA è progettata per lavorare.
OpenAI ha presentato GPT-5 come un modello infrastrutturale: affidabile, potente e progettato per usi professionali. Ora aggiungiamo un aspetto sorprendente: il suo sviluppo avrebbe richiesto un investimento miliardario e un’infrastruttura hardware mai vista prima, confermando che non si tratta più di un prototipo, ma di un’impresa a tutti gli effetti.
GPT-4, si stima, è costato circa 63 milioni di dollari per l’addestramento, utilizzando 25 000 GPU Nvidia A100 per 90-100 giorni. In confronto, le stime per GPT-5 parlano di un costo compreso tra 1,25 e 2,5 miliardi di dollari e un’infrastruttura con 250 000-500 000 GPU Nvidia H100 dedicate. In alternativa, secondo altri calcoli basati su stime di mercato (parametri di 8,8-15 trilioni e durate di training attorno ai 150 giorni), servirebbero fra 150 000 e 260 000 GPU H100, per una spesa hardware tra 3,7 e 6,6 miliardi di dollari solo per l’acquisto delle schede.
Mentre i dettagli ufficiali sul conteggio dei parametri di GPT-4 non sono stati resi pubblici, fonti stimano che possa raggiungere 1,8 trilioni di parametri. Invece GPT-5 viene proiettato tra 8,8 e 15 trilioni di parametri, cioè circa 5-8 volte più grande del suo predecessore.
L’infrastruttura necessaria non è solo costosa, ma anche logisticamente impegnativa: centinaia di migliaia di GPU H100 rappresentano una richiesta massiccia sia a livello energetico che di spazio fisico. Se GPT-4 aveva già segnato una svolta nell’uso delle risorse, GPT-5 la spinge a livelli quasi industriali, incarnando di fatto il passaggio definitivo dall’esperimento all’infrastruttura AI.
Da un punto di vista pratico, GPT-5 promette potenza e affidabilità ben superiori rispetto a GPT-4. Tuttavia, il conto economico elevato e l’enorme fabbisogno hardware spostano il baricentro: non siamo più nell’ambito della sperimentazione, ma in una nuova era in cui l’IA è infrastruttura – costosa, capillare, e pronta a servire per applicazioni mission-critical. L’era dei giocattoli è finita: l’IA adesso è progettata per il lavoro.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cyber NewsL’Italia è finita ancora una volta nel mirino del collettivo hacktivista filorusso NoName057(16). Dopo i pesanti disservizi che hanno colpito l‘Università La Sapienza e le Gallerie degli Uffizi all’inizio di questa settimana. L’offensiva digitale russa…
Cyber NewsSecondo quanto riportato dal Corriere della Sera, l’attacco informatico che ha paralizzato i sistemi dell’Università La Sapienza non sarebbe motivato da fini politici. Gli hacker avrebbero inviato messaggi di rivendicazione spiegando di non agire per…
CybercrimeNella cyber security, spesso ci si concentra sulla ricerca di complessi bug nel codice sorgente, ignorando che la fiducia dell’utente finale passa per un elemento molto più semplice: un link di download. L’incidente che ha…
Cyber NewsNella giornata di lunedì mattina, un grave incidente informatico ha colpito l’Università La Sapienza di Roma, mettendo fuori uso una parte rilevante dell’infrastruttura digitale dell’ateneo. L’attacco ha avuto effetti immediati sulla didattica e sui servizi…
InnovazioneL’evoluzione delle piattaforme digitali ha raggiunto un punto di rottura dove la presenza umana non è più richiesta per alimentare il dibattito. Moltbook emerge come un esperimento sociale senza precedenti, un ecosistema dove milioni di…