OpenAI ha annunciato l’espansione del suo programma Trusted Access for Cyber e ha introdotto GPT-5.4-Cyber, una nuova versione del modello per le attività di cyber-difesa. Secondo lo sviluppatore, il programma TAC ora includerà migliaia di specialisti verificati e centinaia di team responsabili della protezione dei software critici.
GPT-5.4-Cyber è stato sviluppato a partire da GPT-5.4, ma ulteriormente perfezionato per gestire al meglio scenari di sicurezza informatica reali. Il modello presenta ora un tasso di errore inferiore per le attività di sicurezza e nuove funzionalità per flussi di lavoro complessi. Esempi chiave includono il reverse engineering binario e l’analisi del software compilato senza accesso al codice sorgente. Questa modalità consente di rilevare attività dannose e vulnerabilità, nonché di valutare la resilienza del software da una prospettiva di sicurezza.
OpenAI giustifica la sua decisione con il fatto che l’intelligenza artificiale viene sempre più utilizzata sia dai difensori che dagli attaccanti. Secondo lo sviluppatore, i modelli moderni aiutano già a individuare rapidamente le vulnerabilità, analizzare grandi basi di codice ed eseguire una parte significativa delle attività di sicurezza informatica.
Allo stesso tempo, anche gli attaccanti stanno sperimentando nuovi approcci, quindi l’azienda ritiene che le misure di difesa debbano evolversi di pari passo con le crescenti capacità dei modelli stessi.
L’accesso a GPT-5.4-Cyber sarà garantito tramite il programma Trusted Access for Cyber (TAC), lanciato da OpenAI a febbraio. Questo programma offrirà ora ulteriori livelli di accesso per gli utenti disposti a dimostrare le proprie credenziali in materia di sicurezza informatica. Ai livelli più elevati, i partecipanti potranno richiedere l’accesso a GPT-5.4-Cyber.
L’implementazione del nuovo modello sarà limitata e graduale. Inizialmente, l’accesso sarà consentito solo a fornitori, organizzazioni e ricercatori nel campo della sicurezza, purché qualificati. I modelli più permissivi e specifici per la sicurezza informatica potrebbero essere soggetti a ulteriori restrizioni, in particolare in scenari a bassa visibilità, tra cui la conservazione di dati pari a zero e le piattaforme di terze parti in cui OpenAI dispone di meno dati sull’utente, sull’ambiente e sullo scopo della richiesta.
Gli utenti individuali possono verificare la propria identità su chatgpt.com/cyber. I clienti aziendali possono richiedere l’accesso al team tramite un rappresentante OpenAI. I partecipanti approvati avranno accesso a versioni di modelli esistenti con meno restrizioni per attività di training, programmazione difensiva e ricerca responsabile delle vulnerabilità. Gli utenti già inclusi nel TAC e disposti a sottoporsi a un’ulteriore autenticazione come difensori legittimi possono richiedere livelli di accesso superiori, incluso GPT-5.4-Cyber.
OpenAI stima che l’attuale insieme di meccanismi di sicurezza mitighi i rischi informatici in misura sufficiente per la diffusione su larga scala dei modelli attuali. I sistemi futuri, più potenti, richiederanno inevitabilmente misure di sicurezza più estese.
Carolina Vivianti è consulente/Advisor autonomo in sicurezza informatica con esperienza nel settore tech e security. Ha lavorato come Security Advisor per Ford EU/Ford Motor Company e Vodafone e ha studi presso la Sapienza Università di Roma.
Aree di competenza: Cybersecurity, IT Risk Management, Security Advisory, Threat Analysis, Data Protection, Cloud Security, Compliance & Governance