Sembra che la corsa all’intelligenza artificiale abbia raggiunto un nuovo livello: le aziende non si affrettano più a condividere le loro innovazioni più potenti. OpenAI sta infatti sviluppando un prodotto con funzionalità avanzate per la sicurezza informatica, ma solo un gruppo selezionato di partner potrà accedervi.
Secondo una fonte che è a conoscenza della situazione, l’azienda sta finalizzando uno strumento in grado di fare molto di più rispetto ai modelli standard. Questo strumento include non solo il rilevamento delle vulnerabilità, ma anche attività più complesse legate all’analisi dei sistemi e a potenziali attacchi informatici. Per questo motivo, lo sviluppatore ha deciso di non rilasciare il prodotto pubblicamente.
Anche Anthropic ha adottato un approccio simile. L’azienda ha recentemente annunciato che limiterà l’accesso al suo nuovo modello Mythos Preview a determinate aziende del settore tecnologico e della sicurezza informatica. La motivazione è la stessa: forti timori relativi al potenziale rischio di utilizzo malevolo da parte di malintenzionati.
OpenAI ha iniziato a muoversi in questa direzione già a febbraio, con il lancio del programma chiuso Trusted Access for Cyber, a seguito del rilascio del modello GPT-5.3-Codex. I partecipanti al programma ottengono l’accesso a versioni più potenti dei modelli, che li supportano nelle attività di sicurezza. L’azienda ha stanziato 10 milioni di dollari in crediti API a supporto dei partecipanti.
Le preoccupazioni relative a tali tecnologie sono aumentate nel corso dell’ultimo anno. Ex funzionari e membri delle forze di sicurezza avevano avvertito che, se utilizzati in modo improprio, questi modelli potrebbero interrompere le forniture idriche, le reti elettriche o i sistemi finanziari. Ora, sembra che tali capacità siano già emerse.
Tuttavia, non sarà possibile frenare a lungo la diffusione della tecnologia. Gli esperti osservano che i modelli moderni sono già in grado di analizzare il codice, identificare le debolezze e scansionare i programmi legacy alla ricerca di vulnerabilità. Anche se le grandi aziende limitassero l’accesso, funzionalità simili compariranno presto in altri sistemi.
La situazione ricorda il dibattito di lunga data nel campo della sicurezza informatica sul modo corretto di divulgare le vulnerabilità : tutto in una volta o gradualmente. Il lancio limitato di nuovi modelli sembra essere un tentativo di applicare lo stesso approccio all’intelligenza artificiale. Tuttavia, il nuovo prodotto di OpenAI è diverso. Non è correlato al modello Spud, di cui l’azienda ha già parlato, e non è ancora chiaro quali funzionalità avrà o come verrà distribuito.
È interessante notare che, anche senza nuovi sviluppi, alcune di queste funzionalità sono già disponibili. I modelli open-source esistenti sono in grado di rilevare alcune vulnerabilità e exploit precedentemente associati a Mythos. Ciò significa che la tecnologia è già uscita dai laboratori e non si può tornare indietro.
La Redazione di Red Hot Cyber fornisce aggiornamenti quotidiani su
bug,
data breach e
minacce globali. Ogni contenuto è validato dalla nostra community di esperti come
Pietro Melillo,
Massimiliano Brolli,
Sandro Sana,
Olivia Terragni e
Stefano Gazzella.
Grazie alla sinergia con i nostri
Partner leader nel settore (tra cui
Accenture,
CrowdStrike,
Trend Micro e
Fortinet), trasformiamo la complessità tecnica in consapevolezza collettiva, garantendo un'informazione accurata basata sull'analisi di fonti primarie e su una rigorosa
peer-review tecnica.