Redazione RHC : 6 Febbraio 2025 16:58
Un utente del forum underground BreachForums, con il nickname emirking, ha recentemente pubblicato un thread allarmante, sostenendo di avere accesso a oltre 20 milioni di codici di accesso per gli account di OpenAI.
L’annuncio, scritto in russo, suggerisce che i codici potrebbero essere stati ottenuti attraverso una violazione di sicurezza o una massiccia operazione di scraping. Se confermata, questa fuga di dati rappresenterebbe una delle più grandi esposizioni di credenziali legate all’intelligenza artificiale fino ad oggi.
Nel post, l’autore fa riferimento al fatto che OpenAI potrebbe dover verificare gli account in blocco, suggerendo implicitamente che i codici di accesso potrebbero essere usati per aggirare i sistemi di autenticazione della piattaforma. L’utente fornisce anche un esempio di un dominio legato all’autenticazione di OpenAI (auth0.openai.com), accompagnato da una lista di codici oscurati, probabilmente per dimostrare la validità dell’attacco senza rivelare informazioni sensibili a chiunque visiti il forum.
Sei un Esperto di Formazione?
Entra anche tu nel Partner program! Accedi alla sezione riservata ai Creator sulla nostra Academy e scopri i vantaggi riservati ai membri del Partner program.
Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
L’account di emirking risulta relativamente nuovo, con solo due post e due thread pubblicati, essendosi unito a gennaio 2025. Ciò solleva dubbi sulla sua affidabilità, ma il fatto che la vendita venga proposta su un forum noto per la condivisione di dati compromessi suggerisce che potrebbe esserci un fondo di verità dietro questa dichiarazione.
Se i 20 milioni di codici di accesso fossero effettivamente validi, le conseguenze potrebbero essere devastanti. OpenAI gestisce non solo ChatGPT, ma anche API avanzate utilizzate da aziende e sviluppatori di tutto il mondo. L’accesso non autorizzato a questi account potrebbe portare a:
Al momento, non è chiaro come siano stati ottenuti questi codici. Alcune ipotesi plausibili includono:
Negli ultimi mesi, con l’ingresso nell’arena delle soluzioni LLM di nuovi attori come DeepSeek, si è intensificata una guerra sotterranea fatta di attacchi informatici e campagne di screditamento reciproco. Abbiamo già visto come DeepSeek sia stato colpito da attacchi DDoS mirati, sferrati attraverso botnet da coalizioni internazionali con l’obiettivo di renderlo irraggiungibile. Oggi, invece, emerge un’operazione che mira a mettere in discussione la sicurezza di OpenAI e del suo ChatGPT, con la pubblicazione su BreachForums della presunta violazione di 20 milioni di codici di accesso.
Queste attività non si limitano all’azione di gruppi criminali mossi dal profitto, ma potrebbero anche essere orchestrate a livello statale. Le nazioni che competono per il predominio tecnologico potrebbero sostenere operazioni offensive contro le infrastrutture AI rivali, servendosi di gruppi di hacker specializzati in disinformazione e sabotaggio. L’obiettivo? Minare la fiducia nelle piattaforme concorrenti e rafforzare la posizione del proprio ecosistema tecnologico.
La posta in gioco è altissima: il settore dell’intelligenza artificiale vale miliardi di euro e il predominio di una tecnologia sull’altra potrebbe destabilizzare aziende, investitori e fornitori che fino ad oggi hanno operato in un ecosistema relativamente stabile. Se OpenAI o DeepSeek dovessero perdere credibilità a causa di attacchi o fughe di dati, le ripercussioni si rifletterebbero non solo sugli utenti, ma su intere catene di approvvigionamento tecnologico.
Non è un caso che, parallelamente agli attacchi, si stia assistendo a una crescita esponenziale delle campagne di propaganda mirate a esaltare o denigrare le performance dei modelli AI concorrenti. Dai forum underground alle piattaforme social, emergono narrazioni polarizzate che cercano di indirizzare l’opinione pubblica e spostare il mercato verso una direzione precisa.
In questo scenario, diventa cruciale distinguere tra attacchi autentici e operazioni di manipolazione. La battaglia per il controllo dell’intelligenza artificiale non si gioca solo sul piano dell’innovazione, ma anche su quello della cyberwarfare e della percezione pubblica. OpenAI, DeepSeek e altri protagonisti del settore dovranno quindi non solo rafforzare la sicurezza dei loro sistemi, ma anche gestire in modo strategico la propria immagine e credibilità nel lungo termine.
I ricercatori di Okta hanno notato che aggressori sconosciuti stanno utilizzando lo strumento di intelligenza artificiale generativa v0 di Vercel per creare pagine false che imitano qu...
Google è al centro di un’imponente causa in California che si è conclusa con la decisione di pagare oltre 314 milioni di dollari agli utenti di smartphone Android nello stato. Una giu...
La RHC Conference 2025, organizzata da Red Hot Cyber, ha rappresentato un punto di riferimento per la comunità italiana della cybersecurity, offrendo un ricco programma di talk, workshop e compet...
Nella giornata di ieri, Red Hot Cyber ha pubblicato un approfondimento su una grave vulnerabilità scoperta in SUDO (CVE-2025-32463), che consente l’escalation dei privilegi a root in ambie...
Il Dipartimento di Giustizia degli Stati Uniti ha annunciato la scoperta di un sistema su larga scala in cui falsi specialisti IT provenienti dalla RPDC i quali ottenevano lavoro presso aziende americ...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006