
Secondo il giornalista investigativo Brian Krebs, un dipendente di xAI ha pubblicato accidentalmente una chiave privata su GitHub. Per due mesi, la chiave è rimasta disponibile, consentendo a chiunque di interrogare modelli linguistici di grandi dimensioni (LLM) privati che sembrano essere stati creati appositamente per gestire dati interni delle aziende di Elon Musk, tra cui SpaceX, Tesla e X.
La fuga di notizie è stata notata e resa pubblica per la prima volta dallo specialista di Seralys Philippe Caturegli, che ha scoperto che un dipendente di xAI aveva pubblicato accidentalmente la chiave API di x.ai su GitHub.
Il messaggio ha attirato l’attenzione dei ricercatori di GitGuardian, un’azienda specializzata nel rilevamento e nella riparazione di fughe di notizie segrete in ambienti pubblici e proprietari. Ad esempio, i sistemi GitGuardian analizzano costantemente GitHub e altri repository alla ricerca di divulgazioni di chiavi API e inviano avvisi automatici alle vittime.
Eric Fourrier di GitGuardian ha detto a Krebs che la chiave API trapelata, ha dato accesso a diversi modelli privati del chatbot Grok. In totale, GitGuardian ha scoperto che la chiave forniva l’accesso ad almeno 60 LLM personalizzati e privati.
“Le credenziali potrebbero essere state utilizzate per accedere all’API X.ai con l’identità dell’utente”, riporta GitGuardian. “L’account associato aveva accesso non solo ai modelli Grok pubblici (grok-2-1212, ecc.), ma anche a quelli non ancora rilasciati (grok-2.5V), in fase di sviluppo (research-grok-2p5v-1018) e privati (tweet-rejector, grok-spacex-2024-11-04).”
Fourie ha affermato che GitGuardian aveva avvisato un dipendente di xAI della fuga di notizie sulla chiave API quasi due mesi fa, il 2 marzo 2025. Tuttavia, al 30 aprile 2025, quando l’azienda ha informato direttamente il team di sicurezza di xAI della divulgazione della chiave, questa era ancora valida e utilizzabile. xAI ha incoraggiato i ricercatori a segnalare il problema tramite il programma bug bounty su HackerOne, ma nel giro di poche ore il repository con la chiave esposta è stato rimosso da GitHub.
“Sembra che alcuni di questi LLM interni siano stati addestrati sui dati di SpaceX e altri sui dati di Tesla”, afferma Fourrier. “Non credo che il modello Grok, basato sui dati di SpaceX, fosse destinato all’accesso pubblico.”
Gli esperti scrivono che l’accesso gratuito agli LLM privati potrebbe trasformarsi in un vero disastro. Dopotutto, un aggressore che ottiene l’accesso diretto al backend di un modello come Grok può utilizzarlo per attacchi successivi. Ad esempio, un hacker potrebbe utilizzare l’accesso ottenuto per eseguire iniezioni rapide, modificare i parametri del modello per i propri scopi o tentare di iniettare codice nella catena di fornitura.
I rappresentanti di xAI non hanno risposto alla richiesta di commento di Brian Krebs. Anche il tecnico 28enne di xAI che ha fatto trapelare la chiave non ha risposto al giornalista.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

InnovazioneL’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…
CybercrimeNegli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…
VulnerabilitàNegli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…
InnovazioneArticolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…
Cyber ItaliaNegli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…