Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità
I ricercatori di Microsoft AI espongono accidentalmente 38TB di dati nel cloud Azure

I ricercatori di Microsoft AI espongono accidentalmente 38TB di dati nel cloud Azure

19 Settembre 2023 07:44

La divisione di ricerca sull’intelligenza artificiale di Microsoft ha fatto trapelare accidentalmente dozzine di terabyte di dati sensibili a partire da luglio 2020 mentre contribuiva allo sviluppo di modelli di apprendimento su un repository GitHub pubblico.

Quasi tre anni dopo tutto questo è stato scoperto dalla società di sicurezza cloud Wiz, la quale ha riportato che un dipendente Microsoft aveva inavvertitamente condiviso l’URL di un bucket di archiviazione BLOB di Azure configurato in modo errato contenente le informazioni trapelate.

Advertising
Contenitori esposti nell’account di archiviazione “robustnessws4285631339” (fonte wiz.io)

Microsoft ha collegato l’esposizione dei dati all’utilizzo di un token SAS (Shared Access Signature) eccessivamente permissivo, che consentiva il pieno controllo sui file condivisi. Questa funzionalità di Azure consente la condivisione dei dati in un modo descritto dai ricercatori Wiz come difficile da monitorare e revocare.

Se utilizzati correttamente, i token di firma di accesso condiviso (SAS) offrono un mezzo sicuro per concedere l’accesso delegato alle risorse all’interno dell’account di archiviazione. Ciò include un controllo preciso sull’accesso ai dati del cliente, specificando le risorse con cui può interagire, definendo le autorizzazioni relative a tali risorse e determinando la durata della validità del token SAS.

“A causa della mancanza di monitoraggio e governance, i token SAS rappresentano un rischio per la sicurezza e il loro utilizzo dovrebbe essere il più limitato possibile. Questi token sono molto difficili da tracciare, poiché Microsoft non fornisce un modo centralizzato per gestirli all’interno del portale di Azure”ha avvertito Wiz recentemente ed inoltre ha aggiunto:

“Inoltre, questi token possono essere configurati per durare effettivamente per sempre, senza alcun limite massimo alla loro scadenza. Pertanto, l’utilizzo dei token Account SAS per la condivisione esterna non è sicuro e dovrebbe essere evitato”.

Il Wiz Research Team ha scoperto che oltre ai modelli open source, l’account di archiviazione interno consentiva anche inavvertitamente l’accesso a 38 TB di dati privati ​​aggiuntivi.

I dati esposti includevano backup di informazioni personali appartenenti ai dipendenti Microsoft, comprese password per i servizi Microsoft, chiavi segrete e un archivio di oltre 30.000 messaggi interni di Microsoft Teams provenienti da 359 dipendenti Microsoft.

In un avviso di lunedì del team Microsoft Security Response Center (MSRC),  Microsoft ha affermato  che nessun dato dei clienti è stato esposto e che nessun altro servizio interno è stato messo a repentaglio a causa di questo incidente.



Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cropped RHC 3d Transp2 1766828557 300x300
La Redazione di Red Hot Cyber fornisce aggiornamenti quotidiani su bug, data breach e minacce globali. Ogni contenuto è validato dalla nostra community di esperti come Pietro Melillo, Massimiliano Brolli, Sandro Sana, Olivia Terragni e Stefano Gazzella. Grazie alla sinergia con i nostri Partner leader nel settore (tra cui Accenture, CrowdStrike, Trend Micro e Fortinet), trasformiamo la complessità tecnica in consapevolezza collettiva, garantendo un'informazione accurata basata sull'analisi di fonti primarie e su una rigorosa peer-review tecnica.