Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità
Microsoft project Silca

Project Silica: 4,8 TB di dati in una lastra di 12cm di vetro per una durata di 10.000 anni

20 Marzo 2026 07:03

Per anni abbiamo raccontato lo storage come se fosse una gara di velocità. Più IOPS, più throughput, più cloud, più replica, più efficienza. Tutto corretto, per carità. Ma c’è un punto che il mercato ha spesso trattato come un fastidioso dettaglio tecnico e non per quello che è davvero: un problema strutturale.

I dati, nel tempo, marciscono.

Cambiano i supporti, cambiano i vendor, cambiano i data center, cambiano le interfacce e cambia persino il linguaggio con cui li gestiamo, ma la sostanza resta sempre la stessa: conservare informazioni per decenni è difficile, costoso e soprattutto innaturalmente fragile. Gli hard disk si degradano, i nastri vanno migrati, i formati evolvono, il cloud non è immortale e nemmeno economico quando l’orizzonte temporale smette di essere di tre anni e comincia a diventare di trenta, cinquanta o cento.

Advertising

Ed è qui che Project Silica di Microsoft smette di sembrare una curiosità da laboratorio e inizia a diventare qualcosa di molto più serio.

L’idea, detta in modo brutale, è questa: scrivere i dati dentro il vetro.

Non sopra. Dentro.

Microsoft Research lavora da anni su una tecnologia di archiviazione a lunghissimo termine basata su vetro e scrittura tramite laser a femtosecondi, cioè impulsi ultrarapidi capaci di modificare la struttura interna del materiale. Il dato non viene inciso come accade in un supporto ottico tradizionale, ma codificato in microstrutture tridimensionali all’interno del vetro stesso. Queste strutture vengono poi lette con sistemi ottici e algoritmi di decodifica dedicati.

Il punto interessante non è la stranezza della tecnologia. Il punto interessante è ciò che promette di eliminare.

Project Silica nasce infatti per un problema che nel mondo enterprise conosciamo molto bene ma che spesso fingiamo di non vedere: l’archiviazione a lungo termine non è realmente sostenibile con i modelli tradizionali. Se un’organizzazione deve mantenere dati per decenni, oggi paga il prezzo della continua manutenzione del supporto, della migrazione periodica, del refresh tecnologico, dei consumi energetici, della ridondanza e della dipendenza da infrastrutture che devono restare vive anche quando i dati, in realtà, dormono.

Il vetro ribalta questa logica.

Una volta scritto, il supporto non richiede alimentazione per conservare il contenuto. Non ha bisogno di essere tenuto acceso. Non ha bisogno di refresh periodico per evitare il decadimento magnetico. Non teme campi elettromagnetici. Non soffre il concetto stesso di bit rot nel modo in cui lo soffrono i supporti convenzionali. Ed è proprio qui che la faccenda diventa interessante anche per chi, come noi, guarda la tecnologia non con gli occhi del giocattolo nuovo ma con quelli della resilienza, del rischio e della governance.

Microsoft parla apertamente di una prospettiva di conservazione dell’ordine delle migliaia di anni, e i progressi più recenti hanno rafforzato un elemento cruciale: il passaggio da materiali più costosi a vetri borosilicati più comuni, con tecniche di scrittura e lettura rese meno complesse rispetto alle prime fasi del progetto. Questo dettaglio è fondamentale perché segna il confine tra la demo elegante e la tecnologia potenzialmente industrializzabile. Finché una soluzione vive soltanto nella teca del laboratorio, è interessante. Quando comincia a usare materiali più accessibili, semplifica i lettori, accelera la scrittura parallela e inizia a ragionare da sistema di produzione, allora merita attenzione vera.

Sia chiaro però: non stiamo parlando del futuro del backup quotidiano. E qui conviene tagliare subito le ali all’entusiasmo da brochure.

Project Silica non è pensato per sostituire lo storage operativo, non è il candidato ideale per workload dinamici, non è il nuovo SSD e non è nemmeno il nuovo nastro in senso stretto. È una tecnologia “write once, read many”, quindi una logica di archiviazione immutabile. Scrivi, conservi, rileggi quando serve. Non aggiorni di continuo, non usi quel supporto come area di lavoro, non ci fai sopra la vita quotidiana dell’infrastruttura. Sarebbe come voler usare una cassaforte blindata come portafoglio: tecnicamente custodisce bene, operativamente è una pessima idea.

Dove ha senso allora?

Ha senso in tutti quei contesti in cui il valore del dato cresce con il tempo invece di diminuire. Archivi normativi, documentazione legale, dati scientifici, memoria storica, conservazione culturale, evidenze forensi, registrazioni che devono restare integre, archivi sanitari, dataset strategici, informazioni che devono essere conservate in modo immutabile e con un orizzonte che va ben oltre il ciclo di vita delle piattaforme IT che conosciamo oggi.

In altre parole, non storage operativo ma memoria permanente.

Ed è un concetto molto più profondo di quanto sembri.

Perché oggi il settore parla continuamente di resilienza cyber, di continuità operativa, di protezione dal ransomware, di sovranità digitale, di supply chain, di incident response. Tutto giusto. Ma quasi sempre lo fa ragionando all’interno di un perimetro temporale relativamente corto: giorni, mesi, qualche anno. Project Silica costringe invece a guardare il dato come oggetto fisico destinato a sopravvivere non solo ai guasti, ma alle generazioni tecnologiche.

Questo cambia la prospettiva.

Un dato conservato su vetro non è semplicemente “archiviato”. È sottratto a una parte della fragilità sistemica che accompagna l’infrastruttura moderna. Non dipende da un rack acceso ventiquattr’ore su ventiquattro. Non dipende dalla salute di un controller. Non dipende da catene di fornitura iper-fragili. Non dipende dal rinnovo continuo dei supporti. E, dettaglio tutt’altro che secondario, non è riscrivibile per errore durante la lettura. Microsoft insiste molto su questo aspetto: la lettura avviene con luce ordinaria e non con energia sufficiente a modificare il contenuto. In pratica il supporto, per sua natura, separa in modo netto il momento della scrittura da quello della consultazione.

Per chi lavora nella sicurezza questo apre una riflessione persino più interessante del lato tecnologico puro: il vetro introduce una forma di air gap fisico e logico molto più radicale di tante architetture che oggi chiamiamo resilienti solo perché hanno un po’ di segmentazione e una copia offline ogni tanto controllata male.

Detto questo, sarebbe intellettualmente disonesto raccontarla come la soluzione perfetta. Non lo è.

Il vero nodo, infatti, non è soltanto se il vetro dura diecimila anni. Il vero nodo è: chi e come leggerà quel dato nel futuro?

Perché un supporto può anche sopravvivere ai secoli, ma se l’ecosistema di lettura, interpretazione e decodifica si perde, ci ritroviamo con un oggetto meravigliosamente integro e sostanzialmente muto. Questo è il punto che in tanti sorvolano quando si innamorano della narrativa dell’eternità tecnologica. Nessun dato è davvero conservato se non esiste anche una catena di intelligibilità futura. Serve quindi pensare non solo al media, ma anche al contesto di lettura, agli standard, alla documentazione del formato, ai meccanismi per tramandare il modo in cui quel contenuto va recuperato.

In sostanza, il problema non è più soltanto preservare i bit. È preservare la possibilità di dare ancora senso a quei bit.

Ed è qui che Project Silica si sposta dal piano dell’innovazione a quello quasi filosofico, oltre che strategico. Perché ci obbliga a porci una domanda che il settore IT ha sempre rimandato: stiamo costruendo sistemi per usare i dati o sistemi per farli sopravvivere?

Le due cose non coincidono.

Il cloud moderno è straordinario per disponibilità, scalabilità e flessibilità. Ma non è nato per essere una biblioteca della civiltà. È nato per far girare servizi. Il vetro, invece, non ti serve a far girare servizi. Ti serve a non perdere la memoria quando i servizi non esisteranno più nella forma in cui li immaginiamo oggi.

Ecco perché questa tecnologia, anche se non entrerà domani nei data center di tutti, merita attenzione immediata. Non perché cambierà il backup del prossimo trimestre, ma perché anticipa una nuova fase nella storia dell’archiviazione: quella in cui l’obiettivo non è più solo custodire dati a costi accettabili, ma rendere il dato meno dipendente dall’instabilità del resto del sistema.

Per chi si occupa di cybersecurity c’è poi un altro aspetto non banale. In un mondo in cui ransomware, sabotaggi, attacchi alla supply chain e tensioni geopolitiche rendono sempre più fragile l’infrastruttura digitale, la possibilità di avere archivi fisicamente stabili, passivi, immutabili e non esposti ai meccanismi classici della compromissione informatica cambia il modo stesso in cui ragioniamo sulla protezione di alcune classi di informazioni. Non tutte, ovviamente. Ma quelle davvero critiche e destinate a restare.

In questo senso, Project Silica non è il futuro dello storage in generale. È qualcosa di più specifico e forse di più importante: il possibile futuro della conservazione strategica.

Ed è una differenza enorme.

Per anni abbiamo inseguito performance, elasticità e comodità. Adesso comincia a farsi largo un’altra esigenza: costruire una memoria digitale che non debba essere costantemente salvata da sé stessa. Una memoria che non chieda energia per esistere. Una memoria che non si consumi nel semplice atto di aspettare.

Sembra fantascienza, e invece è già ingegneria.

La cosa più interessante, alla fine, non è che Microsoft stia scrivendo dati nel vetro. La cosa più interessante è che, per la prima volta dopo tanto tempo, qualcuno sta provando a ripensare l’archiviazione partendo non dalla velocità del dato, ma dalla sua sopravvivenza.

Ed era ora.



Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Sandro Sana 300x300
CISO, Head of Cybersecurity del gruppo Eurosystem SpA. Membro del gruppo di Red Hot Cyber Dark Lab e direttore del Red Hot Cyber PodCast. Si occupa d'Information Technology dal 1990 e di Cybersecurity dal 2014 (CEH - CIH - CISSP - CSIRT Manager - CTI Expert), relatore a SMAU 2017 e SMAU 2018, docente SMAU Academy & ITS, membro ISACA. Fa parte del Comitato Scientifico del Competence Center nazionale Cyber 4.0, dove contribuisce all’indirizzo strategico delle attività di ricerca, formazione e innovazione nella cybersecurity. Autore del libro "IL FUTURO PROSSIMO"
Aree di competenza: Cyber Threat Intelligence, NIS2, Governance & Compliance della Sicurezza, CSIRT & Crisis Management, Ricerca, Divulgazione e Cultura Cyber
Visita il sito web dell'autore