Per anni, i computer quantistici sono sembrati una tecnologia futuristica: sulla carta, possono risolvere problemi che le macchine classiche non riescono a gestire in tempi ragionevoli, ma in realtà inciampano costantemente nello stesso problema: gli errori.
Ora, i ricercatori cinesi hanno annunciato di aver compiuto un passo che molti considerano un punto di svolta per l’intero settore: hanno superato una soglia cruciale in cui la correzione degli errori migliora effettivamente l’affidabilità del sistema, anziché distruggerla.
Un team guidato da Jian-Wei Pan dell’Università di Scienza e Tecnologia della Cina ha riferito che il loro computer quantistico superconduttore, Zuchongzhi 3.2, ha raggiunto la cosiddetta soglia di tolleranza ai guasti.
Questo è il momento tanto atteso: l’aggiunta di procedure di correzione degli errori rende i calcoli più robusti man mano che il sistema cresce. In precedenza, la correzione degli errori quantistici si trasformava spesso in un paradosso: più controlli e qubit aggiuntivi venivano aggiunti, più nuove fonti di errore apparivano e l’affidabilità complessiva non poteva che peggiorare.
I risultati sono stati pubblicati sulla rivista Physical Review Letters. È importante sottolineare che il team cinese si è affidato al controllo a microonde anziché all’approccio più basato sull’hardware utilizzato da Google nella sua dimostrazione.
Questo approccio mira a contrastare uno dei tipi di guasti più problematici, i cosiddetti errori di perdita, quando un qubit “perde” dal suo stato operativo e inizia a diffondere silenziosamente i problemi in tutto il circuito. Secondo gli autori, il loro metodo per sopprimere completamente le perdite utilizzando impulsi a microonde potrebbe rivelarsi più conveniente per la scalabilità perché richiede meno circuiti di controllo complessi e cablaggi a temperature ultra basse.
Per comprendere l’importanza di questo aspetto, vale la pena ricordare il problema fondamentale del calcolo quantistico. I qubit sono estremamente sensibili al calore, al rumore e a qualsiasi microperturbazione, quindi gli errori si verificano costantemente, anche durante il funzionamento “normale“. La correzione degli errori quantistici risolve questo problema in modo diverso rispetto ai computer classici: distribuisce le informazioni su molti qubit e misura ripetutamente valori di controllo specifici, tentando di individuare gli errori senza compromettere il calcolo stesso. Ma ogni nuovo qubit e ogni misurazione aggiuntiva introduce a sua volta errori, quindi per lungo tempo i sistemi si sono trovati in una situazione in cui la “cura” era peggiore della “malattia”.
Questo è esattamente il motivo per cui tutto dipende dalla soglia di correzione degli errori. Se i qubit sottostanti sono troppo rumorosi, qualsiasi tentativo di correggere gli errori non fa che aumentare il tasso di errore complessivo. Se, tuttavia, gli errori sottostanti possono essere ridotti al di sotto di un certo livello, l’equilibrio si sposta: la correzione inizia a prevalere e l’aumento del codice di sicurezza porta a una riduzione del tasso di errore risultante. Negli ultimi anni, sia la Cina che gli Stati Uniti hanno investito attivamente in uno degli approcci più studiati, il codice di superficie. Nel 2022, il gruppo di Pan ha dimostrato l’elemento di correzione più piccolo, il qubit logico a distanza 3, e Google è poi passato a distanza 5. Tuttavia, in entrambi i casi, il rumore nei qubit “fisici” è rimasto troppo elevato per dichiarare con sicurezza che la soglia fosse stata superata.
La situazione è cambiata dopo che Google ha annunciato i progressi sul processore Willow a febbraio di questo anno, dimostrando un qubit logico a distanza 7 al di sotto della soglia sopprimendo le perdite tramite impulsi DC. Uno studio cinese afferma di aver ora raggiunto una scala comparabile sulla propria piattaforma, ma utilizzando un approccio diverso. Utilizzando il processore Zuchongzhi 3.2 a 107 qubit, i ricercatori hanno implementato uno schema di soppressione delle perdite completamente basato su microonde e lo hanno combinato con un codice di superficie, producendo un qubit logico a distanza 7. Nel loro esperimento, hanno osservato un segno chiave della modalità “corretta”: all’aumentare delle dimensioni del codice, l’errore complessivo è diminuito anziché aumentare.
Gli autori citano un rapporto di soppressione degli errori di 1,4, il che significa che ogni incremento della scala di correzione ha prodotto un guadagno significativo in termini di affidabilità. Anche gli esperti esterni elogiano il risultato, ma con riserve. Il fisico Joseph Emerson dell’Università di Waterloo, non coinvolto nel lavoro, ha definito l’esperimento impressionante e ha sottolineato che affronta uno dei problemi più difficili del calcolo quantistico: la dispersione degli errori dovuta alla deriva dei qubit. Tuttavia, osserva anche che le applicazioni pratiche sono ancora lontane: le dimostrazioni attuali rimangono su una scala incomparabile a quella richiesta per i problemi del mondo reale.
Tuttavia, la notizia ha un significato diverso: la competizione per i computer quantistici fault-tolerant non è più una “corsa alle promesse”, ma sempre più una battaglia ingegneristica per la scalabilità. Il team cinese ritiene che l’approccio a microonde possa risolvere due dei principali problemi dei futuri sistemi quantistici: la complessità del cablaggio e il sovraccarico hardware. Se questa idea verrà sviluppata con successo, la strada verso macchine con centinaia di migliaia e persino milioni di qubit sembrerà un po’ meno inverosimile di ieri.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

CybercrimeLe autorità tedesche hanno recentemente lanciato un avviso riguardante una sofisticata campagna di phishing che prende di mira gli utenti di Signal in Germania e nel resto d’Europa. L’attacco si concentra su profili specifici, tra…
InnovazioneL’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…
CybercrimeNegli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…
VulnerabilitàNegli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…
InnovazioneArticolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…