Roberto Campagnola : 6 Febbraio 2022 16:19
Autore: Roberto Campagnola
Data Pubblicazione: 6/02/2022
Nel 1996, durante la sua attività di ricerca presso la IBM, il fisico David DiVincenzo pubblicò un articolo intitolato “Topics in Quantum Computing” in cui delineò 5 requisiti minimi necessari per la realizzazione di una macchina a computazione quantistica.
Acquista il corso Dark Web & Cyber Threat Intelligence (e-learning version)
Il Dark Web e la Cyber Threat Intelligence rappresentano aree critiche per comprendere le minacce informatiche moderne. Tra ransomware, data breach e attività illecite, le organizzazioni devono affrontare sfide sempre più complesse per proteggere i propri dati e le infrastrutture. Il nostro corso “Dark Web & Cyber Threat Intelligence” ti guiderà attraverso i meccanismi e le strategie utilizzate dai criminali informatici, fornendoti competenze pratiche per monitorare, analizzare e anticipare le minacce.
Accedi alla pagina del corso condotto dall'Prof. Pietro Melillo sulla nostra Academy e segui l'anteprima gratuita.
Per un periodo limitato, potrai utilizzare il COUPON CTI-16253 che ti
darà diritto ad uno sconto del 20% sul prezzo di copertina del corso
Per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765.
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
I primi quattro criteri valgono anche per i computer classici perché non vogliamo esser limitati in termini di architetture o possibili operazioni da svolgere, mentre l’ultimo criterio è specifico per i computer quantistici.
Abbiamo visto che i principi fondamentali su cui si basa il computer quantistico sono i principi della sovrapposizione coerente di stati, e dell‘entanglement.
Lo stato di un sistema quantistico può essere descritto da una combinazione lineare a coefficienti complessi di vettori in uno spazio di Hilbert:
Finché non avviene il processo di misura, il sistema si trova contemporaneamente in tutti i possibili valori della grandezza, e solo quando si effettua una misura si ottiene uno dei possibili risultati, ognuno secondo una differente probabilità, data dal modulo quadro del coefficiente complesso della combinazione lineare.
Si presentano casi in cui lo stato di un sistema quantistico non è descritto da una sovrapposizione coerente di stati, ma da una miscela statistica, nel caso in cui si stiano studiando sistemi quantistici indipendenti. Alla “miscela statistica” è associata una probabilità classica, cioè una probabilità che nasce dalla nostra mancata conoscenza di tutte le sue condizioni e che quindi ci porta dover ricorrere alla statistica per poterne descrivere lo stato e l’evoluzione. A differenza della probabilità quantistica che è una probabilità intrinseca dei sistemi quantistici.
Questo fenomeno si verifica in particolari condizioni quando due o più stati possono essere considerati sottosistemi di un sistema quantistico più ampio, e il cui stato può essere descritto solo come sovrapposizione di più stati. Tale condizione, che non ha alcun corrispettivo nel mondo classico, porta a diversi fenomeni a prima vista contro intuitivi ma perfettamente verificati e spiegabili secondo la fisica quantistica: se per esempio si costruisce uno stato entangled a partire da due stati di due particelle legate tra loro, la misura di una variabile su una particella influenzerà istantaneamente la grandezze dell’altra, indipendentemente dalla distanza che le separa.
L’entanglement portò alla formulazione del paradosso EPR da parte di Einstein, Podolsky e Rosen per mettere in luce l’apparente incompletezza della meccanica quantistica, e la necessità di una sua confutazione. In realtà il paradosso fu spiegato nel 1964 grazie alle famose disuguaglianze di Bell, che portarono alla conclusione che in alcuni aspetti la meccanica quantistica è una teoria che non rispetta il principio di località.
I qubit di un computer, sono quindi oggetti estremamente “delicati”: ogni interazione con l’ambiente esterno ne altera irrimediabilmente lo stato, portando al fenomeno del collasso della funzione d’onda, che è stato spiegato usando la decoerenza quantistica. Per esempio un debole campo magnetico o un casuale impulso di microonde possono indurre l’inversione dei qubit (bit-flip) invertendo le loro possibilità di essere |0⟩ e |1⟩ rispetto agli altri qubit, o l’inversione di fase (phase-flip), la trasformazione della relazione matematica tra i loro due stati.
Quando i qubit di un sistema quantistico raggiungono la decoerenza, l’informazione in essi contenuta è persa, ed è quindi necessario mantenere la fase di sovrapposizione coerente il più a lungo possibile.
Nella computazione classica per evitare una perdita di informazione è naturale ricorrere alla ridondanza e creare delle copie identiche dei bit contenenti ognuna la stessa informazione. Si possono così eseguire le operazioni, avendo a disposizione più copie degli stessi bit in caso di errori, difetti o mancanze. Nel mondo quantistico, questa tecnica non è possibile a causa del teorema del no-cloning quantistico che in una sua versione semplificata impedisce la creazione di stati quantistici sconosciuti a priori.
Rappresentazione di alcuni errori possibili nella computazione quantistica
Sono stati sviluppati negli anni diversi algoritmi quantistici di correzione degli errori; uno di essi che fa uso di un processo simile alla versione classica, è stato ideato da Peter Shor, di cui abbiamo già parlato. In tale algoritmo si utilizzano più qubit portatori per salvaguardare l’informazione di un singolo qubit: si fa in modo che l’informazione venga codificata su stati entangled di più qubit, in modo tale che se si verifica un errore gli stati logici sono mappati in altri stati ortogonali.
Successivamente, a questi stati si associa anche una osservabile la cui misura fornisce informazioni in quale sottospazio si trovi lo stato: sapremo quindi che si è verificato un errore senza però ricevere alcuna informazione su di esso e senza dover effettuare una misura sul qubit; sappiamo in fatti che la misura in meccanica quantistica è un processo altamente “distruttivo” perché porta per definizione al collasso della funzione d’onda.
Lo sviluppo di algoritmi di correzione degli errori e gli studi per aumentare il tempo di decoerenza, sono in costante sviluppo: ad esempio nei computer quantistici a super conduttori, che rappresentano le architetture più usate e ritenute più promettenti, i tempi di decoerenza sono passati dell’ordine dei nanosecondi alle centinaia di microsecondi, che rappresenta un salto di numerosi ordini di grandezza.
Nel prossimo numero della nostra rubrica esamineremo le architetture più usate e i tipi più diffusi di computer quantistici..stay tuned, al prossimo mese!
Fonte
Photo credit:Cho, Adrian (2020).No room for error. Science, 369(6500)
Copyright @ 2003 – 2024 RED HOT CYBER
PIVA 16821691009