Lo scorso 23 ottobre Google ha annunciato di aver raggiunto la “quantum supremacy,” un risultato che ha suscitato molta attenzione nei media e che secondo molti dovrebbe aprire la strada ad una nuova era per i computers. Pubblichiamo un commento di Massimo Bernaschi dell’Istituto per le Applicazioni del Calcolo del CNR.
Un articolo (“Quantum supremacy using a programmable superconducting processor“) pubblicato su Nature lo scorso 23 ottobre, ha considerevolmente aumentato l’attenzione sull’evoluzione di quelli che vengono comunemente chiamati “computer quantistici”. Come può accadere quando si cerca di semplificare in modo da rendere comprensibile “al grande pubblico” i risultati di anni di ricerche molto complesse, sono state proposte analogie e disegnati scenari che hanno poco a che fare con la realtà. Quello che segue è un tentativo di chiarire alcuni aspetti del risultato ottenuto dai ricercatori di Google, che non ha alcuna pretesa di completezza. Speriamo possa invece costituire un punto di partenza per chi vuole approfondire l’argomento pur non essendo uno specialista di Informatica Quantistica. Partiamo dal titolo dell’articolo ed in particolare da quel “Quantum supremacy” che suona quasi prepotente nell’indicare il raggiungimento di un obiettivo. Il termine non è stato inventato dagli autori ma da John Preskill del Caltech che lo propose in un articolo di rassegna del 2012 che consiglio fortemente per chiarezza e onestà intellettuale (John Preskill, Quantum computing and the entanglement frontier. Rapporteur Talk at the 25th Solvay Conference on Physics, Brussels https://doi.org/10.1142/8674, World Scientific, 2012). Nelle parole di Preskill, Quantum supremcy significa poter eseguire compiti con sistemi quantistici “controllati” che vanno oltre ciò che può essere ottenuto con computer digitali tradizionali.
Il team di Google afferma di aver ottenuto esattamente tale risultato calcolando in 200 secondi quello che il più grande supercomputer tradizionale attualmente disponibile impiegherebbe (circa) 10.000 anni a calcolare. Ma “cosa” hanno calcolato effettivamente? In effetti nulla di immediatamente utile (sulla base di quanto lo stesso team di Google ammette). In sostanza hanno campionato il risultato prodotto da un circuito quantistico “pseudo-casuale”. In linea di principio, questo si potrebbe utilizzare come base per generare numeri random certificati ed il team di Google parla di un nuovo lavoro al riguardo, già in fase di scrittura. In realtà, nell’articolo pubblicato la parola chiave non è tanto “supremacy” ma “programmable” che lascerebbe intendere (non è chiaro quanto intenzionalmente) la possibilità di far eseguire al computer quantistico un qualsiasi compito così come avviene su un sistema tradizionale. Su questo aspetto è bene evidenziare come, in realtà, si sia molto lontani dal raggiungere tale obiettivo (ammesso che sia possibile, ed alcuni ricercatori ritengono che non lo sia). Il problema è che è molto difficile controllare (e quindi programmare) un computer quantistico a causa del fenomeno conosciuto come Quantum Decoherence che indica la perdita di coerenza necessaria per il calcolo quantistico. Se il sistema/computer quantistico fosse perfettamente isolato, manterrebbe la coerenza indefinitamente ma, ovviamente, in questa configurazione, sarebbe impossibile interagire con il sistema e quindi diventerebbe praticamente inutile (possiamo vederlo come uno spiacevole effetto collaterale del principio di indeterminazione di Heisenberg).
Il vero passo avanti del team di Google è stato di riuscire a mantenere coerente un sistema composto da ben 53 qubit (l’equivalente quantistico dei bit di un computer digitale classico) per un tempo sufficientemente lungo ad eseguire il calcolo menzionato in precedenza. Dal punto di vista ingegneristico è sicuramente un risultato notevole, anche se lo spettacolare confronto di un tempo di esecuzione di 200 secondi rispetto ai 10.000 anni necessari su un computer tradizionale è, come indicato dai ricercatori di un team rivale (dell’IBM), forse troppo trionfalistico, visto che un approccio diverso ridurrebbe il tempo sul computer tradizionale a soli due giorni e mezzo (un tempo comunque tre ordini di grandezza più lungo). Il computer quantistico rimane quindi, al momento, solo un interessante oggetto di ricerca avanzata. Attenzione, non solo tecnologica, ma anche di fisica di base. Alleviare il problema della perdita di coerenza, richiede un approfondimento della nostra comprensione del passaggio di un sistema dallo stato in cui valgono le probabilità quantistiche a quello in cui valgono quelle classiche. Nell’attesa di computer quantistici alla portata di tutti, gli utenti possono, anzi dovrebbero, imparare a sfruttare meglio l’enorme potenza di calcolo comunque disponibile sui sistemi tradizionali. Algoritmi più efficienti ed implementazioni più attente permetterebbero di aumentare le prestazioni, riducendo i tempi di esecuzione ed i consumi energetici che nei supercomputer sono ormai paragonabili a quelli di migliaia di case (MegaWatt).
Massimo Bernaschi
In copertina: Il computer quantistico di Google. Credits @Google
Trackback/Pingback