La fisica quantistica, sorta agli inizi del XX secolo grazie alle scoperte di scienziati come Max Planck, Albert Einstein e Niels Bohr, ha completamente rivoluzionato il modo in cui percepiamo e comprendiamo il mondo microscopico. Le leggi della fisica quantistica governano il comportamento delle particelle subatomiche, e lo fanno in un modo che si allontana radicalmente dalle esperienze e dalle intuizioni che vengono dalla fisica classica. In pochi anni, fenomeni quali la sovrapposizione degli stati, il principio di indeterminazione, e il cosiddetto “entanglement” hanno messo alla prova la nostra precedente concezione di realtà, e il modo in cui questa ambiva ad avvolgere anche il mondo microscopico, portandoci a ridefinire il nostro rapporto cognitivo con la realtà stessa, e ad aprire la strada a una nuova era tecnologica: quella della cosiddetta “seconda rivoluzione quantistica”.

In cosa si differenziano “prima” e “seconda” rivoluzione quantistica? Se la prima è stata foriera di tecnologie che si sono poi rivelate fondamentali nella società moderna (quali il laser, o l’introduzione del transistor nel 1947 che ha aperto la strada all’avvento di computer, telecomunicazioni e internet), va sottolineato che tali applicazioni sfruttano sì fenomeni quantistici, ma senza manipolare direttamente le singole particelle e i loro stati. Al contrario, invece, la seconda rivoluzione quantistica getta le sue basi proprio sulla possibilità di controllare questi stati, e di utilizzarli in modo diretto.
Tra i fenomeni della fisica quantistica, uno dei più enigmatici e controintuitivi è l’entanglement quantistico. Si tratta di un fenomeno per cui più particelle possono diventare così inestricabilmente collegate tra loro che lo stato di una di esse influenza lo stato dell’altra, e questo avviene istantaneamente, e indipendentemente dalla distanza che le separa. Questo effetto fu affrontato in un esperimento mentale da Einstein, Podolsky e Rosen nel 1935: noto come “paradosso EPR”, dalle iniziali dei loro cognomi, voleva dimostrare la presunta incompletezza della teoria della meccanica quantistica. Sviluppi teorici e sperimentali successivi, quali il teorema di Bell e l’esperimento sulla correlazione quantistica di Alain Aspect, negli anni ’80, hanno tuttavia confermato la realtà dell’entanglement. Ad oggi sappiamo che, mentre in una visione puramente classica due oggetti separati tra loro non possono influenzarsi istantaneamente (in fisica classica sarebbe possibile solo tramite comunicazioni che viaggiano a velocità infinita, mentre sappiamo che nessun segnale può muoversi a velocità superiori alla velocità della luce), nel mondo microscopico vige invece la fisica quantistica e l’entanglement consente correlazioni immediate tra particelle distanti, senza trasmissione di informazioni in senso classico, quindi senza violare la velocità limite della luce. Se questo fenomeno rappresenta una dirompente rivoluzione per la fisica teorica, al tempo stesso è la chiave anche per molte applicazioni, che fanno parte della seconda rivoluzione quantistica, soprattutto nel campo del calcolo quantistico e della crittografia quantistica.
La seconda rivoluzione quantistica permea anche il dominio del “computing” e la definizione delle nuove frontiere del calcolo scientifico. Il calcolo quantistico (quantum computing) è senza dubbio una delle promesse più rivoluzionarie nell’ambito delle tecnologie quantistica. Mentre un computer classico si basa su bit che possono essere 0 o 1, un computer quantistico utilizza invece qubit che, grazie al fenomeno della sovrapposizione quantistica, possono essere in un mix di stati 0 e 1 contemporaneamente, consentendo di processare una quantità enorme di informazioni in parallelo, aprendo quindi alla possibilità di accelerare la risoluzione di problemi complessi. L’entanglement permette di creare una rete di qubit entangled, ovvero collegati in modo tale che lo stato di uno influisca immediatamente sugli altri, permettendo di effettuare calcoli in modo esponenzialmente più veloce rispetto ai computer classici. L’impatto di questa tecnologia è potenzialmente dirompente, in particolare per algoritmi che richiedono grandi capacità di elaborazione: un esempio è la fattorizzazione di numeri primi, un’operazione alla base della crittografia moderna.
Il fenomeno dell’entanglement pone anche le basi per la crittografia quantistica, che sfrutta appunto i principi della meccanica quantistica per creare sistemi di comunicazione potenzialmente inviolabili. Il Quantum Key Distribution (QKD) è uno dei protocolli più noti: se utilizziamo dei fotoni (ossia quanti di luce) entangled per generare e distribuire chiavi crittografiche tra due parti che comunicano, grazie a un altro dei principi fondamentali della meccanica quantistica, il principio di indeterminazione di Heisenberg, è garantito che qualsiasi tentativo di intercettare la chiave modifichi immediatamente lo stato dei fotoni stessi, rendendo tale intercettazione sempre rilevabile. Un esempio di uno dei primi e più semplici schemi di QKD è il protocollo BB84: sviluppato da Bennett e Brassard nel 1984, offre una sicurezza teorica assoluta contro l’intercettazione passiva, ossia un’intercettazione che consente di rilevare e monitorare una comunicazione senza alterarla. Questa linea di ricerca promette di rivoluzionare la sicurezza delle comunicazioni, rendendo i sistemi di crittografia classici del tutto obsoleti, e introducendo sistemi quantistici resistenti a qualsiasi attacco basato su computer, sia classici sia quantistici.
Un ulteriore concetto affascinante è il teletrasporto quantistico. Contrariamente a quanto il termine lascia intendere, non si tratta di trasportare fisicamente oggetti o persone da un punto a un altro, ma di trasferire lo stato quantistico di una particella da un luogo a un altro senza che la particella stessa debba attraversare lo spazio intermedio. Anche questo processo emerge dal fenomeno dell’entanglement. Immaginiamo di voler teletrasportare una particella: una particella viene connessa (entangled) con un’altra che si trova in un luogo remoto rispetto alla prima, e poi, attraverso una misura congiunta tra la particella locale e la particella che si desidera teletrasportare, si può trasferire l’informazione dello stato quantistico di quest’ultima a distanza. Per quanto l’utilizzo di questo fenomeno in generale sia ancora a uno stadio iniziale, è tuttavia già stato dimostrato sperimentalmente in laboratorio su piccole distanze, ed è innegabile che abbia un enorme potenziale in quanto potrebbe avere importanti applicazioni in ambito delle comunicazioni quantistiche.
Come si evince via via che ci si addentra nelle applicazioni più rivoluzionarie che emergono dallo sfruttamento dei principi della fisica quantistica, risulta chiaro che, malgrado i progressi straordinari registrati negli ultimi decenni, le tecnologie quantistiche in generale sono ancora in una fase embrionale. Una delle principali difficoltà per la ricerca in questo ambito è rappresentata dal fatto che la costruzione di computer quantistici che siano stabili e scalabili (affidabili con continuità nel tempo e adattabili a nuove richieste o a carichi di lavoro crescenti) indipendentemente dalla tecnologia fondante su cui si basano, è sempre estremamente complessa: la fragilità dei qubit, che tende a non conservare lo stato di sovrapposizione dei suoi stati, e la difficoltà nel mantenere l’entanglement su lunghe distanze e per tempi prolungati pongono sfide scientifiche e tecnologiche di grande portata. Al tempo stesso, va rilevato che gli investimenti da parte di governi e aziende tecnologiche su questo fronte sono altamente strategici e stanno crescendo, lasciando intravvedere un futuro in cui alcune implementazioni di queste tecnologie potrebbero effettivamente diventare parte integrante della nostra realtà tecnologica, e in ultima analisi entrare nella vita quotidiana.
Le applicazioni del quantum computing potrebbero spaziare dalla simulazione di molecole per la scoperta di nuovi farmaci, all’ottimizzazione di reti complesse, alla risoluzione di problemi attualmente inaccessibili per i computer classici, alla creazione di nuovi standard per le comunicazioni planetarie garantendo livelli di sicurezza senza precedenti. Non da ultimo, al di là delle applicazioni, la seconda rivoluzione quantistica sta radicalmente trasformando il nostro modo di percepire la realtà, concepire l’informazione, pensare la comunicazione: ci offre una finestra nuova per sondare la natura fondamentale della realtà, e ha il potenziale di spingere i limiti della speculazione umana verso orizzonti inesplorati.
Daniele Bonacorsi, professore all’Università degli Studi di Bologna e ricercatore INFN, lavora da tempo in esperimenti al CERN con acceleratori di particelle. Ha lavorato alla progettazione, sviluppo e messa in opera della Grid per gli esperimenti di LHC ed è stato coordinatore internazionale del calcolo scientifico dell’esperimento CMS a LHC, dove ha promosso l’adozione di tecniche di machine learning e deep learning. Tiene corsi di deep learning e quantum machine learning e coordina il dottorato in data science and computation all’Università di Bologna.
Saggio redatto per il catalogo della mostra “Quanto. La rivoluzione in un salto”.



