Computer a prova di errore grazie ai 'gatti quantistici'
Computer quantistici a prova di errore grazie ai ‘qubit gatto’, ossia grazie a un nuovo approccio nella progettazione dei qubit, le unità di calcolo dei computer . La nuova tecnologia, che elimina alcuni tipi di errori, è stata presentata sulla rivista Nature nella ricerca coordinata da Harald Putterman, del Centro di quantum computing di Amazon Web Services. La stessa tecnologia è alla base di Ocelot, il nuovo chip che si ispira al celebre paradosso del gatto di Schrödinger.
“Uno dei grandi limiti attuali nello sviluppo dei computer quantistici sono gli errori, ossia i disturbi che portano alla perdita dell’informazione sotto forma di qubit”, ha detto all’ANSA Francesco Saverio Cataliotti, dell’Istituto nazionale di ottica del Consiglio nazionale delle ricerche e docente all’Università di Firenze. Si tratta di due grandi tipologie di errori ben distinte tra loro.
Se immaginiamo un qubit come fosse una lettera, le due famiglie di errori possono essere immaginate come errori nella dimensione della lettera (troppo grande o troppo piccola) oppure errori nella grafia (ad esempio un’asta troppo lunga). “L’idea dei ricercatori è quella di disegnare dei chip in cui una delle due tipologie di errori non si verifichi mai”, ha aggiunto Cataliotti. L’eliminazione di una delle due famiglie di errori comporta però un aumento del numero di errori dell’atro tipo,
Tuttavia, secondo i ricercatori di Aws, gestire un solo tipo di problema potrebbe semplificare poi la gestione complessiva. “I qubit di questo tipo vengono chiamati qubit cat perché vengono resi stabili dalla sovrapposizione di due cose opposte”, ha aggiunto Cataliotti. “Un fenomeno – ha proseguito – che può esistere solo nel mondo quantistico e che è esattamente lo stesso fenomeno presente nel celebre paradosso del gatto di Schrödinger”, che può essere vivo e morto nello stesso momento. In realtà i qubit cats sono già noti da tempo ma il nuovo studio indica una soluzione promettente per ottenere qubit sempre più stabili e su cui sarebbe più facile applicare tecniche di correzione degli errori ‘residui’.
Lo studio pubblicato su Nature ha anticipato la presentazione del chip Ocelot. “Con i recenti progressi nella ricerca quantistica, non è più una questione di se, ma di quando i computer quantistici pratici e tolleranti agli errori saranno disponibili per applicazioni nel mondo reale. Il nuovo chip è un passo importante in questo percorso”, ha osservato Oskar Painter, direttore Quantum Hardware di Aws.
I computer quantistici sono infatti già una realtà ma possono utilizzare al momento solo poche decine o centinaia di qubit mentre l’obiettivo è avere chip con decine di milioni di qubit. Per arrivare a tale soglia non basta ingrandire il chip ma occorrerà trovare nuove soluzioni ingegneristiche o ripensare l’intero disegno dei computer.
La scelta di Ocelot punta in questa seconda direzione: “non abbiamo preso un’architettura esistente e poi abbiamo provato a incorporare la correzione degli errori in seguito. Abbiamo selezionato il nostro qubit e la nostra architettura con la correzione degli errori quantistici come requisito principale”, ha aggiunto Painter. Si tratta di un approccio differente da quello seguito da altre aziende, come IBM che punta invece ad altre tipologie di qubit superconduttori, e che secondo Aws potrebbe ridurre di un quinto i costi complessivi e rendere più veloce la strada verso i computer del futuro.
Riproduzione riservata © Copyright ANSA
0