IBM Technologies ha offerto il sistema di calcolo quantistico all’attenzione dei servizi cloud l’anno scorso, quando ha concesso in uso unità di elaborazione dati in grado di sviluppare una potenza complessiva di 5 qubit.
Nel corso di queste ore, la storica società costruttrice rivanga l’argomento proponendo il rilascio di nuovi e senz’altro più avanzati sistemi, forti di piattaforme in grado di sviluppare 20 qubit di potenza. Il tutto in un arco temporale di appena 18 mesi.
Ricordiamo a tutti i profani dell’argomento che il qubit (contrazione di quantum bit coniata da Benjamin Schumacher) indicata l’unità fondamentale di informazioni quantistiche codificate e, così come il bit tradizionale, è rappresentato dal quanto quale misura base fondamentale che rispetto al bit non si lega però ad uno specifico sistema.
Fatta questa piccola premessa sulla natura del dato informativo essenziale si scopre anche che IBM ed i suoi ricercatori sono stati già in grado di mettere a punto un nuovo prototipo da 50 qubit, da vedersi quale prossima tappa fondamentale del calcolo quantico, sebbene non siano stati ancora chiariti i termini di una sua futura commercializzazione.
Mentre le prime versioni dei computer quantistici IBM sono stati offerti gratuitamente al fine di realizzare una comunità di utenti con interessi dediti alla programmazione ed all’uso di detti sistemi, l’annuncio di oggi rappresenta di fatto la prima proposta commercialmente valida, e questa si renderà disponibile entro e non oltre la fine dell’anno in corso.
L’informatica quantistica rappresenta senz’altro una materia piuttosto ostica alla comprensione ed è ben lontana dalla logica binaria di interpretazione degli stati ON/OFF, Di fatto, i computer quantistici contano su un maggior numero di informazioni stratificate e quindi sul supporto a software e piattaforme differenti loro dedicate.Dario Gil, Vice Presidente del gruppo di ricerca IBM, afferma che l’aumento del numero di qubit nel tempo rappresenta soltanto una parte del complesso processo di sviluppo che sta dietro questa tecnologia. Tanto maggiore è il numero di qubit tanto più complesse saranno le interazioni. Un maggior numero di qubit ad alto tasso di errore, tra l’altro, provoca un decadimento dei processi in avanzamento che, anche nel caso di macchine dall’elevato potenziale come quelle a 50 qubit, conducono a prestazioni prossima ad un corrispondente sistema a 5 qubit.
I ricercatori IBM hanno riferito il fatto di essere riusciti nell’intento di realizzare un ecosistema quantistico relativamente complesso a basso margine di errore. Gil, a riguardo, riferisce di fatto che: “Abbiamo più qubit e meno errori, e questi si combinano per risolvere altri problemi”.
L’altra questione che entra in gioco quando si tratta di stati quantistici è che tendono ad esistere per un breve periodo di tempo in un processo noto come coerenza. Fondamentalmente significa che si ha a disposizione soltanto una breve finestra temporale prima che i qubit tornino a uno stato binario di funzionamento.
In tal senso, i ricercatori sono stati in grado di fare un enorme passo in avanti giocando sui tempi di coerenza, passati dai 47-50 microsecondi dei sistemi a 5qubit ai 90microsecondi delle soluzioni odierne.
La presenza di tutte queste variabili non consente ad un programmatore la realizzazione di un algoritmo quantistico privo di errori e privo dell’effetto coerenza, ma ciò non toglie che ad oggi si sia stati in grado di adattare i sistemi al fine di utilizzarli in altri comparti.
L’obiettivo finale del calcolo quantico è quello relativo alla realizzazione di un sistema universale in grado di auto-ripararsi e di offrire coerenza illimitata. Il processo incrementale e l’annuncio di oggi sono solo i primi step di un’innovazione che presto porrà in essere dei sistemi decisamente potenti ed affidabili.La release di oggi ed i miglioramenti compiuti da IBM nel contesto degli ambienti di sviluppo con QISKit, un kit di sviluppo software (SDK) concepito allo scopo di guidare le aziende nella fase di programmazione dei computer quantistici, continueranno a promuovere lo sviluppo di questa nuova tecnologie evolutiva. Si tratterà di un cambiamento graduale e radicale che troverà applicazione pratica nel contesto della medicina moderna, della scienza dei materiali e dell’esame delle sostanze.
Al momento, ed in modo del tutto parallelo, si stanno ponendo in essere anche gli esami sulle potenziali conseguenze negative derivanti dall’impiego di dette tecnologie, ed in particolar modo nel contesto della crittografia e della possibilità di bypassare i controlli di sicurezza.
IBM, in particolare, riferisce del fatto di essersi posta in linea con le intenzioni di altri big della sicurezza internazionale al preciso scopo di porre in essere l’applicazione di un algoritmo post-quantum in grado di bypassare l’insorgere di problematiche di sorta in tal senso.
Il processo, in tal caso, è ancora lungo e molto potrà ancora essere fatto per affinare le potenzialità di una tecnologia davvero innovativa, in grado di applicarsi ad una serie di scenari e problematiche tra loro molto diversificate.