C’est une limite de l’informatique quantique sur laquelle butent les chercheurs depuis plus de trente ans. Google assure pourtant l’avoir résolue, au moins partiellement. Dans un article publié lundi dans la revue scientifique Nature, le moteur de recherche a dévoilé une nouvelle méthode de correction permettant de réduire de manière exponentielle le taux d’erreur à mesure que la puissance d’une puce quantique augmente. “Un accomplissement historique, se félicite Hartmut Neven, le patron du laboratoire Quantum AI de Google. Cela constitue un signe fort que des ordinateurs quantiques utiles et très larges peuvent effectivement être construits”. Une telle machine, encore théorique, doit permettre de réaliser des calculs informatiques complexes, que les superordinateurs traditionnels ne pourraient pas mener.
Dix septillions d’années – L’informatique quantique repose sur les qubits. Contrairement aux bits classiques, qui fonctionnent de manière binaire, ceux-ci peuvent prendre à la fois les valeurs 0 et 1. Et toutes les combinaisons de ces deux valeurs. Cette propriété est appelée superposition d’états. Un autre phénomène entre en jeu: l’intrication quantique, qui correspond à la corrélation entre différents qubits. En théorie, ces deux éléments doivent permettre de réaliser massivement des calculs parallèles. Et donc de réduire considérablement le temps nécessaire à leur réalisation. Selon Google, sa dernière puce quantique, baptisée Willow et composée de 105 qubits, a ainsi pu résoudre en moins de cinq minutes un calcul qui prendrait dix septillions (soit, un suivi de 25 zéros) d’années aux superordinateurs les plus puissants au monde.
Qubits logiques – Dans la pratique, cependant, l’informatique quantique fait face à l’instabilité des qubits, sous l’effet de leur environnement. Ils peuvent ainsi perdre leur propriété de superposition – on parle alors de décohérence. Cela se traduit par un nombre d’erreurs beaucoup plus élevé que pour l’informatique traditionnelle. Ce phénomène est d’autant plus problématique que le taux d’erreur s’accroît en même temps que le nombre de qubits. Si un principe de correction d’erreurs quantiques a été introduit en 1995, personne n’avait encore réussi à réduire les risques tout en augmentant la puissance. Pour y parvenir, la société de Mountain View explique avoir mis au point un système reposant sur l’utilisation de qubits logiques, constitués de plusieurs qubits physiques intriqués pour encoder l’information de façon redondante.
“Calcul utile” – Si l’avancée de Google a été unanimement saluée, le chemin à parcourir reste encore très long. Sa démonstration de réduction du taux d’erreur n’a été menée que sur des systèmes comprenant 9, 25 et 49 qubits. Et le taux d’erreur de Willow reste encore extrêmement élevé – un sur cent selon Google. “Le prochain défi sera de réaliser un premier calcul utile, dépassant l’informatique classique, et pertinent pour une application concrète dans le monde réel”, ajoute par ailleurs Hartmut Neven. À la lutte notamment avec IBM, Google ambitionne de concevoir un ordinateur quantique composé d’un million de qubits, et affichant un taux d’erreur ramené à un sur 10.000 milliards. Il y a trois ans, l’entreprise promettait un lancement d’ici à 2029. Dans sa feuille de route actualisée, elle ne s’engage cependant plus sur une date.
Pour aller plus loin:
– Pasqal lève 100 millions d’euros pour son ordinateur quantique