A propos d’informatique quantique

Difficile d’y échapper, même dans la presse non spécialisée : les annonces plus ou moins triomphantes des géants du numérique et grands noms de l’informatique sur leurs percées dans le développement d’un ordinateur quantique se multiplient. Pour impressionnante qu’elle soit, cette communication mérite d’être décodée avec beaucoup de recul et de circonspection, tant le niveau de complexité de la science et des technologies à l’œuvre autorise tous les biais de présentation et abus d’optimisme.

Au-delà de ces grands acteurs privés, bon nombre de gouvernements se sont aussi emparés du sujet d’une manière ou d’une autre, le considérant comme stratégique pour acquérir ou préserver une souveraineté technologique. L’écosystème des start-up et PME lui-même se développe rapidement un peu partout dans les pays industrialisés, en dépit d’une maturité encore très en retrait, comparée à un domaine comme l’intelligence artificielle. Une énorme incertitude scientifique et technologique subsiste en effet et il reste aujourd’hui très difficile d’évaluer la faisabilité d’ordinateurs quantiques universels et opérationnels à grande échelle, et si oui à quel horizon. Mais les enjeux sont à la hauteur des défis, avec des outils qui théoriquement sont de nature à bouleverser de nombreux domaines de la science et de l’ingénierie, puis divers usages quotidiens du numérique.

Une deuxième révolution quantique ?

Au début des années 1980, le mathématicien Yuri Manin et le célèbre prix Nobel de physique Richard Feynman ont imaginé un ordinateur aux capacités incomparables tirant parti de comportements singuliers régis par la physique quantique, bien avant l’apparition du moindre embryon de début de prototype de machine. A cette époque, les manifestations plus ou moins directes de phénomènes quantiques sont déjà abondamment exploitées dans nombre d’innovations technologiques et de dispositifs révolutionnaires, comme le transistor et le laser.

La nouveauté au cœur de cette deuxième révolution quantique dont on parle, réside dans les progrès techniques spectaculaires permettant désormais d’isoler et de manipuler des particules au niveau individuel. Même si cela reste souvent à un stade plus expérimental qu’industriel, l’espoir est permis de disposer de supports d’information obéissant à deux principes fondamentaux de la physique quantique : la superposition d’états et l’intrication. Pour l’essentiel, ce sont ces deux principes qui permettent en théorie d’introduire une forme de parallélisation massive des calculs et d’atteindre un niveau inédit de performances, comparativement aux ordinateurs classiques.

Avant d’entrer dans plus de détails, soulignons que les fondements de cette révolution annoncée contiennent en même temps les germes de grandes difficultés de mise en œuvre. Les interactions non désirées avec l’environnement vont rapidement détruire l’information quantique (phénomène dit de décohérence) et introduire des erreurs. On est confronté à un dilemme entre isoler le système du monde extérieur et être en mesure de le contrôler.

La voix de l’avocat du diable se fait alors entendre : et si la mise au point du hardware ne fait qu’un gros flop ? Difficile encore à ce jour de l’exclure catégoriquement, tant les obstacles à surmonter sont nombreux et d’envergure. Ces dernières années, cependant, les voix se font plus rares d’une aventure vouée à l’échec complet. Plus vraisemblable est l’émergence progressive de systèmes hybrides aux performances croissantes, capitalisant sur différentes technologies spécialisées, mobilisées en fonction des processus à traiter et des applications visées. Il reste pourtant bien possible que ne soient pas encore nées les générations qui connaîtront un ordinateur quantique universel ayant remplacé nos machines actuelles.

Vu sous le seul angle du traitement de l’information, il vient assez vite à l’esprit la conception d’une unité d’information correspondant à un bit classique enrichi des propriétés de superposition et d’intrication. Dans cette optique, nulle nécessité de trop se préoccuper de la façon de réaliser physiquement un tel objet pour déjà investiguer l’environnement logiciel, les algorithmes applicatifs, le potentiel des performances et des cas d’usage.

Le bit quantique ou qubit

D’un point de vue physique, les qubits sont des dispositifs matériels à base de particules élémentaires avec deux états possibles, par exemple le niveau d’énergie d’un atome, le spin d’un électron ou la polarisation d’un photon. Le principe de superposition veut qu’une particule élémentaire puisse être simultanément dans plusieurs de ses états quantiques. Appliqué à un qubit il l’autorise à avoir en même temps la valeur 0 et 1 et pas seulement l’une des deux valeurs comme pour un bit classique. Pas question ici de se laisser envoûter par les charmes de la physique quantique (ce n’est que le début), ni torturer par la signification des termes simultanément et en même temps (c’est l’histoire du chat de Schrödinger). Mieux vaut se réfugier dans le monde idéalisé des mathématiques : l’état d’un qubit est représenté par un vecteur d’un espace vectoriel de dimension 2, dont deux vecteurs de base orthonormés sont conventionnellement notés |0⟩ et |1⟩, et s’écrit sous la forme [1] : α|0⟩ + β|1⟩, où α et β sont deux nombres complexes dont la somme des carrés des modules vérifie la relation [2] : |α|2 + |β|2 = 1

Cet espace à deux dimensions est une version très allégée du cadre général de la mécanique quantique formulé dans des espaces de Hilbert de dimension infinie, avec des états décrits par la fonction d’onde et l’équation de Schrödinger. Dans tous les cas, on peut souvent oublier la nature physique des dispositifs pour ne manipuler que des symboles, vecteurs (fonctions) et matrices (opérateurs linéaires).

La norme 1 imposée sur le vecteur d’état traduit la nature probabiliste du résultat d’une mesure ou observation. On peut utiliser comme image mentale plus accessible à nos sens, un système caché qui navigue entre les deux états de base, les poids ou amplitudes α et β de la formulation mathématique traduisant en moyenne le degré de présence dans chaque état. Observer le système est comme prendre un instantané au hasard : le résultat est soit l’état |0⟩, soit |1⟩. Il est aléatoire, mais relié à l’état superposé initial par le fait que la probabilité d’obtenir |0⟩ (resp. |1⟩) vaut |α|2 (resp. |β|2). Une observation ou mesure projette en quelque sorte le système sur l’un des deux états de base et détruit la superposition. C’est donc un cas particulier de décohérence, mais provoquée volontairement, contrairement aux effets subis des interactions avec l’environnement.

Evidemment, avec un seul qubit on ne va pas bien loin. Il faut disposer de registres de plusieurs qubits pour pouvoir encoder l’information et réaliser des traitements en parallèle. Dans un ordinateur classique, une suite de N bits permet d’encoder un entier parmi 2N possibles (un parmi 256 pour N = 8, par exemple). Un registre quantique de 8 qubits se trouverait, lui, dans une superposition des 256 états de base du registre. Toute opération quantique appliquée sur ce registre s’effectuerait en parallèle sur ces 256 états de base en même temps. Pour autant, on ne crée pas exponentiellement une véritable capacité de stockage d’information ou du calcul parallèle au sens habituel : comme on vient de le voir un état quantique superposé n’est pas réellement accessible, toute observation le réduisant à un seul état de base. Pour tirer néanmoins profit de l’information probabiliste sous-jacente, il faut entrer dans une logique de programmation très particulière, où tout l’art algorithmique consiste par exemple à s’efforcer de concentrer progressivement l’état du registre sur un état de base codant la solution du problème traité ou à réitérer le processus comme dans une méthode de Monte-Carlo.

L’intrication

L’intrication est sans doute un des phénomènes les plus fascinants et perturbants de la mécanique quantique. Elle désigne la situation de particules ayant préalablement interagi entre elles et dont les états quantiques dépendent ensuite instantanément les uns des autres, quelles que soient les distances qui les séparent. Couplée avec la superposition, une telle dépendance à distance a suscité d’intenses débats dans les années 1930, à caractère souvent philosophique et longtemps limités à des expériences de pensée, faute de technologie appropriée. La première confirmation un peu convaincante de cette non localité incompatible avec la relativité restreinte, résulte d’une expérience réalisée en 1982 par le physicien français Alain Aspect.

Sur le plan de la formalisation on peut faire un parallèle avec le calcul des probabilités. Il y est plus facile de définir l’indépendance : deux évènements sont indépendants si la probabilité conjointe est simplement le produit des probabilités de chacun. De façon analogue, un état intriqué de deux qubits est un état qui ne peut pas s’écrire comme le produit tensoriel [3] d’un état du premier par un état du second. Par exemple,

\frac{1}{\sqrt{2}}|00⟩ + \frac{1}{\sqrt{2}}|10⟩ = (\frac{1}{\sqrt{2}}|0 \rangle \thinspace + \thinspace \frac{1}{\sqrt{2}}|1 \rangle \thinspace )\bigotimes |0 \rangle représente un 2-qbit dans un état non intriqué.

\frac{1}{\sqrt{2}}|00⟩ + \frac{1}{\sqrt{2}}|11⟩ est au contraire un état intriqué, couramment appelée paire EPR (Einstein, Podolsky et Rosen) en référence à leur fameux article de 1935 sur l’interprétation de la théorie et son incomplétude. Une mesure, même partielle sur un seul des qubits, projette l’ensemble sur l’un des états de base du couple. Dans une paire EPR, la mesure d’un seul qubit donne également la mesure du second (dépendance totale).

En informatique quantique l’intrication est utilisée pour relier des qubits, qui présentent alors des états quantiques indissociables. C’est ce qui permet en particulier de créer des interférences entre qubits, source potentielle de performances algorithmiques inégalées. Et aussi la « téléportation » quantique (d’information, pas de matière ni d’énergie !).

Les portes quantiques

Dans le modèle de calculateur prévalent [4], un ou plusieurs qubits sont soumis à des ensembles de traitements appelés « portes quantiques ». Les portes à un qubit correspondent à des opérations d’algèbre linéaire sous forme de matrices 2×2. Les portes quantiques modifient l’information contenue dans les qubits sans la lire. Typiquement, la première étape des traitements consiste à mettre le système représenté par ses registres quantiques dans un état initial où chaque qubit est à |0⟩. Puis on applique différents opérateurs comme la transformation dite de Hadamard, qui crée une superposition uniforme \frac{1}{\sqrt{2}}|0⟩ + \frac{1}{\sqrt{2}}|1⟩. Une fois cette initialisation réalisée, des opérations de portes sont lancées séquentiellement sur les qubits, en fonction de l’algorithme à exécuter. A la fin des traitements la valeur des qubits est lue, ce qui a pour effet de les projeter sur l’un des états de base, avec une certaine probabilité.

Perspectives d’applications

L’une des principales motivations de l’informatique quantique est de résoudre des problèmes que les ordinateurs traditionnels ne seront peut-être jamais en mesure de traiter. Sans entrer dans les arcanes et subtilités de la théorie de la complexité, il s’agit de traitements dont le temps d’exécution augmente exponentiellement avec la taille, comme pour le problème du voyageur de commerce [5]. La plupart des problèmes à résolution combinatoire basée sur la force brute deviennent rapidement « intractables » avec des moyens classiques et constituent la cible première d’un calculateur quantique. Vu d’aujourd’hui l’ordinateur quantique ne semble pas un marché de remplacement, mais plutôt de complément des outils actuels du calcul haute performance. Une des raisons est que la manipulation de gros volumes de données n’y est pas particulièrement favorisée et peut affaiblir une supériorité algorithmique. Sous cette réserve, les applications potentielles de la puissance de calcul quantique sont nombreuses et variées : conception de molécules/médicaments, optimisation/risque de portefeuille, gestion de réseaux électriques, etc. [6]

Quelques domaines, où la volumétrie des données n’est en général pas centrale, présentent déjà une relative maturité. C’est le cas de la sécurité des communications, avec la mise en évidence dès les années 1990 d’algorithmes quantiques remettant en cause les standards en vigueur. On peut y distinguer notamment la cryptographie quantique, qui permet par exemple d’échanger une clé secrète sans violation possible et la cryptographie post-quantique qui tente de prévenir les capacités de déchiffrement d’un ordinateur quantique. Des solutions d’échange de clés (Quantum Key Distribution) sont opérationnelles et commercialisées depuis plusieurs années. Dès 2016, l’agence américaine de standardisation (NIST) lançait un appel à contributions pour parer la menace que les technologies quantiques représentent pour un pan entier des systèmes de signature ou de chiffrement type RSA [7]. La cryptographie asymétrique à clé publique repose en effet sur la complexité calculatoire de problèmes comme la factorisation des grands nombres ou le logarithme discret, qui rend inopérantes les attaques avec les moyens existants, mais pas avec un futur calculateur quantique.

De sérieux obstacles …

L’un des gros écueils encore à franchir est lié aux taux d’erreur très élevés sur les qubits, non seulement du fait des interactions avec l’environnement, mais aussi sous l’action des portes quantiques, lors de la mesure de leur état et éventuellement par transmission. En informatique classique la correction d’erreurs porte surtout sur la mémoire, le stockage et les télécommunications. Dans les technologies quantiques, le calcul est tout autant source d’altérations et au total les taux d’erreur sont aujourd’hui totalement prohibitifs dès que l’on enchaîne quelques portes quantiques d’affilée.

Parmi différentes pistes explorées, une solution naturelle est de s’inspirer des codes correcteurs d’erreurs classiques à base de redondance d’information [8], augmentés des facultés d’intrication. Il s’agirait d’assemblages de qubits physiques imparfaits permettant de produire des qubits « logiques », sans défaut et prêts à l’emploi. Le ratio entre les deux s’exprimerait probablement en dizaines de milliers.

Les algorithmes quantiques sont théoriquement bien plus efficaces que leurs équivalents conçus pour des ordinateurs traditionnels, mais leur performance relative en pratique reste encore très difficile à évaluer. Une « suprématie quantique » est accordée à un algorithme traitant un problème donné, qui n’est exécutable que sur un ordinateur quantique ; ce problème ne pouvant pas être résolu sur le plus puissant des supercalculateurs. On estime qu’elle pourra être observable à partir de 50 qubits logiques pour des simulations de systèmes quantiques. Pour les problèmes d’optimisation, une centaine est plus réaliste et pour la factorisation des très grands nombres, l’ordre de grandeur est probablement le million.

… et en attendant

La mise au point de calculateurs quantiques fiables et universels est vraisemblablement une question de décennies, mais à plus court terme une ère qualifiée de NISQ (Noisy Intermediate-Scale Quantum) est déjà amorcée. Elle correspond à l’émergence de machines de 50 à 100 qubits avec correction d’erreurs limitée, qui sans révolutionner le monde peuvent néanmoins réaliser certaines tâches au-delà des capacités des ordinateurs classiques. Une voie complémentaire pour s’approprier la logique des algorithmes quantiques et les expérimenter consiste à reproduire le comportement d’un ordinateur quantique avec des moyens classiques. Les supercalculateurs existants émulent difficilement plus de 50 qubits, mais la disponibilité de telles plateformes est déjà bien réelle.

Des résultats indirects sont également tangibles, avec une forme de stimulation et de compétition entre les deux mondes, qui pousse à progresser aussi bien dans l’industrie des supercalculateurs que dans la conception de nouveaux algorithmes classiques. Un exemple désormais fameux est l’algorithme de recommandation découvert par Ewin Tang à l’occasion d’un travail de 1er cycle universitaire. L’algorithme classique de Tang, inspiré d’un algorithme quantique, résout le même problème en temps similaire, mais sur un ordinateur normal. L’idée sous-jacente se généralise pour certains problèmes en une technique de « déquantisation » apportant une amélioration exponentielle des meilleurs algorithmes classiques connus.

 

Mots-clés : Informatique – quantique – algorithmes – calcul haute performance – HPC.


Notes

[1] La notation |x⟩, prononcée ket x, a été introduite par Paul Dirac et dérive d’une des notations du produit scalaire sous forme de crochets (jeu de mots avec l’anglais bracket) : ⟨y|x⟩. D’où la moitié ket :|x⟩ qui désigne un vecteur et la moitié bra : ⟨y| qui désigne un vecteur transposé (dual).

[2] Un état est donc au départ décrit par 4 paramètres réels, mais contraints par cette norme unité. Par ailleurs, deux états avec la même différence de phase entre α et β sont physiquement indistinguables, ce qu’on peut traduire en imposant une partie imaginaire nulle à l’un ou l’autre des coefficients. Au total, un état évolue donc dans une variété réelle de dimension 2, d’où l’utilisation très courante d’une représentation sur une sphère (dite de Bloch).

[3] Un état de base d’un 2-qbit, par exemple où l’un est dans l’état 1 et le second dans l’état 0, est noté |10⟩ ou sous une forme tensorielle |1\rangle\bigotimes|0\rangle utile pour les calculs algébriques.

[4] Les alternatives comme le modèle adiabatique ne présentent pas toujours le même caractère universel et sont le plus souvent spécialisées dans la résolution de certains problèmes, typiquement d’optimisation combinatoire (quantum annealing, version quantique du recuit simulé).

[5] Un classique du domaine de la recherche opérationnelle aux multiples applications. C’est un problème d’optimisation combinatoire consistant à visiter une seule fois un certain nombre de villes et à revenir au point de départ, en minimisant la distance parcourue.

[6] Outre les applications de calcul et de communication de nature transverse, on distingue aussi des applications à vocation plus spécifique comme la simulation quantique (à ne pas confondre avec l’émulation d’un ordinateur quantique par des moyens classiques), pour résoudre des problèmes de physique ou encore la métrologie quantique (quantum sensors), pour la mesure à haute sensibilité et résolution de paramètres physiques.

[7] Du nom des concepteurs, Rivest, Shamir et Adleman. Incidemment, une belle introduction à la cryptologie : Hervé Lehning, la bible des codes secrets, Flammarion (2020). Dans un format plus court, l’article « A brief history of cryptography », publié sur www.variances.eu.

Les quatre premiers algorithmes sélectionnés ont été dévoilés par le NIST en juillet dernier. On peut y noter une forte présence française dans les équipes ou les brevets utilisés.

[8] Voir l’article « 70 ans de codes correcteurs d’erreur », publié sur www.variances.eu.


Quelques références

Deux « monuments historiques » de la formalisation de la mécanique quantique :

Paul Dirac, The Principles of Quantum Mechanics, Clarendon Press (1930).

John von Neumann, Mathematische Grundlagen der Quantenmechanik, Springer (1932). Princeton University Press a réédité en 2018 la version anglaise dans un format typographique moderne en TeX qui facilite la lecture (malgré pas mal de coquilles).

Une chaire annuelle du Collège de France consacrée aux algorithmes quantiques s’est tenue en 2021. Les vidéos et documents sont archivés sur la page :

www.college-de-france.fr/site/frederic-magniez

Olivier Ezratty, Understanding Quantum Technologies (2021).

Une impressionnante synthèse … de 800 pages qui examine le sujet sous toutes les coutures, historiques, scientifiques, technologiques, économiques, voire sociologiques. E-book gratuit disponible sur le site de l’auteur.

Ronald de Wolf, Quantum Computing: Lecture Notes (2022).

Des notes de cours de référence, assez concises, pour entrer dans le vif du sujet.

Livre blanc « Intelligence artificielle, blockchain et technologies quantiques au service de la finance de demain » publié par le pôle de compétitivité Finance Innovation (2019).

Un point de vue sectoriel sur trois technologies à des degrés de maturité très différents.