L’ordinateur quantique reste à construire

Google a révélé que sa machine D-Wave avait réalisé un calcul 100 millions de fois plus vite qu’un ordinateur classique. L’ère de l’informatique quantique a-t-elle commencé ?

C’est une grosse boîte noire qui suscite bien des commentaires. Une armoire de métal aussi massive qu’impénétrable, dans les entrailles de laquelle règnent un froid plus qu’intersidéral et un vide quasi-parfait. Son nom ? D-Wave 2X. Son prix ? Entre 10 et 15 millions de dollars. Sa particularité ? Elle est ce qui se rapproche le plus aujourd’hui d’un ordinateur quantique.

Ce qui ne veut pas dire qu’elle en est un. A entendre les spécialistes de ce côté-ci de l’Atlantique, la machine développée par la société canadienne D-Wave en partenariat avec Google et la Nasa en est même très, très loin. Non seulement, disent-ils, elle n’est pas « complètement quantique » mais, surtout, ce n’est en aucun cas un ordinateur, c’est-à-dire un calculateur universel – ce qu’est le plus modeste des PC. D-Wave 2X ne fonctionne qu’avec un unique algorithme au nom délicieusement sibyllin, le « recuit simulé quantique ». Plus souvent désigné par son nom anglais de « quantum annealing », il a été conçu pour trouver des solutions à certains problèmes d’optimisation. Ce qui a des applications aussi diverses que de minimiser le risque d’erreur d’un système de reconnaissance vocale, contrôler le risque d’un portefeuille financier ou réduire les pertes d’énergie d’un réseau électrique. Ce n’est déjà pas mal… mais c’est tout.

Il n’empêche. Google a réussi un joli coup de pub en annonçant, à la veille des fêtes de Noël, que sa petite merveille avait réussi à résoudre un problème 100 millions de fois (108) plus vite qu’un ordinateur classique. Faut-il y voir la première manifestation de cette fameuse « accélération quantique » (« quantum speed-up », comme préfèrent le dire les experts) qui reléguera les Tianhe-2, Titan et autres stars du classement Top 500 des supercalculateurs au rang de simples bouliers ? Nullement, à en croire les chercheurs européens interrogés par la Commission de Bruxelles sur ce résultat. Dans une tribune publiée sur le site de leur organisation Qurope, ces chercheurs écrivent que Google et D-Wave ont pris soin de comparer les performances de leur machine à un algorithme classique peu performant pour la tâche demandée ; mais qu’il en existe d’autres, bien meilleurs, par rapport auxquels ce gain d’un facteur 108 s’évanouit.

Deux zéros de plus

Si « accélération quantique » il y a, elle se produirait plutôt dans le montant des chèques dont bénéficient les projets de recherche de l’autre côté de l’Atlantique. « Grâce à l’entrée en lice de géants comme Google, IBM, Microsoft ou Intel, la recherche américaine bénéficie désormais de financements se chiffrant en centaines de millions de dollars. C’est deux zéros de plus par rapport à nos projets académiques de quelques millions d’euros », note l’un des protagonistes du secteur, Philippe Grangier. Responsable du groupe Optique quantique à l’Institut d’optique de Palaiseau, ce directeur de recherche au CNRS admet bien volontiers qu’une telle montée en puissance ne se serait pas produite aussi vite sans l’action de « francs-tireurs » comme D-Wave.

Maintenant que les mastodontes de l’informatique arrosent de leurs dollars les laboratoires de technologies quantiques, et que de premières machines très spécifiques, comme D-Wave, ont ouvert la voie, le chemin sera-t-il encore long avant d’arriver à un prototype d’ordinateur quantique ? La réponse est clairement… oui.

Que faut-il comprendre lorsque les spécialistes européens disent de la machine conçue par D-Wave qu’elle n’est pas « complètement quantique » ? Un calculateur ou un simulateur quantique a pour moteur un processeur dont la puissance dépend de son nombre de bits quantiques, alias « qubits » (lire en encadré). Celui de D-Wave 2X en compte un millier, ce qui est énorme. Mais il s’agit de « qubits au rabais, d’éléments supraconducteurs potentiellement quantiques », tempère Philippe Grangier.

Pour mériter son nom de qubit, c’est-à-dire pour tirer parti des lois de la physique quantique (superposition d’états, intrication…) et les transformer en puissance de calcul démultipliée, un qubit doit être parfaitement isolé de son environnement immédiat. Faute de quoi il perd immédiatement ses propriétés quantiques – les physiciens disent qu’il « décohère ».

Un énorme réfrigérateur

Pour supprimer, ou du moins retarder le plus possible la décohérence, deux stratégies doivent être mises en oeuvre parallèlement. La première est passive. La décohérence naissant de l’interaction d’une particule matérielle avec son environnement, elle consiste à rendre cet environnement le plus propre possible. S’agissant des qubits supraconducteurs tels ceux qui équipent D-Wave 2X, cela veut notamment dire un environnement pur de toute excitation thermique. D’où la grosse armoire noire dans laquelle se cache le processeur quantique de la machine américano-canadienne : il s’agit en fait d’un énorme réfrigérateur, un cryostat à dilution d’hélium maintenant les qubits à une température extrêmement proche du zéro absolu (-273,15 °C), lequel est synonyme d’absence totale d’excitations. De gros progrès ont été réalisés dans ce domaine, ainsi que dans la qualité des matériaux utilisés.

Mais il est impossible d’éliminer toute la décohérence de cette façon. A la stratégie passive doit donc s’ajouter une stratégie active, reposant sur ce que les informaticiens appellent des « codes correcteurs », dont D-Wave 2X est dépourvu. En l’absence de décohérence, une particule matérielle – un ion, par exemple – suffirait à former un qubit robuste, conservant son information (0, 1 ou superposition d’état 0/1) indéfiniment. En pratique, cependant, il n’en va pas ainsi. Si l’on veut que cette information soit conservée durant un temps suffisamment long pour effectuer des calculs, elle doit être encodée dans non pas un, mais plusieurs ions à la fois, intriqués entre eux. Ce codage distribué rend possible l’application d’un algorithme, le code correcteur, permettant de rectifier les erreurs dues à la décohérence.

Des codes correcteurs très efficaces ont été conçus – sur le papier – par quelques-uns des pionniers de l’informatique quantique : Andrew Stean, de l’université d’Oxford, a développé un code à 7 qubits ; Peter Shor, des Bell Labs, à 9 qubits. Mais les physiciens ne savent pas encore comment implémenter des codes aussi complets dans les machines. Celles-ci fonctionnent dans le meilleur des cas avec des codes plus restreints, à seulement 3 qubits, qui ne corrigent que certains types d’erreur.

Codes correcteurs, abaissement de la température, création d’algorithmes spécifiquement quantiques… « Sur tous ces fronts, la recherche s’accélère, assure Philippe Grangier. Il n’en est aucun dont on puisse dire : « ce problème est résolu », mais il n’est pas apparu non plus d’obstacle infranchissable… »

Les Echos 08/02/2016