Les ExpertsOlivier Ezratty

Honeywell a-t-il créé l’ordinateur quantique le plus puissant du monde?

Par Olivier Ezratty, expert FrenchWeb

Le 2 mars 2020, Honeywell annonçait avoir mis au point un ordinateur quantique qui serait le plus puissant du monde et doublerait la puissance par rapport au record précédent qui serait détenu par IBM. La communication initiale d’Honeywell a été reprise à l’unisson par les médias du monde entier. Ca flashait bien et faisait suite à l’annonce remarquée de la suprématie quantique de Google en septembre/octobre 2019.

Évidemment, cette annonce aiguise la curiosité. Est-elle documentée techniquement? Peut-on s’en faire une idée plus précise? Est-ce que le volume quantique d’IBM rime à quelque chose? Cette annonce est-elle exagérée? Est-ce une annonce significative? Peut-on en tirer des leçons pour les efforts français dans les technologies quantiques? Réponses: six fois oui! Que nous allons détailler ici même. Accrochez-vous, c’est un peu technique au début mais les dernières parties le sont beaucoup moins!

Sources d’information techniques

On peut commencer par accéder à quelques sources d’informations détaillées:

Une publication scientifique qui décrit dans le détail la performance d’Honeywell : Demonstration of the QCCD trapped-ion quantum computer architecture par J. M. Pino & Al, 2020 (8 pages) ainsi que ses perspectives. Celle-ci n’est en effet qu’une étape d’un parcours qui n’est pas terminé. Par rapport à la documentation de la suprématie quantique de Google, les informations fournies sont moins abondantes. On sent qu’Honeywell préserve ses arrières et ne dévoile pas tout. Il faut préciser que ce document n’est pas encore passé par une relecture par comité d’auteur. Il n’est publié pour l’instant que sur Arxiv.

La présentation Shaping the future of quantum computing de Tony Uttley, le patron de l’équipe quantique d’Honeywell. Elle avait lieu lors de la conférence Q2B organisée par la startup QcWare à San Jose en Californie du 10 au 12 décembre 2019 (slides). Y participaient notamment Iordanis Kerenidis (QcWare, CNRS, et aussi membre de la mission quantique de Paula Forteza) et Christophe Jurczak (Quantonation).

La notion de volume quantique est définie dans Quantum Volume de Lev Bishop, Sergey Bravyi, Andrew Cross, Jay Gambetta et John Smolin, 2017 (5 pages). Dans A volumetric framework for quantum computer benchmarks, février 2019 (24 pages), Robin Blume-Kohout et Kevin Young proposent des benchmarks volumiques pour évaluer la performance des ordinateurs quantiques en s’appuyant sur le volume quantique d’IBM. Ce dernier propose aussi son propre code d’évaluation du volume quantique.

Ces sources d’information permettent de bien examiner l’annonce en question, que je fais dans ce qui suit. Cela m’a demandé un peu de recherche documentaire sur certains domaines de la physique qui m’étaient méconnus et aussi de me faire aider par quelques physiciens, cités en fin d’article.

Volume quantique

L’annonce d’Honeywell porte sur la création d’un processeur quantique de quatre qubits à base d’ions piégés, l’une des technologies de qubits actuellement explorée à côté notamment des circuits supraconducteurs (IBM, Google, Rigetti, Intel, …), des photons (PsiQuantum, …), des atomes froids (Pasqal en France) et du silicium (CEA-Leti, Intel).

Le doublement de la puissance est évalué par un nombre entier, le volume quantique, proposé par IBM en 2017, qui associe la quantité de qubits et le nombre de portes quantiques qui peuvent être exécutées consécutivement sans que les erreurs qui s’accumulent soient préjudiciables à la précision des calculs. En effet, disposer de n qubits mais être limité par le nombre de portes quantiques que l’on peut enchaîner peut être préjudiciable à l’exécution de nombreux algorithmes quantiques. Certains sont gourmands en portes quantiques, d’autres non. A ce jour, seuls IBM et Honeywell utilisent cette notion de volume quantique pour décrire la puissance de leurs processeurs quantiques.

Comme la qualité des qubits d’Honeywell serait meilleure avec un faible taux d’erreurs, cela leur permettrait de faire mieux qu’IBM avec ses 28 qubits annoncés lors du CES 2020. Ceci étant, 4 ou 8 qubits, même de qualité, ne servent pas à grand-chose. Il faut dépasser 50 qubits pour pouvoir réaliser des calculs complètement inaccessibles aux supercalculateurs d’aujourd’hui. Honeywell indique cependant pouvoir augmenter ce nombre tout en préservant la qualité des qubits. Cela reste à démontrer.

Honeywell pense ainsi pouvoir atteindre rapidement un volume quantique de 64 à comparer au volume quantique record d’IBM qui serait de 32 et qui date de janvier 2020. En fait, Honeywell mettait un peu la charrue avant les bœufs car pour l’instant, ils en sont à un volume quantique de 16 avec visiblement seulement 4 qubits. Le volume quantique de 64 est une promesse pour la mi-2020. Ils n’indiquent d’ailleurs pas précisément comment ils envisagent de passer de 16 à 64 ! Il semblerait qu’il s’agisse de passer de 4 à 6 qubits (cf l’interview du CEO d’Honeywell ou il mentionne ce chiffre).

Là-dessus, j’ai essayé de comprendre à quoi correspondait exactement ce volume quantique d’IBM. Autant dire que c’est loin d’être trivial. Ce volume quantique est censé évaluer la performance d’un processeur quantique avec un seul nombre entier. C’est donc en apparence très simple. Mais dès que l’on cherche à comprendre d’où vient ce nombre magique, les choses se compliquent.

Ce nombre agrège quatre facteurs clés de performance:

  • Le nombre de qubits physiques du processeur. Le record aujourd’hui est de 53 chez Google et IBM.
  • Le nombre de portes quantiques qui peuvent être enchaînées consécutivement sans que le taux d’erreur soit préjudiciable aux résultats.
  • La connectivité entre les qubits.
  • Le nombre d’opérations qui peuvent être réalisées en parallèle.

Une autre définition du volume quantique est la dimension de l’espace de calcul accessible par le processeur. Cela devient le nombre maximum de qubits sur lequel le processeur peut générer un état aléatoire (combinaison d’états de qubits)… et élevé au carré.

On retrouve cette notion dans le schéma ci-dessous issu du document déjà cité de Robin Blume-Kohout et Kevin Young. Leur benchmark est réalisé avec une combinaison de nombres de qubits inférieurs au nombre de qubits du processeur, 16 dans ce cas, et de séries de portes quantiques enchaînées, jusqu’à 38 dans le cas présent. Le volume quantique devient la surface du carré en gris contenant les carrés entourés de rouge. Il s’appuie sur le nombre de qubits permettant d’exécuter un algorithme aléatoire avec une profondeur de calcul égale à au moins ce même nombre de qubits. Cela correspond à ce que l’on appelle un « circuit carré », lorsque le nombre de portes enchaînées est égal au nombre de qubits dans sa représentation graphique temporelle classique. Et il faut dans le benchmark que l’on ait une probabilité de 2/3 d’obtenir le bon résultat.

D’un point de vue géométrique, ce carré semble être le plus souvent le rectangle de plus grande surface qu’il est possible d’inscrire à partir du coin en bas à gauche et dans la zone en bleu foncé qui correspond aux tests réalisés avec succès.

Ce volume quantique est une valeur un peu arbitraire. En effet, certains algorithmes peuvent se satisfaire d’un nombre limité de portes quantiques, comme celui de Deutsch-Jozsa qui sert à vérifier qu’une fonction est équilibrée ou pas (générant une fois sur deux 0 ou 1 ou tout le temps 0 ou 1), et se contente de seulement quatre séries de portes quantiques. A l’inverse, le fameux algorithme de factorisation de nombres entiers de Peter Shor requiert un nombre de séries de portes quantiques égal au cube du nombre de qubits utilisés.

Le schéma de Robin Blume-Kohout et Kevin Young permet de mieux comprendre le processus de création de la formule du volume quantique d’IBM que j’ai décomposé ci-dessous :

Ce schéma ci-dessus vise à rendre plus ou moins compréhensible la définition d’IBM que voici :

Chez IBM, le volume quantique de certains de leurs processeurs quantiques n’est pas toujours un entier au carré! C’est donc peut-être un rectangle au lieu d’être un carré dans le schéma un peu plus haut, avec une profondeur de calcul plus grande que le nombre de qubits, ce qui peut se concevoir avec des qubits en faible nombre et de très bonne qualité.

L’usage du volume quantique est contesté par le fameux spécialiste des théories de la complexité et des algorithmes quantiques Scott Aaronson dans Turn down the quantum volume publié juste après l’annonce d’Honeywell. Il rappelle que le volume quantique qu’Honeywell pense atteindre d’ici mi 2020 est facilement émulable dans un ordinateur classique, même dans un laptop. Ce qui n’en fait pas quelque chose de particulièrement puissant. Et tandis que le volume quantique des ordinateurs quantiques s’agrandira, bien malin sera celui qui pourra indiquer à partir de cette valeur si un ordinateur quantique est capable de résoudre son problème ou algorithme particulier!

Imaginez un indicateur de la puissance de votre laptop agrégeant la fréquence d’horloge du processeur, son nombre de cœurs, la puissance de son CPU, l RAM, la capacité de stockage, son type (disque dur, SSD) etc? Et là, de vous demander si vous allez pouvoir utiliser efficacement votre logiciel de montage vidéo, de dérushage de photos ou de jeu vidéo sur casque de réalité augmentée!

Scott Aaronson pense donc qu’il faut éviter cette mesure du quantum volume qui est un outil de simplification marketing d’IBM et décrire précisément les caractéristiques de la machine avec son nombre de qubits, leur connectivité, le temps de cohérence, le taux d’erreur des portes quantiques, la profondeur de calcul et les besoins en ressources pour émuler l’ensemble sur un ordinateur classique. On trouve généralement ces indicateurs dans les publications scientifiques de chercheurs mais pas toujours dans la littérature marketing des constructeurs.

Les commentaires de son article sont partagés et certains de ses lecteurs apprécient ce métrique simple à retenir. D’autres pensent que ce qui compte est l’avantage quantique, que l’on obtient lorsqu’un processeur quantique est capable de réaliser une opération utile qui prendrait beaucoup plus de temps sur un supercalculateur classique, avantage qui n’est pas encore atteint à ce jour.

Vous n’avez rien compris? Ce n’est pas bien grave, vous pouvez passer à la suite qui concerne la physique quantique du processeur d’Honeywell. Ce n’est peut-être pas plus évident à comprendre, mais c’est assez indépendant de ce que nous venons tout juste de voir. Au pire des cas, sautez ce chapitre pour passer au suivant sur l’importance de l’annonce.

Architecture technique

Passons maintenant à la physique du processeur à ions piégés d’Honeywell. Comme elle est assez originale, même vis à vis de ce que fait IonQ avec ses ions piégés, j’ai essayé d’en savoir plus. Voilà ce que j’ai pu extraire en langage plus ou moins naturel des documents de la société et de la littérature scientifique.

Trapped-ion QCCD est la dénomination de leur technique à base d’ions piégés, pour « quantum charge-coupled device ». Elle exploite des ions à base d’ytterbium, une terre rare. Ils sont couplés à des ions au baryum qui servent au refroidissement de l’ensemble. Ce CCD utilisé dans le nom de la technologie rappelle les capteurs photos CCD qui s’appuient sur une conversion de charges électriques reçues par les photosites en tension et par le transfert de l’information de photosites en photosites. Nous verrons plus loin la parenté de ce procédé avec celui du contrôle de la position des ions dans le processeur d’Honeywell.

La technique du QCCD a été conçue il y a bien longtemps par Christopher Monroe, Dave Wineland et Dave Kielpinski. Elle est décrite dans Architecture for a large-scale ion-trap, 2002 (4 pages). Le papier d’Honeywell fait état de la réutilisation de nombreux travaux issus d’autres laboratoires de recherche étalés entre 2008 et 2012.

Les ions sont générés à partir d’un jet d’atomes collimaté obtenu en chauffant une cible solide d’Ytterbium. lls sont alors « touchés » par un laser, ce qui leur enlève un électron de la couche de valence de l’atome (la dernière). Il ne reste alors plus qu’un seul électron dans cette couche donnant lieu à un ion ayant une charge positive, Yb+. Le refroidissement laser de ces ions est bien maîtrisé grâce à leur schéma de niveaux d’énergie favorable. Grâce à leur charge électrique, il est possible de piéger et déplacer ces atomes à l’aide de potentiels électrostatiques et radiofréquence. Les autres éléments pouvant être utilisés pour créer des ions piégés sont le béryllium, le magnésium, le strontium et le calcium. L’ytterbium est aussi utilisé pour créer des mémoires quantiques, mais pas dans le cas présent.

L’état quantique des ions correspond à deux états énergétiques dits « hyperfins » dûs à l’interaction entre le moment magnétique du noyau et celui des électrons de l’ion. Ces niveaux hyperfins sont aussi utilisés dans les horloges atomiques au césium. La fréquence de transition entre les deux niveaux hyperfins de l’ytterbium est de 12,6 GHz. Voir Laser-cooled ytterbium ion microwave frequency standard de S. Mulholland & Al, 2019 (16 pages). Les états hyperfins de l’ion d’ytterbium se prêtent bien au calcul quantique car ils sont très stables, ce qui leur permet d’avoir un long temps de cohérence.

Les ions du processeur quantique d’Honeywell sont des ions baladeurs! C’est le premier cas de « flying qubits » que je rencontre qui ne sont pas à base de photons. En effet, d’habitude, les qubits à base d’électrons, d’atomes froids ou d’ions ne bougent pas (trop) là où on les installe.

Leur système s’appuie sur un système qui prépare des atomes d’ytterbium, les ionise et les envoie dans un trou qui alimente le chipset. Ce procédé est classique. Il utilise ensuite une dizaine de zones de stockage et de tri des ions (en orange, jaune et bleu dans le schéma ci-dessous).

Les ions d’ytterbium sont confinés au-dessus d’un rail de trois rangées d’électrodes dont la tension variable permet d’en contrôler la position et de les déplacer latéralement. L’innovation de l’expérience de Honeywell est de réussir à démontrer des opérations logiques entre plusieurs qubits – ici, jusqu’à 4 – tout en les déplaçant à volonté entre des zones de stockage et des zones d’interaction pendant les opérations. Cette idée avait été proposée dès 2002 par Dave Wineland et son équipe du NIST, mais il a fallu 18 ans d’efforts continus de recherche de la communauté des ions piégés pour finalement arriver à cette prouesse technique.

Le système utilise 198 électrodes à courant continu pour le déplacement et le positionnement des ions ytterbium qui sont couplés à des ions de baryum. La puce exploite des pièges cryogéniques de surface (“cryogenic surface trap”) qui permettent ainsi de réarranger dynamiquement le positionnement des couples d’ions ytterbium/baryum et de mettre en œuvre des portes quantiques exécutées en parallèle sur plusieurs zones du circuit.

Le schéma semble indiquer que les ions circuleraient sur la bande verte, permettant un déplacement arbitraire des ions le long de la bande. Une fois déplacés, ils seraient recasés dans la bande du milieu pour subir une porte quantique unitaire, ou dans les bandes latérales pour générer des portes quantiques à deux qubits, comme expliqué dans le schéma ci-dessous que j’ai commenté. L’une de ces opérations est une porte SWAP qui permet d’interchanger physiquement les ions.

L’inconvénient de la technique est la lenteur des portes quantiques dans les ions piégés, qui risque d’être ici encore plus marquée du fait du dispositif utilisé. Le temps de configuration des ions pour créer une porte quantique est de 3 à 5 ms ce qui n’est pas négligeable, surtout pour des algorithmes nécessitant d’enchaîner un grand nombre de portes quantiques.

Le système fonctionne à une température de 12,6K, c’est-à-dire 12,6 degrés au-dessus du zéro absolu qui est de –273,15°C. Et avec une stabilité de température de 2mK qui évite de perturber les ions et leur état quantique superposé. Le refroidissement à l’hélium est complété par la technique du “sympathetic cooling” qui combine l’usage de l’effet Doppler et d’un refroidissement à effet Raman sur les ions de baryum qui sont voisins des ions ytterbium. L’interaction coulombienne entre les ions baruym permet de refroidir les ions ytterbium accolés aux ions baryum. L’effet Doppler consiste à envoyer des photons dont la fréquence est calibrée pour ralentir les ions qui se dirigent vers leur source tout en laissant en place ceux qui se dirigent dans l’autre sens. Une opération de refroidissement des ions baryum a lieu avant chaque exécution de porte à deux qubits.

Le refroidissement par laser des ions fonctionne en fait très bien à température ambiante et depuis plus de 30 ans. Comme de nombreux groupes de recherche, Honewyell refroidit le piège à ion (à 12,6K) pour minimiser l’effet d’échauffement anormal des ions, qui est un problème majeur des manipulations d’ions piégés et qui n’est d’ailleurs pas entièrement compris. Cet échauffement anormal est fortement réduit lorsque le piège est refroidi. C’est pour ça qu’ils le font ici.

Le système s’articule autour de briques de quatre qubits et utilise des portes quantiques à un et deux qubits qui sont activées par lasers, via l’effet Raman qui nécessite une paire de faisceaux. Les portes unitaires (un seul qubit) sont activées par une paire de faisceaux Raman de 370,3 nm en polarisation circulaire. Le système permet de générer des portes X, Y et Z pour qui effectuent des rotations de quarts de tours et de demi-tours autour des trois axes de la sphère de Bloch qui représente l’état quantique d’un qubit. Ces rotations se font avec une très grande précision d’après Honeywell. Cela assure un taux d’erreur minimum pour des portes quantiques unitaires (à un seul qubit).

Les portes à deux qubits utilisent deux paires de faisceaux laser additionnels qui agissent sur des paires d’atomes d’ytterbium qui ont été rapprochés l’un de l’autre par les électrodes de contrôle de positionnement du circuit. Deux ions sont ainsi déplacés par les électrodes dans le même puits de potentiel avant d’être couplés par laser. Les qubits peuvent alors être séparés et déplacés ailleurs pour interagir avec d’autres qubits.

La lecture de l’état des ions se fait avec un imageur classique qui détecte l’état énergétique des ions via leur fluorescence qui est activée par laser. Cet imageur est un “PMT array”, c’est-à-dire un réseau linéaire de photomultiplicateurs (Photo-Multiplier Tube). Leur architecture permet une mesure de l’état des qubits en cours de traitement, sans perturber les qubits voisins. Cela permet de programmer l’ordinateur quantique avec une logique conditionnelle, avec des IF THEN ELSE comme en programmation classique.

Enfin, le système comprend un circuit électronique programmable FPGA pour le contrôle des qubits, à priori, hors de l’enceinte cryogénique.

Honeywell ne parle pas trop des méthodes et outils de programmation de leur processeur quantique. Elle doit être légèrement différente de celle des ordinateurs quantiques d’IBM et de Google du fait que les qubits peuvent se déplacer. La gestion temporelle de l’ensemble est aussi très différente du fait du temps de préparation des qubits pour les portes unitaires et les portes à deux qubits.

Importance de l’annonce

Une fois que l’on a éliminé le marketing du volume quantique et de l’ordinateur quantique le plus puissant du monde, que retenir d’intéressant ?

La performance de leurs qubits semble correcte, mais pas forcément extraordinaire en comparaison des valeurs déjà obtenues avec des ions piégés. Il existe plein de manipulations d’ions piégés avec beaucoup plus que 4 qubits. Chez Honywell, le taux d’erreur ne serait que de 2% après l’exécution d’une centaine de portes quantiques. Cela permettrait d’exécuter des algorithmes quantiques “profonds” avec un grand nombre d’enchaînements de portes quantiques.

Cela se compare à une profondeur d’environ 20 portes quantiques exécutées avec les 53 qubits supraconducteurs du chipset Sycamore de Google pour leur suprématie quantique de 2019. Il y aurait aussi un faible “cross talk” entre couples de qubits, à savoir que les qubits indépendants n’ont pas l’air d’interférer avec leurs voisins, sauf lorsqu’ils sont intriqués. Bref, ce taux d’erreurs très bas est un record à ce jour. C’est un saut qualitatif important dans le calcul quantique qui ouvre la voie à d’autres progrès pour avancer dans la création de calculateurs NISQ (Noisy Intermediate Scale Quantum). C’est extrêmement encourageant et probablement aussi important que la suprématie quantique de Google.

La principale nouveauté de l’expérience d’Honeywell est cependant de démontrer le déplacement physique des ions pendant les opérations de logique quantique. Ce n’est pas du tout une idée nouvelle, puisqu’elle a été proposée en 2002 par Dave Wineland and co. Cela en serait la première réalisation complète même si elle est encore primitive. En soi, elle est suffisamment impressionnante. C’est le résultat d’un gros travail d’ingénierie.

Honeywell indique que son architecture serait scalable, en conservant ce faible taux d’erreurs. Ils n’ont à ce jour testé que quatre qubits ! Ils envisagent une approche de montée en puissance à trois étapes. Pour l’instant, ils utilisent une barre d’ions piégés « 1D ». Dans les deux étapes suivantes, ils passeraient à une barre en « 2D » qui permettrait de déplacer les ions dans deux directions, permettant ainsi d’en accumuler un plus grand nombre et de les connecter avec leurs voisins dans deux dimensions. Cela prendra du temps de mettre cela au point.

Honeywell annonce ainsi que leur processeur sera 100 000 fois plus rapide d’ici 2025. Rapide comment? Evalué avec le volume quantique d’IBM ou avec une autre méthode de mesure? On ne sait pas. Par le passé, nombre d’annonces de ce genre ont été faites, comme John Martinis qui déclarait en 2017 scaler jusqu’à 72 qubits. Et ils en étaient à 53 en 2019. La scalabilité des processeurs quantiques est un des problèmes les plus complexes qui reste à régler.

Terminons cette partie par quelques mots de l’approche générale d’Honeywell. Ils ont démarré leurs investissements dans le calcul quantique en 2016 mais en mode “stealth”, sans communiquer autour. Cela se savait cependant car ils ont recruté des chercheurs issus de diverses universités américaines. Leur équipe rassemble aujourd’hui une centaine de personnes avec des physiciens, des ingénieurs et des développeurs.

J’ai repris la liste des signataires du papier scientifique d’Honeywell pour voir d’où ils venaient. Nous avons Juan Pino, John Gaebler, Michael Foss-Feig et Karl Mayer qui viennent de l’Université du Colorado, ces deux derniers étant passés par le NIST, l’équivalent de l’AFNOR français, qui investit beaucoup sur les technologies quantiques et leur standardisation. Karl Mayer a aussi travaillé sur les fermions de Majorana. Il y a aussi Joan Dreiling qui vient du laboratoire de physique de l’Université de Nebraska. Nous avons Caroline Figgatt et Steven Moses qui viennent de l’Université du Maryland et de l’équipe de Christopher Monroe, le fondateur d’IonQ, une startup qui explore aussi le calcul quantique à base d’ions piégés.

Et puis Charles Baldwin du NIST et de l’Université du Nouveau Mexique, David Hayes de l’Université de Sydney et de Lockheed Martin, Ciaran Ryan-Anderson de l’Université du Nouveau Mexique, passé par les Sandia Labs et l’Université de Swansea au Royaume-Uni. Et enfin, Brian Neyenhuis de l’Université du Colorado et du Maryland. Pourquoi autant de scientifiques provenant du Colorado ? Parce que l’équipe quantique d’Honeywell est basée à Denver ! Et aussi un laboratoire du NIST qui planche sur le quantique!

Du côté ingénierie, Honeywell n’est pas très disert sur la manière dont sont conçus leurs prototypes d’ordinateurs quantiques. On sait par contre qu’ils réutilisent des technologies qu’ils maîtrisent déjà du fait de leurs business traditionnels : en cryogénie, de création d’ultravide, de fabrication de MEMS, de générateurs d’ondes radio, de lasers et optiques. Ils sont notamment très présents dans l’aviation (APU, les unités de génération de puissance auxiliaires ainsi que dans les boîtes noires), le spatial, l’internet des objets, l’air conditionné, l’énergie, la chimie et les matériaux spéciaux.

Au moment de l’annonce du 2 mars, Honeywell évoquait plusieurs partenariats:

  • Un partenariat avec Microsoft, dans la lignée d’une annonce de ce dernier faite en décembre 2019. À terme, les calculateurs quantiques d’Honeywell seront proposés dans le cloud Azure aux clients de Microsoft. Pour ce faire, il serait cependant utile d’attendre qu’ils puissent aligner au moins une quarantaine de qubits car en-deçà, on peut les émuler assez facilement sur des architectures traditionnelles.
  • Un investissement dans les startups Cambridge Quantum Computing (2014, UK, $22,4 levés en tout) et Zapata Computing (USA). Startups qui développeront des outils logiciels pour les machines d’Honeywell.
  • Un partenariat avec JPMorgan Chase pour créer des algorithmes quantiques dans le secteur financier. Cela permet d’aligner un client potentiel… face à la centaine qu’IBM affiche depuis janvier 2020.

Du côté de leur concurrence, la principale est celle d’IonQ (2016, USA, $75M), la spin-off de l’Université de Maryland. Ils ont réalisé en 2019 un processeur quantique de 160 qubits à base d’ions d’ytterbium avec un calcul réalisé sur 79 d’entre eux. Mais pour l’instant, leur benchmark publié se limite à 11 qubits, vu dans Benchmarking an 11-qubit quantum computer, mars 2019 (8 pages). Il faut aussi compter avec Alpine Quantum Technologies (2017, Autriche), créée par Rainer Blatt et qui a caractérisé jusqu’à 10 qubits à ions piégés de très bonne qualité.

Il y a aussi la startup de Yann Allain en France, NextGenQ, qui ambitionne aussi de créer un ordinateur quantique à base d’ions piégés, semble-t-il avec une technique voisine de celle d’IonQ mais avec des moyens très limités. Son créateur a déjà réussi à piéger quelques ions dans son système créé dans un garage ! Voir la vidéo d’une conférence où il intervient pendant une heure en décembre 2019.

Au passage, une petite remarque sur les rumeurs que j’entends souvent sur les capacités quantiques cachées supposées de la NSA aux USA. Comme quoi ils disposeraient de capacités de calcul quantique énormes non encore révélées. Genre, avec de quoi casser les clés RSA avec du calcul quantique (qui nécessite 23 millions de qubits de très bonne qualité pour une clé 2048 bits). L’épisode d’Honeywell montre que ce n’est probablement pas le cas. L’innovation dans le calcul quantique est incrémentale et distribuée dans le monde entier. Les chercheurs naviguent entre universités, entreprises et startups. Enfin, les grandes agences américaines reposent sur le secteur privé pour la plupart de leurs besoins technologiques. Il se dit par exemple que la NSA se repose sur Lockheed Martin pour tester des calculateurs quantiques comme ceux du canadien D-Wave. Ils ont cependant leur propre laboratoire de recherche, le NSA Laboratory for Physical Sciences (LPS), géré en partenariat avec l’Université du Maryland.

Conséquences pour la France

L’annonce d’Honeywell a beau devoir être prise avec quelques pincettes, notamment pour ce qui est de ce « record du monde » et du volume quantique mesuré avec l’indicateur d’IBM, c’est une performance intéressante. Elle montre que l’on peut stabiliser des qubits bien mieux qu’auparavant. Cela nous habitue à une nouvelle importante au moins tous les six mois, après celle de la suprématie quantique de Google de septembre/octobre 2019.

Cela illustre aussi la saine concurrence entre les différents types de qubits. Google et IBM, avec le qubits supraconducteurs et Honeywell avec les qubits à ions piégés. Lors de l’été 2019, les Chinois avaient fait des progrès avec des qubits à base de photons. Les français de Pasqal avancent bien de leur côté avec des qubits à base d’atomes froids et on s’affaire à Grenoble autour des qubits silicium. Sans compter les dizaines d’autres laboratoires de recherche en France et dans le monde.

Quelques autres enseignements sont à tirer que voici.

L’importance de l’ingénierie et de l’intégration : il faut assembler des équipes pluridisciplinaires avec une expérience des laboratoires de recherche (docs, post-docs) et dont une partie est passée par l’industrie. L’ingénierie quantique est clé pour fabriquer ces calculateurs quantiques complexes, en liaison avec la physique fondamentale. J’en avais décrit les contours dans un article précédent, Le développement des compétences en technologies quantiques.

La taille critique d’une équipe pour réaliser une telle performance est d’une centaine de personnes. C’est un niveau accessible à la recherche et à l’industrie française. Cela nécessitera cependant des efforts financiers qui devraient/pourraient arriver dans le cadre du plan quantique que l’État est en train de finaliser pour une annonce d’ici la fin du printemps 2020. Ce sont des investissements homothétiques avec ce qui existe à Grenoble, Paris et Saclay. Cela renforce le rôle d’animation et de coordination des hubs quantiques qui se sont constitués (à Saclay et Grenoble) et sont en passe de l’être (à Paris). On retrouvera à terme ce niveau d’investissement chez Atos.

La notion de timing et de rapidité est clé. Honeywell a abouti à la performance annoncée en quatre ans. Les premières discussions sur un plan quantique français datent de 2018. Le plan doit être annoncé d’ici l’été 2020, soit deux ans après pour une mise en œuvre pratique qui démarrera au mieux en 2021. Donc, en tout trois ans ! Soit 75% du temps qu’il a fallu pour Honeywell pour créer une équipe faisant avancer significativement l’état de l’art. La rapidité de décision d’une entreprise privée est meilleure que celle d’un Etat. ll se trouve qu’en Europe et en France, la recherche fondamentale et même appliquée dans les technologies quantiques est encore principalement une affaire de recherche publique.

Deux impératifs sont donc à avoir en tête : comment d’un côté rendre les processus de décision plus rapides dans le fonctionnement de la recherche publique et d’autre part, encourager les grandes entreprises à faire des paris audacieux autour des technologies quantiques. Et des paris dans la création de technologies quantiques, pas seulement du côté de leur utilisation comme on peut le faire chez Total, EDF et Airbus en France. Il se trouve qu’en France, nous avons Atos et Thales qui sont dans cette position. Mais ils ne peuvent pas mener tous les lièvres à la fois. Le premier est investi dans l’émulation de calculateurs quantiques, dans la création d’outils de développement et dans la cybersécurité tandis que Thales est focalisé sur la métrologie et la cryptographie quantique. A ce stade, cela fait donc reposer l’effort principal en R&D sur les ordinateurs quantiques sur la recherche publique.

Enfin, les progrès dans le calcul quantique sont continus. Il ne faut pas attendre « l’ordinateur quantique qui marchera » dans 5 à 30 ans. Il viendra petit à petit, étendant à chaque nouvelle étape l’étendue du possible et le champ des applications réalisables avec. Pour être de la partie, il faut jouer sérieusement et dès maintenant.

__________________

Je remercie les relecteurs/correcteurs de cet article qui m’ont notamment permis d’affiner l’interprétation scientifique de l’expérience d’Honeywell : Patrice Bertet (CEA-SPEC), Christophe Jurczak (Quantonation), Eleni Diamanti (CNRS-LIP6) et Harold Ollivier (CNRS-LIP6).

L’expert

Olivier-Ezratty

Olivier Ezratty est consultant et auteur, créateur d’Opinions Libres, son blog sur les deep techs (intelligence artificielle, informatique quantique, medtech, …) et sur l’innovation (entrepreneuriat, politiques publiques…). Olivier est expert pour FrenchWeb qui reprend les publications de son blog.

Découvrez WE, le nouveau media d'intelligence économique consacré à l'innovation en europe. Retrouvez les informations de plus de 4500 startups et 600 fonds d'investissements Pour en savoir plus, cliquez ici
Bouton retour en haut de la page
Share This