DECODE QUANTUMTRENDS

Quantum computing : la guerre des récits a déjà commencé

Le mot “ordinateur” est peut-être l’erreur de positionnement la plus coûteuse de l’industrie quantique. Jensen Huang, CEO de NVIDIA, l’a reconnu publiquement : la mauvaise métaphore ralentit l’adoption, effraie les investisseurs, et génère des attentes absurdes.

Un mot pour les faire tous chuter

Lors du Quantum Day de la GTC, Jensen Huang a raconté un épisode révélateur. Après avoir déclaré que les ordinateurs quantiques mettraient encore « 10 à 20 ans » avant d’être réellement utiles, plusieurs entreprises du secteur ont vu leur valorisation chuter de 60 %. Pourquoi ? Parce que le marché, habitué à évaluer un ordinateur sur sa capacité à remplacer un autre ordinateur, attend du quantum qu’il exécute Excel plus vite, ou qu’il “scale” une base de données.

Ce que Jensen Huang pointe, c’est une erreur fondamentale de framing : en appelant ces machines des « ordinateurs », on active des attentes héritées du PC et du cloud. Résultat : confusion, scepticisme, et pression sur des technologies encore immatures.

Ce n’est pas un ordinateur, c’est un instrument

L’alternative proposée : parler de quantum processors, ou mieux, d’instruments quantiques.

“Ce n’est pas un remplacement. Ce n’est pas fait pour jouer à Crysis ou faire tourner un tableur. C’est un instrument scientifique de précision, un scalpel, pas un marteau.” – Jensen Huang

La nouvelle analogie est claire : là où le CPU généralise, le QPU spécialise. Il ne remplace pas, il complète. Et sa vraie valeur n’est pas dans la vitesse brute, mais dans sa capacité à modéliser l’inaccessible, comme la mécanique des électrons dans un matériau ou la dynamique d’un catalyseur moléculaire.

NVIDIA ne construit pas de qubits, mais structure l’écosystème

Jensen Huang l’assume : NVIDIA ne fabrique pas d’ordinateurs quantiques. En revanche, l’entreprise fournit la couche d’abstraction essentielle pour les rendre utiles. C’est la même stratégie qu’avec les GPU à l’époque de CUDA : plutôt que remplacer les CPU, les GPU les ont complétés, accélérés, et intégrés dans des stacks mixtes.

Trois briques structurantes ont été annoncées :

  • CUDA-Q : un langage pour les systèmes hybrides classique/quantique
  • DGX Quantum : stack complet de simulation haute performance pour QPU
  • Quantum Research Lab à Boston : partenariat avec Harvard, MIT, QuEra, Quantinuum et Quantum Machines

“Nous avons fait la même chose avec les voitures autonomes. Nous ne construisons pas de voitures, mais nous sommes dans toutes.” – Jensen Huang

Sortir de l’illusion : abaisser la barre pour viser juste

Huang appelle les acteurs du quantique à changer d’ambition : arrêter de promettre la suprématie universelle et se concentrer sur des cas d’usage précis, impossibles à résoudre classiquement. Ce qui compte, ce n’est pas de battre un CPU sur un benchmark académique, mais de débloquer un problème industriel sans alternative : simulation moléculaire, cryptographie quantique, preuve de travail quantique, design de matériaux, etc.

L’objectif n’est pas d’avoir raison dans dix ans, mais de rester pertinent maintenant.
Et pour cela, il faut changer le langage avant même de changer le matériel.

À retenir :
L’industrie quantique ne souffre pas seulement de limitations techniques. Elle est freinée par une erreur de récit. En changeant le cadre – d’ordinateur à instrument –, elle pourrait enfin sortir du piège des comparaisons absurdes et entrer dans une phase de consolidation utile. NVIDIA, encore une fois, ne vend pas le produit, mais structure la perception. Et dans une industrie en émergence, c’est souvent ce qui fait la différence.

Suivez nous:
Bouton retour en haut de la page