Quantique : Big Tech sort l'artillerie lourde

Publié le 24 mars 2025

Google, Amazon, Microsoft et IBM multiplient les avancées pour imposer leur architecture dans la course à l’ordinateur quantique universel.

Le marché du quantique n’a encore rien d’opérationnel, mais cela n’empêche pas les géants de la tech de redoubler d’efforts pour s’assurer une position dominante à l’instant où cette technologie deviendra réellement exploitable. Dans un domaine où la promesse est immense – découverte de médicaments, optimisation logistique, cryptographie post-quantique – les acteurs se battent sur un point clé : la correction d’erreurs.

Des approches divergentes pour la stabilité des qubits

Les ordinateurs quantiques s’appuient sur des qubits, des unités d’information capables d’exister dans plusieurs états simultanément. Puissants en théorie, ces systèmes sont extrêmement instables en pratique. Le véritable défi consiste donc à construire des qubits fiables et à développer des mécanismes de correction d’erreurs capables de fonctionner à l’échelle de milliers, voire de millions d’unités.

Sur ce terrain, Microsoft mise sur l’originalité avec son processeur Majorana-1, fondé sur des qubits dits topologiques. Ces qubits, basés sur des quasi-particules appelées états de Majorana, offriraient une stabilité naturelle sans nécessiter de correction complexe. Avec seulement huit qubits, la puce reste modeste, mais l’enjeu est ailleurs : démontrer que cette architecture peut s’affranchir de la fragilité des approches classiques.

Google, de son côté, parie sur une montée en puissance progressive de son architecture Willow, présentée en décembre. Le géant revendique un fonctionnement stable d’un qubit logique formé de 105 qubits physiques pendant plus d’une heure – un record dans l’industrie. Grâce à un système de surface code combinant des qubits physiques pour corriger automatiquement les erreurs, Google montre qu’il est possible de gagner en fiabilité en augmentant le nombre de qubits, ce qui inverse une tendance historique.

Amazon opte pour une solution hybride

Dernier à entrer dans la bataille, Amazon a présenté Ocelot, un prototype développé avec Caltech. L’approche repose sur une combinaison de cat qubits, résistants aux erreurs de bit, et de qubits transmon, utilisés pour détecter les erreurs de phase. Cette architecture, empilée sur deux couches de silicium, permettrait, selon Amazon, de réduire les coûts de correction jusqu’à 90 %. Mais cette stabilité reste à confirmer à plus grande échelle, car les transmons restent sensibles aux perturbations.

Tous ces prototypes sont encore loin du seuil des 1 000 qubits jugé nécessaire pour les applications concrètes. Mais chacun pose une brique dans un édifice appelé à bouleverser l’informatique.

IBM mise sur l’industrialisation modulaire

IBM, plus discret mais bien présent, suit une voie plus pragmatique. Depuis son processeur Osprey de 433 qubits dévoilé en 2022, le groupe s’efforce de combiner puissance et qualité d’opération avec un autre processeur, Heron, qui atteint aujourd’hui 156 qubits avec un taux d’erreur réduit. Sa stratégie repose sur l’assemblage de modules plus petits, reliés pour former une machine globale plus stable.

La société met aussi l’accent sur l’atténuation des erreurs plutôt que sur leur correction, en s’appuyant sur des techniques logicielles et sur un savoir-faire industriel issu de ses collaborations, notamment avec l’ETH Zurich. IBM se positionne ainsi comme un fournisseur fiable pour les entreprises souhaitant expérimenter le quantique dès aujourd’hui via le cloud.

Derrière cette rivalité technologique se cache une logique stratégique : après avoir dépensé des milliards pour acheter des GPU à Nvidia dans le cadre de la course à l’IA, Google, Amazon et Microsoft veulent éviter de dépendre à nouveau d’un fournisseur externe. Ils entendent donc construire leur propre infrastructure quantique, et ne pas répéter les erreurs du passé.

Vers une bataille de plateformes ?

Au-delà de la performance brute, c’est aussi l’interopérabilité qui pourrait poser problème. Les architectures développées sont très différentes : qubits topologiques chez Microsoft, super-conducteurs classiques pour IBM et Google, hybridation pour Amazon. Rien ne garantit aujourd’hui que ces systèmes pourront coexister ou qu’un logiciel conçu pour l’un pourra fonctionner sur l’autre.

Autrement dit, même si une percée technologique survient, elle pourrait être suivie d’une nouvelle guerre des plateformes. Pour les entreprises qui commencent à se préparer à l’ère quantique, la question ne sera pas seulement quand, mais avec qui travailler. IBM pourrait alors tirer son épingle du jeu grâce à son expérience de la standardisation et de la modularité.

La route vers l’informatique quantique utile reste longue, mais les positions se dessinent. Et sur ce terrain, chaque avancée est scrutée comme un signal faible d’un futur encore incertain, mais potentiellement révolutionnaire.

Articles populaires