En ce moment

IBM veut développer un « supercalculateur quantique »

Posté le 14 juin 2023
par Philippe RICHARD
dans Informatique et Numérique

Fin 2022, IBM avait battu le record du plus grand système d'informatique quantique avec un processeur contenant 433 bits quantiques, ou qubits. Aujourd'hui, l'entreprise s'est fixé un objectif beaucoup plus ambitieux : une machine de 100 000 qubits. Mais l’informatique quantique est encore loin de remplacer les ordinateurs « classiques ».

Toujours plus ! Fin mai 2023, IBM a annoncé un objectif très ambitieux en partenariat avec les universités de Tokyo et de Chicago : la création d’une machine de 100 000 qubits. Pour IBM, il s’agit d’un « supercalculateur quantique ».

Pour l’instant, IBM respecte à peu près sa roadmap présentée il y a trois ans. Ce n’est pas le cas de tout le monde. En matière d’informatique quantique, il y a beaucoup d’effets d’annonce. Prenons l’exemple de PsiQuantum qui a levé 665 millions de dollars.

Il y a trois ans, cette start-up américaine a annoncé qu’en 2030 elle atteindrait le million de qubits à base de photons. Mais pour l’instant, elle n’a rien détaillé ni présenté ses étapes intermédiaires. En France, Quandela qui a levé 15 millions d’euros en 2021 joue plus la transparence en dévoilant les étapes intermédiaires de son projet d’ordinateur quantique photonique.

Défis technologiques

IBM n’est donc pas le seul acteur dans cette course aux qubits. Microsoft et Google ont aussi des projets. Google a déclaré qu’il visait un million de qubits d’ici la fin de la décennie.

Tous ces projets visent à faire entrer l’informatique quantique dans le domaine de l’exploitation à grande échelle. Le quantique pourrait potentiellement s’attaquer à des problèmes majeurs qu’aucun superordinateur standard ne peut résoudre.

Mais nous en sommes encore très loin malgré ce que l’on peut lire dans la presse ou dans les communiqués de presse de start-ups. La preuve, la machine de 433 qubits d’IBM ne sert quasiment à rien, car chaque opération sur les qubits génère 2 % d’erreurs alors que les algorithmes utiles en nécessitent des milliers !

« Les défis technologiques sont immenses. Il y en a au niveau des logiciels, des algorithmes, de la cryogénie, de la consommation d’énergie et bien évidemment, de la physique des qubits. L’informatique quantique n’est toujours pas une réalité pratique pour les entreprises, mais plutôt un champ exploratoire ! En moyenne, les experts prédisent l’avènement d’ordinateurs quantiques utiles, mettant en œuvre de la tolérance de pannes, d’ici 15 ans. La nouvelle roadmap d’IBM détaille leur chemin pour y parvenir », insiste Olivier Ezratty, auteur spécialisé en technologies quantiques et qui connaît bien le dossier IBM.

Ce spécialiste complète en indiquant « qu’IBM a précisé un grand nombre de ses choix technologiques comme sur la manière de relier entre eux plusieurs processeurs quantiques ».

Le malentendu sur les avancées de l’informatique quantique réside en partie sur le fait que l’on pense qu’il suffit d’aligner les qubits pour augmenter la puissance de calcul. Comme pour l’informatique traditionnelle. Or, il faut dissocier les qubits bruités ou physiques, qui ont des taux d’erreur assez élevés, et les qubits logiques ou corrigés qui nécessitent au minimum 1 000 qubits physiques pour créer un qubit corrigé selon la profondeur de l’algorithme retenu.

Trop d’erreurs

La machine de 100 000 qubits (bruités) annoncée par IBM représente 100 qubits corrigés. C’est une étape importante à partir de laquelle on peut potentiellement obtenir un avantage quantique calculatoire.

« C’est le paradoxe du quantique : plus les qubits sont nombreux, moins ils sont efficaces. Le défi pour tout le monde est donc d’arriver à augmenter le nombre de qubits tout en améliorant leur qualité, c’est-à-dire en réduisant les erreurs qui interviennent à chaque opération. C’est extrêmement difficile », souligne Olivier Ezratty.

À la fin de cette année, nous aurons une idée un peu plus précise du niveau de performance d’IBM. L’entreprise devrait sortir un processeur de 133 qubits baptisé Heron qui pourrait afficher une très bonne qualité, avec un taux d’erreur inférieur à 0,1 % par opération alors qu’aujourd’hui il est situé autour de 1 %.

« Si c’est le cas, cela signifiera qu’IBM est sur la bonne voie. Mais de nombreuses technologies sont actuellement testées en plus des qubits supraconducteurs, les photons (PsiQuantum, Quandela), les atomes neutres (Pasqal), les ions piégés (IonQ, Quantinuum), le silicium (Intel, Siquance)… Nous ne savons pas encore prévoir celles qui fonctionneront le mieux pour créer des machines pratiquement utilisables », déclare Olivier Ezratty,


Pour aller plus loin