Un rapport fait le point sur la construction et l’utilisation potentielle d’ordinateurs dits FTQC (Fault Tolerant Quantum Computing). Ce document insiste sur le fait que des progrès scientifiques et techniques seront nécessaires pour fonder des stratégies industrielles réalistes.
Le calcul quantique n’est pas voué à remplacer l’ordinateur classique qui est universel, c’est-à-dire non spécialisé, mais à le compléter en particulier dans les applications intensives en calcul et pas en données.
À condition de ne pas être « perturbé » par des fautes. Or pour l’instant, le quantique n’en est qu’aux calculateurs bruités de taille intermédiaire (NISQ). Ils permettent d’utiliser le calcul quantique, mais de manière expérimentale.
À cause du grand nombre d’erreurs des qubits actuels, les usages sont donc limités. Beaucoup espéraient, en particulier la mise en œuvre d’algorithmes d’optimisation. Ce ne sera pas le cas ! D’où les espoirs mis sur les processeurs quantiques tolérant aux fautes.
Ces FTQC pourraient effectuer de manière fiable des calculs complexes en surmontant les problèmes posés par les erreurs et le bruit inhérents aux systèmes quantiques.
Rédigé par un comité créé par l’Académie des Technologies, le rapport « État de l’art de l’ordinateur quantique tolérant aux fautes – Questions et défis » a été publié en juin dernier. Au moment où l’informatique quantique suscite toujours plus d’investissements et d’espoirs industriels, ce document de 200 pages tente de répondre à cette question essentielle : sommes-nous réellement entrés dans l’ère des qubits fiables et exploitables à grande échelle et si oui, pour quelles applications ?
Pour répondre à cette question, ce rapport est organisé en cinq chapitres détaillant l’état des différentes technologies de qubits. Le premier expose les fondements du calcul et des algorithmes quantiques. Le second aborde la nécessité impérative des codes correcteurs d’erreur pour pallier la sensibilité aux bruits quantiques. Le troisième examine la performance actuelle et les limites des qubits photoniques, atomiques et supraconducteurs, en évaluant leur tolérance aux erreurs ainsi que les progrès attendus.
Garantir la fiabilité des opérations
Un quatrième chapitre analyse la question de la scalabilité et l’interconnexion de puces pour contourner les limites des conceptions monolithiques. Le dernier chapitre aborde des éléments complémentaires, dont une analyse technico-économique de l’écosystème.
« Ce rapport souligne que, malgré des progrès attendus, l’avantage calculatoire quantique n’est pas acquis pour tous les cas d’usage et dépend de conditions techniques et algorithmiques demandant encore des travaux de recherche. Il met également en garde contre l’optimisme excessif autour des algorithmes quantiques d’optimisation, dont l’avantage est pour l’instant loin d’être acquis », note Olivier Ezratty, cofondateur du Quantum Energy Initiative et l’un des membres du groupe de travail de l’Académie des Technologies.
Selon Olivier Ezratty, « la nécessité d’une ingénierie système intégrée, d’un renouvellement régulier des analyses pour prendre en compte les avancées récentes, et d’une diversité de recherches sont recommandées plutôt qu’un pari unique sur une seule technologie ».
Concernant la tolérance aux fautes, la cryptographie quantique, les capteurs quantiques et les simulations analogiques présentent déjà des applications concrètes et sans nécessiter la mise en œuvre d’architectures complexes de tolérance aux fautes.
« En revanche, pour les algorithmes universels à grande échelle, la correction d’erreur est indispensable pour atteindre les profondeurs de circuit et les volumes de qubits logiques requis », rappelle Catherine Lambert, Présidente du Centre européen de recherche et de formation avancée en calcul scientifique (Cerfacs) et membre de l’Académie des Technologies.
« Les applications les plus spectaculaires requièrent des architectures robustes et un nombre élevé de qubits logiques. Pour passer de démonstrations ponctuelles à des calculs à grande échelle, il faudra multiplier les qubits physiques par un facteur élevé afin de garantir la fiabilité des opérations et la profondeur des circuits nécessaires pour des algorithmes tels que Shor ou la simulation de molécules complexes », précise Boris Bourdoncle qui dirige l’équipe de recherche sur les architectures évolutives chez Quandela.
Pour Boris Bourdoncle, qui a participé à la rédaction de ce rapport, « le contrôle classique des qubits représente un des obstacles techniques majeurs, à mesure que le nombre de bits quantiques augmente, le câblage, l’électronique et l’infrastructure cryogénique deviennent plus complexes et encombrants. L’intégration monolithique se heurte à des limites. »
Une nouvelle piste prometteuse apparaît : l’interconnexion entre plusieurs systèmes de taille inférieure, dans « une approche modulaire », afin d’associer leurs capacités de calcul.
En conclusion, les auteurs de ce rapport insistent sur la complémentarité entre science fondamentale et ingénierie. Il ne s’agit pas de placer d’un côté les théoriciens et de l’autre les ingénieurs, mais de codévelopper des solutions.
Ce document souligne par ailleurs que le financement constitue un enjeu économique majeur. Le développement quantique requiert des investissements lourds en infrastructures et compétences. Seuls des usages générant une valeur suffisante pourront justifier ces coûts.
À l’image de l’industrie des semi-conducteurs, une dynamique de croissance soutenue par l’innovation et le retour sur investissement est indispensable pour franchir cette échelle technique.









Réagissez à cet article
Vous avez déjà un compte ? Connectez-vous et retrouvez plus tard tous vos commentaires dans votre espace personnel.
Inscrivez-vous !
Vous n'avez pas encore de compte ?
CRÉER UN COMPTE