Les puces électroniques ont longtemps été un sujet discret, réservé aux spécialistes. Jusqu’au jour où elles ont manqué. Après le Covid, quelques composants introuvables ont suffi à gripper des chaînes industrielles entières, notamment dans l’automobile, révélant au grand public une dépendance que les industriels connaissaient, mais que des décennies de logistique “fluide” avaient rendue presque invisible.
Depuis, la microélectronique est devenue un point de bascule. D’un côté, l’essor fulgurant de l’intelligence artificielle pousse la puissance de calcul vers des sommets, et met en évidence deux murs : celui de l’énergie, avec des centres de données qui se rapprochent du gigawatt, et celui de la mémoire, incapable de suivre le rythme des unités de calcul.
L’électrification des véhicules fait également exploser les besoins en électronique de puissance, tandis que le NewSpace et le quantique dessinent déjà de nouveaux marchés où communications, rendement et intégration deviennent déterminants.
Jean-René Lèquepeys, directeur adjoint & CTO de l’institut Leti du CEA, est revenu pour Techniques de l’Ingénieur sur ce que ces mutations imposent aux technologies de semi-conducteurs : faut-il tenter d’imiter les puces des data centers, ou investir dans l’IA embarquée et des architectures plus sobres ? Quels matériaux et quelles ruptures peuvent changer l’équation ? Et, en filigrane, une question stratégique : peut-on parler d’IA souveraine sans maîtriser au moins une partie critique de la chaîne de valeur des puces ?
Techniques de l’Ingénieur : L’essor de l’IA modifie-t-il en profondeur la feuille de route des semi-conducteurs européens ?
Jean-René Lèquepeys : Oui, parce que l’IA agit comme un accélérateur… mais aussi comme un révélateur des limites des puces d’aujourd’hui. D’un côté, les GPU de dernière génération ont permis de faire décoller les usages, parce qu’ils sont très efficaces pour des corrélations rapides, et l’IA actuelle repose beaucoup sur cela. Mais on arrive à un système qui ne passe pas à l’échelle, avec des puces très chères, très énergivores, des data centers qui montent vers le gigawatt, et l’idée qu’il faudrait presque un réacteur nucléaire à côté pour alimenter certaines infrastructures.
Aussi, même si les transistors deviennent plus rapides quand on descend en nœud technologique, la mémoire ne suit pas pour alimenter les unités de calcul. On se heurte à un mur de la mémoire : le gain devient incrémental, le coût explose, et on ne tire pas profit du calcul faute d’alimentation en données.
Ce double mur – énergie + mémoire – pousse à revoir la roadmap : nouvelles architectures, nouveaux types de mémoires, intégration 3D et, surtout, des puces plus spécialisées.
Faut-il produire des puces pour centres de données ou se concentrer sur l’IA embarquée ?
La ligne défendue ici est claire : ce n’est pas pertinent de courir après un modèle unique “type Nvidia” en le copiant compte tenu des contraintes économiques et énergétiques. D’abord parce que ces solutions ne sont pas forcément adaptées à long terme, et ensuite parce que la stratégie européenne consiste plutôt à se positionner sur une nouvelle génération plus efficiente, au lieu d’imiter un modèle basé sur des puces avec des puissances et des coûts qui deviennent difficilement soutenables.
Techniquement, le cœur du problème, c’est l’architecture de von Neumann, avec une mémoire et une unité de calcul séparées, et un déplacement en permanence des données entre les deux. L’ordre de grandeur donné est frappant : l’essentiel (environ 90 %) de l’énergie part dans le mouvement des données, plus que dans le calcul lui-même. D’où l’intérêt d’architectures où l’on rapproche calcul et mémoire, voire où l’on fait du calcul “dans” la mémoire, combinées à des solutions d’empilement 3D.
L’IA embarquée/edge progresse d’ailleurs très vite. Traiter les données près de la source permet de limiter la bande passante, de réduire la consommation, de gagner en latence, d’éviter d’envoyer des données loin dans le cloud, et de protéger nos données. C’est pourquoi le edge devient un marché énorme, même s’il est encore très fragmenté, et il va au-delà de l’inférence : on vise aussi de l’apprentissage incrémental local, ce qui renforce le besoin de densité mémoire et de mémoires moins énergivores, plus denses et plus rapides.
L’automobile électrique et autonome change-t-elle la nature des besoins en composants ?
Oui, et de façon très structurante. D’abord parce que la crise des pénuries a été vécue de plein fouet par l’automobile, ce qui a rendu tangible la dépendance aux semi-conducteurs. Ensuite parce que l’électrification tire massivement les composants de puissance : c’est une révolution en cours.
Aujourd’hui, Bosch, NXP, Infineon et STMicroelectronics pèsent environ 40% du marché sur les composants automobiles. L’arrivée rapide de la Chine, qui progresse à la fois sur la puissance et les microcontrôleurs, notamment sur des nœuds qui ne requièrent pas l’EUV (l’extrême UV), ajouté à des subventions nationales et régionales, promet une concurrence très agressive sur les coûts.
L’Europe peut-elle tirer parti de sa base industrielle automobile… et plus largement industrielle ?
Oui, à condition d’articuler performance et industrialisation, sans oublier la chaîne complète d’un système. Dans un data center, par exemple, le défi n’est pas seulement le calcul : il y a la conversion de tensions et les pertes associées, la communication de données. Les pertes de conversion de tensions sont aujourd’hui autour de 20%, et la communication de données pèse aussi fortement dans la consommation d’un data center (environ 25%).
Les matériaux « wide band gap » (SiC, GaN, oxyde de gallium, diamant) permettent des composants et des convertisseurs plus efficaces en réduisant drastiquement les pertes. Une autre piste apparaît aujourd’hui structurante : remplacer des interconnexions électriques par des communications optiques pour baisser fortement l’énergie de transmission.
Ainsi, l’opportunité européenne se joue aussi sur des briques où elle a une base industrielle et sur des choix d’architecture plus sobres.
Qu’en est-il du quantique : est-ce encore marginal ou déjà structurant ?
Le quantique est très prometteur mais encore à bas TRL, avec une “petite dizaine” d’approches en compétition, et aucune solution clairement gagnante aujourd’hui. Le CEA travaille notamment sur des qubits sur silicium (en s’appuyant sur des procédés microélectroniques), sur la photonique, et sur les supraconducteurs, entre autres.
L’argument technique en faveur du silicium est l’échelle : un qubit sur silicium est un million de fois plus petit qu’un qubit supraconducteur ou photonique, ce qui ouvre théoriquement une trajectoire de passage à l’échelle plus favorable, en cohérence avec la possibilité d’intégrer des centaines de millions, voire des milliards d’objets élémentaires sur une puce unique.
Cependant, même si la valeur unitaire en terme de coûts pourrait être élevée, le quantique ne ressemblera pas à un marché “smartphone”. Plutôt que des ordinateurs quantiques partout, il est plus probable que l’on est des coprocesseurs quantiques adossés à du HPC pour des classes de problèmes spécifiques (problèmes NP complexes, ouvrant la voie à la découverte de molécules ou de nouveaux matériaux, l’optimisation des transports de marchandises…).
Et le NewSpace ?
Le newspace est un domaine où les idées paraissent d’abord folles… puis deviennent des réalités industrielles. Les projets de constellations et même l’idée de data centers dans l’espace, avec un effet direct sur les besoins en communications à haut débit, haute fréquence, faible latence permettraient de pousser les technologies au maximum.
Cela peut générer du volume, et des acteurs européens peuvent en profiter, même si le risque est de voir se rejouer une domination américaine. SpaceX est un gros client de STMicroelectronics, ce qui est un signe que ces marchés commencent à devenir significatifs et pourraient constituer une opportunité pour des acteurs industriels européens.
Peut-on développer une IA souveraine sans maîtriser une partie stratégique de la chaîne de valeur des semi-conducteurs ?
La souveraineté ne veut pas dire une autosuffisance totale, mais une capacité à tenir des segments critiques et à bâtir de la résilience. L’Europe a de très grands centres de recherche en microélectronique, mais une part faible de production sur son sol par rapport à sa consommation de composants. D’où l’effort politique pour rééquilibrer et sécuriser la capacité de fabrication.
Sur l’IA se pose un autre enjeu de souveraineté : ne pas s’enfermer dans une dépendance à une seule architecture et à une seule chaîne de valeur. J’insiste sur la nécessité d’innovations radicales sur l’efficacité énergétique, les architectures, les mémoires et l’intégration, mais aussi sur des dimensions “sustainability” et “viabilité économique” évaluées tôt : dès qu’on atteint un niveau de maturité intermédiaire, il faut se demander si cela peut passer à l’échelle au regard des ressources et si cela passe la barre économique.
Propos recueillis par Pierre Thouverez









Réagissez à cet article
Vous avez déjà un compte ? Connectez-vous et retrouvez plus tard tous vos commentaires dans votre espace personnel.
Inscrivez-vous !
Vous n'avez pas encore de compte ?
CRÉER UN COMPTE