À Grenoble, le CEA a inauguré le 30 janvier dernier la ligne pilote européenne FAMES : un investissement de 830 M€, pensé pour accélérer le passage “du laboratoire au marché” sur cinq briques technologiques – procédés FD-SOI en 10 et 7 nm, mémoires non volatiles embarquées, intégration 3D, composants RF et solutions de circuits intégrés pour la gestion de l’énergie – en « open access » pour industriels et les académiques.
Dans cette course, l’enjeu n’est pas seulement de “produire plus” mais de concevoir des puces plus sobres, adaptées à l’IA, à l’edge computing, à la mobilité électrique et aux infrastructures critiques, autrement dit, de faire de la souveraineté une stratégie technologique.
Jean-René Lèquepeys, directeur adjoint & CTO de l’institut Leti du CEA, est revenu pour Techniques de l’Ingénieur sur les contours de la stratégie technologique européenne en ce qui concerne les puces électroniques.
Techniques de l’Ingénieur : La crise Covid a-t-elle vraiment “révélé” la dépendance aux semi-conducteurs ?
Jean-René Lèquepeys : La crise a mis en évidence un phénomène de choc simultané : d’un côté une montée très rapide de la demande (équipements numériques, infrastructures de télétravail, consoles de jeux), de l’autre des ruptures de production et de logistique. À cela se sont ajoutés des comportements de sur-commande et de constitution de stocks, qui ont rigidifié encore davantage un marché déjà tendu.
L’effet le plus visible a été industriel : dans des systèmes complexes comme l’automobile, l’absence d’un seul composant suffit à bloquer l’assemblage, même si la pièce est peu coûteuse à l’unité. Cette crise a rendu tangible un point clé : la microélectronique représente une valeur économique directe importante, mais a surtout un effet d’entraînement sur toute la chaîne électronique et sur des secteurs entiers.
Pourquoi parle-t-on aujourd’hui de “technologie souveraine” ?
Parce que les semi-conducteurs sont devenus une technologie stratégique : ils conditionnent la continuité d’activité, l’innovation et, dans certains cas, la sécurité des systèmes. Les politiques publiques se sont alignées sur cette réalité : plans industriels, soutien à la R&D, incitations à l’implantation de capacités, sécurisation des chaînes d’approvisionnement.
En parallèle, les tensions géoéconomiques ont accentué la dimension souveraineté : restrictions et contre-restrictions sur certaines technologies, dépendance à quelques zones pour des étapes critiques, y compris sur des matières premières dont le raffinage est fortement concentré.
Taïwan reste-t-il le point de fragilité numéro un ?
C’est un nœud de fragilité majeur, car une part très significative des technologies les plus avancées est concentrée géographiquement sur ce seul pays. Ce niveau de concentration, combiné au risque géopolitique avec la Chine, rend la chaîne mondiale vulnérable à des événements exogènes.
Cette situation pousse à des stratégies de diversification, avec la montée en capacités dans d’autres régions, la recherche d’implantations alternatives, et le rééquilibrage progressif entre lieux de conception, de prototypage et de fabrication.
L’Europe part-elle de trop loin sur la production ?
Le diagnostic est celui d’un décalage structurel, avec une forte base de recherche et d’ingénierie, mais une part très faible de production sur le sol européen au regard de la consommation de puces. Cette asymétrie crée un risque d’approvisionnement en période de tension et limite la capacité à sécuriser des volumes pour des secteurs critiques.
L’enjeu n’est donc pas uniquement de rapatrier des usines : il s’agit aussi de renforcer l’ensemble de la chaîne – compétences, outillage, qualification, écosystème – afin de restaurer une capacité d’action en cas de rupture, et une capacité d’industrialisation plus rapide.
D’où le développement de la ligne pilote FAMES ?
L’idée n’est pas d’ajouter une capacité de production de masse, mais de disposer d’un outil préindustriel qui réduit le temps et le risque entre une preuve de concept en laboratoire et une exploitation industrielle. On est sur une logique de maturation technologique : stabiliser un procédé, qualifier les performances, valider une intégration, pour produire des démonstrateurs représentatifs.
Autrement dit, c’est un accélérateur de transfert, un environnement où industriels et académiques peuvent tester, itérer, caractériser et converger vers des solutions industrialisables, plutôt que de rester au niveau “papier” ou à un prototype isolé.
L’idée n’est donc pas de rattraper coûte que coûte des leaders comme NVIDIA ?
La compétition n’est pas seulement une course au “plus gros” ou au “plus rapide”, mais une question d’architecture et d’efficacité énergétique. Les accélérateurs généralistes ont été optimisés pour certains usages, mais l’IA met en lumière une limite fondamentale : la consommation vient très largement du déplacement des données (~90%), pas seulement des opérations arithmétiques.
On se heurte aussi au mur de la mémoire : les unités de calcul progressent plus vite que la capacité à fournir les données au bon rythme, ce qui crée un goulot d’étranglement systémique. La voie stratégique consiste donc à explorer des architectures alternatives : plus de proximité mémoire-calcul, une intégration avancée, l’empilement 3D, et, selon les cas, des circuits spécialisés capables d’apporter des gains d’efficience très supérieurs.
L’edge computing change-t-il la donne pour la souveraineté ?
Oui, parce que l’edge déplace le traitement au plus près de la source de données. Techniquement, cela réduit la latence, soulage les réseaux, optimise la consommation d’énergie, protège nos données, et peut améliorer la maîtrise des flux de données. Mais cela impose des contraintes fortes : une enveloppe énergétique limitée, une intégration compacte, de la robustesse, et parfois des exigences de sûreté ou de sécurité.
Le défi industriel est la fragmentation : les cas d’usage sont nombreux, donc les architectures et les composants le sont aussi. Cela renforce l’intérêt de solutions flexibles mais efficaces, et pose des questions de mémoire, d’interconnexions, et de traitements embarqués capables d’aller au-delà de l’inférence simple, vers des formes d’adaptation locale ou d’apprentissage plus frugal selon les contextes.
Au-delà du calcul, quelles briques deviennent critiques (data centers, auto, matériaux) ?
Dans les data centers, la contrainte ne se résume pas aux accélérateurs. La chaîne d’alimentation (conversion, distribution, rendement) et les interconnexions de données pèsent lourd dans le bilan énergétique. D’où l’attention portée aux composants de puissance et aux technologies qui réduisent les pertes, ainsi qu’aux communications, où l’optique peut constituer un levier d’efficacité.
Côté automobile, l’électrification a déjà renforcé les besoins en électronique de puissance. C’est un terrain où l’Europe dispose d’atouts, mais où la concurrence s’intensifie, notamment sur des technologies moins avancées mais industrialisables à grande échelle.
Enfin, la question des ressources impose une approche “système” : travailler sur l’accès aux matières, mais aussi sur la réduction d’usage, la substitution quand elle est possible, et la recyclabilité, en intégrant ces paramètres suffisamment tôt dans la trajectoire technologique, avant le passage à l’échelle industrielle.
Propos recueillis par Pierre Thouverez
Dans l'actualité
- Puces pour l’IA : le monopole de NVIDIA va-t-il durer ?
- Trump bloque l’export de puces IA vers la Chine : un simple effet d’annonce ?
- Un nouveau matériau pour remplacer le cuivre dans les puces électroniques
- Des puces ultrabasse consommation avec Nellow
- Semi-conducteurs : l’Europe au carrefour de ses ambitions