Ligne pilote Fames : « servir l’industrie européenne »

En parallèle, la montée des tensions technologiques entre grandes puissances et les restrictions d’accès à certaines générations d’équipements ont remis au premier plan la question du contrôle des technologies critiques. Dans ce contexte, l’Union européenne a lancé le Chips Act pour rééquilibrer une situation jugée défavorable, avec un effort massif sur la R&D et des dispositifs concrets comme les lignes pilotes. Parmi elles, FAMES, pilotée par le CEA, vise à structurer un portefeuille de briques technologiques sur le FDSOI et des modules clés, avec une obsession affichée : accélérer le transfert vers l’industrie européenne. Dominique Noguet, coordinateur Fames à l’institut Leti du CEA, a expliqué à Techniques de l’Ingénieur les objectifs de FAMES et plus largement les moyens mis en place au niveau de la recherche européenne pour gagner en souveraineté sur la production des puces électroniques, ce qui constitue un enjeu d’avenir majeur.

Techniques de l’ingénieur : Quand on parle de souveraineté, de quoi parle-t-on exactement dans le semi-conducteur, et pourquoi le sujet s’est durci ces dernières années ?

Dominique Noguet : Nous sommes face à deux phénomènes qui se sont additionnés. D’abord l’effet post-Covid : l’industrie a pris conscience à quel point elle était dépendante de puces parfois très “banales”, avec des pénuries et des arrêts de production très concrets. Ensuite, le contexte géostratégique s’est tendu, et les semi-conducteurs sont devenus un terrain de friction technologique entre la Chine et les États-Unis, avec des restrictions d’accès à certaines technologies et à certaines générations d’équipements nécessaires pour les technologies les plus avancées, notamment en lithographie. Dans ce cadre, il y a un enjeu de souveraineté sur la capacité à produire et à sécuriser l’approvisionnement, mais aussi un enjeu de souveraineté au sens de l’autonomie géostratégique européenne. En même temps, le secteur reste très interconnecté : l’objectif n’est donc pas une autonomie totale, mais au minimum la capacité à alimenter l’industrie européenne, autant que possible, avec des technologies conçues en Europe.

Où FAMES se place-t-il dans l’architecture du Chips Act, et pourquoi une ligne pilote est un outil stratégique ?

Le Chips Act a été conçu avec plusieurs mécanismes, dont un levier R&D très structurant, à savoir le lancement de lignes pilotes. Il y en a cinq au total, lancées en décembre 2023, chacune avec son périmètre. FAMES, pilotée par le CEA, est positionnée sur le FDSOI et des technologies associées. Le rôle d’une ligne pilote, ici, c’est de sortir d’une R&D “en silo” pour construire une capacité mutualisée qui peut être utilisée par des acteurs externes, tout en industrialisant les procédés au bon niveau de maturité. C’est pour cela que le consortium autour de FAMES est composé d’organismes de recherche technologique et d’académiques, avec un lien volontairement étroit avec l’industrie, pour garantir la trajectoire de transfert.

Concrètement, FAMES ressemble à quoi aujourd’hui : une usine, un labo, ou un entre-deux ?

C’est très clairement un entre-deux conçu pour faire le pont. Le programme se structure en quatre axes. Il y a un axe R&D, où cinq technologies sont développées. Ensuite, l’implémentation de la ligne pilote au sens “outil industriel” : plus de 100 équipements de micro-électronique financés par le projet et installés dans les salles blanches de quatre partenaires (CEA, VTT, Tyndall, Silicon Austria Labs). Troisième axe, l’open access, qui sert de porte d’entrée pour des utilisateurs extérieurs, académiques ou industriels, PME, start-ups ou grands groupes, afin d’accéder soit aux capacités de fabrication, soit aux briques R&D. Et enfin un volet training, avec des formations sur les technologies du programme à destination des ingénieurs ou doctorants. Ces formations visent à accélérer l’adoption des technologies avancées de FAMES.

Quelles sont les cinq briques technologiques développées à travers FAMES ?

La première, le FD-SOI, est une technologie CMOS née en Europe et produite en Europe, notamment par STMicroelectronics et GlobalFoundries. Industriellement, on est sur des nœuds à 28 nm et 22nm, avec des évolutions en préparation (18 nm côté ST). Dans FAMES, la R&D vise la suite de la roadmap, vers 10 nm puis 7 nm, ce qui impose des optimisations de la structure des transistors.
La seconde brique s’intéresse aux mémoires non volatiles embarquées, intégrables dans la même puce. L’objectif est de rapprocher la mémoire du calcul pour des systèmes embarqués, compacts et sobres énergétiquement. Plusieurs familles sont étudiées en parallèle (MRAM, OxRAM, FerroRAM, FeFET), parce qu’elles n’ont pas le même niveau de maturité et ne visent pas toutes les mêmes points de fonctionnement. Le travail porte aussi sur la densification pour leur compatibilité avec les nouveaux nœuds FD-SOI visés dans FAMES.
Troisième brique, les composants radiofréquences. Le FD-SOI a de bonnes propriétés pour le mix-signal, donc pour faire cohabiter numérique, analogique et RF. Mais de bons composants RF exigent aussi de bons composants passifs : d’où le travail sur les switches, filtres et capacités, notamment pour la 5G et la 6G.
La quatrième brique se concentre sur l’intégration 3D, avec deux schémas, séquentiel (construction des stacks au fur et à mesure) et hybride (fabrication des puces en parallèle puis report). Des démonstrateurs existent déjà, par exemple une intégration séquentielle de puces RF sur une puce numérique a permis de valider la coexistence technologique.
Cinquième et dernière brique, les convertisseurs de puissance intégrés, avec des composants miniaturisés comme des inductances, pour rapprocher la conversion de puissance au plus proches des blocs alimentés, afin de réduire les pertes et augmenter le rendement de conversion énergétique.

Quels verrous restent les plus structurants si l’on veut pousser ces technologies “à la limite” ?

Il y a des verrous persistants sur chacune des technologies, précisément parce qu’on cherche à les pousser à leurs limites. Sur le CMOS en général, et donc sur le FD-SOI, on n’est plus dans une époque où réduire la taille des composants apportait un gain de performance quasi automatique : à ces dimensions, des phénomènes physiques viennent casser la progression attendue, et il faut lever des verrous d’architecture, de choix de matériaux et d’intégration pour continuer à gagner en performance.
Sur l’intégration 3D, à mesure que les technologies deviennent plus fines, la pression monte sur la densité d’intégration des connexions, avec des pitchs de plus en plus fins.
Et sur l’intégration séquentielle, un point critique est le budget thermique : intégrer au-dessus d’un circuit déjà existant sans le dégrader, tout en maintenant un très bon niveau de fiabilité. C’est un verrou majeur, et le sujet fait l’objet de résultats présentés à l’IEDM.

FAMES peut-il réellement réduire la dépendance européenne en termes de semi-conducteurs, et sur quels segments ?

La logique est de renforcer la capacité européenne à alimenter sa propre industrie, en partant du principe que le monde restera interdépendant. La souveraineté visée n’est pas l’autarcie sur l’ensemble de la chaîne de valeur, de l’équipement au matériau en passant par la production. L’objectif est plus pragmatique : il s’agit de sécuriser une capacité d’alimentation de l’industrie européenne, avec autant que possible des technologies conçues en Europe, tout en assumant que l’Europe ne se positionne pas forcément sur les mêmes technologies que celles produites en Asie.

À l’échelle industrielle, comment tenez-vous le lien avec les besoins réels du marché, et comment mesurez-vous la réussite globale du projet ?

Le lien avec l’industrie est entretenu de façon continue. Dès le montage, des lettres de soutien de 44 industriels ont permis de capter des roadmaps et des besoins concrets sur toute la chaîne de production. Ensuite, le pilotage de FAMES inclut un comité stratégique d’industriels : les équipes présentent les résultats au fil de l’eau, récupèrent des avis sur les besoins industriels, et ajustent en fonction des inflexions de marché. C’est d’ailleurs un point attendu par la Commission européenne : créer un continuum entre la R&D menée sur les lignes pilotes et les industriels.
Pour la réussite, l’indicateur central reste le transfert industriel : c’est un point clé. En parallèle, chaque technologie porte des indicateurs technologiques propres, pour démontrer son niveau par rapport à l’état de l’art mondial à l’issue du projet.

Vous ajoutez aussi une dimension environnementale dans FAMES. Comment la rendez-vous “mesurable” dans une logique micro-électronique ?

Le projet introduit en effet un volet d’éco-innovation qui cherche à compléter les évaluations classiques PPAC en y ajoutant un volet écologique – PPAC-E -, pour intégrer un critère environnemental à la technologie développée. L’approche est centrée sur les process, avec la volonté de cartographier ce qui est nécessaire à la fabrication en consommation d’eau, de matière, d’énergie, puis d’analyser un flow d’intégration ou des étapes spécifiques pour voir où l’on peut réduire matière, eau ou énergie. Cela implique une collecte de données fine en salle blanche et une rationalisation du scoring, avec l’idée d’aboutir à une note globale synthétique, comparable à un nutri-score caractérisant l’impact environnemental de production de telle ou telle technologie de puce.

Propos recueillis par Pierre Thouverez

La géothermie électrique cherche sa place dans le mix européen

La production d’électricité géothermique suppose d’aller chercher la chaleur du sous-sol et de la convertir via des installations de surface. Longtemps, cette option a été jugée réaliste, surtout dans les zones volcaniques, comme l’Islande, où des sites tels que Hellisheiði fournissent à la fois électricité et chaleur pour le chauffage urbain de Reykjavík. À l’échelle mondiale, la géothermie reste pourtant marginale avec 99 TWh en 2024, soit moins de 0,5 % du mix électrique mondial.

Ce qui change, d’après le think tank Ember, tient au couplage entre des techniques issues du monde du forage et une meilleure compréhension des réservoirs, qui élargit les zones où l’électricité géothermique devient envisageable. Ember projette qu’à partir de 2030, près de 1,5 GW de nouvelles capacités pourraient être mises en service chaque année dans le monde, soit environ trois fois plus qu’en 2024. L’organisation indique aussi que la géothermie pourrait couvrir jusqu’à 15 % de la croissance de la demande d’électricité d’ici 2050, un ordre de grandeur cohérent avec le cadrage de l’AIE sur le rôle potentiel de la géothermie dans la croissance mondiale de la demande électrique.

Des forages plus profonds et un gisement plus large

En Europe, 147 centrales géothermiques en service sont recensées en 2024, pour une puissance cumulée proche de 3,5 GW, et une production d’environ 20 TWh cette année-là. La marche de progression envisagée ne repose pas uniquement sur la multiplication de centrales dans les zones déjà favorables, mais sur l’extension à des pays moins associés à cette ressource grâce aux technologies dites de nouvelle génération, dont les systèmes géothermiques améliorés (EGS – enhanced geothermal systems). Le principe décrit par Ember consiste à forer dans des roches profondes et chaudes, puis à créer ou augmenter la perméabilité pour faire circuler un fluide qui remonte chargé de chaleur afin de produire de l’électricité.

Dans cette perspective, environ 43 GW de capacités géothermiques améliorées pourraient être développés dans l’Union européenne à un coût inférieur à 100 euros par MWh, un niveau comparé par Ember, dans son analyse, aux coûts de l’électricité produite à partir du charbon et du gaz. Le think tank met en avant un potentiel particulièrement élevé en Hongrie, puis en Pologne, en Allemagne et en France, avec des ordres de grandeur mentionnés pour chacun. En scénario de déploiement, Ember avance une production de l’ordre de 301,3 TWh par an dans l’UE, présentée comme l’équivalent de 42 % de la production électrique des États membres issue du charbon et du gaz en 2025.

Pilotabilité, valeur système et contraintes d’acceptabilité

Au-delà des volumes, l’intérêt de la géothermie profonde est aussi système. Faiblement émettrice de CO2 et pilotable, elle peut apporter de la flexibilité dans un mix où l’éolien et le solaire montent en puissance. L’analyse évoque même un usage possible des réservoirs pour absorber indirectement des surplus renouvelables, via le pilotage du pompage et de l’injection, afin de moduler la production lorsque la demande est plus forte. Ember rapporte aussi des simulations où la chaleur pourrait être stockée pendant plusieurs jours, avec des rendements comparables à ceux de batteries lithium-ion. Cette promesse attractive dépend cependant fortement des conditions locales et des choix d’exploitation.

Cette dépendance au sous-sol remet au centre la question du risque géologique. Les projets de géothermie profonde se situent en effet à l’interface entre ingénierie et géologie locale, certaines configurations pouvant dès lors générer des événements sismiques induits. L’épisode strasbourgeois en est devenu un repère en France, avec l’arrêt définitif du projet de Vendenheim après un séisme de magnitude 3,5 et la suspension de projets dans l’agglomération annoncée par la préfecture du Bas-Rhin en décembre 2020. Dans le même temps, l’AFP signalait que d’autres sites de géothermie profonde exploités par Électricité de Strasbourg, à Soultz-sous-Forêts et Rittershoffen, continuaient de fonctionner sans difficulté selon les autorités, illustrant la variabilité des situations.

Au final, la trajectoire européenne dépendra de la capacité à industrialiser des projets reproductibles, à accélérer les procédures, et à sécuriser le financement dans un contexte où la demande d’électricité augmente. L’AIE anticipe une croissance rapide de la consommation mondiale d’électricité d’ici 2030, ce qui renforce l’intérêt de technologies pilotables bas carbone. La géothermie électrique n’est pas une solution universelle, mais les signaux réunis par Ember suggèrent qu’elle pourrait devenir, dans certains pays et bassins, un pilier supplémentaire de la production européenne si les conditions techniques et sociales s’alignent.

« Le edge va être un marché énorme »

Depuis, la microélectronique est devenue un point de bascule. D’un côté, l’essor fulgurant de l’intelligence artificielle pousse la puissance de calcul vers des sommets, et met en évidence deux murs : celui de l’énergie, avec des centres de données qui se rapprochent du gigawatt, et celui de la mémoire, incapable de suivre le rythme des unités de calcul.

L’électrification des véhicules fait également exploser les besoins en électronique de puissance, tandis que le NewSpace et le quantique dessinent déjà de nouveaux marchés où communications, rendement et intégration deviennent déterminants.

Jean-René Lèquepeys, directeur adjoint & CTO de l’institut Leti du CEA, est revenu pour Techniques de l’Ingénieur sur ce que ces mutations imposent aux technologies de semi-conducteurs : faut-il tenter d’imiter les puces des data centers, ou investir dans l’IA embarquée et des architectures plus sobres ? Quels matériaux et quelles ruptures peuvent changer l’équation ? Et, en filigrane, une question stratégique : peut-on parler d’IA souveraine sans maîtriser au moins une partie critique de la chaîne de valeur des puces ?

Techniques de l’Ingénieur : L’essor de l’IA modifie-t-il en profondeur la feuille de route des semi-conducteurs européens ?

Jean-René Lèquepeys : Oui, parce que l’IA agit comme un accélérateur… mais aussi comme un révélateur des limites des puces d’aujourd’hui. D’un côté, les GPU de dernière génération ont permis de faire décoller les usages, parce qu’ils sont très efficaces pour des corrélations rapides, et l’IA actuelle repose beaucoup sur cela. Mais on arrive à un système qui ne passe pas à l’échelle, avec des puces très chères, très énergivores, des data centers qui montent vers le gigawatt, et l’idée qu’il faudrait presque un réacteur nucléaire à côté pour alimenter certaines infrastructures.
Aussi, même si les transistors deviennent plus rapides quand on descend en nœud technologique, la mémoire ne suit pas pour alimenter les unités de calcul. On se heurte à un mur de la mémoire : le gain devient incrémental, le coût explose, et on ne tire pas profit du calcul faute d’alimentation en données.
Ce double mur – énergie + mémoire – pousse à revoir la roadmap : nouvelles architectures, nouveaux types de mémoires, intégration 3D et, surtout, des puces plus spécialisées.

Faut-il produire des puces pour centres de données ou se concentrer sur l’IA embarquée ?

La ligne défendue ici est claire : ce n’est pas pertinent de courir après un modèle unique “type Nvidia” en le copiant compte tenu des contraintes économiques et énergétiques. D’abord parce que ces solutions ne sont pas forcément adaptées à long terme, et ensuite parce que la stratégie européenne consiste plutôt à se positionner sur une nouvelle génération plus efficiente, au lieu d’imiter un modèle basé sur des puces avec des puissances et des coûts qui deviennent difficilement soutenables.
Techniquement, le cœur du problème, c’est l’architecture de von Neumann, avec une mémoire et une unité de calcul séparées, et un déplacement en permanence des données entre les deux. L’ordre de grandeur donné est frappant : l’essentiel (environ 90 %) de l’énergie part dans le mouvement des données, plus que dans le calcul lui-même. D’où l’intérêt d’architectures où l’on rapproche calcul et mémoire, voire où l’on fait du calcul “dans” la mémoire, combinées à des solutions d’empilement 3D.
L’IA embarquée/edge progresse d’ailleurs très vite. Traiter les données près de la source permet de limiter la bande passante, de réduire la consommation, de gagner en latence, d’éviter d’envoyer des données loin dans le cloud, et de protéger nos données. C’est pourquoi le edge devient un marché énorme, même s’il est encore très fragmenté, et il va au-delà de l’inférence : on vise aussi de l’apprentissage incrémental local, ce qui renforce le besoin de densité mémoire et de mémoires moins énergivores, plus denses et plus rapides.

L’automobile électrique et autonome change-t-elle la nature des besoins en composants ?

Oui, et de façon très structurante. D’abord parce que la crise des pénuries a été vécue de plein fouet par l’automobile, ce qui a rendu tangible la dépendance aux semi-conducteurs. Ensuite parce que l’électrification tire massivement les composants de puissance : c’est une révolution en cours.

Aujourd’hui, Bosch, NXP, Infineon et STMicroelectronics pèsent environ 40% du marché sur les composants automobiles. L’arrivée rapide de la Chine, qui progresse à la fois sur la puissance et les microcontrôleurs, notamment sur des nœuds qui ne requièrent pas l’EUV (l’extrême UV), ajouté à des subventions nationales et régionales, promet une concurrence très agressive sur les coûts.

L’Europe peut-elle tirer parti de sa base industrielle automobile… et plus largement industrielle ?

Oui, à condition d’articuler performance et industrialisation, sans oublier la chaîne complète d’un système. Dans un data center, par exemple, le défi n’est pas seulement le calcul : il y a la conversion de tensions et les pertes associées, la communication de données. Les pertes de conversion de tensions sont aujourd’hui autour de 20%, et la communication de données pèse aussi fortement dans la consommation d’un data center (environ 25%).

Les matériaux « wide band gap » (SiC, GaN, oxyde de gallium, diamant) permettent des  composants et des convertisseurs plus efficaces en réduisant drastiquement les pertes. Une autre piste apparaît aujourd’hui structurante : remplacer des interconnexions électriques par des communications optiques pour baisser fortement l’énergie de transmission.

Ainsi, l’opportunité européenne se joue aussi sur des briques où elle a une base industrielle et sur des choix d’architecture plus sobres.

Qu’en est-il du quantique : est-ce encore marginal ou déjà structurant ?

Le quantique est très prometteur mais encore à bas TRL, avec une “petite dizaine” d’approches en compétition, et aucune solution clairement gagnante aujourd’hui. Le CEA travaille notamment sur des qubits sur silicium (en s’appuyant sur des procédés microélectroniques), sur la photonique, et sur les supraconducteurs, entre autres.
L’argument technique en faveur du silicium est l’échelle : un qubit sur silicium est un million de fois plus petit qu’un qubit supraconducteur ou photonique, ce qui ouvre théoriquement une trajectoire de passage à l’échelle plus favorable, en cohérence avec la possibilité d’intégrer des centaines de millions, voire des milliards d’objets élémentaires sur une puce unique.

Cependant, même si la valeur unitaire en terme de coûts pourrait être élevée, le quantique ne ressemblera pas à un marché “smartphone”. Plutôt que des ordinateurs quantiques partout, il est plus probable que l’on est des coprocesseurs quantiques adossés à du HPC pour des classes de problèmes spécifiques (problèmes NP complexes, ouvrant la voie à la découverte de molécules ou de nouveaux matériaux, l’optimisation des transports de marchandises…).

Et le NewSpace ?

Le newspace est un domaine où les idées paraissent d’abord folles… puis deviennent des réalités industrielles. Les projets de constellations et même l’idée de data centers dans l’espace, avec un effet direct sur les besoins en communications à haut débit, haute fréquence, faible latence permettraient de pousser les technologies au maximum.

Cela peut générer du volume, et des acteurs européens peuvent en profiter, même si le risque est de voir se rejouer une domination américaine. SpaceX est un gros client de STMicroelectronics, ce qui est un signe que ces marchés commencent à devenir significatifs et pourraient constituer une opportunité pour des acteurs industriels européens.

Peut-on développer une IA souveraine sans maîtriser une partie stratégique de la chaîne de valeur des semi-conducteurs ?

La souveraineté ne veut pas dire une autosuffisance totale, mais une capacité à tenir des segments critiques et à bâtir de la résilience. L’Europe a de très grands centres de recherche en microélectronique, mais une part faible de production sur son sol par rapport à sa consommation de composants. D’où l’effort politique pour rééquilibrer et sécuriser la capacité de fabrication.
Sur l’IA se pose un autre enjeu de souveraineté : ne pas s’enfermer dans une dépendance à une seule architecture et à une seule chaîne de valeur. J’insiste sur la nécessité d’innovations radicales sur l’efficacité énergétique, les architectures, les mémoires et l’intégration, mais aussi sur des dimensions “sustainability” et “viabilité économique” évaluées tôt : dès qu’on atteint un niveau de maturité intermédiaire, il faut se demander si cela peut passer à l’échelle au regard des ressources et si cela passe la barre économique.

Propos recueillis par Pierre Thouverez

Les actualités à suivre : EPR, Global Industrie, recyclage chimique, logistique…

L’EPR de Flamanville à l’épreuve de 2026 : qualification, sûreté, et vérité des plannings

Après l’atteinte de la pleine puissance mi-décembre 2025, l’EPR de Flamanville 3 bascule en 2026 dans une séquence “preuve industrielle” : une campagne d’essais à 100 % et de grands transitoires (îlotage, déclenchements turbine, variations rapides de charge) destinée à qualifier le comportement de l’installation à pleine charge et le rendement de la turbine avant sa mise en régime.
Ces essais, décrits dans la fiche presse 2026 du site, s’inscrivent sous contrôle du régulateur, dont les jalons (autorisations de dépassement de paliers, suivi d’événements) sont documentés via les actualités réglementaires EDF et la page de contrôle ASNR.
Dans l’actualité immédiate, l’enjeu est double : maximiser la production “utile réseau” pendant la fin de phase d’essais, tout en préparant l’étape qui va mécaniquement peser sur la disponibilité.
Car EDF a calé la Visite Complète n°1 au 26 septembre 2026, pour environ 350 jours, dernière grande marche réglementaire avant un fonctionnement à vitesse de croisière.
Ce long arrêt (épreuves réglementaires, contrôles majeurs, fiabilisation et modifications) va retirer environ 1,6 GW du système pendant près d’un an, au moment où RTE souligne une amélioration récente de la disponibilité nucléaire (hors EPR) dans ses perspectives hiver 2025-2026.

Décarbonation : ce que 2026 change pour la chaîne logistique

Début 2026, la logistique européenne entre dans une phase où l’optimisation n’est plus seulement un sujet de coûts mais de conformité : les donneurs d’ordres durcissent leurs exigences de traçabilité et les transporteurs doivent “prouver” leurs trajectoires dans le cadre du reporting de durabilité (CSRD) et de ses effets en cascade sur les appels d’offres.
Côté route, les industriels de la mécanique subissent déjà la pression des standards CO₂ pour poids lourds, renforcés par la réforme actée dans le règlement 2024/1610 : architecture véhicule, aérodynamique, chaînes de traction, et industrialisation batterie deviennent des sujets critiques.
Dans l’immédiat, l’enjeu opérationnel est de sécuriser les corridors d’énergie : le déploiement imposé par le cadre AFIR accélère la planification des dépôts, hubs et puissances de charge, avec des arbitrages CAPEX/OPEX qui se décident maintenant.
En France, les restrictions locales restent un paramètre de planification court terme : le suivi des ZFE pousse au renouvellement ciblé (VUL, porteurs, bennes, frigorifique) et à des stratégies d’accès/dérogations selon les métropoles.
Dans les mois qui viennent, le “modal shift” se jouera aussi sur mer : FuelEU Maritime passe en mode exécution, avec une première échéance structurante au 31 janvier 2026 pour la remise du premier rapport, ce qui rejaillit sur les chargeurs via les surcharges et la sélection des capacités.

Mass balance, contentieux, CAPEX : le recyclage chimique change d’échelle en 2026

Bruxelles vient de sortir le recyclage chimique de sa zone grise : les États membres ont validé son intégration dans le calcul du contenu recyclé exigé pour les bouteilles, via un acte d’exécution très attendu. Cette bascule change la lecture économique de projets jusque-là difficiles à financer faute de crédit réglementaire clair.
Concrètement, l’UE encadre la comptabilisation par mass balance et retient une approche dite “fuel-use excluded”, qui exclut la part envoyée en valorisation énergétique du calcul du recyclé, un point clef pour les business cases et les contrats de matière.
Dans l’actualité immédiate, le signal est politique mais la controverse reste entière : ONG et chercheurs ciblent la robustesse des méthodes, la traçabilité, et le risque de “recyclé de papier” (mass balance, double-usage).
Pour l’industrie, le calendrier 2026 se joue maintenant : publication/entrée en vigueur opérationnelle, mise en place des schémas d’audit, sécurisation des flux déchets, et alignement avec la nouvelle architecture “emballages” qui s’applique progressivement à partir de 2026.
Côté finance, la reconnaissance européenne dé-risque une partie du CAPEX : elle arrive après des signaux publics (dont l’encadrement d’aides nationales) qui visent à déclencher l’investissement industriel et s’inscrit dans une trajectoire d’investissement sectorielle déjà chiffrée par les producteurs de plastiques.

Droits de douane Trump : après le couperet de la Cour suprême, l’industrie française face à un semestre de brouillard tarifaire

Le choc est venu du droit : le 20 février 2026, la Cour suprême a jugé que l’IEEPA ne permettait pas au président d’imposer des droits de douane, invalidant ainsi la “base juridique” d’une partie des tarifs Trump.
Conséquence immédiate : la douane américaine (CBP) doit cesser de percevoir ces droits dès mardi 24 février, avec une zone d’incertitude sur les remboursements et les contentieux à venir.
Mais l’administration a déjà réagi : Trump a annoncé un tarif global relevé à 15 %, relançant la volatilité et compliquant la lecture des contrats export.
Côté européen, la Commission exige de Washington qu’“un accord reste un accord” et refuse toute hausse unilatérale, tout en demandant de la clarté sur le régime post-arrêt de la Cour.
Pour l’industrie française, le sujet n’est donc pas “tarifs annulés = soulagement”, mais tarifs reconfigurés = risque de chaos opérationnel : révisions de prix, clauses d’indexation, délais de dédouanement, arbitrages d’incoterms.
Les secteurs déjà sous pression restent exposés à la demande américaine et aux à-coups tarifaires, tandis que l’aéronautique surveille exemptions et intrants (aluminium) dans un contexte où Airbus alerte sur les dégâts logistiques et financiers.
Dans les prochaines semaines, le Parlement européen pourrait reconsidérer le vote sur l’accord UE-États-Unis, tant la base juridique et le “deal” semblent mouvants.
Au printemps 2026, deux fronts vont monter : litiges de remboursements (cash-flow importateurs) et recalibrage des tarifs restants (ceux qui ne sont pas couverts par l’arrêt, via d’autres fondements).
À horizon mi-juillet 2026 (fin théorique du levier “temporaire” annoncé), les industriels devront anticiper soit une prorogation/nouveau véhicule légal américain, soit un cycle de négociation transatlantique, avec le risque symétrique de contre-mesures européennes.

Global Industrie 2026 : l’usine du futur face aux contraintes du présent

Dans un contexte où l’industrie française doit arbitrer entre compétitivité, souveraineté et décarbonation, Global Industrie 2026 s’annonce comme un baromètre très opérationnel des investissements qui “sortent enfin des slides”.
Le salon se tiendra du 30 mars au 2 avril 2026 à Paris Nord Villepinte, au moment où les donneurs d’ordres resserrent les exigences de performance, de traçabilité et de capacité à livrer.
L’édition 2026 promet de mettre en avant des axes directement corrélés aux tensions du moment : Digitalisation/IA, énergie, environnement, process, services et logistique, avec une lecture “atelier” plutôt que “concept”.
Côté terrain, le salon promet du concret via des animations dédiées, notamment l’Entrepôt Connecté, qui colle aux enjeux de productivité et de pénurie de main-d’œuvre dans la supply chain.
Sur la séquence business, le salon structure aussi des passerelles financement-innovation : un concours startups et un format “accélérateur” visant à connecter industriels et accompagnement.
Point de jalon à noter : l’Investor Day (31 mars 2026) concentrera les discussions sur IA industrielle, robotique, fabrication avancée et décarbonation — utile pour sentir où se déverrouillent (ou non) les CAPEX.

« L’idée n’est pas d’ajouter une capacité de production de masse, mais de disposer d’un outil préindustriel et de préparer les nouvelles générations de puces »

À Grenoble, le CEA a inauguré le 30 janvier dernier la ligne pilote européenne FAMES : un investissement de 830 M€, pensé pour accélérer le passage “du laboratoire au marché” sur cinq briques technologiques – procédés FD-SOI en 10 et 7 nm, mémoires non volatiles embarquées, intégration 3D, composants RF et  solutions de circuits intégrés pour la gestion de l’énergie – en « open access » pour industriels et les académiques.
Dans cette course, l’enjeu n’est pas seulement de “produire plus” mais de concevoir des puces plus sobres, adaptées à l’IA, à l’edge computing, à la mobilité électrique et aux infrastructures critiques, autrement dit, de faire de la souveraineté une stratégie technologique.

Jean-René Lèquepeys, directeur adjoint & CTO de l’institut Leti du CEA, est revenu pour Techniques de l’Ingénieur sur les contours de la stratégie technologique européenne en ce qui concerne les puces électroniques.

Techniques de l’Ingénieur : La crise Covid a-t-elle vraiment “révélé” la dépendance aux semi-conducteurs ?

Jean-René Lèquepeys : La crise a mis en évidence un phénomène de choc simultané : d’un côté une montée très rapide de la demande (équipements numériques, infrastructures de télétravail, consoles de jeux), de l’autre des ruptures de production et de logistique. À cela se sont ajoutés des comportements de sur-commande et de constitution de stocks, qui ont rigidifié encore davantage un marché déjà tendu.
L’effet le plus visible a été industriel : dans des systèmes complexes comme l’automobile, l’absence d’un seul composant suffit à bloquer l’assemblage, même si la pièce est peu coûteuse à l’unité. Cette crise a rendu tangible un point clé : la microélectronique représente une valeur économique directe importante, mais a surtout un effet d’entraînement sur toute la chaîne électronique et sur des secteurs entiers.

Pourquoi parle-t-on aujourd’hui de “technologie souveraine” ?

Parce que les semi-conducteurs sont devenus une technologie stratégique : ils conditionnent la continuité d’activité, l’innovation et, dans certains cas, la sécurité des systèmes. Les politiques publiques se sont alignées sur cette réalité : plans industriels, soutien à la R&D, incitations à l’implantation de capacités, sécurisation des chaînes d’approvisionnement.
En parallèle, les tensions géoéconomiques ont accentué la dimension souveraineté : restrictions et contre-restrictions sur certaines technologies, dépendance à quelques zones pour des étapes critiques, y compris sur des matières premières dont le raffinage est fortement concentré.

Taïwan reste-t-il le point de fragilité numéro un ?

C’est un nœud de fragilité majeur, car une part très significative des technologies les plus avancées est concentrée géographiquement sur ce seul pays. Ce niveau de concentration, combiné au risque géopolitique avec la Chine, rend la chaîne mondiale vulnérable à des événements exogènes.
Cette situation pousse à des stratégies de diversification, avec la montée en capacités dans d’autres régions, la recherche d’implantations alternatives, et le rééquilibrage progressif entre lieux de conception, de prototypage et de fabrication.

L’Europe part-elle de trop loin sur la production ?

Le diagnostic est celui d’un décalage structurel, avec une forte base de recherche et d’ingénierie, mais une part très faible de production sur le sol européen au regard de la consommation de puces. Cette asymétrie crée un risque d’approvisionnement en période de tension et limite la capacité à sécuriser des volumes pour des secteurs critiques.
L’enjeu n’est donc pas uniquement de rapatrier des usines : il s’agit aussi de renforcer l’ensemble de la chaîne – compétences, outillage, qualification, écosystème – afin de restaurer une capacité d’action en cas de rupture, et une capacité d’industrialisation plus rapide.

D’où le développement de la ligne pilote FAMES ?

L’idée n’est pas d’ajouter une capacité de production de masse, mais de disposer d’un outil préindustriel qui réduit le temps et le risque entre une preuve de concept en laboratoire et une exploitation industrielle. On est sur une logique de maturation technologique : stabiliser un procédé, qualifier les performances, valider une intégration, pour produire des démonstrateurs représentatifs.
Autrement dit, c’est un accélérateur de transfert, un environnement où industriels et académiques peuvent tester, itérer, caractériser et converger vers des solutions industrialisables, plutôt que de rester au niveau “papier” ou à un prototype isolé.

L’idée n’est donc pas de rattraper coûte que coûte des leaders comme NVIDIA ?

La compétition n’est pas seulement une course au “plus gros” ou au “plus rapide”, mais une question d’architecture et d’efficacité énergétique. Les accélérateurs généralistes ont été optimisés pour certains usages, mais l’IA met en lumière une limite fondamentale : la consommation vient très largement du déplacement des données (~90%), pas seulement des opérations arithmétiques.
On se heurte aussi au mur de la mémoire : les unités de calcul progressent plus vite que la capacité à fournir les données au bon rythme, ce qui crée un goulot d’étranglement systémique. La voie stratégique consiste donc à explorer des architectures alternatives : plus de proximité mémoire-calcul, une intégration avancée, l’empilement 3D, et, selon les cas, des circuits spécialisés capables d’apporter des gains d’efficience très supérieurs.

L’edge computing change-t-il la donne pour la souveraineté ?

Oui, parce que l’edge déplace le traitement au plus près de la source de données. Techniquement, cela réduit la latence, soulage les réseaux, optimise la consommation d’énergie, protège nos données, et peut améliorer la maîtrise des flux de données. Mais cela impose des contraintes fortes : une enveloppe énergétique limitée, une intégration compacte, de la robustesse, et parfois des exigences de sûreté ou de sécurité.
Le défi industriel est la fragmentation : les cas d’usage sont nombreux, donc les architectures et les composants le sont aussi. Cela renforce l’intérêt de solutions flexibles mais efficaces, et pose des questions de mémoire, d’interconnexions, et de traitements embarqués capables d’aller au-delà de l’inférence simple, vers des formes d’adaptation locale ou d’apprentissage plus frugal selon les contextes.

Au-delà du calcul, quelles briques deviennent critiques (data centers, auto, matériaux) ?

Dans les data centers, la contrainte ne se résume pas aux accélérateurs. La chaîne d’alimentation (conversion, distribution, rendement) et les interconnexions de données pèsent lourd dans le bilan énergétique. D’où l’attention portée aux composants de puissance et aux technologies qui réduisent les pertes, ainsi qu’aux communications, où l’optique peut constituer un levier d’efficacité.
Côté automobile, l’électrification a déjà renforcé les besoins en électronique de puissance. C’est un terrain où l’Europe dispose d’atouts, mais où la concurrence s’intensifie, notamment sur des technologies moins avancées mais industrialisables à grande échelle.
Enfin, la question des ressources impose une approche “système” : travailler sur l’accès aux matières, mais aussi sur la réduction d’usage, la substitution quand elle est possible, et la recyclabilité, en intégrant ces paramètres suffisamment tôt dans la trajectoire technologique, avant le passage à l’échelle industrielle.

Propos recueillis par Pierre Thouverez

Des datacenters dans l’espace : entre défi technologique et nécessité écologique

Le constat est sans appel : la course à l’IA est avant tout une course à l’électricité. Pour les États-Unis et les puissances technologiques, freiner le développement des infrastructures de données n’est pas une option. Pourtant, l’implantation de nouveaux centres au sol se heurte à des résistances environnementales et à des risques de déstabilisation des réseaux locaux.

Alors que les datacenters terrestres saturent les réseaux électriques et exigent des quantités phénoménales d’eau et d’énergie pour leur refroidissement, une solution émerge : délocaliser la puissance de calcul en orbite.

Deux points clés sont mis en avant. Tout d’abord, l’absence d’atmosphère permet de dissiper la chaleur via des radiateurs orientés vers le froid absolu de l’espace, éliminant le besoin de systèmes de climatisation énergivores.

Second point, libérés du cycle jour-nuit et des aléas météorologiques, les panneaux photovoltaïques orbitaux bénéficient d’une exposition solaire 24h/24, garantissant une alimentation électrique stable et « propre ».

Fidèle à sa stratégie de rupture, Elon Musk a récemment annoncé vouloir déployer jusqu’à un million de satellites dédiés au stockage et au traitement des données. Pour soutenir cette ambition, l’homme d’affaires a fusionné SpaceX avec sa société d’IA, prévoyant une introduction en bourse massive pour financer ce réseau global.

Le coût du kilo mis en orbite

Sur le papier, l’idée semble intéressante. Mais le passage à l’échelle sera certainement plus compliqué. Des antennes au sol transmettent les requêtes vers une constellation de satellites interconnectés par liaisons laser (l’équivalent spatial de la fibre optique). Une fois le calcul ou l’inférence réalisé(e), le résultat est renvoyé sur Terre par ondes radiofréquences.

L’idée d’exploiter l’énergie spatiale ou de manipuler des données dans l’espace n’est pas récente. Dès les années 1960, des concepts de centrales solaires orbitales géantes étaient soumis à la NASA. Cependant, deux obstacles majeurs ont historiquement freiné ces ambitions : la complexité technique et, surtout, le coût du kilo mis en orbite.

Si les tarifs ont chuté depuis l’époque des pionniers (passant de 30 000 € à environ 10 000 € le kilo aujourd’hui), le seuil de rentabilité économique pour des datacenters spatiaux massifs se situerait autour de 200 € par kilo.

Un fossé que seul le succès des lanceurs lourds et réutilisables, à l’image du Starship de SpaceX (dont les tests fin 2025 marquent une étape décisive avec une série d’explosion en vol…), pourrait éventuellement combler.

La délocalisation orbitale permettrait en effet de soulager la facture écologique terrestre de l’IA. Mais, elle soulève des questions majeures sur l’encombrement de l’orbite basse et la gestion des débris spatiaux (un casse-tête depuis de très longues années). En attendant, il conviendrait d’optimiser la réduction de la consommation d’énergie des datacenters.

Revue du Magazine d’Actualité #64 du 16 au 20 février

Les débats sur la planification, la sobriété et les technologies émergentes témoignent d’un paysage en mutation rapide, où innovation et régulation avancent désormais de concert.


⚡ ÉNERGIE & ENVIRONNEMENT

Traînées de condensation, la solution climatique la plus rapide pour l’aviation ?

Les traînées de condensation sont responsables d’un impact climatique significatif, souvent sous-estimé dans les bilans du transport aérien. Des simulations montrent qu’un ajustement précis de l’altitude des vols pourrait réduire rapidement cet effet radiatif. Cette approche, fondée sur une meilleure prévision météo et une coordination opérationnelle, apparaît comme un levier immédiat pour limiter l’empreinte du secteur.
Une piste concrète pour décarboner l’aviation

Japon : le retour en grâce du nucléaire

Le Japon confirme la relance de son parc nucléaire, motivée par une recherche de stabilité énergétique et une réduction des importations fossiles. Plusieurs réacteurs redémarrent dans un cadre réglementaire renforcé, conséquence directe des enseignements post-Fukushima. Cette stratégie marque un tournant majeur, positionnant le nucléaire comme pilier de la décarbonation nationale.
Le choix japonais pour une énergie pilotable

Trop d’électricité, pas assez d’usages : le paradoxe français vu par EDF

EDF pointe un déséquilibre structurel : une production électrique abondante mais une électrification des usages qui progresse trop lentement. Les secteurs industriels et résidentiels n’absorbent pas encore la capacité disponible, rendant plus complexe la planification du réseau et des investissements. Ce paradoxe interroge sur les politiques publiques nécessaires pour accélérer la transition.
📈 Le paradoxe électrique expliqué en profondeur

Énergies : la programmation arrive enfin… par décret

Le gouvernement acte par décret une programmation énergétique attendue depuis plusieurs mois, clarifiant les trajectoires nationales de production et de consommation. Ce texte fixe les priorités : accélération des renouvelables, rôle du nucléaire, gestion des pointes et adaptation du réseau. Pour les acteurs du secteur, cette formalisation apporte enfin une visibilité réglementaire indispensable à la planification des investissements.
📜 Une nouvelle étape pour la stratégie énergétique française

Batteries made in Europe, le moment de vérité pour la filière européenne

L’industrie européenne des batteries atteint une phase cruciale, alors que plusieurs gigafactories entrent en production. La compétition internationale, notamment face aux acteurs asiatiques, impose des exigences fortes de performance, de coûts et de durabilité. La réussite de cette filière conditionnera largement l’autonomie stratégique de l’Europe dans la mobilité électrique.
🔋 Une filière européenne à un tournant stratégique


🧬 INNOVATION, SANTÉ & NUMÉRIQUE

Inria et Doctolib : une alliance pour une IA médicale capable de « raisonner »

Inria et Doctolib collaborent pour concevoir une IA médicale capable d’expliquer ses décisions plutôt que de se limiter à des prédictions statistiques. Cette approche vise un diagnostic assisté plus fiable, transparent et conforme aux attentes des professionnels de santé. Le projet s’inscrit dans le mouvement international vers des IA plus responsables et auditables.
🧠 L’IA médicale entre dans une nouvelle ère


🏭 INDUSTRIE & SOCIÉTÉ

À Lacq, Reju va offrir une seconde vie au textile

Reju inaugure une installation dédiée au recyclage chimique du textile, capable de séparer et purifier les fibres pour une réutilisation quasi infinie. Cette technologie ouvre la voie à un véritable textile circulaire en France, dans un contexte de pression réglementaire croissante sur l’industrie de la mode. Le site de Lacq vise rapidement l’échelle industrielle pour répondre à la demande européenne.
👖 Le textile recyclé change d’échelle


👓 Bon week-end et bonne lecture 📰

Batteries made in Europe, le moment de vérité pour la filière européenne

ACC, coentreprise réunissant Stellantis, Mercedes et TotalEnergies, traverse une phase que son dirigeant qualifie lui-même de décisive dans un texte publié et relayé par la presse spécialisée. Yann Vincent y réaffirme sa conviction que l’avenir de l’automobile se joue largement dans l’électrique, tout en décrivant des obstacles qui, selon lui, ne relèvent plus seulement de la technologie, mais de la capacité industrielle européenne.

Son point de départ repose sur un constat de dépendance, puisqu’il évoque une domination asiatique sur l’approvisionnement en batteries pour les véhicules vendus en Europe et cite explicitement de grands acteurs comme BYD, CATL ou LG. Cette dépendance, présentée comme un risque stratégique pour les constructeurs européens, sert de fil conducteur à son appel, avec une question centrale sur l’identité de ceux qui fabriqueront les batteries des voitures européennes à venir.

ACC ralentit, mais maintient la production à Douvrin

ACC avait précisément été créée pour démontrer qu’une alternative industrielle européenne pouvait exister, en concevant et en produisant des cellules sur le continent.

L’entreprise met en avant la gigafactory de Douvrin dans le nord de la France, mais reconnaît une montée en puissance plus lente et plus coûteuse que prévu, avec un impact direct sur sa situation financière. Le dirigeant rappelle toutefois que des modèles électriques de Peugeot, Opel et DS roulent déjà avec des batteries issues de cette production. Il indique par ailleurs que les volumes de modules augmentent et que les taux de rebut s’améliorent.

À ces défis industriels s’ajoute cependant un environnement de marché jugé moins porteur que prévu, puisque la croissance du véhicule électrique se poursuit, mais à un rythme moins soutenu qu’attendu, renforçant l’incertitude côté constructeurs. Dans ce contexte, les actionnaires fondateurs ajustent leur stratégie avec davantage de prudence. Cela se traduit par des retards sur certains projets ainsi que par un ralentissement partiel des activités de recherche et développement sur les sites de Bordeaux-Bruges et de Nersac, mais aussi du chômage partiel.

Des projets mis en pause et un signal d’alarme sur la compétitivité

ACC dit avoir revu ses ambitions industrielles à court terme et estime qu’ouvrir de nouvelles usines en Allemagne et en Italie serait irresponsable dans l’environnement actuel. En parallèle, les projets de Termoli en Italie et de Kaiserslautern en Allemagne, suspendus depuis mai 2024, font l’objet de discussions sociales autour d’un scénario d’abandon, compte tenu de conditions préalables jugées non réunies.

Le discours de Yann Vincent insiste sur l’idée d’un tournant pour l’industrie européenne des batteries et s’appuie sur des travaux européens récents, dont le rapport sur la compétitivité remis par Mario Draghi à la Commission. Le rapport Draghi met en avant la vulnérabilité de l’Union face aux dépendances et à la concurrence internationale, et appelle à des choix plus offensifs en matière de compétitivité.

Un agenda européen attendu et l’ombre de Northvolt

Dans son appel, le patron d’ACC réclame un instrument financier à l’échelle européenne, en cohérence avec l’idée que la filière batterie ne se joue pas uniquement à l’échelle d’un site ou d’un pays. Cette prise de parole se place aussi dans une séquence où Bruxelles prépare un texte visant à favoriser la production européenne dans des secteurs stratégiques, dont les batteries, au travers d’un projet présenté comme un « Industrial Accelerator Act » et décrit comme une initiative made in Europe. Plusieurs articles évoquent une présentation autour de la fin février 2026, avec un cadrage portant sur l’accès à certains financements publics et sur des exigences de contenu local dans des technologies clés.

La situation d’ACC est proche de celle de Northvolt, souvent présenté comme un symbole des ambitions européennes en matière de batteries. Northvolt a déposé le bilan en Suède en mars 2025 et a ensuite annoncé l’arrêt de sa production résiduelle de cellules sur son site de Skellefteå, après l’absence de repreneur à court terme.

Au fil de ces éléments, le message d’ACC se lit comme une alerte sur la capacité de l’Europe à sécuriser une chaîne de valeur stratégique, depuis l’industrialisation jusqu’aux conditions de marché, alors même que l’électrification progresse, mais que le rythme et la visibilité restent débattus. Le calendrier européen annoncé et les références à des difficultés industrielles récentes posent désormais un enjeu de crédibilité, celui de transformer des objectifs de souveraineté en leviers opérationnels, sans se limiter à l’affichage.

Semi-conducteurs : la reconquête industrielle américaine est en marche

En 2026, les ventes mondiales de semi-conducteurs pourraient atteindre les 1 000 milliards de dollars. Ce seuil symbolique vient d’être annoncé par la SIA (Semiconductor Industry Association), au moment de la publication des chiffres de l’année 2025. Ceux-ci sont très bons, puisque le marché a progressé de plus de 25 % en un an, pour dépasser 790 milliards de dollars, porté notamment par l’explosion de la demande liée à l’intelligence artificielle. Alors que la production s’est largement concentrée en Asie, les États-Unis ont entrepris une vaste offensive industrielle pour reprendre la main sur ce secteur clé.

Entre 1990 et 2022, leur part dans la capacité mondiale de production a chuté de 37 % à environ 10 %. Si les entreprises américaines captent encore près de la moitié des ventes mondiales de puces, la fabrication s’est largement déplacée sur le continent asiatique, principalement à Taïwan, en Corée du Sud et en Chine. Résultat : environ 80 % de la production se concentre aujourd’hui sur cette région.

Pour la première puissance économique mondiale, cette dépendance est devenue un risque stratégique majeur. La pandémie de Covid-19 a agi comme un électrochoc en mettant en lumière la fragilité de leurs chaînes d’approvisionnement et les tensions géopolitiques autour de Taïwan ne font que renforcer ces craintes. Outre-Atlantique, la sécurisation de l’accès aux puces est donc devenue un impératif de souveraineté technologique.

Face à cette situation, Washington a engagé depuis 2020 une stratégie de réindustrialisation ambitieuse grâce à des incitations fiscales, des subventions directes et un soutien massif à la recherche dans le but de rapatrier des capacités de production sur le sol américain. Selon un rapport de la SIA, plus de 500 milliards de dollars d’investissements privés ont été annoncés dans 28 États, couvrant la fabrication, l’assemblage et les équipements. En 2025, le crédit d’impôt à l’investissement industriel a par ailleurs été renforcé, passant de 25 % à 35 %, afin de rendre le territoire plus compétitif face aux subventions asiatiques et européennes.

Des atouts structurels dans l’écosystème mondial

Les États-Unis conservent un atout décisif avec la maîtrise de la conception et de la recherche. Cet avantage s’explique par des investissements massifs dans la R&D, qui se sont chiffrés à près de 63 milliards de dollars en 2024, soit près de 18 % du chiffre d’affaires de l’industrie américaine des semi-conducteurs.

Par ailleurs, les entreprises dont le siège social est situé aux États-Unis contrôlent près de la moitié du marché mondial des équipements de fabrication de semi-conducteurs, un segment crucial puisqu’il constitue une part importante du coût de construction d’une usine. La stratégie américaine intègre également la sécurisation des chaînes d’approvisionnement, en coopération avec des alliés comme le Japon et la Corée du Sud, afin de garantir un accès compétitif aux intrants indispensables à l’expansion des capacités domestiques.

La course au talent reste malgré tout un défi majeur. La croissance de l’écosystème nécessitera en effet des dizaines de milliers d’ingénieurs, de techniciens et d’informaticiens supplémentaires. Une étude citée dans le rapport de la SIA estime qu’à l’horizon 2030, les États-Unis pourraient faire face à un déficit de 67 000 travailleurs qualifiés dans le seul secteur des semi-conducteurs. Dès lors, attirer et former une main-d’œuvre hautement qualifiée devient aussi stratégique que la construction de nouvelles unités.

Selon des projections de la SIA, la capacité de production américaine pourrait tripler à l’horizon 2032, alors que la progression mondiale moyenne serait de 108 % sur cette période. Si ce scénario se confirme, la géographie industrielle du secteur pourrait être partiellement redessinée. Mais la compétition reste ouverte puisque la Chine, l’Union européenne, la Corée du Sud et le Japon multiplient eux aussi les programmes de soutien public. La course aux semi-conducteurs s’apparente désormais à une rivalité industrielle globale, où se mêlent innovation, puissance économique et stratégie géopolitique.

À Lacq, Reju va offrir une seconde vie au textile

Le bassin industriel du Lacq en Pyrénées-Atlantiques confirme son attractivité : le site vient d’être choisi par Reju pour y créer une usine qui transformera les textiles post-consommation en polyester recyclé de haute qualité. Avant la finalisation, la filiale de Technip Energies doit encore obtenir la validation du conseil d’administration de la maison mère.

Situé sur la plateforme Induslacq, une propriété de TotalEnergies, ce projet devrait permettre de créer 80 emplois directs et plus de 300 emplois indirects, participant ainsi à la revitalisation économique du bassin industriel du Lacq menée par Chem’Parc[1].

« Ce pôle de régénération français s’inscrit dans notre stratégie d’industrialisation d’un modèle circulaire de recyclage des textiles post-consommation », a déclaré Patrik Frisk, PDG de Reju.

Un projet qui illustre une stratégie déjà amorcée par Reju sur d’autres sites. Alors qu’elle possède un démonstrateur à Francfort : le Regeneration Hub Zero, l’entreprise a annoncé que deux prochains sites industriels verront le jour aux Pays-Bas et dans l’état de New York.

Une technologie innovante

Créée en 2023 par Technip Energies, Reju se spécialise dans la régénération textile. Sa mission consiste à récupérer, régénérer et recycler les déchets textiles et en particulier le polyester. Cette activité s’appuie sur une innovation développée dans le cadre d’une co-entreprise entre IBM Research, Under Armour et Technip Energies. Cette technologie nommée VolCat[2] régénère les emballages PET et le polyester usagés grâce à la décomposition sélective des polymères. Initialement appliquée à la lithographie des semi-conducteurs et l’emballage des produits microélectroniques, VolCat est aussi appliquée pour le textile. Après avoir transformé les déchets textiles en rBHRe (une matière première purifiée), ce trieur moléculaire transformera le produit obtenu via une repolymérisation en Reju PET, un polyester recyclé.

Le recyclage du textile, une filière d’avenir

Chaque année, sur les 121 millions de tonnes de textiles jetées à l’échelle mondiale, seulement 1 % font l’objet d’un recyclage permettant leur transformation en nouveaux vêtements. La plupart des textiles sont envoyés dans des décharges ou incinérés. Afin de passer d’un modèle linéaire à une économie circulaire, le gouvernement a fait adopter, en 2020, la loi anti-gaspillage pour une économie circulaire (AGEC).

Le 1er janvier 2025, cette loi a été étendue aux déchets textiles professionnels et ne se limite plus à huit types de déchets (biodéchets, papier, verre, plastique, métal, bois, fraction minérale et plâtre). Le tri et le recyclage des déchets textiles professionnels sont donc imposés aux entreprises et collectivités exerçant dans des secteurs d’activités incluant l’usage de ces textiles (industrie, BTP, santé ou restauration). Ces textiles représentent un volume à recycler estimé à 165 millions de pièces, soit 50 000 tonnes par an ; 35 000 tonnes sont jetées ou incinérées chaque année.

Anticipant cette nouvelle application de la loi, Recygo, une entreprise spécialisée en recyclage, a été créée en 2018 par SUEZ et La Poste. Le tri des vêtements est effectué par Synergie TLC tandis que Nouvelles Fibres Textile assure la valorisation des vêtements professionnels en mélange. Quant aux lots homogènes, ils sont acheminés vers le site de Renaissance Textile, en Mayenne, pour être transformés en fil directement utilisable pour refaire de nouveaux textiles et vêtements.


[1] Groupement d’intérêt public (GIP) créé en 2003

[2] Volatile Catalyst

Semi-conducteurs : l’Europe au carrefour de ses ambitions

L’impact du manque de puces sur l’activité dans la zone euro s’est révélé criant. C’est ce contexte post crise sanitaire, et au-delà le risque géopolitique lié à la concentration de la fabrication avancée en Asie, auquel se sont ajoutées plus récemment les tensions entre les Etats-unis et la Chine, qui ont accéléré l’ambition de regagner une capacité d’action européenne sur cette technologie devenue hyper stratégique.

La réponse politique s’est matérialisée à travers le Chips Act, entré en application en 2023. L’objectif affiché est de renforcer la résilience des chaînes de valeur, accélérer l’innovation, et augmenter la part de l’Union dans la production mondiale de puces, avec un cap que l’on peut résumer en un chiffre : atteindre 20 % de la production mondiale d’ici 2030. Le texte s’appuie sur le cadre du règlement (UE) 2023/1781, qui structure à lui seul les instruments et la coordination européenne.

Concrètement, le Chips Act est un arc à trois flèches. La première a pour ambition de financer l’industrialisation de technologies clés via l’initiative Chips for Europe, qui vise à combler l’écart entre la recherche et la production. La seconde doit créer un environnement favorable aux usines pionnières qui « dé-risquent » les procédés avant la production de masse, en articulant à la fois financements publics, investissements privés et aides d’État. Enfin, la dernière flèche doit permettre de gérer les crises avec des mécanismes de suivi et de coordination, afin d’anticiper les tensions d’approvisionnement plutôt que de les subir.

L’Europe mise aussi sur des lignes pilotes pour garder une longueur d’avance sur les procédés de nouvelle génération, sans nécessairement construire immédiatement de gigantesques unités de fabrication. L’initiative NanoIC lancée par imec en Belgique en est un exemple.

Au final, la question qui se pose, comme pour de nombreux programmes industriels lancés par l’Europe ces dernières années, est la suivante : cette trajectoire est-elle réaliste ? Des alertes sur le risque de décalage entre l’ambition et la capacité effective à quadrupler la production, pointent notamment une concurrence mondiale très agressive et des financements fragmentés. Cette critique souligne le cœur du défi : la souveraineté ne se limite pas à la relocalisation, mais à l’alignement des capacités industrielles, des compétences, de l’accès aux équipements critiques, et enfin et surtout aux marchés.

Depuis la crise Covid, l’Europe tente de transformer un choc d’approvisionnement en stratégie durable. Avec l’ambition de sécuriser, d’accélérer, et de reprendre la main sur une brique technologique devenue vitale pour son autonomie économique. Sauf qu’à la crise Covid se sont ajoutées des tensions géopolitiques entre les deux géants industriels mondiaux et entre autres une situation fragile à Taïwan… autant d’inconnues supplémentaires dans une équation déjà très complexe.

Inria et Doctolib une alliance pour une IA médicale capable de « raisonner »

Jusqu’à présent, l’IA médicale reposait essentiellement sur la reconnaissance statistique de motifs (ou « patterns »). Si un algorithme peut identifier une tumeur sur une radio, il est souvent incapable d’expliquer son cheminement. Le projet Inria-Doctolib vise à franchir une étape cruciale : passer d’une IA de prédiction à une « IA de raisonnement ».

L’objectif est de garantir une « IA de confiance, “made in Europe”, qui respecte les principes de transparence et d’éthique ». Au lieu de livrer une réponse brute, l’IA devra exposer son argumentation logique. Cela change tout pour le médecin, qui pourra analyser chaque étape du raisonnement (ex. : « Je suspecte cette pathologie en raison de la combinaison du symptôme A et de l’antécédent B ») et ainsi conserver un contrôle critique complet sur le diagnostic.

L’un des défis majeurs de la recherche portera sur la causalité. Pour éviter des erreurs absurdes – comme confondre une habitude de vie (porter un briquet) avec une cause biologique (le tabac provoquant le cancer), l’équipe commune développera des modèles capables de comprendre les liens réels de cause à effet. En croisant les données de capteurs, l’environnement et l’historique médical, l’IA pourra estimer l’état de santé actuel et futur avec une précision inédite.

Un soin plus juste et plus rapide

Le partenariat se concentre sur deux applications prioritaires. Tout d’abord, optimiser le parcours patient. En analysant les données mondiales et l’historique clinique, l’IA aidera à réduire l’errance médicale, particulièrement pour les maladies rares, en suggérant des pistes de diagnostics précoces. En effet, plus une tumeur est détectée tôt, plus il est facile d’en limiter la croissance et son impact sur l’organisme.

Le deuxième objectif principal est d’affiner le diagnostic clinique. L’outil pourra émettre des hypothèses, en quantifiant son propre niveau d’incertitude. Cette transparence permettra au praticien d’évaluer la fiabilité de la suggestion de la machine avant de prendre une décision.

L’objectif de l’équipe va au-delà de la guérison de la maladie. Elle vise à créer des systèmes qui peuvent suggérer les meilleures mesures préventives (vaccins, dépistages) en tenant compte de la psychologie de l’utilisateur. Le défi consiste à transformer une recommandation médicale en un comportement durable dans le temps.

Pour François Cuny, directeur général délégué à l’innovation chez Inria, « ce partenariat dépasse le cadre technique. Il s’agit de structurer un véritable écosystème français de la santé numérique, capable d’attirer les meilleurs talents internationaux tout en garantissant la souveraineté et la protection des données de santé ».

En somme, l’IA de demain ne remplacera pas le médecin. Elle lui permettra toutefois d’offrir une analyse plus poussée, ce qui entraînera un soin plus juste et plus rapide.

Énergies : la programmation arrive enfin… par décret

Le vendredi 13 février 2026 portera-t-il chance à la nouvelle programmation pluriannuelle de l’énergie ? En tout cas, sa présentation ce jour-là par le ministre en charge de l’énergie et sa publication par décret mettent fin à trois ans d’attente. Si elle clarifie les grandes lignes de l’État pour les prochaines années en termes de production, la PPE reste beaucoup moins opérationnelle sur les économies d’énergie.

Cette troisième version de la PPE était attendue depuis un travail de concertation lancée en 2022 : elle aurait dû être précédée d’une loi sur la politique énergétique nationale dont la publication légale était prévue avant le 1er juillet 2023. Las, de débats en communiqués, en passant par des propositions de moratoire sur l’éolien et le photovoltaïque et par des doutes sur les capacités d’EDF à financer un nouveau parc nucléaire, la loi n’a pas réussi à voir le jour.

Cette longue histoire n’est d’ailleurs peut-être pas finie car, comme le précise l’avocat Arnaud Gossement, il faudra vérifier la solidité juridique du nouveau décret. Il omet par exemple toujours d’indiquer formellement un objectif d’énergies renouvelables dans la consommation finale d’énergie, comme la France est censée le faire en respect du règlement européen sur la gouvernance de l’action climatique.

Plusieurs filières de décarbonation confirmées

La PPE3 avait été précédée d’échanges avec plusieurs filières énergétiques qui sont essentielles à la décarbonation. Celle des gaz renouvelables, par l’intermédiaire du syndicat professionnel France Gaz, estime que l’objectif de 44 TWh de biométhane injecté en 2030 est en ligne avec le potentiel de la filière. Mais elle regrette qu’une borne haute de 85 TWh n’ait pas été retenue pour 2035 (une fourchette 47-82 TWh est indiquée), et qu’un objectif de 10 % de biopropane n’ait été intégré dans la PPE.

Du côté de la chaleur renouvelable et de récupération, l’objectif est de 297 TWh en 2030 et 328-421 TWh en 2035. Une tendance haussière alors qu’en 2023, la France n’avait pas atteint l’objectif de la PPE2 (172 au lieu de 196 TWh). Le froid renouvelable par réseaux doit doubler voire tripler sa production actuelle de 1 TWh. Pour cela, le Fonds Chaleur géré par l’Ademe reste le principal levier : il doit atteindre un régime de croisière de 12 TWh/an soutenus en 2030. Le Syndicat des énergies renouvelables (SER) attend que la PPE précise le poids de chaque filière (bois-énergie, géothermie, etc.) dans l’objectif.

Pour les biocarburants, la PPE3 envisage de passer de 33 TWh en 2023 à 55 TWh en 2030 dans le transport. Objectif qui est étendu à 70-90 TWh en 2035 en incluant d’autres usages non énergétiques, la production électrique en outre-mer, et plus d’utilisation dans les transports maritimes, le secteur aérien et l’agriculture. La PPE3 prend acte que la France ne pourrait produire que 50 TWh, tout en important des matières premières. D’autres carburants de synthèse seront nécessaires.

Le sujet surdimensionné de l’électricité

Roland Lescure, ministre de l’Économie, des Finances et de la Souveraineté industrielle, énergétique et numérique, a présenté la PPE3 presqu’exclusivement sur le thème de l’électricité. Le ministre a résumé son ambition ainsi : « produire plus, électrifier plus, pour consommer plus ». Il assume donc le déploiement de six nouveaux réacteurs nucléaires EPR2 (et toujours huit autres en option), mais comme ils « ne poussent pas en une nuit », l’investissement dans les énergies renouvelables est inéluctable.

Inéluctable… mais pas vraiment soutenu par le Gouvernement. La PPE3 bride le développement du solaire photovoltaïque à une capacité de 48 GW en 2030 (et 55-80 GW en 2035), soit un ralentissement par rapport aux deux dernières années. Le SER comme Enerplan s’en contentent tout en attendant que les appels d’offres (à hauteur de 2,9 GWc par an) se concrétisent. Beaucoup d’organisations de la société civile (WWF, Greenpeace, Amorce, FNCCR, Enercoop ou encore le Réseau action climat qui venait juste de publier un rapport sur la souveraineté énergétique) ont dénoncé un recul.

L’éolien terrestre est pour ainsi dire sacrifié avec une minuscule hausse de 25 GW aujourd’hui à 31 GW en 2030, alors que la précédente PPE prévoyait jusqu’à 34 GW en 2028… La fourchette de 35-40 GW pour 2035 ne fait pas mieux. Le SER regrette cette ambition réduite et prévient que le renouvellement des parcs existants –  souhaité prioritairement par le Gouvernement – ne suffira pas à atteindre les objectifs.

Seul l’éolien offshore semble tirer son épingle du jeu, avec la confirmation du Pacte éolien en mer et le lancement de deux nouveaux appels d’offres. L’augmentation des capacités hydroélectriques est aussi au programme, dont 1,7 GW de stations de transfert d’énergie par pompage.

Tous ces moyens doivent conduire à une production électrique entre 650 et 693 TWh en 2035, soit une hausse de 42 % à 51 % en moins de 10 ans. Cela laisse perplexe, autant que la consommation ciblée sur 618 TWh en 2035, ce qui représente une croissance d’environ 4 % par an dès maintenant. Du jamais-vu dans notre pays ! Pour l’instant, le Gouvernement est bien en peine d’expliquer comment il est possible d’arriver à ce rythme surdimensionné de demande électrique.

L’enjeu non résolu des économies d’énergie

Paradoxalement, face au projet d’une hausse de la consommation d’électricité, la PPE3 confirme d’ambitieuses économies d’énergies. En effet, pour être en conformité avec la directive européenne relative à l’efficacité énergétique, la France devra réduire sa consommation finale d’énergie de 38 TWh/an en moyenne jusqu’en 2030. Soit un rythme presque double des réductions de consommations observées entre 2012 et 2023. Ce rythme devrait même être amplifié pour arriver à l’objectif de 2050 (- 50 % de consommation par rapport à 2012).

Des pistes d’actions sont données dans la PPE3. Mais, selon Yves Marignac, porte-parole de l’Association négaWatt, dans une tribune publiée dans le Nouvel Obs, « si la PPE affirme donner la priorité à la sobriété et à l’efficacité énergétique, elle reconnaît que les mesures existantes ne suffiront pas, sans en proposer de nouvelles ».

La publication de la PPE3 a été saluée par toutes les filières énergétiques, même si certaines pâtissent des choix gouvernementaux, car cela débloque le lancement de projets et redonne un horizon à 2030. Des aspects importants restent néanmoins à préciser comme le plan national d’électrification des usages, dont quatre groupes de travail vont bientôt être lancés (transport, bâtiment, industrie, numérique), qui ne devrait être dévoilé qu’à partir de mai.

Sans compter que le Gouvernement a prévu une « clause de revoyure » pour la PPE3 en 2027, si besoin d’ajuster certains objectifs. Si le plan devait être si rapidement revu, le vers de Boileau serait toujours autant d’actualité : « Hâtez-vous lentement, et, sans perdre courage, vingt fois sur le métier remettez votre ouvrage ».

Trop d’électricité, pas assez d’usages : le paradoxe français vu par EDF

EDF estime qu’elle pourrait subir d’importants manques à gagner si la transition des usages vers l’électricité n’accélère pas, alors même que le système fait face à une forme de surcapacité. L’électricien résume sa priorité en une formule portée par sa directrice de la stratégie, Catherine Bauby, qui appelle à faire de l’électrification des usages la « priorité absolue », en remplacement du pétrole, du gaz et du fioul.

Cette alerte s’inscrit dans un contexte où la consommation française reste inférieure à ses niveaux d’avant crise, malgré un léger redressement observé récemment. RTE indique par exemple qu’en 2024, la consommation corrigée des aléas météorologiques s’est établie à 449,2 TWh, en légère hausse, tout en demeurant bien en deçà de la période d’avant crise.

Au cœur du diagnostic d’EDF se trouve un phénomène technique qui devient un sujet industriel et économique. Il s’agit de la modulation du parc nucléaire, autrement dit la capacité à ajuster la production à la baisse ou à la hausse en fonction de la consommation et de l’équilibre offre/demande. EDF explique que la modulation fait partie de l’exploitation du parc depuis des décennies, mais qu’elle s’intensifie fortement depuis 2024 dans un système où l’offre renouvelable a progressé et où la demande tarde à repartir. Un indicateur illustre cette accélération. Entre 2019 et 2025, les volumes de modulation nucléaire ont doublé, passant d’environ 15 TWh à 33 TWh en 2025, ce qui représente près de 9 % de la production nucléaire d’EDF selon l’article et le communiqué du groupe.

Une surcapacité qui bouscule l’exploitation du nucléaire

EDF relie cette hausse de la modulation à deux dynamiques combinées. D’un côté, le développement des moyens de production renouvelables, solaires et éoliens, en France et en Europe. De l’autre, une consommation que l’entreprise décrit comme atone. Cette configuration conduit l’électricien à réduire davantage la production nucléaire, voire à arrêter des réacteurs lorsque la production renouvelable est forte, notamment en milieu de journée.

Le rapport publié par EDF détaille le cadre général de cette modulation et rappelle que la production doit en permanence être égale à la consommation, avec un équilibre piloté au niveau du système par RTE. Il décrit aussi la façon dont la hausse de la production variable, en particulier photovoltaïque, réduit la demande résiduelle en milieu de journée et augmente la fréquence des phases de puissance réduite, voire d’arrêts ponctuels.

La question n’est pas seulement opérationnelle. EDF souligne des conséquences sur l’usure et la maintenance des équipements, au-delà du nucléaire. L’entreprise indique que ses barrages et ses centrales à gaz sont davantage sollicités, ce qui renchérit les coûts de maintenance. Pour le nucléaire, l’article évoque notamment un besoin de contrôles plus fréquents sur certains matériels comme la turbine, avec un rythme passant de dix ans à six ans, et un surcoût estimé à environ 30 millions d’euros par an pour le parc nucléaire, selon EDF.

Accélérer les usages électriques pour absorber l’offre

Le message d’EDF est aussi politique au sens de la planification. L’entreprise juge nécessaire, dans l’intervalle, d’ajuster le rythme de déploiement des énergies renouvelables, ce qui renvoie aux arbitrages de la Programmation pluriannuelle de l’énergie récemment publiée par le gouvernement.

Mais la priorité mise en avant reste l’électrification, afin de substituer des usages aujourd’hui fossiles. Ce point rejoint les analyses prospectives de RTE, qui souligne que l’atteinte des objectifs climatiques suppose une hausse de la demande électrique via l’industrie, l’hydrogène, les transports et les bâtiments, et qu’une partie de cette hausse dépend de la concrétisation de projets. RTE indique par exemple qu’à l’horizon 2030, la réalisation d’une fraction des projets industriels identifiés ferait augmenter la consommation de l’industrie. RTE souligne aussi, à partir de scénarios, quels volumes de consommation pourraient être liés aux datacenters et à l’hydrogène.

Au niveau gouvernemental, la trajectoire affichée vise par ailleurs à relier l’augmentation de l’offre bas carbone à la relance de la demande. Reuters rapporte que la France vise une hausse d’environ 20 % de sa production d’électricité décarbonée sur la décennie et qu’elle entend publier une stratégie d’électrification pour encourager les usages, dans le cadre de sa planification énergétique.

L’enjeu, pour EDF, est de limiter une situation où l’abondance d’électricité se traduit par davantage de modulation et par des revenus plus difficiles à sécuriser si la demande ne progresse pas. Le rapport insiste sur le fait que cette modulation s’impose dans le fonctionnement des marchés et rappelle les principes de rémunération d’un actif de production, avec des coûts fixes à couvrir et des recettes dépendantes des volumes produits et des prix.

Dans cette lecture, accélérer l’électrification ne relève pas seulement d’un objectif climatique. C’est aussi, selon EDF, une condition pour absorber l’offre bas carbone déjà là et pour éviter que la surcapacité ne fragilise durablement l’économie des moyens de production, au moment même où la France affiche des ambitions de souveraineté énergétique fondées sur davantage d’électricité bas carbone.

Japon : le retour en grâce du nucléaire

Le 9 février dernier, dans le centre-ouest du japon, le réacteur n°6 de la plus grande centrale nucléaire du monde a été relancé avec succès. Mise à l’arrêt depuis l’accident de Fukushima en 2011, la centrale de Kashiwazaki-Kariwa située sur le littoral compte sept réacteurs d’une capacité cumulée d’environ 8 212 MW. « À 14 h, nous avons procédé au retrait des barres de contrôle du réacteur n°6, mettant ainsi le réacteur en marche », a déclaré l’opérateur de Tepco[1] (également opérateur de la centrale sinistrée de Fukushima Daiichi).

Une bonne nouvelle après l’échec du premier redémarrage le 22 janvier dernier. En effet, quelques heures seulement après le démarrage du réacteur, le déclenchement d’une alarme du système de surveillance avait interrompu son lancement.

Une population réticente

La remise en marche de la centrale de Kashiwazaki-Kariwa est accueillie de façon mitigée chez les habitants. En effet, la mise à l’arrêt de cette centrale avait été décidée après la catastrophe de Fukushima en mars 2011 ; le Japon avait alors fermé tous ses réacteurs nucléaires. Il n’est alors pas étonnant de constater que, selon une enquête menée en septembre par le département de Niigata, 60 % des habitants sont opposés au redémarrage. En outre, s’inquiétant de la forte activité sismique de la zone sur laquelle est située la centrale, plusieurs associations ont remis à TEPCO et à l’Autorité japonaise de régulation nucléaire une pétition contre la relance, signée par près de 40 000 personnes.

Le Japon amorce une nouvelle politique énergétique

La relance du nucléaire civil est le fruit d’une approche pragmatique adoptée par les autorités nipponnes. Effectivement, la pauvreté des ressources naturelles rend le pays très dépendant aux importations de combustibles, en particulier le gaz naturel liquéfié et le charbon. En 2025, plus de 60 % d’électricité provenait de ces énergies (31 % pour le gaz et 28 % pour le charbon). La dépendance s’est accentuée depuis l’incident de Fukushima qui avait provoqué la mise hors service du parc nucléaire nippon constitué de 54 réacteurs. Alors qu’il fournissait environ 30 % de l’énergie électrique du pays, le nucléaire civil ne représente dorénavant qu’un peu moins de 10 % du mix énergétique. La diversification des approvisionnements est donc une nécessité pour l’archipel afin de répondre à la demande croissante d’électricité liée notamment à l’essor des centres de données et des semi-conducteurs.

La stratégie élaborée par le Japon repose sur la remise en service progressive de 14 des 33 réacteurs encore opérationnels. Ces réacteurs font l’objet d’un renforcement accru des normes de sécurité et permettent aujourd’hui d’atteindre une puissance cumulée d’environ 13 GW.

Le 18 février 2025, Tokyo a posé les fondements d’un nouveau plan énergétique. Dans ce 7e plan, la mention précisant qu’il faudrait « réduire au minimum la dépendance au nucléaire », présente dans le document depuis 2014, a été supprimée. Le gouvernement encourage au contraire l’usage maximal des centrales existantes.

L’objectif affiché est d’atteindre 20 à 22% de nucléaire dans la production d’électricité du Japon dans la prochaine décennie. Les énergies renouvelables (solaire et éolien) devraient fournir 40 à 50 % de la production électrique totale. Depuis juin 2025, les réacteurs nucléaires de l’archipel nippon peuvent être exploités au-delà de 60 ans.

Un positionnement qui n’est pas isolé en Asie du Sud-Est : le Vietnam et l’Indonésie investissent massivement dans le nucléaire pour faire face à la forte demande énergétique.

Rappelons qu’en Asie, le Japon est précurseur dans cette filière : il développa son premier réacteur nucléaire opérationnel dès 1966.


[1] Tokyo Electric Power Company

Les actualités à suivre : Made in Europe, PPE, ISS, EPR…

« Made in Europe » : la bataille Paris-Berlin s’apaise avant les arbitrages de mars

La querelle franco-allemande sur la préférence européenne connaît une trêve provisoire. Ce jeudi 12 février au château d’Alden Biesen, Emmanuel Macron a concédé du terrain face à Friedrich Merz, acceptant que le « Made in Europe » ne s’applique qu’à certains secteurs stratégiques, abandonnant ainsi la vision protectionniste généralisée défendue par Paris. L’Allemagne privilégie le « Made with Europe » – produire avec l’Europe plutôt que dans l’Europe – et refuse tout soutien public systématique aux industries en difficulté. Les Vingt-Sept doivent désormais trancher lors du sommet officiel de mars 2026, où sera dévoilée la liste définitive des secteurs bénéficiant d’un traitement préférentiel dans les achats publics européens. Cette décision intervient alors que la Commission prépare son Industrial Accelerator Act, qui vise à porter la part de l’industrie manufacturière à 20 % du PIB européen d’ici 2035, contre 14 % aujourd’hui. En juin 2026, un nouveau sommet fera office de date butoir : faute d’accord à Vingt-Sept, des coopérations renforcées permettront aux pays volontaires d’avancer seuls. L’enjeu dépasse l’industrie : face à la concurrence chinoise subventionnée et aux tarifs américains, l’Europe cherche une troisième voie entre protectionnisme et naïveté commerciale, alors que l’accord UE-Inde signé fin janvier ouvre un marché de 2 milliards de consommateurs aux entreprises européennes.

Après la PPE, l’épreuve du réel : réseau, usages, soutiens

La PPE 2026-2035 et son annexe SDMP (mobilités propres) ont été publiées le 13 février 2026, avec l’ambition d’orienter la politique énergétique française sur la décennie.

Le cadre est désormais entériné par décret, point de départ de sa mise en œuvre (appels d’offres, priorités filières, trajectoires).
Le document complet (objectifs et trajectoires 2026-2035) est accessible ici. Si le gouvernement met en avant une logique de souveraineté énergétique et de planification, dans sa communication officielle, le débat porte déjà sur l’équilibre nucléaire/renouvelables et le niveau des cibles, avec un accueil politique contrasté.

Dans les prochaines semaines, l’exécutif veut enchaîner avec le plan d’électrification des usages (industrie, bâtiments, numérique, transports), annoncé comme la prochaine étape. La séquence opérationnelle sera aussi rythmée par les arbitrages sur les mécanismes de soutien (volumes, budgets, calendriers) et leur soutenabilité.

La PPE prévoit un rapport d’ici fin 2026 sur la consommation électrique, les moyens de production décarbonés et les flexibilités. Enfin, une revue en 2027 est déjà évoquée pour ajuster la trajectoire selon la demande et les capacités.

ISS : le compte à rebours industriel est lancé

Sophie Adenot a décollé le 13 février 2026 dans le cadre de Crew-12. Pour l’industrie, l’enjeu dépasse « l’exploit » : l’orbite basse devient un marché pour la bioproduction, les matériaux et les démonstrateurs, dans une logique de continuité d’accès post-ISS décrite par l’ESA.

Après le lancement, place au rendez-vous et à l’amarrage à l’ISS, puis au démarrage des opérations scientifiques suivies côté France via le communiqué du CNES.

Sur le moyen terme, la mission doit produire des retombées industrielles (santé, capteurs, procédés), cadrées dans le suivi de mission. En toile de fond, l’« après-ISS » se verrouille : la NASA a déjà confié à SpaceX le véhicule de désorbitation, avec un horizon autour de 2030.

Pour l’après 2027, l’Europe prépare une présence commerciale en orbite basse et une nouvelle chaîne de valeur, dans le cadre présenté par l’ESA.

Côté privé, la concurrence s’accélère : Vast vise une station Haven-1 « prête à lancer » début 2027, un repère scruté par les industriels.

EPR : une année pour convaincre

Après les 100 % de puissance atteints mi-décembre 2025, l’EPR de Flamanville entre en 2026 dans une phase où il doit prouver sa fiabilité industrielle et sa tenue au réseau. L’enjeu, rappelé par Le Monde de l’Énergie, n’est plus la construction mais la capacité à enchaîner essais, production et maintenance « comme une tranche du parc ».

Dans les premiers mois de 2026, EDF doit consolider l’exploitation à pleine charge via des campagnes d’essais (transitoires, réglages, disponibilité) avant la bascule vers une exploitation plus régulière.
Le calendrier est déjà verrouillé : la première visite complète débutera le 26 septembre 2026. Cet arrêt, annoncé pour 350 jours, concentrera contrôles lourds, épreuves réglementaires et fiabilisations clés. Entre-temps, les sujets de sûreté resteront scrutés via les avis d’incidents publiés par l’ASNR.
La séquence 2026 sera aussi un test « climat » : la performance à pleine puissance dépend notamment des conditions de refroidissement, un point déjà bien connu. Enfin, le retour d’expérience Flamanville pèsera sur la crédibilité de la relance, au moment où EDF prépare les décisions et chiffrages des futurs réacteurs, dans un contexte de coûts et d’arbitrages industriels suivis de près.

PMI manufacturier France : l’indicateur clé de février 2026 à surveiller pour anticiper la production industrielle

Après un indice PMI à 51,2 en janvier, son plus haut niveau depuis juin 2022, le secteur manufacturier français aborde février avec un optimisme prudent. Publié mensuellement par S&P Global, cet Indice des Directeurs d’Achat interroge 400 responsables industriels sur cinq composantes majeures : nouvelles commandes, production, emploi, délais de livraison et stocks. Au-dessus du seuil critique de 50 points, le PMI signale une expansion ; en-dessous, une contraction. Janvier a marqué une accélération spectaculaire de la production manufacturière, avec la croissance la plus rapide depuis février 2022, portée par la constitution de stocks et l’amélioration des carnets de commandes. Toutefois, sans rebond des nouvelles commandes, notamment à l’export où la demande allemande reste atone, cette reprise demeure fragile. Pour les secteurs énergo-intensifs comme l’acier, le ciment ou la chimie, ce PMI de février – attendu début mars – sera décisif : il révélera si la dynamique de début 2026 se confirme ou si les tensions géopolitiques et la faiblesse de la demande intérieure freinent l’élan industriel français.

Traînées de condensation, la solution climatique la plus rapide pour l’aviation ?

Longtemps reléguées au second plan du débat climatique, les traînées de condensation, ces lignes blanches laissées par les avions à haute altitude, s’imposent aujourd’hui comme un enjeu central de la transition aérienne. Selon un rapport publié par l’ONG Transport & Environment (T&E), leur contribution au réchauffement climatique est du même ordre de grandeur que celle des émissions de CO₂ de l’aviation. Un constat qui bouleverse les priorités, alors même que des solutions opérationnelles existent déjà.

Les traînées de condensation se forment lorsque la vapeur d’eau émise par les moteurs d’avion se condense autour de particules fines dans des zones de l’atmosphère très froides et saturées en humidité. La majorité disparaissent en quelques minutes, mais certaines deviennent persistantes et s’étalent puis évoluent en nuages artificiels capables de retenir le rayonnement infrarouge terrestre. Leur effet sur le réchauffement est plus fort la nuit, car en l’absence de soleil, ces traînées ne peuvent plus réfléchir le rayonnement solaire vers l’espace et ne font alors que piéger la chaleur émise par la Terre.

Le phénomène est extrêmement concentré. Moins de 3 % des vols seraient responsables d’environ 80 % du réchauffement lié aux traînées à l’échelle mondiale. Cette asymétrie ouvre la voie à une stratégie ciblée qui consiste à éviter ces traînées de condensation. Pour cela, il suffit d’ajuster légèrement la trajectoire des avions, le plus souvent par une montée ou une descente de quelques centaines de mètres, afin d’éviter les couches atmosphériques favorables à la formation de traînées persistantes. D’après T&E, ces modifications peuvent réduire fortement l’impact climatique d’un vol, avec un surcoût en carburant faible et maîtrisé.

L’Europe concentre une part importante, car elle ne représente qu’environ 25 % du trafic aérien mondial, mais est à l’origine de près de 45 % du réchauffement dû aux traînées. En cause : une combinaison de conditions météorologiques propices alliées à une forte densité de trafic. Les vols long-courriers jouent aussi un rôle clé, car bien qu’ils représentent moins de 10 % des départs, ils génèrent environ 40 % du réchauffement lié aux traînées, du fait des distances parcourues.

La nuit et les saisons froides : des périodes clés pour agir efficacement

Le facteur temporel est tout aussi déterminant. Les données analysées par T&E montrent que les vols opérés la nuit, ainsi qu’en automne et en hiver, ont un impact climatique bien supérieur à la moyenne. Entre octobre et mars, 45 % du trafic européen est responsable de 75 % du réchauffement dû aux traînées. La nuit, alors que le trafic est plus faible, l’impact par kilomètre parcouru peut être deux fois supérieur à la moyenne annuelle. Ces périodes, moins congestionnées, constituent donc une cible prioritaire pour déployer l’évitement à grande échelle.

Sa mise en œuvre repose largement sur la gestion du trafic aérien. Aujourd’hui, les trajectoires sont en effet principalement optimisées selon des critères économiques (coûts et carburant) et non climatiques. T&E appelle donc à une évolution structurelle du cadre européen, notamment par l’introduction d’indicateurs de performance climatique intégrant les effets non liés au CO₂ dans le ciel européen. D’après l’ONG, sans cette évolution réglementaire, l’évitement des traînées risque d’être marginal.

Deux niveaux d’action sont identifiés, avec une priorité donnée à la planification en amont. Lors de la préparation des vols, les compagnies peuvent ajuster la trajectoire des avions à partir de prévisions météorologiques dans le but d’identifier les zones à risque. En revanche, l’évitement en vol reste limité, notamment en raison de la congestion de l’espace aérien, et ne peut être envisagé que ponctuellement.

Pour passer à l’échelle industrielle, T&E plaide pour des essais opérationnels de grande ampleur en Europe, financés par l’Union européenne et accompagnés de mécanismes d’incitation financière, notamment via le marché carbone. Objectif : compenser les coûts supportés par les compagnies et intégrer progressivement la gestion des traînées dans les pratiques courantes du contrôle aérien. Sans se substituer à la réduction indispensable des émissions de CO₂, l’évitement des traînées de condensation pourrait devenir, selon l’ONG, « le levier climatique le plus efficace de l’aviation d’ici 2050 ».

Revue du Magazine d’Actualité #63 du 9 au 13 février

Entre innovations de rupture, enjeux énergétiques et défis numériques, les signaux convergent vers une accélération des mutations en cours.


 ⚡ ÉNERGIE & ENVIRONNEMENT

Électricité : le solaire et l’éolien dépassent les énergies fossiles en Europe en 2025

Pour la première fois, les prévisions indiquent que le solaire et l’éolien devraient dépasser les énergies fossiles dans la production électrique européenne en 2025. Cette bascule marque une étape structurante pour la souveraineté énergétique et pour les objectifs climatiques du continent. Elle s’appuie sur plusieurs années de croissance soutenue des capacités renouvelables.
🔌Voir comment le solaire et l’éolien changent la donne

En Californie, l’essor des véhicules électriques fait reculer la pollution de l’air

Une étude menée en Californie montre que la hausse des ventes de véhicules électriques contribue déjà à une diminution mesurable de la pollution atmosphérique. L’article détaille les indicateurs suivis ainsi que les tendances observées dans les zones urbaines. Ce résultat renforce l’idée que l’électrification rapide du parc peut avoir des effets très concrets à court terme.
🚗 Comprendre l’impact réel des VE sur l’air californien

ELIPSE : un procédé plasma pour transformer les liquides organiques en eau et piéger les espèces polluantes

Le procédé ELIPSE repose sur l’usage de plasmas froids pour convertir des liquides organiques pollués en eau tout en piégeant les molécules nocives. Cette technologie se distingue par son efficacité, sa rapidité et sa faible empreinte environnementale. Elle pourrait s’imposer dans le traitement des effluents industriels complexes.
💦 Plasma et pollution : zoom sur ELIPSE


🏭 INDUSTRIE & MATÉRIAUX

Le plastique européen cherche une voie de survie

L’industrie plastique européenne fait face à une concurrence internationale accrue, des coûts énergétiques en hausse et une pression réglementaire renforcée. Entre restructuration, innovations dans le recyclage et relocalisation possible de certaines productions, la filière est à un tournant stratégique. Les industriels appellent à un cadre plus compétitif.
🧩 les défis du plastique en Europe

Damien Féron : « La corrosion est un phénomène naturel que l’on ne peut pas supprimer, mais dont on peut maîtriser la cinétique »

L’entretien revient sur les avancées scientifiques pour mieux comprendre et ralentir les mécanismes de corrosion. Les enjeux concernent des secteurs critiques comme le nucléaire ou l’aéronautique. L’article rappelle que la gestion de la corrosion reste autant une question de matériaux que de conditions d’usage.
🔧 Comprendre les phénomènes de corrosion

Souveraineté des entreprises françaises en 2025 : une amélioration surtout conjoncturelle

Les entreprises françaises gagnent en souveraineté grâce à une réduction de certaines dépendances stratégiques, mais ces progrès restent fragiles. L’analyse souligne que les facteurs favorables sont davantage conjoncturels que structurels. Le renforcement durable nécessitera investissements, innovation et montée en compétences.
🇫🇷 Point d’étape sur la souveraineté industrielle


🧠 TECHNOLOGIES & FUTUR

Olivier Ezratty : « Dans le quantique, l’Europe dispose d’acteurs solides, mais manque de financements »

L’expert Olivier Ezratty dresse un état des lieux du secteur quantique européen. Malgré des compétences scientifiques reconnues et des acteurs solides, l’écosystème souffre d’un déficit d’investissements par rapport aux États-Unis et à la Chine. L’entretien souligne les enjeux industriels, stratégiques et de souveraineté liés au quantique.
💠 Analyse complète du défi quantique européen

El-Ghazali Talbi : « Intelligence artificielle : le mur énergétique »

El-Ghazali Talbi met en avant l’un des grands défis de l’IA moderne : sa consommation énergétique exponentielle. L’article explore les limites des architectures actuelles, les besoins liés à l’entraînement des grands modèles et les pistes pour réduire l’empreinte carbone de ces systèmes. Le propos ouvre un débat essentiel pour l’avenir du numérique.
🔋 Un éclairage sur le défi énergétique de l’IA


🕶 Bon week-end et bonne lecture

Éthylène-chlore, un couple pour le plastique… et sa décarbonation

Un des plans de transition sectoriels (PTS) de l’Ademe couple exceptionnellement deux filières industrielles : celles du chlore et de l’éthylène. Et pour cause, si les deux ont des procédés de production complètement différents, leurs produits se retrouvent et se complètent pour la fabrication de plastiques (voir schéma ci-dessous). Décarboner ces filières repose sur des choix technologiques mais surtout sur la façon dont le marché va évoluer d’ici 2050, sous l’influence d’une forte concurrence internationale, du développement du recyclage et des réglementations sur l’économie circulaire.

Relations entre chlore et éthylène
Schéma simplifié des relations entre chlore et éthylène (Source Ademe). CVM = chlorure de vinyle monomère ; PE = polyéthylène haute et basse densité ; PP = polypropylène ; PS = polystyrène ; PVC = polychlorure de vinyle ; PET = polyéthylène téréphtalate ; PUR = polyuréthane.

Plus de 4,5 Mt de polymères sont produits en France (référence 2019) par une douzaine d’industriels. Cinq d’entre eux réalisent le vapocraquage du naphta et du GPL issus du raffinage du pétrole, pour fabriquer des produits plus légers dont les oléfines (éthylène, propylène, butadiène, etc. et de polymères). Les autres assurent la production de chlore et de PVC, dont deux d’entre eux avec plus de 80 % des capacités, à partir d’électrolyse de la saumure.

La production de chlore s’élève à 1 Mt/an à laquelle s’ajoutent 900 000 tonnes de CVM. Elle est électro-intensive, avec 4 TWh d’électricité consommée par an, et est responsable de l’émission de 1 Mt CO2eq/an. La production d’oléfines est en moyenne de 5,8 Mt de HVC par an, alimentée chaque année par 26 TWh d’intrants fossiles (dont 4,5 Mt de naphta). Elle est beaucoup plus émettrice de gaz à effet de serre, avec 5,3 MtCO2eq/an.

Mondialisation ou protectionnisme ?

Comme dans les autres PTS, et selon la méthode qu’elle a élaborée, l’Ademe a construit plusieurs scénarios de décarbonation pour voir s’ils atteignent a minima l’objectif de baisse des émissions de gaz à effet de serre de – 81 % pour l’industrie de la précédente Stratégie nationale bas-carbone (SNBC). Dans tous les cas, la tendance est à la baisse de consommation de plastiques, mais celle-ci diffère selon les scénarios et les types de polymères (voir tableau en fin d’article).

Le premier scénario, « Pétrochimie et mondialisation », décrit une poursuite de la tendance actuelle vers une concurrence très forte des pays hors Europe. La France voit ses exportations chuter et ses importations augmenter, d’où une baisse importante de la production d’éthylène et de chlore. Sobriété et économie circulaire ont une faible place mais la consommation des plastiques diminue, surtout le polyéthylène (- 62 % entre 2015 et 2050) concerné par la limitation des plastiques à usages unique (PUU) dans l’Hexagone.

Des mesures d’efficacité énergétique et de changement du mix énergétique (recompression mécanique de vapeur – RMV, chaudières électrique et biomasse, hydrogène) permettent de faire baisser les émissions de GES de la filière chlore. Pour l’éthylène, le vapocraquage incorpore un peu (7 %) d’huile de pyrolyse issue de la pyrolyse des plastiques (recyclage chimique) mais c’est surtout le captage et stockage de carbone (CSC) qui est privilégié pour réduire les émissions.

Le deuxième scénario, intitulé « Électricité et protectionnisme européen », arrive à contenir la baisse de la production grâce à un contrôle des importations extra-européennes. La majeure partie des exportations se fait en Europe. La décarbonation de la filière chlore passe par l’électrification totale des fours de pyrolyse, le recours à des chaudières électrique et à la biomasse, des gains sur la consommation de vapeur. La technologie de rupture de cathode dépolarisée à oxygène (CDO), qui peut réduire la consommation d’électricité de 30 %, est largement déployée. Dans le secteur de l’éthylène, l’efficacité énergétique et le recours à la technologie Methanol-to-Olefins (MTO, à base de méthanol issu d’H2 électrolytique et de CO2 biosourcé, ou issu de gazéification ou de reformage de biomasse) assurent moins de 20 % de la décarbonation en 2050. L’électrification est prépondérante pour atteindre l’objectif de la SNBC, au niveau des machines tournantes et surtout des fours de vapocraquage.

Enjeu de l’économie circulaire

Le dernier scénario, « Biosourcé et spécialisation locale », fait le choix de politiques ambitieuses en France, en Europe et dans le monde pour réduire l’usage des plastiques. Il en découle de plus forts systèmes de collecte, tri et recyclage, une meilleure incorporation de matières recyclées dans les produits et une limitation forte des PUU en Europe, couplée à l’application d’un traité international fort sur la pollution plastique. Sobriété et réemploi concourent aussi à la baisse de la demande. Les échanges imports-exports diminuent et les filières chlore-éthylène perdent environ un tiers de leur capacité de fabrication. La baisse de production engendre une bonne partie de la réduction des émissions de GES : 57 % pour le chlore et 40 % pour l’éthylène. Le reste est dû à l’efficacité énergétique, à l’électrification, à l’usage d’hydrogène, à l’amélioration des fours et électrolyseurs, au changement de mix énergétique et au développement du procédé Bioethanol-to-Olefins (BTO, avec du bioéthanol produit à partir de biomasse).

Tous les scénarios atteignent l’objectif de la SNBC, mais avec des coûts très différents. Le premier est le moins coûteux mais entraîne une dégradation de la balance commerciale. Le dernier est le plus coûteux mais déploie une vraie filière de recyclage. L’Ademe souligne donc trois enjeux majeurs. L’accélération de l’économie circulaire, avec recyclage des plastiques et intégration des matières premières recyclées tout le long de la chaîne de valeur, est nécessaire car elle peut diminuer les impacts environnementaux, avoir un intérêt commercial et améliorer la souveraineté du pays.

Deuxièmement, le positionnement dans le marché mondial doit se faire en prenant en compte le mécanisme d’ajustement carbone aux frontières, tout en incitant les industriels français à se positionner sur des produits à forte valeur ajoutée (comme les plastiques biosourcés) dont certains pourraient être favorisés dans la commande publique grâce à des critères de contenu carbone. Enfin, en plus d’un soutien à l’innovation (CDO, MTO, BTO) et aux projets de décarbonation, les pouvoirs publics doivent anticiper les besoins d’infrastructures liées aux solutions déployées (transport et stockage CO2, filières hydrogène et biomasse, électricité décarbonée à prix compétitif).

Quel que soit l’avenir, toutes les entreprises de la filière en amont (chlore / éthylène) et en aval (plasturgie – soit plus de 3 000 établissements français) vont devoir repenser leur modèle et prévoir des adaptations voire des reconversions pour un plastique sans carbone.

Scénarios du PTS chlore-éthylène en 2050
CVM = chlorure de vinyle monomère ; HVC = High Value Chemical (oléfines à fortes valeur ajoutée) ; PE = polyéthylène haute et basse densité ; PP = polypropylène ; PS = polystyrène ; PVC = polychlorure de vinyle (Source : Ademe)

La vis d’Archimède : une technologie antique au service de l’hydroélectricité moderne

La vis d’Archimède, nommée d’après le mathématicien grec Archimède de Syracuse, est l’une des premières machines hydrauliques connues. Elle se compose principalement d’une ou plusieurs pales hélicoïdales enroulées autour d’un arbre central. L’ensemble est installé dans une auge cylindrique. Un jeu contrôlé entre l’auge et les pales facilite la rotation de ces dernières. Depuis l’Égypte et la Grèce antiques, cette machine était utilisée pour pomper de grandes quantités d’eaux sur de faibles hauteurs. Mais en 1992, l’ingénieur allemand Karl‑August Radlik proposa l’inversion de son fonctionnement, la transformant en turbine capable d’exploiter des sites à faible chute d’eau pour produire de l’hydroélectricité.

Turbine à vis d’Archimède du « Monmouth New Hydro Scheme »
Turbine à vis d’Archimède du « Monmouth New Hydro Scheme », Monmouth, Royaume-Uni (source : Ray Jones, Wikimedia Commons, licence CC BY-SA 2.0)

Principe de fonctionnement de la turbine à vis d’Archimède (AST)

Le fonctionnement de l’AST repose sur la différence de pression exercée par l’eau sur ses pales. L’eau s’écoule depuis le canal amont vers l’entrée de la vis, circule le long des pales, puis ressort à leur extrémité inférieure. Elle est ainsi emprisonnée entre deux pales consécutives et descend progressivement de l’amont vers l’aval. La pression hydrostatique exercée par cette masse d’eau se traduit par un mouvement mécanique de rotation de la vis, générant un couple. Lorsque la vis est couplée à une génératrice, ce mouvement de rotation est converti en énergie électrique.

En raison de ce mode de fonctionnement, la vis d’Archimède ne peut être classée ni parmi les turbines à impulsion, telles que les turbines Pelton ou Turgo, ni parmi les turbines à réaction, comme les turbines Francis ou Kaplan. Elle relève d’une troisième catégorie, celle des turbines à pression quasi statique, à laquelle appartient également la roue hydraulique.

Les AST : atouts techniques, économiques et environnementaux

D’un point de vue technique, le rendement de la vis d’Archimède peut atteindre 80 %, voire plus dans certaines conditions de fonctionnement. Surtout, ce niveau de rendement peut être maintenu pour une large plage de débits (10 m3/s) associés à de faibles hauteurs de chute (10 m). Cette efficacité prouvée dans des conditions hydrauliques modestes élargit considérablement le nombre de sites potentiellement exploitables pour l’implantation de microcentrales hydroélectriques.

Par ailleurs, la vis d’Archimède peut présenter des avantages économiques notables, dépendant toutefois des caractéristiques du site. À titre d’exemple, une étude de cas au Yorkshire (Royaume-Uni) met en évidence un coût d’installation environ 10 % inférieur à celui d’une turbine Kaplan, pour une production énergétique estimée supérieure de 15 %. Il en résulte un coût du capital par MWh annuel réduit d’environ 22 %. Les coûts d’exploitation et de maintenance sont également réduits grâce à une conception simple, une faible vitesse de rotation et peu de pièces sujettes à l’usure. Ces caractéristiques font de l’AST une solution particulièrement adaptée aux régions isolées ou aux petites communautés non raccordées aux réseaux électriques.

En outre, de nombreuses études ont souligné les bénéfices environnementaux des AST, notamment en matière d’impacts réduits sur la faune aquatique, par rapport aux turbines conventionnelles. Leur faible vitesse de rotation et les espacements importants entre leurs pales permettent un passage sûr des poissons, avec des taux de survie comparables à ceux observés en pisciculture, pouvant atteindre 99 %. De plus, leur capacité à laisser transiter sédiments et débris autorise l’utilisation de grilles de protection plus grossières et moins coûteuses en amont de l’installation, contribuant à une réduction des pertes de charge hydrauliques.

Les AST : limites et défis

À ce jour, il n’existe ni théorie entièrement aboutie ni normes générales établies pour la conception hydraulique optimale des turbines à vis d’Archimède, qui demeure largement dépendante de l’expérience du concepteur. Les méthodes proposées par Rorres (2000) puis par Nuernbergk et Rorres (2013) constituent les principales approches disponibles, bien qu’elles restent relativement complexes à interpréter et à appliquer. Par ailleurs, la diversité des paramètres géométriques (longueur, diamètre, pas, angle d’inclinaison, nombre de pales, etc.) rend délicate la comparaison directe des performances entre différentes conceptions et complique les études comparatives scientifiques.

D’autre part, pour des débits ou des charges hydrauliques très élevés, certaines limites techniques peuvent apparaître. En particulier, l’augmentation de la longueur ou du diamètre interne de la vis rend la structure plus lourde, ce qui peut conduire à des problèmes de flexion de l’arbre ou de sollicitation excessive des roulements, devenant alors des points de dimensionnement critiques. De plus, la faible vitesse de rotation impose l’utilisation d’un multiplicateur de vitesse dont les pertes, ajoutées à celles du générateur électrique, sont susceptibles de réduire le rendement global de la centrale.

Par-dessus tout, l’un des principaux points faibles des turbines à vis d’Archimède réside dans le fait qu’il s’agit d’une technologie plus récente que les turbines hydroélectriques classiques, et présentant encore, à ce stade, un rendement global inférieur à celui de ces dernières. Dans ce contexte-là, le développement et la mise à disposition de documentations détaillées et normalisées sur leurs performances paraissent indispensables afin de consolider leur crédibilité technique.

Comment les chercheurs tentent-ils d’améliorer l’adaptabilité des AST ?

Ces dernières années, la recherche et le développement autour des AST ont acquis une attention grandissante, tant en matière de conception et de procédés de fabrication que de diversification des applications et d’inventions.

En juillet 2019, des études menées au laboratoire des recherches hydrauliques de l’Utah State University ont permis de développer une vis hydrodynamique de nouvelle génération, fabriquée en matériaux composites via des méthodes de production avancées. La technique du Light Resin Transfer Molding a abouti à des pales plus légères de 25 à 30 %, protégées contre la corrosion et les frottements, remplaçables individuellement et fabriquées avec des moules réutilisables plus de mille fois. Cela entraîne une diminution du coût de fabrication et de la quantité de déchets qui en résulte, ainsi que le coût de transport et les contraintes logistiques.

Par ailleurs, des développements plus conceptuels portent sur des configurations innovantes : un dispositif breveté décrit trois pontons supportant des conduits d’eau dans lesquels sont montées deux vis d’Archimède flottantes en position de « V » et à pas symétriques afin de limiter les vibrations. Des déflecteurs arrière à pas réglable servent à contrôler la vitesse de l’écoulement. L’optimisation du fonctionnement repose soit sur des simulations de dynamique des fluides couplées à des actionneurs hydrauliques ou électromécaniques, soit sur un réseau de neurones artificiels modélisant la dynamique globale du système.

Enfin, les vis d’Archimède trouvent aujourd’hui des applications dans des contextes hydrauliques peu conventionnels, comme la valorisation énergétique des flux d’eaux usées issus des stations d’épuration, généralement très énergivores. C’est le cas de la station Yorkshire Water’s Esholt dans laquelle ont été installées deux vis en série entre l’entrée des eaux usées et le bassin de décantation primaire, exploitant un débit moyen de 3,24 m3/s et une charge hydraulique totale de 10 m, et permettant une production électrique allant jusqu’à 180 kW destinés à l’alimentation du processus de traitement lui-même.

Héritée de l’Antiquité mais résolument tournée vers les enjeux énergétiques contemporains, la vis d’Archimède incarne un pont entre ancienneté et innovation. Sa robustesse, sa capacité à valoriser des sites jusqu’ici inexploités et son caractère ichtyophile expliquent l’intérêt croissant qu’elle suscite au sein de la communauté scientifique. À l’avenir, l’optimisation rigoureuse de ses paramètres géométriques et hydrauliques constituera un levier déterminant pour maximiser son rendement et renforcer son rôle dans le mix énergétique durable.

Par Simon SEMAAN

El-Ghazali Talbi : « Intelligence artificielle : le mur énergétique »

Éclairage avec El-Ghazali Talbi, chercheur dans l’équipe BONUS au Centre Inria de l’Université de Lille.

El-Ghazali Talbi, chercheur dans l’équipe BONUS au Centre Inria de l’Université de Lille
© Inria / Photo Antoine Cappelle

Le Professeur El-Ghazali Talbi est Professeur des Universités à Polytech’Lille (Université de Lille) et membre de l’équipe de recherche BONUS (CRISTAL-CNRS, INRIA, Université de Lille). Ses recherches couvrent des domaines variés, tels que l’optimisation, l’intelligence artificielle, le calcul haute performance, l’apprentissage automatique, ainsi que le calcul neuromorphique.

Auteur de plus de 300 publications dans des revues scientifiques, chapitres d’ouvrages et conférences internationales, il est également coéditeur de dix ouvrages. Il a dirigé l’équipe de recherche OPAC ainsi que l’équipe-projet INRIA Dolphin, et a participé à de nombreux projets nationaux, européens et internationaux, renforçant sa contribution à la recherche collaborative et à l’innovation scientifique.

Techniques de l’Ingénieur : En quoi l’architecture du cerveau humain a-t-elle influencé concrètement le développement de l’informatique neuromorphique ?

El-Ghazali Talbi : Le calcul neuromorphique s’inspire directement du fonctionnement du cerveau humain. Aujourd’hui, la plupart des modèles algorithmiques reposent sur les réseaux de neurones artificiels classiques, qui s’exécutent sur des architectures informatiques de type von Neumann, celles des ordinateurs que nous utilisons au quotidien.

À l’inverse, les réseaux de neurones impulsionnels (Spiking Neural Networks SNN) fonctionnent selon un principe différent : ils communiquent uniquement par des impulsions électriques, à l’image des neurones biologiques. Chaque neurone ne s’active que lorsqu’il reçoit un signal, et l’information circule sous forme d’impulsions entre neurones.

Ce mode de fonctionnement permet de réduire considérablement la consommation énergétique, ce qui constitue l’un des principaux atouts de l’informatique neuromorphique.

Cette réduction est de quel ordre ?

Le cerveau humain consomme environ 20 watts, alors qu’un seul GPU peut atteindre près de 700 watts aujourd’hui. L’écart est considérable. C’est d’ailleurs l’une des raisons qui nous ont poussés à nous intéresser à ce domaine. Les réseaux de neurones actuels sont très énergivores. Nous faisons face à une double impasse : économique et énergétique. Si rien ne change, nous allons droit dans le mur.

Quels sont les autres avantages du calcul neuromorphique ?

En plus de la consommation énergétique, un premier avantage majeur concerne la latence. Dans les architectures neuromorphiques, le traitement de l’information repose sur des événements et non sur des calculs synchrones continus. La latence peut ainsi être réduite de plusieurs ordres de grandeur : elle se situe typiquement dans la gamme de la microseconde à la milliseconde, contre plusieurs millisecondes à des dizaines de millisecondes pour les architectures classiques basées sur GPU.

Un second avantage réside dans l’empreinte matérielle. À titre d’exemple, l’un des processeurs neuromorphiques les plus avancés a été développé par Intel sous le nom de Loihi2. Il occupe environ 31 mm², consomme de l’ordre de 1 W, et intègre 128 cœurs neuromorphiques, supportant jusqu’à 1 million de neurones artificiels et 120 millions de synapses. Ceci permet une empreinte matérielle très faible tout en maintenant une grande efficacité énergétique, idéale pour l’Edge Computing, les systèmes embarqués et l’Internet des objets (IoT), où les contraintes de latence, de consommation énergétique et de compacité matérielle sont critiques.

Le développement d’algorithmes neuromorphiques combinant une faible consommation énergétique (de l’ordre du milliwatt à quelques watts), une latence très faible et une empreinte matérielle réduite, pourrait profondément transformer l’architecture des systèmes informatiques et ouvrir la voie à de nouvelles applications.

Quels sont les défis majeurs pour transposer cette inspiration en solutions technologiques ?

Il s’agit d’un nouveau paradigme de programmation. Il faut repenser la manière d’écrire les algorithmes, de concevoir les logiciels et de développer le matériel associé. Le calcul neuromorphique est également un domaine résolument multidisciplinaire. Aujourd’hui, ce sont principalement des physiciens et des électroniciens qui travaillent au développement du hardware, mais sa mise en œuvre nécessite aussi la collaboration d’informaticiens et de spécialistes en intelligence artificielle.

Quels secteurs pourraient bénéficier, en priorité, de l’informatique embarquée neuromorphique ?

Aujourd’hui, le calcul neuromorphique profite principalement aux applications cognitives, comme les neurosciences et le machine learning. On commence à s’intéresser aux applications non cognitives, comme l’optimisation, traitement de signal et résolution d’équations différentielles.

Notre objectif est de développer des algorithmes d’optimisation neuromorphique à grande échelle. Le logiciel NeurOptimiser a été développé pour généraliser ces approches et faciliter leur utilisation sur divers problèmes d’optimisation. Tous les secteurs où l’optimisation joue un rôle clé peuvent en tirer parti : robotique, drones, santé, aérospatial, défense, environnement, et l’IA embarquée, entre autres.

Quelles sont vos prochaines étapes ?

Notre démarche repose sur une feuille de route structurée en trois étapes majeures, chacune visant à franchir un palier scientifique et technologique.

La première étape a consisté à concevoir des algorithmes d’optimisation neuromorphique. L’objectif principal à ce stade est de développer des méthodes capables de rivaliser en performance avec les algorithmes classiques, tout en tirant parti des spécificités des architectures neuromorphiques. Cette étape a été cruciale pour établir des bases solides et évaluer le potentiel réel de nos approches.

La deuxième étape vise à passer à l’échelle en s’inspirant de l’organisation fractale du cerveau. Cette étape est essentielle pour démontrer la scalabilité et l’efficacité réelle de nos algorithmes dans des environnements complexes et à très grande échelle.

La troisième et dernière étape sera le déploiement effectif de nos algorithmes sur des architectures neuromorphiques. Ce sera un moment clé, car il permettra de valider nos méthodes dans des conditions réelles, hors simulation. Parmi les plateformes les plus reconnues figurent le processeur Loihi2, SpiNNaker, et BrainScale. À long terme, d’ici 2030, les architectures neuromorphiques devraient atteindre 100 milliards de neurones, contre 1 milliard aujourd’hui. Notre projet est donc positionné pour préparer et exploiter cette transition vers des systèmes massivement neuronaux, ouvrant la voie à des applications en optimisation à une échelle inédite.

En Californie, l’essor des véhicules électriques fait reculer la pollution de l’air

La voiture électrique commence déjà à transformer l’air que l’on respire. Longtemps présentée avant tout comme un levier de réduction des émissions de gaz à effet de serre, la transition vers les véhicules zéro émission produit désormais des effets mesurables sur la pollution atmosphérique. Une étude publiée dans The Lancet Planetary Health établit pour la première fois, à grande échelle et à partir de données réelles, un lien direct entre la montée en puissance des véhicules électriques et la baisse du dioxyde d’azote (NO₂) en Californie.

Entre 2019 et 2023, le nombre de véhicules légers zéro émission, regroupant les électriques à batterie, les hybrides rechargeables et ceux fonctionnant à l’hydrogène, a fortement augmenté dans l’État le plus peuplé des États-Unis. Sur la même période, les concentrations moyennes annuelles de NO₂, un polluant principalement issu de la combustion des carburants fossiles et étroitement lié au trafic routier, ont reculé. Les chercheurs montrent qu’une hausse de 200 véhicules zéro émission dans un même territoire local, correspondant à un quartier ou à un ensemble de quartiers, est associée à une diminution moyenne de 1,1 % du NO₂ atmosphérique. Un chiffre qui peut paraître faible, mais statistiquement significatif.

Pour parvenir à ce résultat, les chercheurs ont observé, sur plusieurs années, la transformation du parc automobile californien et ses effets concrets sur la qualité de l’air. Les données d’immatriculation de véhicules ont été croisées avec des mesures du NO₂ fournies par le capteur spatial TROPOMI embarqué sur le satellite européen Sentinel 5P, capable de cartographier quotidiennement la pollution de l’air à haute résolution. Cette approche permet de dépasser les limites des réseaux de capteurs au sol, souvent concentrés dans les centres urbains et peu représentatifs de l’ensemble des quartiers résidentiels.

L’analyse porte sur près de 1 700 territoires locaux, couvrant plus de 99 % de la population californienne. Elle tient compte de nombreux facteurs susceptibles d’influencer la pollution, comme l’évolution démographique, le niveau socio-économique, la généralisation partielle du télétravail ou encore les variations du prix des carburants. Même après ces ajustements, le lien entre les véhicules zéro émission et la baisse du NO₂ demeure robuste, y compris lorsque les chercheurs excluent l’année 2020, marquée par les confinements liés à la pandémie de Covid-19.

Croiser les sources pour renforcer la solidité des résultats

Les auteurs ont également mené deux analyses complémentaires pour consolider leurs conclusions. D’une part, ils montrent que l’augmentation du nombre de véhicules à moteur thermique est, sans surprise, associée à une hausse mesurable du NO₂ dans les zones les plus motorisées. D’autre part, les résultats observés par satellite sont confortés par une analyse reposant sur des stations de mesure au sol de l’Agence américaine de protection de l’environnement (EPA pour Environmental Protection Agency), disponibles sur une période plus longue, de 2012 à 2023, même si ces données couvrent un territoire plus limité.

Ces constats sont loin d’être anodins. Le NO₂ est reconnu pour ses effets délétères sur la santé respiratoire et cardiovasculaire, en particulier chez les enfants, les personnes âgées et les populations vivant à proximité des grands axes routiers. Jusqu’à présent, les bénéfices sanitaires de l’électrification des transports reposaient essentiellement sur des modèles prospectifs. Cette étude montre qu’ils se matérialisent déjà, bien avant l’abandon total des moteurs thermiques.

La Californie, pionnière en matière de politiques climatiques et de normes environnementales, fait figure de laboratoire grandeur nature. En 2023, les véhicules zéro émission représentaient un peu plus de 5 % du parc automobile léger de l’État, contre environ 2 % quatre ans plus tôt. Si cette proportion reste encore minoritaire, elle suffit néanmoins à produire un signal détectable dans l’air que l’on respire, à l’échelle des quartiers et des bassins de vie.

Les chercheurs soulignent enfin le potentiel international de leur méthode. Les données satellitaires utilisées sont disponibles à l’échelle mondiale, y compris dans des régions dépourvues de réseaux denses de surveillance de la qualité de l’air. À terme, elles pourraient servir à évaluer l’impact réel de nombreuses politiques de réduction des émissions, qu’il s’agisse de mobilité électrique, de transports collectifs propres ou de restrictions de circulation.

Damien Féron : « La corrosion est un phénomène naturel que l’on ne peut pas supprimer, mais dont on peut maîtriser la cinétique »

Pouvez-vous nous parler de votre parcours professionnel ?

J’ai travaillé pendant une quarantaine d’années au CEA (Commissariat à l’énergie atomique et aux énergies alternatives). J’ai commencé comme doctorant et terminé directeur de recherche. J’ai démarré au centre CEA de Cadarache, sur les réacteurs rapides refroidis au sodium. À l’époque, il s’agissait de la mise en service de Phénix et de la construction de Superphénix.

J’ai ensuite travaillé à La Hague, où le CEA disposait d’un laboratoire de corrosion, appelé Laboratoire d’essais technologiques de corrosion. Nous intervenions principalement sur les réacteurs à eau pressurisée, avec des travaux portant sur les circuits primaires, les générateurs de vapeur, les circuits secondaires et les condenseurs.

J’ai ensuite travaillé à Fontenay-aux-Roses, où a été implanté le Service de corrosion. Le Laboratoire d’études physico-chimiques des phénomènes de corrosion dont j’avais la responsabilité, était dédié aux aspects fondamentaux de la corrosion. Puis en 1999, l’ensemble du service corrosion a déménagé à Saclay. C’est là que je suis devenu directeur de recherche, et que mes activités m’ont amené à avoir une vue globale sur la corrosion dans l’industrie nucléaire.

Aujourd’hui retraité, je suis toujours en lien avec le CEA, comme conseiller scientifique. Je suis également professeur à l’INSTN, l’Institut national des sciences et techniques nucléaires, à l’Université Paris-Saclay.

Par ailleurs, j’ai eu plusieurs engagements au niveau international. J’ai d’abord présidé une commission sur la corrosion nucléaire, puis le comité scientifique et technique de l’EFC, la Fédération européenne de la corrosion, avant d’en devenir président. Plus récemment, j’ai présidé la WCO, la World Corrosion Organization[1].

Qu’est-ce qui vous a conduit à vous pencher sur les phénomènes de corrosion ? À quoi sont-ils dus ?

Mon intérêt pour les matériaux, mais aussi pour la chimie et l’industrie, m’a orienté dans mes études. J’ai fait l’école du génie chimique à Toulouse, qui dépendait de l’Institut polytechnique de Toulouse (INP). J’ai ensuite réalisé ma thèse au CEA. À l’époque, nous avions le choix entre quatre ou cinq sujets de thèse. J’ai choisi le nucléaire, car cela me paraissait être une énergie d’avenir, même si le sujet était déjà controversé.

Sur le fond, la corrosion est un mécanisme naturel. Les matériaux métalliques industriels ne sont pas stables thermodynamiquement mais évoluent vers leur état stable, un état oxydé. On peut limiter ce phénomène et réduire la vitesse de corrosion, mais on ne peut pas la supprimer. C’est une question de cinétique : on peut agir sur la vitesse, pas éviter la thermodynamique.

Quelles sont les conséquences – en termes de coût, de risque environnemental… – de la corrosion pour l’industrie ?

Ces dernières années, lorsque des réacteurs français ont été arrêtés, tout le monde s’est intéressé à la corrosion sous contrainte dans les réacteurs. On voit que les conséquences de ces arrêts peuvent être importantes, voire dramatiques, pour un pays.

Sur le plan environnemental, moins de corrosion implique moins de de matériaux métalliques à utiliser, donc moins de matières premières consommées. Moins de corrosion signifie aussi moins de fuites et moins de dégradations imprévues, ce qui contribue à diminuer les risques pour l’environnement.

La corrosion peut aussi conduire à des effondrements d’infrastructures. Des ponts – métalliques ou en béton armé – se sont effondrés en raison de phénomènes de corrosion, parce qu’ils n’étaient pas entretenus correctement. Dans le béton armé, des tirants métalliques sont présents au cœur de la structure : s’ils se corrodent, les propriétés mécaniques se dégradent, et l’ensemble peut s’effondrer. Plusieurs cas ont été observés, parfois avec des conséquences humaines tragiques.

La corrosion est donc prévisible, mais quelles sont les solutions de contournement, par exemple dans le secteur du nucléaire dont vous êtes expert ?

Des matériaux adaptés et des environnements appropriés sont choisis afin d’éviter que les phénomènes de corrosion soient rapides. Aujourd’hui, la durée de vie d’une centrale est de l’ordre de soixante ans. On réalise plutôt des calculs pour cent ans, et l’on cherche les matériaux et l’environnement permettant cette échéance. Pour les réacteurs, on agit sur la chimie primaire et secondaire afin que ces phénomènes ne se développent pas, ou qu’ils se développent de manière limitée, avec une vitesse de propagation contrôlée.

La corrosion se situe à l’interface entre un matériau métallique et un milieu. Dans l’industrie nucléaire, le milieu est en général aqueux. Souvent, un oxyde se développe à la surface de l’alliage et peut protéger le matériau, notamment pour les matériaux passifs. Il faut alors étudier l’évolution de cet oxyde. Cela ouvre des études intéressantes sur l’ensemble matériau, milieu et couche d’oxyde. Ce sont ces recherches qui conduisent à définir le couple matériau – milieu le mieux adapté pour la durée de vie de l’installation, en fonction des contraintes d’exploitation.

Pouvez-vous nous donner un exemple d’incident survenu dans une installation nucléaire et dû à la corrosion ?

Dans une centrale nucléaire, il faut évoquer les phénomènes de fissuration dus à la corrosion sous contrainte. Ce type de problème est survenu sur plusieurs centrales françaises en 2022. Des fissures ont été détectées dans le circuit de secours.

Dans la corrosion sous contrainte, trois facteurs principaux interviennent : un facteur mécanique, la chimie et le matériau. Le matériau utilisé dans les centrales concernées est un acier inoxydable. Ce phénomène n’est pas nouveau : en 1953, le prototype de sous-marin Nautilus était arrêté suite à un problème de corrosion sous contrainte sur ce même matériau, l’acier inoxydable 316. En 2022, le même problème sur le même matériau a conduit à l’arrêt d’un quart environ environ des centrales françaises… Une raison identifiée des fissurations observées en 2022 est l’existence de contraintes excessives. La corrosion sous contrainte est donc une bon exemple de corrosion qui a conduit à de nombreux incidents dans les réacteurs nucléaires.

Un autre phénomène de corrosion qui a conduit également à de nombreux incidents dans les centrales thermiques, pas uniquement nucléaires d’ailleurs, est la corrosion-érosion.  Ce phénomène est appelé en anglais « flow accelerated corrosion », soit corrosion accélérée par le débit, formulation plus explicite. Ce phénomène concerne le circuit secondaire, c’est-à-dire la partie où la vapeur est produite dans le générateur de vapeur, fait tourner les turbines, puis se condense dans le condensateur. C’est probablement le phénomène de corrosion qui a le plus souvent conduit à l’arrêt de centrales. Il est général : dès qu’il y a de l’eau sous forme liquide ou de vapeur humide avec des débits très importants, la corrosion s’accélère. On le traite par le choix des matériaux et une chimie maîtrisée.

Par ailleurs, j’entends souvent dire que les industries des énergies renouvelables ne sont pas confrontées aux phénomènes de corrosion. En réalité, des erreurs majeures ont été commises. La WCO a œuvré pour éviter ce type de dérives.

Toute utilisation de matériaux métalliques, y compris dans les énergies bas carbone, exige de la vigilance, car il existe des risques de corrosion. Je pense à un article de synthèse, mené par la Fédération européenne de la corrosion et la WCO, auquel une trentaine d’auteurs ont participé, et qui montre, dans tous les secteurs des énergies bas carbone, l’implication de la corrosion.

En quoi la lutte contre la corrosion permettrait-elle d’atteindre en partie les objectifs de développement durable ?

Je réponds ici en tant qu’ancien président de la WCO. Dans les pays développés comme les États-Unis, le Japon ou en Europe, on estime que la corrosion représente autour de 3 % du PIB. On estime aussi qu’environ 30 % des problèmes de corrosion, et jusqu’à 50 % dans certains pays, pourraient être évités en appliquant simplement les connaissances dont on dispose aujourd’hui. Cela signifie que certains alliages métalliques ne sont pas utilisés correctement et que l’application des connaissances permettrait d’éviter une part importante des problèmes rencontrés.

Il existe également des efforts sur les inhibiteurs de corrosion, souvent associés à une chimie lourde. Certains pays, comme l’Inde ou la Chine, travaillent sur des inhibiteurs organiques et naturels, par exemple des jus de tabac, qui peuvent parfois jouer ce rôle. De nombreux travaux sont menés pour développer des inhibiteurs naturels afin d’éviter une chimie complexe. À ma connaissance, il s’agit encore davantage d’une phase de transition, de tests et d’analyses que d’applications concrètes à grande échelle.

D’une manière générale, lutter contre la corrosion, c’est lutter pour préserver nos matériaux et les ressources naturelles.

Quels conseils donneriez-vous à un ingénieur, un technicien ou un scientifique qui arrive sur le marché du travail ?

J’ai toujours du mal à donner des conseils. Mais si l’on veut s’orienter professionnellement vers les matériaux métalliques et leurs interactions avec l’environnement, donc vers la corrosion, c’est un bon choix de carrière : il y a beaucoup à faire, à tous les niveaux, depuis l’application des connaissances sur le terrain ou en usine jusqu’aux travaux de recherche. Il reste énormément à découvrir.

Le développement de nouvelles technologies et de nouveaux matériaux entraîne aussi des besoins en R&D. Pour ceux qui s’intéressent à la corrosion, le domaine évolue rapidement, notamment grâce à la modélisation atomistique et moléculaire. Il y a d’énormes progrès à venir sur la compréhension des mécanismes et sur les moyens de lutte contre la corrosion. L’intelligence artificielle accélère cette évolution.

L’une des failles actuelles des jumeaux numériques est la prise en compte de la corrosion. On sait bien reproduire les aspects thermiques, hydrauliques, mécaniques, et analyser l’effet d’un changement de paramètre. En revanche, sur la corrosion, il existe encore des lacunes. C’est le cas par exemple des réacteurs nucléaires pour lesquels les jumeaux numériques intègrent toujours avec difficulté les phénomènes de corrosion (notamment de corrosion sous contrainte), alors que les phénomènes liés à la thermique, l’hydraulique ou la neutronique y sont bien pris en compte.

Enfin, les phénomènes de corrosion sont multiphysiques : matériau et milieu interagissent, ce qui impose d’être curieux et ouvert à plusieurs disciplines. On est à la croisée de plusieurs domaines scientifiques et techniques, c’est ce qui rend le sujet passionnant. On a besoin de chimistes, de métallurgistes, etc. Il faut aujourd’hui faire plus attention à son jardin qu’à creuser son sillon. On a besoin de chercheurs qui creusent leur sillon, qui étudient un mécanisme en profondeur, mais pour les applications, on a aussi besoin de personnes ayant un regard global, capables d’embrasser l’ensemble du jardin, sans s’enfermer dans un trou.

Avez-vous recours à une veille technologique ? Dans ce cadre, à quels domaines vous intéressez-vous et quelles sont vos sources principales d’information ?

La veille technologique est importante. Quand j’étais au service de corrosion du CEA, elle était réalisée par la bibliothèque de Saclay. Nous fournissions des mots-clés à des moteurs de recherche, et pour chaque mot-clé, nous recevions des articles ou un résumé de l’actualité sur une période d’un mois ou de trois mois, selon les sujets.

Comme de nombreux chercheurs du domaine, je consulte les revues « Corrosion Science », « Corrosion » et « Nuclear Materials ». Je peux aussi citer un magazine japonais consacré à la corrosion, dont les résumés disponibles en anglais sont très bons.

Que vous apporte la collaboration avec Techniques de l’Ingénieur, en tant que conseiller scientifique ?

L’essentiel du travail que j’ai commencé environ un an avant de partir à la retraite consiste à trouver des auteurs sur des sujets. Dans le passé, j’ai écrit quelques articles pour Techniques de l’Ingénieur.

Au CEA, les articles de Techniques de l’Ingénieur sont très utilisés. On conseille aux ingénieurs récemment recrutés de les consulter et d’en faire le tour. Pour les personnes qui arrivent dans le nucléaire, c’est un état des lieux fiable. Il y a une exigence, nécessaire, et la base documentaire est reconnue, probablement aussi chez Framatome et EDF. C’est une ressource solide qui donne de bonnes bases pour démarrer.

Ce qui m’intéresse le plus, c’est de rédiger, mais trouver de nouveaux auteurs et de nouveaux sujets d’actualité, de même que l’ouverture à l’international avec des auteurs anglophones sont également très motivants.

Pour finir, j’ai constaté un véritable besoin d’expertise en corrosion. J’aurais pu être occupé à temps plein. Il m’est impossible de répondre positivement à toutes les sollicitations. Probablement que le maillage en termes d’expertise corrosion est trop faible en France, malgré les efforts des acteurs du domaine.

Les contributions de Damien Féron à Techniques de l’Ingénieur

Damien Féron collabore avec Techniques de l’Ingénieur en tant que conseiller scientifique et auteur spécialisé dans la corrosion et le nucléaire.

Offre
Génie nucléaire

Articles
La corrosion : un défi pour une société durable

Piles à combustible utilisant des enzymes et des biofilms comme catalyseurs

Dans le Magazine d’Actualité
Sensibilisation à la corrosion pour un monde plus durable


[1] ONG reconnue par les Nations Unies

Souveraineté des entreprises françaises en 2025, une amélioration surtout conjoncturelle

L’enquête réalisée repose sur un dispositif stable depuis 2022, élaboré à partir d’un recueil téléphonique et d’un questionnaire mêlant questions fermées et ouvertes, mené auprès de 501 dirigeants et membres de directions d’entreprises en France.

En 2025, le baromètre affiche un niveau de souveraineté en hausse, présenté comme lié notamment à une baisse de la dépendance vis-à-vis de l’étranger. L’indice de souveraineté atteint 84 %, en progression de 2 points par rapport à 2024, tandis que l’indice de dépendance recule à 32 %, en baisse de 4 points, et que l’indice de criticité s’établit à 49 %, en baisse de 2 points.

Le document avance aussi des invariants, dont l’idée qu’une entreprise est structurellement moins souveraine à mesure qu’elle grandit, et qu’il existe une relation directe entre capacité de croissance et souveraineté.

Une souveraineté en hausse mais fragile

Le baromètre ne s’arrête pas au constat d’une amélioration chiffrée. L’analyse publiée par By.O et Cubik souligne que le ralentissement économique observé en 2024 aurait réduit les tensions sur les marchés et désaturé certaines capacités, ce qui atténue le sentiment de criticité et de dépendance. Elle en déduit que l’amélioration observée serait conjoncturelle plutôt que structurelle.

Cette lecture s’inscrit dans un environnement macroéconomique décrit, au même moment, comme peu dynamique. La Banque de France, dans ses projections de juin 2025, anticipe une croissance annuelle moyenne de 0,6 % en 2025 après 1,1 % en 2024, avec une activité plus soutenue au second semestre qu’au premier.

Dans ce cadre, le lien entre souveraineté et croissance apparaît moins aigu dans les réponses des dirigeants. L’analyse intégrée au baromètre indique notamment qu’alors qu’une entreprise sur trois déclarait auparavant que la perte de souveraineté affectait sa capacité de croissance, elles ne seraient plus qu’une entreprise sur cinq cette année à le penser.

Le questionnaire illustrant ce lien montre aussi une inflexion sur la perception de l’impact. La page dédiée confirme le lien entre souveraineté et croissance, tout en indiquant qu’une part plus importante d’entreprises estime que la dépendance envers l’étranger n’affecte pas leur croissance.

Plus précisément, en 2025, 18 % des répondants estiment que la dépendance à l’étranger pouvait impacter leur croissance. Ce résultat varie toutefois selon la taille de l’entreprise, avec un niveau plus élevé pour celles de 50 à 249 salariés, et un recul net dans les entreprises de 250 salariés et plus par rapport aux années précédentes.

Relocalisation et leviers d’action, un diagnostic plus tranché

Si la souveraineté s’améliore sur le papier, la relocalisation n’apparaît pas comme la réponse privilégiée par les entreprises interrogées. À la question décrivant la situation la plus proche de celle de l’entreprise, 94 % répondent que cette relocalisation n’est pas à l’ordre du jour en 2025, un résultat présenté comme une tendance lourde depuis quatre ans.

En revanche, lorsque le baromètre interroge les solutions jugées pertinentes pour gagner en souveraineté, les réponses se concentrent sur des leviers internes. 63 % estiment qu’il faudrait privilégier l’innovation et 58 % améliorer l’efficacité opérationnelle, tandis que 22 % jugent pertinent de recourir aux financements publics, cette question étant introduite en 2025.

Ces résultats éclairent la pertinence des données à tirer pour 2025. D’un côté, le baromètre documente une détente ressentie sur la dépendance et la criticité, cohérente avec l’idée d’un environnement moins tendu que lors des pics de crise. De l’autre, il invite à la prudence dans l’interprétation, puisque l’amélioration est explicitement qualifiée de conjoncturelle. Ce, d’autant que le recul de la préoccupation pour la croissance peut aussi refléter un contexte de faible dynamique économique plus qu’une résolution durable des vulnérabilités.

Pour conclure, l’édition 2025 propose moins une proclamation de reconquête qu’un instantané. Elle montre une souveraineté en apparence mieux orientée, mais portée par un relâchement des tensions plutôt que par des transformations profondes. Elle révèle par ailleurs un arbitrage clair des dirigeants en faveur de l’innovation et de la performance opérationnelle plutôt que de la relocalisation ou de la dépendance à l’aide publique.

Un nouveau vent souffle chez T.I… en attendant, 5 lectures pour l’hiver

Derrière les paysages enneigés se jouent en réalité de nombreux défis d’ingénierie : transferts thermiques, mesures météorologiques, adhérence, maîtrise du froid, anticipation des risques naturels… tout un système technique en action. 

En attendant de vous dévoiler ce qui arrive prochainement chez T.I, nous vous proposons de patienter avec cinq articles en libre accès pour explorer ces systèmes au cœur de l’hiver :  

Restez attentifs : le vent pourrait bien tourner le mois prochain…  

Les actualités à suivre : Global Industrie, Decarb Ind, réindustrialisation, gigafactories…

Global Industrie, prochain baromètre du déploiement de l’IA industrielle

Après deux ans de pilotes, l’IA entre dans son moment de vérité : en 2026, les usines attendent des gains mesurables (qualité, maintenance, énergie), pas des démonstrations. Côté acteurs, Siemens accélère nettement : le groupe a annoncé le 14 janvier 2026 l’extension de son partenariat avec NVIDIA pour bâtir un « Industrial AI Operating System », et promet des outils de jumeau numérique disponibles mi-2026. Sur le terrain, la bataille se joue sur des usages concrets comme la maintenance prédictive, où l’IA doit réduire les arrêts non planifiés et stabiliser les cadences.

Les prochains rendez-vous sont déjà pris : en France, Global Industrie du 30 mars au 2 avril 2026 sera un baromètre du déploiement réel, entre automatisation, robotique et IA appliquée aux ateliers. Puis viendra Hannover Messe du 20 au 24 avril 2026, où l’IA en production (robotique, contrôle qualité, supply chain) sera au centre des annonces et retours d’expérience. En parallèle, la réglementation commence à peser dans les décisions d’investissement : la Commission rappelle que le cadre du AI Act avance, tandis que des discussions existent sur un possible ajustement du calendrier.

Dans les mois qui viennent, le sujet qui va dominer n’est donc plus « faut-il de l’IA ? », mais qui la maîtrise, avec quelles données, sur quels systèmes industriels critiques, et surtout, avec quel ROI dans des usines déjà sous pression énergie/coûts.

Réindustrialisation européenne : le moment de vérité ?

La réindustrialisation européenne est entrée dans une phase critique, où l’écart entre annonces politiques et réalité du terrain devient de plus en plus visible. Malgré les ambitions affichées à Bruxelles, la concrétisation des projets industriels se heurte encore à des délais d’autorisations, à une pénurie de compétences et à des difficultés de raccordement énergétique. Pour y répondre, la Commission prépare le Industrial Acceleration Act, attendu début 2026, censé accélérer les investissements et simplifier les procédures.

Mais sur le terrain, le temps industriel reste contraint par l’accès à une électricité disponible et compétitive et par l’acceptabilité locale des nouveaux sites.

Les prochains rendez-vous seront donc décisifs, notamment le Conseil Compétitivité de l’UE fin février 2026, où les États membres devront clarifier leurs priorités industrielles, puis les arbitrages budgétaires, attendus au printemps. L’enjeu est clair : transformer une ambition politique de souveraineté industrielle en réalisations concrètes, visibles dans les usines, et pas seulement dans les communiqués.

Gigafactories batteries : l’heure des arbitrages

La ruée européenne vers les gigafactories entre dans une phase plus rude : après les annonces, place aux retards, aux annulations et aux choix budgétaires. Symbole de ce tournant, la coentreprise ACC a acté (en date du 7 février) l’abandon de projets en Italie et en Allemagne, illustrant l’effet ciseau entre marché VE moins dynamique et coûts industriels élevés. En France, ACC tente au contraire d’accélérer sa montée en cadence à Douvrin, avec un objectif de 3 000 batteries/mois en juin 2026 et un démarrage pour Mercedes annoncé à l’été 2026.

Mais le nerf de la guerre reste en amont : la dépendance aux matières premières critiques, que les auditeurs européens jugent toujours insuffisamment sécurisées. Dans ce contexte, les projets « vitrine » deviennent des tests de crédibilité : à Dunkerque, Verkor vise des premières cellules début 2026, tandis que d’autres paris technologiques prennent du retard, comme ProLogium repoussé à 2028.

Les prochains jalons seront aussi réglementaires : l’Union européenne bascule vers une exigence de traçabilité avec le Battery Passport obligatoire à partir du 18 février 2027, et des lignes directrices attendues en juillet 2026 pour la « due diligence » de chaîne d’approvisionnement. D’ici là, le débat va se durcir : l’Europe veut des usines, mais elle doit prouver qu’elle peut sécuriser financement + matières + compétences + énergie… au même rythme que ses concurrents.

DECARB IND : réouverture des guichets au printemps 2026

Dans un contexte où l’industrie française doit réduire ses émissions de 42 % d’ici 2030, le programme DECARB IND s’impose comme un levier stratégique du plan France 2030. Après une première vague clôturée en mai 2025, l’ADEME prépare une réouverture au premier trimestre 2026 pour une relève prévue autour du 1er juin. Ce dispositif permet aux industriels d’obtenir jusqu’à 30 millions d’euros de subventions pour décarboner leurs sites via quatre leviers : efficacité énergétique, modification du mix énergétique, substitution des matières premières et captage du carbone. Les secteurs les plus intensifs en énergie – acier, ciment, verre, chimie, papier-carton – concentrent l’essentiel des besoins, représentant 64 % des émissions industrielles nationales.

Les 50 sites les plus émetteurs à eux seuls génèrent 55 % du total. Avec l’épuisement progressif des quotas carbone européens et la montée des taxes environnementales, 2026 marquera une accélération pour ces industriels : ceux qui sauront monter des dossiers conformes aux critères prix et hors-prix bénéficieront d’un avantage compétitif déterminant face à la concurrence internationale.

Recyclage du plastique : l’Europe ouvre une nouvelle phase

L’Union européenne vient de franchir un tournant réglementaire majeur en reconnaissant officiellement le recyclage chimique dans le calcul des objectifs de contenu recyclé des bouteilles en plastique, une décision actée début février 2026 et saluée par une partie de l’industrie. Portée par la Commission européenne, cette évolution vise à répondre aux limites du recyclage mécanique face à la hausse des obligations de plastique recyclé, notamment les 25 % de contenu recyclé déjà en vigueur depuis 2025.

L’enjeu immédiat est méthodologique : l’Europe valide l’usage du principe de « mass balance » pour comptabiliser les volumes issus de procédés comme la pyrolyse, ouvrant la voie à de nouveaux investissements industriels. Mais cette décision suscite aussi des critiques, notamment de la part d’ONG comme Zero Waste Europe, qui alertent sur le coût énergétique et le risque d’un recyclage « de façade ».

Les prochaines semaines seront décisives : la Commission doit adopter formellement les actes d’exécution, précisant les règles de traçabilité, de contrôle et de reporting. Dans les mois à venir, les industriels devront ajuster leurs chaînes d’approvisionnement pour anticiper le prochain seuil réglementaire, avec 30 % de plastique recyclé exigés dans toutes les bouteilles d’ici 2030.

À moyen terme, un autre paramètre pèsera lourd : le contenu recyclé produit hors UE ne pourra être comptabilisé qu’à partir du 21 novembre 2027, un signal fort en faveur d’une filière européenne du recyclage. D’ici là, le débat va s’intensifier entre impératif industriel, crédibilité environnementale et capacité réelle de l’Europe à réduire sa dépendance au plastique vierge.

 

Revue du Magazine d’Actualité #63 du 2 au 6 février

L’actualité dense esquisse les lignes de force d’une année où l’innovation technique et les choix stratégiques pourraient redessiner plusieurs secteurs clés.


🧬 MATÉRIAUX & SANTÉ

Un nouveau système d’imagerie 3D pour scanner le corps humain

Un dispositif d’imagerie 3D promet de capturer le corps entier rapidement, avec une précision compatible diagnostic. Les enjeux portent sur la réduction des doses, l’intégration aux flux cliniques et la standardisation des formats. Les cas d’usage vont du suivi longitudinal des patients à la planification chirurgicale, en passant par la recherche biomédicale. Les verrous concernent le coût, la maintenance et l’interopérabilité des données.
🩻 Imagerie 3D corps entier

L’Intelligence artificielle : le super assistant de la médecine

L’IA s’impose comme copilote clinique : aide au diagnostic, triage, interprétation d’imagerie et optimisation des parcours. Les gains attendus portent sur la qualité, la rapidité et l’accessibilité des soins, sous réserve d’une gouvernance des risques (biais, traçabilité, responsabilité). L’industrialisation passera par la validation clinique, la cybersécurité et l’intégration aux dossiers patients. Les modèles spécialisés et les approches multimodales accélèrent la maturité.
🩺 IA médicale, du triage au diagnostic


⚡ ÉNERGIE & ENVIRONNEMENT

Hydrogène natif en Lorraine : l’hypothèse d’un gisement hors norme se dessine entre promesse et prudence

Des indices géologiques suggèrent un potentiel gisement d’hydrogène natif en Lorraine, nourrissant l’espoir d’une ressource à faible empreinte. Les perspectives économiques sont attractives, mais la filière reste à éprouver : exploration, caractérisation, coût d’extraction, cadre réglementaire et impacts environnementaux. Une phase d’investigation rigoureuse sera décisive avant tout passage à l’échelle.
💦 Hydrogène natif en Lorraine

100 GW en mer du Nord, l’Europe tente le grand chantier électrique

L’Europe vise 100 GW d’éolien en mer du Nord, avec des enjeux d’infrastructures (réseaux, hubs, interconnexions), de chaîne d’approvisionnement et d’acceptabilité. La compétitivité dépendra des coûts de financement, des capacités industrielles et d’un cadre de soutien stable. L’intégration système (stockage, marchés de capacité, flexibilité) sera clé pour tenir les objectifs 2030–2040.
🌬️ Cap sur 100 GW : éolien en mer du Nord

Dunkerque, une ville à l’avant-garde dans l’industrie énergétique

Dunkerque accélère sur les projets énergétiques : décarbonation industrielle, nouvelles capacités électriques et logistique portuaire. L’attractivité repose sur l’écosystème local, les connexions transfrontalières et la visibilité des politiques publiques. Les retombées attendues : emplois, relocalisations et consolidation des filières bas carbone.
👉 Dunkerque, hub énergétique


🏭 INDUSTRIE & SOCIÉTÉ

Gigafactories : quelle actualité en 2026 ?

Les gigafactories évoluent dans un contexte volatil : prix des matières, concurrence internationale, incitations publiques et demande de véhicules électriques. Les stratégies se redessinent entre intégration verticale, sécurisation des approvisionnements et montée en puissance progressive. La différenciation passera par la chimie des cellules, la circularité et l’efficacité énergétique des sites.
🏗️ Gigafactories & batteries

Pourquoi l’Europe peine à faire émerger ses champions technologiques

L’Europe pâtit d’un déficit d’échelle, de financement tardif et d’un marché fragmenté, freinant l’émergence de champions. Les pistes : consolidation, marchés publics comme levier d’amorçage, et politiques d’innovation plus offensives. La bataille se joue aussi sur les talents, la propriété intellectuelle et la rapidité d’exécution.
💡 Champions technologiques européens

Peut-on protéger l’économie européenne sans protectionnisme

Le débat s’intensifie entre défense des intérêts stratégiques et respect des règles du commerce international. Instruments possibles : clauses de réciprocité, standards carbone, achats publics ciblés et contrôle des investissements. L’objectif : renforcer la résilience sans fermer le marché, tout en évitant les effets de rétorsion.
🛡️ Résilience économique européenne


🕶 Bon week-end et bonne lecture

Électricité : le solaire et l’éolien dépassent les énergies fossiles en Europe en 2025

En 2025, l’Union européenne a franchi un seuil longtemps considéré comme symbolique. Pour la première fois, la production d’électricité issue du solaire et de l’éolien a dépassé celle provenant de l’ensemble des énergies fossiles. Selon un rapport publié par le think tank Ember, ces deux sources d’énergie ont fourni 30 % de l’électricité européenne, contre 29 % pour le charbon, le pétrole et le gaz réunis. Un basculement historique, qui illustre la rapidité de la transition énergétique engagée depuis une décennie.

Cette évolution s’inscrit dans une dynamique de fond. En cinq ans, la part combinée du solaire et de l’éolien a progressé de plus de 10 points dans le mix électrique européen. À l’inverse, les énergies fossiles reculent de manière continue, de 8 points. En 2025, 14 États membres produisent désormais plus d’électricité à partir du vent et du soleil que grâce aux combustibles fossiles, dont les Pays-Bas et la Croatie pour la première fois. D’anciens pays très dépendants du charbon, comme la Grèce ou la Bulgarie, se rapprochent à leur tour de ce point de bascule.

Le moteur principal de cette transformation est le solaire. En 2025, la production photovoltaïque européenne a atteint un record de 369 TWh, soit une hausse de plus de 20 % sur un an. Cette croissance repose avant tout sur l’augmentation rapide des capacités installées, avec plus de 65 GW supplémentaires en un an. Le solaire progresse dans tous les pays de l’UE, aussi bien via les grandes centrales que par l’équipement massif des toitures. Dans plusieurs États, notamment en Espagne, en Grèce, en Hongrie ou aux Pays-Bas, il représente désormais plus de 20 % de l’électricité produite, plaçant l’Europe parmi les régions les plus avancées au monde dans ce domaine.

L’année 2025 a pourtant été marquée par des conditions météorologiques inhabituelles. Un début d’année peu venteux et sec a entraîné une baisse de la production éolienne et hydraulique. Mais un ensoleillement exceptionnel a permis au solaire de compenser ces reculs. Résultat : les énergies renouvelables ont assuré près de la moitié (48 %) de l’électricité européenne, un niveau stable par rapport à 2024. La demande, quant à elle, est restée quasiment inchangée, encore inférieure à son niveau d’avant-crise, malgré les pics de consommation liés aux vagues de chaleur estivales.

Une hausse des prix de l’électricité liée à la dépendance au gaz

Cette réussite ne masque toutefois pas une fragilité persistante liée à la dépendance au gaz. En raison du recul de l’hydroélectricité, la production électrique à partir de gaz a augmenté de 8 % en 2025. Cette hausse a entraîné une envolée de la facture des importations, estimée à 32 milliards d’euros pour le seul secteur électrique, soit 16 % de plus qu’en 2024. Dans 21 pays européens, les prix de gros de l’électricité ont progressé, principalement lors des heures de pointe, lorsque les centrales à gaz restent indispensables pour équilibrer le réseau.

Le charbon, à l’inverse, poursuit son déclin rapide. En 2025, il ne représente plus que 9 % de la production électrique européenne, un niveau historiquement bas. 19 pays ont quasiment tourné la page, et même en Allemagne et en Pologne, qui concentrent encore l’essentiel de la production charbonnière, les volumes continuent de diminuer. Cette sortie progressive du charbon n’a pas été compensée par une hausse équivalente du gaz, signe que la transition se fait directement vers les énergies renouvelables.

Pour réduire la dépendance au gaz et contenir les prix, Ember met en avant le levier clé que représentent les batteries. En 2025, les capacités de ce mode de stockage ont dépassé 10 GW dans l’Union européenne, soit plus du double qu’en 2023, et les projets annoncés pourraient multiplier ce chiffre dans les prochaines années. En stockant l’électricité solaire et éolienne produite à bas coût en journée pour la restituer lors des pics de consommation, les batteries permettent de limiter le recours aux centrales fossiles, de stabiliser les prix et de réduire le gaspillage d’électricité renouvelable.

Au-delà des enjeux économiques, la transition électrique prend une dimension géopolitique. Si l’Union européenne s’est engagée à mettre fin aux importations de gaz russe d’ici 2027, de nouvelles dépendances émergent, notamment vis-à-vis du GNL (Gaz naturel liquéfié) américain. Pour Ember, la seule réponse durable réside dans le développement massif de capacités renouvelables, combiné à des réseaux modernisés, à la flexibilité de la demande et au stockage.

Le tournant de 2025 démontre que la transition énergétique européenne est désormais une réalité tangible. Le défi des prochaines années sera de transformer ce succès quantitatif en un système électrique pleinement maîtrisé, capable de garantir des prix stables, une sécurité d’approvisionnement renforcée et une véritable souveraineté énergétique.

Olivier Ezratty : « Dans le quantique, l’Europe dispose d’acteurs solides, mais manque de financements »

Olivier Ezratty
© Franck Disegni

Auteur et enseignant depuis 2005, Olivier Ezratty allie une bonne connaissance des technologies numériques et de leurs applications dans les industries traditionnelles, comme les médias, les industries et les services. En tant que consultant et conférencier, il a exploré de nouveaux champs technologiques avec, par exemple celui de la télévision numérique (de 2005 à 2013), de l’Internet des objets (2011-2018), de l’intelligence artificielle (2015-2021) et des medtechs (2012-2019). Il est aussi cofondateur de la Quantum Energy Initiative.

Techniques de l’Ingénieur : Pourriez-vous expliquer la situation actuelle de l’informatique quantique en quelques mots ?

Olivier Ezratty : Nous avons de nombreuses briques, mais pas encore le château ! Cette expression est liée à la manière dont les choses progressent, aussi bien dans le monde académique que celui des constructeurs. Nous avons en effet un tas de briques techniques, aussi bien côté logiciel que du côté matériel, qui se mettent en place. Mais, certaines problématiques restent encore difficiles à maîtriser, autant au niveau scientifique que technologique. C’est la raison pour laquelle le château n’est pas encore construit. Cela va encore demander beaucoup de temps.

Quels sont les principaux défis à relever ?

Il y en a deux principaux : la correction d’erreurs et la tolérance aux fautes. Ces défis sont très complexes. Certaines start-up, comme QuEra à Boston, arrivent à faire des expériences avec des briques, je dirais en « pièces détachées », mais il n’y a jamais de choses complètes. Pourquoi ? Parce qu’il y a une très forte interdépendance entre la capacité à développer des briques logicielles, comme la correction d’erreurs, et la mise en œuvre à une certaine échelle au niveau de la physique et du matériel, notamment la quantité de qubits qu’on peut contrôler en même temps.

Pourriez-vous expliquer cette interdépendance ?

Quand j’évoque le matériel, je parle de physique : comment compte-t-on augmenter le nombre de qubits contrôlés avec des fidélités qui sont de bon niveau à l’échelle ? Cela reste encore un problème de physique et d’ingénierie, voire de recherche fondamentale dans certains cas.

La correction d’erreurs et la tolérance aux fautes doivent progresser en parallèle. Prenons le cas d’IBM, qui est un exemple d’interdépendance entre d’un côté une amélioration de l’architecture et de la correction d’erreur, et de l’autre un changement dans l’ingénierie du côté du hardware.

En 2025, IBM a décidé de modifier la conception de ses puces pour permettre une connexion entre les qubits à une certaine distance. Ainsi, au lieu de faire juste une connexion avec les « voisins » immédiats, ils ont opté pour une connexion avec des qubits légèrement distants.

Ce choix entraîne un surcoût, car il nécessite l’ajout d’une couche électronique sur le circuit intégré. Le risque est d’introduire du bruit. Cependant, cette option permet également de réduire considérablement le coût de la correction des erreurs, ce qui rendrait la machine moins chère.

2025 peut-elle être considérée comme « l’AN I » d’un mouvement de consolidation ?

Oui. Des acteurs fortement capitalisés commencent à racheter, à agréger des compétences, à structurer des portefeuilles technologiques complets.

En règle générale, dans l’évolution technologique, on observe une corrélation entre le développement d’une technologie et sa stabilisation. Il y a deux types de consolidation. Il y a celles qui peuvent intervenir quand la technologie n’est pas encore mature, et celles qui apparaissent après. Par exemple, si l’on prend le mécanisme de consolidation de l’industrie aéronautique, elle est postérieure à la maturité technologique. Lorsque nous avons créé l’Airbus A300, nous savions déjà faire voler des avions.

Pour le quantique, nous sommes dans le premier cas, car la technologie n’est pas encore mature. Quelques acquisitions ont marqué 2025. Il y a IonQ (une entreprise basée dans le Maryland) qui a mis la main sur Oxford Ionics, une start-up du Royaume-Uni. C’est la plus grosse acquisition en valeur, un milliard de dollars. On peut aussi citer l’acquisition d’Atlantic Quantum par Google. Enfin, il y a presque un an, Alphabet (la maison mère de Google) et SoftBank Group Corp. ont investi dans QuEra Computing Inc cité plus haut.

Quel est l’objectif de ces acquisitions ?

Des constructeurs ont abandonné une sous-filière de qubit pour acheter un concurrent d’une autre sous-filière. Dans le IonQ/Oxford Ionics, nous passons du contrôle des qubits par laser au contrôle par micro-ondes. Avec Google/Atlantic Quantum, il s’agit du passage du transmon au fluxonium, même si cette transition prendra du temps. IonQ continue son marché avec une grosse acquisition à presque 2 milliards de dollars avec SkyWater Technology qui produit des wafers en silicium (200 mm), de la photonique et aussi des composants supraconducteurs, comme les puces du Canadien D-Wave. Récemment, D-Wave a acquis Quantum Circuits Inc, pour remplacer sa technologie de qubits fluxoniums interne par celle du « dual rail » de ce dernier.

L’Europe fait-elle le poids face aux États-Unis d’un point de vue technologique, financier et industriel ?

La comparaison entre l’Europe et les États-Unis n’est pas technologique, mais financière et industrielle. Le financement public de la recherche dans le quantique est supérieur en Europe vs les USA. Mais, bien que l’Europe possède des acteurs solides, souvent très innovants sur le plan scientifique, ils restent fragmentés et sous-dimensionnés face à des entreprises américaines capables d’investir massivement et d’absorber leurs concurrents.

Les start-up américaines lèvent des fonds plus facilement grâce au mécanisme du SPAC (« Special-purpose acquisition company », en français « société d’acquisition à vocation spécifique ») suivi d’une introduction en bourse. C’est une société sans activité opérationnelle, mais qui peut lever des fonds auprès du marché des actions sans proposer de business plan. IonQ, Rigetti, D-Wave sont passés par là. Infleqtion, SEEQC et Horizon Quantum sont en train de le faire. IonQ a amassé 3 milliards de dollars de cash grâce à l’envolée de son cours de bourse. Cela crée un déséquilibre vis-à-vis de l’Europe. D’où l’intérêt de réflexions en cours sur la création de fonds européens capables de financer ce genre de deep-techs.