Le plastique européen cherche une voie de survie

Les plastiques sont les matériaux qui symbolisent par excellence la « modernité » de la révolution industrielle en combinant chimie, énergies fossiles, production et consommation de masse, diversification des usages, et mondialisation. S’y ajoutent malheureusement les pollutions liées aux polymères : émissions de gaz à effet de serre, pollution de l’air, rejet massif de déchets plastiques dans les milieux naturels, diffusion des micro et nanoplastiques dans les chaînes alimentaires avec des effets potentiels sur la santé humaine.

En moins d’un siècle, le plastique est devenu le troisième matériau le plus fabriqué au monde, après le ciment et l’acier, comme le rappelle l’Ademe dans Le paradoxe du plastique. Un matériau paradoxal, car malgré sa résistance et sa durée de vie élevées qui ont fait leur succès, 40 % des plastiques sont jetés moins d’un mois après leur achat ! Beaucoup finissent dans les cours d’eau et milieux marins, jusqu’à former cinq super-amas de particules de plastiques dans les océans.

Dans un livre sorti en septembre dernier, l’enseignant-chercheur Quentin Bourgogne vante les vertus des plastiques pour alléger les composants dans l’industrie automobile. À l’image de cet ouvrage de vulgarisation, la filière réfléchit à des solutions pour intégrer plus de matières biosourcées, et cherche à s’engager dans des voies de décarbonation. Mais elle a encore du mal à envisager une baisse significative du nombre de ses usages et se retrouve parfois à envoyer un message contraire, comme dans une campagne publicitaire récente qui a fait controverse.

Des industriels pris en tenailles

Les industriels européens producteurs de plastiques, réunis pour les plus importants dans l’association Plastics Europe, ont conscience des enjeux environnementaux. En 2023, ils ont élaboré une vision commune de transition, en vue d’atteindre zéro émission nette de gaz à effet de serre en 2050. Leur feuille de route repose sur une croissance de la consommation et de la production (de 55 Mt en 2024 à 65 Mt en 2050), de la réutilisation, du recyclage (mécanique et chimique), et de plastiques à base de biomasse ou de carbone issu de CSC (captage et stockage de CO2), et de CSC sur leurs procédés.

Mais les actuelles conditions de concurrence internationale leur donnent comme priorité la survie des actifs industriels sur le Vieux Continent. « La production de polymères en Europe ne représente plus que 12 % de la production mondiale, contre 22 % en 2006. Nous ne produisons pas beaucoup moins, mais les nouvelles consommations qui sont apparues dans le monde ont été captées par la Chine, le Moyen-Orient et les États-Unis » constate Jean-Yves Daclin, directeur général de Plastics Europe en France.

La production mondiale de plastiques (430 Mt en 2024) croît ainsi d’environ 4 % par an, portée par la croissance économique des pays en développement et leurs besoins dans les secteurs du bâtiment, de l’agroalimentaire, de l’automobile, etc. À l’inverse, en Europe, l’atonie économique due à la crise sanitaire du Covid puis à la guerre en Ukraine a fait stagner la consommation, voire l’a fait baisser dans des pays comme la France promouvant une réduction des utilisations, notamment des plastiques à usage unique. S’y ajoute désormais la perspective d’être inclus dans le mécanisme d’ajustement carbone aux frontières.

Les producteurs de plastique européens sont aussi pris au piège d’intrants (matière première fossile, électricité) plus chers en Europe. « Les nouvelles installations industrielles de production se font là où la consommation augmente, en particulier en Chine avec le soutien de l’État. Elles se font aussi là où les matières premières sont peu chères. C’est le cas avec l’éthane disponible dans les gisements gaziers au Moyen-Orient et aux États-Unis, avec des coûts respectivement six fois et trois fois moindres que le naphta utilisé en Europe » explique Jean-Yves Daclin.

Les solutions envisagées sont à quatre niveaux. Tout d’abord investir dans l’adaptation de l’outil industriel, par exemple comme Ineos ou TotalEnergies qui ont adapté leurs vapocraqueurs pour y incorporer de l’éthane importé. Puis les prix de l’énergie devraient être modulés, selon les producteurs de plastiques européens, pour compenser le surcoût constaté par rapport à leurs concurrents. Ensuite, ils souhaitent que la réglementation leur permette de jouer à armes égales avec leurs concurrents mondiaux, par exemple en incluant des clauses miroirs sur les conditions sociales et environnementales de fabrication de produits importés. Enfin, ils réclament un soutien à l’innovation, notamment pour avancer sur le recyclage chimique qui permettrait, avec l’accélération conjointe du recyclage mécanique, de multiplier par trois la quantité de déchets recyclés. À la clé, bien sûr, le maintien d’une activité pourvoyeuse d’emplois en Europe et l’assurance d’une certaine autonomie.

À la recherche d’un accord international…

Dans un rapport de 2024, l’OCDE annonçait que sans des mesures ambitieuses pour en limiter l’usage, la production de plastique atteindrait 736 Mt en 2040, avec seulement 6 % de plastiques provenant de sources recyclées. Simultanément, la quantité de déchets plastiques éliminés de manière inadéquate (décharge) passerait de 81 Mt en 2020 à 119 Mt/an en 2040. Même dans le scénario le plus protecteur, la quantité de plastiques dans les cours d’eau et les océans augmenterait jusqu’à 221 Mt en 2040 (contre 151 Mt en 2020).

La tendance à une pollution en hausse ne sera contrée que par un accord international qui, pour l’instant, n’arrive pas à aboutir, malgré plusieurs cycles de négociations depuis 2022. Pourtant les preuves des effets néfastes des plastiques sur la santé se multiplient, comme dans une récente étude publiée dans The Lancet Planetary Health, montrant que si les pratiques actuelles sont maintenues d’ici 2040, la population mondiale perdrait deux fois plus d’années en bonne santé qu’aujourd’hui.

Tout comme les plastiques mettent très longtemps à se dégrader dans la nature, la question de leurs usages, de leur production et de leurs effets sur l’environnement et la santé n’a pas fini de nourrir le débat…

100 GW en mer du Nord, l’Europe tente le grand chantier électrique

Le 26 janvier à Hambourg, des dirigeants et ministres européens se sont retrouvés pour renforcer la coopération autour de l’énergie en mer du Nord. L’événement s’est déroulé dans un climat diplomatique tendu, marqué par des inquiétudes liées à la Russie et aux débats autour du Groenland et de l’Arctique. Le message politique a été clair. La mer du Nord est appelée à devenir un espace clé de production électrique bas carbone, mais aussi un espace stratégique à protéger.

Cette évolution s’explique par la nature même des actifs offshores. Les parcs, les câbles et les postes de conversion sont des infrastructures vitales pour l’alimentation électrique. Les risques de sabotage et de menaces hybrides ont progressivement fait entrer la sécurité dans le vocabulaire officiel de l’offshore. L’idée n’est pas nouvelle, mais la tonalité change. Il ne s’agit plus seulement de déployer des gigawatts, mais de sécuriser un futur système électrique interconnecté.

Un objectif immédiat de 100 GW et une logique de projets conjoints

Un pacte a ainsi été mis en avant à Hambourg, avec une cible de 100 GW, par le Royaume Uni, l’Allemagne, le Danemark, ainsi que d’autres partenaires. L’objectif est de mutualiser des projets ainsi que de développer des infrastructures transfrontalières, ce qui doit renforcer la sécurité énergétique et soutenir la compétitivité industrielle.

Cette approche collective répond à une contrainte technique. Les parcs en mer du Nord ne sont plus pensés uniquement comme des unités nationales raccordées à un seul pays. Ils sont de plus en plus envisagés comme des nœuds régionaux capables d’alimenter plusieurs marchés. Cela ouvre la voie à des parcs dits hybrides, qui produisent dans une zone et se raccordent à plusieurs réseaux.

La trajectoire européenne de fond et ses jalons

La Commission européenne a fixé dès 2020 un cap pour l’offshore à l’échelle de l’Union. Elle vise au moins 60 gigawatts d’éolien offshore en 2030 et 300 gigawatts en 2050. Cette stratégie s’inscrit dans la neutralité climatique à l’horizon 2050 ; elle met l’accent sur la planification spatiale, les investissements réseau et un cadre plus stable pour les acteurs.

Dans la zone des mers du Nord, un cadre de coopération existe déjà. La North Seas Energy Cooperation¹ rappelle ainsi que neuf pays se sont accordés à Ostende en avril 2023 sur une ambition de 300 gigawatts d’éolien offshore d’ici 2050, avec un objectif intermédiaire de 120 gigawatts en 2030. L’Office des publications de l’Union européenne décrit la même trajectoire, avec une montée de 30 gigawatts vers 120 gigawatts à l’horizon 2030 puis un passage à 300 gigawatts à l’horizon 2050.

Le sommet de Hambourg s’insère dans cette continuité. Une déclaration officielle publiée par le gouvernement fédéral allemand rappelle l’objectif de 300 gigawatts d’ici 2050 et insiste sur une planification coordonnée pour débloquer les investissements nécessaires dans l’énergie offshore et les réseaux.

Le verrou se joue sur les réseaux

La réussite des projets ne dépend pas uniquement des turbines. Elle dépend du rythme de développement des câbles, des convertisseurs et des interconnexions. Clean Energy Wire évoque un plan qui vise une cadence d’ajout de capacités et une accélération des interconnexions, afin que plusieurs pays puissent bénéficier de l’électricité produite par un même parc. La Commission européenne explique de son côté que l’intégration à l’échelle des bassins maritimes et la cohérence des plans maritimes nationaux sont des éléments structurants de la stratégie offshore.

La dimension industrielle est tout aussi déterminante. Le déploiement représente en effet un défi industriel colossal, alors que la filière doit sécuriser des capacités de fabrication et des chaînes logistiques sous tension. La capacité à tenir les calendriers dépendra donc de décisions d’investissement, de simplification des procédures et de coordination entre États, réseaux et industriels.

Ce que clarifie Hambourg pour la suite

Le sommet du 26 janvier confirme une transformation du récit européen. L’éolien offshore en mer du Nord devient un projet de puissance, un projet de réseau et un projet de sécurité. La stratégie européenne affiche des objectifs très élevés, qu’elle cherche à rendre crédibles grâce à des engagements régionaux, des interconnexions et une planification plus intégrée. La mer du Nord devient ainsi un test grandeur nature. Elle dira si l’Europe sait transformer une ambition énergétique en infrastructure continentale durable.


¹ La North Seas Energy Cooperation (NSEC) est une plateforme politique de coopération régionale entre les pays riverains de la mer du Nord (et proches). Avec la Commission européenne, elle coordonne le développement de l’éolien en mer et surtout des réseaux et interconnexions offshore (câbles, « hubs » énergétiques, projets hybrides reliant plusieurs pays), ainsi que les liens avec un futur marché de l’hydrogène.

ELIPSE : un procédé plasma pour transformer les liquides organiques en eau et piéger les espèces polluantes

Nous avons demandé à Jacques Lacombe, ingénieur chercheur à l’ISEC, de nous présenter les perspectives industrielles de cette innovation.

Jacques Lacombe, ingénieur chercheur au CEA
Jacques Lacombe, ingénieur chercheur au CEA (Crédit : CEA)

 Le procédé ELIPSE (Élimination de Liquides par Plasma Sous Eau) est couvert par deux brevets.

Il est l’aboutissement de 20 ans de travaux de développement réalisés en collaboration avec le Limoges Plasma Chemistry Laboratory (2002-2012), puis financés par le CEA (2013-2016) et Bpifrance (projets MILOR 2017-2022 et ECCLOR 2023-2027).

Il a été présenté au salon World Nuclear Exhibition 2025, à Paris, et fait partie des candidats aux Innovation Awards.

Techniques de l’ingénieur : En quoi l’élimination de certains liquides organiques radioactifs est-elle problématique ?

Jacques Lacombe : L’industrie nucléaire, mais aussi les centres R&D, les hôpitaux, les laboratoires d’imagerie médicale et les universités produisent toutes sortes de LOR, en particulier des solvants, des huiles techniques ou encore des liquides scintillants.

Or, pour éviter les risques de dissémination des solutions radioactives dans l’environnement, les déchets radioactifs doivent être conditionnés sous une forme physique stable. Avant de pouvoir être éliminés par une filière classique de traitement de déchets radioactifs à moyenne ou faible activité, ces déchets doivent donc être transformés en solides.

Pour le traitement des liquides de faibles et moyennes activités, le procédé classique consiste ainsi à mélanger le liquide avec une matrice cimentaire. Malheureusement, ces déchets organiques ont un point commun : ils ne peuvent pas être traités par les filières classiques de type cimentation, car il n’existe pas de compositions cimentaires permettant de les incorporer directement.

En outre, la destruction thermique n’est pas non plus envisageable pour les LOR contenant des substances, comme le chlore ou le phosphore (PCB, TPB, TPH, etc.), à cause des dégagements gazeux très corrosifs.

En clair, il n’existe pas de solution de traitement satisfaisante pour ces déchets !

Comment le procédé ELIPSE répond-il à ces enjeux ?

L’acronyme ELIPSE signifie Élimination de Liquides par Plasma Sous Eau. Le procédé consiste à oxyder et détruire les chaînes carbonées à l’aide d’une torche à plasma immergée sous eau, au sein d’un réacteur. L’huile ou le solvant à traiter est injecté au cœur du dard plasma, qui le décompose en H2O et CO2 ( un peu de CO). Comme l’ensemble est immergé, les espèces radioactives sont instantanément mises en solution aqueuse et le liquide devient donc compatible avec la cimentation, contrairement aux huiles qui ne peuvent pas être incorporées directement dans une matrice cimentaire.

Le procédé ELIPSE
Présentation du procédé ELIPSE (Crédit : CEA)

Quelles sont les applications potentielles du procédé ELIPSE ?

Les liquides organiques radioactifs issus de la recherche, des hôpitaux ou de l’industrie nucléaire posent de vrais défis. En outre, ils ne sont pas les seuls à être problématiques : on peut également citer les lixiviats de décharge ou de sites contaminés, les armes chimiques, les déchets pharmaceutiques et toutes sortes de produits chimiques.

Notre procédé à l’énorme avantage d’être flexible et polyvalent, puisqu’il peut, en théorie, s’adapter à tous types de déchets toxiques non nucléaires. Par ailleurs, le passage d’un type de déchet à l’autre peut être très rapide, puisqu’il suffit de vidanger et de rincer pour passer à un autre type de déchet.

Mais d’un point de vue industrialisation, il a aussi d’autres atouts. Par exemple, le fait de placer la torche à plasma dans un réacteur sous eau permet de refroidir instantanément les gaz, tout en assurant la mise en solution des espèces radioactives ou toxiques.

Par conséquent, dès qu’on arrête le plasma, on se retrouve avec un liquide froid et il n’y a pas d’inertie thermique. C’est aussi un équipement compact, bien plus simple d’utilisation et de maintenance qu’un incinérateur de plusieurs mètres de haut avec ses tubes tournants et sa mécanique.

Et pour ce qui est de la productivité, nous arrivons déjà à traiter 2 à 5 litres par heure, ce qui est significatif par rapport à certains procédés dont le débit est inférieur au litre par heure ! Lors de notre essai de longue durée, réalisé en 2025 sur une solution LOR composée à 30 % de TBP et 70 % de dodécane[1], nous avons ainsi traité 230 litres de solvant en une semaine. Nous pouvons donc prendre en charge des volumes assez conséquents, sur des durées raisonnables d’exploitation.

Où en êtes-vous de vos travaux ? Les résultats sont-ils satisfaisants ?

Lors de nos campagnes d’essais, nous avons atteint un taux de destruction du LOR de 100 %, avec une efficacité de combustion supérieure à 99,9 % et un piégeage du phosphore et du chlore supérieur à 95 %.

Essais R&D réalisés sur une solution LOR
Destruction des organiques : résultats des essais R&D réalisés sur une solution LOR composée à 30 % de TBP et 70 % de dodécane (Crédit : CEA)

Le procédé en est au stade TRL 6. Pour passer au TRL 7, il nous faudra engager les études de nucléarisation pour que l’équipement soit exploitable en Boîte à Gants ou Chaîne Blindée. Il faut savoir qu’actuellement, les essais sont réalisés avec des radioéléments simulés, puisque le césium radioactif est remplacé par du césium non radioactif, alors que l’uranium et le plutonium sont substitués par des éléments comme le cérium et le néodyme. L’enjeu de cette prochaine étape sera ainsi de vérifier qu’on a bien détruit tous les organiques et capturé les radioéléments.

Enfin, le procédé devra aussi passer par des études de sûreté et d’autres étapes de qualification qui nécessiteront des travaux de R&D complémentaire


[1] En présence de radioéléments simulés : Césium, Cérium, Néodyme

 

 

Hydrogène natif en Lorraine : l’hypothèse d’un gisement hors norme se dessine entre promesse et prudence

À Pontpierre, à une quarantaine de kilomètres à l’est de Metz, une plate-forme de forage d’environ 41 mètres de haut a été installée pour le programme Regalor II, piloté par La Française de l’Énergie avec l’appui du laboratoire GeoRessources du CNRS et de l’Université de Lorraine. Fin janvier 2026, des tiges avaient atteint 2 600 mètres, l’objectif étant de poursuivre vers 4 000 mètres au cours de février, afin d’explorer plus profondément un hydrogène dit blanc ou natif, dissous dans les eaux souterraines.

L’enjeu dépasse la simple curiosité scientifique, certains acteurs évoquant un gisement potentiellement unique au monde. Un responsable de La Française de l’Énergie présente notamment ces travaux comme la suite d’une découverte pouvant correspondre à la plus grosse réserve d’hydrogène naturel au monde. De même, une estimation issue du programme Regalor évoque un ordre de grandeur d’environ 34 millions de tonnes pour le gisement lorrain, ce dernier étant présenté comme s’étendant aussi au-delà des frontières françaises.

Cette perspective est précisément ce qui rend le dossier extraordinaire, mais aussi ce qui impose de rappeler où se situe la frontière entre potentiel et certitude. L’IFPEN, dans un cadre plus institutionnel, souligne que l’hydrogène natif suscite un intérêt stratégique, tout en s’inscrivant dans une logique d’exploration et d’évaluation, avec des questions ouvertes sur les conditions d’exploitation.

Des mesures intrigantes, une hypothèse de système actif

Le fil scientifique de l’histoire se joue à Folschviller, autre point clé du bassin minier. Le Journal du CNRS relatait en 2023 qu’une sonde avait permis, fin 2022, d’établir un profil de concentrations et d’observer une hausse marquée de l’hydrogène avec la profondeur, passant d’environ 0,1 % à 200 mètres à des valeurs dépassant 15 % vers 1 100 mètres, un niveau présenté comme inédit dans ce type de mesures. Les chercheurs cités par le CNRS expliquaient cette présence par des réactions physico-chimiques dans le sous-sol, notamment des réactions impliquant l’eau et des minéraux. Ils évoquaient l’idée d’une production continue. Si cette hypothèse était confirmée, elle changerait la nature même du débat, puisqu’il ne s’agirait pas seulement d’un stock, mais possiblement d’un système alimenté.

C’est aussi ce qui nourrit l’enthousiasme. Le Journal du CNRS employait explicitement un conditionnel fort, en expliquant que si la découverte était validée, elle pourrait aider la transition vers des sources d’énergie plus propres. Cette formulation reflète l’état des connaissances à ce stade, avec d’un côté des signaux jugés remarquables, de l’autre la nécessité de passer des indices à une compréhension robuste du mécanisme et des volumes mobilisables.

La marche vers l’exploitabilité, entre verrous techniques et débat local

Regalor II vise justement à descendre beaucoup plus bas que la campagne précédente, arrêtée autour de 1 300 mètres. L’objectif est de se rapprocher de ce que Jacques Pironon, directeur de recherche au CNRS, coordinateur scientifique du programme Regalor au laboratoire GeoRessources, appelle la source, ou la « cuisine de l’hydrogène ». Cela permettrait notamment de mieux comprendre comment l’hydrogène se forme. Une hypothèse discutée en Lorraine estime à ce sujet que les veines de charbon et leur évolution pourraient jouer un rôle dans la génération de gaz, même si le mécanisme exact reste à documenter.

L’exploitation, si elle devait un jour être envisagée, se heurte aussi à une réalité souvent moins visible dans les récits très optimistes, celle du milieu. Le rapport scientifique diffusé par le ministère de la Transition écologique rappelle que l’hydrogène natif peut être lié à des systèmes complexes et que l’exploration et la caractérisation doivent intégrer les incertitudes, ainsi que les enjeux environnementaux. Dans le cas lorrain, l’hydrogène recherché est dissous dans des eaux souterraines, ce qui pose, par nature, des questions de méthodes, de volumes d’eau concernés et de gestion du milieu.

Le débat local existe déjà. Des associations appellent à la vigilance sur la ressource en eau, en rappelant qu’un précédent projet de l’industriel autour du gaz de couche avait été stoppé par le Conseil d’État, au nom d’un risque jugé trop élevé pour les eaux souterraines. L’extraordinaire promesse d’un hydrogène naturel abondant ne peut donc avancer qu’avec des preuves, des protocoles et un cadre d’acceptabilité.

Enfin, il faut distinguer les récits. Davidson consulting, une entreprise de conseil en management et d’expertise technologique reprend, à son niveau, une version spectaculaire, évoquant 46 millions de tonnes et une valorisation chiffrée, avec un ton volontairement enthousiaste. Ce type de publication témoigne de l’écho de la découverte, mais les éléments structurants pour juger du potentiel restent ceux documentés par les équipes de recherche et les organismes publics, qui insistent sur la validation, la compréhension géologique et les conditions de passage à l’échelle.

Transformer le PE en un nouveau polymère

Le polyéthylène (PE) est le plastique le plus fabriqué dans le monde, à hauteur de 150 millions de tonnes par an, sous différents grades, car il est produit de multiples manières. « Pour l’instant nous n’arrivons pas à nous en débarrasser ni à le recycler. Et il n’est pas intéressant de revenir au monomère parce qu’il ne coûte pas très cher et que le processus de déconstruction est très énergivore et requiert des catalyseurs onéreux », explique Daniel Taton, chercheur au Laboratoire de chimie des polymères organiques (CNRS/Université de Bordeaux/Bordeaux INP). Ce dernier et son équipe, en partenariat avec les chercheurs et chercheuses en chimie organique, se sont attaqués à ce problème en proposant de fonctionnaliser quelques unités dans les chaînes de polymères pour en modifier les propriétés.

Une réaction de photonitrosation

« Nous employons une réaction de photonitrosation amorcée par la lumière. Nous ajoutons un précurseur de monoxyde d’azote qui va venir se fixer sur le PE. Cette réaction était déjà connue sur de petites molécules, mais notre innovation se trouve justement dans son application à des PE. Notre autre apport réside dans la longueur d’onde de la lumière utilisée, habituellement les UV très énergétiques et par conséquent peu sélectifs. Dans notre cas, nous avons utilisé un photosensibilisateur fonctionnant dans le domaine du visible. Le processus est particulièrement sélectif et s’avère moins énergivore », explique Yannick Landais, enseignant-chercheur à l’Institut des sciences moléculaires (CNRS/Bordeaux INP/Université de Bordeaux). Cette réaction est également possible par voie thermique, en l’absence de lumière, dans des conditions plus proches de celles de l’industrie. Le PE est ainsi fondu dans une extrudeuse autour de 120°C. Y est ajouté le même précurseur de monoxyde d’azote que précédemment. L’atmosphère au sein de l’extrudeuse est un facteur clé. En présence d’air des fonctions carbonyles sont incorporées sur le PE. Sous atmosphère d’azote, on retrouve les fonctions oximes générées sous conditions photochimiques. « Pour l’instant nous sommes capables de produire ces nouveaux matériaux, mais nous ne savons pas comment les utiliser. Nous devons encore montrer qu’ils possèdent une vraie valeur ajoutée dans les années qui viennent. Notre idée est vraiment de transformer les déchets pour les convertir en ressources plutôt que de les brûler », développe Daniel Taton.

Trouver une valeur ajoutée

Les équipes de l’ISM et du LCPO viennent de déposer deux brevets. Mais les études se poursuivent, notamment afin d’optimiser les conditions d’extrusion pour une montée en échelle. « Nous cherchons également à savoir si nous sommes capables de traiter des mélanges de polymères. Les additifs présents dans les matériaux plastiques constituent un vrai casse-tête pour les recycleurs », ajoute Yannick Landais. Ils réfléchissent aussi à d’autres agents de fonctionnalisation que le nitrite de tertio-butyle pour adapter la réaction à différents polymères comme le polypropylène et augmenter le taux de sélectivité. « Une fois que notre polymère est fonctionnalisé, il devient polaire et peut-être pourrait-il ainsi être compatibilisé avec un autre polymère », espère Daniel Taton.

Mais comme dans la plupart des développements technologiques destinés à recycler le plastique, les équipes sont confrontées à un problème majeur : le prix du plastique vierge étant bas, les polymères recyclés doivent avoir une forte valeur ajoutée pour être rentables. « Il persiste aussi une défiance des consommateurs, et de la société en générale, qui ont du mal à accepter de réutiliser ce qui a été un déchet. Sans compter le “recyclage bashing”. Il est certain qu’il faut produire moins de plastique, mais cela n’empêche pas d’investir dans des sujets d’innovation pour le traitement de ces polymères. Nous n’allons pas traiter tous les gisements, mais uniquement certaines niches », conclut Daniel Taton.

Pourquoi l’Europe peine à faire émerger ses champions technologiques

L’Europe dispose d’un vivier de start-ups dynamique, d’universités de rang mondial et d’une recherche scientifique reconnue. Pourtant, elle peine toujours à faire émerger des champions technologiques capables de rivaliser avec les géants américains ou asiatiques. C’est le constat central du rapport remis par Christian Noyer, gouverneur honoraire de la Banque de France, et Jörg Kukies, ancien ministre allemand des Finances, dans le cadre de l’initiative franco-allemande FIVE (Financing Innovative Ventures in Europe).

Au cours des cinquante dernières années, l’UE n’a produit aucune entreprise technologique valorisée à plus de 100 milliards d’euros, quand les États-Unis en comptent au moins une dizaine. Cette faiblesse pèse à la fois sur la productivité, l’investissement et la souveraineté économique du continent. Selon le rapport, l’écart de productivité entre la zone euro et les États-Unis atteint désormais près de 20 %, un différentiel largement imputable au secteur technologique.

Le problème majeur réside dans la difficulté de ces jeunes entreprises à franchir le cap de la croissance à grande échelle, entre innovation éprouvée, production industrielle et déploiement international. Si l’Europe sait créer des start-ups, elle peine à les financer dans leurs phases de développement rapide, lorsque les besoins en capitaux augmentent fortement. Les investissements en capital-risque restent inférieurs à ceux des États-Unis, poussant de nombreuses entreprises à chercher des financements à l’étranger, à se coter sur des marchés non européens, voire à déplacer leur centre de décision.

Ce déficit de financement trouve ses racines dans plusieurs facteurs structurels. Le premier est l’absence de volumes importants de capitaux investis à long terme. Contrairement aux États-Unis, l’Europe repose majoritairement sur des systèmes de retraite par répartition, qui génèrent peu de capitaux disponibles pour financer l’innovation. Les actifs de retraite par capitalisation représentent environ 25 % du PIB européen, contre 150 % aux États-Unis. Les investisseurs institutionnels, en particulier les assureurs, restent par ailleurs très prudents, orientant leurs portefeuilles vers des actifs peu risqués.

À cette contrainte financière, s’ajoute la fragmentation des marchés de capitaux. Les marchés actions européens manquent de profondeur, les introductions en bourse y sont en recul et les infrastructures de marché demeurent éclatées. La fragmentation réglementaire du marché unique complique enfin l’expansion transfrontalière des entreprises, qu’il s’agisse du droit des sociétés, de la fiscalité ou des dispositifs d’actionnariat salarié.

Une feuille de route en cinq axes pour combler le déficit de financement

Face à ce constat, le rapport formule cinq axes de réforme prioritaires. Il appelle d’abord à une modernisation ambitieuse des systèmes de retraite complémentaires afin de mobiliser davantage d’épargne longue vers le financement des entreprises innovantes. Il propose ensuite de généraliser, à l’échelle européenne, des initiatives publiques inspirées des programmes français Tibi et allemand WIN, qui visent à inciter les investisseurs institutionnels à orienter une part de leurs capitaux vers le capital-risque et le capital-croissance.

Les auteurs plaident également pour un renforcement du rôle des banques publiques d’investissement, à travers une nouvelle phase de l’European Tech Champions Initiative (ETCI), un dispositif européen associant capitaux publics et privés pour soutenir l’émergence de grands fonds de financement. Ils appellent par ailleurs à une meilleure coordination transfrontalière des investissements publics. Autre proposition structurante : la création d’un 28ème régime de droit des sociétés, entièrement harmonisé au niveau européen, afin de faciliter le financement et le changement d’échelle des entreprises innovantes sur l’ensemble du marché unique.

Enfin, le rapport souligne l’urgence de rendre les marchés actions européens plus attractifs, en allégeant temporairement les contraintes réglementaires pesant sur les entreprises nouvellement cotées et en travaillant à l’émergence d’un véritable marché boursier européen de l’innovation, comparable au Nasdaq américain.

Au-delà du financement, le message est clair : sans action rapide et coordonnée, l’Europe risque de voir ses innovations, ses talents et sa création de valeur partir à l’étranger. Le rapport Noyer-Kukies trace ainsi une feuille de route ambitieuse pour transformer le potentiel technologique européen en puissance économique durable.

Peut-on protéger l’économie européenne sans protectionnisme ?

Le protectionnisme vise à favoriser les entreprises et travailleurs nationaux par la mise en place de normes spécifiques, de quotas d’importation ou de droits de douane. Mais cette stratégie n’est pas sans danger pour les pays qui l’adoptent, car elle peut pénaliser les consommateurs, l’investissement et l’innovation.

À l’inverse, le libre-échange permet d’augmenter les débouchés internationaux et bénéficie au consommateur. Néanmoins, cette doctrine a aussi des inconvénients : elle peut favoriser la concurrence déloyale (dumping) et provoquer des déséquilibres commerciaux.

Or, c’est exactement ce qu’il se passe dans le cas de la Chine. Lors de sa visite officielle à Pékin, jeudi 4 décembre, Emmanuel Macron mettait ainsi en garde : « Le déficit du reste du monde vis-à-vis de la Chine est en train de devenir insoutenable. »

Ce déséquilibre économique menace en effet la stabilité du système commercial mondial et provoque des tensions géopolitiques, tandis que la stratégie américaine protectionniste, visant à imposer des droits de douane massifs pour se protéger, ne fait qu’aggraver ces tensions.

Mais si le protectionnisme « pur et dur » n’est pas une solution souhaitable, peut-être est-il temps de trouver des solutions intermédiaires !

Protéger sans protectionnisme généralisé

Selon le ministre de l’Industrie, « les institutions européennes doivent passer d’une logique de gestion d’un marché intérieur à une véritable protection de celui-ci ». En revanche, il suggère à l’UE de « protéger quelques secteurs stratégiques, et non de basculer dans un protectionnisme généralisé, comme le fait Donald Trump ».

On pourrait donc qualifier cela de protectionnisme partiel, ce serait en quelque sorte une protection proportionnée, une idée qui n’est d’ailleurs pas nouvelle, puisqu’elle était déjà avancée dans une tribune de l’Institut Jacques Delors, en 2017, sobrement intitulée « Protéger sans protectionnisme ? »

Concrètement, cela impliquerait de renforcer « les moyens consacrés à l’analyse des pratiques de concurrence déloyale et au traitement de dossiers antidumping », selon le ministre, mais aussi d’affirmer plus clairement la préférence européenne pour un large éventail de secteurs.

Cette préférence européenne, dont Emmanuel Macron a rappelé la nécessité lors de son discours à Davos pour résister à la « loi du plus fort », fera d’ailleurs partie d’un texte majeur pour l’industrie : l’Industrial Accelerator Act, qui est actuellement en préparation par la Commission européenne.

Néanmoins, le projet de loi sur l’accélération industrielle tarde à se concrétiser. Initialement prévue en décembre, sa présentation avait été repoussée au 29 janvier et de nouveau reportée au 25 février 2026 à cause de désaccords entre États membres, notamment autour de la filière automobile.

Les trois principaux équipementiers automobiles français (Valeo, Forvia et Opmobility) souhaiteraient, par exemple, que ce texte impose au moins 75 % de contenu local pour les véhicules produits en Europe. Or, l’Allemagne combat une telle mesure, susceptible d’alourdir les coûts d’approvisionnement des constructeurs.

Compte tenu des difficultés à s’entendre filière par filière, il est donc clair que l’Europe ne basculera pas dans un protectionnisme outrancier et généralisé. L’Europe tient fermement au libre-échange et l’accord historique qui vient d’être signé entre l’UE et l’Inde en est probablement la meilleure preuve.

Dunkerque, une ville à l’avant-garde dans l’industrie énergétique

Lors de sa conférence de presse annuelle, le 20 janvier dernier, Dunkerque-Port a dévoilé les deux entreprises lauréates de l’Appel à Manifestation d’Intérêt (AMI) : Technip Énergies, spécialisée dans les infrastructures énergétiques et Tepsa, opérateur dans le stockage de liquides en vrac. Les projets sélectionnés prendront place au sein d’un espace de 23 hectares dont une grande part (20 hectares) correspond au terrain qui fut autrefois occupé par la raffinerie SRD[1].

Une reconversion industrielle qui permettra de redynamiser le territoire Dunkerquois fortement touché par la désindustrialisation. En investissant un montant estimé à 1,7 milliard d’euros, Dunkerque-port espère des retombées concrètes pour l’économie locale notamment en matière d’emploi. Alors qu’il y a dix ans, la fermeture de la raffinerie SRD avait provoqué la perte de 111 emplois, la promesse de la création d’environ 300 nouveaux emplois équivalent temps plein (ETP) sur le même emplacement revêt une dimension symbolique. En outre, le trafic maritime devrait bénéficier de ces projets en atteignant entre 1 et 1,2 million de tonnes par an.

Deux projets complémentaires

L’entreprise Technip Énergies a été retenue pour développer une unité de production de carburant d’aviation durable (SAF) à partir d’éthanol de seconde génération[2]. Le spécialiste prévoit une capacité annuelle de 160 000 tonnes.

Le second projet, porté par l’entreprise Tepsa, vise à développer une nouvelle plateforme logistique énergétique. Reposant sur la construction d’un terminal import-export de vracs liquides, cette plateforme offrira également des capacités de stockage dédiées aux filières des énergies renouvelables pour un volume total d’environ 145 000 m³.

Les deux projets ne sont pas indépendants l’un de l’autre : la plateforme créée par Tepsa assurera toute la logistique de Technip Énergies.

Le secteur énergétique, levier du dynamisme industriel à Dunkerque

Troisième port français avec un trafic s’élevant à 48 millions de tonnes en 2025 (un chiffre en progression de 5 % par rapport à 2024), le port de Dunkerque est en pointe dans le secteur énergétique. Un positionnement qui lui permet de revitaliser le tissu industriel de la région.

En témoigne le Projet D’Artagnan, porté conjointement par Air Liquide et Dunkerque LNG. Ce projet se caractérise par la création d’un réseau de canalisations et d’un terminal dédié à la réception, la liquéfaction, le stockage et l’expédition du CO2 vers des sites de séquestration en mer du Nord.

La filière des voitures électriques est également bien représentée avec l’inauguration par Verkor, le 11 décembre dernier, de la première Gigafactory opérationnelle sur le territoire dunkerquois. C’est la troisième Gigafactory de la région Hauts-de-France qui est qualifiée de « vallée de la batterie ». Une inauguration qui précède le démarrage des travaux de la Gigafactory du Taïwanais ProLogium.

Quant au recyclage des métaux critiques issus des batteries électriques, le Groupe SUEZ porte un projet de site industriel qui devrait être implanté sur le territoire portuaire.

Enfin, la centrale nucléaire de Gravelines constitue un véritable pilier pour la région : en 2024, elle a contribué à l’équivalent de 70 % de la consommation des Hauts-de-France. Un apport qui sera renforcé avec non seulement la prolongation de la durée de vie des six réacteurs existants mais aussi avec l’implantation de deux nouveaux réacteurs EPR2.

Notons qu’en novembre 2026, Dunkerque va accueillir un rendez-vous important qui devrait lui offrir une visibilité internationale : le Congrès mondial des villes portuaires de l’AIVP[3].


[1] Société de la Raffinerie de Dunkerque

[2] Fabriqué non pas à partir de culture alimentaire mais de biomasse forestière

[3] Association internationale des villes portuaires

Des champignons pour recycler le polystyrène ?

Malgré sa présence importante dans notre quotidien à travers les pots de yaourt, les barquettes alimentaires ou l’isolation, le polystyrène n’est pourtant recyclé qu’à 5 % en France. Le reste finit à l’incinération. Pour pallier ce problème, des chercheuses et chercheurs marseillais ont eu l’idée d’utiliser des enzymes présentes dans les champignons pour les dégrader. « Nous nous intéressons depuis plus de 30 ans aux capacités des champignons à détériorer la biomasse végétale comme le bois et à comprendre leur biologie pour s’en inspirer pour les biotechnologies. Les applications ont pendant longtemps été la conversion de la biomasse végétale en glucose pour faire de la fermentation, du bioéthanol ou des molécules biosourcées. Aujourd’hui nous voulons exploiter le potentiel des champignons qui dégradent naturellement des polymères récalcitrants tels que la lignocellulose pour détériorer des polymères dits synthétiques, tels que les plastiques », explique Bastien Bissaro, chercheur au laboratoire Biodiversité et biotechnologie fongiques (INRAE / Aix Marseille Université).

Émulsionner le polystyrène

Les champignons fonctionnent comme des estomacs inversés : ils sécrètent une grande quantité d’enzymes vers l’extérieur pour détériorer des substrats volumineux et complexes, avant d’internaliser le produit de la dégradation. Le laboratoire marseillais a développé une forte expertise sur ces enzymes, les oxydases. « L’une de ces oxydases, les laccases, a la fonction d’oxyder la lignine, c’est-à-dire les fibres du bois. Elles ont donc une chimie oxydative très puissante capable d’attaquer des molécules complexes », ajoute le chercheur. Afin de parvenir à dégrader le polystyrène, le laboratoire marseillais s’est allié avec des chercheurs (Prof. Daniel Taton et Dr. Manon Pujol) du laboratoire de chimie des polymères organiques (LCPO ; CNRS/Bordeaux INP/Université de Bordeaux), les deux laboratoires appartenant au réseau des instituts Carnot. L’objectif ? Trouver une solution pour amener le polystyrène à la croisée de la biologie des champignons et de la chimie des polymères.

Au début, les équipes ont essayé de dégrader le polystyrène directement avec les laccases, mais cela n’a pas fonctionné. Par la suite, ils testent la dégradation en ajoutant un médiateur avec un potentiel redox important pour oxyder le PS, mais cela ne suffit pas. « Nous avons formulé le PS pour le rendre plus dégradable ab initio. C’est-à-dire que nous avons formulé le PS en nanoparticules, pour en faire une émulsion et ainsi augmenter la surface d’échange entre le PS et l’enzyme. Et cette méthode fonctionne très bien, nous avons 99 % de dépolymérisation, une première mondiale ! », se félicite Bastien Bissaro. Cette émulsion n’est pas la façon la plus commune de produire du PS. C’est pourquoi les chercheurs et chercheuses ont par la suite travaillé avec du PS plus couramment utilisé, qu’ils ont émulsionné a posteriori. « Dans ce cas de figure, la dégradation est moins bonne. Nous avons plusieurs hypothèses : nous pensions que lorsque nous réalisons l’émulsion, nous ne contrôlons pas aussi bien les paramètres que lors de la synthèse ab initio. Le résultat est plus hétérogène et les propriétés ne sont pas totalement maîtrisées », ajoute Bastien Bissaro.

Décycler plutôt que recycler

Malgré un procédé prometteur, les chercheurs et chercheuses ne parviennent pas encore à revenir au monomère initial, le styrène. La synthèse permet d’obtenir des oligomères, dont l’usage n’est pas déterminé. « Le problème des polyoléfines comme le polystyrène, le polyéthylène, le polypropylène ou le PVC, c’est que ce sont des molécules saturées. Lors d’une oxydation vont être insérés des atomes d’oxygène au moment de la coupure. Ils vont empêcher un retour au monomère. Nous arrivons ainsi à produire du benzaldéhyde qui a une haute valeur ajoutée, mais cela ne compte plus comme du recyclage, mais du décyclage », précise Bastien Bissaro. Comparé à des procédés chimiques ou photocatalytiques, le décyclage enzymatique proposé ici se fait en condition aqueuse et à faible température, entre 30°C et 40°C, de quoi réduire l’usage de composés polluants (métaux, solvants organiques) et les émissions de gaz à effet de serre. « Le décyclage peut cependant être critiqué parce qu’il ne contribue pas à diminuer la surproduction mondiale de plastique. S’il faut bien sûr diminuer l’utilisation du plastique quand c’est possible, cela n’est pas toujours faisable. Il faut le remplacer quand on le peut, mais aussi le recycler ou le décycler lorsqu’il ne reste que cette solution », conclut le chercheur.

Les actualités à suivre : Avion de chasse européen, PPE, Verkor…

SCAF : l’avion du futur à l’épreuve du partage industriel

Le SCAF vise un « système de systèmes » (NGF, drones et combat cloud) pour préparer l’après-2040. Après des mois de frictions sur la gouvernance et le partage industriel, une décision commune est annoncée dans les prochaines semaines.

Au cœur du nœud des réflexions actuelles, une question : qui tient le rôle d’architecte et d’intégrateur entre Dassault Aviation et Airbus Defence and Space, et avec quelles règles de décision ? En parallèle, l’idée d’un SCAF plus « réduit » – en priorisant le combat cloud – refait surface.

La base industrielle existe : la phase 1B (3,2 Md€) cadre la démonstration, mais ne règle pas le « qui fait quoi » du futur contrat. Dans les jours qui viennent, les prises de parole sur la gouvernance du projet devraient se multiplier.

Côté industrie, les alertes sur le rythme et la lisibilité du programme continuent d’alimenter le débat public.

Dans les semaines à venir, le jalon opérationnel est de rouvrir une trajectoire vers la Phase 2, avec financement, workpackages et propriété intellectuelle clarifiés.

Et il faudra compter avec Indra Sistemas, qui pousse pour rester un acteur structurant du triptyque, comme le montre cette séquence côté espagnol.

Publication imminente de la PPE ?

Si Matignon promet une publication « imminente » de la PPE 3 (2025-2035), il reconnaît également que le calendrier reste à préciser, après une séquence politique qui a décalé l’arbitrage nucléaire/EnR.

Pour les industriels, l’enjeu est immédiat : sans décret, difficile de verrouiller des CAPEX (réseau, chaleur, EnR, nucléaire, hydrogène) et d’éviter le « stop-and-go » sur les chaînes d’approvisionnement.

En toile de fond, RTE a recalé le cadrage : son Bilan prévisionnel 2025-2035 met l’accent sur l’électrification des usages et la trajectoire de demande à 2035.

Côté cohérence climat, le Haut Conseil pour le climat a déjà balisé les points durs (robustesse, crédibilité des trajectoires) dans son avis sur la PPE 3.

Dans les prochains jours, le signal attendu est simple : une date de présentation et la séquence de signature/publication au Journal officiel, annoncée pour le début 2026.

Dans les semaines suivantes, la PPE devra se traduire en actes, avec la relance des appels d’offres (dont l’éolien en mer) et la sécurisation des trajectoires pour les filières, aujourd’hui en attente.

Autre point de vigilance, la SNBC 3, dont une version « ultime » est annoncée avant adoption par décret au printemps 2026, ce qui conditionnera la solidité d’ensemble du paquet énergie-climat.

Sur le terrain, la CNDP continue de documenter l’acceptabilité et la méthode, via ses bilans de concertation.

Verkor : Une montée en cadence à suivre

Inaugurée le 11 décembre 2025 à Bourbourg près de Dunkerque, la gigafactory Verkor s’apprête à franchir ses premières étapes critiques. Avec une capacité initiale de 16 GWh par an et environ 600 salariés déjà en poste, l’usine entre maintenant dans sa phase la plus délicate : la production industrielle.

Les premières batteries commerciales sortiront sous peu, pour équiper l’Alpine A390 de Renault, actionnaire à 10 % du capital, avec un défi immédiat : optimiser les cadences et réduire le taux de perte dans la production de cellules lithium-ion, où le moindre défaut peut envoyer un module de 32 kilos au rebut.

Selon Verkor, « l’essentiel du ramp-up industriel se jouera fin 2026 et continuera en 2027-2028 ». L’objectif à terme : atteindre 1 200 emplois directs et produire des batteries pour 300 000 véhicules par an, puis passer à 50 GWh de capacité d’ici 2030.

Troisième gigafactory de la « vallée de la batterie » des Hauts-de-France, Verkor doit maintenant prouver sa capacité à rivaliser avec les géants asiatiques, dans un contexte de marché européen du véhicule électrique moins dynamique que prévu.

Industrie automobile européenne : une année 2026 capitale

L’industrie automobile européenne affronte plusieurs échéances majeures en 2026. Janvier marque l’application de la norme Euro 6e aux premières immatriculations. Le 29 novembre prochain, Euro 7 entrera en vigueur pour les nouvelles homologations, intégrant pour la première fois les émissions des pneus et freins.

Tout au long de cette année, les constructeurs vont bénéficier d’une période de grâce sur les émissions CO₂ : leur conformité sera calculée sur trois ans (2025-2027), évitant des amendes de plusieurs milliards. Parallèlement, 2026 verra se négocier la révision de l’interdiction des thermiques en 2035, avec en jeu la place des carburants de synthèse et la protection de l’industrie européenne face à la concurrence chinoise.

Les dates clés du secteur aérospatial pour les mois à venir

En 2026, le spatial entre en mode cadence : vols habités, montée en puissance des lanceurs européens et missions lunaires/planétaires qui redessinent les priorités industrielles.

  • Début février 2026 : fenêtre de tir d’Artemis II – première mission habitée du programme, avec une opportunité « au plus tôt » le 8 février et des reports possibles sur mars/avril selon essais et météo.
  • 12 février 2026 : prochain vol d’Ariane 6 ; dans le même temps, l’Europe verrouille le retour à une capacité souveraine pour Galileo.
  • Avril 2026 : SMILE ouvre une séquence chargée ; l’ESA vise cinq vols Vega-C en 2026, un test grandeur nature de la « normalisation » de la filière.
  • Mai 2026 : sur la route de l’astéroïde, la mission Psyche réalise un survol gravitationnel de Mars (fenêtre annoncée en mai, date exacte dépendante de la trajectoire).
  • Août 2026 : la Chine vise le pôle Sud lunaire avec Chang’e-7 (orbiteur + atterrisseur + rover + « hopper »), attendu comme jalon clé vers une présence robotique durable.
  • Février puis octobre/novembre 2026 : la mission de défense planétaire Hera enchaîne une manœuvre majeure puis un rendez-vous avec le système d’astéroïdes Didymos pour « l’après-DART ».

La capacité à tenir ces jalons (essais cryogéniques, disponibilité pas de tir, supply chain) sera le meilleur indicateur 2026 de la robustesse industrielle du secteur.

L’intelligence artificielle : le super assistant de la médecine

Nous sommes de plus en plus nombreux à utiliser l’intelligence artificielle (IA) pour tout et n’importe quoi. Selon une étude du cabinet Resoneo, qui a analysé les requêtes sur ChatGPT, on apprend que près de la moitié (48,3 %) sont des questions factuelles. Cela devient un réflexe, comme nous le faisions auparavant avec Google. Simple et rapide.

Mais, la vraie révolution de l’IA se cache ailleurs. Et, en particulier dans le domaine de la santé et de la médecine. L’apport le plus visible de l’IA se situe dans l’imagerie médicale. Aujourd’hui, des algorithmes de « deep learning » (apprentissage profond) analysent des milliers de scanners, d’IRM ou de biopsies avec une acuité dépassant parfois l’œil humain.

Le meilleur spécialiste peut passer à côté d’un détail parce qu’il est fatigué ou moins concentré. L’IA n’est jamais fatiguée, même à 3 heures du matin !

L’IA excelle aussi dans l’analyse des signaux faibles. En surveillant en temps réel les constantes vitales des patients hospitalisés, elle peut prédire un arrêt cardiaque ou un choc septique plusieurs heures avant qu’il ne survienne, offrant aux soignants une fenêtre d’intervention salvatrice.

La découverte de médicaments profite aussi de l’IA. Traditionnellement, le développement d’un nouveau médicament est un parcours du combattant : 10 à 15 ans de recherche et un coût moyen de 2 milliards d’euros, avec un taux d’échec avoisinant les 90 % lors des essais cliniques.

L’IA change radicalement la donne en intervenant à trois niveaux clés. Grâce à des outils comme AlphaFold (Google DeepMind), l’IA a réussi à prédire la structure de presque toutes les protéines connues. Cette cartographie permet aux chercheurs de comprendre immédiatement où et comment un médicament pourrait se fixer.

Au lieu de tester des milliers de molécules existantes par hasard, l’IA utilise la conception générative. On indique à l’algorithme les propriétés souhaitées (toxicité faible, haute solubilité, efficacité ciblée), et celui-ci « invente » des structures chimiques inédites.

La vigilance du médecin

L’IA permet de créer des jumeaux numériques de patients. En simulant la réaction d’un organisme virtuel au traitement, les chercheurs peuvent prédire les effets secondaires et affiner les dosages avant même d’administrer la substance à un humain, réduisant ainsi les risques et les coûts.

Et l’IA permet de passer plus rapidement aux essais sur des personnes. Des entreprises, comme Insilico Medicine, ont déjà fait passer des molécules conçues par IA en phase d’essais humains en un temps record (moins de 18 mois).

Début janvier 2026, cette biotech américaine a annoncé l’administration de la première dose au premier patient dans le cadre d’un essai clinique pour traiter les maladies inflammatoires chroniques de l’intestin.

La révolution de l’intelligence artificielle soulève également des préoccupations concernant la protection des données et la fiabilité des réponses. Comment garantir que ces informations ultra-sensibles ne soient pas détournées ni piratées ? Les données de santé intéressent de plus en plus les cybercriminels, car elles présentent une valeur importante sur le dark web.

En septembre dernier, Inovie Labosud a été victime d’une cyberattaque. Parmi les données compromises, on trouve des informations personnelles, des coordonnées et certaines données médicales issues des analyses réalisées dans les laboratoires du Sud de la France.

Les questions éthiques entourant les données de santé sont complexes. À qui appartiennent vos données de santé ? À vous, à l’hôpital qui les a collectées, ou à l’entreprise de technologie qui les analyse ?

De plus, l’IA pose le défi de la « boîte noire ». Si un algorithme pose un diagnostic, le médecin doit être capable d’en comprendre le raisonnement pour le valider. L’IA ne doit pas supplanter le praticien. C’est à lui d’être vigilant…

Revue du Magazine d’Actualité #62 du 26 au 30 janvier

Les matériaux et l’énergie restent les fils rouges, avec des innovations qui cherchent la preuve par le réel.

🧪 MATÉRIAUX & SANTÉ

Suspens met les composites biosourcés et recyclables à l’épreuve du réel

Le projet européen Suspens développe des matériaux composites issus de ressources biologiques et intégrant le recyclage dès la conception. Trois démonstrateurs testent ces matériaux dans l’automobile, le nautisme et l’aéronautique, avec un objectif clair : prouver leur performance et réduire fortement l’impact environnemental.

🌱 Composites biosourcés en démonstrateurs

Chimie computationnelle : Qubit Pharmaceuticals franchit un cap sur le chemin du développement de médicaments ciblant l’ARN

Qubit Pharmaceuticals met au point une méthode de simulation très précise pour étudier les interactions entre l’ARN et de petites molécules thérapeutiques. Grâce à une combinaison avancée de calcul scientifique et d’intelligence artificielle, cette approche ouvre la voie à de nouveaux traitements pour des maladies complexes.

🧬 Plonger dans l’ARN : modélisation de précision

⚡ ÉNERGIE & ENVIRONNEMENT

La décarbonation du transport maritime à l’épreuve des rapports de force internationaux

L’Organisation maritime mondiale prépare une trajectoire de réduction des émissions, mais les désaccords entre grandes puissances ralentissent l’adoption d’un cadre commun. L’enjeu est majeur : éviter une multiplication de régulations régionales et instaurer une stratégie mondiale cohérente pour un secteur essentiel au commerce international.
🚢 Cap climat : objectifs OMI et bras de fer

Un « velcro moléculaire » qui améliore la durabilité des cellules photovoltaïques

Des chercheurs conçoivent une couche protectrice innovante qui renforce la stabilité des cellules solaires à pérovskite. Cette structure moléculaire agit comme un véritable point d’ancrage et permet de maintenir un haut niveau d’efficacité malgré la chaleur et la lumière intense.
Photovoltaïque pérovskite : durabilité au rendez‑vous

💻 NUMÉRIQUE & INDUSTRIE

Catalyser la découverte de catalyseurs grâce à l’IA : Realcat et Entalpic en passe de relever le défi

La plateforme Realcat et la société Entalpic unissent leurs compétences pour accélérer la création de nouveaux catalyseurs. Leur ambition est de réduire drastiquement les temps de découverte grâce au criblage automatisé et à l’intelligence artificielle, avec un impact direct sur la transition industrielle.
🤖 Catalyse & IA : criblage accéléré

🏢 INDUSTRIE & SOCIÉTÉ

Plasturgie et composites : bilan contrasté et perspectives prudentes pour 2026

La filière plasturgie se stabilise difficilement après deux années de ralentissement. Les entreprises souffrent d’une demande affaiblie et d’une rentabilité en recul, malgré la progression du recyclage et la vigueur du marché des composites. Les acteurs misent sur une année 2026 de transition plus que de croissance.
🏭 Filière sous tension : prudence 2026

Accord UE‑Inde, une opportunité d’export qui recompose la filière française

L’Union européenne et l’Inde finalisent un accord commercial majeur qui réduit fortement les droits de douane. Les exportations européennes gagnent en compétitivité, mais l’industrie française voit l’Inde renforcer sa place dans les chaînes d’approvisionnement, créant une nouvelle dynamique industrielle.
🌍 Commerce UE–Inde : droits en baisse, chaînes en mouvement


👓 Bon week-end et bonne lecture

L’accord UE-Inde redistribue la concurrence industrielle

Le cœur de l’accord tient à la baisse des droits de douane et à l’ouverture progressive de secteurs longtemps considérés comme sensibles. L’ambition affichée côté européen est de doubler les exportations de biens vers l’Inde à l’horizon 2032 grâce à l’élimination ou la réduction des droits sur 96,6 % des biens échangés en valeur, pour un gain estimé à environ 4 milliards d’euros par an de droits économisés.

En face, l’UE prévoit des concessions tarifaires couvrant 99,5 % des échanges bilatéraux, avec une suppression immédiate des droits sur 90 % des biens indiens au lancement puis une extension à 93 % sous sept ans.

Automobile, machines, chimie, pharmacie, l’Inde desserre l’étau

La séquence la plus structurante concerne l’automobile, parce qu’elle combine droits élevés, quotas et calendrier. L’Inde abaisse des droits qui pouvaient atteindre 110 %, avec une entrée en vigueur à 30 ou 35 % sur plusieurs segments, sous quotas, puis une trajectoire vers 10 % selon un calendrier discuté entre les parties.

Les détails publiés évoquent aussi des exclusions importantes, notamment les véhicules sous un seuil de prix, l’absence de baisse hors quotas et l’absence de réduction sur certains kits assemblés.

Pour les industriels, l’effet ne se limite pas aux véhicules finis. Les paramètres de quotas et de montée en charge conditionnent les arbitrages sur la localisation, les partenariats et la profondeur d’intégration locale, tout en créant une fenêtre de négociation pour le transfert de technologies et l’accès à un marché où le premium reste une niche, mais attire l’attention des groupes européens.

Au-delà de l’automobile, l’Inde supprime ou réduit largement les droits sur une partie des importations industrielles en provenance de l’UE, notamment sur des familles comme les machines, les équipements électriques, des produits chimiques et la pharmacie, ce qui renforce l’intérêt du marché indien pour les fabricants de biens d’équipement et de chimie fine.

Côté agroalimentaire transformé, les concessions existent mais restent encadrées, avec des baisses sur des produits comme le vin et les spiritueux, et des garde-fous sur les produits les plus sensibles.

Exportations indiennes vers l’Europe, opportunités et friction réglementaire

Pour l’Inde, le gain immédiat tient à l’amélioration de l’accès au marché européen pour des secteurs exportateurs clés. Les droits sont appelés à tomber à zéro sur de nombreux postes, dont les produits de la mer, la chimie, les plastiques et caoutchoucs, le cuir et la chaussure, les textiles, l’habillement, des métaux de base, ainsi que les gemmes et la joaillerie.

L’effet est particulièrement visible dans le textile, où des exportateurs indiens expliquent compter sur l’accord UE-Inde après le choc des droits de douane américains, en misant sur la suppression des droits européens, dont un droit de 12 % sur les textiles mentionné dans les éléments publiés.

L’accord n’efface pas les contraintes de conformité. Les exigences de normes, de traçabilité et de conformité produit restent déterminantes dans la vitesse à laquelle les flux se réallouent. Le bénéfice tarifaire se matérialise en effet pleinement quand les entreprises maîtrisent la preuve d’origine, la documentation et la conformité réglementaire associée.

Un autre point de bascule concerne le carbone. L’UE maintient le mécanisme d’ajustement carbone aux frontières sans exemption spécifique, malgré les demandes indiennes, tout en ouvrant une discussion technique sur sa mise en œuvre.

Dans le même temps, il est prévu une enveloppe de 500 millions d’euros de soutien à la réduction des émissions en Inde et un contingent de 1,6 million de tonnes d’acier indien admis à droit nul, présenté comme environ la moitié des exportations indiennes vers l’UE.

Le signal est double. Les producteurs indiens obtiennent un sas d’accès, mais la contrainte carbone devient une variable industrielle structurante pour conserver le marché européen.

Sur l’agriculture enfin, l’accord a été calibré pour limiter les fronts politiques. Des produits agricoles sensibles ont été exclus et l’ouverture se fait avec des garde-fous, ce qui réduit le risque de contestation, mais limite aussi certaines opportunités commerciales.

Politique américaine, accélérateur et effets de bord pour les États-Unis

Pour les États-Unis, l’accord de libre-échange UE-Inde agit d’abord comme un révélateur de concurrence. En Inde, les entreprises européennes bénéficient d’une baisse rapide des droits de douane sur une part importante des échanges, d’un calendrier d’élimination ou de réduction sur la grande majorité des exportations de l’UE, et de règles douanières simplifiées, ce qui renforce leur position face à des acteurs américains qui restent soumis au régime tarifaire indien de droit commun.

Dans l’Union européenne, la suppression progressive de droits sur une large part des produits indiens améliore l’accès de ces exportations au marché européen et peut accroître la pression concurrentielle sur certains fournisseurs américains. Sur le plan politique, le même accord est présenté comme un moyen de sécuriser la relation économique UE-Inde dans un contexte de tensions avec Washington, ce qui réduit mécaniquement la capacité d’influence américaine sur ce binôme.

Par ailleurs, le texte ne modifie pas la logique du mécanisme d’ajustement carbone aux frontières, maintenu sans exemption par pays, ce qui écarte l’hypothèse d’un traitement de faveur qui aurait pu profiter indirectement aux États-Unis. Enfin, la logique affichée de chaînes de valeur plus résilientes et diversifiées renforce l’attractivité de l’Inde comme base industrielle tournée vers l’Europe, un facteur susceptible d’inciter Washington à accélérer sa propre discussion commerciale avec New Delhi.

À Washington, la signature de l’accord UE-Inde a été accueillie par une critique ouverte de l’exécutif américain. Le secrétaire au Trésor Scott Bessent a dit sa déception, en reprochant à l’Union européenne de privilégier l’ouverture commerciale avec New Delhi au détriment, selon lui, de la cohérence occidentale face à la Russie, notamment à cause des flux de produits raffinés en Inde à partir de brut russe qui alimentent ensuite le marché européen.

Le représentant au commerce Jamieson Greer a, de son côté, estimé à l’antenne de Fox Business que l’accord avantageait surtout l’Inde, en insistant sur le gain d’accès au marché européen et sur les dispositions de mobilité, tout en suggérant que l’UE persiste dans une mondialisation que Washington cherche au contraire à corriger.

Ces prises de position s’inscrivent dans un contexte où Bruxelles et New Delhi revendiquent un accord pensé pour sécuriser leurs échanges et réduire leur dépendance vis-à-vis des États-Unis.

En creux, la réaction américaine traduit une double inquiétude, la perspective d’un avantage compétitif européen en Inde et la crainte d’être marginalisé dans la redéfinition des chaînes de valeur entre l’Europe et l’Asie.

Gigafactories : quelle actualité en 2026 ?

Production de batteries dans les Hauts-de-France : mises en production en 2026

En 2023, Emmanuel Macron avait promis l’ouverture de cinq gigafactories permettant de produire 2 millions de batteries électriques d’ici 2030, dans les Hauts-de-France. Où en sont ces projets ? Deux sites sont déjà opérationnels.

  • Le site d’ACC, à Douvrin, qui a produit, depuis septembre 2024, suffisamment de batteries pour équiper 10 000 voitures (Stellantis et Mercedes). La capacité initiale de 13 GWh devrait atteindre 40 GWh d’ici 2030.
  • Celui d’AESC, à Douai, dont la production a commencé en 2025 et qui devrait monter en cadence afin d’alimenter 200 000 véhicules électriques Renault par an (R5/Mégane/Scénic E‑Tech 67).

Les trois autres projets annoncés à partir de 2026 sont :

  • l’usine Verkor de Dunkerque, inaugurée en décembre 2025. Elle cible 16 GWh de production à partir de 2026 et atteindra sa capacité maximale en 2030 (50 GWh) ;
  • l’usine Tiamat, à Boves (batteries sodium-ion), dont la construction commencera en 2026 prévoit un démarrage industriel en 2027 ;
  • le site de ProLogium, à Dunkerque, dont la première pierre sera posée en février 2026, vise une mise en production de batteries solides lithium-céramique autour de 2028.

Citons également le projet Neomat, porté par Orano et le Chinois XTC New Energy, qui prévoit la construction de trois méga-usines concernant l’ensemble du cycle de vie des batteries :

  • fabrication des matériaux de cathode (CAM) ;
  • production des précurseurs (PCAM) ;
  • recyclage des rebuts et batteries en fin de vie.

Si tout va bien, la première phase du projet, dédiée à la production de CAM, devrait s’amorcer en 2026, pour une mise en service en fin d’année.

Électrolyseurs et production d’hydrogène

Bien qu’il soit considéré comme une solution énergétique d’avenir, et qu’il soit déjà une réalité dans nos territoires, l’hydrogène peine encore à trouver sa place dans le mix énergétique mondial.

Néanmoins, la filière gagne en maturité technologique et économique et le potentiel de la filière demeure très prometteur. Après sa mise en liquidation en mai 2025, le fabricant français d’électrolyseurs McPhy a finalement trouvé un repreneur, puisque John Cockerill Hydrogen a acquis une partie des actifs de l’entreprise. Cela permet ainsi la poursuite du fonctionnement de la Gigafactory de Belfort. Selon Nicolas de Coignac, PDG de John Cockerill Hydrogen : « Cette acquisition ciblée préserve un actif industriel stratégique et jette les bases de la prochaine génération d’électrolyseurs. En combinant les cellules d’électrolyse de John Cockerill avec certains composants innovants de McPhy, l’objectif est d’obtenir un avantage concurrentiel de 10 à 15 % par rapport aux modèles actuels. »

D’ailleurs, d’autres méga-usines devraient prochainement sortir de terre. Après avoir inauguré une ligne pilote à Béziers et un démonstrateur en 2025, l’entreprise GENVIA, pionnier de la technologie des électrolyseurs à haute température, devrait passer à l’échelle avec une gigafactory dont la construction commencera en 2026.

Enfin, n’oublions pas que Normand’Hy, qui sera la plus puissante unité de production d’hydrogène bas carbone en Europe (200 MW), devrait aussi commencer à produire en 2026. La gigafactory d’Air Liquide, produira, à terme, 28 000 tonnes d’hydrogène par an, qui serviront à alimenter les sites industriels du bassin de Port‑Jérôme/Seine, mais aussi la mobilité lourde hydrogène le long de l’axe Seine (bus et camions). Ce sera d’ailleurs la mise en service la plus structurante de 2026.

Et au niveau des infrastructures numériques ?

Si le terme gigafactory est généralement réservé à l’industrie manufacturière, il est aussi de plus en plus utilisé pour désigner des usines IA. Dans son discours d’ouverture de DAVOS 2026, Ursula Von der Leyen a ainsi déclaré vouloir faire des usines IA une priorité, car « l’Europe dispose de tous les atouts nécessaires pour attirer les investissements : l’épargne, les compétences et l’innovation – avec nos fabriques d’IA et nos méga-usines, ainsi que les applications qui sont nécessaires. »

Au niveau des grands projets privés, il y a entre autres le plan d’investissement de 4 milliards d’euros de Microsoft pour accélérer la transformation numérique de la France, le projet d’usine IA d’Evroc à Sophia Antipolis ou encore la mise en service, en 2026 du AI Factory Lab (Grenoble) de HPE et NVIDIA.

2026 s’annonce, en outre, comme l’année du passage à l’échelle pour plusieurs grands campus GPU, usines IA et infrastructures souveraines en France.

Un nouveau système d’imagerie 3D pour scanner le corps humain

La capacité à imager le corps humain est essentielle dans le domaine médical afin de poser des diagnostics, surveiller les patients et traiter leurs symptômes. L’imagerie fournit ainsi des informations cruciales aux médecins, que ce soit pour des blessures, des maladies… Reste que les techniques standard – ultrasons, rayons X, tomographie par ordinateur et IRM (Imagerie par Résonance Magnétique) – montrent de sérieuses limites. Le coût et la durée de chaque scanner sont élevés, et les images capturées ne sont pas toujours telles qu’on le souhaiterait (portion du corps à cibler, profondeur de l’image, quantité de détails). Des chercheurs de la Keck School of Medicine de l’Université de Californie du Sud, en collaboration avec une équipe d’ingénieurs du Caltech (California Institute of Technology), ont récemment mis au point une technique innovante et non invasive pour collecter rapidement des images 3D du corps humain. Leur invention a été présentée dans le journal Nature Biomedical Engineering le 16 janvier 2026.

Un système d’imagerie hybride pour scanner de la tête aux pieds

Pour la première fois chez l’humain, les scientifiques ont combiné deux méthodes d’imagerie pour créer une technique hybride. Plus précisément, ils ont associé la tomographie à ultrasons rotationnelle avec la tomographie photo-acoustique (PAT). La première est obtenue via un transducteur ultrasonique – qui transforme l’énergie électromagnétique en énergie mécanique (sonore) – qui transmet les ultrasons, et un réseau d’arcs en rotation pour la détection panoramique 3D. Ce type de tomographie consiste à diriger les ondes sonores sur la zone à imager, mais au lieu de compter sur un unique détecteur pour former une image 2D, ici un arc de détecteurs permet de recréer une image en volume des tissus mous. La PAT revient à diriger un rayon laser sur cette même zone, qui est absorbé par les molécules d’hémoglobine présentes dans le sang. Celles-ci vibrent alors et émettent des fréquences ultrasoniques mesurées par les détecteurs en arc et formant des images 3D des vaisseaux sanguins.

À l’usage, le système hybride passe de la tomographie à ultrasons rotationnelle à la PAT en changeant la source acoustique par une source lumineuse. Avec lui, les chercheurs sont parvenus à imager tête, poitrine, main et même pied humain avec un champ de vue de 10 centimètres de diamètre et une résolution submillimétrique. Le tout pour un temps de prise de vue d’à peine 10 secondes ! En plus de coûter moins cher qu’un scanner à IRM, le système hybride évite le rayonnement concomitant à l’usage des rayons X et de la tomographie par ordinateur, tout en fournissant des images plus sophistiquées que les ultrasons conventionnels. Avant de passer à l’usage clinique, un défi majeur attend les équipes de recherche. Car le crâne humain a tendance à distordre les signaux du système, rendant la collecte d’images claires difficile. Les ingénieurs du Caltech sont déjà sur le coup, et planchent sur un moyen d’ajuster la fréquence des ultrasons.

Accord UE-Inde, une opportunité d’export qui recompose la filière française

Le texte commercial, dont la signature et la ratification restent à venir, s’inscrit dans une logique d’ouverture progressive du marché indien, avec l’élimination des droits de douane sur une large part des lignes tarifaires, sur cinq à dix ans, selon la Commission européenne citée par la presse spécialisée. Dans le même mouvement, l’UE et l’Inde mettent en avant un objectif de renforcement des chaînes d’approvisionnement dites résilientes et diversifiées.

Le spatial, un marqueur de la relation stratégique

Sur le plan spatial, l’enjeu se lit moins dans des clauses tarifaires sectorielles détaillées que dans l’architecture politique qui accompagne l’accord commercial. La déclaration commune du sommet du 27 janvier 2026 souligne la signature d’un partenariat sécurité et défense Inde-UE, présenté comme un cadre global couvrant plusieurs domaines, dont l’espace. Cette même déclaration mentionne aussi des discussions jugées productives lors d’un premier dialogue spatial Inde-UE tenu à Bruxelles en novembre 2025, signe d’une volonté d’installer une concertation structurée sur les sujets orbitaux, qu’il s’agisse d’usages civils, de sécurité ou d’industrie.

La feuille de route commune « Vers 2030 », adoptée en annexe, met également l’accent sur les coopérations technologiques et l’innovation. Elle insiste par ailleurs sur la protection des technologies sensibles et la sécurité de la recherche dans le cadre du Conseil du commerce et des technologies. Ce cadrage est important pour le spatial car il touche directement la dualité des technologies, la circulation des compétences et la capacité des industriels à coopérer sans perdre la maîtrise des savoir-faire critiques.

Aéronautique française, l’opportunité de l’export face au risque de bascule industrielle

Côté aéronautique, l’accord ouvre une fenêtre commerciale très concrète. Les avions, jusqu’ici taxés à 11 % à l’entrée du marché indien, doivent progressivement bénéficier de droits de douane nuls sur une période de dix ans, selon la presse spécialisée française. L’Inde représente déjà un débouché majeur pour les industriels européens du secteur, et cette baisse est décrite comme particulièrement stratégique pour la France.

Mais l’inquiétude évoquée par certains acteurs, mise en scène par L’Usine Nouvelle, vient du fait que l’Inde ne sera plus seulement un marché. Elle devient en effet un acteur qui investit et s’implante dans la chaîne d’approvisionnement française et européenne. Le média cite notamment la prise de participation de Wipro à hauteur de 51 % dans le sous-traitant Lauak, présentée comme une manière de construire une plateforme industrielle intégrée. D’autres mouvements sont évoqués, comme l’acquisition d’AD Industries en 2024 par le groupe indien Motherson, qui alimente l’idée d’une stratégie d’implantation durable.

Dans le même temps, la filière française accélère elle-même sa présence en Inde. Le GIFAS rappelle que l’Inde héberge déjà plus de 60 entreprises françaises membres sur plus de 30 sites industriels, ce qui donne la mesure de l’écosystème déjà en place. Airbus illustre cette dynamique par des programmes industriels structurants, comme la ligne d’assemblage final du C295 à Vadodara avec Tata, inaugurée en 2024, avec un dispositif prévoyant l’assemblage en Inde de 40 appareils dans le cadre du programme Make in India. Dans les hélicoptères, Airbus a aussi annoncé dans la presse une future chaîne d’assemblage du H125 avec Tata, avec de premières livraisons évoquées à partir de 2026.

Le point de friction, tel que formulé dans l’article de L’Usine Nouvelle, tient à l’équilibre entre coopération et dépendance. Le média rapporte des craintes de transferts de technologies et de savoir-faire, et une concurrence accrue pour des sous-traitants français jugés fragilisés, avec le risque que la valeur ajoutée se déplace au profit d’une chaîne plus internationalisée. À cela s’ajoute une logique assumée d’élargissement des approvisionnements, Guillaume Faury indiquant que les achats de composants en Inde devraient doubler tous les cinq ans, selon une synthèse publiée par le GIFAS, ce qui traduit une intégration croissante de fournisseurs indiens dans les chaînes européennes.

Au final, l’accord UE Inde peut apparaître comme un accélérateur à double effet. Il promet un gain de compétitivité à l’export vers un marché aérien en forte croissance, tout en rendant plus visible une recomposition industrielle où l’Inde cherche à capter davantage de production, de compétences et d’investissements.

Webinar : Modéliser la Corrosion et les Systèmes de Protection contre la Corrosion avec COMSOL Multiphysics®

Ce webinar en accès libre organisé le jeudi 12 février de 11h à 12h portera sur la modélisation des processus de corrosion. Les capacités de modélisation de COMSOL Multiphysics® seront illustrés par des exemples de corrosion galvanique et de protection cathodique.

VOIR LE REPLAY

COMSOL Multiphysics® et le module Corrosion proposent une large gamme de fonctionnalités dédiées à la modélisation des processus de corrosion, tenant compte des différents phénomènes physiques tels que les mécanismes de transport d’espèces dans l’électrolyte ou les réactions électrochimiques survenant aux interfaces électrolyte-métal. Des outils spécialisés sont également disponibles pour faciliter la modélisation des dispositifs de protection contre la corrosion, tels que les systèmes de protection par anode sacrificielle ou par courant imposé.

Dans ce webinar, nous verrons comment la simulation multiphysique peut vous permettre de mieux prédire et comprendre la corrosion, et comment elle peut vous aider à dimensionner des systèmes de protection efficaces pour vos structures.

Ce webinar sera enregistré et disponible dès le lendemain de l’évènement.

Les thèses du mois : « Hydrogène vert : nouvelle stratégie, nouveaux acteurs »

Pour notre dossier de janvier, « Hydrogène vert : nouvelle stratégie, nouveaux acteurs », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

Modélisation prospective de la décarbonation du système électrique européen : Enjeux pour une électricité environnementalement soutenable et socialement acceptable
Victor Guillot
Contrôle, optimisation, prospective
Centre de Mathématiques Appliquées (Sophia Antipolis)

 Technologies vertes concurrentes : le cas de l’hydrogène bas-carbone
Albin Kasser
Science s économiques
Paris-Saclay Applied Economics

 Elaboration de systèmes catalytiques en tandem pour la conversion du CO2 en hydrocarbures
Pauline Bredy
Chimie
Institut de Recherches sur la Catalyse et l’Environnement de Lyon

Étude et modélisation d’un réseau intelligent avec l’intégration de systèmes photovoltaïques, éoliens et de stockage d’énergie (batteries et hydrogène)
Hamza Mustapha
Génie électrique
Laboratoire universitaire des sciences appliquées de Cherbourg

Détection et isolation hybrides robustes des défauts par l’intégration du Bond Graph et de l’intelligence artificielle : application à la production d’hydrogène vert
Balyogi Mohan Dash
Automatique, productique
Centre de Recherche en Informatique, Signal et Automatique de Lille

Vers la production d’hydrogène par photocatalyse : élaboration de structures organiques covalentes colloïdales induites par auto-assemblage réactif
Axelle Larrieu
Chimie des matériaux
Institut des sciences analytiques et de physico-chimie pour l’environnement et les matériaux (Pau)

Développement d’électrodes imprimées en 3D pour la production massive d’hydrogène dans le cadre de l’électrolyse de liquides
Jeoffrey Tourneur
Sciences des matériaux
Institut des Sciences Chimiques de Rennes

Développement par approche ascendante de méthodes et d’outils de conception de chaînes logistiques « hydrogène décarboné » : application au cas de la France
Renato Luise
Génie des Procédés et de l’Environnement
Laboratoire de génie chimique (Toulouse)

Essais sur l’évaluation économique du déploiement de l’hydrogène vert pour la neutralité carbone industrielle
Maryam Sadighi
Sciences économiques
Centre d’étude des politiques économiques de l’Université d’Évry

Photoélectrodes pour la production d’hydrogène vert : défis de fabrication et d’assemblage
Emma Stéphan
Chimie
Nanosciences et innovation pour les matériaux, la biomédecine et l’énergie

L’hydrogène renouvelable rebat les cartes des équilibres énergétiques internationaux

Un extrait de « Géopolitique et hydrogène », par Anne-Sophie CORBEAU

Depuis la fin des années 2010, l’hydrogène est devenu un objet stratégique majeur dans les politiques énergétiques nationales. Il est en effet considéré comme un vecteur essentiel pour décarboner des secteurs difficiles, voire impossibles à électrifier directement, tels que la sidérurgie, la production de ciment, la pétrochimie, le transport maritime et aérien, ou encore une partie du transport routier lourd. Ses dérivés, comme l’ammoniac, le méthanol ou les carburants de synthèse, sont également appelés à jouer un rôle central dans l’atteinte des objectifs de neutralité carbone.

Un marché mondial encore embryonnaire, mais stratégique

Aujourd’hui, la production mondiale d’hydrogène reste largement dominée par les énergies fossiles. En 2021, environ 62 % de l’hydrogène produit provenait du vaporeformage du gaz naturel, 19 % de la gazéification du charbon, et 18 % d’une production issue des raffineries. Cette production génère près de 900 Mt de CO₂ par an, ce qui rend impérative sa décarbonation.

L’hydrogène renouvelable, produit par électrolyse de l’eau à partir d’électricité renouvelable, demeure marginal. Fin 2022, la capacité mondiale installée par électrolyse atteignait environ 700 MW, soit à peine 0,1 % de la demande actuelle en hydrogène. Malgré des annonces ambitieuses, seule une faible part des projets envisagés a atteint une décision finale d’investissement, ce qui souligne l’écart entre les stratégies affichées et la réalité industrielle.

L’émergence d’un marché mondial de l’hydrogène bouleverse les rapports traditionnels de l’énergie. Une nouvelle géographie se dessine, avec un nombre limité de régions importatrices – principalement l’Europe et certaines parties de l’Asie – et une multitude de pays aspirant à devenir exportateurs. Contrairement au marché du gaz naturel liquéfié, le futur marché de l’hydrogène pourrait se caractériser par une concurrence intense entre exportateurs pour approvisionner quelques grands pôles de demande.

Des pays disposant de ressources renouvelables abondantes et peu coûteuses, comme le Chili, le Maroc, la Namibie ou encore l’Espagne et le Portugal, pourraient accéder à un rôle inédit d’exportateurs d’énergie renouvelable. À l’inverse, des États historiquement dominants dans les énergies fossiles cherchent à maintenir leur influence en misant sur l’hydrogène produit à partir de gaz naturel avec captage et stockage du CO₂.

Les enjeux spécifiques de l’hydrogène renouvelable

L’hydrogène renouvelable présente des atouts majeurs en matière d’intensité carbone, mais son développement est freiné par des coûts de production élevés. Ceux-ci sont aujourd’hui compris entre 4 et 8 dollars par kilogramme, contre environ 1 dollar par kilogramme pour l’hydrogène issu du vaporeformage sans captage du carbone. La réduction des coûts passe par trois leviers principaux : la baisse du coût des électrolyseurs, la diminution du prix de l’électricité renouvelable et l’amélioration de l’efficacité des technologies.

Au-delà de la production, le transport constitue un obstacle majeur. La faible densité énergétique volumétrique de l’hydrogène rend complexe et coûteux son transport sur de longues distances. Les scénarios prospectifs privilégient donc le transport sous forme de dérivés, notamment l’ammoniac, ou via des hydrogénoducs lorsque la proximité géographique le permet.

Le positionnement de la France et de l’Union européenne

La France a été l’un des premiers pays européens à publier un plan hydrogène, dès 2018, puis à l’actualiser dans le cadre des stratégies européennes. À l’échelle de l’Union européenne, la stratégie REPowerEU vise une consommation de 20 Mt d’hydrogène bas carbone en 2030, répartie entre 10 Mt produites localement et 10 Mt importées.

L’UE se distingue par une approche réglementaire structurante, fondée sur la définition précise de l’hydrogène renouvelable à travers les actes délégués de la directive RED III.

Ces textes encadrent strictement la qualification d’un hydrogène « renouvelable » en imposant trois conditions cumulatives :

  • l’additionalité : l’électricité doit provenir, à partir de 2028, d’installations renouvelables nouvellement mises en service, datant de moins de 36 mois par rapport à l’électrolyseur, avec des exemptions prévues) ;
  • la corrélation temporelle (la production d’hydrogène doit coïncider avec la production d’électricité renouvelable, d’abord sur une base mensuelle jusqu’en 2030, puis heure par heure) ;
  • la corrélation spatiale (l’électricité doit être produite dans la même zone d’échange, ou dans une zone adjacente sous conditions de prix).

Ces  critères conditionnent l’accès au marché européen pour les producteurs étrangers et confèrent à l’Europe un rôle normatif majeur dans la structuration du futur marché mondial.

La France pourrait également jouer un rôle stratégique comme pays de transit, notamment avec le projet d’hydrogénoduc H2Med reliant la péninsule Ibérique au nord de l’Europe.

Une compétition technologique mondiale

Enfin, la géopolitique de l’hydrogène ne se limite pas aux flux énergétiques. Elle concerne aussi la maîtrise technologique des électrolyseurs ou encore des piles à combustible, ainsi que de toute la filière industrielle qui les soutient, depuis l’approvisionnement en matériaux critiques et leur transformation – y compris pour les énergies renouvelables –, jusqu’à la fabrication, l’industrialisation et le déploiement des équipements nécessaires, voire des technologies d’usage en aval.

L’Europe et la Chine concentrent aujourd’hui près de 80 % des capacités de production d’électrolyseurs, tandis que les États-Unis ont fortement renforcé leur attractivité industrielle avec l’Inflation Reduction Act.

Un « velcro moléculaire » qui améliore la durabilité des cellules photovoltaïques

Les cellules photovoltaïques à pérovskite (une structure cristalline particulière) sont largement reconnues pour leur grande efficacité et leurs coûts de fabrication bas. Malheureusement, leur stabilité reste limitée sur le long terme. La stratégie habituelle pour contrecarrer cette faiblesse consiste à recouvrir la pérovskite 3D d’une fine couche de pérovskite à faible dimension. Le but étant à la fois de passiver (protéger contre la corrosion) les défauts de surface et de booster le voltage. Toutefois, les couches à faible dimension – typiquement composées de sels d’ammonium – se lient peu à la matrice de pérovskite et se dégradent également sous l’effet de la chaleur et de l’illumination. Résultat : un déclin rapide des performances des cellules photovoltaïques. Pour y remédier, des chercheurs de l’École d’ingénierie de l’université des sciences et technologies de Hong Kong ont développé une nouvelle couche de revêtement robuste, améliorant leur durabilité dans le temps. Les différentes étapes de leur travail sont décrites en détail dans le journal Science du 8 janvier 2026.

Un « velcro moléculaire » composé de ligands d’amidine

L’origine de cette recherche repose sur une découverte en lien avec les ligands (notamment capables de se lier à une macromolécule) d’amidine (classe de composés organiques avec un groupe C(=NH)NH2). L’équipe de recherche a ainsi remarqué que dans les structures à faible dimension, ces mêmes ligands avaient tendance à perturber le réseau cristallin 3D. Ils permettaient ainsi aux octaèdres d’halogénure de métal de former soit des chaînes 1D, soit des feuilles 2D. En ajustant la basicité des ligands et leur conformation moléculaire, les scientifiques ont réussi à faire passer la surface de pérovskite d’un arrangement de type chaîne 1D à un réseau de type feuille de liaisons hydrogène 2D. Ils ont ainsi créé une couche protectrice continue et uniforme.

Finalement, les ligands s’ancrent à la surface de pérovskite en de multiples points à l’aide de leurs deux sites azotés. Ils fonctionnent alors comme un « velcro moléculaire », s’assurant que la couche à faible dimension reste stable face aux conditions extérieures. La stratégie employée a mené à une efficacité de conversion de puissance de 25,4 % sur des cellules d’environ 1,1 cm2, et de 24,2 % sur des mini-modules de 6,8 cm2. Et durant les tests simulant la lumière solaire de midi à 85°C, les cellules photovoltaïques concernées ont maintenu plus de 95 % de leur efficacité initiale après plus de 1 100 heures d’opération en continu. La démonstration réalisée par les chercheurs de l’université des sciences et technologies de Hong Kong prépare le chemin à une technologie photovoltaïque peu coûteuse, d’efficacité élevée et durable.

Chimie computationnelle : Qubit Pharmaceuticals franchit un cap sur le chemin du développement de médicaments ciblant l’ARN

Créée en 2020, la deeptech Qubit Pharmaceuticals s’attelle depuis lors au développement de nouveaux candidats médicaments en misant, pour cela, sur une approche axée autour de trois piliers technologiques complémentaires : le calcul quantique (QC), le calcul hautes performances (HPC), et l’intelligence artificielle (AI).

Outre le développement de l’émulateur Hyperion-1, ou encore du modèle de fondation FeNNix-Bio1, l’entreprise s’est lancée, il y a deux ans environ, dans des travaux visant à développer une méthode permettant de modéliser à un niveau de précision jamais vu l’interaction entre de petites molécules et l’ARN, à l’aide d’une combinaison d’outils qu’elle a elle-même développés.

Soutenu par Bpifrance via les programmes Investissements d’Avenir et France 2030, ce projet a abouti il y a peu à la publication d’un article dans la revue scientifique Communications Biology, sur lequel ont accepté de revenir plus en détail Robert Marino, P.-D.G. de Qubit Pharmaceuticals, et Krystel El Hage, responsable de la plateforme ARN et du programme de découverte de médicaments au sein de Qubit Pharmaceuticals.

Techniques de l’Ingénieur : Quelles sont les origines, et quel était le principal objectif de l’étude que vous avez publiée en octobre dernier dans la revue Communications Biology ?

Krystel El Hage, responsable de la plateforme ARN et du programme de découverte de médicaments, Qubit Pharmaceuticals
Krystel El Hage a rejoint Qubit Pharmaceuticals fin 2022. © Qubit Pharmaceuticals.jpg

Krystel El Hage : Alors que nous construisions notre plateforme, un laboratoire pharmaceutique nous a approchés dans le but de réaliser une étude pilote sur un système de « riboswitch ». Nous y avons vu une opportunité de montrer notre savoir-faire, au travers d’une publication – ce que nous ne pouvons pas faire habituellement dans le cadre d’études confidentielles. Nous avons donc décidé de relever le défi !

Robert Marino est P.-D.G. de Qubit Pharmaceuticals
Robert Marino est P.-D.G. de Qubit Pharmaceuticals depuis la mi-2020. © Qubit Pharmaceuticals.jpg

Robert Marino : Notre principal objectif dans le cadre de cette étude était de démontrer que, outre la découverte de petites molécules d’intérêt, nous étions désormais en mesure d’étendre à l’ARN le champ de la biologie explorable grâce à notre plateforme Atlas. Et ce, grâce aux technologies nouvelles que nous lui avons ajoutées.

Les solutions développées par d’autres acteurs du secteur ne permettent en effet pas, à ce jour, d’explorer ce domaine particulièrement complexe. Nous y sommes quant à nous parvenus avant tout parce que Krystel a apporté au sein de Qubit Pharmaceuticals une double expertise : sur la simulation, la chimie théorique et la conception de médicaments d’une part ; mais aussi, d’autre part, sur la compréhension de la structure de l’ARN, son comportement et ses interactions avec les protéines. Elle avait, en outre, un important bagage dans le domaine de la validation expérimentale, ce qui s’est révélé capital pour confirmer les résultats de nos simulations.

Simulation d'interactions entre de petites molécules et l’ARN
La méthode développée par Qubit Pharmaceuticals permet de simuler les interactions entre de petites molécules et l’ARN, tout en tenant compte des phénomènes électrostatiques qui se produisent en milieu aqueux et en présence d’ions.

Ces travaux que vous avez publiés sont notamment centrés sur le calcul de l’énergie libre de liaison de petites molécules avec l’ARN. Qu’est-ce que cela représente, concrètement ?

K E H : Ce qui nous intéresse lorsque l’on réalise des tests expérimentaux, c’est l’affinité entre une petite molécule donnée – un ligand – et l’ARN. Cette affinité est quantifiée par l’énergie libre de liaison, calculée à partir des constantes d’association et de dissociation, déterminées expérimentalement.

L’ARN est un polymère très « flexible », très dynamique. Ses changements de conformation sont donc nombreux, et se déroulent très rapidement, surtout en présence d’ions dans un milieu aqueux. L’ARN est en outre une molécule polyanionique, qui est donc chargée négativement. Il faut ainsi, pour pouvoir l’étudier, être en mesure de prendre en compte les phénomènes électrostatiques, et de capturer l’anisotropie des interactions, comme la directionnalité précise des liaisons hydrogènes ou des interactions π. C’est la raison pour laquelle il nous fallait développer un modèle de simulation capable d’intégrer des aspects tels que les multipôles et la polarisabilité.

Les modèles de simulation conventionnels sont généralement des modèles « point charge », dans lesquels un atome est représenté par une charge partielle. Le modèle que nous avons développé va bien au-delà. Il nous permet en effet de simuler les interactions jusqu’à un niveau quantique, en décrivant un atome comme un centre multipolaire fixe, entouré d’un nuage électronique capable de se déformer dynamiquement. Cela nous permet d’obtenir des résultats de simulation bien plus proches de la réalité. Ceci, à la fois en matière de reproduction des phénomènes électrostatiques, et de simulation de la conformation des molécules, ainsi que des propriétés thermodynamiques comme les énergies libres de liaison ligand-protéine, ou ligand-ARN. Par exemple, dans le cas du riboswitch que nous avons étudié, l’ARN a une forme de « L » lorsqu’il est seul dans de l’eau. Mais quand une molécule se lie à lui, il se redresse. Nous nous devions donc d’être capables de simuler ces changements majeurs de conformation pour parvenir à développer un outil de simulation beaucoup plus fin.

Quels « outils » avez-vous mis en œuvre pour parvenir à développer cette méthode de simulation d’une précision inédite ?

K E H : Nous avons, d’une part, utilisé le modèle AMOEBA (advanced multipolar polarizable force field). C’est ce modèle de « champs de force » développé par les cofondateurs de Qubit Pharmaceuticals qui nous a permis d’atteindre un niveau de détail beaucoup plus grand sur le plan de la description des phénomènes électrostatiques. Il est basé sur des calculs quantiques.

Nous avons aussi mis en œuvre, d’autre part, un schéma de calcul appelé lambda-ABF, pour lambda-Adaptive Biasing Force. Il est utilisé pour calculer les énergies libres, comme l’affinité entre un médicament et une cible – qu’il s’agisse d’un ARN ou d’une protéine. Dans cette méthode dont nous sommes également à l’origine, Lambda est un paramètre de découplage, qui a ceci de particulier qu’il est dynamique. Autrement dit, la valeur de ce paramètre varie au fil des calculs, et traite la transformation chimique comme un mouvement fluide et continu, là où les méthodes conventionnelles avancent par étapes « rigides ». Sans entrer dans trop de détails, cela permet notamment d’avoir une convergence beaucoup plus rapide en permettant une meilleure relaxation du système, de réduire les temps de calcul et d’économiser ainsi les ressources GPU utilisées.

Vous avez entre-temps développé le modèle de fondation FeNNix-Bio1. Se prêterait-il à la mise en œuvre de cette même méthode de simulation ?

K E H : Ce type d’application fait effectivement partie de celles que nous pourrons à l’avenir réaliser grâce à ce modèle de fondation FeNNix-Bio1. Nous continuons à l’améliorer, mais il permet d’ores et déjà de résoudre de nombreux problèmes, dont un défi majeur qui consiste à paramétrer le champ de force pour simuler les petites molécules susceptibles de se lier à l’ARN. Ces molécules sont très particulières : longues, chargées positivement, dotées d’une conformation complexe… Il est donc souvent difficile de trouver les bons paramètres pour les intégrer à une simulation. Un modèle de fondation tel que FeNNix-Bio1 fait partie des solutions qui nous permettront de remédier à ces difficultés.

Comment avez-vous procédé pour valider expérimentalement les résultats de vos simulations ?

K E H : Nous avons utilisé des données expérimentales qui étaient déjà publiées. Notamment celles issues d’une étude ayant identifié une série de molécules capables de se lier – ou non – à l’ARN viral de l’Hépatite C (HCV-IRES IIa) avec une certaine affinité. Nous avons sélectionné 19 de ces molécules. Le fait d’avoir dans ce jeu de données des molécules capables ou non de se lier à l’ARN était important. Cela nous a en effet permis de détecter à la fois les faux positifs et les faux négatifs lors de nos simulations. En effectuant un certain nombre d’ajustements au protocole de simulation pour l’adapter à cette cible, nous sommes finalement parvenus à reproduire tous les résultats expérimentaux, à la fois positifs et négatifs.

Dans le cadre de nos projets internes de découverte de médicaments, nous avons d’ailleurs utilisé les mêmes outils en modifiant quelques paramètres pour les adapter à un autre type d’ARN. Cela nous a permis d’identifier plusieurs molécules capables de se lier à cet ARN, et de valider expérimentalement les résultats de ces simulations.

RM : Cette approche est couramment adoptée dans notre domaine. Et pour cause : se baser ainsi sur des études rétrospectives permet à la fois de comparer les résultats obtenus avec des données déjà disponibles, tout en évitant les risques de fuites de données protégées dans le cadre de la propriété intellectuelle.

K E H : D’autres systèmes de validation expérimentale sont aussi utilisés et choisis au cas par cas en fonction de leur complexité, afin d’ouvrir de nouvelles portes. Dans le prolongement de cette première publication, nous allons donc poursuivre notre travail de validation expérimentale dans le cadre d’autres études, de plus en plus précises.

Vos travaux ouvrent la voie au développement de médicaments ciblant l’ARN. Vous misez pour cela sur de petites molécules thérapeutiques. Qu’est-ce qui vous a conduits à vous concentrer sur ces « petites molécules » en particulier ?

K E H : Il existe effectivement d’autres thérapies ciblant l’ARN, basées par exemple sur l’utilisation d’oligonucléotides antisens. Nous avons quant à nous choisi d’utiliser de petites molécules pour plusieurs raisons. Tout d’abord parce que leur biodisponibilité orale est plus grande. Les autres approches posent quant à elles des problèmes d’effets « off-target » pouvant aboutir à une toxicité, mais aussi des problèmes de réaction immunitaire. Ces oligonucléotides restent en outre peu stables, sont coûteux à produire, et doivent souvent être administrés par injection, par le biais d’un vecteur permettant de les amener jusqu’à une cible donnée.

Les petites molécules sur lesquelles nous misons sont quant à elles beaucoup plus faciles à administrer, par voie orale. Leur diffusion dans les tissus est en outre plus efficace que celle des traitements déjà existants ; elles sont plus stables et leurs coûts de production sont très bas.

Quelles perspectives ce travail ouvre-t-il pour Qubit Pharmaceuticals ?

K E H : Nous appliquons d’ores et déjà l’approche que nous avons développée dans le cadre de cette étude pilote à un programme que nous menons au sein de Qubit Pharmaceuticals. Nous avons déjà obtenu des résultats très intéressants, validés expérimentalement pour ce qui est des premières étapes de tests in vitro.

RM : La plateforme est effectivement déjà opérationnelle. Nous menons ainsi actuellement deux programmes de découvertes de médicaments basés sur un ciblage de l’ARN. Cette plateforme que nous avons développée va aussi nous permettre d’aider des laboratoires pharmaceutiques, dans le cadre de développements conjoints.

Il est pour l’heure difficile de dire quand les premières molécules issues de ces outils arriveront sur le marché, mais une chose est sûre : cela prendre encore un peu de temps… !

« L’hydrogène, c’est la conjugaison des enjeux de décarbonation, de compétitivité et de souveraineté »

Entre ajustement des objectifs à 2030, maintien de l’enveloppe de 9 milliards d’euros et ouverture vers de nouveaux secteurs comme les carburants de synthèse, cette stratégie révisée marque-t-elle une inflexion ou simplement une adaptation réaliste au retard pris dans les projets ? Christelle Werquin, déléguée générale de France Hydrogène, fait le point sur les enjeux de cette révision, le positionnement de la France face à la concurrence internationale et les défis qui persistent pour le déploiement de la filière.

Techniques de l’Ingénieur : La révision de la stratégie nationale hydrogène a été publiée en avril 2025. Quels sont les principaux ajustements et peut-on parler d’une inflexion stratégique ?

Christelle Werquin : Nous avions très longuement attendu cette stratégie hydrogène révisée. Nous avons vraiment poussé pour qu’elle sorte, et elle a finalement été publiée en avril 2025. Ce que nous avons salué à l’époque, c’est le maintien des ambitions et la réaffirmation du soutien de l’État au développement d’une filière française de l’hydrogène.

Il a été dit qu’il y avait une baisse des ambitions parce qu’à 2030, l’objectif de déploiement des capacités d’électrolyse installée était fixé à 4,5 GW au lieu des 6,5 annoncés initialement en 2020. Mais nous ne partageons pas ce constat. En réalité, c’est très cohérent avec le retard qui a été pris dans les projets. L’objectif de 8 GW à l’horizon 2035 n’implique pas forcément une baisse de l’ambition. C’était plutôt un décalage anticipé de la montée en charge du marché.

Il y a eu aussi le maintien des objectifs prioritaires qui avaient déjà été définis, en l’occurrence la décarbonation des usages existants dans l’industrie : raffinage, engrais, sidérurgie… Et la décarbonation de la mobilité lourde et intensive. Nous étions satisfaits que ces priorités soient maintenues, même si le revirement de Stellantis a un peu plombé le segment de la mobilité avec des véhicules utilitaires légers. Mais il y a encore des acteurs très mobilisés sur la mobilité lourde. Je rappelle qu’on a toujours la plus grande flotte de taxis hydrogène en Europe avec Hype à Paris.

Quelles sont les principales nouveautés de cette stratégie révisée ?

Il y a plusieurs nouveautés importantes. Notamment un enjeu majeur pour nous : la création d’une filière française de carburants de synthèse. C’est le plus gros débouché pour l’hydrogène. La France a déjà le plus gros portefeuille de projets européens de production de carburants de synthèse pour l’aérien et le maritime. Pourquoi ? Parce que nous avons des atouts : l’accès à du CO2 biogénique, la disponibilité d’électricité décarbonée, et des écosystèmes industriels déjà structurés. La création de cette filière de production de molécules de synthèse pour l’aérien et le maritime est donc très importante.

Il y a également un nouvel axe sur l’exploration des gisements d’hydrogène naturel. Pour l’instant, nous en sommes au stade exploratoire, mais c’est bien que ce soit pris en compte. Ce n’était pas dans la première stratégie, donc cette adaptation est très positive.

Qu’en est-il de l’enveloppe budgétaire et des mécanismes de soutien ?

Nous avons eu la confirmation de l’enveloppe initiale promise de 9 milliards d’euros. Le mécanisme de soutien à la production, dont le cahier des charges a été publié tout récemment, était très attendu. Cependant, il y a un décalage entre les promesses et la réalité : nous sommes encore très loin des 9 milliards d’euros promis, à ce stade environ 50% (4,3 Mds€) a été réellement fléché.

Sur le mécanisme de soutien à la production, nous étions très contents qu’il sorte enfin. La première tranche était censée être dotée de 800 millions d’euros pour 200 mégawatts d’électrolyse. En fait, c’est 500 millions d’euros au mieux, et avec ça, nous allons faire 100 mégawatts. Mais c’est bien de le lancer, nous l’avions longuement attendu. Cela correspond à la capacité que nous allons avoir de réaliser des projets à taille industrielle dans les secteurs concernés : raffinage, engrais…

La stratégie révisée prévoit-elle un accompagnement de la filière française à l’export ?

Oui, et c’est quelque chose sur lequel nous avions beaucoup plaidé. Nous avons, en Europe et dans le monde, 19 projets portés par des entreprises françaises qui ont passé le stade de la décision finale d’investissement, dont 11 dans l’Union européenne. Ces 19 projets représentent environ 360 mégawatts d’électrolyse installée. Nous avons donc une chaîne de valeur qui s’exporte.

Nous avons aussi des développeurs de stations-service hydrogène qui ont remporté des commandes à l’international, comme HRS ou Atawey. Ce que nous avons obtenu dans la stratégie révisée, c’est d’abord un mécanisme financier de soutien à l’export d’équipements hydrogène, doté de 100 millions d’euros, en théorie sur 3 ans. Nous avons également obtenu un renforcement des leviers diplomatiques et de coopération : mettre des personnels techniques dans les ambassades pour promouvoir la filière française. Et puis des dispositifs existants, comme le FASEP, sont déplafonnés pour l’hydrogène. Ce sont des avancées intéressantes qui n’étaient pas dans la première stratégie.

Où en est concrètement le déploiement de la filière hydrogène en France ?

L’État a réaffirmé son soutien, il faut maintenant que cela se concrétise. Des leviers sont en train d’être mis en place : le mécanisme de soutien à la production, et la transposition de dispositions européennes avec le projet de loi en discussion actuellement.

L’année 2025 n’a pas vu beaucoup de décisions finales d’investissement en France, mais nous avons quand même obtenu des avancées en termes institutionnels et réglementaires. Au niveau européen aussi, avec l’acte délégué bas carbone qui reconnaît la spécificité française de soutien à l’hydrogène par électrolyse avec l’électricité nucléaire. C’est un gros levier pour nous. Le cadre réglementaire a donc avancé.

Nous sommes en transition : la première génération de projets sortis de terre est en construction ou en opération. Les mécanismes réglementaires et de soutien qui sont en place vont permettre de voir sortir la deuxième génération de grands projets à taille industrielle dans les années qui viennent. La filière n’est donc pas à l’arrêt. D’ailleurs, nous avons doublé notre capacité d’électrolyse installée entre 2024 et 2025, puisque nous sommes aujourd’hui à 50 mégawatts installés.

Comment se positionne la France face à la concurrence internationale ?

Selon l’Hydrogen Council, en 2024, il y a eu 110 milliards d’euros d’investissement ces cinq dernières années dans l’hydrogène dans le monde. Un tiers vient de Chine, soit 33 milliards. L’Europe est en troisième position avec 19 milliards, derrière les États-Unis. L’Inde est en quatrième position avec 14 milliards. Puis le Moyen-Orient avec 11 milliards, le Japon et la Corée avec 6 milliards. La France représente 2,4 milliards d’investissement. En termes de positionnement géopolitique, l’Europe n’est donc pas en tête, elle est même loin derrière la Chine et les États-Unis.

Dans le pipeline de projets en construction ou en décision finale d’investissement, l’Europe totalise 2,8 gigawatts de projets, dont presque 1 gigawatt en Allemagne. En France, nous avons 252 mégawatts de projets qui ont passé la décision finale d’investissement. Ce n’est pas le gros marché européen, mais nous ne sommes pas si mal positionnés.

Nous avons un très fort potentiel de projets sur les molécules de synthèse, notamment les e-SAF pour l’aérien. Si la réglementation européenne ReFuelEU Aviation ne change pas, il y a un potentiel de projets importants côté français. Le plus grand électrolyseur d’Europe va d’ailleurs entrer en fonction en France, porté par Air Liquide, avec ses 210 mégawatts pour la raffinerie. En parallèle, le projet Neom en Arabie Saoudite, qui représente 2 gigawatts d’électrolyse, est en fin de construction. Cela montre qu’il ne faut pas relâcher l’effort, car cela avance partout dans le monde.

Quels sont les principaux défis qui persistent pour le déploiement de la filière ?

La difficulté principale de la filière hydrogène, c’est qu’il y a un pipeline de projets très important, mais une difficulté à passer à la décision finale d’investissement. Il y a un très gros décalage entre les projets annoncés et ceux qui passent réellement cette étape. C’est partout pareil au niveau international. Le cadre réglementaire, qui est l’une des plus grosses barrières à la décision finale d’investissement, doit être bien en place. Des avancées ont été obtenues cette année sur ce point.

Il y a un sujet sur lequel nous allons beaucoup travailler : les marchés pilotes. Comment peut-on aider le déploiement de l’hydrogène dans certains secteurs, par exemple l’acier, en mettant en place des mécanismes pour soutenir la demande ? Nous allons regarder ce qui va être fait dans l’Industrial Decarbonisation Act qui doit sortir bientôt. Susciter la demande et trouver les moyens de la faire émerger, voilà l’enjeu. Il faut travailler sur des enjeux un peu plus larges que ceux que nous avons aujourd’hui.

Pour l’aérien, tant qu’il y a des mandats d’incorporation clairs et ambitieux avec des incorporations d’e-SAF obligatoires, cela fonctionne. Simplement, il faut regarder du côté des compagnies aériennes comment elles peuvent absorber ce surcoût. Si elles le répercutent sur le client final, qu’est-ce que cela va donner par rapport à la concurrence internationale ? Quels mécanismes intelligents pourrait-on mettre en œuvre pour que ce sujet fonctionne ?

Qu’en est-il de l’acceptabilité sociale et des infrastructures ?

Sur l’acceptabilité, pour l’instant, nous sommes moins confrontés que d’autres filières industrielles de la transition. Mais je pense sincèrement que cela va être un sujet. On voit bien qu’à chaque fois qu’une industrie émerge quelque part, même quand il s’agit de relocaliser des productions industrielles nécessaires à la transition énergétique, cela suscite de l’opposition. Si nous avons de gros projets d’envergure, il faudra bien se poser la question. Mais je pense que cela nécessite surtout de la pédagogie. Nous avons la matière pour le faire.

Sur les infrastructures, c’est urgent de se mobiliser. Grâce à la transposition du 4ᵉ paquet Gaz européen, nous allons pouvoir organiser la planification et le déploiement des infrastructures de transport. Nous essayons aussi de soutenir les infrastructures de distribution qui ont un rôle à jouer pour tous les industriels, même ceux qui ne sont pas raccordés aux réseaux de transport de gaz. La planification des infrastructures est très importante, en permettant une répartition intertemporelle des coûts. Il faut pouvoir assumer le coût des investissements dans la tuyauterie alors même qu’elle ne sera pas utilisée à 100 % dès le départ. Il faut calibrer l’offre et la demande, cela vaut aussi pour le stockage.

Quels sont les indicateurs à surveiller d’ici 2027-2028 ?

Ce qui compte, ce sont les décisions finales d’investissement. Nous allons prochainement voir émerger des projets d’envergure avec l’annonce de décisions d’investissement prochainement. Il faut de la constance dans l’engagement public : nous avons une première tranche de soutien à la production, mais si nous n’allons pas plus loin, cela risque d’être problématique. Il faut une constance dans l’effort de la part de ceux qui souhaitent voir se développer la filière.

Côté industriel, nous constatons quand même une maturation, une consolidation. Les projets sont plus solides, c’est prometteur. Il n’y a pas eu de mirage de l’hydrogène. Il y a des segments de marché qui ne pourront pas se passer d’hydrogène. Je pense aux engrais par exemple : ils sont fabriqués avec de l’hydrogène. La question, c’est de savoir si nous faisons de l’hydrogène propre pour baisser les émissions mondiales associées à la production d’engrais, sans parler de la dépendance puisque nous importons actuellement de Russie, d’Égypte, entre autres.

L’hydrogène, c’est la conjugaison des enjeux de décarbonation, de compétitivité et de souveraineté. Il faut continuer de penser que c’est très important. Il faut avancer plus vite sur le cadre réglementaire et avec plus de constance sur l’engagement politique. Avec cela, nous devrions y arriver.

Propos recueillis par Pierre Thouverez

Ammoniac, le choix entre H2 et CSC pour décarboner

Comment l’industrie de l’ammoniac pourra-t-elle se décarboner ? Émettrice de 2,5 MtCO2eq (en 2019), elle représente 3 % des émissions de gaz à effet de serre (GES) de l’industrie française. Les GES sont émis à trois différents niveaux : du CO2 est émis par combustion de méthane d’origine fossile (40 % des émissions) et par le procédé de vaporeformage de méthane (51 %) ; du protoxyde d’azote (N2O) est émis lors de la fabrication d’acide nitrique (9 %).

Concentrée sur quatre sites en France (dont un a fermé en 2025), la production d’ammoniac (NH3) a été en moyenne d’environ 1 Mt/an entre 2015 et 2019. Elle repose sur deux principaux procédés : celui de vaporeformage du méthane pour produire de l’hydrogène ; et le procédé Haber-Bosch qui permet la combinaison d’hydrogène et de diazote de l’air en ammoniac. En plus de l’acide nitrique, les sites fabriquent aussi du nitrate d’ammonium et de l’urée.

Ces produits azotés de synthèse sont consommés en majorité (environ 60 %) sous forme d’engrais pour l’agriculture et le reste dans la filière de la chimie (nylon, médicaments, solvants, explosifs, agroalimentaires, etc.). Une infime partie (1 %) sert à la fabrication d’un additif pour les moteurs diesel. Une fois disséminés dans les sols, les fertilisants azotés dégagent du protoxyde d’azote, responsable de l’émission de plus de 13 MtCO2eq par an.

Très dépendante du méthane à la fois comme combustible et comme matière première, la filière de l’ammoniac représente 10 % de la consommation de gaz de l’industrie française.

La production française d’ammoniac ne suffisant pas à la consommation nationale qui s’élève à 1,7 Mt, le reste est donc importé. C’est encore plus le cas des engrais minéraux azotés qui sont importés à hauteur de 75 %. Le secteur est donc très exposé au commerce international et va être impacté par la mise en place du mécanisme d’ajustement carbone aux frontières (MACF).

Un scénario de référence insuffisant

Pour rendre la décarbonation de la filière ammoniac ambitieuse, le plan de transition sectoriel (PTS) établi par l’Ademe prend en compte plusieurs paramètres : l’évolution des consommations de produits azotés dans l’agriculture et la chimie, l’apparition de nouveaux usages (transport maritime en particulier), les niveaux d’importation des différents produits, le déploiement de solutions techniques matures et d’autres moins matures comme le captage et stockage du carbone (CSC) pour réduire les émissions dues au méthane, ou le recours à de l’hydrogène produit par électrolyse de l’eau à la place du vaporeformage.

Dans la logique des principes méthodologiques des PTS, l’Ademe a envisagé trois scénarios de transition. Le premier, dit de référence, prolonge les tendances actuelles à l’horizon 2050. Le cadre général en est une faible diversification au niveau des pratiques agricoles (avec tout de même une baisse de 30 % de la consommation des engrais azotés) et un commerce international stabilisé avec un rôle modéré du MACF. Les premiers leviers techniques de décarbonation à actionner sont l’amélioration de l’efficacité énergétique et l’électrification qui permettent d’éviter 0,4 MtCO2eq par an chacune. Mais l’électrification reste difficile, car les procédés de fabrication de l’ammoniac ont des échanges thermiques dont l’équilibre ne peut pas être rompu. L’abattement des émissions de N2O peut être amplifié (- 0,17 MtCO2eq/an), même si des efforts ont déjà été faits en France. Par ailleurs, 15 % de l’hydrogène est produit par électrolyse, et le CSC est déployé en partie sur les émissions de procédés (voir tableau). Le tout est complété par une plus grande part de biométhane dans le réseau gaz. Les émissions dans ce scénario de référence ne diminuent que de 65 % entre 2015 et 2050, alors que l’objectif pour l’industrie dans la Stratégie nationale bas-carbone (SNBC) est de – 81 %.

Choisir entre hydrogène et captage

L’enseignement du scénario de référence est que les deux solutions H2 électrolytique et CSC sont techniquement exclusives l’une de l’autre. Deux autres scénarios explorent donc chacun une de ces voies, en plus des leviers classiques d’efficacité énergétique, électrification et abattement de N2O. Le scénario « Mondialisation et engrais bas-carbone » envisage de plus forts niveaux d’importation à cause de la concurrence internationale, conduisant à la fermeture d’un quart de la capacité de production hexagonale d’ammoniac. Le recours à de l’hydrogène renouvelable est minime, et la principale voie de décarbonation est le CSC, en plus de l’effet induit par la baisse de production. Ce scénario est le moins coûteux des trois et permet d’atteindre juste l’objectif de la SNBC. Mais il a un coût social important et amplifie la perte de souveraineté.

Le scénario appelé « Résilience et ammoniac renouvelable » prend un tout autre chemin pour arriver à une décarbonation quasi totale (- 98 %) en 2050. Soutien à la filière française et européenne via le MACF, moindres importations, forte baisse de l’usage d’engrais azotés en agriculture en dessinent la trame. L’intégration de l’hydrogène électrolytique se fait principalement après 2035, avec rétrofit des vaporeformeurs, ce qui ne permet pas une décarbonation suffisante en 2030. Mais elle est ensuite largement rattrapée. Le choix de l’hydrogène a deux conséquences : 9,5 TWh/an d’électricité sont nécessaires en 2050, et les investissements dans l’électrolyse représentent plus de la moitié des investissements totaux de ce scénario. L’avantage est d’affranchir la filière totalement du méthane d’origine fossile et de créer un ammoniac zéro carbone (voire renouvelable selon le mix électrique) valorisable via un premium sur les marchés.

Avec ces scénarios, plus que toute autre filière, l’industrie de l’ammoniac est réellement à la croisée des chemins pour déterminer la direction de sa future décarbonation.

La décarbonation du transport maritime à l’épreuve des rapports de force internationaux

Le transport maritime international représente aujourd’hui près de 3 % des émissions mondiales de gaz à effet de serre et cette part pourrait augmenter avec la croissance continue du commerce mondial si aucune mesure structurelle n’est mise en œuvre. Face à cet enjeu, l’Organisation maritime internationale (OMI) a adopté en 2023 une stratégie révisée visant une trajectoire de neutralité carbone aux alentours de 2050. Cette stratégie est assortie d’objectifs intermédiaires de réduction de l’intensité carbone du transport maritime d’au moins 20 à 30 % d’ici 2030 et de 70 à 80 % d’ici 2040 par rapport aux niveaux de 2008.

Cette stratégie repose sur un ensemble de mesures techniques et économiques, dont le projet de Net Zero Framework, destiné à être intégré à l’annexe VI de la convention MARPOL. Ce cadre prévoit notamment un renforcement des normes sur l’intensité carbone des carburants maritimes et l’introduction d’un mécanisme mondial de tarification des émissions de gaz à effet de serre du secteur. L’objectif affiché est d’envoyer un signal économique clair afin d’orienter les investissements vers des technologies et des carburants à très faible émission.

Toutefois, lors de la session extraordinaire du Comité de protection du milieu marin tenue à Londres à l’automne 2025, l’adoption formelle de ce cadre a été reportée d’un an, faute de consensus entre les États membres. Ce report illustre la profondeur des divisions au sein de l’OMI, notamment sur la question de la tarification carbone et de son impact économique sur les flottes nationales.

Les États-Unis, soutenus par plusieurs pays producteurs d’hydrocarbures comme l’Arabie saoudite, se montrent particulièrement réticents à l’instauration d’un mécanisme financier mondial contraignant. Washington estime que certaines mesures envisagées pourraient pénaliser sa compétitivité maritime et créer des distorsions économiques injustifiées.

Une fracture européenne révélatrice des tensions sectorielles

À ces oppositions s’ajoute la décision de la Grèce de se démarquer de la position commune de l’Union européenne, en se rapprochant des positions américaines et saoudiennes lors des négociations. Ce choix est particulièrement significatif dans la mesure où la Grèce dispose de l’une des plus importantes flottes marchandes mondiales, ce qui lui confère un poids déterminant dans les débats à l’OMI.

Du côté de Bruxelles, les institutions européennes et plusieurs États membres plaident pour le maintien d’une ligne ambitieuse et coordonnée afin d’éviter un affaiblissement du cadre climatique international du secteur maritime. Les Européens redoutent qu’en l’absence d’accord mondial robuste, la multiplication de réglementations régionales ou nationales n’entraîne une fragmentation du marché maritime mondial.

Disponibilité des carburants et calendrier de transition

Au-delà des considérations politiques, les débats portent également sur la faisabilité technique de la transition. Plusieurs délégations soulignent que les carburants véritablement zéro émission ne sont pas encore disponibles à grande échelle et que des solutions intermédiaires, telles que le gaz naturel liquéfié ou certains biocarburants, resteront nécessaires à court et moyen terme. À l’inverse, les partisans d’un cadre strict estiment qu’un signal réglementaire fort est indispensable pour accélérer l’industrialisation des carburants réellement décarbonés.

L’année à venir sera donc déterminante pour la crédibilité de la stratégie climatique du transport maritime. Si l’OMI parvient à dépasser les clivages actuels, elle pourrait poser les bases d’une transition coordonnée à l’échelle mondiale. À défaut, les initiatives régionales, comme l’intégration du transport maritime au système européen d’échange de quotas d’émission, continueront de se développer sans offrir la cohérence globale recherchée.

Hydrogène décarboné : « Aller au-delà du solutionnisme technologique »

Dans le cadre du PEPR-H2, Myriam Merad, directrice de recherche au CNRS (UMR LAMSADE, Université Dauphine PSL), dirige le projet AIDHY, qui a pour finalité  d’analyser le déploiement de la filière hydrogène décarboné sur les territoires et d’accompagner les acteurs de la filière et les parties prenantes dans l’évaluation de la la soutenabilité des projets industriels autour de l’hydrogène

Myriam Merad a expliqué aux Techniques de l’Ingénieur les enjeux de soutenabilité explorés à travers le projet AIDHY(Aide à la Décision pour l’analyse et l’évaluation de la filière hydrogène décarboné). Ce dernier permet également d’interroger la vision « solutionniste » qui prédomine dans les politiques de transition énergétique, comme cela peut être le cas en ce qui concerne l’hydrogène, notamment, et propose une approche systémique pour rendre compte et évaluer la viabilité et la soutenanbilité des projets hydrogène sur les territoires.

Techniques de l’Ingénieur : Quel est l’objectif principal du projet AIDHY sur lequel vous travaillez ?

Myriam Merad : L’objectif du projet AIDHY est d’interroger ce qui est aujourd’hui largement présenté comme une évidence : le déploiement de l’hydrogène décarboné dans les stratégies de transition énergétique. L’hydrogène est souvent mobilisé comme une réponse à la lutte contre le changement climatique, en particulier à travers la réduction des émissions de CO. Cette contribution est réelle et importante, mais elle ne suffit pas à caractériser la soutenabilité d’une filière.

Notre point de départ est donc simple : que signifie concrètement dire qu’une filière est soutenable ? Peut-on réduire cette question aux seules émissions de CO, à la rentabilité économique ou à la faisabilité technologique, ou faut-il intégrer d’autres dimensions (sociales, territoriales, environnementales, institutionnelles) qui conditionnent sa robustesse sur le long terme ?

Au-delà de ce questionnement fondamental, AIDHY vise aussi à accompagner les porteurs de projets et les acteurs des territoires. Le déploiement de projets hydrogène implique des procédures complexes  (autorisations, concertation, gestion des risques, acceptabilité locale) et des contraintes multiples. Le projet cherche à fournir des outils et des cadres d’analyse permettant d’anticiper ces enjeux, plutôt que de les découvrir une fois les projets engagés…

Comment définissez-vous concrètement la soutenabilité sociétale d’un projet hydrogène ?

La soutenabilité sociétale ne se réduit pas à une seule dimension. Elle repose sur une articulation entre des enjeux économiques, environnementaux et sociaux, en tenant compte des échelles et des acteurs concernés. Sur le plan social, nous portons une attention particulière à l’ancrage territorial des projets. Un projet hydrogène est-il cohérent avec une trajectoire territoriale déjà construite ? A-t-il fait l’objet d’un dialogue réel avec les parties prenantes locales, ou est-il porté de manière descendante, sans appropriation locale ?

Nous interrogeons également la capacité des projets à produire des bénéfices territoriaux, et pas uniquement des bénéfices globaux. La transition énergétique répond à un enjeu mondial, mais elle se déploie localement. La question est donc de savoir si un projet contribue réellement au développement local, à l’emploi, à la réduction des nuisances ou des vulnérabilités, ou s’il externalise une partie de ses coûts sur les territoires.

Pour objectiver ces dimensions, nous avons construit un référentiel de plus de 250 critères couvrant les aspects socio-économiques, environnementaux et territoriaux. Tous ne sont pas activés dans chaque cas, car les priorités varient selon les territoires et les acteurs. L’enjeu n’est pas d’imposer une grille unique, mais de rendre visibles et discutables les critères qui fondent les jugements de soutenabilité.

Comment le projet s’articule-t-il concrètement sur les territoires ?

Nous cherchons à comprendre comment la filière hydrogène se décline concrètement dans les territoires. Lorsqu’une stratégie nationale identifie des territoires de déploiement, la question est de savoir si cette déclinaison est pensée uniquement à partir d’objectifs globaux, ou si elle intègre réellement les configurations locales : tissu industriel existant, contraintes foncières, ressources disponibles, risques déjà présents, priorités des collectivités.

Nous analysons notamment la manière dont les projets s’insèrent dans les dynamiques territoriales : viennent-ils compléter des stratégies locales existantes, ou entrent-ils en concurrence avec d’autres usages, d’autres projets ou d’autres priorités ? Sont-ils portés par une vision de long terme, ou répondent-ils à des opportunités conjoncturelles de financement ou de positionnement industriel ?

Méthodologiquement, nous combinons une analyse macroscopique des trajectoires nationales avec des études de cas territoriales approfondies, notamment en Auvergne–Rhône-Alpes et en Bretagne. Nous avons également lancé une enquête nationale sur la perception des risques et des opportunités liés à la filière hydrogène et à sa soutenabilité. Ces retours d’acteurs sont essentiels pour comprendre comment la filière est perçue, appropriée ou questionnée sur le terrain, et pour enrichir l’analyse des trajectoires possibles…

Quelles méthodologies développez-vous pour évaluer la soutenabilité ?

Nous nous appuyons sur les méthodes existantes d’évaluation multicritère et multi-acteurs, tout en allant au-delà des analyses de cycle de vie classiques. Ces dernières sont nécessaires, mais insuffisantes pour appréhender des filières complexes et évolutives comme l’hydrogène. Nous avons ainsi posé les bases d’une méthode permettant d’évaluer non pas une filière de manière statique, mais des trajectoires de filière à différents horizons temporels 5, 10, 20, 50 ans, voire davantage.

Ces trajectoires sont construites avec les acteurs des territoires, à travers des exercices prospectifs, afin de confronter les besoins actuels aux usages futurs, aux contraintes à venir et aux capacités d’adaptation. Une filière pensée pour répondre à des enjeux immédiats peut se révéler inadaptée demain si elle ne s’insère pas correctement dans un portefeuille plus large de solutions énergétiques.

Enfin, nous intégrons explicitement la question des risques et des nuisances. La filière hydrogène s’implante souvent dans des zones industrielles déjà exposées, ce qui peut conduire à une concentration des risques. Si certaines trajectoires peuvent contribuer à réduire les émissions et certaines nuisances, d’autres peuvent faire émerger de nouveaux enjeux, comme la pression sur la ressource en eau liée aux électrolyseurs. L’évaluation de la soutenabilité consiste précisément à rendre visibles ces arbitrages et ces effets de trajectoire, afin d’éclairer les décisions avant qu’elles ne deviennent irréversibles..

Comment évaluez-vous la soutenabilité énergétique de l’hydrogène par rapport aux autres sources d’énergie ?

Il faut d’abord lever une ambiguïté importante : l’hydrogène décarboné n’est pas une source d’énergie, mais un vecteur énergétique. Sa soutenabilité ne peut donc pas être évaluée comme celle de l’éolien, du photovoltaïque ou du nucléaire, qui sont des sources primaires. Elle dépend entièrement des sources d’énergie mobilisées pour le produire, des usages auxquels il est destiné, et de la manière dont il s’insère dans un système énergétique plus large.

C’est pourquoi il est insuffisant de comparer uniquement des procédés de production d’hydrogène entre eux. Une évaluation pertinente suppose de comparer des scénarios énergétiques complets : que se passe-t-il si, pour répondre à un même besoin, on mobilise directement de l’électricité renouvelable, ou si l’on passe par un vecteur comme l’hydrogène, avec ses pertes, mais aussi ses capacités de stockage, de transport et de flexibilité ? Ce sont ces arbitrages systémiques qui permettent d’éclairer les choix.

Dans nos travaux, nous distinguons clairement le procédé, qui concerne la production, et la filière, qui englobe l’ensemble de la chaîne, de la production à la distribution et aux usages. La soutenabilité de l’hydrogène se joue à l’échelle de cette chaîne complète, et doit être mise en regard d’autres portefeuilles ou scénarios énergétiques, notamment à l’échelle des territoires.

Enfin, la soutenabilité n’est pas une propriété absolue. Elle dépend des critères retenus, des échelles considérées et de ce que l’on choisit de rendre évaluable. Une analyse menée par l’ADEME, par une collectivité territoriale ou par des acteurs industriels ne posera pas exactement les mêmes questions. C’est pourquoi l’enjeu n’est pas de trancher une fois pour toutes, mais de rendre explicites les hypothèses, les arbitrages et les effets de trajectoire associés aux choix énergétiques..

Votre démarche semble arriver après le lancement de nombreux projets. Comment l’expliquez-vous ?

La réflexion qui a émergé au sein de notre consortium part d’un constat simple : la transition énergétique est encore trop souvent pensée de manière essentiellement solutionniste. Bien sûr, la dimension technique est indispensable, mais elle ne peut pas suffire. Ce qui manque fréquemment, c’est une réflexion explicite sur le projet de territoire et de société que ces solutions engagent dans le temps.

L’exemple du nucléaire est souvent mobilisé, non pour juger une technologie en soi, qui a répondu, et continue de répondre, à des besoins énergétiques et stratégiques majeurs, mais pour rappeler que des choix construits principalement de manière technocratique peuvent produire, sur le long terme, des effets sociaux, environnementaux et territoriaux insuffisamment anticipés, et enfermer l’action publique dans des trajectoires difficiles à infléchir. Ce raisonnement vaut d’ailleurs pour toute option énergétique ou technologique dès lors qu’elle engage des horizons de plusieurs décennies.

Les outils existants, comme les études d’impact, les études de dangers, le débat public ou la concertation, obligent déjà à introduire une partie de ces questions, mais de façon fragmentée et souvent trop tardive. Ce qui fait encore défaut, c’est un espace de réflexion plus global et réellement en amont, capable de poser collectivement la question suivante : quelle société voulons-nous construire au regard des contraintes actuelles et des choix énergétiques que nous faisons aujourd’hui ? À cet égard, l’absence d’un véritable lieu de pensée stratégique de long terme – à l’image de ce que fut le Commissariat au Plan, et que France Stratégie tente aujourd’hui de réinvestir – reste un angle mort de la conduite des projets.

Quels sont les facteurs qui expliquent cette absence de vision systémique ?

Il y a plusieurs éléments de réponse, mais ils tiennent moins à des chocs ponctuels qu’à un état structurel de l’action publique. L’État est aujourd’hui à bout de souffle, non seulement en termes de moyens, mais aussi de capacités d’anticipation, de coordination et de réaction. Il devrait être un acteur de la prévoyance et du long terme ; or il fonctionne de plus en plus dans une logique de gestion de l’urgence, ce qui affaiblit sa capacité à penser les trajectoires.

Les crises récentes, qu’il s’agisse du Covid ou de la guerre en Ukraine, ne sont pas la cause de cette situation, mais en ont été des révélateurs. Elles ont mis en lumière un déficit de préparation et d’anticipation, et une difficulté à sortir de réponses construites dans l’urgence, souvent sous fortes contraintes politiques, économiques et administratives.

Un deuxième facteur tient à l’enfermement progressif de l’État dans un modèle technocratique très sectorisé. Cette culture a longtemps été une force, notamment dans des domaines comme l’énergie ou l’industrie, mais elle tend aujourd’hui à produire des raisonnements en silos et une survalorisation de la solution technique. Or, une solution n’est jamais absolue : elle est toujours située, territoriale, sociale, et inscrite dans un contexte donné. Lorsque cette dimension est négligée, les politiques publiques se verrouillent dans des choix difficiles à réinterroger.

À cela s’ajoute le cloisonnement des périmètres de la sphère publique. Les enjeux économiques, environnementaux, sanitaires et sociaux sont traités par des administrations et des agences distinctes, qui n’ont ni toujours le temps ni les incitations pour construire une lecture réellement intégrée en amont. On aboutit alors à des arbitrages optimisés sur un critère, mais sous-optimaux, voire contre-productifs, sur d’autres.

Enfin, la pression de l’innovation rapide et de la compétition internationale accentue ces dynamiques. La question de la compétitivité est stratégique, mais lorsqu’elle devient dominante, elle peut pousser à des choix dictés par le positionnement international plutôt que par une analyse fine des besoins, des vulnérabilités et des capacités d’adaptation des territoires.

Dans ce contexte, la lutte contre le changement climatique, qui est une nécessité absolue, tend parfois à être abordée à travers un cadre trop étroit, centré principalement sur la réduction des émissions de CO. Si cet objectif est fondamental, sa transformation en indicateur quasi exclusif peut réduire la pensée et invisibiliser d’autres enjeux essentiels : adaptation, ressources, santé, biodiversité ou acceptabilité sociale. Cela contribue à enfermer les choix énergétiques et technologiques dans des alternatives insuffisamment pensées de manière systémique.. 

Quel message voudriez-vous faire passer aux décideurs ?

Ce que l’on observe avec l’hydrogène décarboné n’a rien d’exceptionnel. Les mêmes logiques se retrouvent dans d’autres choix structurants, métaux critiques et terres rares, intelligence artificielle, infrastructures énergétiques ou numériques, dès lors que l’on engage des trajectoires de long terme. Ce sont moins les secteurs qui posent problème que la manière dont ces choix sont pensés, cadrés et justifiés.

Le risque est alors de transformer des décisions profondément politiques en décisions présentées comme purement techniques, nécessaires ou évidentes. Or ces choix produisent des effets durables : dépendances industrielles et géopolitiques, rapports de pouvoir asymétriques, réduction des marges d’adaptation et, parfois, enfermement dans des trajectoires difficiles à infléchir.

Il ne s’agit pas de céder au catastrophisme, mais d’assumer un pessimisme de la raison : regarder lucidement vers quoi ces trajectoires nous conduisent, précisément parce qu’elles sont portées par de bonnes intentions, et se donner les moyens d’en interroger les effets non intentionnels. Cette lucidité est une condition de la responsabilité, pas un frein à l’action.

Dans l’architecture institutionnelle française, la séparation, au moins fonctionnelle, entre le politique, l’administratif et le scientifique devait jouer un rôle de garde-fou, en permettant à chaque niveau de poser ses propres questions et d’introduire de la réflexivité dans la décision publique. Or cette capacité s’érode lorsque les cadres de problème, les expertises mobilisées et les horizons temporels sont de plus en plus alignés sur des impératifs politiques de court terme.

L’éthique et la responsabilité sociétale ne relèvent alors plus d’un supplément moral ou d’un discours d’accompagnement. Elles deviennent des conditions centrales de la qualité du choix public, c’est-à-dire de sa capacité à intégrer ses angles morts, ses effets différés et les conséquences pour les acteurs absents ou peu audibles dans la décision.

Propos recueillis par Pierre Thouverez

Plasturgie et composites : bilan contrasté et perspectives prudentes pour 2026

Après deux années marquées par un recul de son activité, la filière française de la plasturgie et des composites aborde 2026 dans un climat de prudence mêlée d’attentes, comme le souligne un rapport publié par Polyvia, le principal syndicat national de ce secteur. Confronté à une contraction de la demande, à une concurrence internationale accrue et à des mutations réglementaires profondes, les industriels espèrent avoir touché un point bas en 2025. Reste à savoir si les conditions seront réunies pour enclencher une reprise durable.

Avec près de 203 000 salariés, 4 000 établissements et un chiffre d’affaires avoisinant 83 milliards d’euros, la plasturgie demeure un pilier de l’industrie française. Pourtant, derrière ce poids économique, les fragilités s’accumulent. En 2024, le cœur de la plasturgie a enregistré un recul de son chiffre d’affaires de 4 %, après déjà –1,6 % l’année précédente. Une dégradation plus marquée que celle de l’industrie manufacturière dans son ensemble, qui a pesé sur la rentabilité, puisque plus d’un quart des entreprises ont terminé l’exercice en déficit.

Cette érosion s’est traduite en 2024 par un premier recul des effectifs, notamment dans l’automobile et le bâtiment. Si l’emballage plastique résiste globalement et si les composites continuent de créer des emplois, la dynamique reste insuffisante pour compenser les pertes observées ailleurs. En 2025, l’activité est restée sous pression, car plus de la moitié des industriels interrogés par Polyvia déclaraient avoir constaté un niveau d’activité inférieur à leurs objectifs, et la situation s’est encore dégradée au second semestre.

Les perspectives pour 2026 s’inscrivent dans cette continuité. La majorité des industriels misent sur une stabilisation plutôt que sur une véritable reprise. Un quart seulement anticipe un redémarrage, laissant penser que le secteur pourrait atteindre un plancher, sans pour autant renouer rapidement avec la croissance. La prudence est renforcée par un environnement géopolitique incertain et par les tensions commerciales, notamment avec les États-Unis.

Des secteurs clés confrontés à des difficultés persistantes

L’analyse sectorielle révèle des trajectoires contrastées. La plasturgie automobile reste fragilisée, en particulier chez certains équipementiers confrontés à la concurrence des acteurs chinois sur le segment des véhicules électriques. Le bâtiment, déjà pénalisé par l’effondrement de la construction neuve, continue d’évoluer en territoire récessif malgré la relative résilience de la rénovation. Les emballages plastiques subissent, eux aussi, la baisse de régime des secteurs de la cosmétique et de l’industrie manufacturière.

À l’inverse, la plasturgie médicale fait preuve d’une stabilité relative, portée par des barrières réglementaires élevées et des exigences de qualité qui limitent la concurrence par les prix. Le segment des composites demeure le plus dynamique. Positionné sur des marchés de niche à forte valeur ajoutée tels que l’aéronautique, la défense, le médical ou les infrastructures, il bénéficie d’une meilleure protection face à la concurrence internationale, même si un léger ralentissement s’est fait sentir en 2025.

Au cœur des enjeux de 2026 figure la transition vers la circularité. En 2024, les plasturgistes français ont transformé 650 000 tonnes de plastiques recyclés, en hausse de 17 % par rapport à 2022, tandis que l’usage de polymères vierges recule. Cette évolution est appelée à s’amplifier, sous l’effet des réglementations françaises et européennes, mais elle se heurte à une réalité économique sévère, puisque la pression des importations de matières vierges et recyclées à bas coût fragilise la filière du recyclage, déjà marquée par des fermetures d’usines.

Dans ce contexte, Polyvia plaide pour une véritable « préférence européenne ». L’objectif est de garantir des règles du jeu équitables face à la concurrence internationale, d’imposer des obligations de contenu recyclé et de renforcer les contrôles sur les produits importés. Sans ces leviers, la filière risque de voir s’accélérer les délocalisations et la perte de compétences industrielles stratégiques.

Les recycleurs européens fondent de réels espoirs sur une mesure actuellement à l’étude à Bruxelles. Celle-ci viserait à exclure, jusqu’à fin 2027, le plastique recyclé hors UE du calcul des taux d’incorporation de PET recyclé dans les bouteilles. Si rien n’est encore acté, cette préférence européenne pourrait constituer un levier indispensable pour enrayer la concurrence asiatique, sécuriser les débouchés des capacités de recyclage locales et redonner de la cohérence économique à l’objectif de circularité.

Les actualités à suivre : BCE, hydrogène, PFAS, batteries industrielles…

L’heure de vérité pour l’hydrogène

L’Union européenne tente d’accélérer le passage des projets aux usines réelles : le 20 janvier 2026, la Commission a annoncé que six lauréats de l’enchère hydrogène de l’Innovation Fund avaient signé leurs accords de subvention, pour un total d’environ 381 MW d’électrolyse. L’objectif est clair : sécuriser des capacités de production d’hydrogène renouvelable et donner de la visibilité aux industriels. Mais, en coulisses, le signal est plus contrasté : la 2ᵉ enchère de la banque de l’hydrogène a laissé un goût d’inachevé : seuls six projets sont allés jusqu’à la signature, loin des volumes initialement espérés… un symptôme des doutes sur la rentabilité et la solidité de la demande.

La suite se joue dans les semaines qui viennent : la 3ᵉ enchère est ouverte et se clôture le 19 février 2026. Elle devrait cristalliser trois enjeux vitaux pour la filière : le niveau de soutien, la capacité des projets à tenir les exigences de réalisation, et surtout la question clé : qui achète l’hydrogène, à quel prix, et avec quels contrats d’offtake ?

PFAS : La consultation attendue pour mars 2026

En mars 2026, la restriction européenne sur les PFAS entre dans une séquence décisive : les comités de l’ECHA devraient franchir des étapes clés, avant l’ouverture d’une consultation publique de 60 jours.

Pour l’industrie, l’enjeu est immédiat, il s’agit d’arriver armée de données. Il faut cartographier les usages (substituables ou critiques ?) et chiffrer les impacts pour peser dans la consultation. La mise à jour de la cartographie côté Ineris montre le niveau de détail attendu.

Décision de la BCE le 5 février prochain : 15 milliards d’euros en jeu pour l’industrie française

Le jeudi 5 février 2026, la Banque centrale européenne annoncera sa décision sur les taux directeurs. Après quatre pauses consécutives maintenant le taux de dépôt à 2 %, les marchés anticipent un statu quo, mais cette décision conditionnera directement la concrétisation de plusieurs milliards d’euros d’investissements industriels en France.

Les projets en attente sont majeurs : les 450 millions d’euros de Safran pour son usine de freins carbone dans l’Ain, les 350 millions d’Amazon dans la logistique, la montée en puissance critique de la gigafactory Verkor à Dunkerque (1 200 emplois), ou encore les 5,5 milliards de datacenters IA d’Evroc et Sesterce. Au total, près de 8 milliards d’euros d’investissements et 15 000 à 20 000 emplois industriels dépendent de l’évolution des conditions de financement dans les prochains mois.

Le passeport carbone des batteries industrielles entre en scène

Le 18 février 2026 sera une date pivot : les batteries industrielles rechargeables d’une puissance supérieure à 2 kWh entreront dans une phase où la déclaration d’empreinte carbone s’impose comme un prérequis. Ce jalon s’inscrit dans la montée en puissance du règlement (UE) 2023/1542, entré en vigueur le 17 août 2023.

Concrètement, l’échéance force les industriels à verrouiller trois briques : une ACV robuste, des données fournisseurs exploitables, et une chaîne de preuves auditable. Le texte prévoit une trajectoire « mesurer / comparer / classer », appelée à se préciser.

Dans les prochaines semaines, le vrai sujet sera donc le mode d’emploi : quels formats et méthodes seront stabilisés, et à quel rythme ?

SMR en France : le prochain signal faible arrive le 13 mars 2026

Dans le paysage des petits réacteurs modulaires (SMR), les signaux vraiment utiles ne sont pas toujours ceux qui font la une. En France, un bon « thermomètre » se trouve… dans l’agenda des experts de la sûreté. Le calendrier officiel des groupes permanents de l’ASNR prévoit, le 13 mars 2026, une séance du groupe transverse « réacteurs innovants » consacrée à l’instruction des options de sûreté retenues par CALOGENA pour son projet de SMR.

Ces échanges sont souvent le moment où un projet montre sa maturité : choix de design, options de sûreté, cohérence technique… autant de points qui peuvent accélérer une trajectoire industrielle ou, au contraire, révéler des verrous (démonstrateur, exigences à compléter, options à revoir).

L’enjeu est donc double pour la filière du « petit » nucléaire : la lecture de ce qui passe bien à l’instruction et de ce qui appelle des compléments… plus largement, le rythme des dépôts et demandes d’avis autour des projets SMR suivis par l’ASNR est détaillé ici.

L’Europe et la France face au défi de la production compétitive d’hydrogène décarboné

Le vieux continent affiche des ambitions considérables : 40 GW de capacités d’électrolyse d’ici 2030 pour une production envisagée de 10 millions de tonnes d’hydrogène renouvelable. Telles sont les – grandes – ambitions européennes. Cette volonté s’accompagne bien évidemment de subventions pour le développement et la recherche, et d’appels d’offres, d’ores-et-déjà mis en place.

Cela dit, cette façade d’unité masque des divergences stratégiques profondes entre les États membres. L’Allemagne privilégie une stratégie d’importation massive à bas coûts, nécessaire pour préserver sa compétitivité industrielle, ce qui explique la signature de partenariats avec l’Australie, les Émirats arabes unis et le Chili pour sécuriser ses approvisionnements. La France, au contraire, mise sur une production domestique en s’appuyant sur son parc nucléaire décarboné. Cette divergence reflète des modèles énergétiques fondamentalement différents et pose forcément la question de la cohérence de la stratégie européenne.

Au-delà des cas allemands et français, la péninsule ibérique dispose d’atouts considérables grâce à ses ressources solaires exceptionnelles. En avril dernier, la Commission européenne a approuvé une aide d’État de 400 millions d’euros pour l’Espagne afin de financer jusqu’à 345 MW de capacité d’électrolyse et la production de 221 000 tonnes supplémentaires d’hydrogène renouvelable par an.

Le cas français au prisme de la révision stratégique

La France a initialement affiché de fortes ambitions. L’État s’est engagé sur 9 milliards d’euros de soutien public d’ici 2030, avec un objectif de 6,5 GW de capacités d’électrolyse. La stratégie nationale, présentée en septembre 2020, visait trois objectifs principaux : installer suffisamment d’électrolyseurs pour contribuer significativement à la décarbonation, développer les mobilités propres pour les véhicules lourds, et construire une filière industrielle créatrice d’emplois.

Cependant, la confrontation avec la réalité industrielle a conduit à une révision significative de ces objectifs. L’ambition de 6,5 GW a été ramenée à 4,5 GW en 2030, puis étendue à 8 GW en 2035. Cette révision traduit la prise en compte des contraintes technico-pratiques et économiques.

Quels sont les freins actuels au développement de l’hydrogène vert ?

Un débat crucial divise actuellement l’Europe : l’hydrogène produit à partir d’électricité nucléaire peut-il être considéré comme vert ? La Commission européenne semble s’orienter vers une reconnaissance de l’hydrogène nucléaire comme bas carbone, sous conditions. Cette évolution serait une excellente nouvelle pour la France et son parc nucléaire, mais elle fait l’objet de résistances fortes de la part de certains États membres qui privilégient une définition strictement renouvelable de l’hydrogène vert.

Il faut bien comprendre que le coût élevé de l’électricité décarbonée, nécessaire en grande quantité, constitue un obstacle majeur. Associé à l’augmentation des coûts des électrolyseurs, ce facteur a entraîné retards et annulations de projets, particulièrement pour l’hydrogène renouvelable. Des projets d’envergure comme Hydeal en Espagne ont ainsi été abandonnés, tandis que certains lauréats d’appels d’offres ont renoncé après l’annonce des résultats, estimant ne plus pouvoir tenir le prix de 0,38 €/kg sur lequel ils s’étaient engagés.

On voit donc que l’équation économique reste difficile à résoudre. L’équilibre économique des projets dépend de plusieurs facteurs : le renoncement progressif aux combustibles fossiles, la baisse des coûts grâce à l’industrialisation des composants, le développement d’électricité renouvelable bon marché, et les percées technologiques potentielles.

Revue du Magazine d’Actualité #61 du 19 au 23 janvier

Dans un contexte géopolitique mouvant, l’Europe et la France s’efforcent de préserver leur autonomie stratégique tout en gérant les transitions énergétiques et numériques.


⚙️ INDUSTRIE & SOCIÉTÉ

L’industrie française en 2026, entre défis et opportunités

Dans un contexte international instable marqué par l’érosion du multilatéralisme, l’industrie française aborde 2026 avec prudence. Le renforcement de l’industrie de défense contraste avec les difficultés de réindustrialisation et les incertitudes budgétaires. L’augmentation des commandes militaires soutient une partie du secteur, mais les tensions géopolitiques et les défis de compétitivité structurelle pèsent toujours lourd.
🏭 Cap sur les défis industriels 2026


Accord UE‑Mercosur suite à sa signature : enjeux économiques, industriels et réglementaires

Après plus de vingt-cinq ans de négociation, l’accord UE‑Mercosur ouvre une vaste zone de libre‑échange réunissant plus de 700 millions de consommateurs. Le texte promet des baisses massives de droits de douane, profitables aux exportations européennes (automobile, machines, spiritueux), mais suscite des craintes autour de la concurrence agricole et du respect des normes environnementales. Les impacts différeront fortement selon les filières, entre opportunités industrielles et risques de déséquilibre pour l’agriculture.
🌐 Voir les impacts clés de l’accord Mercosur


🌍 MATÉRIAUX & RESSOURCES

Trump et le Groenland : des terres rares convoitées, mais pas forcément exploitables

L’intérêt américain pour le Groenland repose surtout sur son sous-sol riche en matières premières critiques, malgré des obstacles majeurs à leur exploitation (glace omniprésente, absence d’infrastructures, faible rentabilité). Les motivations géostratégiques affichées masquent une réalité économique complexe, où le potentiel minier demeure largement théorique. Les projets d’extraction restent freinés par les coûts et les contraintes environnementales.
🧊 Explorer les enjeux miniers du Groenland


⚡ ÉNERGIE & ENVIRONNEMENT

Biogaz : passage attendu de la cogénération à l’injection

La France amorce une transition majeure du biogaz vers l’injection de biométhane, encouragée par la fin progressive des soutiens publics à la cogénération et le développement de nouveaux mécanismes contractuels. Environ 2 à 4 TWh pourraient être convertis chaque année, sous réserve de conditions techniques strictes (proximité du réseau, capacités d’injection, financements). Cette évolution vise à renforcer la filière biométhane dans la stratégie nationale.
♻️ Comprendre la mutation vers l’injection biométhane


Électricité nucléaire : bilan positif pour la France en 2025

La production nucléaire française atteint 373 TWh en 2025, portée par une meilleure disponibilité des réacteurs et une optimisation des arrêts de tranche. Cette dynamique place le pays dans une position exportatrice record, renforçant à la fois autonomie énergétique et stabilité du réseau. Les efforts engagés depuis 2019 dans le plan START portent leurs fruits avec des performances nettement améliorées.
⚛️ Plonger dans le bilan énergétique 2025


Data centers : l’Ademe alerte sur une future explosion des besoins électriques

Selon l’Ademe, la consommation électrique des data centers pourrait être multipliée par 3,7 d’ici 2035 et atteindre plus de 250 TWh en 2050 si aucune politique de sobriété n’est engagée. L’étude propose plusieurs scénarios allant de la sobriété forte à une poursuite non maîtrisée des usages, montrant l’importance cruciale de réguler les infrastructures numériques pour respecter les engagements climatiques français.
💾 Voir les scénarios énergétiques des data centers


💻 NUMÉRIQUE & SOUVERAINETÉ

L’UE ouvre ses bases biométriques aux autorités américaines>

L’Union européenne prépare un cadre juridique permettant aux États-Unis d’accéder aux données biométriques de ressortissants européens pour maintenir le Visa Waiver. Malgré l’objectif de renforcer la lutte contre le crime organisé, la mesure soulève de fortes inquiétudes quant aux droits fondamentaux, à l’étendue des données partagées et à la réciprocité des accès. Les débats portent notamment sur la conformité au RGPD et la souveraineté numérique.
🧬 Comprendre les enjeux autour des données biométriques


Avec le DMA, l’Europe vise la puissance des GAFAM

Le Digital Markets Act bouleverse les modèles des géants du numérique en imposant des règles ex ante : amendes massives, ouverture des données, fin de l’auto‑préférence, obligations d’interopérabilité. Apple, Meta, Google et d’autres sont déjà visés par des procédures, marquant un tournant dans la régulation européenne. L’objectif : rétablir une concurrence loyale et stimuler l’émergence d’acteurs européens.
🏛️ Analyse des obligations imposées aux GAFAM


👓 Bon week-end et bonne lecture

Catalyser la découverte de catalyseurs grâce à l’IA : Realcat et Entalpic en passe de relever le défi

Hébergé depuis mai 2014 au sein de Centrale Lille, l’Equipex Realcat – dont nous vous avions proposé une présentation exhaustive l’an dernier à l’occasion de son 10e anniversaire – dispose, depuis lors, de capacités d’expérimentation décuplées, lui permettant de réduire drastiquement le temps nécessaire à la découverte et à l’optimisation de nouveaux catalyseurs. Pour pousser encore plus loin les capacités de la plateforme, ses responsables se sont récemment mis en quête d’un partenaire capable de l’épauler sur le plan du développement d’outils d’IA appliquée à la découverte de catalyseurs. C’est finalement au détour d’une rencontre fortuite que les équipes de Realcat découvrent le potentiel de l’offre développée par Entalpic, et vice-versa. Ce qui amène finalement les deux structures à la signature d’un accord de partenariat, rendu public en septembre dernier. Un coup de foudre scientifique sur lequel ont accepté de revenir plus en détail Egon Heuson, chargé de recherche au sein de l’Unité de Catalyse et Chimie du Solide (UCCS) de Centrale Lille, et Alexandre Duval, cofondateur et directeur scientifique d’Entalpic.

Techniques de l’Ingénieur : Alexandre Duval, pouvez-vous vous présenter en quels mots, et nous expliquer ce qui vous amené à cofonder Entalpic ?

Alexandre Duval, cofondateur d'Entalpic
Docteur dans le domaine des sciences du traitement de signal et des images, Alexandre Duval a cofondé Entalpic en mai 2024. © Antoine Thiercelin – DDS Prod

Alexandre Duval : J’ai cofondé Entalpic aux côtés de Victor Schmidt et de Mathieu Galtier. Nous avons tous les trois une formation en ingénierie – à CentraleSupélec pour moi, à l’École Polytechnique pour Victor, et à Mines Paris-PSL pour Mathieu — ainsi qu’un doctorat dans le domaine des mathématiques appliquées, de l’informatique et de l’IA appliquée aux matériaux. J’ai, pour ma part, travaillé durant ma thèse à la fois à CentraleSupélec, en France, et à Mila, au Québec, où j’ai eu l’opportunité de travailler avec le Pr. Yoshua Bengio. Il a été un vrai role model pour moi. Nous avons été parmi les premiers à travailler sur le sujet de la découverte de nouveaux catalyseurs grâce à l’IA. Avec l’appui de chercheurs de Meta, nous avons contribué à l’essor de modèles prédictifs et génératifs permettant d’explorer cet espace chimique infini, et de prédire ainsi l’efficacité des catalyseurs. C’est pour mettre ce travail à profit du monde industriel que j’ai créé Entalpic, il y a deux ans maintenant.

Nous sommes aujourd’hui une trentaine, tous basés à Station F, et faisons partie de la French Tech 2030. Notre volonté est d’accélérer la R&D industrielle, en offrant aux chimistes des outils leur permettant de concentrer leurs efforts sur du travail à valeur ajoutée. L’idée n’est pas de remplacer les équipes de chimistes, mais bien de les « augmenter », en leur donnant les moyens de comprendre pourquoi une réaction fonctionne, quelle famille de catalyseurs a le plus grand intérêt, etc. Le tout, dans l’optique de les aider à développer de meilleurs matériaux, dans le domaine des batteries électriques et des semi-conducteurs notamment.

Realcat est déjà bien connue des lectrices et lecteurs du Magazine d’Actualité ; Egon Heuson pouvez-vous néanmoins nous préciser le rôle que vous jouez au sein de cette plateforme ?

Egon Heuson, chargé de recherche à Centrale Lille, travaille avec le Pr. Sébastien Paul, coordinateur de la plateforme Realcat
Auteur d’une thèse en biochimie, Egon Heuson est aujourd’hui chargé de recherche à Centrale Lille, où il épaule notamment le Pr. Sébastien Paul, coordinateur de la plateforme Realcat. © Quentin Haguet

Egon Heuson : Je suis chargé de recherche à Centrale Lille, au sein de l’Unité de Catalyse et Chimie du Solide (UCCS). Je me suis d’abord et avant tout intéressé, de par ma formation, à la biocatalyse. Ces dernières années, je me suis néanmoins tourné vers d’autres thématiques : la catalyse hybride – qui consiste, en substance, à combiner catalyseurs chimiques et biologiques pour en faire des matériaux multi-catalytiques hybrides –, mais aussi l’utilisation de l’IA pour la prédiction de nouveaux catalyseurs, au sein notamment de la plateforme Realcat. J’assiste en effet depuis deux ans environ le Pr. Sébastien Paul, professeur à Centrale Lille et coordinateur de la plateforme, sur l’utilisation de l’IA dans le domaine de la catalyse hétérogène.

Quelles sont les origines de la signature de cet accord de partenariat entre Centrale Lille et Entalpic, que vous avez annoncée le 22 septembre dernier ?

EH : Tout est parti d’une rencontre fortuite entre Sébastien Paul et Mathieu Galtier lors du Congrès Mondial de la Catalyse (ICC) en 2024, à Lyon. Cette belle rencontre s’est faite alors qu’Entalpic venait tout juste d’être créée. Realcat se situait quant à elle à un tournant sur le plan de l’utilisation de l’IA. Nous commencions à atteindre nos limites en matière de développement d’algorithmes en interne, et peinions à trouver des partenaires sensibles à la dimension appliquée de l’IA. Rares sont en effet les acteurs du domaine à proposer des modèles suffisamment malléables pour faire face aux inévitables imprécisions liées à l’expérimentation réelle… Parce que la start-up avait une vraie volonté d’application concrète de ses modèles d’IA, Entalpic nous est donc apparu comme le partenaire idéal.

AD : Nous avons nous aussi tout de suite perçu la potentielle complémentarité entre nos deux structures. Mettre en place des synergies au travers d’une collaboration nous a donc tout simplement semblé évident.

Quels objectifs visez-vous, très concrètement, au travers de ce projet collaboratif, baptisé Realtalpic ?

AD : Notre objectif ultime est de parvenir à faire de la rétrosynthèse de catalyseurs. Cela consiste, en partant d’une réaction donnée, à aller explorer l’espace chimique, pour trouver quel type de catalyseur et quel « mix » de matériaux permet de favoriser au mieux la réaction. Nous développons pour cela des algorithmes d’IA générative permettant de « créer » de nouvelles structures catalytiques, ainsi que des algorithmes prédictifs, chargés, quant à eux, de prédire l’activité catalytique de ces structures. Tout cela repose évidemment sur l’IA, mais aussi sur des plateformes de cheminformatics, et même des outils de simulation quantique.

Nous avons pour cela criblé des centaines de milliers de catalyseurs. Nous sommes aujourd’hui en mesure de proposer à Realcat ceux qui se révèlent les plus pertinents pour une réaction donnée. Avec son expertise, Realcat va ainsi pouvoir sélectionner ceux sur lesquels il est le plus intéressant qu’elle se concentre, dans le but, in fine, de parvenir à les synthétiser de façon optimale, et à les tester à grande échelle.

EH : Pour faire une analogie, on pourrait dire que le rôle d’Entalpic a d’abord consisté à cribler toutes les cartes d’identité de la population française, pour finalement extraire de ce jeu de cartes celles appartenant aux personnes les plus compétentes pour la tâche que nous avions sélectionnée. Dans le cas de la catalyse, chacune de ces « cartes d’identité » rassemble un ensemble de propriétés qui font qu’un catalyseur a des chances de fonctionner pour une réaction donnée. Charge à nous, Realcat, de voir s’il est possible de les synthétiser, puis, le cas échéant, de les tester.

Nous faisons déjà, pour l’heure, un premier tri à l’aide de nos connaissances et de nos propres méthodes — demain, des outils d’aide à la décision développés par Entalpic nous y aideront aussi très certainement. Nous sélectionnons un sous-ensemble de catalyseurs, que nous allons ainsi, ensuite, pouvoir synthétiser rapidement grâce à nos techniques haut débit, avant de mesurer à quel point ces catalyseurs produits se rapprochent de la « carte d’identité » établie par Entalpic.

Les informations obtenues sont alors compilées pour fournir un score permettant à Entalpic d’ajuster son modèle. Ceci, dans le but d’améliorer ses capacités à prédire les « cartes d’identité » des meilleurs catalyseurs pour une réaction donnée, tout en veillant à ce qu’ils soient le plus facilement synthétisables possible. À l’issue de notre projet, nous pourrons ainsi établir une véritable boucle de rétroaction, dont nous allons tirer parti afin de tendre vers le meilleur catalyseur possible pour chacune des réactions sur lesquelles nous serons amenés à travailler.

La très grande majorité des travaux publiés à l’heure actuelle dans ce domaine sont basés sur des données issues de la littérature, notamment des bases de données open source, théoriquement fiables, mais qui comportent, en fait, énormément d’approximations qui posent des problèmes en matière de reproductibilité des résultats…

Nous avons d’ailleurs d’ores et déjà, dans le cadre de Realtalpic, commencé à vérifier les données de la littérature. Résultat : nous sommes assez peu confiants dans leur fiabilité, au vu des observations que nous avons faites après synthèse de ces catalyseurs. Leur efficacité catalytique est notamment fortement surestimée dans beaucoup de cas. Cela montre à quel point il est important de tester in vitro ces catalyseurs, pour pouvoir affiner les modèles développés sur la base de données théoriques issues de la littérature. La réalité du terrain est bien souvent très différente des systèmes théoriques parfaits… Le constat est implacable : il faut de la donnée testée ! C’est donc ce que nous faisons actuellement dans le cadre du projet Realtalpic.

Outre ces aspects théoriques, sur le plan pratique, nous avons choisi une réaction de très grand intérêt comme preuve de concept : le cracking de l’ammoniac pour la production de dihydrogène. Notre objectif est de parvenir à développer un catalyseur optimisé par IA pour cette réaction, que nous pourrions ensuite breveter, en vue d’une exploitation par un partenaire industriel. Nous espérons aboutir d’ici à la fin du premier semestre de cette année.

Votre partenariat est signé pour (au moins) 18 mois… Quelles grandes étapes comptez-vous franchir dans ce laps de temps ?

AD : Egon évoquait à l’instant la perspective de dépôt d’un premier brevet. Je pense que nous serons en capacité de déposer plusieurs autres demandes prochainement. D’autant que nous sommes capables de généraliser notre approche à d’autres types de réactions. Si ce premier brevet aboutit comme nous l’espérons, et que l’intérêt industriel se confirme, je pense que cette collaboration se poursuivra dans la durée, et que nous pourrons nous attaquer, ensemble, à des défis de plus en plus ambitieux !

EH : Il est probable que le projet de recherche fondamentale se poursuive. Mais nous réfléchissons d’ores et déjà au développement d’une offre de prestation, à destination des industriels, adaptée au cas par cas à leurs besoins, sur la base de la preuve de concept que nous avons mise en place.

De par les relations que vous entretenez d’ores et déjà avec des industriels de tous horizons, quel regard portent-ils sur l’utilisation de l’IA ? Cela suscite chez eux de l’intérêt, et/ou des craintes, notamment en matière d’explicabilité… ?

AD : On ne ressent pas vraiment de crainte de leur part, dans le sens où l’utilisation que nous faisons de l’IA ne représente pas de risque pour leur production. Au contraire, ils voient globalement l’IA comme un moyen de mieux comprendre les réactions chimiques qu’ils mettent en œuvre, de donner davantage d’intuition à leurs équipes de chimistes, et donc, d’obtenir finalement encore plus d’explicabilité.

EH : Les industriels de la chimie sont effectivement très intéressés par l’IA. L’avènement des outils de ce type suscite clairement un engouement. D’autant que, je le confirme, il n’y a pas de risque réel à les utiliser. L’offre que nous développons ne fera au contraire qu’accélérer la découverte de catalyseurs fonctionnels.

Realcat a ceci de particulier qu’elle s’intéresse à la fois à la catalyse chimique et à la biocatalyse… Est-ce également le cas de Realtalpic ?

EH : Non. Dans ce projet, nous nous concentrons uniquement sur la catalyse hétérogène chimique, avec des applications plutôt centrées autour de la production de molécules énergétiques. Le volet biocatalyse n’est pas du tout au programme. Pour plusieurs raisons. La première est tout simplement qu’Entalpic n’a, pour l’instant, pas développé d’outils dans le domaine des biotechnologies. L’autre raison est que Realcat est davantage visible dans le domaine de la catalyse chimique, parce qu’elle y est quasiment unique au monde ; les plateformes de criblage en biocatalyse sont au contraire plus nombreuses.

Nous ne savons toutefois pas de quoi l’avenir sera fait… ! Depuis sa création, Realcat se situe en effet à l’interface de la catalyse chimique et de la biocatalyse. C’est même ce qui lui a permis de voir le jour. Nous continuons donc, de notre côté, à avancer dans ces deux voies. Si, un jour, Entalpic s’intéresse également à la biocatalyse, nous pourrions alors, pourquoi pas, élargir notre collaboration en explorant également ensemble ce domaine.