Un petit paramètre technique peut avoir de grandes conséquences. La réforme du coefficient d’énergie primaire (CEP) voulue actuellement par le Gouvernement en est la preuve. Utilisé dans le diagnostic de performance énergétique (DPE), ce coefficient de conversion permet d’obtenir l’énergie primaire à partir de l’énergie finale électrique consommée dans un logement. En exigeant sa baisse artificielle de 2,3 à 1,9 pour donner un avantage à l’électricité dans le bâtiment, les pouvoirs publics auraient-ils oublié sa signification scientifique et ses conséquences sociales ?
Pour bien comprendre de quoi on parle, il faut revenir aux « basics ». Le long d’une chaîne énergétique, on peut calculer la quantité d’énergie primaire nécessaire en amont pour arriver à délivrer une énergie finale au consommateur. Entre les deux, la chaîne comporte plus ou moins de transformations et de distributions, et on mesure l’efficacité de chaque vecteur énergétique avec le CEP qui est le rapport de l’énergie primaire sur l’énergie finale.
Dans le cas du gaz, du fioul, et du bois, il n’y a pas de différence entre l’énergie primaire et l’énergie finale donc le CEP est égal à 1, c’est l’optimum énergétique en termes de production. Pour l’électricité, il faut prendre en compte les rendements des transformations et du transport/distribution. Dans le cas d’une conversion directe (hydroélectricité, éolien, photovoltaïque), le CEP est proche de 1. Pour les centrales utilisant une production de vapeur d’eau (énergies fossiles, bois, nucléaire), les rendements sont entre 33 % (nucléaire) et 60 % (cycle combiné gaz), ce qui implique un CEP plus élevé, entre 2 et 3,5.
Un coefficient bien réel… mais manipulé
À l’échelle du parc français de production d’électricité, il faut faire la moyenne pondérée des coefficients de conversion de toutes les centrales pour avoir le CEP national. Une analyse faite par le ministère en charge de l’énergie en 2020 avait calculé ce chiffre dans le cadre de la programmation pluriannuelle de l’énergie de l’époque : de 3 en 2005-2010, il était passé à 2,7 en 2020 puis devait baisser jusqu’à 2,3 en 2030 et 2,2 en 2035, au fur et à mesure de la progression des énergies renouvelables dans le mix électrique.
L’approche scientifique du calcul du CEP est claire et devrait conduire à l’adaptation annuelle de sa valeur pour les usages réglementaires. Mais par anticipation des évolutions du parc, les pouvoirs publics ont décidé en 2020 de lui donner directement la valeur de 2,3 dans la réglementation environnementale des bâtiments. Aujourd’hui, ils décident arbitrairement de l’abaisser à 1,9 au mépris de la réalité physique du parc de production français. Cette valeur est une moyenne européenne indiquée dans l’article 31 de la directive sur l’efficacité énergétique, et les États membres peuvent l’utiliser… surtout s’ils n’ont pas les moyens de calculer leur CEP, ce qui n’est pas le cas de la France !
Hier comme aujourd’hui, l’argument du Gouvernement est de réduire le désavantage du chauffage électrique sur le gaz, car le DPE prend en compte l’énergie primaire dans l’attribution de l’étiquette des logements. Mais il se trouve que le DPE intègre aussi les émissions de gaz à effet de serre. « Depuis 2021, la double échelle du DPE a déjà mis sur un pied d’égalité le gaz et l’électricité, le premier étant pénalisé par ses émissions de CO2 et la seconde handicapée par son mauvais coefficient d’énergie primaire. Il n’y a pas besoin de truquer le CEP pour pousser à l’électrification du bâtiment. Une solution concrète et utile pour tous serait d’associer l’électrification à une politique de rénovation ambitieuse » rappelle Mahel Gonsalez-Mortreux, chargé de plaidoyer à l’Association négaWatt.
Risque de ne pas rénover les passoires thermiques
Sous couvert de décarbonation des logements, la baisse du CEP risque d’avoir en réalité des effets pervers qui pénaliseraient les ménages comme les artisans. L’Association négaWatt, avec plusieurs autres (UFC-Que choisir, Confédération nationale du logement, Confédération syndicale des familles, Agir pour le climat, FNE, Réseau CLER, etc.), a publié une lettre ouverte au Premier ministre dans laquelle ils identifient trois conséquences.
La première est que les étiquettes DPE des logements chauffés à l’électricité seraient artificiellement améliorées, créant un effet de trompe-l’œil. Propriétaires et locataires croiraient avoir un certain niveau de consommation d’énergie alors qu’il serait en fait plus élevé, tout comme leurs factures. Cela risquerait aussi de fragiliser la confiance dans le DPE, alors qu’il est un critère de choix des appartements de plus en plus important.
« La deuxième conséquence porte sur les passoires thermiques chauffées à l’électricité : dans ces logements, la fausse amélioration du DPE enlèverait toute incitation ou obligation d’effectuer des travaux de rénovation, alors même que leurs occupants sont généralement des ménages précaires » précise Mahel Gonsalez-Mortreux. Les associations estiment qu’environ 1,2 million de logements seraient ainsi sortis artificiellement des classes F et G, alors que le Gouvernement les chiffre à 870 000 logements.
Enfin, le marché des pompes à chaleur (PAC) serait fortement impacté. Comme il serait plus facile d’atteindre une bonne étiquette de DPE avec un simple convecteur électrique, moins cher, les associations estiment que le nombre de PAC à installer d’ici 2030 se réduirait de 1,7 million d’unités. Un manque à gagner certain pour les vendeurs de PAC. EDF se veut rassurante en disant que le risque n’est pas élevé de voir un transfert vers le chauffage par effet Joule. Mais les associations craignent qu’une politique de rénovation par monogeste conduise au choix de ces convecteurs coûteux à l’usage. Dans les deux cas, par manque d’isolation, on créerait une hausse de consommation d’électricité à la pointe l’hiver.
Examiné au Conseil supérieur de l’énergie le 24 juillet, la réforme du CEP et du DPE devrait faire l’objet d’un arrêté en septembre, sauf si la raison reprend le dessus pour privilégier avant tout une politique ambitieuse de rénovation performante des logements, en priorité ceux en classe F et G.
Pour notre dossier de juillet, « Modéliser le vivant : promesses et limites des jumeaux numériques », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.
Dans un système complexe, la variété des modèles employés – tout autant que leurs capacités à retranscrire une évolution souvent non linéaire et difficile à appréhender par l’esprit humain – représente une difficulté.
Simulation vs jumeau numérique
Le jumeau numérique est une réplique virtuelle dynamique d’un système physique réel. Il centralise les connaissances, données, simulations et interactions relatives à ce système, et se distingue des simples outils de simulation par sa capacité à évoluer en temps réel grâce aux informations transmises par des capteurs. Cette connexion permanente lui permet de retracer l’historique du système, d’en analyser l’état actuel et d’anticiper son évolution future. Il peut également constituer un atout majeur lors de la certification d’un produit.
Conçu pour accompagner le système tout au long de son cycle de vie, de la conception à la fin d’exploitation, le jumeau numérique se construit sur une architecture modulaire, capable d’intégrer les évolutions du système réel. Il est interopérable, ce qui lui permet de communiquer avec d’autres jumeaux, capteurs physiques ou logiciels tiers. Sa richesse réside aussi dans sa dimension multidisciplinaire, en réunissant des modèles issus de domaines variés – physique, économie, facteurs humains – facilitant ainsi le dialogue entre experts et une approche globale du système.
La capacité du jumeau numérique à représenter fidèlement les phénomènes repose à la fois sur son expressivité, c’est-à-dire la variété des scénarios qu’il peut reproduire, et sur sa précision, mesurée par l’écart entre simulations et données réelles. Il permet ainsi de tester virtuellement des scénarios (opération compliquée ou en conditions dégradées, remplacement d’un système, paramétrage, etc.) et de choisir le meilleur.
Des enjeux forts
Le jumeau numérique doit être autonome et reproduire au mieux le comportement d’un système physique. Il pourra ainsi servir de véritable tableau de bord, voire proposer des assistants intelligents pour la maintenance prédictive par exemple. Enfin, le jumeau numérique est aussi une manière de structurer la donnée pour la rendre intelligible, ce qui permet d’imaginer de nouveaux « business model ».
Les cas d’usage du jumeau numérique sont multiples. Il permet d’éclairer les choix stratégiques en simulant différentes hypothèses, d’optimiser en temps réel les performances d’un système ou de planifier sa maintenance. Il constitue un outil précieux dans le processus de certification, car sa représentativité renforce la confiance dans les résultats simulés. Il est également utilisé dans les domaines de la formation et de la communication, où ses représentations en trois dimensions permettent de visualiser clairement les composantes et les dynamiques du système. Intégré à un planning prévisionnel, il facilite le suivi de projet en liant activités et composants physiques. Ainsi, un certain nombre de vérifications fastidieuses peuvent être effectuées automatiquement, et la production de masse améliorée. Enfin, les données issues de capteurs du système peuvent être injectées dans le jumeau numérique pour l’archivage, à partir duquel ce jumeau numérique sera en mesure d’analyser le comportement du système.
Le jumeau numérique, gourmand d’intelligences
L’intelligence artificielle renforce encore les capacités du jumeau numérique. Grâce au machine learning, il peut ajuster ses modèles à partir de jeux de données, qu’ils soient réels ou générés artificiellement. Cependant, il est indispensable de disposer de milliers de cas à analyser manuellement pour pouvoir donner à l’algorithme d’intelligence artificielle les informations nécessaires pour faire son apprentissage. Il devient alors possible d’explorer des situations rares ou critiques, d’anticiper les comportements du système dans des conditions extrêmes, et de compenser l’absence de données réelles par la simulation. Par ailleurs, le jumeau numérique doit être conçu pour être manipulable et compréhensible par l’humain.
La relation entre l’humain et le jumeau numérique est en effet essentielle. L’utilisateur doit pouvoir interagir facilement avec l’outil, qu’il s’agisse de visualiser les données, de tester des hypothèses ou de s’immerger dans des environnements simulés, via la réalité virtuelle avec une représentation 3D du système, pour mieux comprendre des situations complexes.
En définitive, le jumeau numérique ne vise pas à remplacer les experts, mais à les assister dans leurs prises de décision. En rendant les systèmes complexes plus accessibles, intelligibles et prévisibles, il s’impose comme un levier stratégique pour l’innovation, la gestion et l’optimisation des systèmes, à l’intersection du monde réel et du monde virtuel.
Porté par Dassault Systèmes et d’autres partenaires comme l’Inria, L’Inserm et de nombreux IHU, le projet Meditwin vise à développer des répliques numériques personnalisées du corps humain pour la pratique médicale : des modèles capables de simuler le fonctionnement d’un organe, de tester des traitements, voire d’anticiper l’évolution d’une maladie.
Financé dans le cadre de France 2030, ce programme associe chercheurs, médecins, industriels et patients pour bâtir une plateforme de jumeaux numériques interopérable, fiable et accessible. Claire Biot, vice-présidente de l’industrie de la santé chez Dassault Systèmes, dévoile pour Techniques de l’Ingénieur les ambitions, les cas d’usage concrets et les défis techniques d’un projet à la frontière du vivant et du numérique.
Techniques de l’Ingénieur : Comment est né le projet Meditwin, et quelle est son ambition principale ?
Claire Biot : Meditwin s’inscrit dans l’ambition de Dassault Systèmes de s’engager dans la santé à grande échelle. Nous partons d’un constat simple : la santé accuse un important retard par rapport à d’autres secteurs industriels en matière de simulation et de prédiction. Là où l’automobile effectue 95 % de ses crash tests en simulation, la formation des médecins repose encore sur le compagnonnage. L’idée du jumeau numérique est donc d’apporter aux professionnels de santé des outils d’aide à la décision, de formation, mais aussi de personnalisation des traitements. Nous voulons tendre vers une médecine de précision, en permettant de tester des interventions virtuellement avant de les appliquer au patient réel. C’est aussi un outil pour l’innovation thérapeutique et, à terme, pour que les patients eux-mêmes puissent comprendre le fonctionnement de leur corps et agir en connaissance de cause.
Quel est le périmètre du projet et qui sont les partenaires impliqués ?
Meditwin est un projet financé par Bpifrance dans le cadre de France 2030. Il a été annoncé par le président de la République en décembre 2023 et se déroule sur six ans, jusqu’en 2029. Dassault Systèmes en est le chef de file, avec un consortium d’acteurs variés : des IHU, le CHU de Nantes, l’Inria, plusieurs start-up, et un “comité patient” impliqué depuis le début. L’objectif est de produire des jumeaux numériques d’organes ou de systèmes métaboliques, utilisables de manière industrielle et interopérable. Nous avons défini 17 cas d’usage répartis sur trois grandes aires thérapeutiques : la cardiologie, la neurologie et l’oncologie. Le projet repose sur huit groupes de travail, allant de la modélisation à la plateforme technique, en passant par l’industrialisation et la validation clinique.
Quels sont les principaux défis techniques pour modéliser le vivant ?
Le vivant est complexe, interconnecté et dynamique.
Illustration du projet « Living Heart »
Pour aborder cette complexité, nous adoptons une approche pragmatique : tout modèle est par essence une simplification, mais il peut déjà être utile s’il permet de poser les bonnes questions. L’idée est de commencer par des modèles isolés, puis de tendre progressivement vers une approche « système de systèmes ».
C’est la spécialité de Dassault Systèmes : créer des modèles multi-physiques et multi-échelles. Par exemple, avec notre jumeau numérique du cœur, Living Heart, nous avons simulé à la fois le comportement mécanique du muscle cardiaque, la propagation du signal électrique et les dynamiques des fluides sanguins. Nous avons même pu zoomer à l’échelle moléculaire pour modéliser les effets secondaires d’un médicament, comme la cardiotoxicité induite par l’altération de canaux ioniques par exemple.
Quelles technologies sont mobilisées pour construire ces jumeaux numériques ?
Nous combinons plusieurs sources de données : imagerie médicale (IRM, scanner….), électrophysiologie, biologie moléculaire… À partir d’images, nous réalisons de la segmentation pour générer une géométrie 3D, puis nous simulons des propriétés mécaniques, électriques ou biologiques. En neurologie, par exemple, nous superposons des données d’électroencéphalographie profonde à l’imagerie pour comprendre l’épilepsie pharmaco-résistante.
En oncologie, nous modélisons la dynamique de clones tumoraux dans des organoïdes, pour simuler leur réponse à différents traitements selon leurs signatures génétiques. Ce sont des approches très différentes, allant de la mécanique des fluides à la biologie systémique, mais qui doivent cohabiter dans une plateforme unique.
Comment le projet prend-il en compte les enjeux d’éthique, de données et d’usage pour les patients ?
C’est un point crucial. Nous avons mis en place un “comité patient” pour réfléchir aux questions d’éthique, de consentement, d’acceptabilité et d’usage. Un jumeau numérique ne doit pas seulement être techniquement fiable, il doit aussi être compréhensible et utile pour le médecin comme pour le patient. Pour cela, nous nous appuyons sur notre expertise acquise dans les essais cliniques via Medidata, qui implique les patients dès la conception des outils numériques. Sur la question des données, nous militons pour une souveraineté européenne. Ces données sont un bien commun de santé publique, et doivent être hébergées et traitées dans des infrastructures de confiance.
Quels sont les cas d’usage les plus avancés aujourd’hui ?
En oncologie, nous avons deux projets phares. Le premier consiste à modéliser les organoïdes tumoraux pour prédire quelles combinaisons de traitements seront les plus efficaces en fonction des mutations génétiques. Le second, dans le cancer colorectal, vise à planifier des interventions chirurgicales sur le foie en créant un jumeau numérique de l’organe, pour tester différentes options (résection, ablation) avant de décider en réunion de concertation pluridisciplinaire. L’idée, à terme, est de documenter les meilleures pratiques directement dans le jumeau numérique, pour accélérer leur diffusion, en complément des publications scientifiques classiques.
Les silicones – ou polysiloxanes – sont l’un des matériaux les plus utilisés au monde. Grâce à leur combinaison unique de souplesse, de résistance à l’eau et de stabilité thermique, ils servent dans des applications aussi variées que les joints d’étanchéité, les implants médicaux, les cosmétiques ou les revêtements protecteurs. Toujours classés parmi les isolants, ces matériaux n’étaient jusqu’à présent pas associés à des propriétés électroniques. Une équipe de chercheurs de l’Université du Michigan, coordonnée par Zijing Zhang et Richard Laine, vient cependant de renverser ce dogme : des silicones peuvent, dans certaines configurations, devenir des semi-conducteurs fonctionnels.
Silicones : des matériaux isolants… devenus conducteurs
D’un point de vue moléculaire, les silicones sont constitués d’une chaîne Si-O-Si, sur laquelle sont greffés des groupes organiques (méthyles, vinyle…). Ces chaînes sont souples, isolantes et inertes. La découverte clé concerne l’angle que forment les liaisons Si-O-Si, réputé fixe autour de 110°, ce qui empêche la circulation des électrons et confère aux silicones leur propriété isolante. Mais les chercheurs montrent qu’en synthétisant des copolymères de silicone contenant des unités « cage » et des unités linéaires, cet angle peut être augmenté au-delà de 140°, ouvrant ainsi la voie à une délocalisation partielle des électrons à travers la chaîne de silicium et d’oxygène.
Cette géométrie facilite le déplacement des électrons, transformant l’isolant initial en matériau possédant des propriétés semi-conductrices. Un comportement totalement inattendu dans les silicones habituels.
Un comportement semi-conducteur observable par le spectre des couleurs
L’acquisition de cette propriété semi-conductrice est d’ailleurs observable par le spectre des couleurs de ces copolymères sous lumière UV. Les électrons sautent en effet entre l’état fondamental et l’état excité en absorbant et en émettant des photons. Or, l’émission de lumière dépend de la longueur de la chaîne de copolymère, qui peut être contrôlée. Les chercheurs ont ainsi pu observer que les chaînes longues (qui permettent de petits sauts d’énergie) donnent au silicone une teinte rougeâtre, tandis que les chaînes courtes (qui impliquent des sauts d’énergie plus élevés) donnent des couleurs bleues.
Lors de tests, les chercheurs ont ainsi obtenu un arc-en-ciel de fioles colorées, illustrant visuellement la relation entre longueur de chaîne et transition électronique. Ce comportement optique renforce la thèse d’un comportement semi-conducteur, avec une bande interdite (band gap, l’intervalle situé entre la bande de valence et la bande de conduction) ajustable selon la structure et la longueur du copolymère.
De nombreuses applications potentielles
Cette découverte ouvre la voie à une nouvelle classe de silicones fonctionnels aux propriétés particulièrement intéressantes. Contrairement aux semi-conducteurs classiques rigides, ces silicones semi-conducteurs sont en effet flexibles, et peuvent être utilisés dans le domaine de l’électronique imprimée. Richard Laine évoque des écrans souples, des cellules solaires souples, ou même des textiles interactifs colorés.
Ce travail rompt avec le paradigme classique affirmant que « les Si-O-Si sont isolants ». Mais malgré son potentiel, cette technologie n’en est qu’à ses débuts. Plusieurs points restent à approfondir, comme la fiabilité des copolymères en termes de résistance thermique, de photo-stabilité et de vieillissement, ainsi que leur capacité d’intégration technique (compatibilité avec les procédés d’impression, adhésion, biocompatibilité…).
La transformation d’un isolant classique en semi-conducteur via un savant contrôle structurel est une percée majeure. En ouvrant la porte à des silicones électroniques, colorés, souples, cette recherche promet de redéfinir le rôle de ces matériaux – jusqu’ici passifs – dans l’électronique et les matériaux intelligents. Au-delà des silicones, ce concept d’une modification géométrique des liaisons atomiques peut inspirer de nouvelles études dans d’autres classes de polymères, reformulant la manière dont on conçoit matériaux et circuits. Cette étude, publiée dans la revue Macromolecular Rapid Communications, montre qu’il suffit parfois de modifier un angle, ici celui du Si-O-Si, pour déverrouiller des propriétés jusqu’alors insoupçonnées.
INRAE explore cette piste à travers Artemis, un réseau de recherche interdisciplinaire financé par le métaprogramme DIGIT BIO, un programme interne de l’institut, qui vise à soutenir des recherches interdisciplinaires à l’interface entre sciences du vivant et sciences formelles, afin de mieux comprendre et intervenir sur le comportement de systèmes biologiques.
L’objectif d’Artemis est de réunir modélisateurs et microbiologistes pour poser les bases d’un jumeau numérique dédié aux systèmes vivants, en particulier microbiens. Simon Labarthe, chercheur de l’UMR Biogeco, qui porte ce projet, a détaillé pour les Techniques de l’Ingénieur les objectifs, les enjeux scientifiques et les défis techniques de cette initiative.
Techniques de l’Ingénieur : Qu’est-ce que le programme Artemis, et quel est son lien avec le métaprogramme DIGIT BIO ?
Simon Labarthe : Artemis est avant tout un réseau de recherche, porté par lNRAE et financé par le métaprogramme DIGIT BIO. Il vise à rassembler des communautés disciplinaires très diverses – écologues microbiens, spécialistes en santé des plantes ou animale, de la fermentation, ou encore modélisateurs – afin de réfléchir ensemble à ce que peut signifier un jumeau numérique du vivant. L’idée est de définir comment un tel concept peut être développé en s’appuyant sur des réalités biologiques et des besoins de la recherche, et de montrer que ce concept n’est pas forcément limité au domaine de l’industrie ou réduit à des technologies comme le deep learning.
Quelle définition donnez-vous au jumeau numérique dans ce contexte ?
Nous sommes partis de la définition industrielle classique, à savoir « un système qui reçoit en continu des données d’un objet réel, les traite via un modèle, puis émet des actions ou recommandations en retour ». Mais nous avons adapté ce schéma au vivant, en intégrant la complexité biologique, la lenteur de certaines données (comme les données omiques), et la variabilité des systèmes. Nous avons aussi élargi la définition en distinguant trois types de boucles : en ligne (temps réel), à la demande (avec temps d’analyse), et hors ligne (pour guider la conception expérimentale). Cela permet de rendre compte de différents niveaux d’usage et d’intégration du modèle.
Pouvez-vous donner un exemple concret d’application du jumeau numérique dans votre domaine ?
Un cas emblématique concerne la recherche de consortiums microbiens capables de protéger les plantes contre certains pathogènes. Aujourd’hui, on peut isoler des dizaines de micro-organismes, mais les tester tous en laboratoire serait impossible : le nombre de combinaisons possibles est colossal. Grâce à la modélisation, on peut construire un jumeau numérique qui explore ces combinaisons in silico, identifie les plus prometteuses, et ainsi guide les expérimentations réelles. Ici, le jumeau numérique ne pilote pas un système en temps réel, mais il accélère la recherche en réduisant le champ des possibles.
Quels sont les principaux fronts de recherche scientifique associés à cette démarche ?
Il y en a trois : d’abord la production et l’exploitation des données, notamment omiques, qui sont riches mais longues à obtenir. Ensuite, la modélisation, avec des défis immenses autour de l’intégration des données multi-omiques, de l’assimilation continue de données, et de la prédiction des interactions au sein des communautés microbiennes. Enfin, le pilotage des systèmes microbiens, qui reste encore peu exploré : comment orienter un consortium vivant ? Quels leviers sont efficaces ? Température, nutriments, introduction de nouvelles souches… toutes ces questions font encore l’objet de recherches.
Les interactions entre micro-organismes sont-elles prises en compte ?
Absolument, et c’est même central. Les communautés microbiennes sont structurées par des interactions trophiques, des échanges de métabolites, de la compétition, de la coopération, que l’on commence à modéliser.
Mais au-delà, il y a d’autres types d’interactions : production de biocides, structures spatiales, biofilms… On essaie de capturer une partie de cette complexité dans des modèles simplifiés. Dans certains cas, le jumeau numérique peut même être un consortium biologique minimal qu’on étudie pour mieux comprendre des dynamiques plus globales.
Le programme Artemis intègre-t-il une dimension réflexive ou éthique ?
Oui, et c’est un aspect original du projet. Dès le deuxième atelier, nous avons intégré des philosophes des sciences au consortium. Leur regard nous pousse à questionner ces approches : jusqu’où peut-on modéliser le vivant ? Quelle est la place de l’humain dans la boucle ? Le jumeau numérique peut-il être utile sans devenir une boîte noire magique à laquelle on délègue les décisions ? Cette collaboration nourrit une réflexion sur les limites de la simulation et sur la manière dont on souhaite construire ces outils, sans tomber dans le techno-solutionnisme.
Chaque année depuis 2018, Techniques de l’Ingénieur est partenaire de l’opération Ingénieuses, organisée par la CDEFI (Conférence des directeurs des écoles françaises d’ingénieurs) afin de combattre les stéréotypes de genre et promouvoir l’égalité des sexes dans les métiers et formations d’ingénieur.
Parmi les 10 prix décernés (Prix de l’élève-ingénieure France, de la femme du numérique, de l’école la plus mobilisée etc.), Techniques de l’Ingénieur a rencontré les nominées dans la catégorie “Femme ingénieure”. Une belle occasion de partager le parcours de femmes scientifiques talentueuses, qui agissent pour l’égalité des genres dans leur métier.
Yvette Ramos
Ingénieure diplômée de l’EPF en 1992 en ingénierie industrielle et logistique, Yvette Ramos a complété sa formation par un MBA en 2002 et un Master en gestion des ressources humaines en 2003, obtenus à l’IAE Aix-en-Provence. Elle poursuit actuellement un doctorat en politiques publiques climatiques à l’université de Lisbonne, dont la soutenance est prévue pour fin 2025. Elle travaille également comme gérante de l’entreprise Moinas & Savoye, tout en étant consultante dans deux agences des Nations Unies. Engagée depuis près de trente ans en faveur de l’égalité entre les femmes et les hommes, elle a mené de nombreuses actions concrètes dans les domaines scientifique, technique et politique.
Techniques de l’ingénieur : Pouvez-vous nous parler de votre activité professionnelle ?
Yvette Ramos : De 2004 jusqu’à il y a environ 2 ans, j’ai beaucoup travaillé comme consultante auprès de l’UIT, l’Union internationale des télécommunications, qui est l’agence des Nations Unies qui régule et développe les services de télécom dans le monde. Il s’agissait alors d’apporter les communications dans les régions où il n’y en avait pas. En parallèle, depuis 2007, j’ai commencé à travailler avec l’OMM, l’Organisation mondiale de la météorologie, auprès des services météo nationaux. J’apporte donc mes compétences techniques et en ressources humaines pour aider les pays en développement à structurer leurs agences météo et demander des financements pour acheter des équipements et moderniser leurs services. En parallèle, pour me garantir un salaire minimum face à l’instabilité de l’activité de consultante, je suis aussi gérante d’une entreprise de conseils en propriété intellectuelle qui s’appelle Moinas & Savoye et qui me permet de rester proche de tout ce qui touche à l’innovation.
En quoi consiste votre activité de gérante chez Moinas & Savoye ?
Le cabinet, présent en France et en Suisse, travaille avec des clients dans les domaines de l’horlogerie, l’automobile, l’énergie…tout ce qui concerne les domaines de pointe. Nous sommes une équipe de 15 personnes au total, dont des ingénieurs brevet qui se concentrent sur la rédaction des brevets d’invention, c’est-à-dire les titres de propriété industrielle qui garantissent une exclusivité de l’invention brevetée pour une durée maximale de 20 ans. Moi de mon côté, j’ai aidé à créer la filiale en France, et je m’occupe plus précisément des ressources humaines, du recrutement… J’aime beaucoup parler de ce secteur car l’ingénieur brevet est une profession de niche pour laquelle on manque d’ingénieurs – comme dans beaucoup de secteurs -, et ce n’est pas forcément un domaine dont on parle en école, alors qu’il y a de l’emploi et que les salaires sont intéressants.
Vous poursuivez également un doctorat en politiques publiques climatiques à l’université de Lisbonne, de quoi s’agit-il ?
Ma thèse s’intéresse à la gouvernance de la géo-ingénierie, à savoir les techniques imaginées à l’échelle planétaire pour contrer le changement climatique et manipuler le climat. Ce sont des techniques à grande échelle qui sont assez effrayantes car elles se font dans l’ombre, sans que la population soit au courant. Je travaille plus précisément sur le domaine de la Solar Radiation Management (SRM) donc la gestion du rayonnement solaire, qui peut se faire par l’injection stratosphérique d’aérosols par exemple.
En 1991, après l’éruption du mont Pinatubo aux Philippines, les scientifiques ont constaté une diminution de la température planétaire d’environ 0,5 degré. Les matériaux émis par le volcan avaient atteint la stratosphère, s’étaient diffusés autour de la planète grâce aux courants de vents, ce qui avait permis de diminuer le rayonnement solaire atteignant la Terre. Donc plutôt que de travailler à limiter notre utilisation du pétrole par exemple, certains scientifiques tentent de reproduire la même chose avec l’injection d’aérosols au niveau stratosphérique, qui peuvent être nocifs sur la santé et la biodiversité. Or ces tests se font dans notre dos. Les programmes de recherche se multiplient, les financements aussi, notamment aux Etats-Unis ou au Royaume-Uni.
Ma thèse consiste donc à dire qu’il faut qu’on fasse attention et qu’il faudrait que les Nations Unies s’emparent du sujet pour définir un modèle de gouvernance et donc réguler à l’échelle internationale ce qu’on a le droit de faire ou pas. Car pour le moment ce sujet est très tabou et n’est pas du tout encadré. Et malheureusement, ce sont encore les pays riches qui vont impacter les plus vulnérables s’il n’y a pas un modèle de gouvernance qui se met en place.
Vous êtes également très active pour l’égalité hommes-femmes, d’où vous vient cet engagement ?
Je suis issue de l’immigration portugaise, et mes parents ont dû arrêter l’école très tôt. Pour rappel, Salazar était au pouvoir à cette époque, et faire des études en tant que femme était presque impossible. De ce fait, mes parents m’ont toujours poussée à poursuivre mes études, tandis que je voyais ma mère se battre pour être indépendante financièrement. Donc cette question d’égalité a toujours été importante pour moi. Ensuite, j’ai intégré par hasard l’école EPF, qui était à l’époque exclusivement féminine, puis je suis entrée dans le secteur de l’industrie où j’étais souvent une des seules femmes. Je me suis vraiment engagée à partir des années 2000, lors de la naissance de mon troisième enfant, en allant sur le terrain avec l’association Femmes Ingénieures. Ensuite, mon engagement a débordé sur le politique puisque j’ai été adjointe au Maire en charge de l’égalité femmes-hommes et de la lutte contre les discriminations dans ma ville de La Roche-sur-Foron entre 2020 et 2022. Même si la politique n’est pas mon activité préférée, c’est une expérience que je recommande à tous, car cela nous fait sortir de notre environnement d’ingénieurs pour être confrontés aux challenges des personnes du territoire donc c’est très intéressant. J’ai notamment initié le plan Égalité 2020-2026, le premier du département, et organisé des événements de sensibilisation, ce dont j’étais assez fière. Puis j’ai quitté ce monde politique pour être au plus proche des citoyens et citoyennes, et j’ai créé l’association La Roche Pour Elles pour les femmes victimes de violence.
C’est d’ailleurs pour les femmes victimes de violence que vous avez créé la start-up Secure4Good, pouvez-nous en dire plus ?
Avec Secure4Good, je suis en train de développer un bouton d’alerte de la taille d’une pièce de monnaie qui peut être caché dans une poche ou dans un vêtement, et qui peut être activé discrètement par les femmes victimes de violence afin de donner l’alerte. L’innovation derrière ce bouton est que l’objet connecté n’a pas besoin de passer par le téléphone, contrairement à ce qui se fait déjà sur le marché. Par exemple, il existe des bracelets connectés au téléphone par Bluetooth ou Wifi mais des personnes victimes de violence n’y ont pas forcément accès. Avec ce bouton connecté, nous passons par le réseau mobile. Nous sommes encore en phase de test avec 5 prototypes actuellement, et l’objectif à court terme est de tester la version bêta du dispositif sur des personnes volontaires, qui auront juste à appuyer sur le bouton de temps en temps.
Vers qui sera envoyée l’alerte quand une personne victime de violences actionnera le bouton ?
Nous avons réalisé beaucoup de réunions au niveau du conseil départemental, de la gendarmerie, la police etc. mais pour l’instant ce n’est pas encore allé plus loin. Nous pensons paramétrer le dispositif pour qu’il envoie l’alerte par SMS à 3 personnes enregistrées. Nous songeons aussi à reproduire le même système que pour les alarmes, à savoir que ce soit une société privée qui puisse recevoir l’alerte. Mais pour l’instant, nous n’en sommes qu’au tout début.
Parmi vos nombreuses activités, vous avez également cofondé l’ONG WOMENVAI, de quoi s’agit-il ?
En 2018, nous sommes 18 cofondateurs et cofondatrices ingénieurs et scientifiques à avoir fondé cette ONG WOMENVAI (Women and Men in Environment and Artificial Intelligence). En effet, nous avions constaté qu’en France, plusieurs associations comme Femmes Ingénieures réunissent les femmes dans les sciences, mais beaucoup de pays n’ont pas le même type de réseau. En général, il y a des réseaux d’ingénieurs mixtes mais qui sont majoritairement composés d’hommes donc les femmes ont peu la parole. Nous avons donc imaginé WOMENVAI pour porter la voix des femmes à l’échelle internationale. Ayant le statut ECOSOC auprès des Nations Unies, nous sommes observateurs de la société civile dans toutes les instances de l’ONU et toutes les conférences. Nous étions ainsi présents aux COP, à Nice pour la Conférence des Nations Unies sur l’océan, à la COP sur la biodiversité à Rome etc.
Selon vous, pourquoi est-il important de promouvoir les filières scientifiques auprès des femmes dès le plus jeune âge ?
J’ai lu beaucoup d’études et de travaux, notamment de la sociologue Jacqueline Laufer, qui prouvent que nos choix sont déjà orientés très tôt dans notre vie. De la même manière que les enfants vont être habillés en rose ou en bleu, que l’on va leur donner des barbies ou les emmener regarder les engins de chantier, toute la construction genrée se fait dès la naissance, via notre prénom, notre genre, la catégorie dans laquelle on nous place. Le cadre familial puis scolaire va peu à peu formater les enfants à agir en fonction de ce qui est attendu de leur genre. Les filles, même bonnes en maths et physiques, vont donc se tourner davantage vers la médecine que l’ingénierie. C’est pour cela qu’il faut intervenir très tôt pour déconstruire ces idées préconçues. Outre en intervenant dans les écoles, l’art, la culture et les médias ont un rôle énorme à jouer. Cela passe par exemple par la publication de portraits de femmes scientifiques pour montrer qu’elles ont des parcours passionnants. C’est une façon de montrer aux filles qu’il faut que les femmes contribuent au développement socio-économique de leur pays au même titre que les hommes. Je trouve cela tellement normal qu’il faut au maximum le répéter.
De par leur faible nombre, il est presque attendu des femmes dans les filières scientifiques d’œuvrer aussi pour l’égalité hommes-femmes. N’est-ce pas une charge supplémentaire, voire une limite pour le développement de leur carrière par manque de temps à y consacrer ?
Je suis une preuve vivante de cette charge. Je suis très souvent contactée pour tous les sujets liés à l’égalité, alors qu’outre ma carrière, j’ai aussi mes enfants -même si maintenant ils sont grands- et mes parents vieillissants à m’occuper. Mais comme je suis très active et impliquée, on me contacte toujours donc je n’hésite pas à donner les noms d’autres femmes qui pourraient intervenir. Donc oui, c’est une vraie charge, parce qu’on essaye justement de combler ce manque de femmes dans les sphères publique et politique.
Comment faire pour impliquer les hommes dans ce combat ?
Il y a déjà des hommes qui s’engagent mais je remarque que c’est souvent quand ils ont une fille en âge de subir des discriminations professionnelles et d’être confrontée à ces milieux machistes. Car oui, l’industrie est un secteur encore très misogyne et j’entends tous les jours des anecdotes de propos sexistes extrêmement violents. Ainsi, certains hommes s’engagent quand ils perçoivent le danger pour leurs filles. Après, tout le monde ne veut pas forcément se montrer sur les questions d’égalité, mais je connais par exemple un jeune homme très engagé sur ces questions, qui n’hésite pas à faire de la mise en contact entre des femmes et des associations par exemple.
Vous êtes lauréate du prix Femme Ingénieure de l’opération Ingénieuses, qu’est-ce que cela signifie pour vous ?
Je suis honorée d’être lauréate à ce prix. Mon parcours a toujours été guidé par deux convictions : l’innovation et l’égalité femmes-hommes et depuis trois décennies, j’ai porté des initiatives concrètes pour soutenir les femmes dans les sciences et l’ingénierie. Ce prix est une belle reconnaissance, mais surtout une motivation supplémentaire pour continuer à inspirer, agir et transformer nos sociétés. Merci à la CDEFI et à toutes celles et ceux qui œuvrent au quotidien pour faire avancer l’égalité. Continuons ensemble à bâtir un avenir plus inclusif, plus audacieux et plus prometteur !
Loin des débats sur la part de renouvelables et de nucléaire devant composer le mix électrique français, des entreprises mettent en œuvre une tout autre énergie. Depuis plusieurs années, elles développent des technologies pour récupérer et valoriser les calories rejetées par les industriels.
Parmi elles se trouve Hevatech, une entreprise créée en 2010 dans la Drôme. Sur la base de deux technologies différentes, elle propose de récupérer la chaleur des fumées industrielles au-delà de 200°C et de les transformer en électricité et en eau chaude ou en air chaud réutilisables.
Deux différentes technologies
L’Ademe a pointé depuis 2017 le potentiel de récupération de chaleur fatale dans l’industrie nationale : il est de 110 TWh, dont plus de la moitié est perdue au-dessus d’une température de 100°C. Cette quantité est énorme, elle représente plus de quatre fois l’énergie délivrée par tous les réseaux de chaleur urbains en France. L’Agence estime que le gisement au-dessus de 200°C est d’environ 25 TWh, dont une grande majorité dans les fumées des fours et des chaudières.
C’est précisément le segment visé par Hevatech. Sa première technologie, Turbosol, repose sur les étapes suivantes : un échangeur à huile végétale capte la chaleur de fumées entre 200 et 500°C ; l’huile est portée à 250°C, en-dessous de son point d’éclair, et sert d’abord à réchauffer un autre échangeur pour créer de la vapeur d’eau ; l’huile et la vapeur d’eau sont ensuite mélangées et injectées dans une turbine diphasique (de type Pelton) ; la turbine est couplée à un alternateur pour la production d’électricité ; l’huile hydrophobe est récupérée et recircule dans le premier échangeur ; la vapeur d’eau est condensée, libérant une partie de son énergie pour produire de l’eau chaude, et recircule dans le second échangeur.
La seconde technologie, appelée H2P, travaille avec des fumées dépassant 600°C, jusqu’à 1 000°C. Un échangeur à air capte les calories ; l’air actionne un moteur, entraînant un alternateur ; l’air comprimé retourne dans l’échangeur ; une partie de l’air ressort propre du moteur et à une température jusqu’à 500°C pour d’autres usages.
De nombreux industriels concernés
Dans les deux cas, les machines ne sont pas trop complexes et surtout fonctionnent à des niveaux très sûrs : fluides caloporteurs simples (eau, huile, air), rotations peu rapides (1 500 tr/min) pour les machines tournantes, et faibles pressions (15 bar pour Turbosol et 5 bar pour H2P). « Grâce aux innovations de ces deux technologies, les industriels peuvent prévoir une installation simple et modulaire, de 30 à 150 kW électriques pour Turbosol et de 5 à 20 kWe pour H2P. Ces puissances vont d’ailleurs bientôt augmenter. Parmi nos clients potentiels, on compte les fabricants de verre, les forges, la métallurgie lourde, les cimentiers, les fabricants de tubes en acier, ou de pièces en matériaux spéciaux (carbone, graphite), ainsi que les incinérateurs en particulier ceux pour les déchets dangereux », précise Frédéric Thévenod, directeur du développement d’Hevatech.
La valorisation se fait sous forme d’électricité et de calories, ces dernières pouvant être utilisées pour du chauffage direct, du séchage ou du préchauffage de matériaux, un réseau de chaleur ou du préchauffage d’air en vue de combustion.
Les sites industriels concernés sont souvent soumis au système des quotas carbone européens (ETS). En récupérant des calories sur leurs process, c’est autant de gaz fossile en moins qui est brûlé dans leurs chaudières et donc moins d’émission de gaz à effet de serre. C’est le cas par exemple chez Mersen, spécialiste des matériaux avancés. Hevatech a installé son moteur à air chaud H2P sur un de ses sites : en récupérant 200 kW thermiques de gaz de torchères, il produit de l’air qui va chauffer des ateliers (130 kW soit 15 % des besoins, sept mois par an) et de l’électricité (14 kW), et 200 tonnes de CO₂ sont évitées chaque année.
Un nouvel avantage avec des CEE dédiés
L’équation économique dépend des prix de l’électricité et du gaz que la valorisation de chaleur fatale va remplacer. Même si la situation paraît peu attractive actuellement – les prix du gaz étant redevenus peu élevés et les industriels français bénéficiant d’une électricité peu chère, contrairement à d’autres pays européens –, le temps de retour sur investissement reste raisonnable. Par exemple, dans le cas de Mersen précédemment cité, il est de trois ans et demi, hors subvention ; mais il sera seulement de deux ans si les crédits carbone sont valorisés (à hauteur de 100 €/t sur l’ETS) et si l’opération bénéficie de certificats d’économies d’énergie (CEE).
En effet, depuis le début de cette année, ce type de valorisation de chaleur fatale dispose d’une opération standardisée du dispositif des CEE (fiche IND-UT-138) permettant de financer jusqu’à 25 % d’un projet (installation incluse). « Cet apport des CEE vient couronner plusieurs années de bataille pour faire valoir la conversion de chaleur fatale en électricité ou en air comprimé. Il est symptomatique d’un marché de la chaleur fatale qui est désormais mieux considéré, surtout depuis les crises du Covid et de 2022 qui ont rappelé combien les prix de l’énergie sont fluctuants », ajoute Frédéric Thévenod qui est également président de France Cleantech Industries.
Fondée en 2023, France Cleantech Industries regroupe les PME industrielles innovantes de la transition énergétique comme Enogia, Eco Tech Ceram, ExtraJool, PackGy, Terrao, TMW. Elle devrait atteindre une quarantaine de membres d’ici fin 2025.
SIDO et Lyon Cyber Expo 2025 : deux événements, une vision globale de l’innovation
Ces deux salons complémentaires offrent une approche intégrée des enjeux numériques : innovation, compétitivité, résilience… et cybersécurité. Sur un même lieu, les visiteurs profiteront d’une veille technologique complète, de démonstrations concrètes, de conférences inspirantes et de rencontres ciblées avec décideurs et experts.
SIDO : l’événement incontournable des technologies 4.0
Depuis 11 ans, SIDO s’impose comme le rendez-vous de référence pour les entreprises engagées dans la transformation digitale. L’événement couvre toutes les briques technologiques : IoT, IA, robotique, XR, interfaces homme-machine, etc.
En 2025, le SIDO c’est :
380 exposants dont STMicroelectronics, Arrow, Vodafone, Advantech, Avnet Silica…
60 conférences et tables rondes, animées par près de 200 speakers autour des thèmes phares : industrie du futur, IA, data, IoT, robotique et impact environnemental.
IMPACT by SIDO : un numérique responsable
En partenariat avec la Métropole de Lyon, IMPACT by SIDO met en avant les solutions alliant innovation et sobriété énergétique.
15 start-ups présenteront leurs innovations durables dans l’IoT, l’IA, la robotique et la XR.
7 tables rondes sur des sujets clés :
Ambient IoT : vers un avenir connecté sans batterie ?
Matières premières, composants électroniques : vers un sourcing numérique souverain et responsable ?
Planification urbaine, gestion de l’eau, végétalisation : quand les territoires adoptent l’IA frugale
De l’économie de la fonctionnalité à l’économie circulaire : quand la tech transforme les modèles économiques
Éco-conception, ACV : comment réduire l’impact environnemental des projets IoT ? Face au défi énergétique, l’IA fait-elle partie des causes ou des solutions ?
Smart City : comment trouver le bon équilibre entre high tech et low tech ?
INNOROBO by SIDO : la robotique nouvelle génération
En 2025, INNOROBO revient pour explorer une robotique portée par l’IA générative : robots collaboratifs, mobiles, intelligents, systèmes intégrés… Objectif : créer des passerelles entre fournisseurs de solutions et industriels.
Du secteur de la santé à celui de la logistique, en passant par le bâtiment ou la mobilité, cette zone met en lumière tout le potentiel d’une robotique intelligente, agile et interconnectée, véritable levier de compétitivité.
Lyon Cyber Expo : la cybersécurité à grande échelle
Face à la montée des cybermenaces, Lyon Cyber Expo double sa surface et accueille 150 exposants (Hexatrust, Thales, Orange Cyberdéfense, Wallix…).
Véritable plateforme d’échanges stratégiques, l’événement s’adresse aux DSI, RSSI, dirigeants et décideurs métiers, avec une ambition claire : anticiper les menaces, partager les meilleures pratiques, tisser des partenariats technologiques et construire ensemble un écosystème numérique résilient. Au programme :
30 conférences et keynotes animées par 90 experts
Challenge Capture The Flag, organisé avec Root-Me Pro, pour renforcer les compétences et les collaborations
La simulation numérique permet à de nombreux secteurs industriels de gagner du temps et de l’argent, en limitant les tests réels au maximum, très onéreux. Les exemples sont légions. Les logiciels de simulation pour étudier les propriétés physiques des matériaux composant une pièce mécanique, et leur résistance aux contraintes mécaniques qui leurs seront appliquées lors de leur cycle de vie, sont aujourd’hui utilisés de manière très large. Pour aller plus loin, l’industrie généralise depuis quelques années les jumeaux numériques. Le but étant d’avoir une copie numérique d’un objet physique, afin de lui appliquer les mouvements, formes et interactions que l’objet va subir dans la réalité. Les applications sont très nombreuses : contrôle qualité, productivité, traçabilité, analyse du cycle de vie… pour tous les produits sortant des usines de fabrication, mais aussi pour les usines elles-mêmes. En effet, les infrastructures de production – de produits, d’énergie – ont également le droit à leur jumeau numérique, avec de nombreux gains à la clé : maintenance prédictive, augmentation de la productivité, agilité, entre autres.
Les jumeaux numériques développés pour l’industrie ont en commun de se baser sur la simulation et la numérisation de systèmes connus et stables. C’est ce qui les différencie des systèmes vivants, que l’on va retrouver dans les secteurs d’activité comme l’agriculture, la santé, le climat, les écosystèmes, entre autres, et qui ont en commun une complexité élevée, une forte variabilité, et une part d’imprévisibilité qui rend la modélisation particulièrement exigeante. Et les applications potentielles très prometteuses.
Un jumeau numérique d’un système vivant : pour quelles applications ?
Dans le domaine de la santé, les efforts pour développer un jumeau numérique du patient illustrent bien cette tension entre ambition technologique et complexité biologique. Des modèles de cœur virtuel permettent déjà de tester des dispositifs médicaux, tandis que des simulations de tumeurs cherchent à prédire la réponse à des traitements.
La chirurgie, elle, explore des représentations numériques préopératoires personnalisées pour optimiser les gestes médicaux. Mais ces avancées restent fragmentaires, car elles reposent sur l’intégration de données massives, hétérogènes et souvent incomplètes : les données génomiques, les historiques cliniques, l’imagerie médicale, les données environnementales… Autant de couches d’information qu’il faut synchroniser dans un modèle cohérent, ce qui se révèle d’une complexité infinie.
L’agriculture, de son côté, semble offrir un terrain plus structuré pour le développement de jumeaux numériques, notamment à travers l’agriculture de précision. En modélisant les interactions entre sol, cultures et climat local, il devient possible d’ajuster l’irrigation, de limiter les intrants, ou encore d’anticiper les maladies. Cependant, la variabilité biotique, géographique et climatique complique la reproductibilité des modèles. La standardisation des données reste embryonnaire à l’heure actuelle, et les modèles sont encore trop sensibles aux incertitudes locales pour être généralisables à grande échelle.
Face à ces défis, les approches traditionnelles de modélisation, fondées uniquement sur des équations mécanistes, montrent leurs limites. Pour représenter le vivant, il devient nécessaire d’hybrider les méthodes : combiner intelligence artificielle et modèles mécanistes, mais aussi articuler simulation multi-agents et apprentissage fédéré, et intégrer des données empiriques sans perdre de vue les dynamiques structurelles. C’est à ce prix qu’un jumeau numérique peut espérer devenir un système adaptatif, capable de refléter les transformations continues d’un organisme, d’une population, voire d’un environnement.
Ainsi, le jumeau numérique du vivant ne sera pas prédictif au sens classique du terme. Il ne fournira pas de certitudes, mais des probabilités, des tendances, des scénarios dynamiques. Il ne remplacera pas l’expérimentation in vivo, mais deviendra un partenaire dans l’exploration des possibles. À condition toutefois de construire des infrastructures de données robustes, d’encourager la collaboration entre disciplines, et d’accepter que dans le monde du vivant, la simulation n’est jamais une réplique parfaite, mais une hypothèse éclairée sur ce qui pourrait advenir.
Au cœur de l’été, les enjeux climatiques, technologiques et industriels s’imposent avec acuité. Entre innovations prometteuses et défis environnementaux pressants, cette semaine illustre la complexité d’un monde en transition.
🧠 NUMÉRIQUE
Mistral annonce son premier modèle de raisonnement : Magistral
La start-up française Mistral AI dévoile « Magistral », un modèle de raisonnement avancé conçu pour rivaliser avec les leaders du secteur. Ce modèle open-weight, optimisé pour les tâches complexes, marque une étape stratégique dans la course à l’intelligence artificielle européenne.
👉 Découvrez Magistral, le nouveau pari de Mistral dans l’IA
IPv6 : la France est championne mondiale
Avec un taux d’adoption de 76 %, la France se hisse en tête du classement mondial de l’IPv6. Ce protocole, essentiel pour l’Internet du futur, bénéficie d’un fort soutien des opérateurs français, notamment Free. Une performance qui souligne l’avance technologique du pays dans les infrastructures réseau.
🌐 Pourquoi la France domine l’IPv6
🌍 CLIMAT & ENVIRONNEMENT
Vagues de chaleur en Europe : une situation pire que prévu
Les dernières données confirment une intensification des vagues de chaleur en Europe, avec des températures records et des impacts sanitaires croissants. Le phénomène s’aggrave plus vite que les projections climatiques, posant un défi majeur pour l’adaptation des territoires.
🔥 L’Europe face à la montée des extrêmes
De l’intérêt de capter le CO₂ biogénique
La capture du CO₂ issu de la biomasse pourrait jouer un rôle clé dans la neutralité carbone. Cet article explore les avantages environnementaux et les limites techniques de cette approche, encore peu exploitée mais prometteuse dans le cadre des stratégies de décarbonation.
🌱 Le CO₂ biogénique, un levier sous-estimé ?
⚙️ INDUSTRIE & INNOVATION
Le président de l’OEB rappelle le rôle central des brevets et normes dans la stratégie d’innovation européenne
António Campinos, président de l’Office européen des brevets, insiste sur l’importance des brevets et des normes pour renforcer la souveraineté technologique de l’Europe. Il appelle à une meilleure coordination entre innovation, réglementation et compétitivité industrielle.
📌 Pourquoi brevets et normes sont au cœur de l’innovation européenne
Le stockage d’électricité plus que jamais nécessaire
Face à l’intermittence des énergies renouvelables, le stockage devient un pilier incontournable de la transition énergétique. L’article revient sur les technologies existantes, les défis économiques et les perspectives d’industrialisation à grande échelle.
⚡ Stocker l’énergie, un défi stratégique
Il devait être l’une des attractions du 55e salon du Bourget, aux côtés notamment du Rafale et des petits aéronefs électriques et hybrides. Mais le C919, l’avion vedette du constructeur aéronautique chinois Comac, n’a finalement pas pris part à l’un des rendez-vous aéronautiques les plus importants de l’année. En cause : l’absence de certification européenne et le refus d’une dérogation spéciale, pourtant envisagée, pour permettre à l’appareil chinois de survoler le territoire européen. Cette absence soulève une question essentielle : Comac est-il en mesure de s’imposer face aux deux géants de l’aviation mondiale, Airbus et Boeing ? Et surtout, dans quels délais ?
L’entreprise, fondée en 2008 et soutenue par Pékin, a été conçue pour devenir le bras armé de l’indépendance technologique chinoise dans l’aéronautique. Avec le C919, un monocouloir pouvant transporter environ 170 passagers et destiné à concurrencer l’A320 d’Airbus et le 737 de Boeing, la Chine affiche clairement ses ambitions : percer un marché mondial nettement dominé par le duopole occidental.
Le C919 a effectué son premier vol commercial en mai 2023, opéré par la compagnie China Eastern Airlines. En apparence, l’avion coche toutes les cases avec un design moderne, une autonomie de 5 500 km, des moteurs LEAP-1C fournis par CFM International, une coentreprise entre Safran et GE Aerospace. Mais derrière cette façade se cache une réalité plus nuancée : Comac dépend encore massivement de fournisseurs étrangers, principalement occidentaux, tant pour les moteurs que pour les systèmes critiques de son aéronef. Cette dépendance technologique limite aujourd’hui la compétitivité du C919 à l’international, d’autant plus dans un contexte de tensions géopolitiques et de restrictions américaines sur les exportations.
Entre 3 et 6 ans pour obtenir la certification européenne
L’incapacité du C919 à se poser au Bourget souligne l’un des freins majeurs à l’expansion mondiale de Comac : l’absence de certification par les régulateurs occidentaux, en particulier l’EASA (European Union Aviation Safety Agency) en Europe et la FAA (Federal Aviation Administration) aux États-Unis. Sans ce sésame, l’avion est privé de deux principaux marchés. Le constructeur chinois devra encore patienter, car obtenir ces certifications est un processus long, coûteux et exigeant. Selon l’Usine nouvelle, le C919 pourrait ne pas obtenir l’homologation européenne avant 3 à 6 ans. Quant aux États-Unis, Pékin n’a même pas tenté la certification.
D’ici là, l’appareil devra continuer à faire ses preuves, principalement sur son marché domestique.
La Chine dispose cependant d’un avantage considérable grâce à son marché aérien en pleine expansion. Avec 1,4 milliard d’habitants et une classe moyenne en croissance rapide, le pays devrait devenir le premier marché mondial d’ici à 2043, selon des projections de Boeing et Airbus. Ce contexte offre à Comac une base solide pour déployer ses appareils.
À court terme, Comac ne représente pas une menace directe pour le duopole, mais à moyen terme, notamment vers 2035, certains experts estiment que l’avionneur chinois pourrait capter jusqu’à 10 % du marché mondial des monocouloirs, en particulier dans les pays en développement ou ceux cherchant à s’émanciper de l’influence occidentale. Pour espérer vraiment rivaliser avec Airbus et Boeing, Comac devra franchir plusieurs étapes cruciales. Tout d’abord, passer à l’échelle industrielle en étant capable de produire en série, de livrer dans les délais et d’assurer une maintenance à grande échelle. Ensuite, bâtir un réseau mondial d’après-vente, de formation, de pièces détachées, soit autant d’éléments essentiels à la confiance des compagnies aériennes.
Pour l’heure, seulement 20 appareils C919 ont été livrés au total. Et même si plus de 1 000 aéronefs ont été commandés, principalement par des compagnies chinoises, la majorité ne sont pas encore des commandes fermes. À l’image des constructeurs chinois de voitures électriques, qui hier étaient moqués et sont aujourd’hui à la pointe de l’innovation, Comac pourrait connaître une trajectoire similaire dans l’aéronautique. Porté par un immense marché intérieur, un soutien étatique massif et une montée rapide en compétence industrielle, le groupe chinois pourrait bouleverser l’équilibre mondial. L’histoire récente de l’automobile prouve que ce scénario est crédible.
Le démarrage progressif d’installations éoliennes et solaires au début du XXIe siècle a assez vite posé la question de la variabilité de leur production d’électricité. Mais en réalité, les volumes de production renouvelable étant faibles au début, l’enjeu de créer des moyens de flexibilité en stockant les électrons n’est réellement apparu que récemment.
Les acteurs des technologies de stockage d’électricité ont commencé à s’organiser vers 2010, par exemple avec la création d’un club dédié à l’ATEE. Depuis, les rapports se sont multipliés et une récente analyse de l’Observatoire des transitions énergétiques, pilotée par le cabinet d’avocats d’affaires De Gaulle Fleurance, vient ajouter sa pierre à l’édifice.
La vision de ce rapport est principalement tournée vers l’état des marchés du stockage d’électricité par batteries stationnaires de grande taille, dites BESS (pour Battery Energy Storage System) dans quatre pays en Europe : France, Belgique, Royaume-Uni et Pologne. Une approche utile tant ces solutions techniques sont connues et leur développement surtout dépendant des conditions réglementaires, fiscales et économiques.
Des parcs de batteries en croissance
Ce rapport, dans lequel interviennent deux spécialistes français de Clean Horizon et d’Harmony Energy, rappelle d’abord les capacités installées dans chaque pays. La France dispose historiquement de sites hydroélectriques de turbinage-pompage, à hauteur de 5 GW, qui devraient voir apparaître 1,5 GW de capacités supplémentaires d’ici 2035. Les systèmes de stockage d’énergie par batterie sont à hauteur d’un peu plus d’un gigawatt fin 2024 alors qu’il y en avait moins de 50 MW cinq ans auparavant. La dynamique haussière est très forte : selon une étude de RTE de février dernier, plus de 7 GW de BESS seraient dans les tuyaux. S’ils sortent tous de terre, les batteries deviendront à terme le premier moyen de stockage d’électricité en France.
Le Royaume-Uni nous distance largement avec déjà 4,7 GW de BESS installés, tandis que la Pologne, qui disposait de peu de batteries ces dernières années (165 MW en 2022), a connu aussi un grand bond en avant, avec un parc de 2,5 GW en 2024. La Belgique, avec un démarrage seulement en 2021, ne dispose que de 200 MW mais plus de 3 GW pourraient être raccordés d’ici fin 2034.
L’Observatoire n’aborde pas l’Allemagne, mais elle dispose de centaines de milliers de batteries résidentielles que les particuliers ont installées avec leurs panneaux photovoltaïques, pour un total de 13 GWh d’électricité stockable (source : r2Advisor). Soit environ dix fois plus que l’énergie stockée dans les BESS de grandes tailles, dont PwC estime la capacité à 1,2 GW en 2024. Mais le rapport pourrait s’inverser puisque 15 GW de BESS de plus de 5 MW unitaire seraient programmés pour 2030 outre-Rhin.
Modèles économiques à pérenniser
Les services apportés par les batteries électrochimiques sont au cœur de ce développement en forte hausse dans de nombreux pays. Encore faut-il qu’ils soient rémunérés pour inciter les acteurs à investir dans cette technologie ! Trois principaux mécanismes existent pour assurer l’économie des projets.
Le premier est la rémunération des services systèmes exigés par le réseau électrique, principalement pour assurer la stabilité de fréquence. Pour des durées assez courtes, d’une à deux heures, les batteries épaulent ainsi les services dits FCR et aFRR (réserves primaire et secondaire). En France et au Royaume-Uni, ce mécanisme assure 80 à 90 % de la valorisation économique des batteries. En Pologne ce serait plutôt de l’ordre de 60 %.
La capacité des BESS à stabiliser le réseau électrique est ainsi essentielle. Par exemple, en octobre 2024, les échanges d’électricité de la Norvège vers le Royaume-Uni ont chuté brutalement de 1,4 GW à zéro : grâce à la mobilisation rapide de 1,5 GW de batteries, le réseau a pu être sécurisé en stabilisant la fréquence en moins de deux minutes.
Le second est le mécanisme de capacité, qui est une sorte d’assurance prise par le gestionnaire de réseau face à des aléas : les opérateurs s’engagent à pouvoir mobiliser leurs moyens de production ou de stockage, en échange d’un revenu annuel par mégawatt. Ce mécanisme est pluriannuel au Royaume-Uni, en Italie, en Pologne en Belgique et en Irlande, mais il est annuel en France, ce qui offre peu de visibilité aux opérateurs. Néanmoins, une nouvelle version est prévue pour 2026, qui devrait offrir des revenus sur le long terme. Selon l’horizon de temps considéré, les enchères des mécanismes de capacité voient des prix très variables : au Royaume-Uni par exemple, l’enchère pour 2025 / 2026 s’est établie à 20 £/kW.an tandis que celle pour 2028 / 2029 a atteint le triple de cette valeur.
Les deux premiers débouchés économiques évoqués commencent néanmoins à voir leurs revenus baisser, notamment du fait d’une saturation des marchés FCR et aFRR (en France par exemple, 3 GW suffisent pour y répondre). D’où une troisième option qui est l’arbitrage pour une vente sur les marchés de gros de l’électricité. Il s’agit de répondre à la demande d’approvisionnement au niveau journalier, ce qui est rendu possible par des capacités de décharge plus longues, de 2 à 8 heures. Ainsi, il est possible de maximiser les revenus des batteries en fonction des fluctuations de prix sur les marchés.
Enfin, une dernière piste, encore peu utilisée, sera d’amplifier les projets de batteries directement intégrés soit à la production d’électricité solaire ou éolienne (pour éviter les phénomènes de congestion sur le réseau), soit à une infrastructure de consommation (électromobilité, actifs commerciaux ou industriels).
Dans tous les cas, le stockage par batteries, incontournable partenaire des énergies renouvelables électriques, devra relever le défi sa pertinence économique et de la minimisation de son impact sur l’extraction des matières premières nécessaires à leur fabrication.
Après les températures mondiales record en 2023, puis 2024, la trajectoire qui s’annonce pour 2025 semble déjà préoccupante, avec un mois de juin qui est le 3e plus chaud enregistré à l’échelle mondiale. Selon les données du service européen Copernicus et d’après les calculs de l’AFP, 12 pays du monde ont ainsi connu leur mois de juin le plus chaud.
L’Espagne et le Portugal en font partie, avec des températures qui ont parfois dépassé les 45°C. La température ressentie (indice UTCI¹) a même atteint 48°C au nord de Lisbonne. En ce qui concerne l’Europe de l’Ouest, c’est donc un mois de juin record, puisque le Vieux Continent a déjà subi deux vagues de chaleur extrêmes.
La fréquence et l’intensité de ces vagues de chaleur inquiètent les climatologues
Il est acquis que la planète se réchauffe en raison de la combustion des énergies fossiles et de la déforestation notamment. Mais le rythme observé depuis 2023 est une énigme pour les climatologues.
En novembre 2024, Gavin Schimdt, le directeur de l’Institut Goddard d’études spatiales de la NASA, reconnaissait être « encore en train d’évaluer et de déterminer si nous assistons à un changement dans le fonctionnement du système climatique ».
De son côté, le climatologue Richard Allan, de l’université britannique de Reading, a même affirmé que « la chaleur mondiale record de ces deux dernières années a propulsé la planète en terrain inconnu. »
Et pour ce qui est de la multiplication des vagues de chaleur que l’Europe subit depuis 20 ans, c’est le même constat : les modèles climatiques n’arrivent pas à les prévoir !
De multiples facteurs à prendre en compte
Deux facteurs majeurs sont responsables d’une vague de chaleur : la présence d’un anticyclone stationnaire, qui fait surchauffer l’air et augmente la pression atmosphérique, et la baisse du taux d’humidité des sols.
Malheureusement, selon Robin Noyelle, post-doctorant en sciences du climat à l’école polytechnique de Zurich, « on ne comprend pas encore bien la mécanique derrière la formation des anticyclones de blocage », ni les raisons de leur multiplication.
Par ailleurs, les scientifiques n’arrivent pas encore à établir de lien clair entre ces phénomènes et le changement climatique global.
Pour ce qui est de l’Europe de l’Ouest, les climatologues auraient aussi des difficultés à modéliser l’influence du couplage sol-atmosphère sur le réchauffement local. En clair, alors qu’un sol humide sera susceptible de rafraîchir l’air, un sol sec aura l’effet inverse. Et, comme les vagues de chaleur successives assèchent considérablement les sols, le réchauffement s’amplifie.
À l’heure actuelle, les modèles climatiques minimiseraient donc l’influence de ce phénomène, particulièrement visible en Europe de l’Ouest, notamment en France métropolitaine.
Une menace sanitaire également sous-estimée
Le changement climatique n’est pas une notion vague. D’ailleurs l’impact sanitaire de cette canicule précoce et soudaine est malheureusement bien réel.
Selon une étude conduite par la World Weather Attribution, des chercheurs de l’Imperial College London, ainsi que par la London School of Hygiene & Tropical Medicine,elle aurait causé 2 300 décès en Europe, dont 1 500 sont directement imputables au réchauffement climatique. C’est bien plus que lors des inondations de Valence en 2024, qui ont coûté la vie à 225 personnes !
Les vagues de chaleur sont ainsi une menace diffuse et sous-estimée. Il est donc urgent d’adapter nos territoires au changement climatique, en particulier les villes, car ces phénomènes d’ampleur sont amenés à se répéter et à s’intensifier.
Chaque année depuis 2018, Techniques de l’Ingénieur est partenaire de l’opération Ingénieuses, organisée par la CDEFI (Conférence des directeurs des écoles françaises d’ingénieurs) afin de combattre les stéréotypes de genre et promouvoir l’égalité des sexes dans les métiers et formations d’ingénieur.
Parmi les 10 prix décernés (Prix de l’élève-ingénieure France, de la femme du numérique, de l’école la plus mobilisée etc.), Techniques de l’Ingénieur a rencontré les nominées dans la catégorie “Femme ingénieure”. Une belle occasion de partager le parcours de femmes scientifiques talentueuses, qui agissent pour l’égalité des genres dans leur métier.
Karine Fournet Sperandio est directrice de la gestion des risques projets dans le secteur eau et environnement chez Vinci Construction Grands Projets (VCGP). Diplômée en Génie urbain de l’EIVP en 1995, elle a enrichi son parcours avec un doctorat en rudologie, ainsi qu’un master en éthologie. Très investie dans la transmission des savoirs, elle intervient depuis plus de 20 ans dans des universités et écoles d’ingénieurs sur des thématiques telles que la gestion des déchets ménagers ou le contract management. L’ingénieure est également membre active de plusieurs réseaux professionnels comme Elles bougent ou Femmes Ingénieures afin d’agir pour plus de parité dans les professions scientifiques.
Techniques de l’ingénieur : Pouvez-vous nous parler de votre parcours ?
Karine Fournet Sperandio : Après une formation académique en école d’ingénieur, j’ai complété avec un DEA en Sciences et techniques de l’environnement et un doctorat en rudologie parce que j’avais envie de me spécialiser dans le secteur de l’environnement. Une grande partie de ma carrière a eu lieu dans le secteur public, jusqu’en 2020 où je suis rentrée dans le privé. Depuis un an, je suis directrice de la gestion des risques projets au sein du secteur eau et environnement chez Vinci Construction Grands Projets. Notre activité consiste à concevoir et construire des installations industrielles qui répondent à des enjeux de traitement de déchets, traitement des eaux ou production d’énergie durable. Je travaille au sein des équipes opérationnelles principalement sur les sujets de contracts management, en interface avec le service des achats et la direction juridique. J’ai une mission transverse, en assistance aux équipes de projet, mais au service de la direction de la Business Unit qui souhaite s’assurer de la bonne maîtrise des risques des projets. En parallèle, j’interviens de manière ponctuelle dans des universités et écoles d’ingénieurs.
En quoi consistent vos interventions auprès d’étudiants ?
De par mon doctorat en rudologie, c’est-à-dire en étude des déchets, j’interviens dans les écoles à propos de la gestion des déchets ménagers et de tout ce qui concerne l’aspect contractuel autour de cette thématique. L’enseignement me plaît énormément car j’aime être face à des étudiants pour partager mes connaissances, leur parler de mon métier et de mes secteurs d’activité, à savoir l’industrie et l’environnement. Ce sont des domaines qui sont pourvoyeurs d’emplois et que je trouve passionnants parce qu’ils touchent aussi bien à la technique qu’à l’économie ou au sociétal. J’en profite aussi pour expliquer de façon diffuse que ces métiers sont parfaitement adaptés aux femmes et que ces sont des opportunités d’accéder à des postes élevés en entreprises. J’ai donc à cœur d’encourager les jeunes femmes à envisager ces filières.
Comment se manifestent vos engagements pour l’égalité hommes-femmes dans le métier ?
Ce sujet a toujours été important pour moi. Quand vous êtes en classe préparatoire, il y a majoritairement des garçons, pareil en école d’ingénieur où les femmes sont en minorité. Donc je suis habituée à évoluer dans des environnements masculins, et à devoir à la fois m’y fondre et en même temps, à revendiquer ma place car elle ne viendra jamais de soi. Plus tard dans ma carrière, j’ai aussi pu ressentir ce qu’on appelle le plafond de verre, à savoir la sensation de développer des missions transversales mais de ne plus monter en hiérarchie. Or ce n’est pas normal. Depuis quelques années, on parle beaucoup plus de sororité, de réseaux féminins, et j’ai mieux réussi à poser des mots sur ce que je faisais déjà lors de mes interventions en écoles. C’est aujourd’hui une démarche beaucoup plus construite de ma part.
Ainsi, depuis 2 ans, je suis administratrice au sein de l’association Femmes Ingénieures. Dans ce cadre, je réalise des interventions en écoles et je travaille surtout sur l’axe de la gouvernance au sein des entreprises et conseils d’administration pour aller vers plus de mixité. En parallèle, je fais partie chez Vinci Construction Grand Projet du comité de pilotage “Grands projets au féminin” qui met en place des actions au sein de l’entreprise pour aller vers une entreprise plus paritaire. Toujours chez Vinci, je fais partie d’un programme de mentorat donc je suis la marraine d’une jeune ingénieure avec qui j’échange régulièrement. Je suis également marraine de “Elles bougent” au sein de Vinci. Et enfin, je suis occasionnellement membre de jury du concours Ingénieurs de la Fonction Publique Territoriale. Je crois que c’est important qu’il y ait de la mixité dans les membres de jury car il y a forcément des biais dans le recrutement des candidats.
Quels types d’actions menez-vous avec le comité de pilotage “Grands projets au féminin” ?
Il y a une action qui était déjà présente avant que je rejoigne le comité qui s’appelle le “Quart d’heure harcèlement”. Ils se sont inspirés du “Quart d’heure sécurité” qui existe souvent sur les chantiers afin de parler des situations dangereuses et ainsi prévenir les accidents du travail. Plus récemment, on a pris conscience des problèmes de sexisme qui demeurent sur les chantiers, et qui peuvent être lourds à porter pour les conductrices de travaux et ingénieures. Donc durant ces “Quart d’heure harcèlement”, on rappelle les comportements inadaptés. Par exemple, des photos de femmes nues dans le camion, ou certains mots ne sont plus acceptables. Ces moments sont aussi là pour rappeler aux femmes ce qui existe au sein de l’entreprise si jamais elles sont victimes de comportements sexistes, ou pire, d’agression sexuelle. Des dispositifs sont prévus pour ça.
Selon vous, comment peut-on renforcer la place et la visibilité des femmes dans le monde scientifique ?
D’abord, intervenir dans les écoles est capital dès le plus jeune âge pour toucher les enfants mais aussi les parents, afin qu’ils puissent encourager leurs filles. Mais il ne faut pas non plus laisser de côté le supérieur, car les jeunes filles engagées dans le scientifique peuvent faire machine arrière. Ensuite, un axe important à renforcer concerne les entreprises et le plafond de verre. Souvent, les femmes vont quitter les entreprises car ça devient compliqué pour elles d’évoluer, notamment quand elles ont des enfants. Il faut que les entreprises s’engagent pleinement auprès des femmes pour leur permettre de s’épanouir. Et cela doit se faire aussi avec les collègues masculins ! La diversité permet de multiplier les visions et d’atteindre un équilibre, qui est garant de la performance des entreprises. C’est un axe qui me tient particulièrement à cœur parce qu’il y a encore beaucoup de choses à faire pour qu’il y ait davantage de femmes à des postes-clés. Il faut faire en sorte de montrer les femmes, et des prix comme Ingénieuses aident à nous mettre en lumière.
De par leur faible nombre, il est presque attendu des femmes dans les filières scientifiques d’œuvrer aussi pour l’égalité hommes-femmes. N’est-ce pas une charge supplémentaire, voire une limite pour le développement de leur carrière, par manque de temps à y consacrer ?
Je suis tout à fait d’accord. Cela rajoute un poids car c’est une gymnastique constante de se dire qu’il faut assister à un événement, alors que ça empiète sur le travail donc on compense en travaillant à d’autres moments… Comme je le disais précédemment, il faut vraiment réussir à fédérer nos collègues hommes pour que tout le monde se mobilise autour de cette cause. Certains le font, mais ils sont pour le moment très marginaux. Si je suis à la fois fière du travail que je mène, je me sens aussi très frustrée de ne pas en faire plus pour Femmes Ingénieures par exemple, car j’ai un nouveau poste dans lequel j’ai envie de m’investir.
Vous avez été nominée dans la catégorie “Femme ingénieure” de l’opération Ingénieuses. Qu’est-ce que cela signifie pour vous ?
J’ai eu deux sentiments. D’abord, l’étonnement car même si on postule spontanément, j’ai été presque surprise que l’on trouve dans mon parcours un intérêt. Le syndrome de l’imposteur est toujours très présent chez les femmes, c’est assez terrible. Dans un deuxième temps, j’ai été ravie de me dire que tout ceci avait un sens. C’est un travail d’équilibriste de mener sa carrière et d’agir pour l’égalité, donc c’est encourageant de voir que mes actions sont valorisées par mes pairs et paires. Cela me permet aussi d’en parler autour de moi, de sortir de l’ombre en disant à mes collègues que je participe à ce prix. C’est un travers féminin, notamment dans un environnement masculin, de parfois s’oublier et ne pas se mettre en valeur mais il n’y aucune raison de se comporter ainsi. Ce prix, c’est l’opportunité d’en parler, de rappeler ce que je fais et que c’est bien.
L’Europe s’est mis en tête de simuler la Terre. Avec le projet Destination Earth – DestinE -, la Commission européenne ambitionne de créer un jumeau numérique de notre planète, avec une ambition : être en capacité de prédire les conséquences du changement climatique, d’alerter en cas de catastrophes naturelles, et même de tester virtuellement des politiques publiques et leurs effets, sur le long terme, à travers toute la planète.
Un projet dont on perçoit les avancées immenses en termes de prédiction et de décision qu’il pourrait porter. Cependant, il convient de se poser la question de la possibilité même de créer un véritable jumeau numérique de la Terre. Quelles sont aujourd’hui les limites technologiques de DestinE ? Et aussi, est-il réellement possible de modéliser le vivant et l’humain ?
Annoncé en 2021 dans le cadre du Pacte vert pour l’Europe et de la stratégie de souveraineté numérique européenne, DestinE incarne la volonté de l’Union européenne de se doter d’outils puissants pour faire face aux bouleversements climatiques. Le projet est porté par le programme Digital Europe, avec un financement initial d’environ 150 millions d’euros pour sa première phase. Avec une finalité avouée : simuler le système Terre à un degré de précision inédit, dans le but d’anticiper les impacts environnementaux et sociaux des différentes trajectoires politiques.
À la base du projet, une infrastructure informatique européenne de pointe
DestinE repose sur les supercalculateurs LUMI (Finlande) et Leonardo (Italie), capables de traiter plusieurs centaines de pétaflops, soit des millions de milliards d’opérations par seconde. Ces machines feront tourner des modèles numériques intégrant les interactions entre atmosphère, océans, cryosphère, biosphère et activités humaines.
La plateforme s’appuie sur trois piliers. D’abord, le Core Service Platform, un portail d’accès aux données, modèles et scénarios qui alimentent DetinE.
Ensuite, des Digital Twins thématiques, qui sont en fait les premiers prototypes de simulation pour le climat extrême, l’hydrologie ou l’urbanisme, et qui vont apporter chacun des modèles de prévision sur leurs champs spécifiques d’expertise.
Enfin, un réseau distribué d’infrastructures de calcul, de stockage et d’IA, interconnecté à des systèmes de données en temps réel – satellites Copernicus, observations au sol, données socio-économiques – permettront d’alimenter le modèle en données les plus récentes possibles.
Cette architecture doit permettre de fournir des prédictions à haute résolution spatio-temporelle, de l’ordre du kilomètre carré et de l’heure, selon les cas d’usage.
Pour être en mesure de collecter les données nécessaires en temps réel, des partenaires européens tels que l’ESA, l’ECMWF (Centre européen pour les prévisions météorologiques à moyen terme) ou encore EUMETSAT participent à la coordination du projet.
Quels bénéfices et quelles limites ?
Les usages de DestinE pourraient être multiples, après qu’une première version de DestinE ait été mise en ligne fin 2024.
Tout d’abord, l’outil pourrait permettre de tester les effets des politiques climatiques. Il serait par exemple en mesure de simuler l’effet réel sur le climat de l’interdiction de circulation des véhicules thermiques.
Le scope d’analyse de l’outil est aussi source de nombreux usages, puisqu’il serait en mesure de fournir des analyses globales, au niveau de la planète, mais également au niveau d’un continent, voire d’une ville ou d’un quartier.
Pour le moment, nous sommes loin de ce type d’applications. De nombreux scientifiques soulignent aujourd’hui l’immense complexité des interactions multi-échelles que doit prendre en compte DestinE pour se révéler être un outil fiable. Et pour cause, à l’heure actuelle, aucune simulation ne peut représenter fidèlement la diversité des milieux, des comportements humains ou des imprévus géopolitiques, entre autres.
Certains spécialistes du sujet vont plus loin, arguant qu’il est inexact d’employer le terme de jumeau numérique pour DetinE, car un jumeau numérique reproduit un système maîtrisé et stable, ce qui n’est pas le cas de la Terre, que ce soit pour les systèmes biologique ou humains. Les difficultés à prédire la météo, de plus en plus importantes avec le changement climatique, laissent effectivement songeur quant à la possibilité de modéliser un système planétaire et son évolution.
La version opérationnelle limitée du projet lancée en 2024, avec deux premiers jumeaux thématiques (climat extrême et hydrologie), doit faire place à la version complète, couvrant toutes les dimensions du système Terre, prévue pour 2030.
DestinE est donc pour le moment un pari scientifique et technique, mais aussi un symbole politique : celui d’une Europe qui tente de reprendre la main sur ses données, ses infrastructures et ses choix environnementaux.
Au mois de juin dernier, la société à mission Plastic Vortex a été mise à l’honneur en recevant le label Greentech Innovation. Décerné par le ministère de la Transition écologique lors du salon Viva Technology 2025, ce prix récompense le premier barrage flottant automatisé qui intercepte les déchets dans les cours d’eau en aval des villes, avant qu’ils ne soient déversés dans les mers et les océans.
Chaque année, 2,5 millions de tonnes de débris plastiques sont rejetées dans les mers et les océans bouleversant ainsi l’ensemble des écosystèmes du monde. Cette pollution marine par les plastiques serait à 80 % d’origine côtière : les fleuves sont les premiers vecteurs d’acheminement des déchets vers les océans. L’ampleur du phénomène est très sous-estimée, car seulement 1 % des déchets flotte à la surface de l’eau. Dans les fonds marins se trouve la partie immergée de l’iceberg sous forme de microplastiques fragmentés qui s’accumulent dans de grands bancs de sédiments.
En ciblant les apports fluviaux, cette innovation permet d’agir à la source du problème.
Un principe simple qui préserve la faune aquatique
Fondée en 2017, la start-up Plastic Vortex assure que son barrage est capable de capter jusqu’à 90 % des microplastiques dès 1 mm de diamètre. Le dispositif repose sur un barrage flottant en forme de V inversé installé en diagonale par rapport au courant. Les déchets sont guidés vers un convoyeur automatisé en jouant sur la dynamique naturelle du courant.
Ce système, décliné en plusieurs modèles pour s’adapter aux différents cours d’eau, fonctionne en continu y compris lors des crues ; une résistance aux intempéries qui s’ajoute au caractère novateur de l’automatisation.
Le projet ne s’arrête pas à la captation. Les déchets sont triés en vue d’un recyclage ou d’un réemploi. Grâce à un partenariat avec Inddigo[1], chaque déchet intercepté est analysé, caractérisé et dirigé vers des filières de valorisation locales.
Objectif : un maillage national
L’entreprise toulousaine a pu compter sur sa ville pour expérimenter cette solution innovante. Toulouse a, en effet, accepté d’être le site pilote en accueillant, depuis mars 2025, le tout premier barrage Vortex sous le pont de Blagnac. Il serait capable, selon les prévisions, d’intercepter jusqu’à huit tonnes de déchets plastiques par an. En représentant l’équivalent de 425 000 bouteilles plastiques, cette quantité devrait être suffisante pour assainir la Garonne !
Alors que la mise en service est prévue à la mi-juillet, la ville pionnière pourrait bien faire des émules.
En effet, la start-up prévoit une couverture de 90 % du territoire français en implantant 31 barrages sur des points stratégiques placés le long des principaux fleuves français. Elle affirme pouvoir ainsi intercepter plus de 175 tonnes de plastiques avant qu’elles n’atteignent l’Atlantique ou la Méditerranée ; c’est l’équivalent de 9 millions de bouteilles plastiques collectées par an.
Un déploiement qui s’annonce difficile au regard du coût d’investissement qu’implique le système : entre 15 et 20 millions d’euros, prix auquel il faut ajouter un coût d’exploitation de 3 à 5 millions d’euros. La société vient, d’ailleurs, de lancer une levée de fond pour récolter jusqu’à 500 000 euros.
Le parcours est également long pour obtenir les autorisations d’installations auprès des acteurs du secteur public parfois réticents.
Ce coût doit, néanmoins, être mis en perspective avec le coût annuel en capital naturel de cette pollution. Le PNUE[2] le chiffre à 13 milliards de dollars en prenant en compte la baisse des revenus liés au tourisme, à la pêche ou encore le coût du nettoyage des littoraux.
L’inaction coûte plus cher que la solution.
[1] Société de conseil et d’ingénierie en développement durable
[2] Programme des Nations unies pour l’environnement
Dans son rapport sur la compétitivité européenne, remis en septembre 2024, Mario Draghi alertait sur le déficit d’innovation structurel et le retard de l’Europe dans des domaines clés comme l’intelligence artificielle. Il identifiait par ailleurs la complexité, le coût et la lenteur des démarches associées aux brevets comme des freins pour les PME et centres de recherche.
Simplifier le système de protection par brevet est une nécessité
Breveter une invention est souvent perçu, à raison, comme quelque chose de coûteux et complexe, ce qui limite l’utilisation du brevet par les entreprises, centres de recherche et universités de taille modeste.
D’après António Campinos, il est primordial de rendre les brevets plus attractifs. En effet, il constate que les PME, centres de recherche et universités ne sont à l’origine que de 20 % des dépôts annuels à l’OEB. C’est finalement assez peu, puisque ces entités sont souvent à l’origine d’innovations de rupture et représentent la majorité des demandeurs.
Par ailleurs, si la recherche universitaire est à l’origine de 10 % des inventions en Europe, la moitié de ces demandes est déposée par un petit nombre d’universités de premier plan[1], preuve d’une forte concentration de l’innovation académique.
Incitations plus fortes en faveur du privé et financement public accru
Comment pousser les acteurs du monde de la recherche et de l’innovation à breveter leurs inventions ? Le rapport de Mario Draghi proposait d’apporter un soutien financier spécifique aux PME, afin de les aider à protéger leurs innovations.
En accord, avec lui, le président de l’OEB estime qu’il faut « davantage d’investissements mieux ciblés, ce qui passe par des incitations plus fortes pour le secteur privé et par un financement public accru dans des domaines technologiques stratégiques. »
António Campinos se félicite d’ailleurs de l’élargissement, en avril 2024, de la politique de l’OEB en faveur d’une « réduction générale des taxes de 30 % aux micro-entités, centres de recherche et universités. »
Le système du brevet unitaire : un guichet unique qui permet des économies importantes
A. Campinos rappelle également les avantages du nouveau système de brevet unitaire, lancé en juillet 2023, qui « simplifie radicalement la protection par brevet dans les États participants grâce à une procédure de demande unique » et permet surtout aux entreprises d’éliminer les coûts de maintien d’un brevet dans plusieurs États !
Le directeur de l’OEB déplore néanmoins que tous les États membres n’aient pas adopté le dispositif[2]. Ces économies, pourraient pourtant « atteindre 82 % si les 27 États membres de l’UE suivent la recommandation du rapport Draghi et rejoignent le système du brevet unitaire. »
Enfin, ce système permet aussi d’autres gains indirects « en évitant les taxes prélevées par les offices nationaux, les coûts de traduction et les frais juridiques. »
[1] L’Université Grenoble Alpes, l’Université Technique de Munich, l’Université d’Oxford, l’Institut fédéral suisse de Technologie ETH Zurich, l’Université de Copenhague et l’école Polytechnique de Milan
[2] En 2025, seuls 18 États membres de l’Union européenne participent activement au système de brevet unitaire et à la Juridiction unifiée du brevet (JUB)
Bonne nouvelle : la France vient d’obtenir un satisfecit ! Avec un taux d’adoption d’IPv6[1] de 73,3 %, elle a détrôné l’Inde en juin dernier comme l’annonce l’Arcep[2] dans un communiqué de presse publié le 4 juillet dernier.
En l’espace de quelques années seulement, la France est parvenue à se hisser dans le peloton de tête des pays les plus avancés en matière d’utilisation d’IPv6 : huitième en février 2022, elle est montée sur le podium en décrochant la troisième place quelques mois plus tard, puis a franchi un palier supplémentaire en se plaçant à la deuxième position derrière l’Inde dès décembre 2024.
Une migration de l’IPv4 vers l’IPv6 devenue inévitable
L’adresse IP, qui permet d’identifier les appareils sur un réseau, fonctionnait avec une première version nommée IPv4. Déployée en 1983, elle offre un espace de près de 4,3 milliards d’adresses. Cependant, ce protocole est arrivé à saturation car ce volume s’est révélé insuffisant pour couvrir les besoins croissants liés au succès d’internet et à la multiplication des objets connectés. Le RIPE NCC[3] avait ainsi annoncé, le 25 novembre 2019, être « à court d’adresses Ipv4 ». Née dans les années 1990 et standardisée en 2017, la nouvelle version IPv6 répond à l’épuisement progressif des stocks d’adresses Ipv4 en offrant un espace infiniment plus large de 340 sextillions d’adresses.
Une transition stratégique
En garantissant à tout appareil une connexion au réseau internet, l’adoption d’IPv6 devient essentielle pour lever la barrière qui empêche l’entrée de nouveaux opérateurs, hébergeurs ou fournisseurs de service. En effet, sans la bascule vers l’IPv6, les utilisateurs sont contraints de se tourner vers le marché secondaire pour obtenir des adresses IPv4 délivrées à des prix élevés. Cette barrière freine ainsi l’arrivée de nouveaux acteurs de l’innovation.
Cette première place mondiale, fruit d’une politique volontariste, montre combien la France souhaite se démarquer sur la scène internationale pour être à la hauteur des enjeux de la révolution numérique. Grâce à une meilleure performance d’internet et une sécurité renforcée, l’IPv6 peut permettre à la France d’être en pointe dans des secteurs tels que la santé, l’industrie ou les villes intelligentes en favorisant l’essor des objets connectés.
Des disparités persistent à l’intérieur du pays
Toutefois, cette performance masque des disparités importantes. Selon le baromètre annuel de la transition vers ipv6, publié le 4 juillet dernier, l’adoption d’IPv6 se fait plus rapidement du côté des opérateurs que du côté des hébergeurs. La transition vers IPv6 concerne 87 % des clients du réseau fixe et 70 % des clients pour le mobile. En revanche, seuls 35 % des sites web français ont basculé vers IPv6. Pour les serveurs e-mail, le taux n’est que de 23 %. L’Arcep constate, cependant, une augmentation de 15 points dans les deux cas en l’espace de deux à trois ans.
L’objectif ultime est de parvenir à une adoption proche de 100 %. L’Arcep prévient : « La migration vers IPv6 du réseau internet doit concerner tous les maillons de la chaîne technique afin d’assurer un fonctionnement de bout en bout du protocole internet ». Les efforts devront s’accentuer sur les entreprises, notamment les PME et TPE, encore réticentes à effectuer cette transition.
L’IPv6 est, sans doute, une des briques de l’édifice que souhaite construire l’Arcep avec son programme « Ambition 2030 » pour doter le pays d’une infrastructure numérique de qualité.
[1] Internet Protocol version 6
[2] Autorité de régulation des communications électroniques, des postes et de la distribution de la presse
[3] registre régional d’adresses IP, qui alloue les IPv4 pour l’Europe et le Moyen-Orient
Parmi les solutions pour lutter contre le bouleversement climatique, l’option de la capture et du stockage de CO2 (Carbon Capture and Storage – CCS en anglais) figure de plus en plus à l’agenda. Son développement reste encore très limité, même si une accélération ces dernières années fait dire à l’Agence internationale de l’énergie que 435 Mt/an de CO2 pourraient être captées en 2030, avec une capacité de stockage de 615 Mt/an.
Le CCS n’a pas toujours eu bonne presse à cause de son coût élevé, des conséquences encore incertaines du stockage géologique et surtout de l’excuse qu’il fournit pour continuer de consommer des énergies fossiles. Alors que les puits de carbone naturels (océans, forêts, sols) semblent fragilisés, une autre idée prend donc place : appliquer le CCS aux bioénergies, afin de créer des émissions négatives de gaz à effet de serre. En effet, la biomasse prenant le CO2 dans l’atmosphère, si on stocke ce dernier on réduit d’autant les émissions. On parle ainsi de BECCS (BioEnergy Capture and Storage), voire de BECCUS (U pour utilisation) si le CO2 est intégré dans une activité humaine.
Un CO2 pur à 98 % issu de l’épuration du biogaz
Le gestionnaire du réseau de distribution de gaz GRDF s’intéresse de près à la capture, à l’utilisation et au stockage du CO2 biogénique (aussi appelé bioCO2) issu de la méthanisation. Sa mission de service public prévoit en effet de faciliter l’intégration des gaz renouvelables dans le réseau, ce qui passe par un soutien à l’innovation. « Nous avons ainsi lancé un appel à projets en février 2025 pour aider et accompagner des projets innovants sur les technologies de séquestration, sur la logistique locale du bioCO₂, et sur la valorisation économique du stockage via le crédit carbone » explique Bastien Praz, chargé de développement biométhane chez GRDF.
En valorisant économiquement le bioCO2, les installations de méthanisation amélioreraient leur compétitivité, tout en apportant un nouveau bénéfice environnemental. Et elles ont de quoi faire ! En moyenne, le biogaz produit par méthanisation contient 40 % de CO2. Une fois l’épuration du biogaz effectuée – afin de pouvoir injecter le biométhane dans le réseau de gaz – le CO2 récupéré est pur à 98 %. « Actuellement, une trentaine de sites seulement valorisent leur CO2 biogénique, pour des cultures sous serre, pour des usages alimentaires (brasseries), pour du nettoyage cryogénique, etc. La valorisation dépend des opportunités offertes par l’écosystème local. Il faut trouver des moyens de généraliser l’utilisation et la séquestration du bioCO2, puisqu’on a plus de 700 sites d’injection de biométhane, chacun produisant 1 à 5 kt de CO2 chaque année », détaille Bastien Praz.
Cinq lauréats de l’appel à projets de GRDF
Fin juin, cinq lauréats de l’appel à projets ont été désignés par GRDF. Deux d’entre eux visent une utilisation du bioCO2, sous deux formes différentes. Carborok (marque de Voltigital) propose de minéraliser le CO2 dans des granulats de béton usagés. « Il existe déjà des solutions industrielles de carbonatation, mais ce projet innove par son fonctionnement en continu et par sa recherche d’un modèle économique corrélant les flux de CO2 avec la taille des sites de recyclage des bétons, si possible en évitant la liquéfaction du bioCO2 pour son transport » précise Bastien Praz. L’autre projet, E-Ethylène, concerne la conversion du CO2 en éthylène par électrolyse. Produit à haute valeur ajoutée, l’éthylène sert ensuite à fabriquer plusieurs produits, par exemple des canalisations en polyéthylène haute densité.
Deux autres lauréats travaillent sur la séquestration du bioCO2. Carbon Impact, avec Eosys et l’Université de Lorraine, souhaite réaliser une étude prospective sur des couches géologiques dans la région grand Est, afin d’évaluer leur potentiel pour du stockage et son coût. BioCO2-Dissolved, porté par le BRGM et Naldeo, étudie quant à lui l’inclusion de bioCO2 dans un projet d’injection en aquifère profond par l’intermédiaire de puits géothermiques.
Le dernier lauréat, Rainbow (anciennement Riverse), souhaite élaborer une méthodologie de certification de la séquestration du bioCO2 issu de méthanisation pour l’intégrer au marché carbone dans le cadre européen du CRCF (Carbon Removal Certification Framework). Ce serait un moyen de valoriser financièrement cette solution, afin de consolider le modèle économique de l’injection du biométhane.
Les lauréats de l’appel à projets bénéficieront d’un accompagnement technique et de l’appui institutionnel de GRDF, et se partageront un soutien financier jusqu’à 150 k€. Une dizaine d’autres projets, y compris par des acteurs européens, n’ont pas été retenus « parfois par manque d’innovation, de robustesse ou de réplicabilité. Mais il y a une certaine effervescence sur ce sujet et nous étudierons la possibilité de lancer un deuxième appel, idéalement avec l’Ademe » dévoile Bastien Praz.
L’utilisation ou le stockage du CO2 biogénique pourrait être une composante de la stratégie climat française, en vue d’atteindre la neutralité carbone avant 2050. Le potentiel de bioCO2 disponible en 2050 qui pourrait être séquestré est estimé à 40 Mt en France.
Entreprise tricolore fondée en 2023, Mistral AI vient de faire un pas décisif, le 10 juin dernier, en annonçant la sortie de son premier modèle de raisonnement. Baptisé Magistral, ce modèle fait ainsi son entrée dans un domaine en plein essor : l’IA générative. Il aura pour mission de résoudre des problèmes complexes grâce au principe de chaîne de pensée[1] s’inspirant du fonctionnement cognitif humain.
Pour une utilisation adaptée en fonction des besoins, Magistral a été lancé sous une double déclinaison : Magistral Small, en open source, de 24 milliards de paramètres et disponible sous licence Apache 2.0 et Magistral Medium, la version entreprise plus puissante.
Pour évaluer ses nouveaux modèles, Mistral les a notamment soumis à un examen mathématique américain très exigeant. Pour des tâches complexes, les résultats sont plus que satisfaisants : sur AIME24[2], Magistral Medium a atteint un taux de réussite de 73,6 % et a même obtenu 90 % de succès avec une configuration optimisée pour la qualité. Ces chiffres ont atteint respectivement 70,7 % et 83,3 % pour Magistral Small.
La licorne souhaite ainsi se hisser au niveau des modèles développés par ses concurrents comme Gemini 2.0 Thinking Experimental de Google ou encore DeepSeek R1.
Dans cette optique, quels sont les atouts dont elle dispose pour faire le poids face à ces modèles ?
La traçabilité : bouclier contre les « hallucinations »
Le modèle a été conçu pour simuler la pensée logique humaine avec une nouvelle approche : détailler et décomposer une tâche en étapes et sous-étapes. Cette traçabilité permet de rendre visible la chaîne de raisonnement qui a mené à l’aboutissement de la réponse.
Mistral qualifie son modèle d’« arbre de pensée »[3]. En délivrant la réponse sans faire apparaître la succession des étapes logiques, l’utilisateur ne pouvait pas remonter à l’origine de la conclusion affichée. Cette transparence lui permet désormais non seulement d’interroger et vérifier la conformité du raisonnement, mais aussi de détecter les éventuelles erreurs plus facilement. Un procédé qui augmente la fiabilité du modèle.
C’est également un excellent moyen pour lutter contre un problème récurrent rencontré avec ces modèles : l’apparition d’informations incorrectes ou inventées, phénomène plus connu sous le nom d’« hallucinations ».
Multilingue, rapide et polyvalent
L’avancée majeure apportée par la firme française réside dans l’offre multilingue de cette IA. En effet, elle est en mesure de raisonner dans plusieurs langues de manière performante notamment en anglais, français, espagnol, allemand, italien, arabe, russe et chinois simplifié. Cette qualité lui permet de se singulariser et de se distinguer des modèles actuels qui pensent en anglais ou en mandarin, langues des deux pays les plus en pointe dans ce domaine.
La vitesse est également augmentée avec des réponses obtenues en un temps dix fois plus rapide par rapport aux modèles les plus compétitifs.
Le modèle offre également un large éventail d’applications. Le fleuron français de l’IA précise qu’il pourra être un outil à la disposition de la planification stratégique, l’optimisation opérationnelle et la prise de décision fondée sur des données. Sa palette d’expertise couvre des secteurs très variés allant du développement logiciel à la recherche juridique en passant par les prévisions financières. Avec sa traçabilité qui offre une garantie optimale, Magistral vise les industries à hauts risques.
Ces propriétés seront-elles suffisantes pour positionner Magistral comme alternative sérieuse aux modèles de raisonnement américains et chinois ? L’accord entre Mistral AI et Nvidia, annoncé ce mercredi 11 juin, lors du salon VivaTech, permet de penser que la France a toutes les chances de se faire une place de choix dans le paysage de l’IA générative.
[1] Chain-of-thought (CoT)
[2] American Invitational Mathematics Examination 2024
Alors que l’été bat son plein, les enjeux énergétiques, environnementaux et industriels continuent de faire la une. Entre critiques institutionnelles, innovations prometteuses et adaptations nécessaires, cette semaine illustre les tensions et les espoirs d’un monde en transition.
⚡ ÉNERGIE & ENVIRONNEMENT
L’impact énergétique croissant des datacenters et de l’IA
L’essor fulgurant de l’intelligence artificielle et des datacenters entraîne une explosion de la consommation énergétique mondiale. En 2023, ces infrastructures ont consommé 460 TWh, et ce chiffre pourrait doubler d’ici 2026. L’Europe, en particulier, s’inquiète de la pression sur ses réseaux électriques, notamment en période de forte demande. 👉Datacenters et IA, une équation énergétique sous tension
Hydrogène vert : la Cour des comptes critique sévèrement la stratégie française
La Cour des comptes pointe du doigt les incohérences de la stratégie nationale sur l’hydrogène vert. Manque de coordination, objectifs flous, retards dans les projets : le rapport souligne un écart préoccupant entre ambitions affichées et réalité opérationnelle. 👉 Hydrogène vert, ambitions dégonflées ?
Centrales nucléaires : une adaptation nécessaire au changement climatique
Face aux vagues de chaleur et à la raréfaction de l’eau, les centrales nucléaires doivent s’adapter. Refroidissement, sécurité, disponibilité : les défis sont nombreux pour garantir la résilience du parc nucléaire français dans un climat de plus en plus instable. 👉Nucléaire et climat, un équilibre à réinventer
🩺 MATÉRIAUX & SANTÉ
Transformer le CO2 industriel en matériau de construction : une innovation électrochimique prometteuse
Une équipe française a mis au point un procédé électrochimique capable de transformer le CO2 industriel en carbonates utilisables dans le bâtiment. Une avancée qui pourrait contribuer à la décarbonation du secteur de la construction, tout en valorisant un déchet industriel. 👉 Quand le CO2 devient brique
CLIMAT & SOCIÉTÉ
Nice 2025 : les engagements clés à retenir à l’issue du Sommet sur l’océan
Le Sommet de Nice a débouché sur plusieurs engagements majeurs pour la protection des océans : création d’aires marines protégées, lutte contre la pollution plastique, et financement accru de la recherche océanographique. Un signal fort à l’approche de la COP30. 👉Océan : cap sur la protection
💼 INDUSTRIE & EMPLOI
Métiers de l’industrie : parution du baromètre BlueDocker des salaires 2025
Le baromètre 2025 révèle une hausse moyenne des salaires dans l’industrie, portée par la demande en compétences techniques et numériques. Les écarts se creusent toutefois entre les régions et les spécialités, soulignant des tensions persistantes sur le marché du travail. 👉Salaires industriels : qui gagne quoi en 2025 ?
En 2023, Francesco Manegatti, alors thésard au Centre de Nanosciences et de Nanotechnologies (C2N), Fabrice Raineri professeur à l’Institut de Physique de Nice et Bruno Garbin, qui était en post-doctorat au C2N, lancent la start-up NcodiN. L’objectif ? Remplacer les interconnexions électroniques standard des processeurs par des liens optiques grâce à un tout petit laser. Dans un contexte d’explosion de l’IA, les processeurs de nouvelle génération ne cessent de grandir afin d’accueillir davantage de puces. Les distances s’allongent et entraînent des pertes importantes d’énergie. Aujourd’hui les liaisons sont assurées par des fils en cuivre, limités en termes de bande passante et de distance couverte en fonction des performances. Les industriels cherchent à ce que toute la puissance fournie au processeur soit dédiée au calcul, et le moins possible à l’interconnexion. Dans les solutions de l’état de l’art, 50 % seulement de la puissance se retrouve dans le calcul.
Réduire la consommation des interconnexions
L’usage de l’optique permet de pallier certaines lacunes du cuivre : parcourir de longues distances avec une meilleure efficacité énergétique. NcodiN a ainsi développé un très petit composant intégré de manière très dense qui convertit le signal électrique en lumière et inversement. Elle a notamment travaillé sur les différents constituants et un nouveau design qui minimise la dimension des composants. Tout cela en utilisant des matériaux standard et des semi-conducteurs III-V en phosphure d’indium (InP) intégrés sur silicium. Au final, avec sa technologie, la start-up parvient à dédier entre 3 % et 5 % seulement de la puissance à l’interconnexion.
La technologie proposée par la start-up permettra aussi de réduire les émissions de CO2. Selon l’agence internationale de l’énergie, les data centers consomment environ 5 % de l’énergie mondiale. En 2030 ce taux atteindra 20 %, dont une grande partie est dédiée à l’interconnexion. En diminuant la puissance utilisée lors des interconnexions, le produit de NcodiN allégera le bilan carbone des centres de données.
Une montée en puissance dans les prochaines années
Près de 4,2 millions d’euros ont déjà été levés par la start-up en pré-seed et ont permis à l’entreprise de faire la démonstration de sa technologie fin 2024. Elle collabore avec des industriels pour optimiser son produit. La solution proposée par NcodiN est actuellement à un TRL 4-5. L’industrialisation devrait commencer dans le courant de l’été 2025, et la commercialisation à haut volume en 2029. Une nouvelle levée de fonds est prévue pour le courant de l’année 2025 afin de soutenir ce plan de croissance.
NcodiN emploi une vingtaine de personnes et est aujourd’hui hébergée au C2N à Palaiseau et s’installera dans ses locaux sur le plateau de Saclay. Elle a été incubée par Agoranov à Paris, accélérée par Wilco et 21 st de CentraleSupélec. Elle a également bénéficié de l’accompagnement de l’accélérateur international Intel Ignite, à Munich.
L’étude a été conduite par Iseline Chaïb, doctorante à l’ANSES et à l’Université du Littoral Côte d’Opale, accompagnée de quatre collègues issus de ces deux institutions. Leur travail part d’un constat bien connu : les microplastiques, définis comme des fragments de plastique de moins de 5 millimètres, sont aujourd’hui omniprésents dans l’environnement ; on les retrouve dans les mers, l’air, le sol… et même dans le corps humain.
L’ingestion constitue l’une des principales voies d’exposition, et les boissons industrielles, produites, stockées et conditionnées dans des emballages synthétiques ou peints, sont des candidates évidentes à cette contamination.
Pourtant, aucune étude ne s’était encore intéressée à ce phénomène en France. L’objectif des auteurs était donc double : d’une part, mesurer les niveaux de contamination par les microplastiques dans différentes catégories de boissons, et d’autre part, comprendre si le type d’emballage influait sur ces niveaux. Leurs résultats sont à la fois clairs et déroutants.
Toutes les boissons analysées contenaient des microplastiques, mais à des niveaux très variables. L’eau en bouteille, souvent perçue comme un produit pur, en contient en moyenne 2,9 particules par litre, un chiffre relativement bas. À l’autre extrémité du spectre, la bière affiche des niveaux records, avec plus de 82 microplastiques par litre (MPs/L). Les sodas (31,4 MPs/L), thés glacés (28,5 MPs/L), et limonades (45,2 MPs/L) présentent eux aussi des concentrations notables. Quant aux vins, ils affichent une contamination plus modérée (8,2 MPs/L en moyenne), bien que certains contenants comme les briques atteignent 30 MPs/L.
Le rôle du contenant est fondamental
Mais au-delà de ces différences entre types de boissons, c’est bien le rôle du contenant qui soulève le plus d’interrogations. Car contre toute attente, les bouteilles en verre sont systématiquement plus contaminées que les bouteilles en plastique ou les canettes. Ce constat vaut pour l’eau, les sodas, les thés, les limonades et les bières. Dans certaines catégories, l’écart est vertigineux : les sodas en bouteille de verre contiennent en moyenne 103 particules par litre, contre seulement 2 à 3 dans les versions plastique ou canette. Même constat pour le thé glacé, où la bouteille en verre affiche 86 MPs/L, contre 2 pour les bouteilles en plastique. Dans le cas de la bière, les petites bouteilles en verre dépassent les 130 MPs/L.
Cette différence, bien documentée dans les résultats, a poussé les auteurs à s’interroger. Le verre serait-il une fausse bonne idée ? Le coupable n’est pas le matériau lui-même, mais plutôt un élément souvent négligé : la capsule métallique. Les chercheurs ont observé que les particules retrouvées dans les boissons en bouteille de verre avaient souvent la même couleur que la peinture extérieure des capsules.
Les capsules responsables de la présence des microplastiques dans les bouteilles en verre
L’analyse chimique par spectroscopie infrarouge a confirmé que ces particules appartenaient à la même famille de polymères que les revêtements des bouchons. Autrement dit, une part importante des microplastiques présents dans les boissons en bouteille de verre viendrait du capuchon, et non du contenant.
Pour vérifier cette hypothèse, l’équipe a mené une série d’expériences contrôlées. Des bouteilles en verre ont été remplies d’eau ultrapure puis capsulées avec des bouchons neufs, selon différents protocoles : sans nettoyage, soufflés à l’air, puis soufflés et rincés. Les résultats sont sans appel. Sans nettoyage, les bouteilles affichent jusqu’à 287 microplastiques par litre. Ce chiffre tombe à 105 MPs/L après simple soufflage, et à 86 MPs/L après rinçage. Les solutions de rinçage des capsules contiennent jusqu’à 48 particules jaunes en moyenne, preuve que le nettoyage peut réduire significativement la contamination, sans toutefois l’éliminer.
L’étude pointe donc un paradoxe. Là où l’on pensait adopter un comportement plus respectueux de l’environnement – choisir une bouteille en verre, réutilisable ou recyclable –, on s’expose en réalité à une pollution plus importante. Ce constat ne vise pas à diaboliser le verre, mais souligne l’importance d’examiner l’ensemble de la chaîne de production, y compris des éléments souvent ignorés comme les capsules. Les auteurs plaident pour une meilleure prise en compte de ces sources secondaires de contamination, ainsi que pour la mise en place de protocoles de nettoyage systématiques dans l’industrie.
Faut-il pour autant s’inquiéter pour notre santé ? Pas encore, répondent les chercheurs. En l’absence de données toxicologiques robustes sur l’effet des microplastiques à ces concentrations, aucun risque sanitaire ne peut être formellement établi. Mais cette exposition chronique à de faibles doses interpelle, surtout lorsque les sources s’additionnent (air, aliments, eau, boissons).
En attendant que la recherche progresse et que des normes soient mises en place au niveau européen, cette étude a au moins le mérite d’alerter sur une réalité contre-intuitive : les bouteilles en verre exposent plus l’humain à l’ingestion de microplastiques que les bouteilles en plastique.
La rédaction a demandé à un agent d’IA générative de dégager les informations principales de cette recherche.
Le texte résultant a été dument relu, analysé, et modifié de façon à proposer au lecteur un contenu à la hauteur de la qualité attendue par le Magazine d’Actualité.
Près de 1 million de tonnes d’hydrogène sont produites chaque année en France, essentiellement pour les besoins du raffinage et de l’industrie chimique. Ce volume provient quasi exclusivement du vaporeformage du gaz naturel et rejette plus de 10 millions de tonnes de CO₂ par an, soit l’équivalent des émissions d’une ville comme Lyon. Décarboner cette production constitue donc un enjeu majeur pour atteindre les objectifs climatiques fixés à l’horizon 2050. La Cour des comptes vient de livrer un rapport sans concession sur la stratégie française pour y parvenir.
À l’origine, deux voies sont identifiées pour produire de l’hydrogène « propre ». La première consiste à adjoindre un système de captage-stockage du carbone au vaporeformage, mais présente l’inconvénient de maintenir une dépendance aux sources d’énergie fossiles. La seconde repose sur l’électrolyse de l’eau, mais nécessite d’importants investissements tout en restant peu performante, avec un rendement maximal de 65 %.
Dès 2020, la France engage un virage stratégique avec la première stratégie nationale hydrogène (SNH1), qui considère la production d’hydrogène électrolytique comme la seule option à soutenir par les pouvoirs publics. Un objectif de 6,5 GW de capacités électrolytiques installées à l’horizon 2030 est fixé, et une deuxième version, dévoilée en avril dernier, confirme ce cap. Cette SNH2 y ajoute un objectif de produire 0,6 millions de tonnes (Mt) par an à l’horizon 2030 et 1 Mt en 2035, avec une capacité installée de 10 GW. Et pour 2050, la trajectoire vise même 4 Mt par an.
« Ces objectifs paraissent toutefois irréalistes », dénonce la Cour des comptes, qui considère que seuls 0,5 GW à 3,1 GW de capacités pourraient effectivement être installés d’ici 2030. En parallèle, elle remet en cause les hypothèses de consommation, qui elles aussi apparaissent trop optimistes. Elle se réfère pour cela à plusieurs institutions, dont le CEA, la Cour des comptes européenne et l’AIE (Agence internationale de l’énergie), qui appellent à une révision prudente des projections, faute de quoi la stratégie hydrogène pourrait perdre en crédibilité.
Près de la moitié du soutien public est dirigée vers la mobilité routière
La Cour des comptes critique également la répartition des fonds publics mobilisés pour soutenir cette nouvelle filière. Sur la période 2020 à 2030, près de 9 milliards d’euros sont annoncés, sauf que près de la moitié des dépenses engagées concernent la mobilité routière, une proportion qui paraît « disproportionnée », puisque l’usage de l’hydrogène est désormais remis en question dans ce secteur. À l’inverse, les investissements dans les infrastructures de transport et de stockage d’hydrogène restent sous-explorés, alors qu’elles sont pourtant essentielles pour un fonctionnement optimal des électrolyseurs.
Autre écueil : la lenteur de mise en œuvre du plan d’action. Moins de 1 milliard d’euros ont en effet été décaissés au premier semestre 2024, et le principal appel d’offres, représentant près de la moitié de l’enveloppe globale, n’a été lancé qu’en décembre 2024. Résultat : « les premiers électrolyseurs subventionnés par ce biais pourraient n’être mis en service que fin 2030 », déplore la Cour des comptes.
Par ailleurs, la facture réelle dépasse déjà les 9 milliards annoncés, si l’on inclut les dispositifs généraux bénéficiant aux producteurs d’hydrogène électrolytique : exonérations fiscales, tarif réduit de l’électricité et compensation carbone. Au final, le coût public total pourrait atteindre entre 9,6 et 13 milliards d’euros d’ici 2030.
Enfin, la Cour des comptes pose aussi la question de l’équation économique de cette nouvelle filière, qui selon elle, paraît « incertaine ». Compris entre 4,0 et 4,9 €/kg, le coût de production de l’hydrogène par électrolyse reste élevé. À titre de comparaison, celui du vaporeformage est moins cher, de l’ordre de 1,5 à 2 €/kg . Même la solution de captage-stockage du carbone adjointe au vaporeformage serait « moins coûteuse pour un même résultat en termes de décarbonation », note l’institution. Son coût de production est en effet compris entre 2,3 €/kg et 3,0 €/kg.
Cette différence de compétitivité en défaveur de l’électrolyse se traduit par des surcoûts considérables. Selon les trajectoires actuellement envisagées pour 2050, le recours massif à l’électrolyse induirait un coût supplémentaire pour la collectivité compris entre 3,5 et 8,6 milliards d’euros par an.
Techniques de l’Ingénieur vous propose un tête-à-tête avec quatre de ces scientifiques[1], pour évoquer à la fois leur carrière, et leur vision de la place des femmes dans le monde de la recherche scientifique. Pour l’ultime entretien de cette série, partons à la rencontre de la lauréate latino-américaine de ce prix L’Oréal-UNESCO Pour les Femmes et la Science 2025 : la professeure María Teresa Dova, récompensée pour ses travaux dans le domaine de la physique des particules.
Professeure au sein du département de Physique de la faculté des Sciences exactes de l’Université nationale de La Plata, en Argentine, et chercheuse au Conseil national de la Recherche scientifique et technique (CONICET), María Teresa Dova est une éminente spécialiste de la physique des particules. Au travers de son implication dans une collaboration scientifique internationale, la chercheuse a notamment contribué à la découverte du fameux boson de Higgs, clé de voûte du Modèle standard. La fin d’un chapitre, mais pas de l’histoire, bien au contraire… María Teresa Dova mène en effet, aujourd’hui, des travaux visant à étudier une autre entité majeure, mais toujours nimbée de mystère : la matière noire. Passionnée par l’étude du fonctionnement de l’Univers, la chercheuse argentine œuvre aussi, par ailleurs, à mettre son pays natal sur le devant de la scène scientifique internationale, tout en défendant activement l’égalité des genres dans la recherche.
Techniques de l’Ingénieur : Qu’est-ce qui vous amenée à consacrer votre carrière à la physique des particules ? Devenir scientifique était-il pour vous une vocation ?
María Teresa Dova : Enfant, j’adorais la science-fiction et mes personnages préférés étaient toujours des scientifiques. J’étais fascinée par leur manière d’aborder chacun des défis qu’ils rencontraient en combinant à la fois la créativité, la logique, et le recours aux instruments les plus sophistiqués. Je voulais leur ressembler. Cette passion pour la découverte et la résolution de problèmes ne m’a jamais quittée. Ceci étant, je n’imaginais pas, en tant qu’enfant d’une petite ville d’Argentine située près de Buenos Aires, que je deviendrais un jour vraiment une scientifique… Je me suis malgré tout beaucoup intéressée à la physique et aux mathématiques au lycée, tout en vouant une passion à la musique et plus particulièrement au piano. C’est d’ailleurs la même curiosité intellectuelle qui m’a poussée à analyser les structures complexes d’une fugue de Bach, et à explorer les lois fondamentales de la nature. Durant mes études, j’ai néanmoins dû faire un choix déterminant : celui d’abandonner mes études musicales au conservatoire pour suivre un cursus en physique à l’Université nationale de La Plata.
Cela m’a finalement permis de décrocher en 1988 un doctorat en physique de la matière condensée. À l’issue de ma thèse, trois de mes professeurs – des théoriciens du département de physique dans lequel j’ai mené mon travail – m’ont incitée à postuler à une offre de post-doctorat au CERN. Il s’agissait alors de travailler au sein du laboratoire expérimental qui préfigurait l’actuel LHC… Ce qui leur semblait un bon moyen pour qu’une fois de retour en Argentine, je puisse créer une équipe dédiée à la physique des hautes énergies, et plus particulièrement au volet expérimental de ce domaine. L’Argentine avait en effet une longue tradition sur le plan théorique en physique des hautes énergies, mais pas sur le plan expérimental.
J’ai donc pris le chemin du CERN, et j’ai immédiatement été séduite par les expériences menées là-bas. D’autant plus que cela m’offrait l’opportunité de travail dans un environnement international.
Vous êtes donc aujourd’hui spécialiste de la physique des particules, aussi appelée physique des hautes énergies… Comment définiriez-vous cette branche de la physique, en quelques mots ?
J’ai l’habitude de dire que cette discipline vise tout à la fois les objectifs les plus simples et les plus fondamentaux… Nous essayons en effet de répondre à deux questions fondamentales : de quoi sommes-nous faits ? Et comment l’Univers fonctionne-t-il ?
Pour y répondre, nous tentons de découvrir et étudions les particules élémentaires qui constituent toute la matière, mais aussi toutes les forces qui régissent les interactions entre ces particules et qui conduisent à la formation des atomes, des molécules, des planètes, et de l’Univers tout entier.
Pour y parvenir, il nous faut travailler avec les instruments les plus complexes au monde. Et c’est ce qui me plaît : travailler aux frontières de la technologie et des sciences fondamentales, avec l’objectif de repousser les limites de la connaissance.
Si vous ne deviez retenir qu’un ou deux exemples de découvertes majeures auxquelles vous avez contribué, lesquelles citeriez-vous ? Votre contribution à la découverte du boson de Higgs, sans doute… ?
Oui, bien sûr ! Mais avant cela, je dirais tout d’abord que l’une des choses dont je suis la plus fière est le travail que j’ai mené pendant plusieurs années pour qu’en 2006 l’Argentine puisse finalement prendre part, pour la première fois de l’histoire du pays, à une collaboration internationale d’envergure : l’expérience ATLAS. J’ai aussi contribué à établir la communauté argentine de la physique des astroparticules, en lien avec l’Observatoire Pierre-Auger.
Ces collaborations internationales ont une grande importance à mes yeux, tant elles sont bénéfiques pour le pays. C’est ce qui m’a poussée à m’y impliquer.
Tout cela nous a finalement permis – pas seulement moi, mais toute une équipe de scientifiques argentins issus de deux universités du pays – de contribuer à cette avancée révolutionnaire qu’a été la découverte du boson de Higgs.
Quelle importance cette découverte annoncée il y a treize ans maintenant a-t-elle eue, justement ? Avez-vous en quelque sorte, vos collègues et vous-même, mis au jour la clé de voûte du Modèle standard ?
Cette découverte du boson de Higgs, annoncée, effectivement, en 2012, a permis de confirmer de manière spectaculaire la théorie du Modèle standard de la physique des particules, et de clore ainsi un chapitre important de la recherche fondamentale en physique. Néanmoins, bien que le Modèle standard soit la meilleure description du monde subatomique que nous ayons à ce jour, certaines questions restent toujours sans réponse. L’une d’elles, par exemple, concerne la nature de la matière noire, qui constitue plus d’un quart de la matière de l’Univers. Une autre est celle de la place de la gravitation, une force fondamentale qui n’est pas incluse dans le Modèle standard.
Nous pensons donc que ce Modèle standard n’est en fait qu’une partie d’un ensemble plus vaste, et qu’il reste donc encore bien des découvertes à faire ! Pour mener à bien ces recherches, ce fameux boson de Higgs nous est toujours très utile. Il y a une décennie, nous cherchions à mettre au jour cette particule, aujourd’hui elle nous aide à explorer une nouvelle physique !
Comment accueillez-vous ce Prix International L’Oréal-UNESCO Pour les Femmes et la Science qui vous a été décerné le 12 juin dernier ? Pensez-vous que votre exemple puisse inciter d’autres femmes, et plus particulièrement des jeunes filles en âge scolaire, à se lancer elles aussi dans une carrière scientifique ?
Faire partie de cette communauté du Prix International L’Oréal-UNESCO Pour les Femmes et la Science aux côtés de tant de femmes talentueuses venues du monde entier est pour moi un immense honneur. À mes yeux, la science est avant tout un cheminement collectif. Ce prix est donc aussi un hommage à toutes celles et à tous ceux qui m’ont accompagnée, et qui m’accompagnent aujourd’hui encore sur ce chemin : mes professeurs, mes collègues, et bien sûr toute mon équipe de La Plata.
Ce prix me donne aussi l’occasion de faire entendre ma voix et de mettre en lumière les réalisations de nombreuses autres femmes. Cela me semble essentiel. Nous devons en effet montrer au monde que les femmes scientifiques accomplissent un travail remarquable. En physique, la part de femmes reste en effet inférieure à 30 % en moyenne à l’échelle mondiale. Et dans ma discipline en particulier, c’est encore moins. Il reste donc bien du chemin à parcourir pour atteindre a minima les 50 %.
Vous savez, les questions sont le point de départ de toute science et de toute innovation. Or, lorsque l’on rassemble des hommes et des femmes, on obtient évidemment un éventail plus large de questions, mais aussi de meilleures questions, des idées nouvelles. Je pense donc qu’il est essentiel de mener des actions concrètes non seulement pour susciter des vocations, mais aussi pour aider, accompagner et soutenir les jeunes femmes scientifiques qui débutent leur carrière et qui souhaitent fonder une famille. Dans mon pays par exemple, le congé paternité n’existe pas. Je pense donc que l’instauration d’un congé parental partagé pourrait être une mesure très importante à mettre en œuvre pour faire avancer les choses.
En tout cas, si je n’avais qu’un message à faire passer en tant que lauréate de ce prix pour l’Amérique latine, ce serait de rappeler que la science est accessible à tout le monde. J’espère que ce prix incitera davantage de filles à faire le choix d’une carrière scientifique. Ce serait formidable !
[1] La cinquième lauréate de cette 27e édition était absente pour raisons de santé lors de cette cérémonie du 12 juin 2025.
Depuis début 2025, la course à la recharge ultra‑rapide des véhicules électriques s’accélère, portée par des avancées spectaculaires rendues possibles par la nouvelle génération de batteries et d’architectures électroniques. En avril, CATL a dévoilé au salon de Shanghai sa deuxième génération de batterie Shenxing, capable d’ajouter 520 km d’autonomie en seulement cinq minutes, grâce à un courant de charge culminant à plus de 1,3 MW.
Déjà en mars, un reportage de France Inter révélait que le constructeur BYD était en mesure de proposer une charge pour deux de ses modèles atteignant 2 km par seconde de charge, soit 400 km d’autonomie en cinq minutes.
Ces performances vertigineuses – équivalentes à un plein classique dans une station-service – ne sont pas que du tape-à-l’œil : elles résultent d’innovations réelles et concrètes sur les performances des batteries et des chargeurs : batteries en 800-1 000 Volts, cellules LFP à haute mobilité ionique, anodes microcristallines, gestion thermique active et bornes compatibles à plus de 1 MW… Toutes ces innovations font l’objet d’un déploiement industriel qui est déjà en cours : CATL a annoncé l’intégration de la batterie Shenxing 2.0 dans plus de 67 modèles dès 2025, tandis que BYD prévoyait l’installation de 15 000 stations mégawatt pour juin 2025.
Quel est l’impact de cette charge ultra-rapide sur la viabilité des batteries ?
Mais la question est aujourd’hui la suivante : quelle est la viabilité à long terme de ces cycles spectaculaires ? Les craintes ne sont pas théoriques : un courant très élevé peut provoquer du lithium‑plating (formation de lithium métallique sur l’électrode négative à base de graphite), entraînant une détérioration accélérée de l’anode. Des études antérieures de l’INL et de l’université Tsinghua suggèrent que des charges fréquentes à plus de 120 kW peuvent diminuer la durée de vie des batteries d’environ 40 %. La réalité pourrait être plus nuancée : une analyse de Tesla sur 13 000 véhicules n’a pas mis en évidence de dégradation alarmante lors de recharges rapides, du moins dans les premières années d’usage. La différence entre charge lente et rapide resterait marginale.
CATL et BYD anticipent d’ailleurs ces problématiques avec des batteries conçues pour les hautes sollicitations : Shenxing 2.0 intègre des cathodes nanocristallines, une gestion thermique à froid jusqu’à - 10 °C, et une architecture modulaire sans module traditionnel. BYD utilise de son côté une plate‑forme « Flash Battery », capable de maintenir un courant de 767 kW jusqu’à 40 % de SoC (state of charge), avant de redescendre progressivement. En outre, CATL diffuse de nouvelles cellules sodium‑ion Naxtra, avec une production de masse prévue en décembre 2025, énergétiquement comparables aux LFP, plus sûres, plus performantes à froid, et plus durables.
À l’échelle mondiale, ces performances placent la Chine en tête du peloton de la compétition mondiale : CATL et BYD dominent la course aux méga‑chargers.
En comparaison, Tesla plafonne à 250 kW pour ses Superchargers V3 et Hyundai/Kia à environ 350 kW sur la plate-forme E‑GMP. Porsche, avec son système 800 Volts, permet une recharge de 5 à 80 % en une vingtaine de minutes, mais reste loin des charges supérieures à 500 kW. La limitation n’est pas seulement technique : les réseaux occidentaux manquent de bornes au-dessus de 350 kW, et les batteries sont calibrées pour préserver la longévité plutôt que pour battre des records ponctuels.
Quelle crédibilité ?
Quant à la crédibilité des annonces chinoises, elle repose sur des démonstrations effectuées sur des prototypes et dans des conditions réelles. Ainsi, BYD a déjà mis en service des « méga‑bornes » et CATL collabore avec plusieurs constructeurs pour déployer ses cellules Shenxing en 2025. Le Wall Street Journal souligne néanmoins que ces innovations, aussi impressionnantes soient-elles, doivent encore démontrer leur robustesse à long terme. Des voix s’élèvent pour dénoncer des annonces marketing spectaculaires, mais dont la généralisation reste incertaine sans validation industrielle étendue.
En parallèle, l’émergence des batteries sodium‑ion ouvre de nouvelles options : CATL mise sur Naxtra pour diversifier sa gamme, offrant une alternative moins dépendante du lithium, économique et robuste à froid, mais avec une densité énergétique légèrement inférieure aux LFP, limitant de fait son usage aux segments de milieu de gamme ou aux flottes de véhicules.
Ainsi, les annonces de chargeurs ultra‑rapides à plus de 500 kW ne relèvent pas du fantasme : elles sont techniquement fondées, déjà opérationnelles en Chine et soutenues par des innovations chimiques et industrielles. Reste à éprouver leur robustesse sur le long terme, et à adapter les réseaux à cette nouvelle donne. Pour les conducteurs, l’usage occasionnel de ces recharges est une aubaine, mais pour la vie quotidienne, des recharges lentes restent recommandables afin de préserver la santé de la batterie.
La rédaction a demandé à un agent d’IA générative de dégager les informations principales du rapport.
Le texte résultant a été dûment relu, analysé et modifié de façon à proposer au lecteur un contenu à la hauteur de la qualité attendue par le Magazine d’Actualité.
Clap de fin sur la troisième Conférence des Nations unies sur l’océan (UNOC3), qui s’est tenue à Nice du 9 au 13 juin dernier. Co-organisée par la France et le Costa Rica, 175 États membres des Nations Unies ont participé à ce sommet, représentant près de 85 % du volume des ressources liées à l’océan sur la planète. Au terme de cinq jours de débats, cette rencontre s’est conclue par une série d’initiatives appelées « Engagements de Nice pour l’Océan », qui constitue une feuille de route en faveur d’une meilleure protection de l’océan, dont voici les principaux points à retenir.
Une avancée majeure s’est produite avec la ratification par 50 États du traité BBNJ (Biodiversity Beyond National Jurisdiction), qui prévoit la protection de la biodiversité dans les zones ne relevant pas de juridictions nationales. Il entrera en vigueur au plus tard en janvier 2026, grâce à 18 États supplémentaires qui se sont engagés à ratifier ce texte dans les prochains mois. Ce traité permettra de réguler l’équivalent de 64 % des océans et sa ratification, deux ans seulement après son adoption à l’ONU, marque un tournant, puisqu’il devient le socle d’une gouvernance multilatérale de la haute mer. À noter que les pays qui l’ont ratifié se réuniront chaque année à l’occasion d’une COP (conférence des parties).
Alors que la demande mondiale en métaux rares croît, 37 États ont soutenu un moratoire sur l’exploitation minière des grands fonds marins. Ils considèrent que la science doit précéder toute activité extractive et demandent donc une pause de précaution, soulignant le manque de connaissances sur ces écosystèmes abyssaux. Par ailleurs, 23 pays ont cosigné une déclaration conjointe appelant la communauté internationale à ne pas financer ces activités.
Un nouveau seuil a été franchi à propos des aires marines protégées, puisque plus de 10 % de l’océan mondial devrait être désormais classé, contre 8,4 % avant le sommet. Quatorze pays ont annoncé l’extension de leurs réseaux de protection, souvent en haute mer. Parmi les annonces phares, la création par le Costa Rica, la Colombie et l’Équateur d’une aire marine transnationale constitue une première. Malgré tout, il reste encore beaucoup de chemin à parcourir pour atteindre l’objectif de protéger 30 % des océans d’ici à 2030.
Vers un traité mondial contraignant sur les plastiques ?
Ce sommet a tiré la sonnette d’alarme face à l’effondrement de la biodiversité marine. Plus d’un tiers des espèces de requins et de raies sont désormais menacées d’extinction. À Nice, un appel a été lancé, soutenu notamment par la France, l’Australie et le Royaume-Uni, pour renforcer leur protection. Contre le blanchiment massif des coraux, un fonds international pour les récifs a été abondé de 25 millions de dollars. Et 19 États ont annoncé des plans nationaux de restauration des mangroves et des écosystèmes côtiers.
À moins de trois mois de négociations cruciales à Genève, 96 pays ont signé une déclaration en faveur d’un traité mondial contraignant sur les plastiques. Ils réclament des mesures sur l’ensemble du cycle de vie, de la production à l’élimination, y compris des objectifs de réduction. En Méditerranée, région particulièrement touchée, les pays riverains se sont engagés à anticiper l’application du futur traité.
Encore peu réglementée, la pollution sonore sous-marine a fait une percée dans les discussions. Sous l’égide de l’Organisation maritime internationale (OMI), 37 pays ont lancé une coalition pour réduire les nuisances acoustiques causées par le trafic maritime. Pour protéger les espèces sensibles des effets du bruit anthropique, ils s’engagent à développer des navires plus silencieux et à intégrer des mesures de réduction sonores dans la gestion de leurs aires marines protégées.
Malgré l’ampleur des annonces, certaines organisations environnementales posent un regard critique sur cette troisième édition. Selon elles, les engagements ne sont pas contraignants, les financements flous et les pollueurs peu inquiétés. L’absence totale de référence aux énergies fossiles dans la déclaration finale a également été largement dénoncée, alors que le dérèglement climatique est une cause majeure de l’acidification et du réchauffement des océans.