Programmation pluriannuelle de l’énergie : comment la France adapte ses investissements nucléaires et renouvelables

Le gouvernement français est sur le point de dévoiler la nouvelle édition de la Programmation pluriannuelle de l’énergie (PPE). Ce document stratégique, prévu dès 2023 mais sans cesse reporté, doit définir pour la prochaine décennie les grandes orientations du mix énergétique national en vue de la neutralité carbone à l’horizon 2050. La PPE détermine ainsi une trajectoire par filière et les investissements à engager pour y parvenir.

Selon Roland Lescure, ancien ministre de l’Industrie et de l’Énergie, la PPE pourrait enfin être publiée fin janvier ou début février 2026, après avoir été retardée par des incertitudes politiques et la nécessité d’intégrer des données plus récentes sur la consommation électrique (Tecsol Quotidien).

La question stratégique à l’origine de ces délais tient à l’ajustement des ambitions françaises en matière de décarbonation, de sécurité d’approvisionnement électrique et de compétitivité des coûts. Lors de son intervention sur France Info, Roland Lescure a insisté sur l’importance de cette programmation, qui doit permettre de décider aujourd’hui des investissements pouvant garantir « demain une électricité décarbonée et parmi les moins chères d’Europe ». Il a reconnu que si la France conserve encore un avantage comparatif sur les prix grâce aux décisions prises il y a cinquante ans, notamment celles concernant le parc nucléaire, ces choix historiques doivent désormais être adaptés aux nouveaux enjeux énergétiques.

Réévaluation des programmes d’investissement

Le point le plus marquant des propos de Roland Lescure concerne la nécessité de réexaminer certains programmes d’investissement, tant dans le nucléaire que dans les énergies renouvelables, avant de finaliser la PPE. Cette révision est en partie motivée par une étude récente de Réseau de Transport d’Électricité (RTE) publiée juste avant Noël, qui montre que la consommation d’électricité en France est actuellement inférieure aux prévisions. Cette évolution traduit un retard dans l’électrification des usages, notamment dans les secteurs industriels ou domestiques, ce qui invite à remettre à plat certaines trajectoires d’investissement.

Parmi les secteurs visés, l’éolien en mer est cité comme une filière pour laquelle les prévisions doivent être adaptées à cette nouvelle réalité de la demande électrique (PV Solaire Énergie). Il s’agit d’un élément technique essentiel, car l’éolien en mer représente un volet coûteux mais stratégique des renouvelables. La PPE devra donc trouver un équilibre entre réalismes techniques, besoins de souveraineté énergétique, contraintes budgétaires et objectifs climatiques.

Cette relecture des investissements intervient alors que le débat politique autour du mix énergétique français a tendu à opposer les partisans d’un maintien fort du nucléaire et ceux qui souhaitent accélérer le déploiement des renouvelables. Si la PPE est censée trancher ces équilibres, elle doit aussi tenir compte des contraintes financières actuelles. Roland Lescure a posé clairement le dilemme budgétaire : peut-on engager de grands programmes industriels sans budget voté ? Il a indiqué qu’il recommandera au Premier ministre de ne plus retarder la PPE sous prétexte de budgets non définitivement adoptés, laissant les arbitrages financiers à traiter ultérieurement.

Nouveaux volets et priorités territoriales

Un autre aspect important mentionné par le ministre est l’intégration d’un volet spécifique pour les territoires ultramarins. Ces collectivités, souvent très dépendantes des énergies fossiles, doivent voir leurs potentiels en solaire, éolien et géothermie pleinement mobilisés pour réduire cette dépendance au thermique. Cette dimension territoriale atteste que la PPE ne se contente pas de tracer une ligne générale, mais cherche aussi à prendre en compte les divers contextes locaux, notamment dans des zones où les défis énergétiques et climatiques sont particulièrement aigus.

La PPE aura donc une double mission : fournir un cadre cohérent pour la transition énergétique nationale et proposer des réponses adaptées aux besoins spécifiques de certaines régions. Ce défi passe par une combinaison intelligente entre filières classiques comme le nucléaire et sources renouvelables émergentes, en tenant compte de la dynamique actuelle de la demande, des contraintes techniques, économiques et des impératifs géographiques.

Si la publication de la PPE est imminente, elle marquera surtout une étape importante dans l’architecture énergétique française, en clarifiant les trajectoires d’investissement pour les années à venir. Au-delà de l’annonce elle-même, l’attention sera désormais portée sur les arbitrages concrets qui y seront inscrits, tout particulièrement en matière de financement des grands projets industriels, de soutien aux renouvelables et de renforcement de la souveraineté énergétique du pays. La feuille de route qu’incarne la PPE sera l’un des éléments structurants de la politique énergétique française pour la prochaine décennie.

Autonomie énergétique des datacenters : signature d’un partenariat historique entre STELLARIA et EQUINIX

Nicolas Breyton, CEO de STELLARIA, et Régis Castagné, Directeur général d’EQUINIX France, ont accepté de répondre à nos questions.

À gauche : Nicolas Breyton, CEO de STELLARIA. À droite : Régis Castagné, Directeur général d’EQUINIX France
À gauche : Nicolas Breyton, CEO de STELLARIA (crédit : Dominique Fleury Photographie)
À droite : Régis Castagné, Directeur général d’EQUINIX France (crédit : ErinAshford)

STELLARIA développe le Stellarium, un réacteur à neutrons rapides de nouvelle génération à sels fondus, le premier réacteur au monde à utiliser des combustibles liquides capables de se régénérer entièrement lors du fonctionnement (Uranium 235, Uranium 238, Plutonium 239).

EQUINIX est une référence en matière d’excellence opérationnelle qui héberge des applications critiques, notamment 70 % des bourses mondiales. EQUINIX possède à ce jour 273 datacenters répartis dans le monde.

On sait que les datacenters consomment de plus en plus d’électricité ? Quel est l’ordre de grandeur des besoins énergétiques ?

Régis Castagné : Le rôle des datacenters est d’assurer la sécurité et la disponibilité des données hébergées, ce qui implique d’être en mesure de fournir l’énergie nécessaire à un fonctionnement 24 h/24 et 7 J/7.

L’électricité est donc une préoccupation majeure dans notre métier. Ça l’était déjà il y a 27 ans, à la création d’EQUINIX, mais bien moins qu’aujourd’hui, car les quantités d’électricité consommées étaient beaucoup plus faibles. À l’époque, quand on parlait de capacités électriques, on s’exprimait en MW alors qu’aujourd’hui tout le monde parle en GW, ce qui est colossal. La consommation électrique représente environ 20 à 25 % du compte de résultat de nos datacenters !

Ce besoin énergétique croissant nous amène à explorer de nouveaux modes de production afin de préparer l’avenir. Les SMR sont de bons candidats. Et celui proposé par STELLARIA est l’un des meilleurs.

Pourquoi les SMR sont-ils de bons candidats ?

Nicolas Breyton : Le terme SMR ne définit pas une technologie en particulier, mais la taille du réacteur, car il y a plusieurs formes de nucléaire. C’est pourquoi je préfère parler « des nucléaires ».

En fait c’est exactement comme pour la combustion : quand on parle de combustion, tout le monde comprend qu’il y a le gaz, le charbon, la biomasse. En revanche, peu de gens ont conscience qu’il existe autant d’écart entre les différentes technologies nucléaires.

La raison est simple : le nucléaire est un domaine jeune, puisque la première centrale[1] date de 70 ans à peine, contre plusieurs centaines de milliers d’années pour la découverte du feu ! L’humanité est donc encore en phase d’acculturation et il nous reste beaucoup à inventer et à découvrir.

De notre point de vue, pour que les SMR décollent, il nous faut développer de nouvelles technologies, répondant aux exigences du 21e siècle, exigences qui ne sont pas les mêmes qu’en 1960 lorsqu’on s’est orienté vers les réacteurs à eau pressurisée.

Car dans les années 60, on construisait d’énormes centrales avec 1 km de zone d’exclusion autour. C’est la philosophie inverse du SMR, dont la petite taille et les exigences en termes de sûreté doivent permettre un déploiement à proximité des datacenters.

Pour répondre à ces nouveaux besoins, il faut donc changer de paradigme : ceci impose de développer de nouvelles technologies, car le nucléaire est difficilement déployable en SMR avec les technologies existantes.

En quoi la technologie proposée par STELLARIA répond-elle aux besoins des datacenters ?

NB : STELLARIA développe le premier réacteur breed and burn, un réacteur capable de renouveler et de brûler le combustible sans avoir à le retraiter. En d’autres termes, nous arrivons à fermer le cycle de l’uranium au sein du réacteur, presque gratuitement puisque la durée de vie du combustible est estimée entre 20 et 60 ans.

Autrement dit, un réacteur Stellarium permet de gérer toute la durée de vie d’un datacenter de 250 MW, sans recharge de combustible. Cela change tout si on le compare à la première génération de réacteurs à neutrons rapides, dont la fréquence de rechargement va de 3 à 4 ans.

Le client qui souhaite implanter un nouveau datacenter peut donc proposer aux banques un business plan solide, avec un coût de l’énergie fixé et un approvisionnement sécurisé, ce qui est un avantage majeur face à la saturation du marché de l’électricité. Avoir un approvisionnement en électrons 24 h/24 et 7 J/7 est aujourd’hui tellement difficile dans certains pays (notamment en Irlande ou aux Pays-Bas) qu’il faut attendre de nombreuses années avant d’installer un datacenter.

RC : Sur le plan énergétique, j’ajouterais que la France fait figure d’exception, puisque nous sommes l’un des rares pays à disposer d’une électricité abondante, relativement peu chère, décarbonée à plus de 95 % et dont le réseau électrique est robuste. Mais qu’en sera-t-il à l’avenir ? Car aujourd’hui, on estime qu’il y a entre 7 et 10 gigawatts de projets de datacenter annoncés en France. Même si tous ces projets n’aboutiront pas, on sait qu’il faudrait jusqu’à dix réacteurs nucléaires « classiques » pour les alimenter, ce qui n’est pas soutenable !

EQUINIX le sait et a fait le choix d’investir aux côtés de STELLARIA, car nous sommes convaincus qu’il est urgent de trouver des alternatives énergétiques crédibles, y compris dans des pays plutôt bien positionnés aujourd’hui.

Quel est l’objectif de ce partenariat entre EQUINIX et STELLARIA ?

RC : Cette collaboration avec STELLARIA permettra à EQUINIX de soutenir la croissance que nous envisageons pour les années à venir. Nous travaillons actuellement sur un blueprint qui devrait être prêt d’ici la fin du premier trimestre 2026. Ensuite, nous poursuivrons nos expérimentations en France.

NB : Un blueprint est un avant-projet de site, dont l’objectif est d’évaluer la réponse à toutes les questions liées au projet, que ce soit d’ordre technique, réglementaire, ou concernant les connexions aux réseaux existants.

Pour STELLARIA, ce blueprint sera l’occasion de mettre en valeur un projet stratégique pour la France, c’est-à-dire un datacenter IA de grande taille, implanté sur notre sol et couplé à une nouvelle génération d’énergie nucléaire renouvelable. Ce sera une belle vitrine, à la fois pour STELLARIA, pour EQUINIX, mais aussi pour la France.


[1] La première centrale nucléaire a vu le jour le 27 juin 1954 à Obninsk, près de Moscou, en URSS

Aluminium : comment décarboner la production ?

Porté par la découverte de l’électrolyse en 1886, l’aluminium est devenu un métal omniprésent dans nos sociétés. Sa légèreté, sa malléabilité, sa résistance à la corrosion en font un métal qui sera encore largement utilisé, y compris dans le cadre de la transition énergétique. « L’alu » comme on dit couramment, est produit à partir d’alumine, lui-même tiré de la bauxite, une roche extraite en majorité en Guinée, en Australie, en Chine et au Brésil. L’industrie de l’aluminium primaire est électro-intensive, ce qui peut être une source d’émissions de gaz à effet de serre (GES) en fonction du contenu carbone du mix électrique. Le process lui-même émet du CO2 lors de la fabrication de l’anode en carbone et lors de la réaction d’électrolyse de l’alumine.

En France, les émissions de l’industrie de l’aluminium représentent 1,5 % des émissions directes de GES de l’industrie manufacturière. Elles ont déjà baissé, de 1,3 à un peu plus de 1 Mt CO2eq/an ces dix dernières années. Ces émissions sont dues à presque 70 % à la production d’aluminium primaire sur deux sites de production. Pour ces derniers, un tiers vient de la consommation d’électricité et deux tiers du process.

Il existe aussi une filière de production d’aluminium secondaire, par affinage ou par recyclage direct de déchets d’aluminium. La première solution est de moins en moins utilisée en France dès lors qu’elle fabrique des produits à plus faible valeur ajoutée. La France est très dépendante des marchés européens et mondiaux : elle importe 92 % de l’alumine et 72 % de l’aluminium primaire qu’elle consomme, en majeure partie de pays européens ; mais elle exporte 49 % de l’aluminium primaire qu’elle produit, ainsi que des déchets d’aluminium.

Avec ou sans coopération internationale ?

Deux facteurs déterminants vont donc jouer sur la décarbonation de la filière, tel que l’Ademe l’a exposé dans son plan de transition sectoriel sur l’aluminium, en vue d’atteindre l’objectif de la SNBC (au moins 81 % de baisse des émissions de GES). Le premier est le développement d’une technologie de rupture, l’anode inerte (c’est-à-dire sans carbone), qui permet la production d’aluminium sans émission de CO2 directe. La société canadienne Elysis a d’ailleurs annoncé récemment être arrivée à en faire une démonstration industrielle. Le second facteur est l’évolution du marché, à la fois en termes de demande nationale et en termes de commerce international sous l’effet du mécanisme d’ajustement carbone aux frontières (MACF), ce deuxième aspect étant plus prépondérant que celui de la consommation intérieure.

Deux univers de transition sont ainsi imaginés par l’Ademe, sur la base des principes méthodologiques des PTS. Le premier, appelé Polarisation régionale, se traduit par des crispations commerciales, et donc de moindres échanges. L’Europe se décarbone et s’électrifie, tandis que dans le reste du monde, la tarification carbone n’est pas à la hauteur de ce que le MACF aurait pu espérer. Moins d’importation mais aussi moins d’exportation (notamment des déchets d’aluminium) s’accompagnent d’une stratégie d’économie circulaire européenne qui porte ses fruits en France pour préserver le caractère stratégique de la ressource en aluminium. Le choix est fait de reprendre une production d’alumine en France à partir de bauxite. Si la technologie d’anode inerte se développe ailleurs dans le monde, elle ne l’est pas en Europe. Ce sont donc bien les solutions de récupération, de tri sélectif et d’écoconception qui prennent le dessus, avec de la capture de CO2 sur cuve d’électrolyse et un redéveloppement de l’affinage, nécessaire pour valoriser l’ensemble des déchets d’aluminium.

Le second scénario, Coopération internationale, à l’inverse, postule que le MACF engendre une dynamique vertueuse de tarification du CO2 partout dans le monde. Des accords de recherche permettent le développement de l’anode inerte dans tous les pays concernés. Les industries d’aluminium primaire deviennent actrices de la flexibilité électrique. Cet environnement géopolitique et technologique est favorable au renforcement des niveaux d’import/export. Le recyclage est développé mais moins que dans le premier scénario.

Deux technologies peu matures au cœur de la décarbonation

Dans les deux scénarios, l’évolution de la consommation française d’aluminium est identique, avec une augmentation de 52 % par apport à 2015. Elle repose sur des hypothèses dans différents secteurs comme le BTP, les transports, l’énergie, les biens d’équipements et de consommation, globalement données par les orientations du scénario S3 de Transition(s) 2050.

Dans les deux scénarios, des technologies connexes sont aussi modélisées, comme l’efficacité énergétique de plusieurs process, le recours à des énergies renouvelables thermiques, l’électrification des fours de recyclage (à laquelle s’ajoute la recompression mécanique de vapeur dans le premier scénario). Toutes ces solutions ont un impact sur la décarbonation, à hauteur de la moitié des baisses d’émissions de GES dans Polarisation régionale et d’environ un quart dans Coopération internationale.

Les deux technologies encore peu matures – capture de CO2 sur cuve d’électrolyse pour Polarisation régionale, et anode inerte pour Coopération internationale – se chargent donc du reste de la décarbonation… ce qui implique, dans un cas comme dans l’autre, un soutien financier à l’outil productif et à l’innovation. L’Ademe pointe aussi l’importance, stratégiquement, d’améliorer le recyclage et de pousser à l’écoconception des produits pour que l’alu devienne un métal quasiment décarboné d’ici 2050.

Source : Ademe

CES 2026 : de l’IA partout, mais de l’IA utile !

Lors de ce CES 2026, on entendra beaucoup parler d’IA, notamment dans les discours des dirigeants, à commencer par ceux de l’industrie des puces (dont AMD et NVIDIA), car la démocratisation de ces technologies repose sur le développement de nouvelles puces IA.

La guerre des puces et des semi-conducteurs est donc plus que jamais d’actualité à Las Vegas. Pour Intel, le CES est l’occasion de présenter sa plate-forme « Panther Lake », alors que Qualcomm a prévu d’annoncer la prochaine génération de processeurs Snapdragon Elite X2. Et qui dit nouvelles puces dit nouveaux ordinateurs. Selon Tim Danton, rédacteur en chef de PC Pro, il faut aussi s’attendre à de nouveaux PC portables promettant des performances inégalées.

Réalité augmentée, écrans et divertissement

L’IA est très présente au CES, sur le terrain de « la vision », de manière générale. LG compte ainsi profiter du CES 2026 pour présenter ses moniteurs gaming dopés à l’IA, ainsi que ses Gallery TV, des écrans à usage d’art mural faisant office de tableaux et permettant aux utilisateurs de créer des visuels à partir de l’IA générative.

La réalité augmentée est également au rendez-vous, grâce à de nouveaux modèles de lunettes intelligentes, en particulier les Lenovo « AI Glasses », un accessoire intégrant un téléprompteur virtuel capable d’afficher du texte dans le champ de vision.

L’IA s’invite dans la mobilité

Sony Honda Mobility[1] revient au CES 2026 avec Afeela 1, sa voiture électrique qui entrera bientôt en préproduction et sera disponible en Californie en fin d’année. Ce véhicule bourré de capteurs intégrera une IA embarquée et des assistants vocaux, pour une aide à la conduite avancée, notamment une assistance à la conduite sur autoroute et le « parking » automatique.

En outre, il est possible que la mobilité intelligente se développe plus vite que prévu, indépendamment des constructeurs. C’est en tout cas l’approche d’une jeune entreprise sud-coréenne du nom de BOS Semiconductors qui a, de son côté, dévoilé une AI Box, une sorte de « cerveau IA » capable de transformer une voiture classique en véhicule intelligent, sans passer par un Cloud.

Assistance par IA, robotique et santé

Cette année, la robotique occupe une place centrale au CES, avec un focus sur les usages domestiques, professionnels et industriels. Les robots dopés à l’IA et capables d’accomplir toutes sortes de tâches, en autonomie totale, sont donc très présents sur le salon. Citons, entre autres, les robots humanoïdes de Realbotix, les robots CLOiD sur roues dédiés aux tâches ménagères, le robot agricole multitâches de Daedong ou encore les modèles de robots MobED de Hyundai Motor Group (HMG) dédiés à l’industrie.

Mais la véritable révolution de l’assistance par IA est probablement dans l’aide au soin, la prise en charge de patients et la prévention des maladies. Pour Dassault Systèmes, le CES est ainsi l’occasion de présenter Step Inside Alzheimer’s, une expérience immersive démontrant « comment données de santé, capteurs et modélisation 3D permettent d’anticiper l’évolution des maladies et de transformer la recherche médicale, le diagnostic et les traitements. »

Samsung Electronics dévoilera sa vision « Companion To AI Living » ainsi que ses développements en matière de détection via des « partenariats de recherche sur des appareils portables qui enregistrent les changements subtils dans la mobilité, la parole et l’engagement – des signes qui peuvent révéler des troubles cognitifs à long terme. »

La French Tech, très présente au CES 2026

Cette année, près de 150 entreprises françaises, dont une centaine de start-up, sont présentes au CES et elles sont nombreuses à présenter des solutions basées sur l’IA.

Concernant la santé, on peut citer la start-up montpelliéraine SeeHaptic et son dispositif mariant IA et retour haptique dans le but d’aider les personnes malvoyantes à percevoir leur environnement sans la vue.

Dans le domaine automobile, Valeo s’est associé avec Seeing Machines pour développer un Système intelligent de surveillance d’habitacle (ICMS). Côté robotique, le pavillon Eureka Park du CES accueille la start-up NEOIA et ses robots autonomes pour le nettoyage de panneaux solaires à grande échelle ainsi que YellowScan et ses solutions de cartographie par drone qui s’appuient sur l’IA pour traiter les données brutes des capteurs LiDAR.


[1] Coentreprise fondée par Sony et Honda

Bianca Marin Moreno : l’IA au service de la transition énergétique

Le 19e Prix Jeunes Talents France 2025 L’Oréal-UNESCO Pour les Femmes et la Science récompense 34 nouvelles « étoiles montantes »

Créé en 2007, le Prix Jeunes Talents France L’Oréal-UNESCO Pour les Femmes et la Science récompense chaque année, à un moment clé de leur carrière, des doctorantes et post-doctorantes qui incarnent aux yeux du jury « l’excellence scientifique française », et qui portent, en outre, des projets de recherche visant à construire « un avenir plus juste et durable ». Lors de l’édition 2025, 34 de ces jeunes chercheuses ont été sélectionnées parmi près de 700 candidates, par un jury composé d’une trentaine de membres de l’Académie des sciences, avec à sa tête la célèbre astrophysicienne française Françoise Combes, présidente de l’Académie des sciences, elle-même récompensée du prix international 2021 L’Oréal-UNESCO Pour les Femmes et la Science.

« Les femmes représentent la moitié de l’humanité, mais demeurent trop peu nombreuses aux postes de responsabilité dans la recherche. [De nombreux] freins écartent injustement des talents dont la science aurait besoin. Les Prix Jeunes Talents France L’Oréal-UNESCO Pour Les Femmes et la Science, en partenariat avec lAcadémie des sciences, sont autant de leviers pour rééquilibrer les chances et permettre à la culture scientifique de s’enrichir de tout le potentiel de cette moitié de l’humanité », se réjouit Françoise Combes. L’astrophysicienne qui voit dans les lauréates de cette 19e édition, de nouvelles « étoiles montantes de la science »…

Les lauréates du Prix Jeunes talents France 2025 L’Oréal-UNESCO Pour les femmes et la science
34 doctorantes et post-doctorantes ont reçu le 8 octobre 2025 le Prix Jeunes talents France 2025 L’Oréal-UNESCO Pour les femmes et la science lors d’une cérémonie organisée au sein de l’auditorium André et Liliane Bettencourt du Palais de l’Institut de France. © Fondation L’Oréal – © Julien Knaub & Nicolas Gouhier

Originaire du Brésil, Bianca Marin Moreno a, depuis son plus jeune âge, développé un vif intérêt pour la résolution de problèmes, et la réflexion autour de questions permettant de mieux comprendre notre monde. Cette curiosité naturelle l’a ainsi amenée à s’orienter vers un cursus scientifique. Arrivée en France en 2018 pour intégrer l’École Polytechnique – après une licence en physique et mathématiques obtenue dans son pays natal –, elle a fini par se découvrir une passion pour les mathématiques qui sous-tendent l’intelligence artificielle. C’est ainsi dans ce domaine qu’elle évolue aujourd’hui, au travers notamment d’une thèse qu’elle a menée au sein d’EDF R&D et de l’équipe projet THOTH Apprentissage de modèles visuels à partir de données massives d’Inria Grenoble – thèse qu’elle a soutenue fin octobre dernier.

Techniques de l’Ingénieur : Quelles ont été, en quelques points clés, les principales étapes de votre parcours ?

Bianca Marin Moreno
Bianca Marin Moreno a mené sa thèse au sein de l’École doctorale Mathématiques, Sciences et technologies de l’information, Informatique (ED MSTII) de l’Université Grenoble Alpes. © Fondation L’Oréal

Bianca Marin Moreno : Je suis d’origine Brésilienne. J’ai donc commencé mon parcours étudiant là-bas, en me lançant dans un parcours de licence en physique et mathématiques, à l’Université d’État de Campinas. À mi-chemin, j’ai passé le concours d’entrée à l’École Polytechnique, et j’ai été admise. C’est comme cela que je suis arrivée en France, en 2018, pour suivre le Cycle Ingénieur polytechnicien. Je me suis spécialisée dans les mathématiques appliquées. J’ai aussi fait une année de spécialisation en Master MVA, pour « Mathématiques, vision, apprentissage », à l’ENS Paris-Saclay. Cela a été pour moi l’occasion de me spécialiser dans les mathématiques qui se cachent derrière l’intelligence artificielle… C’est ce qui m’a finalement amenée à me lancer dans une thèse à ce sujet, au Centre Inria de Grenoble, dans le cadre d’un contrat Cifre[1] financé par EDF. J’ai soutenu cette thèse fin octobre[2].

Qu’est-ce qui vous a spécifiquement amenée à vous intéresser aux mathématiques appliquées à l’IA ?

Lorsque j’étais en licence au Brésil, j’envisageais plutôt de poursuivre mon parcours dans le domaine de la physique théorique… J’ai eu la chance, ici en France, d’avoir des cours en mathématiques appliquées, qui m’ont permis de découvrir tout cet univers de l’intelligence artificielle. J’y ai tout de suite trouvé un grand intérêt. On utilise en effet dans ce domaine des outils mathématiques très simples, avec lesquels on peut pourtant faire beaucoup de choses. Cet aspect m’a vraiment fascinée ! C’est ce qui m’a poussée à me spécialiser dans ce domaine des mathématiques appliquées à l’IA.

Vos travaux de thèse ont porté, plus particulièrement encore, sur l’utilisation de modèles d’IA dans le cadre de la gestion des réseaux électriques… Pourquoi avez-vous choisi d’explorer ce domaine en particulier, et en quoi vos travaux ont-ils consisté, précisément ?

Tout est parti de ma rencontre avec l’un de mes enseignants du master MVA, qui proposait cette thèse Cifre avec EDF. C’est cette offre qui m’a permis de découvrir le sujet de l’IA appliquée au pilotage des réseaux électriques. J’en suis vraiment très heureuse !

L’énergie est difficile à stocker. Il faut donc en permanence s’assurer que l’énergie est égale à l’énergie consommée. L’approche adoptée aujourd’hui est celle de l’adaptation de la production face à la demande. Néanmoins, l’intégration de plus en plus grande d’énergies renouvelables intermittentes – notamment l’éolien et le photovoltaïque – complexifie le contrôle de la production. Mes travaux visent donc à développer des algorithmes d’IA capables de piloter la consommation, afin de l’équilibrer avec la production. Cela peut, par exemple, passer par l’envoi d’un signal-prix, pour inciter les gens à moduler leur consommation, ou encore par le contrôle d’appareils électriques « flexibles ». C’est à ce niveau qu’intervient toute la partie mathématiques et IA. Les enjeux sont très importants, tant la consommation électrique est quelque chose d’incertain. Il faut développer des moyens permettant de s’adapter à la variabilité et à l’incertitude. Les algorithmes d’apprentissage automatique sont particulièrement bien adaptés à ce type d’usage.

Le développement de dispositifs de stockage par batteries, et l’intégration des véhicules électriques aux réseaux, rendent-ils d’autant plus indispensable le développement d’algorithmes de ce type ?

Tout à fait. La croissance du parc de véhicules électriques en particulier implique en effet une augmentation de consommation électrique pour la recharge, mais offre aussi, par la même occasion, un moyen de stockage de plus en plus important. Les batteries des voitures peuvent, par exemple, servir à stocker le surplus de production photovoltaïque d’une journée très ensoleillée. Cette énergie stockée peut ensuite à nouveau être mise à disposition du réseau lorsque c’est nécessaire. Tout cela nécessite donc d’envoyer des signaux au bon moment, pour activer le stockage ou au contraire la réinjection sur le réseau. Il est donc nécessaire de développer des algorithmes adaptés, effectivement. Cela est d’autant plus complexe qu’il faut aussi prendre en compte le confort et les usages des automobilistes, qui ne doivent pas se retrouver avec une batterie vide lorsqu’ils veulent utiliser leur voiture… Les contraintes à prendre en compte sont donc nombreuses. C’est là que les algorithmes d’IA ont un rôle central à jouer. Il faut à la fois qu’ils soient très précis, très performants, et surtout capables de s’adapter à chaque pas de temps : à la fois pour planifier sur le long terme, mais aussi pour répondre très rapidement à des variations ponctuelles.

Avez-vous le sentiment que votre genre a, à un moment ou un autre, eu une influence sur votre parcours ?

Je n’ai, fort heureusement, jamais été confrontée directement à des problèmes de discrimination liée au genre. J’ai cependant très souvent été l’une des seules femmes, que ce soit dans un cours, ou lors d’une conférence… Cela m’a donc parfois amenée à me demander si j’avais bien ma place là où j’étais. Cette sous-représentation féminine a un impact psychologique, même inconscient, sur les jeunes filles et les jeunes femmes engagées dans un parcours scientifique.

En ce qui me concerne, la passion a malgré tout toujours pris le dessus. J’ai aussi eu la chance d’avoir toujours à mes côtés des gens bienveillants ; mes parents, qui ne sont pourtant pas scientifiques, mais qui ont toujours cru dans ce que je voulais faire ; mais aussi mes profs, qui m’ont eux aussi apporté un soutien très important.

Qu’est-ce qui permettrait, selon vous, de remédier à cette sous-représentation des femmes dans votre domaine ?

Dans les congrès auxquels je participe, la part de femmes ne dépasse généralement pas les 20 %… Certaines actions sont déjà mises en œuvre pour tenter d’améliorer la situation, notamment par des associations telles que Women in Machine Learning (WiML). Cette structure a par exemple pris l’initiative de présenter à chaque congrès lié à l’IA des panneaux visant à discuter des questions de genre. Elle fait aussi en sorte que davantage de femmes puissent venir présenter leurs travaux dans le cadre de ces conférences.

Il faut aussi, plus largement, agir au niveau de l’université, mais aussi dès le lycée, pour amener les jeunes filles et les jeunes femmes à s’engager dans des carrières scientifiques, en particulier en mathématiques

Ce Prix Jeunes Talents France L’Oréal-UNESCO Pour les Femmes et la Science que vous venez de recevoir constitue-t-il justement, à vos yeux, un bon moyen de renforcer la visibilité des femmes en science ? Que représente-t-il plus largement pour vous ?

Ce prix représente pour moi un moyen très puissant pour accroître la représentation des femmes en science. Il me semble en effet important d’avoir des role models, pour pouvoir se projeter dans une carrière scientifique. C’est l’un des aspects auquel ce prix contribue, en mettant en avant les jeunes chercheuses que nous sommes, en tout début de carrière. C’est important car cela nous permet d’être encore plus proches des jeunes filles. Je suis donc très heureuse à l’idée que mon parcours puisse inspirer d’autres jeunes filles.

Plus largement, ce prix est une vraie fierté pour moi. Je suis particulièrement fière d’avoir été choisie par ce jury prestigieux, composé de membres de l’Académie des sciences. Je suis aussi ravie de constater que mon sujet de recherche au croisement de l’IA et de la transition énergétique suscite de l’intérêt. Il s’agit vraiment d’un sujet important aujourd’hui, je pense.

Comment envisagez-vous désormais la suite de votre parcours ?

J’apprécie particulièrement le fait de travailler à la fois dans le domaine académique et le monde industriel. Je pense que ces deux univers ont beaucoup à gagner à avancer main dans la main : les industriels ont beaucoup de problèmes à résoudre pour faire avancer la société, et les chercheurs sont là pour les y aider. J’aimerais donc beaucoup pouvoir contribuer, par mon travail, à renforcer ce dialogue. Je ne sais pas encore dans lequel de ces deux mondes je travaillerai, mais quoi qu’il en soit, c’est toujours dans cette perspective de dialogue entre chercheurs et industriels que j’aimerais poursuivre ma carrière.


[1] Convention industrielle de formation par la recherche.
[2] 2025

Fin du thermique en 2035 : l’UE ouvre la voie à un assouplissement

L’interdiction de vendre des voitures thermiques dès 2035 était un symbole du paquet « Fit for 55 », celui d’une Europe ambitieuse sur le plan climatique et qui visait à atteindre la neutralité carbone en 2050. Ce renoncement, même s’il n’est que partiel, est le révélateur des difficultés que rencontre l’industrie européenne, en particulier de son impuissance face à la concurrence chinoise et aux tensions commerciales avec les États-Unis.

L’Europe face à un dilemme : défendre son industrie ou le climat

Le projet visant à interdire la vente de véhicules thermiques en 2035 fait l’objet de controverses et de réticences depuis le départ. Lors de son adoption en avril 2023, certains y voyaient un moyen d’accélérer sur l’électrification et de rattraper notre retard sur la Chine, alors que d’autres pointaient le risque d’un choc industriel pour les usines et les salariés de la filière automobile traditionnelle.

Quelques années plus tard, la chute des ventes, les fermetures d’usines et aussi l’énorme pression exercée par l’Allemagne, l’Italie et les lobbys ont eu raison du « dogme 2035 ». Ursula von der Leyen, la présidente de la Commission et ardente défenseure du pacte vert européen, a donc été contrainte d’assouplir la mesure.

L’UE desserre l’étau, mais ne change pas le cap

En reculant, la commission a fait tomber un dogme, celui du 100 % électrique en 2035. Néanmoins, elle ne renonce pas pour autant à son objectif de 100 % de décarbonation pour l’automobile. En fait, la mesure annoncée le 16 décembre 2025 dans le plan d’action pour l’automobile est un tour de passe-passe visant à ménager la filière automobile thermique. En 2035, les constructeurs :

  • pourront conserver 10 % (en termes d’émissions) de véhicules thermiques ou hybrides ;
  • devront compenser ces 10 % d’émissions, par exemple en utilisant de l’acier décarboné ou des carburants alternatifs.

L’UE veut instaurer une préférence européenne dans l’automobile

La Commission européenne a également dévoilé des mesures de soutien à l’électrification de l’automobile, notamment des prêts à taux zéro pour la production de batteries (paquet Battery Booster) et l’encouragement du verdissement des flottes d’entreprises.

En outre, les industriels qui bénéficieront de financements publics devront aussi jouer le jeu de la préférence européenne, par une fourniture en composants « made in Europe ».

Transition vers l’électrique : quelles sont les futures échéances ?

Comme le résume l’eurodéputé Manfred Weber (chef du groupe PPE), « toutes les motorisations après 2035 sont autorisées ».

Néanmoins, malgré les ajustements politiques en cours, et le ralentissement provoqué par le recul de la Commission, la transition vers l’électrique est en marche et la fin de l’ère du thermique est inéluctable.

Début 2026, la France devrait d’ailleurs franchir le cap des 200 000 bornes publiques et compte déjà plus de 2,5 millions de points de recharge sur l’ensemble de son territoire, l’objectif pour 2030 étant fixé à 7 millions, dont 400 000 en accès public et 50 000 bornes rapides.

En parallèle, le seuil de déclenchement du malus CO2 va encore reculer et atteindre 108 g/km, un seuil qui pénalisera donc tout véhicule thermique non hybride !

En outre, la norme Euro 7, adoptée en 2024, entrera progressivement en application à partir de 2026 et imposera des règles qui pénaliseront encore plus les véhicules thermiques.

  • Limites d’émissions beaucoup plus strictes (NOx, particules ultrafines, CO, HC), dans des conditions réelles, en ville, sur autoroute, ou sous températures extrêmes.
  • Les systèmes antipollution devront durer 200 000 km ou 10 ans.
  • Contrôles permanents des émissions, avec des sanctions en cas de dépassement.

Respecter ces contraintes liées à l’échappement obligera donc les constructeurs à passer par des étapes d’homologation toujours plus coûteuses, favorisant ainsi la motorisation électrique.

Mais comme le soupçonne Martin Kaiser, l’un des responsables de Greenpeace, ces contraintes n’empêcheront pas les constructeurs européens de continuer à investir dans le thermique. Selon lui, ils « vont continuer à gaspiller de l’argent et des technologies, dans une forme d’acharnement ».

Malheureusement, cette perte de temps est une erreur stratégique, qui creusera encore plus l’écart entre l’Europe et la concurrence asiatique.

Le CES 2026 dessine les contours technologiques des années à venir

L’édition 2026 du Consumer Electronics Show (CES) confirme le rôle de cette manifestation comme l’un des principaux rendez-vous mondiaux pour les innovations technologiques. Organisé par la Consumer Technology Association, l’événement réunit des milliers d’exposants, dont des géants de la tech, des équipementiers et des start-up, qui viennent présenter leurs dernières avancées en matière d’intelligence artificielle, de robotique, de santé numérique, de mobilité et d’écrans nouvelle génération.

Vers une intégration profonde de l’intelligence artificielle

Un des thèmes dominants du CES 2026 est l’intelligence artificielle intégrée comme utilité de base plutôt que simple fonctionnalité additionnelle. Chez Samsung, par exemple, l’entreprise présente une vision baptisée Your Companion to AI Living, où l’IA est conçue pour être omniprésente dans l’écosystème des appareils connectés, allant des téléviseurs aux appareils électroménagers, en passant par les dispositifs électroniques portables intégrant des capteurs, des fonctions de calcul et des services numériques. Dans cette approche, l’IA ne se contente plus d’être un « plus », elle est intégrée de façon transparente pour améliorer l’expérience utilisateur au quotidien (The Economic Times).

Cette tendance se reflète également dans la diversité des start-up et projets présentés. Samsung a notamment annoncé mettre en lumière quinze start-up issues de son programme C-Lab, couvrant des domaines tels que l’intelligence artificielle, la robotique et la santé digitale. Ces jeunes pousses ont remporté des récompenses aux CES Innovation Awards, indiquant leur potentiel de transformation (The Times of India).

Robots domestiques, connectivité et écrans repensés

Le CES 2026 ne se limite pas aux annonces de principes ou aux démonstrations prospectives. Plusieurs entreprises y présentent des équipements déjà aboutis, exposés dans des versions proches de leur mise sur le marché, illustrant une transition de l’innovation vers des usages concrets.

Dans la maison connectée, plusieurs innovations montrent que les robots dotés d’IA deviennent plus capables et accessibles. SwitchBot a présenté un robot domestique multifonctions nommé onerO H1, capable d’apprendre et d’interagir avec son environnement grâce à des modèles IA embarqués pour réaliser des tâches ménagères, enregistrer des données environnementales et même afficher des informations via une interface conviviale (T3).

Dans une catégorie voisine, LG a levé le voile sur CLOiD, un robot domestique avancé conçu pour effectuer des activités du quotidien comme cuisiner, plier le linge ou servir le petit-déjeuner, incarnant ainsi une vision de la maison sans effort humain (The Verge).

Au-delà de la robotique domestique, des améliorations significatives apparaissent dans la connectivité audiovisuelle. Belkin a dévoilé ConnectAir, un adaptateur HDMI sans fil capable de transmettre de la vidéo haute définition jusqu’à 40 mètres sans passer par un réseau Wi-Fi, ce qui pourrait transformer les usages en milieu professionnel comme en divertissement à domicile (WebProNews).

Le domaine des écrans et de l’affichage ne reste pas en marge. Plusieurs acteurs de l’industrie, parmi lesquels LG et Samsung, misent sur une nouvelle génération de dalles Micro RGB pour renforcer la qualité d’image et la précision des couleurs des téléviseurs et moniteurs. Cette technologie repose sur de minuscules LED RGB qui émettent directement chaque couleur, permettant une reproduction plus fidèle et des niveaux de luminosité ambitieux (Futura).

Certaines fuites mentionnent également l’arrivée de nouveaux modèles OLED haut de gamme de LG, tels que les séries OLED G6 et W6, qui misent sur des dalles plus lumineuses et des performances visuelles accrues (BlogNT).

Du hardware aux usages

Au-delà des produits individuels, les grandes tendances se dessinent clairement. Le CES 2026 illustre comment l’IA imprègne des domaines variés comme la santé, la mobilité ou la productivité personnelle. Les solutions de puces et d’ordinateurs mettant l’accent sur l’IA locale sont particulièrement attendues, avec des plateformes capables d’exécuter des tâches complexes sans dépendre en permanence d’un traitement cloud (euronews).

Par ailleurs, des innovations plus spécialisées, comme des capteurs embarqués dans des écrans capables d’évaluer des paramètres physiologiques, montrent que certaines technologies explorent des terrains totalement nouveaux, alliant bien-être et informatique embarquée (Autoplus).

La présence importante des start-up françaises au pavillon France, notamment dans les domaines de la santé, de la cybersécurité et de la smart city, démontre quant à elle l’internationalisation et la diversification des contributions à ce salon technologique majeur (Maddyness).

Marta Sablik : de multiples espoirs face aux rejets de greffe

Le 19e Prix Jeunes Talents France 2025 L’Oréal-UNESCO Pour les Femmes et la Science récompense 34 nouvelles « étoiles montantes »

Créé en 2007, le Prix Jeunes Talents France L’Oréal-UNESCO Pour les Femmes et la Science récompense chaque année, à un moment clé de leur carrière, des doctorantes et post-doctorantes qui incarnent aux yeux du jury « l’excellence scientifique française », et qui portent, en outre, des projets de recherche visant à construire « un avenir plus juste et durable ». Lors de l’édition 2025, 34 de ces jeunes chercheuses ont été sélectionnées parmi près de 700 candidates, par un jury composé d’une trentaine de membres de l’Académie des sciences, avec à sa tête la célèbre astrophysicienne française Françoise Combes, présidente de l’Académie des sciences, elle-même récompensée du prix international 2021 L’Oréal-UNESCO Pour les Femmes et la Science.

« Les femmes représentent la moitié de l’humanité, mais demeurent trop peu nombreuses aux postes de responsabilité dans la recherche. [De nombreux] freins écartent injustement des talents dont la science aurait besoin. Les Prix Jeunes Talents France L’Oréal-UNESCO Pour Les Femmes et la Science, en partenariat avec lAcadémie des sciences, sont autant de leviers pour rééquilibrer les chances et permettre à la culture scientifique de s’enrichir de tout le potentiel de cette moitié de l’humanité », se réjouit Françoise Combes. L’astrophysicienne qui voit dans les lauréates de cette 19e édition, de nouvelles « étoiles montantes de la science »…

 

Les lauréates du Prix Jeunes Talents France 2025 L’Oréal-UNESCO Pour les Femmes et la Science
34 doctorantes et post-doctorantes ont reçu le 8 octobre 2025 le Prix Jeunes talents France 2025 L’Oréal-UNESCO Pour les femmes et la science lors d’une cérémonie organisée au sein de l’auditorium André et Liliane Bettencourt du Palais de l’Institut de France. © Fondation L’Oréal – © Julien Knaub & Nicolas Gouhier

Élevée aux Pays-Bas au sein d’une famille d’origine polonaise, Marta Sablik s’est laissée guider par sa curiosité tout au long de son parcours. Un parcours qui l’a menée de l’Université Erasmus de Rotterdam, à l’Université Columbia à New York, avant de l’orienter vers la France, où elle poursuit aujourd’hui ses travaux de recherche. Détentrice d’un master en médecine, mais aussi d’un master de recherche en immunologie, elle mène désormais un travail de thèse sous la direction d’Alexandre Loupy, qui vise, en substance, à mieux comprendre les mécanismes physiopathologiques liés au rejet de greffe. La jeune chercheuse espère ainsi, à terme, pouvoir mettre à profit sa double compétence – fondamentale et appliquée – au service des patients greffés.

Techniques de l’Ingénieur : Quelles ont été les grandes étapes de votre parcours ?

Marta Sablik
Marta Sablik poursuit actuellement sa thèse sous la houlette d’Alexandre Loupy, dans le cadre d’un contrat doctoral établi avec l’École doctorale Bioscience Paris Cité (BioSPC) de l’université éponyme. © Fondation L’Oréal

Marta Sablik : J’ai construit mon parcours scientifique de façon, je dirais, plutôt naturelle, logique. Je n’ai pas fait partie de ces enfants qui, dès leur plus jeune âge, rêvent de devenir scientifiques. J’ai néanmoins toujours eu en moi beaucoup de curiosité, et l’envie de résoudre des énigmes. Je n’arrêtais pas de demander des réponses aux questions que je me posais ! Mais ça n’est que lorsque je suis arrivée en fac de médecine, et que je suis entrée en contact avec le monde scientifique, que mon intérêt pour les sciences s’est véritablement développé. J’ai notamment le souvenir d’une mineure dans le domaine de la recherche biomédicale qui m’a permis de découvrir la façon de penser en science. Cela m’a beaucoup plu.

J’ai aussi pu faire un stage à New York, qui m’a permis de découvrir le sujet de l’immunologie des greffes. J’ai été fascinée par le fait de devoir résoudre des problèmes complexes et de trouver, pour cela, des solutions innovantes, en creusant bien au-delà de la surface. Ces aspects liés à la résolution de problèmes ont vraiment fait écho en moi, car ils collaient à ma façon de raisonner. Tout cela m’a finalement amenée à me lancer également dans un master de recherche en infectiologie et immunologie, en parallèle de mes études médicales. C’est ainsi que j’ai fini par entamer un doctorat dans le domaine de l’immunologie des greffes d’organes.

Mon parcours n’avait donc, je pense, rien de prédéterminé… C’est avant tout la curiosité qui m’habite depuis mon plus jeune âge, et mes différentes rencontres avec la science qui m’ont amenée à avancer dans cette voie, pour en faire finalement mon métier.

Sur quoi vos travaux actuels portent-ils précisément ?

Mon objectif est de développer des solutions pour améliorer le pronostic des patients transplantés. La façon la plus simple d’expliquer mon approche est sans doute de considérer le corps humain comme une machine très complexe, dont une pièce est défectueuse. Dans mon cas, il s’agit spécifiquement des reins. La greffe représente un espoir, en ce sens qu’elle permet de remplacer cette pièce défectueuse.

Le problème, avec les greffes, c’est que le corps est une machine à ce point finement réglée pour reconnaître ce qui lui est propre ou non, que cela le conduit à refuser cette transplantation, qui est pourtant une solution salutaire : le greffon est perçu comme un intrus, et donc rejeté…

C’est donc là-dessus que je me concentre. Je tente, d’une part, de mieux comprendre les conséquences cliniques d’un rejet pour les patients. Mes travaux visent aussi, d’autre part, à détecter plus précocement les rejets, via la détection de biomarqueurs.

Les méthodes actuellement mises en œuvre dans le contexte clinique ne permettent parfois pas, en effet, de détecter un rejet suffisamment tôt pour prévenir l’altération du greffon.

Mes travaux visent aussi à mieux comprendre les différents types de rejets, dans l’objectif, in fine, de développer des traitements ciblés, capables d’agir véritablement sur les facteurs clés qui entrent en jeu. Mon objectif ultime serait de parvenir à une approche davantage proactive, permettant un suivi rigoureux et des traitements plus ciblés, et donc d’améliorer le pronostic vital des patients transplantés, qui pourraient à terme, je l’espère, conserver leur greffon toute leur vie…

Que sont ces biomarqueurs que vos travaux visent à détecter ? Quelle est leur nature, et quels rôles jouent-ils dans le cadre d’un rejet ?

J’étudie en effet ces biomarqueurs, mais aussi, plus largement, les mécanismes qui se déroulent au sein de l’organe greffé au niveau moléculaire.

L’un des biomarqueurs les plus prometteurs que j’étudie est un marqueur qui est exprimé lorsque le greffon subit des dommages au sein de l’organisme receveur. Chaque patient possède son propre patrimoine génétique, tout comme le greffon issu d’un donneur. Mes collègues et moi-même cherchons donc à étudier ce que l’on appelle l’ADN libre circulant ; un biomarqueur qui semble en effet particulièrement prometteur en matière d’évaluation du risque de rejet.

Vos travaux pourraient-ils également, à terme, permettre de réduire l’usage des médicaments anti-rejets, aux effets secondaires particulièrement lourds et nombreux ?

Absolument. L’un des aspects que j’explore dans le cadre de mes travaux vise à mieux comprendre le processus de rejet, dans le but spécifique de pouvoir prescrire aux patients greffés des médicaments anti-rejets plus ciblés, plutôt que des molécules moins spécifiques affaiblissant considérablement le système immunitaire – ce qui reste pour l’heure très préjudiciable à long terme pour les patients.

Avez-vous le sentiment que votre genre ait eu un impact, positif ou négatif, sur votre parcours scientifique ?

C’est une question à laquelle j’ai beaucoup réfléchi ces derniers temps… J’ai plutôt le sentiment que mon genre n’a été ni un obstacle, ni un avantage particulier. Mon genre fait simplement partie de moi. J’ai néanmoins pris conscience de l’incroyable chance que j’ai eue d’évoluer dans un environnement aussi sain : mes encadrants et tous les chercheurs avec lesquels j’ai travaillé ont contribué à faire de mon travail une source d’épanouissement. Au fil des années, j’ai tout de même pu me rendre compte qu’en dépit de cet environnement privilégié dont j’ai eu la chance de bénéficier, les stéréotypes de genre amènent toujours un certain nombre de remarques insidieuses : « Vous avez pu en arriver là parce que vous êtes une femme… », « Vous avez eu cette opportunité de carrière parce que vous êtes une femme… », etc.

Ces mots sont souvent prononcés à la légère, mais je pense vraiment qu’en tant que femmes, ce type de commentaire nous affecte de manière inconsciente. Cela peut parfois nous amener à remettre en cause nos capacités. Je pense que c’est une expérience vécue par beaucoup de femmes… J’ai donc eu beaucoup de chance, mais je n’en reste pas moins consciente de la situation tout à fait différente qu’ont pu connaître d’autres femmes. Je m’efforce ainsi moi-même de créer un environnement de travail dans lequel les femmes puissent se sentir en sécurité, tout en ayant la possibilité de révéler leur plein potentiel.

Votre famille est originaire de Pologne, pays qui a vu naître l’une des plus célèbres femmes scientifiques au monde, Marie Curie… Quel regard portez-vous sur cette grande figure féminine de l’histoire des sciences ?

Je pense que Marie Curie est, dans une certaine mesure, un role model pour toutes les femmes scientifiques. Elle a été pionnière à bien des égards. Elle est notamment la première femme à s’être vu décerner le Prix Nobel, et même la seule à avoir reçu cette récompense une seconde fois, dans une autre discipline… ! Elle nous a donc montré toute l’étendue des possibilités qui s’offre aux femmes scientifiques. Elle a même, je dirais, redéfini le rôle des femmes dans le monde académique.

Sa vision des sciences me parle beaucoup, et ça n’est d’ailleurs pas vraiment en lien avec ses origines polonaises. Elle avait par exemple cette vision idéaliste d’un savoir scientifique appartenant à tous, à l’humanité toute entière. C’est un point particulièrement important à rappeler aujourd’hui, dans le monde scientifique actuel où la compétition est reine. Il faut sans cesse que nous gardions en tête le fait que nous agissons pour le bien commun, et non par simple appât du gain. C’est vraiment quelque chose qui me semble important, qui plus est dans le domaine qui me concerne. Le rôle qu’elle a joué au cours de la Première Guerre mondiale avec ses unités mobiles de radiologie – les « Petites Curie » – l’illustre bien, d’ailleurs ! Elle a à la fois révolutionné le domaine de la radiologie, tout en permettant de soigner les soldats. Cette application concrète des connaissances scientifiques me parle vraiment. C’est ce que j’essaie moi aussi de faire au travers de mes travaux : mettre à profit des connaissances scientifiques pour améliorer la prise en charge des patients.

Comment accueillez-vous ce Prix Jeunes Talents France L’Oréal-UNESCO Pour les Femmes et la Science que vous venez de recevoir ?

Ce prix va, tout d’abord, m’offrir de la visibilité. Il va me permettre de mieux faire connaître les avancées dans le domaine de l’immunologie des greffes, notamment auprès du grand public – au-delà, donc, de la seule communauté scientifique.

Sur le plan personnel, ce prix va aussi contribuer à me donner davantage de crédibilité, notamment lorsqu’il s’agit d’obtenir des financements, ou encore d’établir de nouvelles collaborations. Il me donne aussi davantage confiance en moi, et me permet, en plus, de bénéficier de ce fantastique réseau que nous formons avec les 33 autres lauréates ! Elles sont toutes une source d’inspiration immense pour moi. Les échanges que nous avons eus toutes ensemble nous aident à prendre du recul, à aller de l’avant pour poursuivre nos travaux et faire avancer notre carrière.

Quelles seront, justement, les prochaines étapes de votre parcours ?

J’espère tout d’abord pouvoir soutenir ma thèse ! Ce qui est bien sûr un cap particulièrement important ! (Rires) J’aimerais, ensuite, revenir à la pratique clinique, en lien avec ma formation en médecine. Je souhaite pouvoir appliquer concrètement les travaux de recherche que j’ai menés durant ce parcours de doctorat en immunologie ; pouvoir associer au mieux ces connaissances scientifiques avec mes compétences cliniques. Établir ce lien entre applications cliniques et recherche plus fondamentale est vraiment quelque chose qui me tient tout particulièrement à cœur !

10 contenus incontournables pour bien démarrer l’année 2026 !

  1. Intelligence artificielle et innovation – Exemples d’applications 
  2. EBIOS RM – Une méthode conforme aux exigences de cybersécurité 
  3. Production d’hydrogène vert par électrolyse de l’eau 
  4. Les accumulateurs Li-ion : composants clefs de la mobilité électrique et des énergies renouvelables 
  5. Voiture électrique, voiture à hydrogène 
  6. Écoconception et génie écologique 
  7. Enjeux dans le recyclage des batteries lithium-ion 
  8. Robotisation des grands espaces : principes et outils méthodologiques 
  9. Veille et intelligence artificielle 
  10. Décarboner les utilités industrielles 

De notre côté, 2026 s’annonce aussi comme une année importante pour Techniques de l’Ingénieur. Un grand changement se prépare… 

À suivre très bientôt.

Un nouveau textile à double gradient refroidissant

Avec le changement climatique et le réchauffement global de la planète, l’intensité des vagues de chaleur ne cesse d’augmenter. Il est donc nécessaire de pourvoir au bien-être et au confort des individus et des appareils exposés à la lumière solaire et aux températures élevées. Malheureusement, les méthodes de refroidissement traditionnelles comme les arroseurs et les climatiseurs sont souvent chères et peu pratiques pour un usage en extérieur. Une solution prometteuse serait le refroidissement radiatif diurne passif, qui consiste à manipuler la réflectivité du rayonnement solaire et l’émissivité dans l’atmosphère. Et ce, sans avoir besoin de source d’énergie externe. Les textiles sont donc d’intérêt, car avec les bonnes composition chimique et structure poreuse, ils peuvent améliorer grandement leur émissivité. Soit un critère essentiel pour le refroidissement radiatif ! Une équipe de la Donghua-Jiangnan University (Chine), menée par les professeurs Chao Zhang et Tianxi Liu, a poursuivi dans cette voie en cherchant à développer des structures de Janus. Celles-ci absorbent efficacement le rayonnement thermique interne et rayonnent l’excès de chaleur dans l’espace externe froid. L’expérience des scientifiques est décrite en détail dans le journal Nano-Micro Letters du 5 décembre 2025.

Deux encres pour un double gradient

L’équipe de recherche de Chao Zhang et Tianxi Liu s’est mis en tête de confectionner un textile à double gradient. Autrement dit, avec une gradation physique (le diamètre des fibres) et chimique (l’encre employée). Pour ce faire, ils ont usé de la technique du filage soufflé à bicomposante consistant à mélanger deux encres en temps réel. La première encre se composait de PVDF (polyfluorure de vinylidène) dissous dans un solvant selon un ratio volumique 2:3. La seconde partait de PMMA (polyméthacrylate de méthyle) dissous cette fois avec un ratio 3:2. Chaque encre était ensuite chargée individuellement dans une seringue de 20 mL avant d’être aspergée sur une chambre tournante. Cette dernière était maintenue à une humidité de 40 %, une température de 30°C, et une pression de gaz entre 0,1 et 0,2 MPa. La pompe à injection de l’encre PVDF était calibrée sur 30 mL/h durant les dix premières minutes, avant de décroître de 0,5 mL/min jusqu’à l’arrêt. En simultané, la pompe à injection de l’encre PMMA envoyait de plus en plus de matière, à raison de 0,5 mL/min, jusqu’à atteindre 30 mL/min et rester dix minutes à ce rendement.

Résultat : un textile à double gradient ultra-flexible à la production adaptable et réparable in situ. Le gradient dans le diamètre des fibres, allant de 0,3 à 2 micromètres, a créé une structure poreuse hiérarchisée dans la zone du textile exposée à la lumière solaire. Ce qui a permis d’atteindre une réflectivité solaire de 98,7 % sur la surface extérieure. Le gradient dans la composition chimique, passant du PVDF au PMMA, a quant à lui montré une sélectivité spectrale asymétrique. Alors que la surface extérieure offrait une émissivité élevée dans l’infrarouge moyen (95,3 %), la surface intérieure présentait une belle absorptivité dans l’infrarouge (90,9 %) permettant un échange de chaleur radiative efficace pour un objet autochauffant. En plus d’une résistance à la tension de 4 MPa et à une charge de 5 kg, le textile a démontré une capacité de refroidissement de 7,8°C pour des objets non chauffés et de 13,6°C pour des objets autochauffants. Soit des valeurs améliorant celles des toiles d’ombrage du commerce de plus de 5°C ! Dans le futur, le textile à double gradient pourrait être utilisé pour des tentes ou sur les toits. Mais sa légèreté (densité inférieure à 40 g/m2) et sa perméabilité à l’air en feraient également un bon vêtement de sport.

Voici les plus petits robots autonomes et programmables au monde

En robotique, la miniaturisation est l’un des objectifs majeurs depuis près de 40 ans. Et pourtant, la limite du millimètre atteinte il y a plus de 20 ans ne semble pas pouvoir être franchie. Atteindre des dimensions submillimétriques s’avère particulièrement ardu si l’on souhaite éviter les pertes d’information sur le chemin. La faute à une physique microscopique unique en son genre. Alors qu’à l’échelle humaine la gravité et l’inertie dominent, à l’échelle cellulaire ce sont la traînée et la viscosité qui l’emportent. D’où le fait que les microrobots actuels manquent souvent des caractéristiques de leurs cousins macroscopiques comme la capacité à prendre des décisions, la captation de paramètres environnementaux comme la température, le retour d’information et la programmabilité. Le défi est donc de taille, mais cela n’a pas effrayé des chercheurs de la University of Pennsylvania et de la University of Michigan (États-Unis). Ils se sont ainsi attelés à mettre au point un robot de la taille d’un micro-organisme biologique malgré ses nombreux systèmes embarqués. Le résultat de leurs travaux est paru le 10 décembre 2025 dans le journal Science Robotics.

Des « bancs de poissons » robotiques utilisables en médecine

La production du robot américain passait par quatre étapes distinctes. Dans un premier temps, l’ensemble de son électronique était encapsulé dans une couche protectrice d’oxyde creusée de trous pour les multiples connexions. Ensuite était ajoutée une couche de platine utile à la propulsion électrocinétique de l’engin. Car pour se mouvoir, le petit robot génère un champ électrique qui repousse les ions de la solution environnante. Lesquels poussent à leur tour sur les molécules d’eau, de la même manière qu’un poisson pousse sur l’eau pour se déplacer. Puis les scientifiques ont gravé à travers l’oxyde autour du robot et la tranche de silicone sous-jacente jusqu’à la couche de métal supportant le tout. Enfin, ils ont dissous une série de couches métalliques de support afin de relâcher des robots en masse dans la solution.

Finalement, chacun des robots ainsi fabriqués mesure 200*300*50 micromètres. Soit moins qu’un grain de sel ! Sans attache, champ magnétique ou contrôle extérieur de type joystick, il est alimenté par la lumière grâce à ses panneaux solaires et peut fonctionner sans interruption pendant plusieurs mois. Avec à peine 75 nW de puissance, chaque robot peut nager à une vitesse de 300 micromètres par seconde. Une fois assemblés en larges « bancs de poissons », ces robots microscopiques pourraient être employés en médecine pour vérifier la santé des cellules individuelles d’un patient. En attendant qu’ils apparaissent dans le domaine médical, les chercheurs prévoient déjà pour l’avenir de leur fournir des programmes plus complexes, de les rendre plus rapides, ou encore de les munir de nouveaux capteurs.

Stations de recharge électrique : la nouvelle cible des cyberattaques

Longtemps perçues comme de simples équipements techniques, les bornes de recharge pour véhicules électriques sont désormais au cœur d’un nouveau front numérique. À mesure que la mobilité électrique s’impose et que les réseaux de recharge se densifient, ces infrastructures essentielles à la transition énergétique attirent de plus en plus l’attention des cybercriminels. Aux États-Unis, le phénomène s’est nettement accentué en 2024, avec une hausse estimée à 39 % des incidents liés à des cyberattaques par rapport à l’année précédente. En Europe, la tendance est similaire, avec des attaques qui se multiplient, gagnant à la fois en fréquence et en sophistication, signe de l’intérêt croissant des hackers.

Ces systèmes interconnectés se situent au croisement entre la mobilité, l’énergie et les services numériques. Et si ces bornes se sont déployées à grande vitesse, leur niveau de sécurité demeure inégal. Véritables objets connectés, elles échangent en permanence avec les véhicules, les applications mobiles des opérateurs et les systèmes de paiement. Cette interconnexion élargit considérablement leur surface d’attaque et expose les utilisateurs comme les exploitants à de multiples risques, allant du vol de données personnelles à l’intrusion de logiciels malveillants susceptibles de perturber le service.

Parmi les techniques les plus courantes figure le phishing via l’utilisation de faux QR codes apposés directement sur les bornes. Les conducteurs qui les scannent sont redirigés vers des sites frauduleux imitant les interfaces officielles de recharge, facilitant la collecte de données bancaires ou d’identifiants personnels. Des cas de fuites massives de données ont également été observés : noms d’utilisateurs, localisation précise des bornes ou numéros de série de véhicules se sont retrouvés sur le dark web après l’exploitation de vulnérabilités techniques.

Les conséquences dépassent largement le simple préjudice financier. Une borne compromise peut perturber l’accès au service, provoquer des erreurs de facturation ou ouvrir l’accès à des informations sensibles. Pour les opérateurs, ces incidents nuisent à la confiance des usagers et peuvent entraîner des interruptions de service coûteuses à réparer. À une échelle plus large, certains experts alertent sur le risque théorique d’une attaque coordonnée, qui pourrait provoquer des perturbations sur des réseaux électriques locaux, tant les systèmes de recharge sont désormais intégrés aux outils de gestion de l’énergie.

Le défi de la standardisation face aux cybermenaces

La vulnérabilité du secteur s’explique en partie par la rapidité de son déploiement. En quelques années, des milliers de bornes ont été installées, souvent avec des matériels hétérogènes, des firmwares (logiciels embarqués) disparates et des niveaux de sécurité variables. Le protocole OCPP (Open Charge Point Protocol), largement utilisé pour la communication entre les bornes et les systèmes centraux des opérateurs, peut lui-même être exposé à des failles lorsqu’il est mal configuré ou insuffisamment chiffré. De même, des standards plus sécurisés comme la norme ISO 15118 et la technologie « Plug & Charge » existent, mais leur adoption reste encore partielle.

Face à ces menaces, plusieurs solutions sont désormais identifiées. Pour les usagers, la prudence passe notamment par l’utilisation des applications officielles des opérateurs et l’évitement des QR codes visibles sur les bornes. Pour les exploitants, le renforcement des mécanismes d’authentification, la mise à jour régulière des logiciels, la segmentation des réseaux de bornes et la réalisation d’audits de sécurité approfondis constituent des leviers essentiels. Les autorités et les industriels recommandent une approche de cette cybersécurité « en profondeur », intégrant également des dispositifs de surveillance et des plans de réponse aux incidents.

Cette montée des cybermenaces s’accompagne d’un durcissement réglementaire. La directive européenne NIS2 (Network and Information Security 2), entrée en application depuis 2024, intègre les réseaux de recharge dans le champ des infrastructures critiques, en raison de leur rôle au carrefour de l’énergie et des transports. En France, l’ANSSI (Agence nationale de la sécurité des systèmes d’information) appelle les opérateurs à aligner leurs pratiques sur les référentiels de la cybersécurité industrielle et à sécuriser l’ensemble de la chaîne d’approvisionnement logicielle. La cybersécurité n’est plus une option, mais une obligation pour l’avenir de la recharge.

STMicroelectronics veut se fournir à 100 % en énergies renouvelables d’ici 2027

L’acteur franco-italien[1] des puces électroniques pourra compter sur quinze ans d’approvisionnement en électricité renouvelable grâce à un partenariat avec TSE, acteur majeur de l’énergie solaire et de l’agrivoltaïsme en France. Signé en novembre dernier, ce contrat d’achat d’électricité ou PPA[2] qui débutera en 2027 prévoit d’assurer la fourniture, en volume global, d’environ 780 GWh d’électricité renouvelable aux sites français de STMicroelectronics. Cette énergie sera produite par trois parcs solaires exploités par TSE d’une puissance totale d’environ 43 MW.

Une avancée significative

STMicroelectronics s’est fixé pour ambition de garantir un approvisionnement à 100 % en énergies renouvelables pour soutenir ses activités opérationnelles d’ici 2027. Ce contrat illustre cette volonté et aura un large éventail d’application comme le précise Chouaib Rokbi, Executive Vice-President chez STMicroelectronics : « Démarrant en 2027, ce contrat d’achat d’électricité avec TSE augmentera la contribution des énergies renouvelables aux activités de ST en France, qui incluent la R&D, la conception, les ventes et le marketing ainsi que la fabrication des circuits intégrés en grands volumes. »

Pour la multinationale, les contrats d’achat d’électricité occupent une place centrale dans la stratégie mise en place : plusieurs contrats ont déjà été signés en France, en Italie, en Malaisie et au Maroc.

Suite au contrat signé avec TSE, le fleuron européen des semi-conducteurs comptabilise dorénavant deux contrats d’achat d’électricité en France : le premier est le fruit d’un accord passé avec TotalEnergies. Ce premier contrat, inédit en France et d’une durée de 15 ans, représente un volume total de 1,5 (Twh). Depuis janvier 2025, l’électricité fournie par TotalEnergies aux sites de STMicroelectronics provient de deux fermes solaire et éolienne récemment mises en production par TotalEnergies, d’une puissance de 75 MW.

Quant à la Malaisie, STMicroelectronics y a signé, fin 2024, un contrat d’une durée de 21 ans avec Engie ; une première en Asie pour le fabricant de semi-conducteurs. L’électricité, qui approvisionnera un site d’assemblage et de test de semi-conducteurs en grands volumes situé en Malaisie, sera produite par une nouvelle ferme solaire située à Bukit Kayu Hitam dans l’état de Kedah.

La multinationale tente de remonter la pente

Les mauvais résultats financiers obligent le groupe à redéfinir sa stratégie. Son bénéfice net s’est effondré de 89 % au premier trimestre 2025 et son chiffre d’affaires net enregistre une baisse de 14,4 % sur le deuxième trimestre de la même année. En avril dernier, STMicroelectronics a lancé un plan de transformation qui inclut une économie de 300 millions d’euros et la suppression de 2 800 postes d’ici 2027, dont 1 000 d’entre eux en France ; un chiffre à mettre en regard des 500 millions d’euros d’aides publiques qui lui ont été versées depuis 2023.

L’essor de l’IA, qui a surtout bénéficié à Nvidia ou TSMC, ou le ralentissement du marché des véhicules électriques sont les raisons invoquées pour justifier ces baisses de profits.

En faisant le choix pragmatique de se tourner vers de nouvelles solutions énergétiques, STMicroelectronics saisit également une opportunité pour attirer de nouveaux investisseurs sensibles au positionnement de l’entreprise sur les questions environnementales.


[1] Née en 1987 de la fusion du français Thomson Semiconducteurs et de l’italienne Societa Generale Semiconduttori (SGS)

[2] Power Purchase Agreement

Sobriété énergétique et performance des organisations : enjeux, défis et solutions

La sobriété énergétique est une démarche globale qui implique à la fois des changements de comportement, des réorganisations structurelles et des choix techniques adaptés aux enjeux du XXIᵉ siècle. Elle désigne la diminution des consommations d’énergie par des transformations des modes de vie, des pratiques collectives et des technologies employées. Bien qu’elle s’inscrive dans un objectif général de réduction des émissions de gaz à effet de serre, elle se distingue de l’efficacité énergétique qui consiste plutôt à consommer mieux grâce à des équipements performants. Cette distinction est essentielle pour comprendre que la sobriété traite directement de la demande d’énergie elle-même, et non seulement de l’optimisation technique de son usage (negawatt).

La montée en puissance des débats sur la sobriété énergétique s’explique par plusieurs facteurs convergents. Les enjeux climatiques urgents et la nécessité de réduire l’empreinte carbone ont placé la réduction de la demande énergétique au cœur des stratégies de transition.

Dans le contexte européen, la crise énergétique déclenchée par des tensions sur les approvisionnements a mis en lumière la vulnérabilité des systèmes énergétiques face aux aléas géopolitiques, soulignant l’importance de réduire nos consommations. Enfin, les coûts croissants de l’énergie et les attentes sociales en matière de responsabilité environnementale encouragent entreprises et collectivités à s’engager davantage vers des pratiques sobres.

Repenser les modes de production et de travail

Dans les organisations, la sobriété énergétique ne se limite pas à des actions ponctuelles ou à des comportements individuels. Elle fait appel à un changement structurel des modes de production, de travail et d’organisation (Veolia). Une démarche de sobriété commence par une compréhension précise des besoins énergétiques réels des activités, un diagnostic des consommations et la mise en place d’un plan d’actions ciblé. Dans ce cadre, des mesures simples comme l’optimisation de l’éclairage, la maîtrise de la température ou le fait d’éteindre les appareils en veille participent à la réduction de la demande globalement. Mais à un niveau plus profond, il s’agit d’interroger les pratiques organisationnelles, comme l’optimisation des horaires de fonctionnement, l’adaptation des processus ou encore la réduction des déplacements non indispensables (globalclimateinitiatives).

Cette logique de transformation affecte également le rapport au confort et à l’espace de travail. Dans bien des cas, des bâtiments conçus sans logique de sobriété énergétique entraînent des consommations élevées, que ce soit pour le chauffage, la climatisation ou l’éclairage. Par exemple, dans un bâtiment mal isolé ou mal orienté, l’effort pour maintenir une température intérieure stable peut être considérable, ce qui alourdit la facture énergétique et augmente l’empreinte carbone. Ainsi, il est difficile pour les salariés d’adopter des comportements sobres si les infrastructures ne sont pas adaptées à cette logique.

Pour être pleinement efficace, la sobriété doit donc être pensée dès la conception ou la rénovation des locaux. Cela passe par des choix de conception architecturale, l’intégration de matériaux isolants efficaces, l’orientation des espaces pour favoriser l’apport naturel de lumière et de chaleur ainsi que l’intégration de systèmes de gestion intelligents de l’énergie (Commission européenne). Ces approches, lorsqu’elles sont intégrées dès l’origine d’un projet, permettent non seulement de réduire les consommations mais aussi d’améliorer le confort des occupants tout en diminuant les coûts opérationnels.

La sobriété énergétique ne se fait pas au détriment de l’attractivité ou de la performance économique. Au contraire, lorsqu’elle est intégrée comme un choix structurant, elle peut générer des bénéfices tangibles. Des entreprises ayant déployé des plans de sobriété ont observé des réductions significatives de leurs factures énergétiques et une meilleure maîtrise de leurs ressources, ce qui peut renforcer leur compétitivité. Par ailleurs, une démarche ambitieuse en matière de sobriété contribue à l’image d’une organisation responsable, ce qui est un facteur croissant de différenciation vis-à-vis des clients, des partenaires et des talents.

Intégrer la sobriété dès la construction ou la rénovation

Pour une entreprise souhaitant intégrer la sobriété énergétique, l’action doit être progressive et inclusive. L’engagement commence par un diagnostic énergétique approfondi, suivi d’une stratégie définie avec des objectifs mesurables. Cette stratégie peut inclure des rénovations ciblées sur l’enveloppe des bâtiments, l’installation de systèmes de contrôle de la consommation, et la formation des employés pour encourager des comportements sobres (Agir pour la Transition Écologique). La mobilisation de l’ensemble des parties prenantes est essentielle, car la sobriété n’est pas seulement une affaire de technologies mais aussi de cultures et de pratiques organisationnelles.

La sobriété énergétique apparaît ainsi comme un levier puissant pour répondre aux défis climatiques, économiques et sociaux actuels. Elle invite à repenser nos besoins, à réduire les gaspillages et à aligner les modes de production et de consommation avec les limites réelles des ressources de la planète. En intégrant cette démarche dès la conception des espaces de travail et en associant l’ensemble des acteurs internes à la transformation, les entreprises peuvent construire des modèles de performance durable tout en participant activement à la transition énergétique globale.

Décarbonation du ciment : deux scénarios très contrastés

Imaginer l’avenir décarboné d’une filière industrielle comme celle du ciment conduit à considérer les défis techniques, organisationnels et économiques à relever. De fait, ce produit est incontournable puisque, directement ou indirectement via le béton, il est au cœur de l’activité des secteurs du bâtiment et des travaux publics. Son poids économique en France n’est pas négligeable, de 2 à 2,5 milliards d’euros de chiffre d’affaires annuel entre 2010 et 2016, et 30 000 emplois en moyenne dont 5 000 directs.

La consommation nationale de ciment est autour de 18,5 Mt. La production française s’élève à 16,5 Mt (donnée 2018), en baisse de plus de 20 % en dix ans. Une petite partie est exportée (environ 0,5 Mt) tandis que 2,5 à 3 Mt sont importées de pays voisins. Le clinker, composant essentiel du ciment, est produit sur 27 sites en France, entre les mains de cinq groupes industriels. Depuis quelques années, on assiste aussi à une importation de clinker.

Le clinker est obtenu par cuisson d’un mélange de calcaire et d’argile, à 1 450°C. L’opération est responsable des émissions de CO2 des cimenteries, dont un tiers à cause de la consommation d’énergie des fours et deux tiers dus à la réaction chimique de décarbonatation du calcaire. Les sources d’énergies sont pour moitié des énergies fossiles, pour 35 % des combustibles de substitution (déchets) et pour 15 % de l’électricité. Les émissions de gaz à effet de serre de la filière ciment sont de l’ordre de 10 Mt CO2eq par an soit 12,5 % des émissions de l’industrie nationale.

Le scénario de référence ne décarbone pas assez

Dans son plan de transition sectoriel sur le ciment, l’Ademe a d’abord élaboré un scénario de référence reposant sur le développement des solutions de décarbonation déjà mises en œuvre par les industriels et sur les tendances de consommation prévues dans la Stratégie nationale bas-carbone (SNBC 2). Les leviers de décarbonation sont au nombre de cinq.

  • La mise à niveau (upgrading) des cimenteries avec les meilleures technologies disponibles. Il s’agit principalement d’améliorer l’efficacité thermique des sites en les passant en voie sèche avec précalcinateur. Ceci peut améliorer l’efficacité énergétique de 15 à 20 %.
  • La substitution des énergies fossiles par une fraction de biomasses (déchets agricoles et de bois, boues de station d’épuration). Mais le pouvoir calorifique inférieur de ces dernières est trop faible pour les niveaux de température attendus, donc d’autres combustibles alternatifs sont nécessaires (plastiques, pneumatiques, solvants et huiles usagés, etc.).
  • La baisse du taux de clinker à 58 % en 2050 alors qu’il était de 78 % en moyenne en 2018.
  • L’utilisation d’autres technologies qui, de manière incrémentale, peuvent décarboner certains aspects de la production (combustion enrichie en oxygène, tour de préchauffage avec des cyclones à faible perte de charge, optimisation du contrôle des procédés, etc.).
  • Le recours à la capture et au stockage de carbone (CSC) sur 20 % des cimenteries.

L’application de ces leviers est couplée à une baisse de la consommation de ciment dans le secteur du bâtiment, notamment grâce une politique ambitieuse de division par deux du nombre de constructions de maisons individuelles, et d’usage en hausse du bois.

Ce scénario de référence réduit les émissions de GES de la filière ciment de 54 %. Il n’atteint donc pas l’objectif de – 81 % de la SNBC, alors même que les investissements d’ici 2050 seraient importants, de l’ordre de 4,4 milliards d’euros, dont 1,1 Md€ pour le CSC.

La sobriété coûte moins cher

Comme le prévoient les principes méthodologiques des PTS, l’Ademe a élaboré d’autres scénarios. Deux visions contrastées ont été modélisées pour atteindre l’objectif de – 81 %.

Le scénario « techno-push » est guidé par le pari d’un plus fort développement des technologies, notamment de CSC (qui assure plus d’un tiers des baisses d’émission de CO2) et de fours de calcination flash pour produire des argiles calcinées. Une part d’électrification est possible, mais elle reste marginale. La demande en ciment diminue moins que dans le scénario de référence, portée par une hausse des besoins en infrastructures routières et ferroviaires. Des nouveaux ciments et clinkers alternatifs sont aussi développés. Le coût global bondit à 7,7 Mds€ dont près de 3 Mds€ pour le CSC.

Le scénario dit de « choc sobriété low-tech » se base sur la priorité au Zéro artificialisation nette des sols. L’impact sur les secteurs du bâtiment et des travaux publics est majeur, malgré un certain dynamisme pour les routes communales, départementales et les pistes cyclables : la baisse des constructions induit une diminution de 55 % des émissions de GES du ciment, par arrêt de la demande et donc fermeture de sites. Un recours plus important aux solutions sans clinker est aussi prévu, avec des liants alcali-activé au laitier de haut fourneau. Le coût global de ce scénario est 32 fois plus faible que le scénario techno-push (voir tableau ci-dessous) !

Scénarios du PTS Ciment en 2050
Source : Ademe

Dans les trois scénarios, qui prennent en compte une hausse des prix de l’énergie et du CO2, l’augmentation du coût de production est importante, mais reste bien moins forte que si aucun investissement de décarbonation n’était fait. Le scénario le plus sobre est celui dont le coût unitaire augmente le moins, car l’amortissement des Capex n’augmente que de 20 % alors qu’il est multiplié par quatre dans le scénario techno-push.

Pour l’Ademe, si aucun de ces scénarios ne prédit l’avenir, ils montrent que la décarbonation de l’industrie cimentière exige un fort besoin de visibilité, en particulier sur la trajectoire de prix du CO2. Un fléchage des investissements vers les sites stratégiques est également nécessaire, ainsi qu’un accompagnement réglementaire et normatif bien rythmé des innovations.

Revue du Magazine d’Actualité #59 du 15 au 19 décembre

Cette édition marque la dernière sélection d’articles que nous vous offrons en 2025. Après une pause, nous revenons début janvier 2026 pour de nouveaux décryptages des prochains enjeux technologiques !

🏭 INDUSTRIE & SOCIÉTÉ

Tchao 2025 : réindustrialisation, mobilisation et objectifs renforcés pour 2026

La French Fab dresse un bilan 2025 marqué par des opérations de mobilisation (Tour de France des industries), la création d’un collectif élargi et des clubs régionaux, avec une feuille de route 2026 orientée talents, coopérations et liens internationaux. L’ambition : structurer l’écosystème pour une réindustrialisation compétitive et visible, en cohérence avec France 2030 et les rendez-vous industriels majeurs.
➡️ 2026 Réindustrialisation 2026, cap sur talents et territoires

Le sport de haut niveau, un laboratoire d’innovations pour la société

Les technologies issues de l’optimisation de la performance (imagerie mentale, électrostimulation, biomécanique, impression 3D) migrent vers la santé et l’autonomie : rééducation post-AVC, prothèses plus efficaces, dispositifs accessibles. La diffusion se renforce via des passerelles entre laboratoires, hôpitaux et centres de recherche, avec des cas concrets en France.
🦵 Innovation sportive au service de la santé


⚡ ÉNERGIE & ENVIRONNEMENT

Véhicules électriques : les câbles de recharge ciblés par les voleurs de cuivre

Les vols coordonnés de câbles IRVE (“or rouge”) se multiplient, fragilisant la disponibilité des bornes et l’économie des opérateurs. Avec des cours du cuivre au plus haut, la filière propose des réponses : sécurisation mécanique, vidéoprotection et innovations comme le traçage ADN (CableGuard) validé par Kempower.
🔌 câbles IRVE, l’‘or rouge’ sous pression

Un accélérateur stratégique pour l’électromobilité et les systèmes énergétiques

VEDECOM inaugure MobiXlab à Versailles‑Satory : un tiers de confiance pour tester et précertifier les technologies de recharge et l’interaction véhicule‑réseau, avec une double brique (infrastructure réaliste + plateforme digitale). Objectif : interopérabilité, cybersécurité, passage à l’échelle et souveraineté industrielle.
🛡️ MobiXlab, interopérabilité et cybersécurité au cœur

« Des vœux de gravats » en campagne

La filière REP PMCB met l’accent sur les déchets minéraux avec Écominéro : plus de 4 000 points de reprise pour structurer tri et valorisation, et une campagne grand public (film stop‑motion) pour lutter contre les dépôts sauvages et promouvoir l’économie circulaire du bâtiment.
🪨 Gravats, une ressource à valoriser


💻 NUMÉRIQUE & CONTENUS

Le best of de vos contenus préférés en 2025 !

Panorama des sujets les plus lus : IA (usine, métiers, réglementation), énergie (nucléaire, coupures RTE, recyclage des renouvelables), industrie et emploi. Un récap utile pour saisir les tendances 2025 et préparer les axes de veille 2026.
⬅️ 2025 Parcours express : “IA, énergie, industrie — le top 2025”

5 cadeaux Tech pour toute la famille

Sélection de dispositifs connectés et idées high‑tech de fin d’année (robot éducatif à IA, wearables, accessoires mobilité), entre innovation pratique et vigilance sur usages et données. Un aperçu des tendances grand public à glisser sous le sapin.
🎁 Cadeaux Tech & IA sous le sapin


🎄 🎆 Bon week-end, bonne fin d’année, bonnes fêtes et à l’année prochaine ❗

Solaire flottant à haute densité, Ciel et Terre dévoile WattRack

Leader mondial du solaire flottant, Ciel et Terre annonce le lancement de WattRack, une solution innovante destinée aux projets recherchant une puissance installée maximale par hectare. Avec plus de 1,4 GWc installé et plus de 340 projets réalisés dans le monde, le groupe poursuit sa stratégie de spécialisation de son offre, en cohérence avec son positionnement historique axé sur l’innovation et l’adaptation aux contraintes des sites.

WattRack s’inscrit dans cette dynamique en proposant une approche différente du solaire flottant. La solution vise explicitement l’augmentation de la densité de modules photovoltaïques sur un plan d’eau donné, avec des projets pouvant atteindre jusqu’à 2,2 MWc par hectare. Cette orientation répond aux attentes de développeurs confrontés à des surfaces disponibles limitées ou à des objectifs de rentabilité renforcés.

Une architecture pensée pour la densité et la performance

La structure WattRack repose sur une conception sur rail qui supprime les allées de maintenance traditionnellement intégrées entre les rangées de panneaux. En libérant cet espace, davantage de modules photovoltaïques peuvent être installés sur une même surface, ce qui permet d’augmenter la puissance globale de la centrale sans étendre son emprise.

La configuration Est-Ouest adoptée par WattRack joue également un rôle clé. Elle permet de réduire les charges mécaniques appliquées à la structure flottante, facilitant ainsi la conception de centrales de grande taille tout en limitant le nombre de points d’ancrage nécessaires. Cette approche contribue à un design global optimisé, conciliant performance énergétique, maîtrise des coûts d’investissement et optimisation des coûts d’exploitation.

Au-delà de la seule densité, cette configuration Est-Ouest permet également de lisser la courbe de production journalière, un paramètre de plus en plus recherché par les exploitants pour mieux intégrer l’électricité solaire dans les réseaux.

Un dispositif de maintenance repensé pour les centrales flottantes

La suppression des allées de maintenance a conduit Ciel et Terre à développer un système spécifique d’exploitation des centrales équipées de WattRack. L’entreprise a ainsi conçu un chariot électrique motorisé dédié, permettant aux équipes de maintenance de circuler sur l’ensemble de la plateforme flottante.

Ce chariot, intégré à l’écosystème WattRack, a été pensé pour faciliter les opérations tout en garantissant un haut niveau de sécurité. Il permet le transport simultané du personnel et du matériel, sans impact sur la flottabilité de la centrale. Sa capacité de charge, son autonomie de fonctionnement et son système de contrôle embarqué visent à simplifier les interventions et à réduire les temps d’arrêt.

Grâce à ce dispositif, les opérations de maintenance deviennent plus rapides et moins contraignantes. Les équipes n’ont plus à transporter manuellement les équipements sur de longues distances et interviennent dans un environnement conçu pour limiter les risques, ce qui constitue un enjeu central pour l’exploitation à long terme des centrales solaires flottantes.

Une offre segmentée pour s’adapter à tous les sites

Avec l’introduction de WattRack, Ciel et Terre structure désormais son offre autour de trois grandes familles de solutions complémentaires.

Eprouvée sur plus de quinze ans, la solution Hydrelio aiR Optim est notamment adaptée aux environnements soumis à des vagues, à de fortes variations de niveau d’eau ou à des phases d’assèchement.

Reposant sur une structure triangulaire en nid d’abeille, Fusio est une autre solution conçue pour offrir une grande robustesse mécanique. Elle contribue à la réduction du coût actualisé de l’énergie produite. WattRack complète cet ensemble en ciblant des projets pour lesquels la densité, l’optimisation des Capex et Opex et le profil de production constituent des critères déterminants.

Pour chaque nouveau projet de solaire flottant, Ciel et Terre indique réaliser une analyse complète du site afin de proposer la solution la plus adaptée aux contraintes techniques, environnementales et économiques. Cette approche sur mesure permet de concevoir des centrales uniques, optimisées sur l’ensemble de leur cycle de vie.

À travers WattRack, Ciel et Terre confirme sa volonté de fournir des solutions fiables et évolutives, capables d’accompagner le développement du solaire flottant sur le long terme, dans des contextes de plus en plus exigeants en matière de performance et de compétitivité.

Déchets radioactifs : l’ASNR valide la maturité du projet Cigéo, sous conditions

Le projet Cigéo vient de franchir un cap décisif. L’ASNR (Autorité de sûreté nucléaire et de radioprotection) vient de rendre son dernier avis sur la demande d’autorisation de création du futur centre de stockage géologique profond de déchets radioactifs, déposée par l’Andra (Agence nationale pour la gestion des déchets radioactifs). Le gendarme du nucléaire estime que la démonstration de sûreté présentée atteint désormais un niveau de maturité compatible avec la création de l’installation, ouvrant la voie à la poursuite de l’instruction de ce dossier industriel parmi les plus sensibles du pays.

Ce constat positif, obtenu après un long processus d’expertise, ne signifie pourtant pas que le projet est totalement abouti. Situé à Bure, dans la Meuse, Cigéo vise à enfouir à 500 mètres sous terre les déchets radioactifs les plus dangereux produits en France, c’est-à-dire ceux de haute activité (HA) et de moyenne activité à vie longue (MA-VL), susceptibles de rester nocifs pendant des centaines de milliers d’années. Leur gestion est considérée comme l’un des enjeux majeurs de la politique nucléaire nationale, et la solution géologique profonde comme l’option la plus durable.

L’avis publié par l’ASNR est l’aboutissement d’une instruction entamée en mars 2023 et découpée en trois volets : analyse géologique, sûreté en phase d’exploitation et en phase d’après-fermeture. L’examen a mobilisé les équipes issues de l’ex-IRSN (Institut de Radioprotection et de Sûreté Nucléaire), désormais intégrées à l’Autorité, ainsi qu’un groupe permanent d’experts pour les déchets. L’ASNR insiste aussi sur l’importance du dialogue technique mené tout au long de l’instruction avec des associations, des élus locaux, des comités d’information et des habitants, qui ont pu formuler environ 380 questions. L’institution considère que cette participation contribue à renforcer la robustesse des analyses.

Sur le plan technique, l’ASNR juge satisfaisants plusieurs éléments essentiels pour une première autorisation : stabilité géologique du site, cohérence du schéma d’exploitation, architecture des installations souterraines et conditions envisagées pour la fermeture progressive du stockage. Elle valide également le calendrier prévisionnel fourni par l’Andra, qui annonce des jalons s’échelonnant jusqu’aux années 2150, à commencer par des travaux de terrassement en 2028, le creusement des liaisons entre la surface et le fond en 2035, suivi du creusement des premières alvéoles autour de 2040, puis de la mise en service limitée à une phase industrielle pilote à l’horizon 2050.

Des enjeux de sûreté à long terme encore sous examen

Mais l’autorité ne délivre pas un blanc-seing. Plusieurs sujets importants appellent encore des compléments. Il en va notamment de la gestion des situations accidentelles, des risques d’incendie ou d’explosion en exploitation, ainsi que de la performance à très long terme des scellements chargés d’isoler les alvéoles. La corrosion des conteneurs métalliques contenant les déchets de haute activité constitue également un point de vigilance. Autant d’éléments jugés insuffisamment démontrés à ce stade et que l’Andra devra documenter davantage. L’avis se traduit donc par un accord technique assorti de réserves, lesquelles devront être levées pour engager ultérieurement la mise en service pilote de l’installation.

Avec ce feu vert prudent, le projet entre maintenant dans une nouvelle séquence. Les prochaines étapes sont réglementaires avec les consultations obligatoires dans le cadre de l’enquête publique, annoncée pour le second semestre 2026. La délivrance de l’autorisation de création du site appartiendra à l’État, et devrait être connue au plus tôt en 2028, à travers un décret pris en Conseil d’État. L’ASNR rappelle que la vigilance demeure nécessaire et que son avis technique n’est qu’une étape dans un processus qui devra encore durer plusieurs décennies.

Pour ses promoteurs, Cigéo constitue la réponse la plus sûre et la plus maîtrisée à la gestion des déchets les plus radioactifs. Pour ses opposants, notamment des écologistes et des associations locales, il reste porteur d’incertitudes majeures, tant techniques que démocratiques. Entre ces deux pôles, l’avis de l’ASNR cherche à maintenir une ligne de crête mêlant rigueur scientifique et prudence institutionnelle. Et c’est bien sur cette ligne étroite que se jouera, dans les prochaines années, l’avenir de l’un des plus ambitieux projets nucléaires français.

Marion Guérin : explorer les méandres de l’immunité pour mieux soigner les cancers

Le 19e Prix Jeunes Talents France 2025 L’Oréal-UNESCO Pour les Femmes et la Science récompense 34 nouvelles « étoiles montantes »

Créé en 2007, le Prix Jeunes Talents France L’Oréal-UNESCO Pour les Femmes et la Science récompense chaque année, à un moment clé de leur carrière, des doctorantes et post-doctorantes qui incarnent aux yeux du jury « l’excellence scientifique française », et qui portent, en outre, des projets de recherche visant à construire « un avenir plus juste et durable ». Cette année, 34 de ces jeunes chercheuses ont été sélectionnées parmi près de 700 candidates, par un jury composé d’une trentaine de membres de l’Académie des sciences, avec à sa tête la célèbre astrophysicienne française Françoise Combes, présidente de l’Académie des sciences, elle-même récompensée du prix international 2021 L’Oréal-UNESCO Pour les Femmes et la Science.

« Les femmes représentent la moitié de l’humanité, mais demeurent trop peu nombreuses aux postes de responsabilité dans la recherche. [De nombreux] freins écartent injustement des talents dont la science aurait besoin. Les Prix Jeunes Talents France L’Oréal-UNESCO Pour Les Femmes et la Science, en partenariat avec lAcadémie des sciences, sont autant de leviers pour rééquilibrer les chances et permettre à la culture scientifique de s’enrichir de tout le potentiel de cette moitié de l’humanité », se réjouit Françoise Combes. L’astrophysicienne qui voit dans les lauréates de cette 19e édition, de nouvelles « étoiles montantes de la science »…

Prix Jeunes talents France 2025 L’Oréal-UNESCO Pour les femmes et la science
34 doctorantes et post-doctorantes ont reçu le 8 octobre dernier le Prix Jeunes talents France 2025 L’Oréal-UNESCO Pour les femmes et la science lors d’une cérémonie organisée au sein de l’auditorium André et Liliane Bettencourt du Palais de l’Institut de France. © Fondation L’Oréal – © Julien Knaub & Nicolas Gouhier

Attirée dès son plus jeune âge par la recherche scientifique, Marion Guérin a construit tout son parcours autour de la volonté de devenir chercheuse. Combinée au souhait d’aider à soigner les gens, cette ambition l’a ainsi menée vers une carrière de chercheuse en immunologie appliquée à la cancérologie. Après un doctorat à l’Institut Cochin, Marion Guérin poursuit aujourd’hui son parcours en post-doctorat au sein d’une unité mixte de l’Institut Pasteur et de l’Inserm, où elle cherche notamment à comprendre les mécanismes immunitaires qui permettront, demain, d’optimiser la réponse des patients atteints de cancer aux traitements par immunothérapie. Chercheuse et mère de famille épanouie, elle n’en demeure pas moins consciente du chemin qui reste à parcourir pour améliorer la représentation des femmes en science.

Techniques de l’Ingénieur : Comment en êtes-vous venue à vous intéresser au sujet de l’immunologie appliquée à la cancérologie ? Quelles ont été les principales étapes de votre parcours ?

Marion Guérin, lauréate du rix Jeunes talents France 2025 L’Oréal-UNESCO Pour les femmes et la science
Marion Guérin mène actuellement un parcours post-doctoral au sein de l’unité Dynamique des réponses immunes de l’Institut Pasteur et de l’Inserm. © Fondation L’Oréal

Marion Guérin : La première étape clé remonte à mon enfance : toute petite, vers l’âge de 7 ans, j’ai été marquée par la découverte, sur mon écran de télé, du Téléthon. J’ai été frappée par plusieurs aspects : l’existence des maladies génétiques, les recherches menées dans ce domaine, et l’apparition progressive de traitements. C’est à ce moment que je me suis dit que je voulais faire de la recherche, et aider à soigner des gens. J’ai donc construit mon parcours dans cette optique.

En ce qui concerne l’immunologie en particulier, une étape marquante pour moi a été mon cours de terminale sur le sujet. Cela ne concernait qu’un seul chapitre, centré sur l’immunologie et le VIH, mais j’ai trouvé cela absolument passionnant ! Je me suis donc dirigée vers une licence, puis un master en immunologie. J’ai eu la possibilité de suivre plusieurs UE[1] optionnelles axées autour des liens entre l’immunologie et d’autres domaines, dont la cancérologie. Me diriger vers cet aspect en particulier m’a alors semblé évident : les cancers représentent l’une des causes majeures de mortalité dans le monde ; nous connaissons malheureusement tous autour de nous quelqu’un qui a ou a eu un cancer… Il m’a donc semblé particulièrement pertinent d’associer immunologie et cancérologie, d’autant que pendant mes études, de 2010 à 2016, le sujet des immunothérapies était en plein essor, avec beaucoup d’espoirs pour soigner les cancers. J’ai donc poursuivi mon parcours dans cette voie, en doctorat, puis en post-doctorat, que je poursuis actuellement.

Sur quoi vos travaux de doctorat ont-ils justement porté ? Quel axe explorez-vous plus particulièrement dans le cadre de votre travail actuel de post-doctorat ?

Dans le cadre de la lutte contre les cancers, les immunothérapies constituent un moyen de restimuler les cellules de notre système immunitaire. Elles sont aujourd’hui devenues l’un des traitements majeurs dans ce domaine, mais les échecs sont encore nombreux, malheureusement… Au cours de ma thèse, j’ai donc cherché à mieux comprendre quelles sont les cellules immunitaires qui peuvent être impliquées dans ces mécanismes, mais aussi, et surtout, comment elles doivent s’organiser dans le temps et dans l’espace au sein même d’une tumeur pour pouvoir avoir une action efficace contre les cancers. L’étude du compartiment tumoral est une approche explorée par l’immense majorité des publications sur le sujet. C’est en revanche moins le cas en ce qui concerne l’orchestration de la réponse immunitaire au sein de la tumeur…

Dans le cadre du travail de post-doctorat que je mène actuellement, j’ai voulu aller plus loin, en m’intéressant cette fois au ganglion lymphatique drainant. Il s’agit du site initiateur d’une réponse immunitaire, notamment en cas d’infection. Je me suis donc dit qu’il s’agissait peut-être là d’un point clé pour régénérer une réponse immunitaire face à un cancer… C’est donc ce qui m’a amenée à m’intéresser, pendant ce post-doctorat que je poursuis actuellement, à la question de la réponse immunitaire anti-tumorale au sein des ganglions. Il s’agit d’un aspect relativement nouveau, auquel les chercheurs s’intéressent depuis quelques années seulement.

Qu’avez-vous d’ores et déjà pu découvrir à ce sujet ?

Aux côtés d’autres travaux menés dans ce domaine, mes recherches montrent que le fait de retirer les ganglions – ce qui est très souvent fait en pratique clinique – n’est sans doute pas toujours la bonne solution et qu’il faudrait peut-être même, au contraire, préserver ces ganglions dans la majorité des cas. Cela ouvre aussi des perspectives quant au timing du traitement : en cas de retrait prévu des ganglions, peut-être faudrait-il alors commencer par une immunothérapie, avant de procéder à la chirurgie. Tout cela remet en question les pratiques actuelles.

J’ai découvert un certain nombre de mécanismes clés se déroulant au sein des ganglions, que j’aimerais désormais pouvoir mettre à profit pour améliorer les traitements. J’ai notamment identifié un type de cytokine ces molécules chargées d’établir un dialogue entre cellules – qui joue un rôle clé dans la réponse au traitement par immunothérapie.

Avez-vous le sentiment que votre genre a eu, à un moment ou un autre de votre parcours, une quelconque influence ?

Le biais de genre est encore très présent : en France, la part de femmes dans le secteur de la recherche se situe aux alentours de 30 %, et reste en-dessous de la moyenne européenne. Il reste donc beaucoup de choses à faire dans ce domaine.

Cela varie selon les cas, mais plusieurs obstacles peuvent encore entraver le parcours des chercheuses. J’ai eu la chance de pouvoir évoluer, en thèse comme en post-doctorat, dans des environnements où la distinction hommes-femmes n’était pas présente, avec les mêmes possibilités d’évolution de carrière pour tout le monde. Je dis « chance », mais cela devrait être la norme… !

Je suis maman, et cela ne m’a pas posé de problème durant mon parcours. Pour autant, je sais que la maternité est quelque chose qui peut faire peur : nos contrats sont souvent précaires, et la crainte de perdre son poste est légitime. Les craintes peuvent aussi être liées à l’évaluation de notre production, de nos publications qui peuvent être ralenties par le congé maternité. Je pense néanmoins que quand on est déterminé, tout est possible : il est possible de s’organiser, et de s’entourer pour y arriver. La liberté énorme que l’on a en tant que chercheurs le permet. Rien n’est impossible, il faut simplement le vouloir et ne pas avoir peur.

Le prix Nobel de médecine a été décerné cette année à trois chercheurs américains, parmi lesquels une femme, Mary Brunkow. S’agit-il, selon vous, d’un signal positif ?

Cela me semble très important, car les femmes scientifiques sont encore trop souvent invisibilisées, malgré le travail énorme qui a déjà été mené pour renforcer leur représentation, notamment par la Fondation L’Oréal et l’UNESCO au travers de ces Prix L’Oréal-UNESCO Pour les Femmes et la Science. Sept des anciennes lauréates de ces prix sont d’ailleurs, aujourd’hui, détentrices d’un Prix Nobel !

Même s’il reste bien du chemin à parcourir pour atteindre la parité, cela me semble un grand signe d’espoir. Il faudra que, demain, toutes les femmes qui le méritent puissent être récompensées pour leurs travaux, promues et visibles.

Comment accueillez-vous, justement, ce Prix Jeunes Talents France L’Oréal-UNESCO Pour les Femmes et la Science que vous venez de recevoir ?

Ça a été pour moi un honneur et une fierté de recevoir ce prix ! En premier lieu parce que cette récompense est le fruit d’une évaluation par les pairs de nos travaux respectifs – des pairs parmi lesquels se trouvaient donc notamment des Académicien(ne)s, ce qui était déjà, en soi, quelque chose d’extraordinaire pour moi. Ce prix nous offre aussi une opportunité unique de mettre en lumière nos travaux et notre parcours. Il nous permet également de nous exprimer, et d’exposer ce qui a été pour nous facile, ou difficile ; d’échanger entre nous et, finalement, de créer un collectif, ce qui est toujours une force.

C’est aussi un moyen, je pense, de motiver les jeunes filles qui aiment la science à se lancer dans une carrière scientifique, en leur montrant tout simplement que c’est possible ! Nous sommes cette année 34 jeunes femmes lauréates, et nous avons des parcours très divers, ce qui illustre toute la place de la diversité dans la recherche, tout en démontrant une chose capitale : il ne faut surtout pas s’autocensurer !


[1] Unités d’enseignement

PNC-France alerte sur un risque majeur pour la souveraineté énergétique

La Commission européenne a récemment présenté ce qu’elle appelle l’European Grids Package, aussi désigné comme « paquet réseaux », qui vise à refondre et moderniser le cadre de planification, de développement et de gestion des réseaux électriques à l’échelle de l’Union européenne. Ce paquet comprend des propositions législatives et non législatives pour accélérer l’interconnexion des États membres, raccourcir les délais d’octroi des permis, et coordonner davantage la planification des infrastructures énergétiques au niveau européen afin de répondre aux besoins de l’économie, de la transition énergétique et de la compétitivité industrielle. Selon la Commission, l’objectif est de permettre une circulation plus fluide de l’électricité propre, d’abaisser les coûts de l’énergie et de renforcer la sécurité d’approvisionnement tout en soutenant la neutralité carbone prévue pour 2050.

Dans ce cadre, Bruxelles a mis en avant la mise en place de huit corridors prioritaires destinés à fluidifier les flux d’électricité et éventuellement d’hydrogène à travers l’Union. Ces projets répondent à une demande croissante d’électricité générée par des sources renouvelables ainsi qu’à la nécessité d’un système intégré permettant de maximiser l’utilisation des capacités de réseau existantes.

Les propositions contenues dans le Grids Package s’inscrivent également dans un contexte de réforme des règles de connexion au réseau. Parmi les mesures, la Commission européenne a suggéré de remplacer le principe de « premier arrivé, premier servi » pour les demandes de raccordement par une règle de « premier prêt, premier servi », afin de prioriser les projets matures et d’atténuer les goulets d’étranglement qui ralentissent le déploiement des nouvelles capacités, notamment pour les énergies renouvelables et le stockage (Energy-Storage.News).

Enfin, la modernisation du réseau ne concerne pas seulement l’électricité classique. Le paquet vise aussi à améliorer la connectivité pour les réseaux d’hydrogène et de CO₂, éléments essentiels pour une transition énergétique plus complète. Selon plusieurs médias européens, la mise en œuvre de ces projets nécessitera d’importants investissements, avec des estimations allant jusqu’à 1 200 milliards d’euros d’ici à 2040 pour adapter les réseaux à la demande future (Gaz d’aujourd’hui).

Tensions et débats autour de l’interconnexion et de la souveraineté énergétique

Malgré l’ambition du plan, certaines organisations soulignent les risques et enjeux de gouvernance liés à ce projet d’intégration des réseaux. En France, l’association PNC-France a récemment adressé une lettre ouverte au Président de la République et au Premier ministre pour alerter sur les potentielles menaces que le Grids Package ferait peser sur la souveraineté énergétique nationale. Selon cette organisation, l’accroissement des interconnexions pourrait entraîner une forme de dépendance accrue à des flux européens moins contrôlables, mettant en péril la capacité de la France à maîtriser son mix électrique, notamment dans un contexte où l’énergie nucléaire demeure un pilier central de la production.

Les critiques avancées par PNC-France incluent l’idée que des flux massifs d’électricité intermittente issus de sources renouvelables dans les pays voisins pourraient désorganiser le système français, nécessitant des ajustements rapides et coûteux pour garantir l’équilibre réseau. L’association évoque aussi une possible hausse des prix de l’électricité pour les consommateurs français si les capacités pilotables nationales étaient moins sollicitées, ainsi qu’un risque théorique accru de perturbations, voire de black-out si les flux entre pays ne sont pas gérés avec prudence.

Ces positions soulignent un débat plus large qui traverse l’Union européenne : comment concilier autonomie énergétique nationale et intégration plus forte des systèmes énergétiques dans un cadre supranational ? D’un côté, l’UE met en avant le besoin de systèmes interconnectés pour réduire le coût moyen de l’énergie et augmenter la résilience collective face aux aléas externes, tandis que certains acteurs nationaux craignent la dilution de leur contrôle sur leurs propres infrastructures critiques.

Les partisans du paquet réseaux rétorquent que, sans un niveau élevé d’interconnexion et une planification harmonisée, l’Europe ne pourra pas atteindre ses objectifs climatiques ni assurer un approvisionnement énergétique fiable et abordable. Des organisations professionnelles et des opérateurs de réseaux ont, pour leur part, salué l’accent mis sur la nécessité d’accélérer la planification et la construction d’infrastructures, tout en appelant à une coopération plus étroite entre institutions européennes et autorités nationales.

La revue de presse quotidienne du 18 décembre 2025 : chimie, environnement, énergie

Durcissement continu des cadres réglementaires et stratégiques sur fond de tensions entre ambitions climatiques, réalités industrielles et contraintes énergétiques… Entre renforcement des règles sanitaires et environnementales, ajustements des trajectoires de décarbonation, montée en puissance des enjeux énergétiques et questionnements sur l’empreinte des technologies numériques, l’actualité met en lumière une transition en cours, plus structurée, mais aussi plus complexe, où arbitrages politiques, choix industriels et impératifs économiques s’entremêlent étroitement.

Note d’orientation sur l’interdiction des bisphénols dans les matériaux pour denrées alimentaires

La Commission européenne a publié le 17 décembre une note d’orientation pour accompagner la mise en œuvre du règlement du 19 décembre 2024 visant à interdire le BPA et d’autres bisphénols dans les matériaux en contact avec des denrées alimentaires, renforçant ainsi les règles européennes sur les substances chimiques préoccupantes et leurs impacts sur la santé et l’environnement (actu-environnement).

Présentation de la troisième version de la Stratégie nationale bas-carbone

Le ministère de la Transition écologique a rendu publique la SNBC3 qui vise à combiner électrification massive et réindustrialisation pour atteindre des objectifs de réduction d’émissions plus ambitieux d’ici 2030 et tendre vers la neutralité carbone en 2050. Il s’agit notamment d’ajuster les trajectoires sectorielles et en de mieux prendre en compte l’empreinte carbone totale de l’économie française (actu-environnement).

Nouvelles consultations réglementaires en France et en Europe

Le bulletin de veille réglementaire du 17 décembre recense une trentaine de consultations et textes en cours d’élaboration en France et en Europe, couvrant notamment les domaines de l’énergie, de l’environnement, des transports et de l’industrie, reflétant un mouvement intense de révisions législatives et normatives en fin d’année (rsedatanews.net).

Le marché du charbon sur un record historique à l’échelle mondiale

Selon l’Agence internationale de l’énergie (AIE), la demande mondiale de charbon en 2025 devrait atteindre un niveau record légèrement supérieur à celui de 2024, avant un début de déclin attendu vers 2030. Ce constat reflète les tensions entre les politiques de transition énergétique et les réalités de la demande énergétique dans certains grands marchés (TF1 Info).

L’impact environnemental de l’intelligence artificielle

L’Autorité de la concurrence vient de publier une étude analysant les implications énergétiques et environnementales de l’IA, mettant en lumière la croissance rapide de la consommation électrique des data centers et les pressions sur les ressources (énergie, eau, métaux rares) liées à l’expansion de ces technologies (AFJV).

Projet de « carboduc » pour transporter le CO₂ du Grand Est vers la mer du Nord

Le principal gestionnaire du réseau de gaz en France, NaTran (ex-GRTgaz), a lancé un appel à manifestation d’intérêt pour un projet visant à capter et transporter le CO₂ industriel du Grand Est vers les zones de stockage en mer du Nord, dans le cadre des efforts de décarbonation des industries lourdes (L’Est Républicain).

La Commission européenne propose d’adoucir l’objectif de fin des moteurs thermiques

La Commission a proposé d’assouplir le calendrier prévu pour la suppression des ventes de voitures à moteur à combustion interne à l’horizon 2035, suscitant un débat sur la trajectoire de la mobilité décarbonée en Europe (Just Auto).

La BEI accorde un prêt à Technip Énergies pour la R&D en décarbonation et économie circulaire

La Banque européenne d’investissement a annoncé le 17 décembre un prêt de 40 millions d’euros à Technip Énergies. Il sera destiné à financer des programmes de recherche et développement axés sur des technologies de décarbonation et des solutions d’économie circulaire applicables aux installations énergétiques et industrielles (Euro-Pétrole).

Soutien britannique à une usine d’éthylène menacée

Au Royaume-Uni, le gouvernement a décidé d’investir massivement dans la dernière usine d’éthylène du pays pour éviter sa fermeture, préservant ainsi des emplois et maintenant une capacité industrielle critique pour la chaîne de valeur pétrochimique (Connaissance des Énergies).

Pressions sur le secteur des combustibles solides de récupération

En France, les règles d’incinération et de préparation des combustibles solides de récupération (CSR) sont en cours de modification, avec un projet de simplification des exigences de rendement énergétique des installations. Cette mesure pourrait affecter les filières de traitement des déchets industriels (actu-environnement).

À glisser sous le sapin

Cloud Dancer, une parenthèse de douceur dans le design lumineux

La couleur Pantone de l’année 2026 ouvre un nouveau chapitre chromatique placé sous le signe de l’apaisement et de la légèreté. Baptisée Cloud Dancer, cette nuance de blanc aérien évoque un souffle de calme et de clarté, pensé pour transformer les espaces intérieurs autant que les émotions.

Lampe de bureau Flowerpot VP9
La lampe de bureau Flowerpot VP9 incarne l’esthétique pop et fonctionnelle du design scandinave

Désignée à la fin des années 1960 par le designer scandinave Verner Panton, la lampe de bureau Flowerpot VP9 présente des formes simples et équilibrées, composées de deux demi-sphères en acier laqué. Devenue iconique dans les années 1970, elle est intemporelle, et trouve sa place sur un bureau, diffusant une lumière douce et maîtrisée. Elle illustre une vision du design où la sobriété formelle se met au service de l’usage quotidien, tout en affirmant une forte identité esthétique.

Retrouvez ici la sélection de Nedgis.

Les thèses du mois : « Le jumeau numérique, outil stratégique pour l’industrie et nouveau front pour la cybersécurité »

Pour notre dossier de septembre, « Le CCUS, une nécessité industrielle en quête d’un modèle économique », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

Reconfiguration de la commande résiliente aux cyber-attaques des CPS par Jumeau Numérique et les techniques des SED
Projet de thèse
Romain Thibert
Automatique
Laboratoire Universitaire de Recherche en Production Automatisée

Le maintien de la cohérence du jumeau numérique par rapport aux évolutions de son jumeau physique.
Oghenemarho Orukele
Conception
LISPEN

Mise en œuvre de la XR pour le maintien de la cohérence des jumeaux numériques
Abdelhadi Lammini
Génie industriel : conception et production
Sciences pour la conception, l’optimisation et la production

Modélisation d’une plateforme de jumeau numérique pour les villes intelligentes
Hamza Ngadi
Informatique
Laboratoire en sciences et techniques de l’information, de la communication et de la connaissance

Jumeau numérique pour l’orchestration dynamique de systèmes autonomes et embarqués
Yining Huang
Sciences et technologies de l’information et de la communication
LIP6

Systèmes de Jumeau Numérique pour les systèmes de production : Application sur le manufacturing lab
Xeniya Pystina
Génie industriel
DISP – Décision et Information pour les Systèmes de Production

Ingénierie système dirigée par jumeau numérique : cadre formel et opérationnel
Mama Diakite
Automatique, Productique, Signal et Image, Ingénierie cognitique
Laboratoire de l’intégration du matériau au système

Utilisation des jumeaux numérique des bâtiments, l’IA et l’IoT pour l’optimisation des services orientés localisation indoor
Aurélien Chambon
Informatique
Laboratoire d’informatique de l’Institut Gaspard Monge

Calibration de modèles de systèmes complexes pour la construction du jumeau numérique du véhicule autonome
Clara Carlier
Mathématiques appliquées
Centre de Recherche en Économie et Statistique

Jumeau numérique du Réseau Électrique Intelligent par la simulation temps réel : méthodologie et applications
Thien Phong Tran
Génie électrique
Laboratoire d’innovation pour les technologies des énergies nouvelles et les nanomatériaux

 

Maîtriser l’ingénierie complexe avec le jumeau numérique

Un extrait de « Jumeau numérique et réalité virtuelle pour la modélisation de systèmes complexes », par Pierre-Antoine BEAL, Cyril SEPTSEAULT, Matthieu AUBRY, Lise LORENZATO, Pierre-Armand THOMAS

Les systèmes d’ingénierie contemporains sont qualifiés de complexes en raison de leur structure hétérogène et de leur dynamique non linéaire. Ils rassemblent des phénomènes variés qui interagissent entre eux et créent des comportements émergents impossibles à déduire des seuls composants élémentaires. Comprendre ces systèmes exige d’aller au-delà d’une analyse fragmentée, puisque l’observation isolée des parties ne suffit pas à prédire l’évolution de l’ensemble. Leur modélisation demande ainsi d’identifier des niveaux hiérarchiques, de relier des sous-systèmes et d’intégrer la variabilité de leur fonctionnement tout au long de leur vie.

Dans ce contexte, la simulation numérique joue un rôle décisif. Elle permet de reproduire le comportement d’un système existant ou d’explorer les performances d’un système encore à concevoir. Elle sert à tester des scénarios extrêmes difficilement accessibles dans la réalité, à réduire les coûts d’expérimentation et à anticiper les effets de modifications techniques. Chaque modèle repose toutefois sur un domaine de validité déterminé par les hypothèses retenues, les données disponibles et les phénomènes représentés. Ce cadre doit être compris pour éviter des interprétations erronées des résultats.

La modélisation, elle, ne peut être menée par une seule discipline. Les systèmes peuvent réunir celles de la mécanique, du thermique, de l’automatisation, des matériaux, de l’économie ou relevant de l’organisation. La coconstruction devient indispensable pour fédérer ces connaissances, faire dialoguer les spécialistes et intégrer leurs modèles au sein d’un même ensemble cohérent. Cette démarche collaborative garantit que les phénomènes, même éloignés ou interdépendants, soient pris en compte dans la représentation globale du système.

Un prolongement vivant de la simulation

Le jumeau numérique s’inscrit comme une évolution naturelle de la simulation. Il se présente comme une réplique numérique d’un système physique, dont il suit l’évolution dans le temps grâce à l’intégration des données issues du réel. Contrairement à un modèle statique, il retrace l’historique du système, décrit son état présent et anticipe son comportement futur. Il agrège l’ensemble des connaissances, modèles et informations disponibles et les met à jour au fil du cycle de vie. Il représente ainsi une plate-forme unifiée permettant de comprendre, prédire et optimiser un système complexe.

Les apports du jumeau numérique sont multiples. Il renforce la représentativité du système en intégrant plusieurs échelles, plusieurs disciplines et une grande variété de conditions environnementales. Il facilite la compréhension en rendant explicables les comportements simulés et en permettant d’interroger les mécanismes internes du modèle. Il crée un espace de travail partagé où experts, concepteurs, opérateurs et décideurs peuvent examiner le même système virtuel et confronter leurs analyses. Il contribue aussi à ouvrir les silos organisationnels, en rendant visibles les interactions entre domaines et en permettant de les évaluer collectivement.

Cette interaction entre modèles et données n’a pas vocation à remplacer l’expertise humaine. Elle la complète en offrant une vision élargie, structurée et dynamique du système, de ses contraintes et de ses leviers d’optimisation. Elle permet également d’intégrer des aspects non techniques comme les coûts, les délais ou les stratégies d’exploitation, afin de soutenir des arbitrages éclairés dès les premières phases d’un projet.

Un outil transversal pour décider, planifier, certifier et former

L’un des atouts majeurs du jumeau numérique réside dans la diversité de ses usages. Il accompagne la décision en simulant des scénarios variés, en comparant des solutions ou en évaluant les effets d’une modification structurelle. Il soutient la planification en croisant modèles, contraintes et ressources, permettant de vérifier automatiquement la cohérence d’un enchaînement d’opérations ou d’optimiser un planning. Il participe à la certification en offrant un cadre multidisciplinaire capable de représenter un système dans un grand nombre de conditions tout en automatisant certaines vérifications nécessaires.

Il devient également un outil de communication puissant grâce à la visualisation 3D ou à la réalité virtuelle, qui permettent d’expliquer facilement des systèmes complexes à des interlocuteurs non spécialistes. Il sert encore de support d’apprentissage, en permettant de simuler des situations critiques sans danger pour les opérateurs. Lorsqu’il est alimenté par les données capteurs, il intervient en temps réel dans le suivi du système, la détection des dégradations et l’amélioration de la maintenance prédictive. La comparaison entre les données mesurées et les données simulées permet ainsi de repérer des écarts, des dérives ou des signaux faibles annonciateurs d’un dysfonctionnement.

En définitive, le jumeau numérique est une mémoire vivante du système. Il capitalise toutes les données issues de la conception, de l’exploitation et de la maintenance. Il s’adapte aux évolutions techniques, aux retours d’expérience et aux nouvelles connaissances. Cette continuité enrichit le modèle, améliore sa précision et renforce sa valeur pour les décisions futures.

Les limites à ne pas négliger

Le jumeau numérique présente cependant des limites qui tiennent autant à la nature des modèles qu’aux conditions de leur utilisation. Il ne peut jamais reproduire totalement la réalité, car il s’appuie sur des hypothèses, un domaine de validité et des simplifications qui peuvent conduire à une surconfiance si elles sont mal comprises. Sa fiabilité dépend directement de la qualité des données qui l’alimentent, ce qui expose le système à des dérives lorsque ces données sont incomplètes, bruitées ou imprécises.

Sa conception et sa maintenance exigent par ailleurs un niveau d’expertise élevé, une architecture complexe et un investissement important, ce qui peut freiner son déploiement ou entraîner des choix sous-optimaux. Même s’il doit être explicable, il peut parfois fonctionner comme une boîte noire, surtout lorsque des modèles avancés ou des techniques d’intelligence artificielle sont mobilisés, rendant l’interprétation des résultats délicate sans l’appui d’experts.

La connexion permanente entre système réel et modèle virtuel soulève aussi des enjeux de cybersécurité, car la manipulation des données ou l’accès non autorisé aux modèles peut fragiliser l’ensemble. Enfin, un jumeau numérique mal conçu peut renforcer les cloisonnements internes en raison de formats propriétaires ou d’un manque d’interopérabilité, générer des erreurs dans la détection des signaux faibles, produire une surcharge d’informations et conduire à des décisions hâtives ou mal fondées. Ces risques n’annulent en rien son intérêt, mais rappellent qu’il doit être conçu, gouverné et interprété avec rigueur.

« Des vœux de gravats » en campagne

Créé par et pour les fabricants de produits et matériaux de construction d’origine minérale, Écominéro est l’un des éco-organismes agréés dans le cadre de la filière à responsabilité élargie du producteur (REP) dédiée aux produits et matériaux du secteur du bâtiment. Sa mission consiste à accompagner les acteurs du terrain dans la gestion des déchets inertes, en apportant des solutions opérationnelles de reprise, de tri et de valorisation, tout en contribuant à la réduction des dépôts sauvages.

À travers son action, l’éco-organisme vise à simplifier la mise en conformité réglementaire des entreprises concernées par la responsabilité élargie du producteur des produits et matériaux de construction du bâtiment (REP PMCB), tout en participant à la structuration d’une filière industrielle capable de transformer les déchets minéraux en ressources. Cette logique s’inscrit dans une trajectoire de construction durable, fondée sur la valorisation de la matière et la limitation des impacts environnementaux liés à l’abandon ou à l’enfouissement des gravats.

Un réseau national au service de la reprise et de la valorisation

L’un des leviers majeurs déployés par Écominéro repose sur le développement d’un maillage territorial dense de solutions de reprise. L’éco-organisme s’appuie sur un réseau de plus de 4 000 points de reprise répartis sur l’ensemble du territoire français, y compris dans les départements et régions d’outre-mer. Cette couverture vise à garantir un accès de proximité aux détenteurs de déchets inertes, qu’il s’agisse d’entreprises du bâtiment, d’artisans ou de chantiers de plus grande ampleur.

En facilitant l’accès à ces solutions, Écominéro entend répondre à l’une des causes identifiées des dépôts sauvages, à savoir l’absence ou l’éloignement de dispositifs de reprise adaptés. La logique défendue repose sur une gestion plus fluide des flux de déchets minéraux, depuis leur production sur les chantiers jusqu’à leur intégration dans des filières de valorisation, notamment pour les besoins de la construction et des usages industriels.

Au-delà de l’infrastructure, l’éco-organisme revendique une approche de filière, combinant exigences réglementaires, organisation logistique et objectifs environnementaux. Écominéro est par ailleurs constitué en entreprise à mission(1), avec des objectifs sociaux et environnementaux intégrés à sa gouvernance.

Sensibiliser aux enjeux environnementaux de la filière minérale

Si la structuration opérationnelle constitue un pilier de l’action d’Écominéro, la sensibilisation des acteurs et du grand public figure également parmi ses axes de travail. Dans cette optique, l’éco-organisme a lancé en décembre 2025 une nouvelle campagne de communication destinée à rappeler les enjeux environnementaux associés aux déchets du bâtiment, en particulier la lutte contre les dépôts sauvages et la nécessité de valoriser les déchets inertes.

Cette campagne adopte un ton volontairement accessible et décalé afin de rendre visibles des problématiques souvent perçues comme techniques ou éloignées du quotidien. Elle s’inscrit dans une stratégie plus large visant à faire évoluer les pratiques, en rappelant que les déchets minéraux peuvent disposer d’une seconde vie dès lors que les filières de reprise sont mobilisées.

L’initiative illustre la volonté d’Écominéro de conjuguer outils industriels et pédagogie, dans un contexte où la REP PMCB transforme en profondeur les responsabilités des producteurs et des metteurs sur le marché de matériaux de construction.

Un film pour incarner les enjeux de la REP PMCB

L’annonce de cette campagne s’accompagne de la diffusion d’un film, conçu comme un support de sensibilisation grand public. Réalisé avec l’agence Créapills, le film met en scène plusieurs déchets inertes abandonnés dans un dépôt sauvage, donnant la parole à des matériaux emblématiques du bâtiment pour rappeler leur potentiel de recyclage.

Le film vise à illustrer de manière concrète et narrative les objectifs poursuivis par la filière REP, en soulignant qu’une gestion adaptée des déchets minéraux permet non seulement de limiter les atteintes à l’environnement, mais aussi de renforcer l’économie circulaire dans le secteur de la construction. Il constitue un prolongement pédagogique des actions menées par Écominéro sur le terrain, en donnant à voir les enjeux de la reprise et de la valorisation à travers un format accessible.


(1) Ce statut, créé par la loi Pacte de 2019, permet à une entreprise d’affirmer que son activité poursuit un intérêt collectif et que cet engagement fait partie intégrante de sa stratégie.

La revue de presse quotidienne du 17 décembre 2025 : énergie, intelligence artificielle, compétitivité

Les dynamiques industrielles et technologiques européennes se dessinent aujourd’hui à la croisée de choix politiques structurants, d’investissements stratégiques et d’avancées scientifiques rapides. Les questions de souveraineté, d’approvisionnement, de transition énergétique et de compétitivité industrielle occupent une place centrale, sur fond de recomposition des cadres réglementaires. En parallèle, l’accélération des usages de l’intelligence artificielle et des sciences des matériaux ouvre de nouvelles perspectives pour la recherche et l’industrie, tout en posant des enjeux majeurs de gouvernance et d’équilibre économique.

La France durcit sa position sur l’accord commercial UE-Mercosur, créant des tensions politiques et commerciales

La France a appelé à retarder ou à revoir l’accord de libre-échange entre l’Union européenne et le Mercosur (Argentine, Brésil, Paraguay, Uruguay). Cette décision reflète les fortes oppositions internes des secteurs agricoles et industriels et qui pourrait isoler Paris dans les négociations européennes (Le Monde).

Engie met en service une centrale stratégique en Belgique pour sécuriser l’approvisionnement électrique

L’énergéticien français Engie a annoncé la mise en service d’une centrale à cycle combiné gaz-vapeur de 875 MW en Belgique. Ce projet vise à renforcer la résilience des réseaux électriques et à faciliter l’intégration des énergies renouvelables (Boursorama).

L’opérateur RTE alerte sur le besoin d’accélérer l’électrification pour soutenir la décarbonation et l’industrie

RTE appelle à un effort national pour accélérer l’électrification des usages (industrie, transports, bâtiments) afin de réduire la dépendance aux énergies fossiles et soutenir la réindustrialisation bas-carbone, malgré un contexte de surcapacité électrique en France (energynews.pro).

Le Conseil de l’UE adopte des orientations sur l’environnement et la bioéconomie à l’horizon 2030

Les ministres de l’Environnement de l’Union européenne devraient approuver des conclusions pour renforcer la résilience face au changement climatique et à promouvoir une bioéconomie compétitive et durable. L’accent est mis sur la circularité, la gestion des ressources et l’innovation verte (Consilium).

Des technologies basées sur l’IA déployées pour surveiller les débris orbitaux

Depuis Toulouse, des solutions fondées sur l’intelligence artificielle associées à des réseaux de capteurs au sol et en orbite sont utilisées pour surveiller l’environnement spatial et anticiper les risques de collisions entre satellites. L’enjeu est crucial pour la sécurité et la durabilité des activités en orbite (La Gazette du Midi).

Les prévisions IA pour 2026

Les prévisions technologiques 2026 d’Analog Devices projettent une intensification de l’IA intégrée dans la robotique humanoïde, des systèmes embarqués et des architectures de calcul analogique en périphérie. Les applications industrielles et mobiles de l’intelligence artificielle en seraient transformées (DirectIndustry e-Magazine).

L’Union européenne intensifie ses réflexions réglementaires sur l’intelligence artificielle et la législation numérique

Les négociations au niveau de l’UE sur un projet de texte législatif pourraient modifier à la fois le RGPD et l’AI Act, formant une seule initiative législative globale. Cette réforme législative en cours suscite un débat politique important sur l’équilibre à trouver entre innovation technologique et protection des droits des citoyens européens.

Le débat européen sur les matières premières critiques se renforce pour sécuriser les chaînes d’approvisionnement industrielles

Des acteurs industriels et politiques européens appellent à une stratégie coordonnée sur les matières premières critiques, un enjeu central pour les industries de la transition énergétique, des batteries, et des technologies numériques, dans un contexte de concurrence géopolitique accentuée avec la Chine sur ces ressources essentielles (Le Journal des Entreprises).

Google DeepMind annonce un laboratoire scientifique automatisé au Royaume-Uni axé sur les matériaux avancés

Ce nouveau laboratoire automatisé exploite des technologies d’IA et de robotique pour accélérer la recherche sur des matériaux critiques comme les supraconducteurs, les semi-conducteurs et les cellules solaires, illustrant la convergence entre IA, matériaux et innovation scientifique appliquée (Financial Times).

L’Union européenne ouvre une enquête antitrust sur Google concernant l’usage de contenus pour entraîner ses IA

La Commission européenne a lancé une investigation visant Google pour déterminer si l’usage de contenus en ligne (articles, vidéos) afin de former ses systèmes d’IA viole les règles de concurrence. Cette actualité réglementaire majeure autour de l’IA en Europe pourrait avoir des impacts sur les modèles économiques des plateformes et des éditeurs de contenu numérique (AP News).

Des plateformes de science des matériaux intégrant intelligence artificielle et données unifiées révolutionnent la recherche fondamentale

Alors que les travaux techniques continuent, des infrastructures comme MaterialsGalaxy fusionnent données expérimentales et modèles théoriques à l’aide d’IA générative pour accélérer la conception de nouveaux matériaux. Cette avancée scientifique pourrait encourager l’innovation industrielle dans l’électronique, l’énergie et les matériaux avancés (arxiv.org).

5 cadeaux Tech pour toute la famille

Des robots éducatifs dopés à l’IA

Le robot interactif Miko 3
Grâce à une IA (Deep Learning), le robot interactif Miko 3 peut interagir avec l’enfant

Attention : sujet polémique ! Entre innovation éducative et risques éthiques, les jouets-robots à apprentissage automatique ou connectés à ChatGPT rencontrent un fort succès en 2025. À la croisée des chemins entre éducation, divertissement intelligent, et compagnons interactifs, ces nouveaux produits séduisent aussi bien les enfants que les adolescents ou les adultes.

Parmi les très nombreux produits disponibles, citons la gamme de robots éducatifs et interactifs Miko qui combinent conversation naturelle, reconnaissance faciale et émotionnelle, mobilité autonome et proposent des jeux interactifs ainsi que des activités STEM.

Si les fonctionnalités IA permettant une adaptation à l’enfant peuvent faire peur, l’appareil intègre cependant des garde-fous : contrôle parental sécurisé, chiffrement des données échangées et aucune publicité.

Les lunettes de sport connectées

META, la maison mère de Facebook, est entré cette année au capital du lunettier franco-italien EssilorLuxottica, afin de renforcer sa présence sur le secteur des lunettes connectées.

Après Ray-Ban, c’est maintenant Oakley, une autre marque du groupe franco-italien, qui aura droit à ses modèles connectés. Avec leur design orienté sport, les nouvelles lunettes Oakley Meta Vanguard sont conçues pour les sports à haute intensité : VTT, ski, etc. Mais quelles sont leurs fonctionnalités ?

lunettes connectées Oakley Meta Vanguard
Les nouvelles lunettes connectées Oakley Meta Vanguard ont un look taillé pour la pratique sportive

Certifiées IP67, ces lunettes permettent de prendre des photos et vidéos, de lire de la musique et bien plus encore. Car il faut le dire, ces modèles sont bourrés de technologie : intégration en temps réel avec Garmin et Strava pour les statistiques de course, assistant vocal Meta AI pour reconnaissance d’objets, traductions ou questions concernant l’environnement autour, ce ne sont pas les fonctionnalités high-tech qui manquent !

Une souris Bluetooth pliable

Pliable, oui, vous avez bien lu, car ce n’est pas un hasard si cette souris porte le nom d’OrigamiSwift !

Souris pliable Origami Swift
Ergonomique, la souris pliable Origami Swift a surtout un design minimaliste

Créée par un designer du nom d’Horace Lam, cette souris conçue pour la mobilité est une belle innovation qui allie minimalisme, élégance et praticité. Comme la plupart des souris modernes, elle embarque deux boutons physiques, un capteur optique infrarouge et elle est compatible Bluetooth 5.2. Mais au delà de son design (une vingtaine de coloris proposés !), elle se démarque aussi par une zone tactile centrale qui fait office de molette et la rend particulièrement silencieuse.

Analogue 3D : une console rétrogaming qui fait tourner les cartouches de jeux nintendo 64 sur les TV 4K !

Console Analogue 3D
L’Analogue 3D est une console de retrogaming basée sur la technologie FPGA qui peut lire de vrais cartouches de N64 !

Vous aimez surfer sur la nostalgie ? Si vous avez grandi dans les années 90, vous allez être servi ! Voici un produit qui vous fera revenir a noël 1996, puisqu’il s’agit d’une console retrogaming capable de lire les véritables cartouches de Nintendo 64, mais sur écran 4K.

Considérée comme un produit rétro « premium », la console embarque une foule d’options : manette Bluetooth, 100% compatible avec les manettes d’origine, interface qui permet une multitude de réglages graphiques, multijoueur… Il est même possible de faire de l’overclocking !

REGENBOX : un régénérateur de piles alcalines

Recharge de piles RegenBox 2
La RegenBox 2 s’alimente en USB-c et peut recharger 4 piles alcalines AA ou AAA

Vous pensiez que seules les piles rechargeables pouvaient être rechargées ? Hé bien, vous aviez tort ! Dans les années 1980, le chimiste Karl Kordesch (et l’un des inventeurs de la pile alcaline) a démontré qu’il était possible de recharger n’importe quelle pile alcaline jetable en effectuant un rechargement progressif à faible courant. Son invention fut alors brevetée et un premier chargeur fut commercialisé en 1994, malheureusement sans succès.

Mais 40 ans plus tard, la lutte contre le gaspillage redonne à cette invention l’éclairage qu’elle mérite. En 2021, le brevet, tombé dans le domaine public, a poussé l’entreprise Regenfab à lancer la RegenBox, le chargeur qui « redonne vie aux piles alcalines jetables ».

Si vous collectionnez les piles AA et AAA usagées chez vous, ce produit est donc une aubaine, puisqu’il vous permettra de leur donner une seconde vie. Ce petit boîtier, actuellement dans sa version 2, est capable d’accueillir 4 piles. Il est aussi très simple d’utilisation : 4 LED (une par pile) indiquant si la pile est trop usée pour être rechargée (rouge), en charge (jaune) ou presque neuve (vert).

Vous pouvez passer commande sur le site RegenFab, mais dépêchez-vous si vous souhaitez mettre ce nouveau produit Made In France sous le sapin !

 

« Les jumeaux numériques-physiques offrent un environnement de test réaliste pour dérisquer les investissements industriels »

Dans le contexte de l’industrie 4.0 et de la transformation numérique des usines, la question de la cybersécurité devient centrale. Comment connecter les systèmes de production tout en les protégeant contre les cyberattaques

Vincent Thavonekham, Président cofondateur de FactoVia et spécialiste de la connectivité des systèmes industriels, ainsi que Itamar Ferreira Dos Santos, expert en cybersécurité OT/IoT, ont expliqué aux Techniques de l’Ingénieur comment l’architecture Unified Namespace (UNS) et les jumeaux numériques-physiques peuvent répondre à ces défis.

Pouvez-vous nous présenter le contexte et les enjeux de la sécurisation des installations industrielles ?

Vincent Thavonekham : Sans être RSSI, mon rôle est de concevoir des architectures de données industrielles qui intègrent nativement les contraintes de cybersécurité dès la conception. C’est là tout l’enjeu. Or, les données, il y en a partout, et les usines reposent généralement sur deux domaines d’informatiques distincts : l’informatique industrielle de production d’un côté, et l’informatique de gestion et de supervision métier de l’autre, ce qu’on appelle respectivement en anglais « Operational Technology » (OT), et « Information Technology » (IT). 

Le problème, c’est que beaucoup d’usines tournent encore sur des systèmes d’exploitation anciens, donc sous de vieilles versions de Windows non maintenues. On parle de “legacy”. La plupart des entreprises ont fait un mur autour de ces systèmes pour éviter les attaques, ou que les données ne s’échappent. Mais aujourd’hui, tout va plus vite, et pour mieux gérer la production, optimiser l’énergie, on a besoin d’ouvrir ces systèmes. Or, si on les ouvre sans précaution, cela peut constituer une porte d’entrée à toutes les attaques possibles. L’enjeu n’est pas d’opposer IT et OT, mais de les faire collaborer dans un cadre architectural maîtrisé et cybersécurisé : il y a des techniques éprouvées pour cela ! Encore faut-il avoir l’expérience pour savoir les mettre en place.

C’est toute la problématique de ce qu’on appelle la convergence IT/OT : on en a absolument besoin, le monde entier en a besoin, mais comment la mettre en place concrètement au-delà des livres blancs et séminaires ? 

Ma spécialité, c’est justement cette connectivité et interopérabilité que l’on étend généralement au cloud – cloud privé ou public. Aujourd’hui, avec mes 15 ans d’expérience sur des projets d’envergures, je travaille sur un principe d’architecture mondial ouvert et gratuit, qui s’appelle Unified Namespace, ou UNS.

Qu’est-ce que l’Unified Namespace exactement et comment fonctionne-t-il ?

Vincent Thavonekham : L’UNS, est une réponse concrète à la problématique de convergence IT/OT. Ce n’est ni un produit, ni une architecture, mais un principe d’architecture. La nuance est vitale ! Cela permet de structurer et contextualiser les flux de données industrielles. Nous le mettons en place dans les groupes industriels (aéronautique, automobile, transport, énergie, industrie manufacturière…) mais aussi dans d’autres secteurs comme la santé, en particulier pour la gestion des groupes hospitaliers… Ces groupes ont des budgets R&D conséquents, mais ne savent pas comment faire en sorte que la donnée reste de qualité dans le fonctionnement quotidien des systèmes productifs. En effet, sur le papier tout est parfait, mais dans le monde réel la donnée est produite par des systèmes parfois défaillants, ou manipulée par des humains. Ce qui la rend incomplète, voire corrompue. Le risque est le fameux “garbage in, gabage out”, c’est-à-dire qu’une donnée de mauvaise qualité en entrée génère un résultat productif de mauvaise qualité à la sortie. Ce risque est encore plus aigu quand il s’agit d’intégrer de l’IA dans les systèmes industriels. Concrètement, l’UNS permet à tous les systèmes de l’usine, et même en dehors, de dialoguer entre eux, et cela jusqu’au cloud, dans les deux sens. Décrit ainsi, cela peut sembler trivial ; toutefois, dans un contexte de cybersécurité accru, combiné à des normes industrielles complexes, cela ne l’est pas. L’UNS se base sur des principes d’innovation d’usage de rupture, et répond enfin aux challenges de la majorité des industriels qui rencontrent des problématiques structurelles de données en silos. Avant, chaque intervenant de l’entreprise était doué sur son sujet : l’automaticien était bon en automatisme, l’informaticien décisionnel était expert en « datawarehouse »… et l’équipe cybersécurité contraignait tous les accès de tout le monde. Conséquence, l’informatique était morcelée en silos ; pour continuer à fonctionner et contourner cela les ERP, comme SAP ou autre par exemple, envoyaient les informations sous forme de fichiers texte, et le moindre décalage de caractère dans le fichier cassait toute la production. Autre exemple en 2025, on imprime toujours des étiquettes éphémères, d’une durée de vie de 5 minutes, le temps d’être lues après par un autre système, qui va lui-même imprimer une étiquette définitive. Des tonnes de papier par an gaspillé dans le monde, car il manque une continuité numérique.

Je trouve que l’UNS porte mal son nom, car trop technique et créé de nombreuses ambiguïtés. A l’origine, il unifie tous les “namespaces”, c’est-à-dire tous les espaces de noms des différents systèmes informatiques, pour qu’ils puissent circuler partout où c’est autorisé, en temps réel, et sans conflit ; un peu comme le même nom de rue, mais avec un code postal différent. C’est comme si on avait créé l’espéranto pour l’usine : L’UNS agit comme un modèle de données partagé, lisible à la fois par les machines et par les équipes humaines de différentes nationalités et BU. Et surtout, il s’agit d’un référentiel véritablement unique : Entreprepôts/stocks, commandes, capteurs, décisionnel, maintenance, RH … tout est unifié, partout. Par contre, l’UNS ne remplace pas les systèmes existants, il les orchestre sans « couplage rigide » entre les différents éléments, contrairement à d’autres principes.

Mais qu’est-ce que cela implique en termes de cybersécurité ?

Itamar Dos Santos Ferreira : Quand Vincent décrit l’UNS, on comprend qu’on vient ajouter de nouveaux systèmes, de nouvelles connexions pour améliorer la production. Mais d’un point de vue cyber, cela signifie qu’on ajoute ce qu’on appelle une surface d’attaque supplémentaire. Plus on a de systèmes connectés, plus on a de chances de se faire attaquer.

Il faut donc que, dès la conception de ces systèmes UNS, tout soit bien cadré. On ne peut pas tout bloquer, sinon on perd l’agilité qui est justement l’objectif de la solution. Si on bloque tout, on n’est plus agile et on perd la fonction même du produit.

Côté UNS, nous travaillons sur la sécurisation de la plateforme elle-même et l’environnement cloud qui va fournir ces services. Avec les jumeaux numériques, il y a aussi tous les risques liés à l’exposition : toute l’ingénierie de l’usine se retrouve modélisé dans ces jumeaux numériques. Si c’est compromis, il y a une perte importante de propriété intellectuelle, des risques de sabotage… On alerte donc les clients sur ces problématiques. Dans un jumeau numérique, il faut s’assurer de l’anonymisation des données, s’assurer qu’on ne met pas d’informations confidentielles dans ces environnements, et que l’interconnexion entre ces systèmes se fait de manière sécurisée.

Concrètement, quelles sont les mesures de sécurité mises en place ?

Itamar Dos Santos Ferreira : Afin de ne pas impacter les véritables usines, on créé des « environnement de laboratoires » qui reproduisent les principes architecturaux critiques, selon une approche s’inscrivant dans les référentiels CRA, NIS 2, IEC 62443 (ISA-95) et les principes Zero Trust, avec un curseur pragmatique et ajusté à l’OT. On ne reproduit pas l’intégralité d’un site industriel, mais on rajoute des « bouchons », plus connu sous le nom de « Mocks / Stubs » en anglais. Puis on travaille sur la segmentation réseau pour isoler les différents systèmes. Chaque système a une couleur différente selon son niveau de sensibilité, et on définit précisément quels flux sont autorisés à passer entre eux.

Il y a évidemment un firewall qui isole toute communication vers l’extérieur de l’usine, qui doit passer par des infrastructures sécurisées. On utilise aussi ce qu’on appelle un « jump server », un serveur dédié pour l’administration. Si on ne passe pas par là, on ne peut pas modifier le reste du système, qui est vue comme une boite noire.

Côté cloud, il y a toute la partie séparation des groupes de sécurité et isolation des services. La sécurisation de la communication entre l’usine et le cloud passe en général par un VPN. A noter que, sans entrer dans les détails, les techniques de l’UNS permettent d’administrer l’OT, avec les principes de sécurité sous-jacentes au VPN, sans passer par un VPN. Ce sont toutes ces briques que l’on va implémenter dans un laboratoire pour s’assurer que tout fonctionne de manière sécurisée.

Quel est le rôle du jumeau numérique-physique dans cette approche ?

Vincent Thavonekham : C’est un point crucial. Tout le monde parle de jumeaux numériques, qu’on modélise par exemple auprès les acteurs leaders du cloud publique (Azure, Amazon, Google). Le problème avec les gros industriels, c’est qu’ils ont tellement cybersécurisé leur cloud public, qu’il est devenu presque inutilisable pour des usages d’expérimentations Agiles. Moi qui suis un ancien expert cloud, je ne peux pas travailler efficacement dans ces environnements hautement bridés.

C’est pourquoi on a créé un jumeau numérique ET physique. La partie physique, c’est tout le matériel réel de l’OT : capteurs de vibration, automates, caméra, écrans industriels… Ces équipements coûtent une petite fortune, mais imaginons que l’on repère dans une usine un problème de mise à jour logiciel, survenu, on suppose, suite au branchement d’un câble réseau sur une caméra. C’est assez étrange comme problème, et on veut en savoir plus, avec plusieurs tests. Or on ne peut pas interrompre la production et gêner les collègues de l’usine à faire des tests d’investigations durant plusieurs jours. Dans un jumeau purement numérique, on ne pourrait pas diagnostiquer rapidement ce problème. C’est la limite de la modélisation « numérique » : c’est trop théorique et mathématique ! Là, dans un laboratoire numérique-physique, je branche le câble réseau physique, ça marche ou ça ne marche pas. Donc, si on a un problème en production, on le recrée en physique-numérique de dehors de l’usine ; une fois qu’on a compris, on réimporte notre connaissance dans l’usine réelle. A l’inverse, avant de créer une nouvelle usine à 50 millions ou 1 milliard d’euros, on peut tout tester dans cet environnement de jumeau numérique-physique afin de débusquer les problèmes et dérisquer les projets ; plus on travaille dessus, plus on économise de coûts en ne perturbant pas la production.

Enfin, le jumeau numérique-physique permet de tester les paramètres de cybersécurité des systèmes industriels. On peut jouer avec les réglages des firewalls, la segmentation des réseaux, les « EDR », réaliser des tests de pénétration… et trouver le point optimal entre protection et agilité. Sans tout sur-sécuriser, ni sous-sécuriser non plus.

Un changement culturel est-il nécessaire dans l’industrie pour adopter ces approches ?

Itamar Dos Santos Ferreira : Absolument. On a toujours grandi dans un monde industriel où il fallait impérativement isoler les systèmes de production. Mais aujourd’hui, on a besoin de plus en plus de visibilité pour améliorer la production. On rajoute donc des capteurs, de l’IoT, et on commence à connecter tout ça. C’est la fameuse convergence IT/OT qui se termine trop souvent en échec sécuritaire et en résistance au changement.

Le problème, c’est qu’on se retrouve avec d’anciens systèmes qui n’étaient pas du tout prévus pour ça, et qui commencent à recevoir des éléments connectés. Le risque devient donc énorme. Ces usines sont là depuis 20-40 ans, il n’y avait pas d’attaques dans ces environnements à l’époque. Donc souvent, les ingénieurs pensent que ces attaques ne se produiront jamais, mais la menace augmente pourtant tous les ans, et cible de plus en plus les systèmes industriels.

Les attaques cyber sont apparues autour de 2008 dans le monde industriel et se sont banalisées depuis les années 2020. La plus récente a eu lieu chez Jaguar Land Rover, avec plusieurs moins d’arrêt complet et de perturbations d’au moins 3 usines, et des coûts records estimés à plus de 2 milliards €. Les conséquences économiques et humaines peuvent être catastrophiques, d’où l’importance des nouvelles règlementations européennes et en particulier de NIS 2 qui vise à sécuriser les infrastructures critiques.

Vincent Thavonekham : C’est un vrai changement de paradigme. Dans l’industrie, on entend souvent : “ça marche, ça a toujours marché, on ne change pas !”. Je rencontre régulièrement des entreprises qui pensent pouvoir déployer un projet en six mois… Or, rien que la partie de procédures en cybersécurité dans un grand groupe, c’est déjà six mois, minimum. Dans le médical, c’est un an si on est rapide, et souvent plusieurs années.

Les gens ne comprennent pas encore la complexité de ce genre de projets. Ils imaginent que c’est facile : on achète quelques équipements et des capteurs, on met des firewalls, et ça marche. Mais ce n’est pas du tout ça. C’est un véritable métier qui ne s’improvise pas, et c’est pour cela qu’on fait des événements au niveau associatif, pour sensibiliser.

La cybersécurité doit-elle être pensée dès la conception des projets ?

Vincent Thavonekham : Exactement. Il y a un peu cette idée de construire son usine, de la faire fonctionner, et la cybersécurité est quelque chose qui vient après. Alors qu’aujourd’hui, il faut l’intégrer dès le départ, dès la conception.

Un projet d’usine connectée, si cela n’est pas bien organisé, c’est facilement trois ans de perte de temps, où il ne s’est quasi-rien passé, juste des discussions, des réunions, des schéma et des preuves de concepts (PoC). Le projet n’a même pas débuté. Les industriels se disent qu’ils vont faire ça en interne, y compris la partie « Change Management », que c’est facile. Puis n’y arrivant pas, ils demandent de l’aide. C’est tout l’intérêt des coachs externes, qui accompagnent ces industriels, où la phase de « résistance au changement » fait partie des Lois de la nature, et que cela suit une l’évolution naturelle de l’augmentation de maturité de l’industriel. En effet, facilité par le coach, il doit lui-même faire sa route et avoir sa propre opinion, avant de demander de l’aide sur la mise en place de l’UNS.

Est-ce accessible aux petites entreprises avec des budgets limités ?

Vincent Thavonekham : Oui, absolument. Je donne des cours à des étudiants de troisième année en informatique pour alimenter le marché de l’industrie avec des sachants, et c’est aussi l’occasion de prouver que même des jeunes, qui n’ont pas encore débuté leur carrière, peuvent arriver à comprendre l’UNS en trois ou quatre jours, et cela avec très peu de moyens.

Il n’y a donc pas d’excuse pour dire que ça coûte trop cher. Le problème n’est pas financier, il est dans la tête. Le professionnel se met des freins cognitifs par crainte du changement, là où les jeunes accueillent volontiers l’information avec enthousiasme. On en revient au besoin d’avoir un bon coach pour aider à faire son chemin.

Après la phase de conception, nous utilisons des Bonnes Pratiques éprouvées pour déployer une phase « pilote » en production (et non un PoC), où on vise d’avoir des résultats tangibles en 12 semaines. Ce laps de temps court est volontaire pour maintenir motivé les équipes, et ajuster rapidement si besoin.

Comment évaluer le retour sur investissement de ces solutions ?

Vincent Thavonekham : C’est une question cruciale. On parle souvent de ROI. Mais ces projets d’envergure représentent avant tout la fondation stratégique de l’industriel. Il n’y a pas de ROI stricto-sensu ; par contre, il y a plusieurs cas de figure et je vais en présenter trois.

  1. Pour aller au-delà du ROI, il existe une méthode en cours de brevet, développée par Bindioa Ouali, Head of Industrial architectes & smart factory, de Safran Aircraft Engine, spécialisé dans l’industrialisation d’usines. Cette méthode est appelée EVA(R²D) : La valeur économique de la Transformation Digitale.
  2. Dans des secteurs fortement régulés comme le nucléaire ou l’automobile, les décisions d’investissement sont avant tout dictées par la conformité réglementaire, la maîtrise du risque et la capacité à rester sur le marché. L’électrification de l’automobile en est un bon exemple : Nous voyons bien que l’Europe ne demande pas aux constructeurs leurs avis, et savoir s’il y a un ROI immédiat on non. Dans les secteurs régulés, la conformité et la résilience constituent une forme de ROI stratégique.
  3. Une méthode que nous sommes plusieurs à recommander, c’est simplement de faire des sondages auprès des gens de terrain. On va voir le responsable qualité, la maintenance, les opérateurs… et on fait des interviews pour comprendre combien de temps ils perdent par an, et l’impact financier que cela génère. On peut être surpris des réponses, par exemple « je perds 1 jour par semaine à copier-coller des EXCEL, et en plus cela génère des erreurs » ou alors « chaque panne, c’est entre 50k€ et 500k€ de perte ; et j’ai x pannes par an ». C’est une méthode de sondage à 360°, pas un calcul ROI classique. Il y a de nombreuses méthodes différentes pour évaluer un projet. Ca peut varier énormément, mais c’est mieux que rien !  L’important, c’est d’avancer avec le principe mathématique du « cône d’incertitude » : tant qu’à être dans l’incertitude, on part sur une hypothèse et plus on avance, plus c’est précis. Sinon, on reste bloqué pendant trois ans en status quo.

Quels sont les principaux défis que rencontrent les usines aujourd’hui concernant leurs données ?

Vincent Thavonekham : Les données sont hétérogènes et en silos, c’est le point commun à toutes les usines. Premièrement, les données sont hétérogènes. Il y a des automates programmables, des ERP, et pleins d’autres systèmes. Deuxièmement, les données industrielles sont incorrectes – même dans le médical, c’est incorrect -. Troisièmement, elles ne sont pas contextualisées.

Il y a aussi le problème de la source de vérité unique, l’interopérabilité – mon capteur qui ne marche pas est peut-être non interopérable avec d’autres marques – et enfin, il n’y a pas de temps réel. Il faut attendre cinq heures, cinq jours, cinq mois ! Et parfois, au bout de six mois, on n’a toujours pas réussi à récupérer la donnée, parce qu’elle est trop cybersécurisée ou les anciens logs sont effacés.

Il faut bien se rappeler que certaines usines, comme Jaguar au Royaume-Uni, où j’ai travaillé, c’est tellement grand que l’on s’y déplace en vélo ou en bus d’un point à un autre. C’est pour ça que j’ai créé un laboratoire externe, où on a tout sous la main dans un environnement contrôlé.

Un mot de conclusion ?

La sécurisation des usines connectées ne peut plus être une réflexion « après coup ». Elle doit être intégrée dès la conception des projets, avec des architectures comme l’Unified Namespace qui permettent à la fois l’ouverture nécessaire à l’optimisation et la protection contre les cybermenaces. Les jumeaux numériques-physiques offrent un environnement de test réaliste pour dérisquer les investissements.

Le principal défi reste culturel : il faut passer d’une approche cloisonnée à une vision holistique de la connectivité industrielle, où cybersécurité et performance ne s’opposent plus, mais se complètent. C’est un changement de paradigme nécessaire pour l’industrie française et européenne, qui doit rattraper son retard dans ce domaine.

Propos recueillis par Pierre Thouverez

Le best of de vos contenus préférés en 2025 !

Une nouvelle année s’achève, avec son lot d’actualités scientifiques surprenantes, innovantes et passionnantes. Comme tous les ans, Techniques de l’Ingénieur a tâché de suivre l’actualité et d’approfondir les sujets marquants pour comprendre l’évolution de notre monde. 

Une fois de plus, l’intelligence artificielle a été l’un de vos sujets préférés, que nous avons largement abordé dans des articles, dossiers et conférences en ligne. Mais vous avez aussi été particulièrement intéressés par des sujets comme la transition énergétique, l’industrie française et l’emploi. Faisons le point !

Top articles d’actualité

  1. La France contrainte de couper sa production d’électricité faute de débouchés
    Au premier semestre 2025, les coupures volontaires de production d’électricité en France ont connu un fort rebond, selon un rapport publié par RTE.
  2. Black-out en Espagne : l’enquête est lancée
    Événement exceptionnel : toute la péninsule ibérique a été privée de courant électrique le 28 avril dernier.
  3. Ces métiers que l’IA ne pourra pas remplacer
    L’arrivée de l’intelligence artificielle a chamboulé bien des secteurs de l’industrie. Pour autant, il reste des activités dévolues aux ingénieurs pour lesquelles l’IA ne pourra jamais se substituer à ces derniers.
  4. Les grands modèles de l’IA
    Nous présentons ici les différents modèles développés depuis le début de l’IA.
  5. Recyclage chimique des plastiques : état des lieux 2025
    Bien que le secteur de la pétrochimie soit en crise, les démarrages d’usines de recyclage chimique des plastiques se sont multipliés durant les années précédentes.

Top dossiers de la rédac’

  1. Emploi : quel impact réel de l’IA pour les ingénieurs ? 
    L’irruption massive et rapide de l’IA dans l’industrie bouleverse les missions jusque-là dévolues aux ingénieurs. Voyons dans quelle mesure et sur quelles tâches précises.
  2. Airbus, Thalès, Safran, fleurons de l’industrie française de la défense
    A l’heure où la France fait le choix de réinvestir dans son industrie de défense, gros plan sur les géants tricolores de la défense et sur leurs innovations technologiques.
  3. L’IA pousse les portes de l’usine du futur 
    Le développement de systèmes d’IA de plus en plus performants trouve des débouchés dans les usines, pour améliorer la production, la qualité et la sobriété.
  4. EPR : des factures et des promesses
    L’EPR de Flamanville, aujourd’hui raccordé au réseau, est le pilier du futur de la filière nucléaire, en France mais aussi en Europe.
  5. Recyclage : le talon d’Achille des énergies vertes ?
    Les infrastructures de production d’énergies renouvelables, massivement installées depuis plusieurs décennies sur le territoire, posent aujourd’hui la problématique de leur recyclage.

Top livres blancs

  1. L’intelligence artificielle à la conquête des usines
    L’IA est en passe de devenir un levier central de la transformation industrielle. Des start-up innovantes aux centres de recherche publics, tout l’écosystème industriel s’active pour intégrer cette technologie à ses processus.
  2. Les matériaux de la transition énergétique
    L’ensemble des secteurs industriels se réinvente avec des matériaux durables pour répondre aux enjeux climatiques.
  3. Traitements de l’eau en bouteille : scandale sanitaire ou tempête dans un verre d’eau ?
    Des producteurs d’eau ont été épinglés pour pratiques trompeuses. L’occasion de faire un point sur les traitements autorisés pour purifier les eaux dites « conditionnées ».
  4. Matériaux : comment penser l’innovation  ?
    Les matériaux participent à toutes les transitions, de la fabrication additive aux batteries du futur, en passant par la chaîne de valeur de l’hydrogène et la construction durable.
  5. Utiliser l’eau en circuit fermé : un défi pour l’industrie
    Longtemps perçues comme de simples déchets, les eaux usées apparaissent désormais comme une ressource précieuse à recycler et à valoriser.

Top conférences en ligne

  1. Chercher, trouver, comprendre : l’IA générative au service de la veille scientifique et techniques
    L’intelligence artificielle générative s’impose comme un outil très puissant pour optimiser la veille scientifique et technique. Comment fonctionne-t-elle ?
  2. Agents IA et conversationnels : usages et applications avancées au service de la veille stratégique en entreprise
    Alors que l’IA transforme profondément les pratiques professionnelles, l’attention se déplace aujourd’hui des LLM vers les agents IA, suscitant autant d’enthousiasme que de questions.
  3. Métaux et batteries lithium-ion : enjeux et défis de la transition énergétique et de la mobilité électrique
    La transition énergétique implique des progrès technologiques significatifs pour produire et stocker de l’énergie de manière durable. Les métaux jouent un rôle crucial dans cette transition.
  4. L’IA dans les usines : quelle réalité aujourd’hui ?
    L’intégration de l’IA dans des processus industriels, parfois critiques, est aujourd’hui une réalité. C’est par exemple le cas dans le secteur du nucléaire.
  5. Sécurité et nouveaux modèles d’intelligence artificielle
    Le règlement européen sur l’intelligence artificielle, adopté il y a quelques mois, doit veiller à ce que les systèmes d’IA mis sur le marché respectent les droits humains et les législations en vigueur.

Top articles de ressources documentaire

  1. Maintenance prédictive intelligente et industrie 5.0 : IA, agents conversationnels et métavers 
    Cet article décrit les concepts de maintenance prédictive intelligente de l’industrie 5.0.
  2. Intelligence artificielle et innovation – Définitions et principes
    Cet article propose une introduction aux concepts de base de l’apprentissage machine, dans l’objectif de comprendre comment ces techniques contribuent à l’innovation.
  3. Voiture électrique, voiture à hydrogène
    Avec plus de 9 millions de voitures électriques vendues dans le monde entier en 2023, le véhicule électrique est devenu un moyen de transport individuel important. Environ 14 500 voitures à hydrogène ont été vendues à la même époque marquant un intérêt naissant dans ce domaine.
  4. Simulation énergétique dynamique (SED) – Maîtrise des consommations d’énergie 
    Des outils ont été créés afin de pouvoir concevoir des projets de construction efficaces et sobres en énergie. Ces logiciels de modélisation thermique se nomment « outils de simulation thermique dynamique ».
  5. Aciers inoxydables – Critères de choix et structure
    Cet article donne un rapide survol de l’histoire des aciers inoxydables ainsi que de leurs principales utilisations, puis développe leur classification en 5 catégories.

Top fiches pratiques des ressources documentaires

  1. Le risque cyber
    Le risque cyber peut émaner d’une erreur humaine ou d’un accident. Se protéger du risque cyber n’est plus un choix, mais une obligation.
  2. Gérer les émotions dans une crise cyber
    Des émotions fortes comme la peur et la panique perturbent la pensée rationnelle pendant les crises, conduisant à une mauvaise prise de décision. L’idée ici est de comprendre les réponses émotionnelles dans la gestion des crises.
  3. Identifier son positionnement et les enjeux du pitch
    Pitcher, ce n’est pas simplement présenter une idée ou décrire un produit. C’est provoquer une décision, créer une opportunité, susciter un intérêt, marquer un esprit. 
  4. Le transport des marchandises dangereuses : structure de la réglementation
    Les marchandises dangereuses sont très présentes dans notre vie économique. Comment savoir si la réglementation transport des marchandises dangereuses s’applique à votre activité ?
  5. Maîtriser le traitement physico-chimique des déchets
    Les déchets liquides et solides produits par les entreprises présentent des dangers physiques et chimiques variés qu’il convient d’étudier.

Un accélérateur stratégique pour l’électromobilité et les systèmes énergétiques

Le 3 décembre, VEDECOM a franchi une nouvelle étape dans sa mission d’accompagnement de la transition des mobilités avec l’inauguration du VEDECOM MobiXlab. Implanté à Versailles-Satory, ce centre d’innovation est entièrement dédié à l’électromobilité et aux enjeux énergétiques associés, dans un contexte où la montée en puissance des véhicules électriques pose des défis technologiques, industriels et systémiques majeurs. Co-financé par l’État dans le cadre de France 2030, MobiXlab incarne une volonté claire de faire émerger en France des solutions robustes, interopérables et industrialisables, capables de soutenir un déploiement à grande échelle.

Le projet s’inscrit dans un partenariat de long terme entre VEDECOM et NextMove, pôle de compétitivité Automobile et Mobilités en Normandie et en Île-de-France. Depuis la création de VEDECOM, labellisé Institut pour la Transition Énergétique en 2014, les deux structures avancent de concert pour faire le lien entre recherche appliquée, expérimentation et industrialisation. Là où VEDECOM apporte ses compétences en R&D, en démonstrateurs et en plates-formes d’essais, NextMove joue un rôle structurant en accompagnant le montage des projets, leur labellisation, leur financement et leur connexion aux besoins concrets des industriels et des territoires. MobiXlab est aujourd’hui l’illustration la plus aboutie de cette complémentarité.

Un tiers de confiance pour structurer la filière électromobilité

Conçu comme un véritable outil au service de la filière, VEDECOM MobiXlab repose sur une double brique. Il combine une infrastructure de test en environnement réaliste et une plate-forme digitale, permettant de couvrir l’ensemble de la chaîne d’innovation, depuis l’expérimentation jusqu’à la précertification. L’objectif est de dépasser le stade du prototype pour accélérer l’arrivée sur le marché de solutions de recharge intelligentes, fiables et sécurisées, capables de s’intégrer durablement aux réseaux énergétiques existants. Dans un contexte de forte pression sur les infrastructures électriques, le centre entend répondre aux enjeux d’interopérabilité, de cybersécurité, de performance et de viabilité économique.

MobiXlab se positionne ainsi comme un tiers de confiance neutre et mutualisé. Il fédère l’ensemble des acteurs de l’écosystème, des start-up aux grands groupes industriels, en passant par les PME, les équipementiers, les énergéticiens, les constructeurs, les gestionnaires d’infrastructures et les fournisseurs de services. Cette diversité est au cœur du modèle du centre, qui vise à rapprocher les cas d’usage du terrain des exigences normatives et réglementaires. En facilitant l’expérimentation, la qualification et la démonstration des solutions, MobiXlab contribue à sécuriser les trajectoires technologiques et à réduire les risques liés au passage à l’échelle industrielle.

Pour VEDECOM, ce nouveau centre renforce une mission historique d’accélération de la transition vers des mobilités plus durables. Soutenu par ses membres fondateurs que sont l’Université Gustave Eiffel, l’ESTACA, l’ESIGELEC et Renault Group, ainsi que par le département des Yvelines et Stellantis, l’Institut consolide sa capacité à faire émerger des technologies stratégiques pour la souveraineté industrielle française et européenne. L’électromobilité ne se limite plus au véhicule lui-même, mais devient un système global où énergie, numérique et usages sont étroitement imbriqués.

NextMove, catalyseur entre recherche, industrie et politiques publiques

Le rôle de NextMove a été déterminant dans l’émergence du VEDECOM MobiXlab. Issu du projet EVCIC, le centre a été déposé dans le cadre de l’appel à projets CORAM 2024, pour un budget d’environ 4,2 millions d’euros. Dès les premières phases, NextMove a accompagné VEDECOM dans l’analyse et la consolidation du projet, la co-écriture du dossier, les échanges avec Bpifrance et la mobilisation d’experts de la filière. La labellisation par le pôle a constitué un gage de crédibilité et de qualité pour les financeurs publics, confirmant la pertinence stratégique du projet.

Implanté au cœur de l’axe Seine, MobiXlab bénéficie d’un positionnement géographique particulièrement favorable. Il fait le lien entre les hubs de recherche et d’innovation d’Île-de-France, autour de Versailles-Satory et des grands donneurs d’ordre, et les capacités industrielles et énergétiques de la Normandie, propices au déploiement à grande échelle. Cette articulation territoriale contribue à la décarbonation des mobilités, à la résilience des réseaux et à la montée en puissance de technologies pouvant répondre aussi bien à des usages civils que de défense.

Avec VEDECOM MobiXlab, la France se dote d’un outil structurant pour transformer l’innovation en solutions opérationnelles. En rapprochant recherche, industrie et politiques publiques, le centre crée les conditions d’un leadership durable dans le domaine de l’électromobilité et des systèmes énergétiques associés, à l’échelle nationale comme européenne.

La revue de presse quotidienne du 16 décembre 2025 : agroalimentaire, traditions et repas de Noël

Difficile, cette année, de reconnaître Noël à l’assiette. Les incontournables des fêtes se font plus légers, plus végétaux, plus réglementés aussi, tandis que les symboles culinaires d’hier se réinventent ou s’accrochent à coups de soutiens publics. Entre filières traditionnelles sous perfusion, contenants allégés, débats sur les appellations autorisées et alternatives végétales qui s’invitent sur les tables, le repas de Noël ressemble de moins en moins à une tradition et de plus en plus à un laboratoire. Tour d’horizon de ces nouveautés et substituts qui redessinent le menu des fêtes.

Dénominations des alternatives végétales, un répit européen salué par HappyVore

L’Union européenne a finalement reporté sa décision sur l’encadrement des dénominations des alternatives végétales, alors que l’industrie attendait un arbitrage sur l’usage de termes comme steak ou burger. Ce report est perçu comme une lueur d’espoir par HappyVore, directement concerné par un amendement visant à interdire les appellations associées à la viande pour des produits à base de protéines végétales. Une telle interdiction fragiliserait la lisibilité de l’offre pour les consommateurs et freinerait le développement d’un secteur en forte croissance. Des expressions courantes comme burger végétal ou saucisse végétale jouent pourtant un rôle clé dans l’identification des alternatives, sans créer de confusion lorsque l’étiquetage est clair. Cette hésitation européenne s’inscrit dans un contexte plus large de tensions autour de l’information du consommateur, illustré récemment en France par le rejet de la généralisation du Nutri Score. Pour HappyVore, restreindre ces dénominations irait à l’encontre des objectifs climatiques et de santé publique de l’Union européenne, qui identifie pourtant la réduction de la consommation de viande et le développement des alternatives végétales comme des leviers majeurs de la transition alimentaire.

Des alternatives 100 % végétales au foie gras progressent dans les rayons et sur les tables de fêtes

Plusieurs marques proposent des « faux gras » végétaux qui jouent sur une texture fondante et des arômes festifs proches du produit traditionnel. Ces produits attirent l’attention à l’approche de Noël.
Les commerces multiplient ainsi les options végétales dans leurs assortiments, soulignant que ces alternatives ne se réduisent plus à une niche, mais s’insèrent dans des achats festifs plus larges.

Sur le marché plus large des substituts de foie gras, les offres végétales gagnent progressivement en visibilité dans les magasins bio et spécialisés, avec une diversité croissante de produits à base de noix, champignons ou légumineuses proposés comme alternatives festives ou gastronomiques.

Selon plusieurs analyses de marché, la demande mondiale pour des substituts au foie gras et autres produits festifs d’origine animale est portée par une conscience accrue des enjeux éthiques et environnementaux, une amélioration continue des technologies culinaires végétales et l’intérêt de consommateurs cherchant des options plus durables.

Les chocolats sans cacao émergent comme alternative durable

Face aux tensions croissantes sur la filière cacao, de nouvelles alternatives dites « chocolats sans chocolat » commencent à se faire une place sur le marché. Ces produits cherchent à reproduire le goût, la texture et les usages du chocolat sans recourir aux fèves de cacao, dont la production est confrontée à des enjeux environnementaux, sociaux et économiques majeurs. Les recettes reposent sur des ingrédients comme les graines de tournesol, les céréales ou les légumineuses, transformés par des procédés de fermentation et de torréfaction pour recréer des profils aromatiques proches du chocolat traditionnel. L’objectif est de réduire l’empreinte carbone, de sécuriser les approvisionnements et de limiter la dépendance à une matière première devenue plus rare et plus coûteuse. Bien que ces produits ne puissent légalement porter l’appellation chocolat, ils suscitent un intérêt croissant de l’industrie agroalimentaire et des consommateurs, notamment dans les segments végétal et durable.

Bûches de Noël industrielles quand le volume ne fait pas le dessert

Sous leur apparence festive et généreuse, certaines bûches de Noël industrielles reposent sur des recettes largement aérées.

L’incorporation d’air dans les mousses, crèmes et inserts permet d’augmenter le volume du dessert tout en limitant la quantité réelle d’ingrédients nobles comme le chocolat, la crème ou le beurre. Cette texture légère est rendue possible par l’usage d’émulsifiants et de stabilisants qui assurent la tenue du produit après congélation. Si le poids net indiqué reste conforme à la réglementation, la perception du consommateur peut être biaisée par un format visuellement imposant, mais peu dense. Les décors, glaçages et coques fines renforcent cette impression de générosité sans apporter une réelle valeur gustative supplémentaire. Ces pratiques, autorisées, mais discutables, soulignent les limites de l’information donnée au consommateur et interrogent la place de la qualité réelle dans les desserts festifs industriels.

Subventions à la filière foie gras en Nouvelle-Aquitaine

Un rapport de l’Observatoire des Subventions et Aides Agricoles en France (ObSAF) analyse les financements publics alloués à la filière foie gras en Nouvelle-Aquitaine à partir de documents administratifs régionaux et départementaux. Entre 2022 et 2025, 13,8 millions d’euros de subventions ont été mobilisés, principalement à la suite des crises d’influenza aviaire. Ces aides, majoritairement d’origine européenne et régionale, se concentrent sur la modernisation des élevages et les dispositifs de biosécurité. La filière apparaît marquée par une forte concentration des exploitations et une intensification des modes de production, tandis que le nombre d’élevages a fortement diminué. Les aides à la transformation bénéficient surtout aux industries intégrées, les ateliers fermiers restant marginalement soutenus. Face à ce diagnostic, des pistes de refonte sont avancées autour d’un renforcement de la transparence et de la traçabilité des aides, d’une conditionnalité environnementale et éthique des financements, d’un accompagnement des exploitations vers des alternatives productives et d’un contrôle démocratique accru de l’action publique et de l’information du consommateur.

Telmont généralise le magnum standard allégé

Après avoir inscrit l’allègement de la bouteille standard au cœur de sa stratégie, Telmont franchit une nouvelle étape en adoptant le premier magnum standard allégé en Champagne. La réduction du poids des contenants constitue en effet un levier direct de baisse de l’empreinte carbone, en limitant la consommation de matières premières, l’énergie nécessaire à la fabrication et l’impact du transport. Présentées en 2025 après trois années de tests, les bouteilles standards allégées ont déjà été produites à plus de 635 000 exemplaires par la Maison.

Issu de plusieurs mois de recherche et développement, le magnum standard allégé passe de 1 730 à 1 600 grammes, soit une diminution de près de 7,5 % de son impact environnemental dès la phase de fabrication. Il conserve les mêmes performances de résistance à la pression et de transport qu’un magnum traditionnel, ainsi que sa forme. Ce nouveau format est désormais appelé à être généralisé à l’ensemble des cuvées Telmont. L’innovation, sans exclusivité, est accessible à toutes les Maisons de Champagne souhaitant réduire leur empreinte environnementale sans modifier leurs processus de production.