Lucy, l’ordinateur quantique de Quandela qui brille désormais sur l’Europe

Trois jours. C’est le temps qu’il aura fallu à Quandela pour livrer, installer, et mettre en service in situ « Lucy », le cinquième ordinateur quantique produit par l’entreprise depuis sa création en 2017. Après douze mois de gestation au sein de l’usine de Massy, inaugurée par la scale-up française en 2023 – et dont nous vous avions proposé une petite visite l’an dernier, alors même que Lucy y était en cours d’assemblage –, la machine a franchi le seuil du Très grand centre de calcul (TGCC) du CEA le 15 octobre dernier.

Seulement trois jours plus tard, donc, elle s’éveillait pour la première fois aux côtés du supercalculateur Joliot-Curie du TGCC, avec lequel elle va d’ailleurs être couplée, renforçant ainsi l’environnement partagé de calcul haute performance et quantique du TGCC. « Il s’agit de la deuxième unité de traitement quantique (QPU) de notre centre de calcul, note, en effet, le directeur du CEA DAM Île-de-France Jean-Philippe Verger, qui décrit l’arrivée de Lucy comme une nouvelle avancée sur la voie du calcul quantique hybride ».

L’ordinateur quantique Lucy au TGCC
L’ordinateur quantique Lucy est entré au sein du TGCC le 15 octobre dernier décomposé en différents modules, dont l’assemblage s’est achevé le vendredi 17 octobre. © G. Martel/CEA DAM

Comme ses prédécesseurs Ascella, Altair, puis Belenos – itération dont il partage les caractéristiques techniques – ce modèle d’une capacité de douze qubits physiques bénéficie naturellement de la technologie quantique exclusive développée par Quandela, qualifiée de « photonique », car reposant sur l’émission de « photons uniques ». Des particules sur lesquelles sont opérées des portes quantiques – ces briques de bases des circuits quantiques. « Quand on parle d’une machine à douze qubits photoniques, cela signifie qu’elle est capable de manipuler simultanément douze de ces photons uniques », éclaire – sans mauvais jeu de mots – Valérian Giesz, cofondateur et directeur des opérations de Quandela. Capable, ainsi, de réaliser 576 opérations quantiques par seconde, ce modèle est présenté par ses créateurs comme « le plus puissant jamais déployé dans un centre de calcul européen ».

Une technologie aux multiples atouts

En dépit de ses performances hors du commun, la machine tient dans deux baies de serveur tout ce qu’il y a de plus conventionnelles. Sa puissance électrique de seulement 5 kW – contre a minima 25 kW, d’après Quandela, pour un système équivalent basé sur les technologies supraconductrices promues par des acteurs tels que Google ou IBM – lui permet d’ailleurs de ne requérir qu’une simple alimentation en 230 volts… « Nous avons réussi un tour de force… », se félicite Valérian Giesz, qui souligne ainsi l’un des intérêts majeurs de la technologie quantique photonique de Quandela : sa sobriété énergétique. « Cela découle notamment du fait qu’un grand nombre de composants fonctionnent à température ambiante. Et même pour ceux qui nécessitent un maintien à basse température [source de photons uniques et détecteurs, n.d.l.r.], en comparaison avec d’autres technologies quantiques, notre approche est à peu près cent fois plus “chaude” [avec un maintien des composants, en l’occurrence, à environ trois degrés Celsius au-dessus du zéro absolu, n.d.l.r.]. Ce qui nous permet d’avoir des cryostats très compacts », explique le cofondateur de Quandela. (Des cryostats d’ailleurs fournis par l’Allemand attocube systems AG, dans le cadre d’un consortium formé avec Quandela pour l’occasion.)

Les avantages de la technologie promue par Quandela ne s’arrêtent d’ailleurs pas là. Stable et robuste, l’approche photonique permet aussi à l’ordinateur quantique de Quandela de se passer de systèmes de protection thermique, anti-vibrations ou encore de blindage électromagnétique. « Nous avons mesuré une fidélité moyenne des portes quantiques à deux qubits de 99 %, et nous avons montré qu’il était possible de préparer des états intriqués à plus de trois photons – ce que l’on appelle un état GHZ – avec une fidélité supérieure à 85 % », ajoute Valérian Giesz.

Une large palette de cas d’usage

Après son installation au sein du TGCC à la mi-octobre, le système est aujourd’hui en phase de test d’acceptation, pour une mise à disposition prévue début 2026. Des scientifiques de toute l’Europe pourront alors tirer parti de cette puissance de calcul quantique considérable, pour des travaux de recherche et d’exploration industrielle dans des domaines aussi variés que la cybersécurité, la finance et la blockchain, mais aussi le développement de moteurs à combustion, la mise au point de systèmes de navigation pour drones, ou encore l’étude de phénomènes d’écoulement, sans parler d’autres cas d’usage dans la chimie, les mathématiques, et même l’IA… « Des utilisateurs potentiels nous ont en effet déjà soumis un certain nombre de cas d’usage qu’ils souhaiteraient pouvoir explorer d’ici peu, en utilisant Lucy : des Français comme Thales, EDF, l’Onera, TotalEnergies ; mais aussi des acteurs européens tels que l’Université polytechnique de Bucarest, le Centre européen pour les prévisions météorologiques à moyen terme (ECMWF), ou l’Irish Centre for High-End Computing (ICHEC) », énumère Sabine Maire, responsable des projets quantiques de GENCI[1], opérateur public à la tête, aux côtés du CEA, d’EuroQCS-France ; consortium dans le cadre duquel l’acquisition de Lucy a été réalisée par l’entreprise commune européenne pour le calcul haute performance, EuroHPC.

Tous les composants critiques de la machine sont d’origine européenne
Comme le souligne Valérian Giesz, tous les composants critiques de la machine sont d’origine européenne, à l’image de cette source de photons uniques, fabriquée par Quandela sur sa ligne pilote inaugurée en juin 2024 à Palaiseau. © Benoît Crépin

Une imbrication – pour ne pas dire une intrication – d’entités franco-européennes qui illustre d’ailleurs, au-delà des seuls enjeux technologiques et scientifiques, la dimension stratégique et géopolitique de l’arrivée au sein du TGCC de cette machine, dont 80 % des composants – et même 100 % pour les plus critiques – sont d’ailleurs eux-mêmes d’origine européenne… Comme le note, finalement, Niccolo Somaschi, cofondateur et P.-D.G. de Quandela : « La livraison de Lucy n’est pas seulement une nouvelle étape, c’est un élément clé pour l’avenir du calcul hybride européen. […] Cette réalisation renforce la souveraineté technologique de l’Europe et démontre la puissance de la collaboration transfrontalière pour façonner la prochaine génération du calcul ».

Quandela : une feuille de route toujours sur de bons rails

Il y a un an presque jour pour jour, Quandela dévoilait sa feuille de route 2024-2030. Parmi les objectifs clés de cette roadmap figurait alors le franchissement, à l’horizon 2027, du seuil des 10 qubits dits « logiques », combinaison de centaines de qubits physiques permettant la correction d’erreurs. Une perspective toujours d’actualité, comme nous le confirme Valérian Giesz, cofondateur et directeur des opérations de Quandela : « Nous entendons toujours tenir cet objectif ! Nous comptons notamment, pour cela, déployer d’ici peu à l’échelle du prototype une nouvelle génération de sources de photons, avec un spin comme moyen d’intrication, qui nous permettra de faire la démonstration de l’obtention de ces qubits logiques ». Une première démonstration qui sera alors le point de départ de la montée en échelle de l’approche hybride photonique – semi-conducteur sur laquelle mise Quandela pour l’avenir.

« Ce futur prototype à 10 qubits logiques n’a pas vocation à être commercialisé, mais pourra être mis à disposition de nos partenaires du monde de la recherche. Nous poursuivrons en parallèle notre feuille de route qui nous permettra de franchir le seuil de 50, puis de 100 qubits logiques d’ici à la fin de la décennie », se projette finalement le directeur des opérations de Quandela. Rendez-vous est donc pris pour 2030 ; un horizon auquel Quandela vise l’obtention de 400 millions d’euros de financements supplémentaires, au travers d’une ou plusieurs levées de fonds.

[1] Grand Équipement National de Calcul Intensif, société civile détenue à 49 % par l’État représenté par le ministère en charge de l’Enseignement supérieur et de la Recherche, 20 % par le CEA, 20 % par le CNRS, 10 % par les Universités représentées par France Universités et 1 % par Inria.

La France introduit un affichage de l’impact des vêtements

Le 6 septembre 2025, le gouvernement français a adopté le décret n° 2025-957 ainsi qu’un arrêté associé, fixant les modalités de calcul et de communication du « coût environnemental » des produits textiles d’habillement. Ce nouveau dispositif vise à instaurer un affichage clair de l’impact environnemental des vêtements tout au long de leur cycle de vie, et s’inscrit dans la continuité des politiques d’affichage environnemental et de lutte contre l’« éco-blanchiment ».

Le système est volontaire depuis le 1er octobre 2025, mais il deviendra plus contraignant pour les fabricants, importateurs et distributeurs de vêtements commercialisés en France. Les entreprises qui choisissent d’afficher une mention relative à l’impact environnemental d’un produit devront alors accompagner cette mention du score « coût environnemental » calculé selon la méthodologie définie.

Champ d’application et exclusions

Le dispositif s’applique aux produits textiles d’habillement mis sur le marché français par des fabricants, importateurs ou distributeurs, quelle que soit leur origine. Sont notamment exclus les produits textiles destinés à d’autres usages que l’habillement (linge de maison, couvertures, etc.), les vêtements jetables ou à usage unique, les articles contenant des composants non modélisés (c’est-à-dire dont les données environnementales ne sont pas disponibles et/ou qui ne sont pas intégrées dans le modèle d’évaluation), les chaussures et accessoires, ou encore les vêtements d’occasion.

Méthodologie de calcul

Le score « coût environnemental » agrège les impacts environnementaux tout au long du cycle de vie, depuis l’extraction des matières premières, la transformation, la distribution, l’usage et jusqu’à la fin de vie. La méthode exploite notamment les 16 indicateurs du cadre européen « Product Environmental Footprint » (PEF), tels que le changement climatique, l’acidification, la toxicité humaine ou l’écotoxicité. En complément, elle introduit deux catégories spécifiques aux textiles : le relargage de microfibres et l’exportation de déchets textiles hors Europe.

Un coefficient de durabilité est également appliqué, modulant le score en fonction notamment de l’offre de réparation de l’article ou de la largeur de la gamme (plus une collection est large, plus l’obsolescence estimée est rapide). Le résultat est exprimé en « points d’impact », un chiffre où un score plus faible correspond à un impact environnemental moindre.

Lorsque la marque opte pour l’affichage du coût environnemental ou fait une revendication d’impact environnemental, le score devient obligatoire. L’étiquette, physique ou numérique, affiche deux valeurs : le score total et le score pour 100 g de produit, selon une charte graphique officielle.

À noter que si, au 1er octobre 2026, la marque n’a pas publié son propre score, des tiers (détaillants, ONG, plateformes) pourront publier ce score eux-mêmes sans accord de la marque.

Enjeux et implications pour l’industrie textile

Cette mesure représente une étape majeure pour la filière textile et mode française, confrontée à des enjeux de durabilité, d’écoconception et de transparence. Les fabricants vont devoir cartographier et documenter de manière fine leurs chaînes d’approvisionnement, collecter des données sur matières, procédés, transports, utilisation, fin de vie, etc. Ceux qui s’y prendront tôt pourront transformer cette contrainte réglementaire en avantage compétitif, en avançant un meilleur suivi des performances et l’amélioration des processus, mais aussi une anticipation de la réglementation européenne à venir.

En revanche, l’utilisation de données génériques ou le retard de la mise en œuvre peut conduire à un score défavorable, ce qui pourrait avoir des conséquences sur la réputation, la comparabilité des produits, voire le contrôle par les autorités.

Vers une harmonisation européenne ?

Si le dispositif français est national, il s’appuie sur des principes utilisés au niveau européen (PEF) et peut servir de pilote pour une harmonisation à l’échelle de l’Union. Les acteurs de l’industrie textile devront donc non seulement répondre aux exigences nationales, mais aussi anticiper l’évolution du cadre réglementaire européen.

Le lancement du dispositif « coût environnemental » des produits textiles en France marque ainsi une avancée significative vers une plus grande transparence et responsabilité dans le secteur. Les entreprises concernées doivent désormais être capables de produire des données fiables, de les utiliser pour calculer un score conforme, et communiquer ce dernier de manière visible. Si la phase initiale est volontaire, elle ouvre la voie à une obligation renforcée dès 2026, quand des tiers pourront publier les scores en l’absence d’initiative de la marque. Ce nouveau système pourrait modifier en profondeur la manière dont les produits textiles sont conçus, évalués et perçus par les consommateurs.

La quotidienne : revue de presse du 3 novembre 2025

Entre transitions énergétiques, réindustrialisation et innovations technologiques, l’actualité industrielle de ce début de semaine témoigne des tensions et des avancées qui traversent les grands secteurs français et européens. Relocalisation de la production, adaptation du réseau électrique, mobilité zéro émission ou encore étiquetage environnemental : tour d’horizon des principaux faits marquants du jour dans les domaines de l’industrie, de l’énergie et de la recherche.

Sommet « Choose France » 100 % français pour relancer l’investissement industriel

Le président Emmanuel Macron organise une édition « 100 % française » du sommet Choose France, dédiée uniquement aux entreprises et investisseurs français. L’événement se tiendra à la Maison de la Chimie à Paris le 17 novembre. L’objectif est de mobiliser des capitaux français pour l’industrialisation et la relocalisation dans un contexte de pression internationale sur les chaînes de valeur, notamment dans les secteurs stratégiques de l’énergie, des matériaux, de l’IA ou encore de la mobilité (Le Point.fr).

Partenariat français dans la robotisation de la propreté industrielle

La société Octopus Biosafety (robotique industrielle, via sa filiale du groupe TAW) annonce un partenariat stratégique avec EXCELCAR pour déployer des robots de nettoyage industriel autonomes (AMR) sur la plateforme technologique d’EXCELCAR, située au sein du Pôle d’Excellence de l’Industrie décarbonée de La Janais (Rennes) (Boursorama).

Projet de mobilité urbaine : le premier téléphérique urbain « zéro énergie » en France

L’industriel savoyard MND a remporté le marché pour construire et exploiter à la réunion le projet « ZÈL La Montagne », un téléphérique urbain de 1 315 m de long, dénivelé de 308 m, qui fonctionnera en mode 100 % neutre en énergie. Le projet repose sur un Smart Grid combinant récupération d’énergie (phase de descente) et panneaux photovoltaïques couvrant les gares et bâtiments annexes. La mise en service est prévue pour l’été 2028 (MND).

Innovation durable – Accords & levées de fonds de la semaine

La revue hebdomadaire « L’innovation durable : les deals de la semaine » recense les levées de fonds, financements verts, prêts liés à la performance durable, et obligations durables pour l’industrialisation verte. On peut ainsi lire que Dracula Technologies capte un financement, Greenflex quitte TotalEnergies ou encore le Groupe Avril signe un refinancement durable (rsedatanews.net).

Autoroute A10 : lancement d’un tronçon d’autoroute capable de recharger les véhicules électriques en circulation

Une section de 1,5 km sur l’A10 près de Paris permet désormais la recharge inductive « à la volée » des voitures, bus et camions électriques, ouvrant une nouvelle ère de mobilité lourde décarbonée (newmobility.news).

Stratégie 2040 : la France réclame un « frein d’urgence » sur l’objectif climat à 2040 en raison des incertitudes sur la capacité des puits de carbone naturels

Dans le cadre des discussions européennes sur les cibles d’émissions à l’horizon 2040, Paris appelle à prévoir une clause d’arrêt d’urgence, les puits de carbone forestiers ou technologiques présentant des incertitudes importantes (carbon-pulse.com).

Affichage environnemental des textiles : entrée en vigueur de l’étiquetage « coût environnemental » en France

En application du décret n°2025-957 et de son arrêté, une cotation environnementale des produits textiles (sur tout leur cycle de vie) est désormais disponible en mode volontaire depuis début octobre 2025 (SGSCorp).

10 % de l’énergie solaire et éolienne française perdue au premier semestre 2025 faute d’adaptation du réseau

Le gestionnaire du réseau électrique français a constaté que la croissance rapide de la production renouvelable conduit à des surplus non consommables ou injectables, soulignant les enjeux d’intégration, stockage et flexibilité du système électrique (Connexion France).

Les bornes intelligentes, avenir de la recharge des véhicules électriques

Basé en Norvège, Zaptec est un leader européen des solutions de recharge. Le groupe est présent dans 18 pays et reconnu pour ses technologies innovantes et durables.

Vianney Devienne, CEO de ZAPTEC France
Vianney Devienne, CEO de ZAPTEC France, tenant la borne de recharge Zaptec Pro (Crédit photo : Zaptec)

 Zaptec France développe et commercialise des bornes de recharge intelligentes pour véhicules électriques.

Vianney Devienne en est le Directeur Général. Il est également responsable du développement et de l’adaptation de l’offre sur le marché français.

Techniques de l’ingénieur : Avant d’aborder la recharge intelligente, parlons du maillage des bornes électriques. Est-il suffisant ?

Vianney Devienne : Partons d’un constat initial. L’accord de Paris vise à atteindre la neutralité carbone en 2050. Or, on sait que le transport représente 30 % des émissions de CO2 en France. La transition vers le véhicule électrique, qui est en cours, est donc un levier puissant de décarbonation. Fin septembre, la France comptait plus de 2 350 000 véhicules électrifiés, dont 1,5 million de pur électrique, le reste étant de l’hybride rechargeable.

La trajectoire, pour 2035, c’est jusqu’à 18 millions de véhicules électriques, pour un parc automobile composé de 38 millions de véhicules particuliers. Pour atteindre de tels chiffres, il faut donc continuer de lever les freins à l’achat de l’électrique (prix, autonomie, aides, etc.), mais aussi développer un maillage suffisant de bornes de recharge.

À l’heure actuelle, le maillage français est plutôt bon, si on le compare à celui de nos voisins européens. En effet, on compte déjà 1,4 million de bornes chez le particulier, presque 1 million en entreprise, 170 000 bornes ouvertes au public (parkings, supermarchés, etc.) et 34 000 bornes de recharge rapide (autoroutes, etc.).

Comme l’Union européenne préconise un ratio d’une borne de recharge publique pour dix véhicules électriques, pour le moment, le maillage répond au besoin. Néanmoins, la croissance de l’électrique impose de poursuivre le déploiement de nouvelles bornes et l’État s’est fixé un objectif de 400 000 bornes publiques d’ici 2030. Mais cette massification de l’électrique pose un autre problème : celui de la consommation électrique.

Si la France dispose d’un réseau électrique robuste capable de supporter 2 millions de véhicules électriques, les choses risquent de se compliquer avec 18 millions de véhicules en circulation. Selon Enedis et RTE, multiplier par huit le nombre de bornes de recharge engendrera un potentiel de pic équivalent à 18 tranches de centrales nucléaires !

En quoi la recharge intelligente peut-elle aider à résoudre ce problème ?

L’idée est d’éviter ce pic, en étalant la recharge, grâce à un pilotage. C’est ce qu’on appelle la recharge intelligente, par opposition à la recharge naturelle que l’on connaît actuellement. En recharge naturelle, l’utilisateur branche son véhicule, ce qui lance immédiatement la recharge et fait un appel de puissance direct sur le réseau.

Pour se donner une idée, une borne à domicile (7 kW) c’est trois ballons d’eau chaude qui se mettent en route d’un seul coup. Sur la voirie, c’est trois fois plus (22  kW) et en borne de recharge rapide c’est des centaines de kW, ce qui est énorme. Si la recharge intelligente n’a pas vraiment de sens en recharge rapide, sur autoroute par exemple, elle en a dans toutes les situations de recharge où les véhicules vont stationner longtemps, en résidentiel comme en entreprise.

Cette recharge est intelligente, car elle prend en compte de multiples facteurs externes : prix de l’électricité, heures creuses, heures pleines, appareils en fonctionnement dans le bâtiment, mais aussi l’autoproduction d’électricité. Par exemple, si des panneaux solaires sont présents sur le site, lancer automatiquement la recharge lorsque les panneaux sont en pleine production fait sens.

Elle permet aussi de traiter des situations très complexes, notamment dans les grands bâtiments qui disposent d’une flotte de véhicules électriques reliés à un même point de livraison. Il faut alors prendre en compte les besoins de recharge de chaque véhicule, afin que la voiture soit suffisamment chargée au moment du départ, pour le trajet prévu.

La prise en compte de toutes ces données nécessite de mettre en place une algorithmie puissante afin de sortir un planning de recharge idéal, correspondant exactement au besoin.

Qui sont les opérateurs de cette recharge intelligente ?

À l’échelle nationale, les énergéticiens développent des offres spécialement adaptées à la recharge de véhicules électriques. L’utilisateur autorise le pilotage par le fournisseur, qui fait alors une offre adaptée et moins chère.

À l’échelle locale, ce sont plutôt des gestionnaires techniques de bâtiments (GTB). Jusqu’à présent ils géraient essentiellement la climatisation, la ventilation et la production photovoltaïque locale en tenant compte du prix de l’électricité. Maintenant, ils sont aussi amenés à gérer les bornes de recharge. Mais pour y arriver, ils ont besoin de bornes connectées, intelligentes et pilotables comme celles que Zaptec propose.

Ce pilotage implique-t-il un changement de modèle économique ?

En fait, beaucoup de choses sont en train de changer dans la gestion des réseaux électriques. En Norvège, pays de la maison mère de Zaptec, le prix de l’électricité varie déjà d’une heure à l’autre pour un particulier !

En Angleterre, le constructeur automobile BYD, Octpus Energy et Zaptec viennent même de proposer une offre en leasing permettant de louer sa voiture à 200 livres par mois, avec installation d’une borne à domicile offerte et électricité gratuite à vie. Leur stratégie est d’agréger suffisamment d’utilisateurs pour devenir un véritable acteur du réseau et profiter de moments de recharge où l’électricité est très peu chère, voire négative. Négative, car, dans certains pays, on incite à consommer l’électricité à certains moments au moment où le réseau électrique est surcapacitaire.

Il est donc clair que le consommateur va progressivement devenir acteur du réseau électrique. Or, le métier de Zaptec est de proposer des solutions matérielles et logicielles les plus évolutives et les plus flexibles possibles, pour permettre aux opérateurs de délivrer des services de pilotage intelligent qui deviendront essentiels dans les dix prochaines années.

En Estonie, l’Europe inaugure sa plus grande usine d’aimants permanents

À Narva, ville frontalière de la Russie dans le nord-est de l’Estonie, s’élève désormais une usine qui concentre de grandes ambitions européennes. Neo Performance Materials (NPM), un industriel canadien spécialisé dans les matériaux avancés, vient d’inaugurer la plus grande unité européenne de production d’aimants permanents à base de terres rares. Ce site, soutenu par des fonds européens à hauteur de 14,5 millions d’euros, a pu sortir de terre grâce à un investissement total avoisinant 65 millions d’euros. Il symbolise la volonté de l’UE de bâtir une filière complète, du minerai à l’aimant, pour sécuriser les technologies de la transition énergétique.

L’installation vise à produire des aimants de type néodyme-fer-bore (NdFeB), dont les propriétés magnétiques élevées permettent de fabriquer des moteurs électriques et des générateurs d’éoliennes plus compacts et plus efficaces. Sa capacité initiale de 2 000 tonnes par an doit être portée à 5 000 tonnes, soit l’équivalent de plus d’un million de moteurs de véhicules électriques. Son objectif est de réintroduire en Europe un savoir-faire que le continent avait perdu au tournant des années 2000, lorsque la production d’aimants s’est massivement déplacée vers l’Asie.

Les enjeux de cette relocalisation sont considérables. D’après l’AIE (Agence internationale de l’énergie), la Chine assure environ 60 % de l’extraction mondiale de terres rares, 91 % du raffinage et 94 % de la production d’aimants permanents. Le pays contrôle donc la quasi-totalité des étapes critiques, depuis la séparation des oxydes jusqu’à la fabrication des composants finis. En cas de tension commerciale ou de restrictions à l’exportation, comme c’est le cas actuellement, les chaînes d’approvisionnement européennes se retrouvent immédiatement fragilisées. Le projet de Narva répond à ce risque systémique en réintroduisant une capacité industrielle sur le sol européen, adossée à des sources de matières premières diversifiées, notamment en Australie et en Malaisie.

Le site fonctionne depuis quelques mois et NPM indique avoir déjà livré des échantillons d’aimants frittés à un fabricant de moteurs de véhicules électriques, démontrant ainsi la capacité de l’installation à répondre aux standards de l’industrie automobile. L’usine bénéficiera des compétences accumulées à Sillamäe, une petite ville située elle aussi dans le nord-est de l’Estonie, où le groupe canadien exploite déjà une unité de séparation chimique produisant des oxydes de terres rares lourdes, notamment de dysprosium et de terbium, qui sont essentiels à la stabilité thermique des aimants.

La demande européenne en aimants permanents pourrait tripler d’ici 2035

Pour l’Europe, cette nouvelle usine représente à la fois un démonstrateur industriel et un banc d’essai pour sa stratégie de « souveraineté technologique ». L’UE s’est engagée à rapatrier sur son territoire 40 % des étapes de traitement des matières premières critiques d’ici 2030. Mais la marche reste haute puisque la demande européenne en aimants permanents est estimée à plus de 22 000 tonnes par an, et pourrait atteindre 60 000 tonnes dans la prochaine décennie. Même à plein régime, Narva ne couvrirait qu’une part limitée de ces besoins. Il faudra donc multiplier les projets et développer des capacités amont, à savoir l’extraction, le raffinage et le recyclage, pour constituer une véritable filière intégrée.

L’équation économique, elle, reste délicate, car produire sur le Vieux Continent coûte davantage qu’en Chine, mais l’aimant ne représente qu’une faible proportion du coût total d’un moteur électrique. Les industriels misent sur la stabilité d’approvisionnement et la réduction du risque géopolitique pour justifier l’investissement. Des constructeurs automobiles européens ont déjà passé commande, preuve qu’un marché existe pour une production régionale, même à un prix légèrement supérieur.

Au-delà des chiffres, Narva cristallise une évolution plus large : l’entrée de l’Europe dans une ère où la technologie des matériaux devient une question stratégique. Les aimants permanents, souvent invisibles à l’œil nu, sont désormais au centre d’un nouvel affrontement industriel et géopolitique. L’usine estonienne ne bouleversera pas à elle seule la hiérarchie mondiale, mais elle prouve que l’Europe peut redevenir un acteur crédible dans une chaîne de valeur qu’elle avait délaissée.

Revue du Magazine d’Actualité #52 du 27 au 31 octobre

Cette semaine, l’innovation industrielle, la transition énergétique et les défis climatiques s’invitent au cœur des débats, entre avancées concrètes et réflexions stratégiques.


🧬 MATÉRIAUX & SANTÉ

Traiter le prédiabète avec Nodia Metabolics

La start-up Nodia Metabolics propose une approche innovante pour prévenir le diabète de type 2 grâce à une technologie de diagnostic précoce. En combinant biologie et intelligence artificielle, elle vise à identifier les profils métaboliques à risque avant l’apparition des symptômes. Une avancée prometteuse dans la lutte contre les maladies chroniques.
👉 Prévenir le diabète grâce à l’IA métabolique


⚡ ÉNERGIE & ENVIRONNEMENT

Quand l’hydrogène aide l’Europe à sécuriser ses matériaux stratégiques

L’hydrogène ne se limite plus à la mobilité : il devient un levier pour extraire et recycler des matériaux critiques, indispensables à la transition énergétique. L’Europe explore cette piste pour réduire sa dépendance aux importations et renforcer sa souveraineté industrielle.
🔗 Hydrogène et souveraineté : une alliance stratégique

Climat : l’Académie des sciences met en garde contre les mirages de la géo-ingénierie

Face à l’urgence climatique, la tentation de manipuler le climat par des techniques de géo-ingénierie gagne du terrain. L’Académie des sciences alerte sur les risques et les incertitudes de ces solutions, appelant à ne pas négliger les efforts de réduction des émissions.
🌍 Géo-ingénierie : entre espoir et illusion climatique

Bonne nouvelle : l’estimation de la production nucléaire est revue à la hausse pour 2025

EDF revoit à la hausse ses prévisions de production nucléaire pour l’année prochaine, avec un objectif de 340 à 370 TWh. Une annonce qui rassure sur la capacité du parc à répondre aux besoins énergétiques, malgré les défis de maintenance et de modernisation.
⚛️ Nucléaire : des perspectives plus lumineuses pour 2025


🏭 INDUSTRIE & SOCIÉTÉ

De l’automatisation à l’usine du futur

L’industrie se transforme avec l’intégration de l’IA, des robots collaboratifs et de la connectivité. L’usine du futur se dessine comme un écosystème agile, capable de s’adapter en temps réel aux besoins du marché et aux contraintes environnementales.
🔧 Usine du futur : vers une production intelligente et flexible

Start-ups, robotique et semi-conducteurs : les territoires ruraux européens à l’assaut de l’innovation

Loin des métropoles, des régions rurales européennes misent sur la robotique et les semi-conducteurs pour dynamiser leur tissu économique. Soutenues par des politiques locales et des fonds européens, ces initiatives montrent que l’innovation peut aussi naître hors des grands centres urbains.
🌱 Ruralité et high-tech : l’innovation prend racine

Decarb Fast Track Institute : la décarbonation industrielle en pole position sous l’impulsion de Metron

Le Decarb Fast Track Institute, porté par Metron, vise à accélérer la décarbonation des sites industriels grâce à des outils numériques et des partenariats stratégiques. Une initiative qui place la sobriété énergétique au cœur de la compétitivité industrielle.
🚀 Décarboner l’industrie : Metron passe à la vitesse supérieure


👓 Bon weekend et à la semaine prochaine  !

Baromètre Expleo : entre prudence et enthousiasme, l’IA à l’épreuve du réel

Pour le deuxième mois consécutif, la confiance des dirigeants français dans l’intelligence artificielle se maintient à un niveau élevé, à 66 points en septembre 2025, selon le baromètre Expleo AI Pulse. Mais derrière cette stabilité se dessine un paradoxe. Si les chefs d’entreprise croient toujours au potentiel transformateur de l’IA, plus d’un sur deux (51 %) estime que nous vivons déjà une « bulle IA », où les attentes et les investissements dépassent les capacités réelles de la technologie.

Le baromètre, réalisé chaque mois par Expleo et l’institut Opinium auprès de 600 dirigeants en France, au Royaume-Uni et en Allemagne, vise à mesurer le pouls de la confiance dans l’IA à travers quatre dimensions : inquiétude, enthousiasme, confiance et assurance. Cette seconde édition, publiée le 27 octobre 2025, met en lumière un écart grandissant entre la perception des bénéfices économiques et la lucidité face aux limites actuelles de l’innovation.

Malgré le contexte de prudence, 47 % des dirigeants se déclarent désormais confiants dans la manière dont l’IA transforme leur organisation, soit une progression de 10 points par rapport à août. Ce résultat témoigne d’une appropriation croissante des outils d’intelligence artificielle, désormais considérés comme des leviers d’efficacité opérationnelle et d’innovation. L’IA, longtemps perçue comme une promesse futuriste, devient un instrument de transformation concrète pour les entreprises.

Mais cette dynamique s’accompagne d’une baisse de confiance sur d’autres plans : 72 % seulement des dirigeants estiment que leur entreprise sait utiliser l’IA efficacement (- 4 points en un mois), et 69 % jugent que son exploitation est éthique (contre 76 % en août). Ces indicateurs suggèrent une prise de conscience accrue des risques techniques, éthiques et humains associés au déploiement massif de l’IA.

« La confiance reste élevée dans les bénéfices de l’IA, mais la prudence gagne du terrain : c’est le signe que les acteurs économiques souhaitent sortir d’une logique d’annonces spectaculaires pour entrer dans celle des usages concrets et d’un déploiement pragmatique », explique Damien Lasou, directeur général France d’Expleo. Cette prudence n’équivaut pas à un désengagement, mais traduit une maturité croissante du marché français, où l’IA n’est plus seulement une vitrine technologique, mais un outil de compétitivité à structurer dans la durée.

De la bulle spéculative à la maturité technologique

L’étude souligne par ailleurs une inquiétude personnelle en hausse, 44 % des dirigeants redoutant que l’IA ait un impact sur leur propre poste, contre 38 % un mois plus tôt. Ce sentiment reflète une tension palpable. Les décideurs, conscients du potentiel d’automatisation, mesurent ainsi désormais plus directement les conséquences organisationnelles de cette transformation.

Malgré tout, 68 % des dirigeants continuent de considérer l’IA comme bénéfique pour leurs activités, en hausse de 5 points. Cet optimisme global, conjugué à une vigilance accrue, dessine un climat d’attente raisonnée, où la recherche d’applications concrètes prime sur les effets d’annonce. Pour Expleo, ce déplacement du regard est essentiel. L’enjeu n’est plus de démontrer que l’IA fonctionne, mais de montrer qu’elle apporte une valeur mesurable et qu’elle s’intègre durablement dans les organisations.

Dans un environnement où les levées de fonds record et l’essor des modèles génératifs nourrissent autant l’enthousiasme que les doutes, le parallèle avec la bulle Internet du début des années 2000 s’impose. Comme à l’époque, la frontière entre innovation durable et spéculation est mince. Pourtant, pour Damien Lasou, l’heure n’est pas à la défiance : « L’IA ne doit pas être perçue comme une vague spéculative, mais comme une transformation concrète des modèles économiques et des organisations. »

Cette approche pragmatique illustre la position d’Expleo, groupe international d’ingénierie, de technologie et de conseil, qui accompagne ses clients du prototype à l’intégration industrielle. L’entreprise travaille notamment sur la transition de l’expérimentation vers les usages responsables, en combinant intelligence artificielle, expertise sectorielle et ingénierie humaine. Pour le groupe, la clé de la réussite réside dans la convergence entre innovation et réalité industrielle : « Derrière chaque projet IA, nous devons être mobilisés pour apporter des solutions à des besoins réels », rappelle Damien Lasou.

Le baromètre Expleo AI Pulse met ainsi en évidence un tournant : la phase d’évangélisation touche à sa fin. L’IA entre dans une ère de rationalisation, où la confiance ne se mesure plus à la promesse, mais à la performance. Ce changement de paradigme, perceptible dans les chiffres du baromètre, pourrait bien annoncer la sortie d’une phase d’euphorie pour ouvrir celle, plus exigeante, de la maturité technologique.

Alors que la majorité des dirigeants appellent à conjuguer innovation et responsabilité, le véritable enjeu pour les entreprises françaises est désormais clair, consistant à éviter la bulle par l’usage, c’est-à-dire faire de l’IA non plus un symbole d’avant-gardisme, mais un outil maîtrisé de création de valeur et de transformation durable.

Source : Expleo – Les dirigeants français alertent sur une bulle IA malgré une confiance stable dans les bénéfices de l’IA

La quotidienne : revue de presse du 31 octobre 2025

Face aux défis énergétiques, technologiques et géopolitiques, l’industrie européenne traverse une période de mutation intense. Entre consolidation stratégique dans l’aérospatial, dépendances critiques autour des batteries et des terres rares, essor de l’intelligence artificielle et efforts de décarbonation, le continent cherche à renforcer sa souveraineté industrielle tout en respectant ses engagements climatiques. En France, le contraste est marqué entre signes d’essoufflement industriel et espoirs de rebond portés par les énergies renouvelables, sur fond de nouvelles orientations réglementaires et de négociations climatiques à l’approche de la COP30.

Un nouveau géant européen de l’aérospatial pour contrer SpaceX ?

Les groupes Airbus (France), Leonardo (Italie) et Thales (France) sont en phase de fusion de leurs divisions spatiales pour créer un acteur européen majeur capable de rivaliser avec SpaceX. Le siège devrait être à Toulouse, en France, avec environ 25 000 salariés et une mise en service ciblée vers 2027.

Le nœud « batteries » : enjeux industriels et géopolitiques européens

Un article de Xerfi Canal analyse les batteries comme un nœud central à la fois industriel, environnemental et géopolitique pour l’Europe, laquelle doit sécuriser ses chaînes d’approvisionnement pour les batteries, face à la concurrence chinoise et américaine. Pour les industriels, la souveraineté, la résilience et l’empreinte environnementale sont en effet des enjeux clés. Rappelons que le rôle des batteries ne se limite plus à l’automobile, mais concerne également le stockage, les smart grids, et l’industrie lourde.

Guerre des terres rares : l’industrie européenne mise sous pression par la Chine

L’industrie européenne est par ailleurs victime de tensions commerciales accrues autour des terres rares, domaine où la Chine détient plus de 90 % de la capacité de raffinage, selon Le Monde.fr. Une usine de fabrication d’aimants permanents a été financée à Narva (Estonie) via un soutien de 14,5 M€ de l’UE, pour alimenter les secteurs éolien et des véhicules électriques.

En France, le groupe Solvay relance le raffinage à La Rochelle et d’autres projets sont en cours à Lacq pour réduire la dépendance extrême à la Chine.

L’Europe accélère ses usines d’IA : six nouvelles « AI Factories » sélectionnées

Le programme EuroHPC JU a sélectionné six nouveaux sites (République tchèque, Lituanie, Pays-Bas, Pologne, Roumanie, Espagne) pour déployer des « AI Factories », afin d’augmenter les capacités de l’IA industrielle et scientifique en Europe.

Cette initiative s’inscrit dans la stratégie plus large de la commission européenne en matière d’IA, qui vise à renforcer l’industrie et la recherche européenne face à la concurrence US/Chine.

Industrie française : entre essoufflement et rebond, l’énergie renouvelable comme planche de salut

Alors que la France cherche à maintenir l’élan de sa réindustrialisation, les signaux économiques sont contrastés. Selon France 24, le nombre d’ouvertures d’usines reste supérieur aux fermetures au premier semestre 2025, mais la dynamique s’essouffle. TF1 Info, pour sa part, dresse un constat plus sévère : 82 fermetures pour 44 ouvertures, en raison de coûts énergétiques et logistiques en hausse, d’une fiscalité jugée lourde et d’une chute des investissements étrangers. L’automobile, la chimie et l’agroalimentaire figurent parmi les secteurs les plus fragilisés.

Pourtant, un vent plus favorable souffle du côté de l’énergie. D’après La Tribune, la France est sur le point d’atteindre un record de raccordements d’installations renouvelables en 2025, un signal encourageant alors que le gouvernement prépare la prochaine Programmation Pluriannuelle de l’Énergie. Au niveau européen, la forte production éolienne et photovoltaïque conjuguée à une demande plus faible et à la baisse du prix du gaz a contribué à faire chuter les prix de l’électricité.

Si ces évolutions se confirment, elles pourraient redonner de l’air à l’industrie française, en atténuant la pression énergétique et en ouvrant la voie à une production plus compétitive, à condition que la stabilité réglementaire et les infrastructures suivent.

Un décret-cadre modifie les seuils de soutien aux installations renouvelables

Un décret publié le 30 octobre 2025 modifie les seuils d’éligibilité au mécanisme d’obligation d’achat pour les installations renouvelables en métropole. Il prévoit notamment la suppression du soutien par tarif d’achat pour les installations valorisant le biogaz produit à partir de déchets non dangereux ou de matière végétale brute. Pour le photovoltaïque au sol ou bâti, l’éligibilité à l’obligation d’achat se limite désormais aux installations de moins de 100 kWc (contre 500 kWc précédemment). Les installations entre 100 et 500 kWc devront passer par un appel d’offres simplifié.

L’Union européenne sous pression avant la COP30

À une dizaine de jours du COP30 à Belém (Brésil), la Commission européenne souhaite que les États membres valident une trajectoire de réduction des émissions de gaz à effet de serre pour 2035-2040. À ce jour, les 27 États n’ont pas formellement adopté l’objectif proposé de -90 % des émissions d’ici 2040 (par rapport à 1990). Un compromis a minima pour 2035 (- 66,25 % à – 72,5 %) est envisagé, mais sans contrainte juridique à ce stade.

Décarbonisation industrielle : l’UE lance une première enchère pour la chaleur de procédé

Pour la première fois, l’UE a lancé une enchère pilote visant à financer la « chaleur de procédé » renouvelable ou électrifiée dans l’industrie, via le fonds Innovation Fund. Ce dispositif est un signal fort, soulignant que l’UE intègre désormais cette catégorie d’émissions comme une priorité politique et industrielle.

Julie Meunier : plonger dans les tourbillons océaniques pour mieux comprendre le climat

Le 19e Prix Jeunes Talents France 2025 L’Oréal-UNESCO Pour les Femmes et la Science récompense 34 nouvelles « étoiles montantes »

Créé en 2007, le Prix Jeunes Talents France L’Oréal-UNESCO Pour les Femmes et la Science récompense chaque année, à un moment clé de leur carrière, des doctorantes et post-doctorantes qui incarnent aux yeux du jury « l’excellence scientifique française », et qui portent, en outre, des projets de recherche visant à construire « un avenir plus juste et durable ». Cette année, 34 de ces jeunes chercheuses ont été sélectionnées parmi près de 700 candidates, par un jury composé d’une trentaine de membres de l’Académie des sciences, avec à sa tête la célèbre astrophysicienne française Françoise Combes, présidente de l’Académie des sciences, elle-même récompensée du prix international 2021 L’Oréal-UNESCO Pour les Femmes et la Science.

« Les femmes représentent la moitié de l’humanité, mais demeurent trop peu nombreuses aux postes de responsabilité dans la recherche. [De nombreux] freins écartent injustement des talents dont la science aurait besoin. Les Prix Jeunes Talents France L’Oréal-UNESCO Pour Les Femmes et la Science, en partenariat avec l’Académie des sciences, sont autant de leviers pour rééquilibrer les chances et permettre à la culture scientifique de s’enrichir de tout le potentiel de cette moitié de l’humanité », se réjouit Françoise Combes. L’astrophysicienne qui voit dans les lauréates de cette 19e édition de nouvelles « étoiles montantes de la science »…

Remise des Prix Jeunes talents France 2025 L’Oréal-UNESCO Pour les femmes et la science
34 doctorantes et post-doctorantes ont reçu le 8 octobre dernier le Prix Jeunes talents France 2025 L’Oréal-UNESCO Pour les femmes et la science lors d’une cérémonie organisée au sein de l’auditorium André et Liliane Bettencourt du Palais de l’Institut de France. © Fondation L’Oréal – © Julien Knaub & Nicolas Gouhier

Ex-doctorante au sein du service de physique de l’état condensé (SPEC) du CEA de Saclay[1], Julie Meunier a développé dès son plus jeune âge un intérêt tout particulier pour les sciences fondamentales. Après s’être découvert une passion pour la mécanique des fluides en classe préparatoire, elle s’est d’abord orientée vers des applications dans l’aéronautique, avant de bifurquer vers un champ plus en phase avec sa conscience écologique, à l’intersection entre physique théorique et océanographie : l’étude des tourbillons océaniques. Ce domaine vise en effet, notamment, à améliorer les modèles climatiques, pour ainsi affiner les projections de l’évolution du climat terrestre. Elle nous en dit plus sur les enjeux de ses travaux, mais aussi son parcours et l’importance qu’ont à ses yeux, les grandes figures scientifiques féminines.

Techniques de l’Ingénieur : Votre passion pour la mécanique des fluides vous a amenée vers l’aéronautique, puis finalement vers la physique de la turbulence appliquée à l’océanographie… Quelle est la genèse de ce parcours de « bifurqueuse » ?

Julie Meunier, lauréate du Prix Jeunes Talents France L’Oréal-UNESCO Pour les Femmes et la Science
Après avoir soutenu, fin septembre dernier, sa thèse en physique de l’état condensé, Julie Meunier se dirige désormais vers un post-doctorat à l’Université de Cambridge, au Royaume-Uni. © Fondation L’Oréal

Julie Meunier : J’ai, depuis longtemps, une appétence pour les sciences fondamentales, et plus particulièrement la physique théorique. Y compris d’ailleurs en dehors de mes cours au lycée… Je savais donc que cette voie serait celle vers laquelle je m’orienterais après le bac. Mon diplôme en poche, je me suis ainsi tournée vers une classe préparatoire maths-physique, dans laquelle j’ai eu la chance de rencontrer un professeur de physique exceptionnel, bienveillant et ouvert. Il nous a initiés à la mécanique des fluides de manière très fondamentale, et m’a ainsi ouvert une porte : c’est à ce moment-là que je me suis dit « C’est ce que je veux faire ! ».

Après ma prépa, j’ai été admise à l’ENSTA Paris[2], une école qui valorise fortement la recherche, en permettant notamment à ses étudiant(e)s de recevoir les enseignements de nombreux chercheurs du plateau de Saclay. J’ai, par ce biais-là, pu suivre des cours variés dans le domaine de la mécanique des fluides, avec malgré tout une approche plutôt appliquée, dans le cadre de ce cursus d’ingénieur. J’ai décidé, suite à cela, de me diriger vers un master 2 en aéronautique, pour devenir ingénieure tout en continuant à m’appuyer sur la mécanique des fluides.

Mais j’ai fini par me heurter à une forme de décalage entre mes valeurs et les impacts écologiques de l’aéronautique. J’ai donc finalement demandé à faire mon stage, certes toujours dans le domaine de la mécanique des fluides, mais autour d’une autre application, celle des fluides géophysiques – il s’agit des fluides que l’on retrouve au niveau de la couche externe d’une planète : océan, atmosphère…

J’ai mené pendant mon stage un projet qui avait pour application l’atmosphère de Jupiter. Je me suis ensuite engagée dans un travail de thèse, axé cette fois sur les océans de la Terre : mon objectif était d’étudier les tourbillons océaniques et leurs impacts sur le système climatique. Je me suis ainsi progressivement rapprochée de la communauté des chercheurs en océanographie, tout en gardant un pied dans le domaine de la physique des fluides.

En quoi l’étude des tourbillons océaniques permet-elle d’éclairer le fonctionnement du climat terrestre ?

Il existe de très nombreux tourbillons océaniques, qui se distinguent notamment par leur taille, entre autres caractéristiques. La coexistence et les interactions entre ces tourbillons de multiples tailles font de l’océan ce que l’on appelle un écoulement turbulent. Je me suis plus particulièrement intéressée aux tourbillons dits « de méso-échelle », c’est-à-dire d’une envergure comprise entre 50 et 100 km. De par leur taille, et leurs origines liées à la circulation océanique générale, ces tourbillons ont un effet de rétroaction sur la circulation océanique à grande échelle, et donc sur le climat.

Les écoulements turbulents sont des systèmes chaotiques, imprédictibles, pour lesquels la modélisation numérique est très coûteuse en puissance de calcul… Ce qui fait que l’on peine encore à retranscrire les effets de ces tourbillons océaniques dans les modèles climatiques. C’est donc là-dessus que je me suis penchée au cours de ma thèse, en cherchant à mieux comprendre ces systèmes dynamiques, afin, à terme, de retranscrire le plus exactement possible la physique qui entre en jeu dans le comportement de ces fluides dans les modèles de climat.

Face au climatoscepticisme ambiant, la présence dans les médias et les institutions de figures féminines spécialistes des sciences du climat, telles que Valérie Masson-Delmotte, vous semble-t-elle importante ?

Tout à fait ! Valérie Masson-Delmotte est d’ailleurs à mes yeux une figure à la fois scientifique et politique, de par ses prises de parole et l’extraordinaire travail qu’elle mène, en parallèle de ses travaux de recherche en paléoclimatologie, pour lutter contre le climatoscepticisme. Elle se confronte à des médias pas forcément très en phase avec le consensus en matière de changement climatique, et cela, en plus, avec beaucoup de calme et de pédagogie. Ce qui force le respect. Elle a d’ailleurs été classée en 2022 parmi les cent personnalités les plus influentes par Time Magazine… Donner ainsi de la visibilité aux femmes scientifiques me semble particulièrement important. Ne serait-ce d’ailleurs que pour inciter les jeunes filles à s’orienter vers des carrières scientifiques.

Avez-vous éventuellement été confrontée au sexisme au cours de votre cursus ?

Je n’ai pas en tête un événement marquant ou choquant, ce qui est une chance. Par contre, j’ai ressenti comme beaucoup d’autres femmes de nombreux biais sexistes au cours de mes études et de ma carrière, qui sont plus durs à quantifier et à formaliser : venant de professeurs, d’autres élèves, de chercheurs en conférence… J’ai eu la chance de rencontrer, en parallèle, des professeurs bienveillants, qui ont su me guider vers les milieux qui m’intéressaient, sans considérer mon genre comme un aspect entrant en ligne de compte. Être une femme n’est donc à mes yeux pas forcément un frein dans un cursus scientifique, bien que cela puisse, malgré tout, représenter un poids qui nous accompagne tout au long de nos carrières. A fortiori dans le domaine de la physique fondamentale au sein duquel j’évolue, qui reste très, très masculin… Je suis d’ailleurs amenée à prendre part à des congrès de physique, mais aussi d’océanographie, et la différence entre ces deux domaines est flagrante ! Le fait, malgré tout, d’avoir des figures féminines auxquelles on peut se référer me semble, encore une fois, très important.

Comment accueilliez-vous ce Prix Jeunes Talents France L’Oréal-UNESCO Pour Les Femmes et la Science qui vous a été décerné le 8 octobre dernier ?

Je suis très heureuse d’avoir reçu ce prix ! J’avais en tête d’anciennes lauréates dans mon domaine, dont j’admire beaucoup les travaux. Elles ont été pour moi des figures importantes, qui m’ont incitée à me lancer dans le domaine qui m’intéresse aujourd’hui. Je suis donc ravie de figurer désormais à leurs côtés dans le palmarès de ce Prix Jeunes Talents France L’Oréal-UNESCO Pour Les Femmes et la Science. J’espère pouvoir jouer à mon tour ce rôle pour de futures doctorantes.

Recevoir ce prix va aussi m’apporter du soutien, notamment sur le plan financier, et va me permettre de me rendre à différents congrès, conférences, séminaires… à la fois dans le domaine de l’océanographie et de la physique. Je vais ainsi pouvoir garder un lien avec les différentes communautés scientifiques à l’intersection desquelles mes travaux se situent. Plus particulièrement d’ailleurs, je l’espère, avec la communauté française, alors que je débuterai le mois prochain un post-doctorat à l’étranger ; à l’Université de Cambridge, en l’occurrence.

Mon objectif, à terme, est de continuer à travailler au sein de cette communauté française très particulière de la physique des fluides géophysiques, qui fait le pont entre physique fondamentale et sciences du climat. Rassembler et faire coexister ces deux approches très différentes du même problème n’est pas facile, mais essentiel. De nombreux efforts se font dans ce sens et, de mon point de vue, apporteront beaucoup à notre compréhension du système climatique. C’est vraiment dans ce milieu que j’aimerais poursuivre ma carrière de chercheuse, lorsque je parviendrai à décrocher un poste.


[1] UMR 3680 CNRS – CEA – Université Paris-Saclay

[2] École nationale supérieure de techniques avancées.

Decarb Fast Track Institute : la décarbonation industrielle en pole position sous l’impulsion de Metron

Forte d’une centaine de salariés et présente dans onze pays, Metron a déjà déployé sa solution de gestion et d’optimisation de l’énergie (ou EMOS) au sein de 25 000 sites dans le monde, dont 250 installations industrielles. Des sites dont la cleantech permet ainsi de piloter et d’optimiser les consommations énergétiques en temps réel, avec naturellement, à la clé, une réduction de leur empreinte carbone. Pour accélérer le mouvement, l’entreprise multiprimée[1] a lancé dès 2022 un vaste programme d’accompagnement à la réduction de leur empreinte carbone à destination des industriels : le Decarb Fast Track. Une initiative qui est ainsi directement à l’origine de la création récente de ce Decarb Fast Track Institute, comme nous l’explique Vincent Sciandra, cofondateur et P.-D.G. de Metron.

Techniques de l’Ingénieur : Quelle est, en quelques mots, la raison d’être de Metron ?

Vincent Sciandra, co-fondateur et P.-D.G. de Metron
Vincent Sciandra a co-fondé Metron en 2013, et en est le P.-D.G. depuis 2015. © Metron

Vincent Sciandra : Metron, que j’ai cofondée il y a maintenant plus de onze ans, accompagne les grands groupes, notamment industriels, dans la réduction de leurs consommations énergétiques, et, par voie de conséquence, leur empreinte carbone, essentiellement sur les scopes 1 et 2. Notre objectif consiste avant tout à optimiser l’existant, en aidant l’industriel à comprendre comment l’énergie – qu’il s’agisse d’électricité ou de gaz – transite dans l’usine pour lui permettre de produire, et plus précisément en suivant le trajet de cette énergie tout au long du process industriel. Tout cela dans le but de permettre in fine à l’industriel d’utiliser moins d’énergie, sans pour autant compromettre la qualité de ses produits.

À l’issue de près de dix ans de développement, nous sommes parvenus à rendre notre solution interfaçable avec quasiment tous les équipements industriels, et ce partout dans le monde. Nous sommes en effet présents dans plus de quarante pays.

Et parce qu’un outil n’est utile que s’il est correctement mis en œuvre, nous assurons aussi la formation des ingénieurs et les opérateurs intervenant sur site. Nos propres équipes d’ingénieurs énergie présentes partout dans le monde accompagnent également les industriels au quotidien, pour leur transmettre des connaissances et les aider à piloter l’énergie de leurs usines. Leur rôle est aussi d’assurer une forme d’accompagnement au changement des industriels qui font appel à nous.

Comment la mesure des flux d’énergie peut-elle contribuer à la réduction de l’empreinte carbone d’un industriel ?

Nous ne visons pas nécessairement le changement de machines ou d’équipements industriels. Nous mesurons l’énergie, en utilisant les données provenant des compteurs électriques ou de gaz, des automates industriels, de bases de données de production… que nous couplons avec des données externes, notamment la météo. Température, vent, humidité, etc. peuvent en effet influencer la consommation énergétique de nombreux process industriels. Nous combinons donc les données endogènes et exogènes d’une usine pour, finalement, être capables de donner à l’industriel une image à un instant t des flux d’énergie dans ses installations. Et ce, de manière standardisée et auditable.

Au-delà des outils dont peuvent éventuellement déjà disposer les industriels, notre solution permet de leur offrir une granularité bien plus fine, à l’échelle de la minute, voire en deçà… Ce niveau de précision leur permet de comprendre les phénomènes qui entrent en jeu à un niveau plus « microscopique », et donc de prendre des actions « micro » — la régulation de la température d’un process de quelques degrés, par exemple – là où, sans notre aide, ces actions restent généralement « macro ».

L’approche que nous proposons aux industriels est donc beaucoup plus scientifique – elle passe notamment par des campagnes de tests – et quantitative. Elle leur permet de comprendre les interactions et les aspects systémiques des process, pour qu’ils puissent les optimiser le plus finement possible, sans pour autant affecter la qualité de leur produit final. Y compris d’ailleurs de manière anticipée, grâce aux modèles de machine learning que nous développons depuis plus de dix ans maintenant et qui permettent, notamment, de prédire les éventuelles dérives d’un process. Ces modèles ont d’ailleurs l’avantage d’être explicables, ce qui est évidemment crucial dans l’industrie, ne serait-ce que pour des questions de sécurité et d’acceptabilité.

Sans données précises, à l’aveugle, tout cela serait quasiment impossible à réaliser. Le « fine-tuning[2] » que nos outils permettent de réaliser constitue au contraire un vrai levier en matière de décarbonation.

Vous avez lancé fin 2022, et pour deux ans, le programme Decarb Fast Track. De quoi s’agissait-il, et quels sont les résultats de cette initiative ?

Nous avons effectivement travaillé pendant deux ans sur ce programme Decarb Fast Track, aux côtés de trois partenaires-financeurs : Dalkia, Amazon Web Services (AWS) et BNP Paribas. L’objectif de ce programme était d’accélérer la réduction de l’empreinte carbone de l’industrie, et ce, à l’échelle de huit pays européens. Cette initiative nous a conduits à accompagner pas moins de 45 groupes industriels, et 62 usines au total, dont la moitié en France. Nous visions une réduction d’émissions de CO2 de 100 000 tonnes de CO2e par an à l’issue des deux ans de ce programme. Nous avons aujourd’hui identifié un potentiel de -190 000 tonnes annuelles grâce aux projets que nous sommes en train de mettre en place avec les industriels concernés, avec d’ores et déjà plus de 63 000 tonnes effacées.

Les démarches réalisées par les industriels dans le cadre de ce programme passent bien entendu par l’optimisation de l’existant que j’évoquais plus haut, mais aussi par des changements plus profonds dans les équipements mis en œuvre au sein de leurs usines. Un aspect sur lequel Dalkia a joué un rôle central, en apportant des solutions techniques concrètes aux industriels, avec l’appui de BNP Paribas pour les questions de financement. Ce travail en partenariat nous a ainsi permis de créer un one-stop shop [guichet unique, n.d.l.r.] de la décarbonation industrielle.

Au fil des deux années de ce programme, nous avons pu fédérer une véritable communauté d’industriels de tous horizons engagés dans la décarbonation qui ont pu croiser leurs savoir-faire, ce qui n’est pas forcément habituel dans l’industrie…

Nous avons donc eu l’envie de prolonger cette dynamique, en créant une nouvelle structure, entièrement dédiée au sujet du partage de bonnes pratiques : le Decarb Fast Track Institute.

Decarb Fast Track Institute
Créé le 18 juin dernier, le Decarb Fast Track Institute réunit les pionniers de la communauté Decarb Fast Track, mais aussi, plus largement, les clients européens de Metron, et reste ouvert à tout industriel ou partenaire européen souhaitant s’engager dans une démarche de partage de bonnes pratiques. © Metron

En quoi consiste justement cet institut, que vous avez officiellement lancé en juin dernier ?

Il s’agit d’une association Loi 1901, qui vise à faire venir d’autres industriels autour de la table, pour enrichir les échanges déjà mis en place à la faveur du programme Decarb Fast Track. Et ce, toujours à l’échelle européenne. Cela nous semble en effet important, dans une Europe où les situations énergétiques peuvent se révéler très différentes d’un pays à l’autre. L’idée, en somme, est de permettre aux industriels de partager leurs stratégies de résilience. Nous allons pour cela organiser des rencontres bimestrielles[3], centrées sur des sujets précis choisis par les adhérents de l’association, mais toujours autour de ces thématiques de décarbonation et d’efficacité énergétique, et à l’échelle européenne.

Cela intéresse beaucoup de groupes qui possèdent des sites au-delà des frontières françaises, qui cherchent souvent à adapter leur vision de la décarbonation industrielle en fonction de leurs pays d’implantation.

D’une manière plus générale, quel regard portez-vous sur la dynamique actuelle en matière de décarbonation industrielle ? La conjoncture ne risque-t-elle pas de freiner le mouvement ?

Cela peut paraître étonnant, mais je dirais que non, au contraire. Au niveau mondial, on observe en effet le retour en force de l’efficacité énergétique, et donc de la décarbonation industrielle. Cela peut sembler surprenant dans le contexte actuel, mais en fait, être efficient, être doté d’outils permettant d’optimiser le pilotage de son énergie est aujourd’hui plus que jamais indispensable pour se préparer à la suite… Cela devient le sujet principal pour les industriels du monde entier.

Les réglementations évoluent d’ailleurs aussi dans ce sens, dans de nombreux pays. Au Mexique, une loi récemment adoptée impose par exemple aux industriels la mise en place d’un plan d’efficacité énergétique. C’est le cas aussi en Thaïlande, notamment, où le législateur pousse là aussi à la décarbonation industrielle. Globalement, tout le monde se prépare à être beaucoup plus résilient. Or, l’efficacité énergétique est le premier levier de résilience pour les industriels. Viennent ensuite des aspects tels que l’autonomie énergétique – qui passe par exemple par le stockage d’électricité – ou encore la flexibilité de la production.

Nous observons donc clairement un changement de posture vis-à-vis de la décarbonation : les industriels sont aujourd’hui amenés à s’impliquer dans ce domaine avant tout parce que les réalités de terrain le leur imposent. L’heure est aujourd’hui au pragmatisme.

Malgré toutes les difficultés que vivent les industriels, le contexte est en fait favorable à la poursuite de ce mouvement de décarbonation. D’autant plus qu’aujourd’hui les technologies sont là pour l’accompagner, ce qui n’était pas encore le cas il y a vingt ou trente ans. Que ce soit au travers de l’hydrogène vert, de la biométhanisation, du nucléaire…, tout un écosystème s’est constitué autour de cet enjeu de décarbonation.


[1] Metron figure notamment dans le « World’s Top GreenTech Companies of 2025 » réalisé par le magazine TIME et Statista. Elle a par ailleurs été sélectionnée par le gouvernement français pour faire partie du programme French Tech 2030 depuis juin 2023, après avoir figuré pendant deux années consécutives parmi les entreprises sélectionnées dans le cadre du programme Green 20.

[2] Réglage fin.

[3] La première a eu lieu le 2 octobre dernier.

Machines modulaires et captage du carbone : comment ça marche concrètement ?

Dans une installation industrielle émettrice de dioxyde de carbone, le premier maillon de la chaîne est le captage : il s’agit de prélever le CO₂ directement à la source, par exemple les fumées d’une cimenterie, d’une aciérie ou d’une usine chimique, avant qu’il ne soit rejeté dans l’atmosphère. L’IFP Énergies Nouvelles décrit cette étape comme la première phase du CCUS (capture, stockage et valorisation du carbone), consistant à « extraire du CO₂ issu de processus industriels et à le concentrer ».

Trois techniques principales de captage sont mises en œuvre : la post-combustion (la plus répandue), la pré-combustion et l’oxy-combustion. La post-combustion consiste à traiter les gaz de combustion pour en extraire le CO₂, typiquement à l’aide de solvants ou de matériaux adsorbants.

Le procédé typique débute par l’absorption du CO₂ sur un solvant (amine, liquide ionique) ou sur un adsorbant solide. Ensuite, par chauffage ou variation de pression, on « désorbe » le gaz purifié. Par exemple, l’IFPEN décrit son procédé « DMX™ », destiné aux installations industrielles (ciment, sidérurgie, charbon), qui améliore l’efficacité des solvants classiques avec une consommation d’énergie réduite de 30 à 40 %.

Les machines modulaires : vers une capture plus flexible et rapide

Dans le cas des « machines modulaires », conçues pour être installées de manière relativement standardisée et rapide, le concept repose sur une architecture préfabriquée et modulaire. Par exemple, la société Carbon Clean présente un système « CycloneCC™ » combinant des RPB (rotating packed beds – réacteurs centrifuges) et un solvant tampon afin de réduire l’empreinte unitaire d’environ 50 % par rapport à un système classique. Ces unités peuvent être livrées « clé en main » et transformées en « Legos » de la capture carbone, permettant un déploiement progressif pour des sites de tailles variées. Les modules comprennent généralement un absorbeur, un désorbeur, une unité de compression, parfois une liquéfaction, et sont souvent livrés par modules montés sur châssis assemblés en usine puis installés sur site.

Transport, stockage et valorisation : le cycle complet du carbone capté

Après le captage vient le transport du CO₂ purifié. En France, selon le ministère chargé de la transition écologique, le gaz peut être acheminé vers un lieu de stockage ou de valorisation via canalisations, barges, camions ou trains selon les volumes et la configuration. Le CO₂ est généralement comprimé, refroidi, éventuellement liquéfié, afin d’en réduire le volume et de garantir une pureté adaptée aux exigences de stockage ou d’utilisation. Le rapport de la Commission de régulation de l’énergie (CRE) précise que le fluide transporté doit être essentiellement du dioxyde de carbone, sans déchet ou autre matière ajoutée afin d’éviter tout risque de perturbation dans la chaîne de valeur.

Le lieu final du CO₂ capté dépend de la filière retenue. La voie dite du stockage (CCS) consiste à injecter le gaz dans des formations géologiques profondes telles que des réservoirs salins, d’anciennes cavités pétrolières ou gazières. En France, le stockage souterrain est un des axes clés de la stratégie nationale. Dans d’autres cas, le CO₂ peut être valorisé (CCU), c’est-à-dire utilisé dans des procédés industriels, comme la production d’e-carburants, de méthane synthétique ou dans la chimie de base. C’est notamment ce qu’évoque le projet de transport-multi-énergie de la société Teréga qui étudie la captation pour valorisation sous forme de méthanation.

En pratique, sur un site industriel, le circuit est donc le suivant : les gaz de combustion ou de procédé sont collectés, refroidis, filtrés puis envoyés à l’unité de capture modulaire. Le CO₂ y est séparé et extrait, puis comprimé et conditionné pour le transport. Il est acheminé jusqu’à un lieu de stockage ou d’utilisation, injecté ou valorisé. Les rejets éventuels (azote, poussières, composants secondaires) sont traités ou rejetés dans l’atmosphère ou dans l’installation de traitement des fumées.

La modularité des systèmes permet d’accélérer le déploiement, de réduire les coûts d’investissement et d’intégration, ainsi que d’offrir une échelle adéquate aux moyennes installations industrielles, là où les grandes unités restent coûteuses et lourdes à implanter. Ils représentent donc un maillon important pour l’industrialisation rapide du captage du CO₂.

Une vision à long terme

Le déploiement reste toutefois encore limité, très coûteux et demande une vision à long terme. D’après la CRE, le stockage additionnel maximal en France sur certains gisements est estimé à quelques millions de tonnes par an, ce qui reste modeste par rapport aux besoins. En outre, comme le souligne l’IFPEN, l’autre défi majeur demeure l’intégration énergétique des procédés de capture, notamment la réduction des consommations d’énergie et l’optimisation des flux associés.

La capture modulable du CO₂ offre donc une voie concrète pour réduire les émissions des industries à forte intensité carbone. Elle s’inscrit dans un circuit clair, prévoyant captage à la source, extraction et conditionnement, transport et stockage ou valorisation. Toutefois, la réussite de cette filière dépendra non seulement de la technologie, mais aussi de la structuration des chaînes de transport et de stockage, de la compétitivité économique et de l’acceptabilité industrielle sur le long terme.

Bonne nouvelle : l’estimation de la production nucléaire est revue à la hausse pour 2025

EDF a décidé de réviser l’estimation de la production nucléaire pour 2025 selon un communiqué publié le 13 octobre dernier. Comprise initialement entre 350 et 370 térawattheures (Twh), la fourchette de production nucléaire est désormais estimée entre 365 et 375 Twh.

Le communiqué précise que cette fourchette est maintenue entre 350 et 370 Twh pour les années 2026 et 2027.

Cette rehausse montre que la production d’électricité nucléaire n’a pas été perturbée par le report de la date de mise en fonctionnement à pleine puissance de Flamanville 3 prévue initialement pour l’été dernier. Après quatre mois d’arrêt, son unité de production a été reconnectée au réseau électrique national le 15 octobre dernier.

Par ailleurs, EDF s’est engagée à assurer une capacité de production supérieure à 400 Twh par an à horizon 2030.

Une meilleure maîtrise des arrêts de tranche

La progression enregistrée ne date pas de cette année et s’inscrit dans une dynamique déjà observable l’année précédente. Effectivement, à la date du 11 décembre 2024, EDF avait révisé à la hausse l’estimation de la production nucléaire annuelle.

Cette rehausse doit beaucoup à l’optimisation des arrêts de tranche, le fournisseur et producteur d’électricité ayant réduit la durée des arrêts de maintenance des réacteurs nucléaires.

Une stratégie qui s’inscrit dans le cadre du plan d’action « START 2025¹ » initié en 2019 pour améliorer l’efficacité opérationnelle du programme de maintenance. Les arrêts pour maintenance sont dorénavant plus courts et gérés grâce à des équipes renforcées et mutualisées sur plusieurs centrales. Une stratégie efficace puisqu’à la fin septembre, 18 arrêts sur 33 ont été plus courts qu’anticipés en 2025.

Les bons résultats obtenus cette année contrastent avec ceux observés en 2022. Historiquement basse, la production nucléaire affichait cette année-là 279 Twh en raison de problèmes de corrosion sous contrainte dans les centrales. La France avait alors été contrainte, pour la première fois depuis 42 ans, d’importer son électricité.

Une filière en expansion

L’augmentation de la production se traduit par une autonomie énergétique de la France, qui réduit ainsi sa dépendance aux importations d’électricité. Selon RTE, le gestionnaire du réseau de transport d’électricité, l’année 2024 a été marquée par des exportations nettes record d’électricité, à 89 Twh, de la France vers ses voisins. Ce chiffre dépasse le précédent record de 77 Twh datant de 2002.

Un nouvel élan qui touche l’ensemble du secteur du nucléaire. Les effectifs sont en augmentation et représentent désormais près de 250 000 emplois en France après une stagnation depuis 2015 autour de 220 000 emplois selon le GIFEN, le syndicat professionnel de l’industrie nucléaire.

L’entretien des centrales nucléaires existantes ainsi que la construction de six nouveaux réacteurs de type EPR 2 exige une importante main-d’œuvre qualifiée : près de 100 000 recrutements sont planifiés sur les dix prochaines années, au rythme de 10 000 par an.

À noter qu’un rendez-vous important attend les professionnels du secteur : du 4 au 6 novembre prochain se tiendra le World Nuclear Exhibition, un salon mondial réunissant tous les deux ans à Paris les acteurs de la filière du nucléaire civil. Preuve d’un regain d’intérêt pour la filière : le nombre d’exposants ainsi que le nombre de pavillons nationaux sont en augmentation par rapport à la précédente édition (1  000 contre 780 et 24 contre 18 respectivement).


[1] START : Soyons Tous Acteurs de la Réussite des arrêts de Tranche

 

La quotidienne : revue de presse du 30 octobre 2025

Entre signaux économiques encourageants et tensions persistantes, l’actualité est riche pour le monde de l’industrie française. Si la croissance du troisième trimestre, portée notamment par l’aéronautique, offre un souffle d’optimisme, d’autres secteurs comme la papeterie ou la sidérurgie demeurent sous pression. Dans le même temps, la décarbonation progresse à un rythme inégal, oscillant entre efforts notables et freins structurels. Enfin, la recherche continue de tracer des perspectives d’avenir, de la robotique spatiale aux innovations du rail et des matériaux, témoignant d’un écosystème industriel en pleine mutation.

Croissance économique française et industrie aéronautique au troisième trimestre

Selon l’Insee, l’économie française a progressé de 0,5 % au troisième trimestre 2025, bien au-dessus des attentes (0,2 %). Cette performance est portée par un bond des exportations (+ 2,2 %) et une baisse des importations (- 0,4 %). Le secteur aéronautique et les investissements des entreprises ont contribué à cette dynamique.

Robotique spatiale : des systèmes pour l’environnement extrême au-delà des usines terrestres

La recherche en robotique évolue pour concevoir des systèmes capables d’opérer dans des conditions extrêmes tels qu’espaces lointains, surfaces planétaires, plutôt que dans les environnements bien définis des usines ou des routes urbaines.

À Dunkerque ArcelorMittal en demande toujours plus

Le géant sidérurgique a réaffirmé ses exigences pour son site de Dunkerque malgré les annonces de la Commission européenne sur la protection de l’acier européen. Le groupe réclame davantage de garanties pour investir dans la décarbonation et l’avenir du site, dans un contexte de pression concurrentielle et de coût de l’énergie élevé.

Les entreprises papetières en difficulté dans le Sud-ouest

Le dossier industriel de la filière papier s’aggrave. Les Papeteries de Condat (Dordogne) ont notamment été placées en redressement judiciaire et l’usine Fibre Excellence (Haute-Garonne) suspend temporairement sa production. Cette fragilité reflète la baisse de la consommation de papier/carton et les enjeux structurels du secteur, évoqués dans l’article suivant.

La filière « Chimie et Matériaux » en France, entre enjeux et défis

La filière regroupe chimie, papier-carton, plasturgie, caoutchouc ; elle compte environ 332 000 emplois, 120 milliards d’euros de CA, 5,8 milliards d’investissements, mais elle est confrontée à une forte dépendance à l’énergie et à un contexte international très concurrentiel.

L’industrie française a consacré 3,1 milliards d’euros à la réduction de son impact environnemental

Selon Insee, l’industrie française des établissements de 20 salariés ou plus a investi 2,7 milliards d’euros en 2023 dans des installations techniques ou matériel pour réduire son impact, une hausse de 16 % par rapport à 2022.

Décarbonation de l’industrie : entre efforts et sabotages

Dans le même temps, les ONG Réseau Action Climat et France Nature Environnement publient un classement des « 50 sites industriels les plus émetteurs » en France. Ainsi, malgré des annonces, les baisses d’émissions restent surtout conjoncturelles.

Le rôle du transport ferroviaire dans le désenclavement des territoires

Le rapport de Vie publique souligne que la fréquentation des trains en France a atteint un niveau record pour la 3e année consécutive, et rappelle le rôle écologique du rail, dont des émissions bien plus faibles que la route.

Les thèses du mois : « Utiliser l’eau en circuit fermé : un défi pour l’industrie »

Pour notre dossier de septembre, « Utiliser l’eau en circuit fermé : un défi pour l’industrie », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

Développement et optimisation mécanique d’un filtre innovant pour le traitement de l’eau potable
Par Vincent Quezel-Castraz
Mécanique des solides, des matériaux, des structures et des surfaces
Chasseneuil-du-Poitou, École nationale supérieure de mécanique et d’aérotechnique

Quand les PLU(i) régulent la pluie : évaluation du potentiel des Plans Locaux d’Urbanisme pour intégrer la gestion des eaux pluviales à la source : le cas de Nantes Métropole
Par Saray Valentina Chavez Colmenares
Urbanisme, Aménagement et Transports
Laboratoire Avenues – Compiègne

Dépollution des eaux souterraines par un procédé électrochimique hybride
Par Maha Ben Arfa
Génie des procédés
Université Clermont Auvergne

Study of non-thermal plasma produced by dielectric barrier discharge. Applications to water depollution and deposition of thin layers
Par Tian Tian
Physique. Génie électrique
Orléans

Photocatalysts for Hydrogen Generation and Wastewater Treatment
Par Ana Andrea Méndez Medrano
Chimie
Université Paris-Saclay

Application de l’approche Multi-barrières pour la réutilisation des eaux usées traitées : Construction d’un outil de simulation participative pour accompagner l’évaluation et la gestion des risques associés aux micro-organismes pathogènes
Par Alice-Rose Thomas
Environnement
Lyon, INSA

Nouveaux supports poreux pour limiter la communication bactérienne dans les bioréacteurs à membrane utilisés pour la réutilisation des eaux usées traitées.
Par Ermias Mideksa
Génie des Procédés et de l’Environnement
Université de Toulouse

Advanced data validation methods for wastewater sensors using Artificial Intelligence
Par Imane Zidaoui
Hydraulique urbaine
Strasbourg

Impact sur des sols agricoles et des plantes de l’irrigation par des effluents textiles traités
Par Sourour Mzahma
Sciences de la Terre et de l’environnement
Strasbourg

L’eau, entre abondance apparente et rareté réelle

Un extrait de « Eaux », par Jean-Luc Boutonnier

Présente sous toutes ses formes – liquide, solide, gazeuse – l’eau recouvre 70 % de la surface du globe. Mais 97 % de cette masse est salée tandis que seule une infime partie de l’eau douce est accessible. Elle provient principalement des précipitations, puis se répartit entre les glaciers, les nappes souterraines et les eaux de surface. En France, les réserves estimées sont stables, mais à l’échelle mondiale, les déséquilibres sont criants. En effet, dix pays concentrent 60 % des précipitations, tandis qu’un tiers de la population mondiale est contrainte de consommer une eau non potable. On estime ainsi que 11 % de la population mondiale n’a pas accès à l’eau potable tandis que cinq personnes meurent chaque minute faute d’eau salubre.

Des polluants qui s’accumulent

Trois grandes catégories de contaminants inquiètent particulièrement les scientifiques et les autorités sanitaires :

  • Les PFAS (substances per- et polyfluoroalkylées), surnommées « polluants éternels », sont des composés chimiques utilisés depuis les années 50 dans les revêtements antiadhésifs, les textiles imperméables ou les mousses anti-incendie. Leur persistance exceptionnelle dans l’environnement et leur bioaccumulation dans les nappes et les eaux traitées menacent en particulier les enfants et les femmes enceintes.
  • Les pesticides constituent un autre fléau. Certains, classés comme perturbateurs endocriniens sont difficilement éliminables.
  • Enfin, les microplastiques envahissent désormais tous les milieux, jusqu’aux grands fonds méditerranéens. Entre 9 et 14 millions de tonnes de déchets plastiques sont ainsi déversés chaque année dans les océans. Ces débris affectent plus de 800 espèces marines et contaminent la chaîne alimentaire. Si des initiatives de collecte et de recyclage se multiplient, elles peinent à endiguer un phénomène systémique lié à la surproduction plastique mondiale.

Le secteur agricole est le premier contributeur à la contamination diffuse des eaux, en raison des pesticides et des métabolites persistants qui contaminent les nappes et les eaux de surface, parfois au-delà des seuils de potabilité. La concentration de nitrates, issus des engrais azotés, est également préoccupante, tout autant que les effluents d’élevage mal gérés qui entraînent un apport excessif de matières organiques et de bactéries dans les cours d’eau.

Les filières de l’industrie agroalimentaire et chimique, quant à elles, utilisent d’importants volumes d’eau pour le nettoyage, la cuisson, le refroidissement ou la fabrication. De ces processus résultent des effluents fortement chargés en matière organique, graisses, détergents ou métaux, auxquels s’ajoutent parfois des PFAS difficiles à éliminer par les procédés conventionnels.

Les secteurs pharmaceutique et cosmétique contribuent pour leur part à la diffusion de micropolluants (résidus médicamenteux, hormones, solvants) et parfois de PFAS. Ces substances résistent aux traitements biologiques classiques et passent dans le réseau d’assainissement collectif.

De leur côté, les stations d’épuration françaises, souvent rurales, manquent de moyens pour un traitement complet des eaux usées, contribuant ainsi à la pollution. Les réseaux d’assainissement non conformes représentent aussi une source de pollution directe des milieux naturels.

Indirectement, la pollution microplastique issue de la fabrication, de l’usure et du lavage des plastiques (notamment le PET et le PEhd), affecte par ailleurs les stations d’épuration. Ces installations ne sont pas conçues pour filtrer des particules inférieures à 1 mm, qui se retrouvent dans les fleuves et les océans.

Enfin, les usines de dessalement, de plus en plus nombreuses, rejettent d’énormes volumes de saumures concentrées et de produits chimiques dans les eaux côtières, affectant les écosystèmes marins.

Prévenir plutôt que guérir ?

Tenter de freiner la pollution avant qu’elle ne se produise passe par différentes techniques. Par exemple l’agriculture devra veiller à la réduction des intrants chimiques, à la récupération des effluents, à l’installation de zones tampons végétalisées et à la surveillance systématique des eaux souterraines.

Pour les filières de l’industrie agroalimentaire et chimique, l’enjeu est de renforcer les traitements biologiques et membranaires, d’intégrer des procédés d’oxydation avancée (ozone, UV, peroxyde d’hydrogène) et de développer la recyclabilité interne de l’eau dans les usines.

Les technologies adaptées (charbon actif, membranes, bioréacteurs spécifiques) aux milieux pharmaceutique et de la cosmétique doivent par ailleurs être généralisées, incluant une surveillance étendue aux effluents hospitaliers.

De même, les rejets issus des usines de dessalement nécessitent une régulation stricte et des technologies de traitement des rejets avant rejet en mer.

Enfin, les acteurs du plastique doivent investir dans des filtres haute performance, dans des procédés de lavage en circuit fermé et la reconception des emballages.

Des procédés complexes pour rendre l’eau potable

L’eau brute issue des rivières, des nappes ou des lacs suit un long parcours avant d’être distribuée. Après captation, elle subit plusieurs étapes, telles que le dégrillage pour éliminer les débris, la clarification et la décantation, la filtration sur sable, puis l’affinage par ozonation ou charbon actif pour éliminer les impuretés organiques et les pesticides. Enfin, la chloration ou la désinfection aux UV garantissent la sécurité microbiologique avant la distribution via les réseaux et châteaux d’eau.

Les techniques évoluent, impliquant l’ultrafiltration membranaire, l’utilisation de résines échangeuses d’ions, l’ozone, la correction du pH, ou encore l’ajout de polyphosphate de zinc pour réduire la corrosion des canalisations. Dans les petites collectivités, les systèmes d’épuration reposent sur des procédés biologiques comme les boues activées, le lagunage naturel, des filtres plantés de roseaux ou des disques biologiques utilisant les bactéries et microalgues pour dépolluer les effluents.

Le mirage du dessalement

Face à la raréfaction de l’eau douce, le dessalement de l’eau de mer apparaît comme une solution technique séduisante. Pourtant, ses coûts énergétiques et environnementaux restent colossaux. Les procédés de distillation consomment jusqu’à 27 kWh/m³, ceux par osmose inverse environ 3 kWh/m³, le plus souvent à partir d’énergies fossiles. Chaque année, le dessalement génère 120 millions de tonnes de CO₂ et rejette dans la mer plus de 150 millions de m³ de saumure hautement salée, chargée de produits chimiques. Loin d’être durable, cette technologie contribue à la dégradation des écosystèmes marins.

Un état d’urgence hydrique mondial

L’eau est désormais au cœur de la crise climatique. Le réchauffement de la planète accélère les sécheresses, les inondations et la fonte des glaciers, tout en dégradant la qualité des ressources disponibles. À cela s’ajoute une prolifération d’algues et de micro-organismes pathogènes dans les eaux stagnantes. Enfin, la hausse du niveau des mers menace les nappes phréatiques côtières et la biodiversité.

Protéger l’eau n’est dès lors plus une option, mais une nécessité vitale. Restaurer les écosystèmes aquatiques, réduire les pollutions industrielles et agricoles, mais aussi repenser nos modes de consommation sont des priorités absolues pour préserver la vie sur Terre.

Start-ups, robotique et semi-conducteurs : les territoires ruraux européens intègrent l’innovation

Le rapport du JRC met en lumière une donnée marquante : en 2022, certaines régions rurales de pays comme l’Estonie, la Roumanie, la Hongrie, la Croatie, la Pologne ou la Finlande ont enregistré des taux de création d’entreprises avec salariés bien supérieurs à la moyenne européenne de 9,4 %. Ces zones, souvent considérées comme périphériques, révèlent une vitalité inattendue dans des secteurs à forte intensité technologique, comme la robotique ou les semi-conducteurs. Les régions rurales représentant plus de 11 % de toutes les start-ups européennes en robotique.

Malgré ce potentiel, l’écart urbain-rural reste majeur : en 2024, 76 % des start-ups de l’UE étaient implantées dans les zones urbaines, 18 % dans les villes et banlieues, et seulement 6 % dans les zones rurales. Le rapport souligne donc la possibilité que certaines régions rurales réussissent à « dépasser » leur statut traditionnel pour devenir de véritables piliers de l’innovation, à condition de disposer des bons ingrédients locaux.

Parmi ces « zones rurales performantes », on trouve des exemples concrets. Ainsi, le Val-d’Oise en France, Alb-Donau-Kreis en Allemagne ou la province d’Imperia en Italie ont tous enregistré une proportion de start-ups rurales supérieure à la moyenne nationale. Cela démontre que sous certaines conditions territoriales, c’est-à-dire la disponibilité en infrastructures, capital humain ou réseaux d’innovation, les zones rurales peuvent rivaliser avec les zones urbaines.

Le rapport identifie plusieurs « conditions d’activation » de ces dynamiques rurales. Il s’agit, entre autres, de développer des programmes de formation alignés sur les besoins locaux, d’améliorer l’accès aux financements, d’alléger les démarches administratives, de renforcer les infrastructures numériques et de transport, de promouvoir la culture entrepreneuriale et de favoriser les réseaux d’innovation et l’apprentissage entre pairs. Autrement dit, l’innovation dans les zones rurales n’est pas seulement une question de géographie, mais de capacités à créer un écosystème favorable.

Cette analyse chevauche des enjeux industriels majeurs. L’implantation de start-ups technologiques en robotique, semi-conducteurs ou énergie dans des zones rurales peut notamment contribuer à répartir la production ainsi que la recherche et l’innovation de façon plus équilibrée sur le territoire. Cela interroge aussi la stratégie industrielle européenne et nationale quant à la cohésion territoriale et à l’optimisation des compétences. Dans un contexte de relocalisation ou de diversification industrielle, ces territoires bénéficient d’un nouveau « contrat » vis-à-vis de l’innovation.

Ruralité et innovation en France

Cette dynamique européenne trouve un écho particulier en France, où la question de la revitalisation industrielle des territoires ruraux occupe une place croissante dans les politiques publiques françaises et européennes, désormais invitées à privilégier une approche adaptée aux spécificités locales des territoires.

Des zones rurales jusqu’ici souvent cantonnées à l’agriculture ou à des activités industrielles basiques peuvent notamment viser l’installation de start-ups de pointe, de centres de R&D ou de structures de production avancée. L’enjeu est à la fois économique (création de valeur, emplois qualifiés) et territorial (revitalisation, réseaux de transport et d’infrastructure).

En France, les zones rurales conservent en effet un rôle industriel plus fort qu’on ne l’imagine. Selon l’Insee, près de 27 % des emplois industriels y sont localisés, contre 21 % dans les zones métropolitaines. Des secteurs comme l’agroalimentaire, la mécanique, la plasturgie ou les matériaux de construction y demeurent solidement implantés, soutenus par un tissu de PME et de sous-traitants souvent tournés vers les grands donneurs d’ordre urbains. Ces territoires accueillent aussi des pôles d’excellence émergents, notamment autour de la robotique agricole, de la transition énergétique et de l’économie circulaire. Toutefois, la faiblesse des infrastructures numériques et de transport, ainsi que la pénurie de main-d’œuvre qualifiée, freinent encore leur pleine intégration dans la dynamique nationale de réindustrialisation.

Ainsi, si les territoires ruraux européens prouvent qu’ils peuvent devenir des pôles d’innovation à part entière, la France dispose déjà d’une base solide pour accélérer ce mouvement. Le maillage industriel existant, allié à une volonté politique de réindustrialisation et à l’essor de filières technologiques en région, offre des perspectives réelles de transformation. L’enjeu désormais consiste à faire converger innovation, infrastructures et formation pour permettre à ces zones d’émerger comme de véritables relais de compétitivité. L’étude du JRC confirme que l’innovation ne se limite plus aux grandes métropoles. Elle s’enracine là où les territoires savent conjuguer savoir-faire, résilience et ambition industrielle.

La quotidienne : revue de presse du 29 octobre 2025

Entre transition énergétique, innovation technologique et réindustrialisation, l’actualité reflète les grands enjeux de l’industrie française. Robotique, intelligence artificielle, énergie et territoires sont autant de domaines où les projets se multiplient, traduisant l’évolution rapide de la recherche et de l’ingénierie en France et en Europe.

Énergie et transition énergétique

Signal tarifaire pour le stockage d’énergie : Le régime TURPE 7 met en place une nouvelle composante tarifaire « injection-retrait » pour les installations de stockage électrique moyen et haut voltage, afin de mieux intégrer les renouvelables.

Éolien en mer français, crise politique et coûts en hausse : Les développeurs d’éolien offshore en France s’inquiètent d’un ralentissement après que la crise gouvernementale a gelé les appels d’offres et fragilisé le cadre réglementaire. Simultanément, EDF négocie avec l’État des conditions revues pour un projet éolien au large de la Normandie suite à la hausse des coûts.

Transports, bâtiment et CO₂ : Entre 2022 et 2023, la France a enregistré une baisse des émissions de 6,8 % grâce à une meilleure production nucléaire et renouvelable, mais la réduction ralentit fortement en 2024 notamment parce que les transports (voitures, poids lourds, aviation) et le bâtiment (chauffage, rénovation lente du parc immobilier) continuent de produire beaucoup de CO₂. Pour sa part, si le marché de la construction français est en recul en 2025, il pourrait repartir entre 2026 et 2029 grâce aux projets liés à l’énergie, aux transports ferroviaires et aux centres de données.

Industrie et innovation

Une nouvelle solution de batteries propreUne entreprise lyonnaise lance une solution transformant les onduleurs industriels en systèmes de stockage à cellules modulaires intelligentes (SMC), plus propres et plus performants.

Robotique industrielle et IA en croissance : Le marché français de la robotique industrielle devrait atteindre près de 882 M$ d’ici 2030, soit un taux de croissance annuel d’environ 10 %. Dans le même temps, celui de l’intelligence artificielle devrait passer 12 Md$ en 2025 à 77 Md$ d’ici 2032.

Inauguration d’une autoroute à recharge dynamique pour véhicules électriques : Un système d’induction en circulation (« charge as you drive ») est lancé sur une portion de l’autoroute A10 à proximité de Paris.

Production achevée d’un composant clé du réacteur ITER : Un composant majeur (du futur réacteur ITER a été fabriqué pour la première fois au sud de la France.

Territoires et réindustrialisation

Les régions rurales européennes se positionnent comme lieux d’innovation industrielle : Une étude de Joint Research Centre montre que les zones rurales de l’UE accueillent des start-ups en robotique, semi-conducteurs, transport ou énergie, ce qui pourrait bénéficier à la France. Parallèlement, l’industrie rurale française reste plus importante qu’on ne l’imagine. Ainsi, dans l’hexagone, 27 % des emplois industriels se situent encore en zones rurales, contre 21 % dans les zones métropolitaines.

« L’eau du robinet reste l’aliment le plus contrôlé »

Mais face à l’évolution des modes de vie et à l’intensification des pollutions industrielles et agricoles, les filières de traitement sont aujourd’hui confrontées à de nouveaux contaminants : nitrates, résidus de pesticides, micropolluants émergents et surtout PFAS, ces « polluants éternels » dont la réglementation progresse petit à petit. Ces substances posent des défis technologiques et réglementaires de taille, tout en interrogeant sur la résilience des ressources en eau dans un contexte de changement climatique et de stress hydrique. Dans cet entretien pour les Techniques de l’Ingénieur, Julie Mendret, maîtresse de conférence à l’université de Montpellier, chercheur à l’institut européen des membranes et également à l’origine d’un serious game sur la potabilisation et l’assainissement de l’eau, détaille les enjeux liés à la potabilisation de l’eau.

Techniques de l’Ingénieur : Quels sont aujourd’hui les principaux polluants préoccupants pour la potabilisation de l’eau ?

Julie Mendret : Les problématiques restent multiples. Les nitrates, liés essentiellement aux pratiques agricoles, demeurent un enjeu majeur. Mais les préoccupations actuelles portent surtout sur les micropolluants organiques, c’est-à-dire les pesticides, leurs produits de dégradation (métabolites), ainsi que de nouvelles familles de contaminants comme les PFAS. Ces derniers regroupent des milliers de molécules fluorées, extrêmement persistantes et mobiles, dont certaines, comme le PFOA ou le PFOS, sont désormais interdites mais toujours présentes dans l’environnement. Les microplastiques et les nanoplastiques, bien que de plus en plus étudiés, ne sont pas encore intégrés à la réglementation pour l’eau potable. Leur détection est complexe, car elle dépend de méthodes analytiques encore en cours de normalisation.

Depuis combien de temps la présence des PFAS dans les eaux potables est-elle documentée ?

En France, le sujet est émergent. La présence des pesticides et de leurs résidus dans l’eau sont documentés depuis plus de vingt ans, mais pour les PFAS, la surveillance ne date que de quelques années. À l’échelle réglementaire, une liste de 20 PFAS sera intégrée aux contrôles obligatoires d’ici 2026. Mais cette liste est réductrice : elle a été construite en sélectionnant les molécules les plus fréquemment détectées, ce qui signifie que d’autres PFAS, comme le TFA, pourtant omniprésent, restent exclus du futur cadre réglementaire. Ce qui pose problème.

Quelles sont les technologies utilisées pour potabiliser l’eau et éliminer ces contaminants ?

Les filières de base reposent historiquement sur la coagulation, la décantation et la filtration sur sable. Ces procédés sont efficaces pour éliminer les matières en suspension et une partie des pathogènes, mais ils ne permettent pas d’éliminer les micropolluants dissous. Pour cela, on ajoute des étapes de traitement avancées : adsorption sur charbon actif, filtration membranaire (nanofiltration, osmose inverse) et procédés d’oxydation.
La filtration membranaire, par exemple, est performante pour retenir les micropolluants et les PFAS, mais elle génère un rejet concentré en polluants qui doit être traité. D’où la nécessité de coupler séparation et dégradation, par exemple en combinant une étape membranaire avec une oxydation avancée capable de casser les liaisons chimiques très stables de ces molécules fluorées.

Quelles sont les innovations notables en potabilisation de l’eau ces dernières années ?

L’innovation ne repose pas aujourd’hui sur la création d’un procédé entièrement nouveau, mais plutôt sur l’hybridation et l’optimisation des procédés existants. On cherche à concevoir des filières combinées qui assurent à la fois la séparation et la dégradation des polluants. La recherche porte aussi sur le traitement des concentrats générés par les membranes, qui représentent une fraction polluée très problématique. Ne plus se contenter de rejeter ces concentrats dans l’environnement est désormais un impératif.

La réutilisation des eaux usées peut-elle jouer un rôle dans l’approvisionnement en eau potable ?

À ce jour, la réutilisation des eaux usées traitées concerne surtout l’irrigation agricole, car elles contiennent des nutriments valorisables, ou encore des usages urbains comme le nettoyage de voiries, l’arrosage d’espaces verts, ou la lutte contre les incendies. Mais certaines pratiques émergent, comme la recharge artificielle de nappes phréatiques, qui permet indirectement de produire de l’eau potable après un nouveau passage dans les filières de potabilisation. Dans un contexte de stress hydrique croissant, on peut imaginer qu’à moyen ou long terme, des filières de potabilisation directe d’eaux usées traitées seront mises en place, comme cela se pratique déjà dans certains pays. Toutefois, cela nécessitera une évolution réglementaire majeure et une acceptabilité sociétale.

On reproche souvent à l’eau du robinet d’être contaminée. Qu’en est-il réellement ?

Il faut distinguer perception et réalité. L’eau du robinet reste l’aliment le plus contrôlé : près de 60 paramètres sont surveillés en continu. Les contaminations détectées sont le reflet de nos activités humaines, mais elles demeurent majoritairement sous les seuils sanitaires. Et surtout, il faut relativiser les apports : pour les pesticides, par exemple, l’eau du robinet ne contribue qu’à environ 5 % de l’exposition totale. L’essentiel provient de l’alimentation.

Et l’eau en bouteille ?

Elle n’offre aucune garantie supérieure. Au contraire, des analyses montrent des teneurs plus élevées en micro et nanoplastiques dans les eaux conditionnées que dans l’eau du robinet. À cela s’ajoute un impact environnemental considérable via la production et le transport des bouteilles, ainsi que le recyclage très insuffisant des plastiques. Pour une qualité similaire, l’eau en bouteille coûte des dizaines de fois plus cher et engendre des pollutions supplémentaires.

Peut-on dire que la potabilisation de l’eau restera un enjeu central de santé publique dans les décennies à venir

Sans aucun doute. La potabilisation a permis l’éradication de nombreuses maladies hydriques, et elle reste un socle sanitaire essentiel. Mais les contaminants émergents, l’évolution de la réglementation, la raréfaction de la ressource et le changement climatique rendent la question encore plus stratégique. L’eau du robinet doit être valorisée, encouragée, et perçue pour ce qu’elle est : une ressource sûre, contrôlée, et beaucoup plus durable que toute alternative en bouteille.

Propos recueillis par Pierre Thouverez

De l’automatisation à l’usine du futur

La robotisation des usines françaises ne se limite plus à substituer l’homme par la machine. Elle s’oriente vers une complémentarité, où le robot devient un outil d’extension des capacités humaines. À travers son article sur l’intelligence artificielle, le gouvernement insiste sur ce point en rappelant que le robot « ne vise pas à remplacer l’homme dans son emploi » ni à supprimer son rôle, mais à transformer la nature du travail, en prenant en charge certaines tâches répétitives, pénibles ou dangereuses, permettant aux salariés de se concentrer sur des activités à plus forte valeur ajoutée.

Autrement dit, la robotisation vise à réorganiser le travail plutôt qu’à le faire disparaître, en combinant les forces de la machine, notamment la précision, l’endurance et la rapidité avec celles de l’humain que sont le discernement, la créativité et la supervision. L’introduction de la robotique répond ainsi à des enjeux de productivité, mais aussi de sécurité, de santé et de durabilité.

En France, la robotique industrielle est décrite comme étant incontournable pour maintenir la compétitivité de l’industrie. L’article « Tout savoir sur la robotique industrielle en France » précise que les robots industriels sont des outils indispensables pour maintenir l’industrie française au meilleur niveau mondial de productivité et de qualité. Leur flexibilité apporte aussi un avantage compétitif précieux. Elle s’inscrit en effet dans un contexte manufacturier où les demandes pour des produits personnalisés, des séries réduites ou avec forte variabilité, obligent les chaînes de production à devenir plus adaptables. Cette flexibilité est permise par la robotique.

La question centrale devient alors celle du travail humain à l’ère de l’automatisation. Un autre article, « Des robots et des hommes », présente pour sa part le programme national France 2030, dont le volet robotique s’appuie sur un investissement de 30 millions d’euros piloté par le CNRS afin de « faire en sorte que la robotique serve les priorités françaises collectives avec les valeurs propres de la France ». Ce choix met en lumière l’ambition non seulement technique, mais aussi sociétale de l’intégration des robots, laquelle va de pair avec des enjeux de formation, de reconversion, de protection des salariés et de maintien du lien entre la machine et l’homme.

Une évolution plutôt qu’une disparition

Dans la phase actuelle, on observe une transformation des métiers plus que leur disparition. Les robots automatisent les tâches répétitives, dangereuses ou pénibles, tandis que les salariés acquièrent des responsabilités d’animation, de supervision, de coordination ou de programmation des machines. L’objectif est ainsi de « combiner avancées technologiques et réflexions philosophiques ». Cette évolution demande un effort de montée en compétences, les opérateurs devenant des « équilibristes de la relation homme-robot », naviguant entre contrôle et collaboration.

L’intégration réussie des robots passe également par une transformation organisationnelle de l’usine, en partant de la chaîne linéaire traditionnelle vers un modèle plus flexible où les robots et les opérateurs interagissent en temps réel. Dans ce cadre, la robotique n’est plus uniquement un facteur de productivité, mais aussi d’agilité, de qualité, de personnalisation et de durabilité. Cette évolution apparaît ainsi comme un avantage compétitif. Les entreprises françaises doivent intégrer cette dimension pour ne pas rester à l’écart de la compétition internationale.

Des défis

Cependant, les défis demeurent nombreux, notamment en raison des impératifs en termes d’investissement initial, d’intégration dans les systèmes existants, de gestion des compétences et de culture de l’acceptation des robots. La question de la place de l’humain dans cette évolution s’impose ainsi. Une des clés sera le déploiement d’une stratégie de formation continue, mais aussi l’implication des acteurs sociaux et industriels dans la définition de la cohabitation homme-machine.

À moyen terme, cette robotisation transforme aussi la nature même du travail industriel. Le rôle de l’opérateur se recentre sur la supervision, la veille technologique, l’intervention lors d’événements exceptionnels et la maintenance prédictive des machines. La chaîne de production devient plus résiliente, capable de moduler les flux, d’adapter les séries, et d’intégrer de nouveaux modèles collaboratifs. Le robot n’est plus un simple automate, mais un partenaire au cœur de l’usine du futur. Cette mutation est parfaitement compatible avec les objectifs de souveraineté industrielle et d’innovation de France 2030, qui visent à placer la France en acteur moteur de la transformation.

La robotisation dans l’industrie française ne représente pas, de fait, une menace d’éradication des emplois, mais une opportunité de redéfinition des compétences, de valorisation des opérateurs, et de modernisation des process industriels. Les robots automatisent les tâches, les humains orchestrent et supervisent. Dans ce partenariat, c’est la performance globale, l’agilité, la qualité et la durabilité qui s’accroissent. Il revient désormais aux acteurs industriels, aux pouvoirs publics et aux salariés de construire ensemble cette transition, dans le respect des valeurs et des ambitions françaises.

La quotidienne : revue de presse du 28 octobre 2025

Entre pression croissante sur les ressources, dépendances stratégiques, et mutation accélérée des usines, la France se trouve au cœur d’une recomposition industrielle majeure, à travers la gestion de l’eau dans les infrastructures, la robotisation du travail, les nouveaux matériaux pour l’aéronautique et l’ajustement face aux bouleversements énergétiques mondiaux.

L’eau, nouvel enjeu caché de l’IA et de la transition énergétique

Centres de données, production d’hydrogène, batteries…, la consommation d’eau explose dans les infrastructures technologiques et énergétiques. Un défi environnemental qui s’ajoute aux contraintes de décarbonation et d’efficacité énergétique (Modern Diplomacy).

Le boom du GNL rebat les cartes de la transition énergétique mondiale

Selon l’Agence internationale de l’énergie, l’arrivée massive de nouvelles capacités de gaz naturel liquéfié entre 2026 et 2030 pourrait bouleverser les équilibres énergétiques mondiaux. Une situation qui interroge la trajectoire climatique européenne et les choix industriels à venir (Reuters).

Terres rares : l’Europe face à la dépendance stratégique envers la Chine

Bruxelles alerte sur la vulnérabilité des filières industrielles européennes liées aux aimants permanents et aux métaux critiques, essentiels à l’automobile et aux énergies renouvelables. Une bataille d’approvisionnement s’engage pour sécuriser la production locale (Le Monde).

La montée des « carbon bombs » inquiète les ONG

Depuis 2021, 28 nouveaux projets industriels fortement émetteurs ont été recensés dans le monde. Les ONG dénoncent une incohérence entre les engagements climatiques et la réalité des investissements lourds (Al Jazeera).

Inauguration du laboratoire commun Icare pour l’aviation

Un nouveau laboratoire commun nommé Icare (entre Safran et le CNRS) a été inauguré récemment pour travailler sur des matériaux plus légers et performants destinés aux moteurs aéronautiques (CNRS).

Robotique industrielle : transformation, dynamique et contraction du marché français

Le marché français de la robotique industrielle est « dynamique avec une croissance à deux chiffres », mais il connaît aussi une forte contraction des ventes, avec par exemple une baisse de 30 % en 2024 des robots industriels vendus en France (Industrie-Numérique).

Parallèlement, si, en France, environ 15 % des salariés pourraient être remplacés par un robot, ce sont davantage les procédures de travail qui sont appelées à évoluer (info.gouv.fr)

À l’agenda

CSAW, le plus grand concours académique mondial de cybersécurité : la finale européenne du CSAW’25 (Cyber Security Awareness Week), organisée par l’Esisar, se tiendra à Valence les 13 et 14 novembre prochains. L’école d’ingénieurs Esisar de Valence met en lumière l’enjeu croissant que constituent les robots dans la cybersécurité industrielle, soulignant que la multiplication des automates et systèmes connectés dans les usines expose les entreprises à de nouvelles vulnérabilités.

Les finalistes s’affronteront lors de cinq compétitions de cybersécurité devant les experts du domaine.

Artelia mise sur l’ingénierie augmentée pour anticiper les effets du changement climatique sur les vitrages

Une initiative Syntec-Ingénierie

Au travers d’une série de capsules vidéo intitulée « L’ingénierie augmentée au service du climat », la fédération professionnelle Syntec-Ingénierie – 400 entreprises adhérentes et 13 délégations régionales – a choisi de mettre en avant quatre initiatives portées par des entreprises du secteur, reposant sur l’utilisation du numérique pour simuler des scénarios, anticiper les impacts environnementaux, et concevoir des bâtiments à l’empreinte carbone réduite. Ceci, en donnant directement la parole à des ingénieur(e)s du secteur du bâtiment, afin d’illustrer le rôle de l’ingénierie pour accélérer la transition écologique et énergétique. Nous avons pu revenir en détail avec les adhérents de la fédération porteurs de ces projets, sur les tenants et aboutissants de leur travail. Pour le troisième de ces quatre entretiens, rencontre avec Artelia.

Dans le cadre d’une mission qu’ils se sont vu confier par Crédit Agricole Immobilier, deux ingénieurs du groupe Artelia se sont penchés sur la question encore relativement peu explorée des effets des températures extrêmes sur les vitrages des façades de bâtiments tertiaires.

En première ligne face aux effets du changement climatique, et notamment à la recrudescence de vagues de chaleur extrêmes, les façades vitrées des bâtiments sont en effet mises à rude épreuve, et le seront plus encore à l’avenir. Pour anticiper les désordres que les vitrages pourraient être amenés à subir, mais aussi proposer des solutions d’adaptation pertinentes, Maëlle Darnis, ingénieure et architecte RFR Structure et Enveloppe, et Christophe Boré, référent métier et responsable de mission conception environnementale Artelia, ont mené un vaste projet de modélisation numérique, qui leur a permis de tirer une série d’enseignements inédits qu’ils évoquent dans une vidéo publiée par Syntec-Ingénierie, et sur lesquels ils ont accepté de revenir plus en détail pour Techniques de l’Ingénieur.

Salariés du groupe Artelia, Maëlle Darnis et Christophe Boré travaillent régulièrement main dans la main autour de projets complexes.
Maëlle Danis / Christophe Boré – Tous deux salariés du groupe Artelia, Maëlle Darnis et Christophe Boré travaillent régulièrement main dans la main autour de projets complexes.

Techniques de l’Ingénieur : Quelles sont vos missions respectives, et quels sont les liens qui vous unissent ?

Maëlle Darnis : Je suis ingénieure façades chez RFR structure et enveloppe, une entreprise d’ingénierie spécialisée en façades et structures. Nous appartenons au groupe Artelia depuis 2015. Nous menons ainsi un certain nombre de projets en commun. Nous intervenons principalement sur des façades légères vitrées – murs-rideaux, ossature bois, verrières… – dans le cadre de projets de bâtiments tertiaires.
Christophe Boré : Je suis ingénieur conception environnementale chez Artelia. Je travaille principalement sur des projets tertiaires de tours de bureau, d’hôpitaux, de centres de recherche, etc. Depuis trois ans, je travaille aussi sur le sujet de la résilience au changement climatique. Maëlle et moi appartenons à la même business unit, ce qui nous permet de travailler en collaboration sur certains projets complexes.

Quelles sont justement les origines de ce travail que vous avez mené conjointement dans le cadre d’une mission pour Crédit Agricole Immobilier ?

CB : Comme je l’évoquais, je travaille depuis trois ans environ sur le sujet de la résilience au changement climatique, notamment au travers d’audits. Cela passe par une phase d’analyse de l’exposition, autrement dit d’analyse des aléas, puis une phase d’analyse de risque. Cela nous permet in fine d’accompagner les clients au travers de plans de travaux, qui permettent de mettre en balance le coût de l’action par rapport à celui des conséquences potentielles d’une mal-adaptation, voire d’une non-adaptation.

Crédit Agricole Immobilier a eu vent de cette offre novatrice – peu d’acteurs proposent une telle technicité sur ce type de service aujourd’hui – et nous a ainsi missionnés pour réaliser un audit de ses deux campus franciliens. Sa demande consistait à analyser les forces et faiblesses des bâtiments implantés au sein de ces campus et les besoins d’adaptation associés. À cela s’est ajoutée une demande d’accompagnement pour un plan de travaux d’adaptation dans le cadre de la rénovation de deux bâtiments en particulier. Nous avions pour mission de proposer – suite à la réalisation d’études de faisabilité techniques dédiées – des solutions techniques, architecturales et paysagères, ainsi que des stratégies globales de résilience au changement climatique associées aux spécificités du site et des bâtiments.

Nous avions déjà, avec Maëlle, travaillé en amont autour des réglementations applicables au bâtiment, mais aussi sur les paramètres climatiques intégrés aux réglementations en cours de modification. Nous nous étions alors notamment rendu compte d’un point sensible au niveau des façades : les joints de scellement des vitrages.

Ces joints se trouvent autour des éléments vitrés des façades, et permettent d’encapsuler le gaz – en général de l’argon – entre les vitres, en conférant ainsi au vitrage ses capacités isolantes. En cas de rupture de ces joints de scellement – phénomène dont la probabilité augmente au-delà d’une température intervitrage supérieure à 60°C, d’autant plus si le vitrage est soumis à une contrainte mécanique –, le gaz s’échappe et le vitrage perd quasiment tout pouvoir isolant. Il peut même subir un phénomène de casse thermique, à cause de la condensation.

Nous avons donc décidé, dans le cadre de cette mission confiée par Crédit Agricole Immobilier, de prendre le temps d’étudier le sujet plus en profondeur, en faisant appel à un logiciel de modélisation numérique pour comprendre quelles sont les conditions limites du phénomène, voir si ce projet était concerné et, le cas échéant, réfléchir à des solutions permettant de prévenir ce problème. L’idée était donc à la fois que cela soit utile pour cette mission, mais aussi pour d’autres projets à l’avenir.

Logiciel de calcul thermique et de dimensionnement de vitrages
Les deux ingénieurs ont utilisé un logiciel de calcul thermique et de dimensionnement de vitrages, qui leur a notamment permis de réaliser des tests avec des données climatiques correspondant à un climat futur. © Artelia/RFR – Syntec Ingénierie

Comment avez-vous procédé ? À l’aide de quel outil numérique, et à partir de quelles données ?

MD : Nous avons utilisé le logiciel Vitrages Décision, développé par Ginger CEBTP, auquel font appel beaucoup d’entreprises d’ingénierie pour réaliser des calculs thermiques et de dimensionnement des vitrages en fonction des contraintes mécaniques auxquelles ils seront soumis. Nous avons joué sur les paramètres d’entrée tels que la localisation, l’altitude, l’orientation et l’inclinaison des façades pour voir dans un premier temps comment se comporteraient les façades des bâtiments du groupe Crédit Agricole dans leur configuration actuelle. Mais pas uniquement… Nous avons ensuite mené des tests avec des données climatiques correspondant à un climat futur, et en établissant différents scénarios visant à étudier l’influence de certains choix techniques et architecturaux. C’est ce qui fait en grande partie l’originalité de notre démarche.

CB : À partir des scénarios climatiques du GIEC, ainsi que du scénario de référence retenu dans la TRACC[1], nous avons effectivement commencé par extraire un certain nombre de données clés : évolution des températures maximales ; durée, intensité, fréquence des vagues de chaleur… Et ce, en prenant également en compte le phénomène d’îlot de chaleur urbain.

À partir de ces données d’entrée, nous avons alors modélisé les façades existantes, en tenant compte des références des vitrages qui les composent, ainsi que des stores dont elles sont équipées, tout en faisant varier les valeurs de température, afin d’étudier les conséquences des conditions climatiques extrêmes qui nous attendent à l’avenir. Ceci, pour une localisation en région parisienne, mais aussi ailleurs en France. Nous avons réalisé ces travaux de modélisation à la fois pour des petits et des grands vitrages, qui ont en effet des comportements différents.

Cela nous a permis d’obtenir des valeurs « V0 » de température des joints de scellement des vitrages, avec ou sans stores. Lorsqu’ils sont installés à l’intérieur des bâtiments, ces stores ont en effet tendance à faire chauffer encore davantage le vitrage, en réfléchissant une partie de la lumière reçue. Nous avons aussi fait varier le type de menuiserie ; le type, la couleur et l’orientation des lames des stores, étudié l’influence de la mise en œuvre ou non de verre feuilleté, le nombre de couches de vitrage, le type de couches de contrôle solaire etc. Ceci, dans l’objectif d’étudier la plus large palette de scénarios possibles – une quarantaine en tout – nous permettant de définir un ensemble de conditions limites.

Nous nous sommes pour cela appuyés sur le cahier n° 3242 du CSTB[2]. Ce document porte sur les conditions climatiques à considérer pour le calcul des températures maximales et minimales des vitrages, notamment l’irradiation solaire, qui a une influence majeure, et qui varie selon l’exposition de la façade. Ce cahier du CSTB nous donne ainsi des valeurs de contraintes, en newton par millimètre carré (N/mm2), à ne pas dépasser au niveau des joints de scellement.

Quels enseignements avez-vous tirés de ce travail ?

CB : Ce travail de modélisation nous a notamment permis de constater que la température intervitrage ne dépasserait pas les 65°C, du moins à Paris à l’horizon 2050. Nous avons donc cherché à définir à partir de quelle température extérieure cela pourrait être le cas, en l’occurrence à partir de 46°C. En croisant cette valeur avec des relevés météorologiques historiques, ainsi que les projections du GIEC, nous avons ainsi pu déterminer les localisations de zones à risque aujourd’hui, et celles qui le deviendront demain. Cela va nous guider dans nos futurs projets. Le problème se manifeste d’ailleurs déjà, par exemple dans les pays du Golfe ou d’Afrique du Nord, où l’usage de la climatisation permet néanmoins d’y remédier dans une certaine mesure. En cas de panne, en revanche, la dérive de température intérieure risque bien de poser problème.

Cela nous a finalement amenés à proposer à Crédit Agricole Immobilier des solutions de résilience en phase avec les stratégies d’atténuation – installation des stores à l’extérieur, idéalement faits de toile de couleur claire ; choix de menuiseries en bois plutôt qu’en aluminium… – en grande partie basées sur les principes de l’architecture bioclimatique. Nous avons en effet pris le parti de tenir compte de l’impact carbone de ces solutions, en écartant notamment le recours à la climatisation.

Notre objectif, dans le cadre de ces audits, est aussi de voir ce qui serait à changer dans les normes actuellement en vigueur, pour qu’elles soient plus adaptées aux conditions climatiques à venir. Notre travail nous a ainsi conduits à proposer à Crédit Agricole immobilier des règles de dimensionnement différentes de celles qui sont classiquement employées. Cette étude les a d’ailleurs fortement intéressés…

MD : La question de la température des joints de scellement est loin d’être décorrélée de la conception des vitrages et des façades. Comme l’indiquait Christophe, l’ajout d’un store intérieur, notamment, provoque une augmentation de la température intervitrage. Néanmoins, sa présence est souhaitable pour assurer le confort des occupants d’un bâtiment. Le travail de conception est donc avant tout multifactoriel. Il faut réussir à trouver le juste équilibre entre tous les paramètres d’une façade vitrée : température limite des joints de scellement, certes, mais aussi performance thermique, facteur solaire ou encore confort lumineux.

L’idée est désormais de faire connaître ces résultats, qui sont encore très rares dans la littérature scientifique et technique, et de les mettre à profit. D’une manière générale, le travail de conception des bâtiments par les architectes doit en effet évoluer, et les résultats que nous avons obtenus font clairement partie des nouvelles données d’entrée à prendre en compte. Il s’agit d’une petite pierre à l’édifice en matière de conception environnementale des bâtiments de demain, mais elle a toute son importance.


[1] Trajectoire de réchauffement de référence pour l’adaptation au changement climatique.

[2] Centre scientifique et technique du bâtiment.

« Les eaux usées ne doivent plus être vues uniquement comme un déchet mais comme une ressource »

Valorisation de nutriments, récupération de chaleur, procédés hybrides ou zéro rejet liquide (ZLD) : les innovations se multiplient pour faire des eaux utilisées par l’industrie une ressource. D’autant plus que la raréfaction de l’eau est de plus en plus prégnante et oblige les industriels à adapter leurs stratégies de gestion.

Nicolas Roche, professeur en génie des procédés à Aix-Marseille Université, chercheur au CEREGE[1] et vice-président académique de la SFGP[2], a expliqué aux Techniques de l’Ingénieur en quoi les eaux usées industrielles sont aujourd’hui considérées comme des ressources à part entière, dont l’optimisation des traitements passe par la combinaison de technologies éprouvées et complémentaires.

Techniques de l’Ingénieur : Quels sont vos principaux axes de recherche ?

Nicolas Roche : Je travaille depuis de nombreuses années sur les problématiques de traitement des eaux, essentiellement des eaux usées. Aujourd’hui, j’adopte dans ce cadre une approche globale qui intègre non seulement les procédés de traitement mais aussi les dimensions de réutilisation, les problématiques sociétales, les aspects humains, sociaux et juridiques liés à l’acceptabilité. C’est une approche interdisciplinaire qui m’amène à collaborer aussi bien avec des acteurs publics, privés mais aussi à l’international, notamment au Maroc.

Que signifie précisément cette notion d’approche globale ?

Il s’agit de considérer la problématique de l’eau dans son ensemble, et non pas de distinguer un « petit cycle » de l’eau et un « grand cycle ». En réalité, il n’existe qu’un seul cycle, car toutes les actions sont interconnectées. Il faut donc évaluer simultanément l’aspect quantitatif des ressources et l’aspect qualitatif. Le traitement des eaux se trouve au cœur de ces enjeux, puisqu’il constitue l’interface entre activités humaines, environnement et nature.

Les eaux usées ne doivent plus être vues uniquement comme un déchet mais comme une ressource. Elles permettent de récupérer de l’eau, de la matière, des nutriments – par exemple le phosphore essentiel à l’agriculture -, mais aussi des métaux critiques présents par exemple dans les boues de stations d’épuration. On peut également en extraire de l’énergie (production de biogaz, gazéification thermique) ou de la chaleur. Dans certaines villes comme Genève, des échangeurs et des pompes à chaleur valorisent la chaleur des eaux usées pour chauffer des bâtiments. En France, des piscines, à Marseille ou au Levallois-Perret par exemple, utilisent cette ressource pour réchauffer leurs bassins. L’économie circulaire appliquée aux eaux usées est en plein développement.

Quels bénéfices concrets apporte la réutilisation des eaux usées aux industriels ?

Chaque mètre cube d’eau réutilisé correspond à un mètre cube traité selon des critères de qualité plus stricts, adaptés à un usage spécifique. Cela induit des impacts positifs multiples : amélioration de la qualité de l’eau rejetée, diminution de la pression sur les ressources naturelles, et valorisation interne par les industriels. La réutilisation des nutriments (azote, phosphore) progresse, tout comme la récupération énergétique, avec des procédés allant du biogaz à la valorisation thermique pour chauffer ou refroidir des quartiers entiers.

Quelles évolutions technologiques sont à l’œuvre ?

Traditionnellement, on traitait les eaux pour un rejet conforme dans l’environnement, avec seulement deux niveaux de qualité : zones sensibles et zones non sensibles. Désormais, dans une logique d’économie circulaire et de réutilisation, il faut développer des solutions sur mesure adaptées à la nature des effluents. Les effluents industriels ne contiennent pas les mêmes molécules ni les mêmes polluants selon les secteurs, ce qui nécessite des procédés spécifiques, au cas par cas.

Cela conduit au développement de réacteurs hybrides combinant plusieurs mécanismes : biomasse libre et biomasse fixée dans un même réacteur, couplage d’adsorbants et de procédés biologiques, ou encore intégration de photocatalyse avec un réacteur chimique. L’objectif est d’augmenter l’efficacité du traitement en multipliant les synergies.

Par ailleurs, de nouveaux procédés émergent, comme les procédés d’oxydation avancée pour traiter des molécules spécifiques et les procédés fondés sur la nature, comme des filtres plantés améliorés par l’ajout de matériaux adsorbants ou l’utilisation de déchets, afin de multiplier les étapes de traitement.
En parallèle, les membranes – microfiltration, nanofiltration, osmose inverse – restent très utilisées, ce sont déjà des technologies matures, avec peu d’innovations récentes.

Quels secteurs industriels sont les plus avancés dans cette circularisation de leurs usages de l’eau ?

Le secteur papetier a été précurseur, avec des sites parvenus à l’autonomie en eau. Michelin a par exemple intégré une « valeur économique de l’eau » dans ses dimensionnements et a pu réduire sa consommation de près de 30 %. L’agriculture a gagné en efficacité grâce à l’irrigation optimisée et à la réutilisation d’eaux usées traitées, mais la demande continue d’augmenter avec le changement climatique. Le textile, en revanche, reste en retrait : ses effluents, notamment colorés, sont plus difficiles à réutiliser, et la production de coton reste largement dépendante de l’irrigation.

Comment les industriels intègrent-ils désormais la gestion de l’eau ?

Historiquement, la gestion de l’eau se faisait à travers une station d’épuration externe, en dialogue avec les autorités sur les niveaux de rejet. Aujourd’hui, on intègre la ligne « eau » directement au cœur du process industriel, parfois avec des systèmes décentralisés par atelier. On parle de plus en plus de zéro rejet liquide (ZLD), c’est-à-dire d’une suppression totale des rejets liquides.

Les industriels mobilisent à la fois leurs compétences internes en génie des procédés et des partenariats avec des PME spécialisées ou des laboratoires de recherche pour concevoir des solutions spécifiques. Des projets collaboratifs existent également afin de développer ces approches d’économie d’eau.

La législation favorise-t-elle cette évolution ?

Oui. Des décrets récents, notamment dans l’industrie agroalimentaire, facilitent la réutilisation des eaux traitées (par exemple pour le lavage ou le refroidissement). Certaines pratiques, comme la réutilisation d’eaux de refroidissement pour le lavage, existent déjà sans nécessiter de changements réglementaires. La marge de manœuvre est plus large dans les circuits internes des usines, alors que dans le domaine public, la réglementation est plus contraignante.

Et à l’échelle internationale ?

Au Maroc par exemple, pays avec lequel je collabore sur des projets en cours, l’Office chérifien des phosphates au Maroc, autrefois plus gros consommateur d’eau du pays, est devenu autonome en eau grâce au dessalement d’eau de mer et à la construction de stations d’épuration pour réutiliser les eaux usées urbaines. Le concept de ZLD se déploie également dans plusieurs pays du Golfe. Le dessalement, en particulier, est désormais utilisé massivement pour l’industrie et, à terme, pour l’agriculture, afin de compenser les effets du changement climatique.

Propos recueillis par Pierre Thouverez


[1] CEREGE
[2] SFGP

Exosens s’ancre dans la dynamique du secteur défense

Exosens, le fabricant français de technologies de défense a annoncé un chiffre d’affaires de 327,8 millions d’euros pour les neuf premiers mois de 2025, soit une croissance de 23,2 % comparée à la même période en 2024. Cette performance s’inscrit dans un contexte favorable à la fois sur les marchés internationaux, notamment au sein de l’OTAN, et sur le territoire national, où l’accroissement des budgets militaires et la volonté de renforcer l’autonomie technologique pèsent sur les stratégies des entreprises.

Sur le marché français, cette trajectoire traduit une double dynamique avec, d’une part, la relance structurelle des dépenses de défense en Europe et, d’autre part, l’effort de l’État pour soutenir les filières d’équipement stratégique et les acteurs industriels nationaux. Exosens, déjà positionné sur des technologies sensibles telles que les tubes intensificateurs d’image (par exemple utilisés dans les jumelles de vision nocturne), l’imagerie infrarouge ou encore les capteurs, se trouve au cœur de cette stratégie de souveraineté.

Techniquement, l’activité « Amplification » du groupe (notamment les tubes intensificateurs de lumière pour vision nocturne) a généré 231,8 millions d’euros sur les neuf mois, en croissance de +20,6 %, tandis que la branche « Détection & Imagerie » a atteint 97 millions d’euros, soit +26,2 % de progression. Ces segments reflètent des besoins croissants des armées et des systèmes de surveillance modernes, en France comme ailleurs, pour des équipements embarqués ou discrets (drones, forces légères, surveillance nocturne).

La rentabilité suit également, avec une marge brute ajustée enregistrée à 51,2 % du chiffre d’affaires, et un gain de 221 points de base par rapport à la période précédente. Sur un marché français marqué par une concurrence forte et des exigences réglementaires élevées, cette amélioration est significative. Elle traduit en effet une meilleure maîtrise des coûts, un mix produit amélioré, et une montée en cadence de la production.

Sur le plan industriel, le groupe prévoit une extension de ses capacités globales de +40 % d’ici 2027, grâce à un investissement additionnel de 17 millions d’euros en Europe, en complément des 20 millions déjà annoncés (soit un total de 37 millions d’euros) pour atteindre l’objectif. Cette stratégie s’inscrit parfaitement dans le cadre de la relocalisation française et européenne des équipements de défense, et plus largement de la technologie critique. En France, cette montée en capacité revêt une dimension stratégique avec l’objectif de renforcer les ateliers nationaux, diminuer les dépendances et capter une part accrue des marchés européens.

Côté marché boursier, le titre est coté sur Euronext Paris et la performance des neuf mois renforce l’attrait des investisseurs pour cette thématique de défense en France, une rare zone de croissance dans un contexte économique plus globalement morose.

Cependant, des risques subsistent. Pour maintenir cette dynamique sur le marché français, l’entreprise doit gérer les délais de montée en capacité, les défis de la chaîne logistique, notamment en période de tension géopolitique, et veiller à ce que sa production industrielle française suive la demande croissante. Le maintien de la rentabilité tout en investissant reste un équilibre à préserver.

Cette performance des neuf premiers mois de 2025 illustre toutefois la place possible d’un acteur français dans l’industrie de défense hautement technologique et exportatrice. Pour le marché français, elle confirme que les filières d’équipement stratégique peuvent générer de la valeur, soutenir la souveraineté et attirer les capitaux. Dès lors, cette trajectoire mérite d’être suivie de près, notamment pour ce qu’elle révèle de la mutation de l’industrie française dans un environnement globalisé et exigeant.

La quotidienne : revue de presse du 27 octobre 2025

L’actualité industrielle française oscille entre reprise et incertitude. Modernisation des filières, pression réglementaire, innovation technologique et conjoncture manufacturière contrastée dessinent les grandes lignes d’un paysage en mutation.

Cette puce de Nexperia qui peut paralyser toute l’industrie automobile européenne

Des tensions entre la Chine et les États-Unis impactent Nexperia, le fabricant de semi-conducteurs néerlandais, dont les produits jouent un rôle clé dans les chaînes de production automobiles européennes. Ce potentiel blocage pourrait avoir des effets immédiats sur les usines françaises (Le Point).

L’usine de recyclage d’uranium de Orano à Marcoule reprend des couleurs

Le site de traitement de Mox situé à Marcoule, essentiel pour la filière nucléaire française, est en pleine relance après des années de baisse de cadence. Un programme de modernisation d’environ 400 millions d’euros vise ainsi à porter la production à 125 tonnes par an d’ici 2030 (Révolution Énergétique).

L’objectif d’interdiction des moteurs thermiques en 2035 inquiète la filière automobile française

Le président Emmanuel Macron a confirmé que la France soutient l’interdiction de vente de véhicules à moteur thermique à partir de 2035, mais la filière automobile française y voit un enjeu critique de compétitivité et d’adaptation industrielles (Le Figaro).

Exosens affiche une croissance de +23 % sur 9 mois et vise une montée en capacité de +40 % d’ici 2027

Le spécialiste français des technologies de détection, amplification et imagerie pour la défense et l’industrie annonce un chiffre d’affaires de 327,8 M€ pour les 9 premiers mois de 2025 (+23,2 %), grâce à la demande accrue dans les marchés de la défense, des drones et de l’imagerie industrielle (GlobeNewswire).

Les coûts de production de modules solaires pourraient chuter à 0,15 €/W en Europe grâce à l’automatisation industrielle

Lors d’un atelier « Modules & Material » organisé en Allemagne, il a été estimé qu’une usine européenne de 1 GW automatisée pourrait produire des modules solaires à entre 0,15-0,17 €/W, à condition d’utiliser une chaîne d’approvisionnement similaire. Ce niveau serait compétitif avec celui des usines chinoises (pv magazine India).

Le gouvernement français soutient une nouvelle technologie de fabrication de puces quantiques dans le cadre du projet Ultracat

La start-up franco-canadienne Alice & Bob, en partenariat avec Plassys‑Bestek, a reçu un équipement de dépôt ultra-haut-vide dans le cadre du projet Ultracat soutenu par l’agence française d’innovation de défense. Cette avancée renforce la souveraineté technologique française dans la fabrication de puces quantiques (The Quantum Insider).

L’activité manufacturière française reste en contraction en octobre, malgré un léger redressement

Le PMI flash manufacturier français s’établit à 48,3 en octobre 2025 (contre 48,2 en septembre), soit toujours en dessous du seuil de 50 qui sépare croissance et contraction. Ce résultat indique que les usines françaises restent sous tension (reuters.com).

Climat : l’Académie des sciences met en garde contre les mirages de la géo-ingénierie

Dans un contexte de réchauffement accéléré et d’essoufflement des politiques climatiques, l’idée de manipuler le climat gagne du terrain. Un rapport de l’Académie des sciences dresse un état des lieux scientifique sur la géo-ingénierie, cette discipline qui regroupe les techniques visant à modifier intentionnellement le climat de la Terre dans le but de limiter le réchauffement global. Le document met en garde contre un glissement dangereux qui consisterait à transférer la responsabilité politique et économique vers la promesse de technologies encore largement spéculatives.

Les techniques dites de modification du rayonnement solaire, communément appelées SRM pour Solar Radiation Modification, constituent la branche la plus spectaculaire et la plus controversée de la géo-ingénierie. Elles visent à réfléchir une partie de la lumière solaire pour refroidir artificiellement la Terre, par exemple en injectant des aérosols dans la stratosphère, à l’image des effets temporaires d’une éruption volcanique. Le refroidissement observé après l’éruption du mont Pinatubo aux Philippines en 1991, de l’ordre de 0,3 degré, nourrit depuis trente ans l’imaginaire d’un « bouton climatique ».

Le rapport démonte cette illusion. Les modèles climatiques montrent qu’un déploiement massif de SRM devrait être maintenu sur des siècles, sous peine de provoquer un « choc terminal ». En clair, si les injections s’arrêtaient brusquement alors que les gaz à effet de serre resteraient élevés, la température grimperait en quelques années de façon explosive, jusqu’à quinze fois plus vite qu’un réchauffement progressif sans intervention. Ce scénario, qualifié de « chaos climatique », rendrait toute adaptation impossible.

À ce risque s’ajoutent d’autres incertitudes telles que des perturbations régionales des régimes de pluie, une altération de la couche d’ozone, des effets sur la production solaire, ou encore des menaces pour la santé humaine. Mais au-delà de la science, le SRM pose une question politique vertigineuse : qui déciderait du thermostat planétaire ? L’Académie évoque la tentation d’un usage unilatéral par un État ou un acteur privé, transformant la géo-ingénierie en instrument de pouvoir. D’où une recommandation claire : interdire tout déploiement, public ou privé, de ces technologies.

Pas de solution technologique unique face au réchauffement global

À côté de ces scénarios à haut risque, le rapport examine les méthodes d’élimination et de stockage du CO₂, encore appelées CDR pour Carbon Dioxide Removal. Fondées sur le renforcement des puits naturels ou sur des procédés géochimiques, elles apparaissent nécessaires pour atteindre la neutralité carbone, à l’image de la restauration des forêts ou de l’enrichissement des sols en matière organique. Les académiciens estiment qu’elles constituent des pistes crédibles, mais leur potentiel reste limité face à l’ampleur des émissions actuelles. Même généralisées, ces pratiques ne compenseraient qu’une fraction du carbone relâché chaque année.

Certaines techniques plus expérimentales, comme l’altération accélérée des roches ou l’alcalinisation des océans, soulèvent encore de grandes incertitudes quant à leur efficacité, leur coût et leurs effets collatéraux. La première consiste à broyer puis à épandre des minéraux capables de réagir chimiquement avec le CO₂ atmosphérique pour le piéger sous forme stable. La seconde vise à ajouter des minéraux basiques dans l’océan afin d’inverser le processus d’acidification et d’augmenter les capacités d’absorption du CO₂. L’Académie plaide pour une recherche rigoureuse, fondée sur la compréhension des mécanismes biogéochimiques, et non sur la quête d’un instrument magique de refroidissement global.

Enfin, les technologies dites de CCUS (Carbon Capture, Utilization and Storage, pour captage, stockage et valorisation du carbone), qu’il s’agisse de piéger le CO₂ à la source ou de le stocker dans des formations géologiques, occupent une place à part. Selon les académiciens, elles relèvent davantage de la transition industrielle que de la géo-ingénierie stricto sensu. Le rapport souligne leur intérêt pour les secteurs difficiles à décarboner autrement, notamment les cimenteries, mais rappelle leurs limites : coût élevé, contraintes géophysiques, risques de fuite et besoin d’énergie décarbonée pour fonctionner. Elles constituent un levier d’atténuation, pas une solution climatique globale.

Au terme de son analyse, l’Académie invite à renoncer à l’illusion d’un contrôle technologique du climat. La véritable ingénierie du climat, conclut-elle, ne se joue pas dans les laboratoires, mais dans la transformation urgente de nos modes de production et de consommation.

Faire des eaux usées une ressource industrielle

En France depuis quelques années, les acteurs industriels ne parlent plus seulement de traitement des eaux usées, mais de réutilisation et de boucles fermées. Derrière la sémantique, plusieurs objectifs : alléger les prélèvements, sécuriser la production et, de plus en plus, récupérer de la valeur dans les effluents produits.

Depuis 2023–2024, la France a simplifié et élargi la réutilisation des eaux usées traitées (REUT). Un décret de janvier 2024 en détaille les usages, la procédure d’autorisation et la surveillance sanitaire. Un arrêté de juillet 2024 précise l’emploi d’eaux réutilisées au sein d’un site ou entre sites du secteur alimentaire.

Les effluents deviennent des actifs de production

Les industriels n’utilisent plus l’eau une seule fois, la volonté est aujourd’hui de créer une boucle fermée, dans l’objectif de revaloriser les eaux usées. Concrètement, la revalorisation combine les actions suivantes.

D’abord, le recyclage interne : des procédés d’ultrafiltration accompagnés d’une osmose inverse (parfois avec bioréacteurs à membranes, UV, ozonation) permettent de revenir à des qualités des eaux compatibles avec des activités de rinçages, de nettoyage et de refroidissement. Dans l’agroalimentaire par exemple, Danone a obtenu une dérogation pionnière pour réutiliser de l’eau recyclée dans certaines étapes de nettoyage, avec à la clé environ 30 % d’économie d’eau.

Ensuite, l’utilisation de boucles de refroidissement fermées permet de limiter l’évaporation et de réduire les prélèvements d’eau douce. Dans ce cadre, ArcelorMittal met en avant cette stratégie dans ses nouvelles installations bas-carbone, sur son site de Dunkerque.

La récupération de chaleur sur effluents et la valorisation des boues (méthanisation) constitue la troisième voie possible. Les grands acteurs du traitement de l’eau, comme Veolia ou Suez industrialisent ces approches dans leurs offres actuelles à destination des entreprises.

Enfin, le recyclage pour utilités : les eaux retraitées peuvent dans ce cas alimenter les circuits incendie, les tours de refroidissement ou le lavage des gaz par exemple.

La microélectronique en première ligne

Les industries de haute technologie, très gourmandes en eau ultra-pure, sont particulièrement en pointe sur la thématique de l’innovation en traitement des eaux usées. STMicroelectronics annonce par exemple d’ores et déjà un taux de 42 % d’eau recyclée (en 2023), et vise 50 % d’ici 2025. Soitec, autre acteur majeur, a doublé en quelques années son taux de réutilisation sur son site de Bernin. Ces efforts s’expliquent autant par la pression environnementale que par la nécessité d’assurer une continuité de production dans un secteur hautement stratégique.

Derrière ces réussites se cachent aussi les géants français de l’eau, Veolia et Suez, qui développent et déploient des technologies de pointe : bioréacteurs à membranes, nanofiltration, procédés d’oxydation avancée, élimination de micropolluants ou encore pilotage numérique. Ils accompagnent ainsi les industriels dans la conception de systèmes intégrés, où l’eau devient un flux circulaire au même titre que l’énergie ou les matières premières.

Malgré ces avancées, la France reste en retard sur la réutilisation par rapport à ses voisins du sud de l’Europe notamment : moins de 1 % des eaux usées traitées sont réutilisées, contre 8 à 15 % en Italie et en Espagne. Les freins actuels tiennent autant à la lourdeur administrative qu’à la crainte des risques sanitaires, et à la difficulté de financer certaines installations sur les sites de taille moyenne.

La prochaine étape consistera à penser la réutilisation non plus seulement au niveau du site industriel, mais à l’échelle territoriale. Une eau utilisée par une usine peut en théorie irriguer des cultures voisines, servir au nettoyage urbain ou être restituée sur un autre site industriel. Cette approche collective, déjà expérimentée dans certains bassins en Espagne, pourrait aussi constituer une réponse durable aux tensions hydriques en France.

Quand l’hydrogène aide l’Europe à sécuriser ses matériaux stratégiques

Le projet MECALO, financé par le programme européen Horizon Europe, vise à développer une méthode innovante de production de silicium et de manganèse en utilisant de l’hydrogène renouvelable parallèlement à un système circulaire du carbone. En d’autres termes, il ne s’agit pas simplement de remplacer le carbone fossile par l’hydrogène, mais de convertir le CO₂ rejeté en une matière carbone réutilisable. Silicium et manganèse sont essentiels pour les technologies propres telles que éoliennes, batteries, véhicules électriques et panneaux solaires. Aujourd’hui l’Europe dépend fortement de l’export extérieur, en particulier de la Chine, qui fournit 76 % du silicium mondial.

Le besoin de matières premières critiques (CRMs, Critical Raw Materials) et stratégiques (SRMs) est donc d’autant plus fort que ces matériaux sont au cœur de la transition énergétique. L’UE a proposé des règlements pour renforcer sa résilience dans ces chaînes de valeur. MECALO[1] se positionne, pour sa part, précisément au croisement des deux enjeux que sont l’accélération de l’autonomie de l’Europe et le respect des objectifs de neutralité carbone.

Dans le détail, MECALO ambitionne de réduire jusqu’à 95 % des émissions de CO₂ liées à la production de silicium et de manganèse par rapport aux procédés classiques. Le projet prévoit, à l’horizon 2050, de remplacer 9 millions de tonnes de charbon par 1 milliards de Nm³ d’hydrogène et d’éviter 33 millions de tonnes de CO₂ par an. Il s’agit donc d’un concept industriel très ambitieux, avec des partenaires répartis dans huit pays, couvrant toute la chaîne de valeur.

De nombreux domaines pourraient bénéficier de cette innovation avec, en premier lieu, l’industrie métallurgique, mais plus précisément les filières de production de silicium et de manganèse, deux éléments indispensables pour les alliages, les semi-conducteurs, les batteries et les technologies énergétiques. Le processus hydrogène/boucle carbone permet de repenser ces chaînes de production. Le secteur de l’énergie renouvelable, la mobilité (avec les véhicules électriques, les moteurs), et l’électronique (semi-conducteurs, panneaux solaires) sont ainsi directement concernés.

Les avantages sont significatifs. En plaçant l’hydrogène renouvelable au cœur du procédé, on remplace le carbone fossile, ce qui permet de réduire considérablement les émissions de gaz à effet de serre. Le recyclage du carbone via une boucle « carbon-looping » permet de limiter un peu plus l’émission nette de CO₂. Par ailleurs, le renforcement de l’autonomie européenne dans les matières premières critiques signifie moins de dépendance aux importations, une meilleure sécurité de l’approvisionnement et un positionnement industriel européen plus fort. Enfin, en créant des procédés plus durables, on aligne la production métallurgique sur les exigences de la transition énergétique et des régulations européennes.

Cependant, de nombreux freins demeurent. D’abord, bien que l’objectif soit une réduction de 95 % des émissions pour la production de Si et Mn, le procédé reste à développer et doit encore passer de la phase laboratoire à l’échelle industrielle. Le point de maturité technologique (TRL) reste un défi. Le fait que l’hydrogène soit un agent réducteur moins performant que le carbone dans certains cas métallurgiques pose par ailleurs une limite technique importante. Le coût et la disponibilité de l’hydrogène renouvelable à grande échelle constituent également un facteur critique. La boucle carbone, quant à elle, doit être viable techniquement et économiquement. Enfin, les infrastructures de production, transport et stockage d’hydrogène ainsi que l’intégration de nouveaux procédés dans des chaînes existantes représenteront des défis d’ingénierie et d’investissement.

Sur le plan des perspectives, si MECALO atteint ses objectifs, cela pourrait créer une rupture dans la production de matières premières en Europe. On pourrait voir naître des usines « zéro-CO₂ » pour le silicium, le manganèse, et potentiellement d’autres métaux stratégiques. Cela permettrait d’accompagner la montée en puissance des technologies liées aux énergies renouvelables, à la mobilité électrique et aux infrastructures intelligentes. L’Europe pourrait ainsi réduire sa dépendance, gagner en souveraineté et en résilience. De plus, le modèle hydrogène + boucle carbone pourrait être répliqué dans d’autres secteurs métallurgiques « difficiles à décarboner », ouvrant la voie à une industrialisation future plus durable.

De fait, le projet MECALO coordonné par SINTEF[2] offre une vision technique et industrielle dans la production de matières premières critiques alignée avec les objectifs de décarbonation et de souveraineté européenne. Bien que des défis restent à surmonter, notamment en termes de maturation technologique, coûts, infrastructures, les retombées potentielles sont majeures tant pour l’industrie que pour la transition énergétique. Le succès de cette initiative pourrait marquer un tournant dans la façon dont l’Europe produit et sécurise ses matériaux stratégiques, tout en réduisant son empreinte carbone.


[1] MECALO

[2] SINTEF

Revue du Magazine d’Actualité #51 du 20 au 24 octobre

Une actualité dense, entre innovation et régulation.


⚡ ÉNERGIE & ENVIRONNEMENT

Et si le futur de l’éolien s’écrivait dans le ciel ?

L’éolien aérien, porté par des cerfs-volants ou des drones, pourrait produire de l’électricité à haute altitude avec un rendement supérieur aux éoliennes classiques. Moins de matériaux, plus de mobilité : une piste sérieuse pour diversifier les sources renouvelables.
👉 L’éolien prend son envol

Électrolyse haute température : Genvia prépare son décollage

Née d’un partenariat public-privé entre le CEA et SLB, Genvia accélère sur l’électrolyse haute température pour produire de l’hydrogène bas carbone. Cette technologie pourrait transformer les procédés industriels lourds, avec des premiers pilotes attendus dès 2026.
🔬Hydrogène en haute définition

Quand les forêts tropicales d’Australie cessent d’absorber le CO₂

Une étude montre que certaines forêts australiennes, autrefois puits de carbone, deviennent émettrices. En cause : le stress climatique et les perturbations écologiques. Un signal préoccupant pour les stratégies de compensation carbone.
🌿 Le carbone change de forêt


🚗 MOBILITÉ & INFRASTRUCTURES

Paris et Madrid veulent verrouiller la trajectoire zéro-émission des véhicules neufs

Les deux capitales européennes plaident pour une interdiction stricte des moteurs thermiques dès 2035. Une position ferme dans les négociations européennes, qui pourrait accélérer la transition vers l’électrique.
🔋 Objectif zéro émission

Les transports français face à un repli structurel et à la transition écologique

Le secteur des transports en France connaît une baisse durable de la demande, accentuée par les enjeux climatiques. L’État et les acteurs du secteur doivent repenser les modèles économiques et les infrastructures.
🚉 Réinventer la mobilité


🛰️ DÉFENSE & TECHNOLOGIES SPATIALES

Capacité spatiale d’alerte avancée : la France et l’Allemagne s’accordent

Les deux pays lancent un programme commun de détection spatiale des menaces, avec un satellite prévu pour 2029. Une coopération stratégique face aux nouveaux enjeux de sécurité et de souveraineté.
🛡️ Surveillance orbitale


✈️ MATÉRIAUX & INDUSTRIE

Un alliage d’aluminium imprimé très résistant pour l’aéronautique

Des chercheurs ont mis au point un alliage d’aluminium imprimé en 3D, aussi performant que les matériaux forgés. Une avancée qui pourrait alléger les structures aéronautiques tout en renforçant leur durabilité.
🛠️ Aluminium nouvelle génération


👓 Bon weekend et à la semaine prochaine  !

La quotidienne : revue de presse du 24 octobre 2025

L’actualité industrielle s’annonce riche pour l’Europe. Entre condamnations emblématiques, ambitions climatiques réaffirmées et percées technologiques, l’industrie se redessine au prisme de la transition écologique et de la souveraineté. De la chimie en crise aux métaux critiques, de la robotique aux matériaux de nouvelle génération, les dynamiques s’accélèrent. Tour d’horizon des actualités qui marquent l’équilibre fragile entre innovation, compétitivité et responsabilité environnementale.

TotalEnergies condamné pour « greenwashing »

Une cour civile française a jugé que TotalEnergies avait trompé les consommateurs en assurant pouvoir atteindre la neutralité carbone d’ici 2050, et a ordonné le retrait de certaines affirmations de son site. Ce jugement constitue la première condamnation majeure d’une grande entreprise énergétique en France pour de telles pratiques.

Cimat, ambition 2040 et industrie

Les dirigeants européens ont posé les « conditions de mise en œuvre » pour un objectif climat 2040, notamment en matière d’industries lourdes, décarbonation, électrification et soutien à l’industrie européenne face à la concurrence mondiale.

Crise de l’industrie chimique en Europe

Le secteur de la chimie en Europe est en difficulté (fermetures d’unités, hausse des coûts énergétiques, concurrence renforcée) et réclame un plan d’action pour maintenir les capacités industrielles stratégiques sur le continent.

Les ventes de bus zéro-émission en Europe vont doubler d’ici 2030

Une étude dévoile que les ventes annuelles de bus urbains zéro-émission passeront d’environ 9 000 aujourd’hui à 18 000-21 000 d’ici 2030, illustrant une montée en puissance de la mobilité propre collective.

Percée dans les matériaux : un nouvel alliage ultra-résistant à la chaleur pour turbines et moteurs

Des chercheurs du Karlsruher Institut für Technologie (KIT) ont mis au point un alliage chrome-molybdène-silicium capable de résister à des températures supérieures aux superalliages au nickel actuels, ouvrant des perspectives pour l’efficacité énergétique des turbines et moteurs industriels.

Initiative européenne pour les voitures autonomes

La présidente de la Commission européenne a lancé un appel à un plan européen « IA first » pour l’automobile, à travers le développement de villes-pilotes et de technologies de conduite autonome, ainsi que le renforcement de la compétitivité industrielle.

Levées de fonds records en Europe pour la robotique en 2025

Le capital-risque européen affiche des niveaux inédits dans la robotique, notamment logistique, santé, industrie.

Matériaux critiques & autonomie industrielle : vers une production européenne durable

Une initiative européenne vise à renforcer la production de silicium et manganèse à partir d’hydrogène renouvelable, pour sécuriser les chaînes d’approvisionnement des matériaux stratégiques.

À l’agenda

La 26e édition de la Conférence internationale Transport et Pollution – TAP (4-6 novembre 2025, Rueil-Malmaison) se focalisera sur les impacts des transports sur l’environnement (qualité de l’air, bruit, sols et eau). Elle réunira chercheurs et industriels de la mobilité.

Traiter le prédiabète avec Nodia Metabolics

En janvier 2024, les microbiologistes Christine Delorme et Séverine Layec, le microbiologiste et chimiste Vincent Juillard et la physiologiste et nutritionniste Véronique Douard, créent la start-up Nodia Metabolics. Le quatuor a en effet découvert que des produits issus du microbiote intestinal pouvaient avoir un effet de régulation sur la glycémie de l’hôte. En partant de ce principe, ils ont développé une bactérie du microbiote intestinal sous forme inactivée et un métabolite bactérien, aussi présent dans les végétaux, et ont démontré un impact sur la glycémie des souris.

Des résultats précliniques prometteurs

À partir de ces résultats, la start-up a conçu son premier produit composé d’un métabolite de souches de bactéries commensales (micro-organismes habitant l’organisme) isolées de l’humain, mais en mesure d’être synthétisé chimiquement. Cette substance permettrait d’aider les prédiabétiques à réguler leur glycémie et ainsi d’éviter de développer un diabète de type 2. Dérivé d’un acide aminé, ce produit stimule la sécrétion d’insuline, hormone essentielle pour le contrôle de la glycémie.

L’efficacité chez l’animal ayant été prouvé dans une étude préclinique, ce produit, classé en tant que complément alimentaire, sera tout de même évalué in vivo, afin de vérifier sa non-toxicité, comme le sont les médicaments. Une phase clinique chez l’humain permettra ensuite de tester son efficacité.

La plupart des produits déjà commercialisés pour le prédiabète ont un effet lié à la perte de poids. Ce n’est pas le cas de la molécule développée par Nodia Metabolics. Dès la première prise et au bout d’un quart d’heure, elle augmente la sécrétion d’insuline au niveau du pancréas et entraîne une diminution de la glycémie. Les résultats sont donc très rapidement mesurables chez le patient.

Se faire une place sur le marché

Depuis ses débuts, l’objectif de la start-up était que son produit puisse être prescrit directement par les médecins. Mais cette démarche est loin d’être évidente. Comme le produit proposé par Nodia est synthétisé par les plantes et les micro-organismes, il n’est pas considéré en tant que métabolite humain, même s’il est présent dans la circulation, grâce à la nourriture que nous consommons. Pour cette raison, il est classé comme « Novel Food ». Nodia Metabolics va monter un dossier européen (validation par l’EFSA) et états-unien (validation par la FDA) pour avoir une autorisation de mise sur le marché sous cette appellation. Une fois cette autorisation obtenue, les tests cliniques pourront commencer. Les fondateurs espèrent que le produit pourra être commercialisé en 2027 ou 2028. Il sera d’abord vendu sur le site internet de la start-up avant d’être prescrit par les médecins.

Pour financer ses tests cliniques et les demandes d’autorisation de mise sur le marché, Nodia Metabolics doit lever 2,5 millions d’euros. Mais la grande difficulté reste encore de convaincre les investisseurs, refroidis par l’appellation de complément alimentaire. Ces derniers souffrent d’une image dégradée, malgré une offre de marché qui ne cesse de croître. Nodia doit donc trouver sa place et se démarquer. Contrairement aux médicaments qui proposent d’influer directement sur la glycémie, le traitement développé par la start-up entend prévenir l’apparition du diabète de type 2 et avoir un effet bien plus en amont.