De la découverte en laboratoire à l’innovation industrielle… On scrute pour vous chaque semaine les tendances de l’industrie.
Réutilisation des batteries usagées : vers une nouvelle ère de stockage d’énergie
Alors que les batteries des véhicules électriques atteignent leur fin de vie après 8 à 12 ans, elles conservent encore une grande partie de leur capacité. Cet article explore les différentes façons dont ces batteries peuvent être réutilisées, notamment pour le stockage d’énergie stationnaire et la mobilité électrique, et comment cela pourrait transformer le marché. La deuxième vie des batteries de véhicules électriques
Lithium : une nouvelle méthode d’extraction électrochimique prometteuse
Face à la demande de lithium, un composant essentiel des batteries pour les véhicules électriques, une équipe de chercheurs de la Pennsylvania State University propose une méthode d’extraction électrochimique innovante. Cette approche promet de réduire les coûts et l’impact environnemental, tout en augmentant l’efficacité de la production. L’électrochimie pourrait transformer l’industrie du lithium
Souveraineté minérale : la France face aux défis des ressources critiques
Les minéraux critiques, essentiels à la transition énergétique et numérique, sont au cœur des préoccupations stratégiques de la France et de l’Europe. Face à une demande croissante et à une production mondiale concentrée, notamment en Chine, la France s’engage dans un programme ambitieux pour identifier et sécuriser ses ressources minérales. Des initiatives visent à renforcer la souveraineté et la résilience économique du pays. La France sécurise ses ressources minérales critiques
Sécurité des bornes de recharge : un enjeu pour la mobilité électrique
Alors que la mobilité électrique se développe, la sécurité des bornes de recharge reste un défi majeur. Des experts en cybersécurité ont découvert des failles inquiétantes lors du concours Pwn2Own Automotive 2025, révélant des risques pour les utilisateurs et les entreprises. Cet article explore les implications de ces vulnérabilités et les solutions pour renforcer la sécurité des infrastructures de recharge. Comment protéger les bornes de recharge contre les cyberattaques ?
Les géants du numérique misent sur le nucléaire pour alimenter l’IA
Face à une demande d’électricité en constante augmentation, les géants du numérique comme Microsoft, Meta, Google et Amazon se tournent vers les technologies micronucléaires. Ces entreprises investissent massivement dans des réacteurs nucléaires modulaires pour alimenter leurs centres de données et soutenir la croissance de l’intelligence artificielle. Ces initiatives pourraient transformer le paysage énergétique mondial. La stratégie énergétique des géants de la tech
L’Allemagne face à un dilemme énergétique : retour au nucléaire ou transition vers l’hydrogène ?
Alors que l’Allemagne est secouée par une percée historique de l’extrême droite lors des élections législatives, le pays se retrouve à un carrefour énergétique. Avec la fermeture de ses dernières centrales nucléaires, l’Allemagne doit faire face à des prix élevés de l’électricité et à une dépendance accrue aux importations. Le nouveau chancelier, Friedrich Merz, envisage un retour au nucléaire, mais les obstacles techniques et politiques rendent cette option incertaine. Pendant ce temps, l’Allemagne explore des alternatives comme l’hydrogène pour atteindre ses objectifs de neutralité carbone. Élections et énergie : les défis de l’Allemagne pour 2045
La durée de vie moyenne des batteries Li-ion des véhicules électriques (VE) oscille entre 8 et 12 ans, selon l’utilisation qui en est faite. Or, la batterie est, de loin, la pièce la plus chère d’un VE (entre 30 et 50 % du prix !). Mais dire que ces batteries sont en fin de vie est une question de point de vue, car une batterie est considérée comme obsolète lorsqu’elle passe en-dessous de 70 % de sa capacité initiale. Pourquoi cette valeur seuil ? Tout simplement parce qu’en-dessous, elle ne permet plus au véhicule de conserver une autonomie suffisante.
Mais ces batteries conservent tout de même trois quarts de leur capacité. Ne pourraient-elles pas convenir à d’autres usages moins exigeants ? La réponse semble être oui.
La réutilisation des batteries « usagées », un marché en devenir
D’après une étude de l’entreprise IDtechEx, le marché de la seconde vie des batteries de véhicules électriques devrait atteindre 4 milliards de dollars d’ici 2035, du fait de l’augmentation du nombre de batteries arrivant en fin de vie et de la croissance rapide des ventes de véhicules.
L’étude tend aussi à montrer que le recyclage n’est pas forcément la priorité si l’on veut valoriser au maximum les batteries usagées et elle identifie au moins trois pistes pour prolonger leur durée de vie :
le remplacement de certains modules ou cellules, pour réutilisation dans des VE ;
la réutilisation de cellules pour des applications d’électromobilité de faible puissance ;
Réutilisation des batteries pour le stockage d’énergie stationnaire
Le stockage d’énergie stationnaire à partir de batteries usagées est une technologie mature. Le projet de recherche européen ELSA (Energy Local Storage Advanced system), démarré en 2015, a d’ailleurs été un succès qui a abouti à la création de plusieurs pilotes en Allemagne, Italie, Espagne, Royaume-Uni, mais aussi en France. Or, ces pilotes ont permis de démontrer la faisabilité technique et la viabilité économique de l’utilisation de batteries de seconde vie pour le stockage d’énergie.
D’ailleurs, les projets consistant à réutiliser ces batteries pour le stockage stationnaire sont en train de se multiplier. Par exemple, Mob-Energy, une entreprise lyonnaise, propose Eiko, une solution de stockage dédiée à la recharge des voitures électriques.
Mob-Energy récupère les batteries usagées auprès des constructeurs, garages, ou entreprises. Les modules de batteries suivent alors tout un processus de qualification et de transformation, puis sont réassemblés par six afin de créer de nouveaux packs batterie. Ces packs batteries permettent alors de fabriquer Eiko, un cube de stockage d’électricité destiné aux parkings d’entreprises et de collectivités.
Chaque cube est relié au réseau électrique (10 à 30 kW), peut contenir deux ou trois packs de 50 kWh et peut être connecté à vingt points de charge.
Autre exemple : avec son concept « Second Life », Porsche développe également des solutions du même type, en utilisant les batteries de ses véhicules. Le constructeur a par ailleurs démontré que son système était conçu pour durer plus de dix ans.
De tels concepts permettent donc aux batteries neuves de durer au moins vingt ans, en comptant la première et la seconde vie, dont la durée est finalement équivalente.
Applications de mobilité électrique moins exigeantes
Mais au-delà du stockage stationnaire, les batteries de véhicules électriques peuvent aussi avoir une seconde vie en mobilité. Le groupe Renault, également partenaire du projet ELSA, fait d’ailleurs la promotion sur son site de la start-up Green-Vision, qui développe des alternatives très variées en mobilité deux-roues : vélos à assistance électrique, scooters de livraison de pizzas et même les motos.
Par ailleurs, TotalEnergies semble également soutenir ce type de solution.
Il ne reste donc plus qu’à attendre que le marché de la seconde vie se développe, ce qui ne saurait tarder, si l’on en croit une autre étude, conduite par Meticulous Research® et qui prévoit un taux de croissance annuel autour de 43,9 % entre 2024 et 2031.
On les appelle minéraux « critiques », « stratégiques », et parfois même les deux… Un groupe à part, parmi l’ensemble des ressources minérales que recèle la croûte terrestre, dont la « criticité » se révèle toutefois une caractéristique à géométrie variable. « Il n’existe pas de définition universellement acceptée de ce que signifie l’adjectif “critique” dans ce domaine, car la notion de criticité peut changer au fil du temps, selon les besoins de la société et la disponibilité de l’offre », notent en effet les autrices d’une fiche d’information publiée en 2023 par le Forum intergouvernemental sur les mines, les minéraux, les métaux et le développement durable (IGF). « La criticité est également spécifique à chaque pays et contexte, en particulier à l’égard des richesses minérales, à la relative importance des minéraux pour le développement industriel et économique, et à l’évaluation stratégique des risques liés à l’approvisionnement, compte tenu de leur volatilité », ajoutent-elles. Concentrons-nous donc sur le cas de l’Europe, et plus particulièrement encore, sur celui de la France de 2025…
Des dizaines de substances stratégiques en tension
En France, les « substances critiques et stratégiques pour l’économie » sont notamment scrutées à la loupe par le Bureau de recherches géologiques et minières (BRGM). Sur la base de travaux visant à « fournir des éléments de détermination de l’exposition de la France aux risques pesant sur les approvisionnements », l’établissement public publie régulièrement, depuis 2010, des monographies détaillées, mais aussi, depuis 2015, des « fiches de criticité » synthétiques, réalisées sous la houlette du Comité pour les Métaux Stratégiques (COMES). Ceci, pour près d’une cinquantaine de substances.
Parmi elles, trente-six[1]présentent aujourd’hui un risque non négligeable de rupture d’approvisionnement, combiné à une importance stratégique pour l’industrie française. Citons notamment le lithium, le graphite naturel, et le cobalt, dont la demande devrait en effet se révéler, d’ici à 2050, « largement supérieure au niveau de production actuel », comme l’écrivent les auteurs d’une note publiée le 24 octobre dernier par la Direction générale du Trésor. En cause, notamment : leur utilisation massive pour la production de batteries pour véhicules électriques. Un exemple parmi tant d’autres de l’intensification des usages de minerais stratégiques liée à la transition énergétique.
Pour être fabriquées, les installations de production d’électricité renouvelable requièrent de nombreux minéraux critiques. Crédit : freepik.com
À ces trois substances stratégiques s’ajoutent en effet des éléments tels que le silicium, incontournable pour la production de cellules photovoltaïques ; le cuivre, indispensable à certaines infrastructures électriques associées aux moyens de production d’énergies renouvelables ; ou encore les fameuses terres rares, utilisées notamment pour la fabrication d’aimants permanents à destination des éoliennes. Une famille de dix-sept éléments d’autant plus cruciaux que la transition énergétique n’est pas le seul facteur susceptible de faire grimper leur criticité : gourmande elle aussi en terres rares, la transition numérique[2]s’y emploie également…
Une production très concentrée
Or, un pays détient à lui seul environ 37 % des réserves mondiales[3], et assure ainsi aujourd’hui, au bas mot[4], 60 % de la production à l’échelle du Globe : la Chine. Au niveau européen, ce sont même tout bonnement 100 % des terres rares lourdes qui proviennent de l’Empire du Milieu. Ce qui ne va évidemment pas sans poser de problème en matière de souveraineté ; problème qui se conjugue en outre à des risques de flambée des prix, a fortiori dans le contexte géopolitique particulièrement tendu que nous connaissons.
Une conjoncture qui affecte d’ailleurs la criticité de bien d’autres substances que les seules terres rares, comme le note le Parlement européen dans un article publié en décembre 2023 : « La guerre de la Russie contre l’Ukraine et la politique commerciale et industrielle chinoise de plus en plus agressive font que le cobalt, le lithium et d’autres matières premières sont devenus un problème géopolitique ».
Ce constat a ainsi amené l’UE à élaborer une législation visant à renforcer l’autonomie stratégique de l’Europe. Parmi les objectifs fixés pour 2030 par cette nouvelle loi sur les matières premières critiques[5] – adoptée en mars 2024 par le Conseil de l’Union européenne – figure ainsi celui d’extraire, au sein même du territoire de l’UE, au moins 10 % des matières premières critiques qui y sont consommées. Une ambition européenne nouvelle, qui vient ainsi, au passage, confirmer le caractère opportun d’une initiative annoncée en France dès septembre 2023 : la mise à jour de l’Inventaire des Ressources Minérales (IRM) du sous-sol français.
Et si une part de notre souveraineté se cachait sous nos pieds… ?
Annoncé en septembre 2023 par le président Macron dans le cadre du conseil de Planification écologique, ce nouveau programme d’identification des ressources minérales françaises succède à un précédent inventaire mené par le BRGM au cours des années 70, et régulièrement mis à jour jusqu’au début des années 90[6]. « De nombreux éléments considérés aujourd’hui comme critiques et stratégiques (lithium, tantale, césium, gallium, germanium, hafnium…) n’ont pas été recherchés, et les capacités analytiques de l’époque ne permettaient pas une détection très fine des teneurs dans la roche », explique en effet le service géologique national dans un communiqué publié en février dernier. Lancé cette année pour une durée prévisionnelle de cinq ans, et financé à hauteur de 53 millions d’euros par l’ANR[7] dans le cadre de France 2030, ce travail d’actualisation des données vise ainsi à identifier les zones d’intérêt pour une cinquantaine d’éléments.
« Cinq chantiers territoriaux ont été identifiés et seront couverts par des campagnes d’acquisitions de données : l’ouest du Massif central, la zone Morvan-Brévenne, les Vosges, l’Occitanie-Cévennes-Cerdagne et le Sillon Nord de la Guyane. L’interprétation des résultats permettrad’identifier les zones les plus favorables à la présence de gisements profonds », précise le BRGM. Un travail d’autant plus important que les techniques d’acquisition de données ont, elles aussi, largement évolué au cours des dernières décennies.
« Les techniques d’auscultation géophysique aéroportée n’existaient pas à l’époque et n’ont pas permis d’explorer en profondeur le sous-sol national. Ce nouvel inventaire ouvre donc la voie à une couverture plus large et plus profonde des territoires étudiés et à une détection affinée des substances », explique l’établissement public. De quoi potentiellement mettre au jour des gisements « cachés sous couverture », jamais explorés dans le passé, ou des extensions en profondeur de gisements déjà connus… Le BRGM, ainsi, l’assure : « En favorisant une meilleure connaissance des ressources disponibles sur le sol national, cet inventaire contribuera à améliorer la sécurité et la souveraineté en matière d’approvisionnement en ressources minérales, aidant ainsi à renforcer la résilience de notre économie tout en soutenant sa réindustrialisation ».
[1] L’Europe a quant à elle établi une liste de 34 matières premières critiques, parmi lesquelles 17 matières premières stratégiques « dont la fourniture devrait augmenter de manière exponentielle, qui ont des exigences complexes en matière de production, et qui sont donc confrontées à un risque plus élevé de problèmes d’approvisionnement ». Source. [2] Sans parler des usages dans le secteur médical, du spatial, de la défense, etc. [3] Estimation USGS 2021. [4]60, 70 voire 86 % selon les sources. [5] Ou Critical Raw Materials Act (CRMA). [6] Le BRGM a également publié en 2021 un atlas des substances minières critiques et stratégiques répertoriées dans le sous-sol métropolitain [7] Agence nationale de la Recherche.
Après avoir mis en service en 2022, sur son site de Pont-à-Mousson, le plus grand four électrique d’Europe pour la production de fonte ductile – Thor – l’entreprise planche aujourd’hui, notamment, sur la transposition de l’opération à un autre de ses sites de production : celui de Foug, près de Toul, en Meurthe-et-Moselle. Baptisé Vulcain, ce four à induction devrait permettre d’éviter l’émission d’environ 22 400 tonnes de CO2 par an, soit un peu plus de 65 % des émissions totales du site. Après avoir posé la première pierre de cette future installation au printemps dernier, PAM vise désormais une mise en service à la rentrée 2025. Neill McDonald, directeur adjoint R&D, innovation, développement durable et directeur de projet électrification, nous livre les détails de ce projet aussi ambitieux que vertueux.
Techniques de l’Ingénieur : Avant toute chose, pouvez-vous, en quelques mots, nous présenter Saint-Gobain PAM ?
Neill McDonald : Saint-Gobain PAM a été créée en 1856 à Pont-à-Mousson – d’où le « PAM » – sous le nom de Société anonyme des hauts fourneaux et fonderies de Pont-à-Mousson. Depuis ses débuts, l’entreprise produit essentiellement des pièces en fonte, destinées notamment au secteur de l’eau. Nous proposons aujourd’hui des systèmes complets de canalisations en fonte ductile, destinés à l’eau sous toutes ses formes : potable, industrielle, d’assainissement…
Nos clients directs sont principalement des entreprises de travaux publics, qui mettent en œuvre ces systèmes de canalisation pour le compte de collectivités, ou, dans une moindre mesure, d’industriels.
En quoi votre procédé de production consiste-t-il, dans les grandes lignes ?
Nous achetons tout d’abord des ferrailles, ainsi que du minerai de fer et du coke. Nous faisons ensuite fondre ces matières, soit dans un haut fourneau comme à Pont-à-Mousson, soit dans un cubilot, ce qui est notamment le cas sur notre site de Foug. Cela nous permet d’obtenir une fonte liquide qui, après une série d’étapes de traitement, nous permet de couler des pièces. Cela peut se faire à plat, notamment pour nos célèbres plaques d’égout, mais aussi par centrifugation, pour nos tuyaux. Cette seconde option consiste, en substance, à couler le métal liquide dans une machine en rotation, contre les parois de laquelle la matière en fusion vient alors se plaquer pour, finalement, obtenir un tuyau cylindrique en fonte, qui bénéficie enfin de diverses étapes de traitement, anticorrosion notamment.
Une fonte, qui a certes de nombreux intérêts, mais aussi, revers de la médaille, une forte empreinte carbone…
Effectivement. La fonte permet, tout d’abord, d’assurer à la fois la qualité de l’eau transitant par les canalisations, et la longévité des réseaux, avec des tuyaux qui peuvent durer jusqu’à une centaine d’années, voire plus, en minimisant les fuites.
Dans le contexte de changement climatique que nous connaissons actuellement, a toutefois fini par émerger la question de l’empreinte carbone de nos produits. Cela est d’ailleurs progressivement devenu un critère de sélection dans les marchés publics, d’abord dans les pays scandinaves, et plus récemment aussi ici, en France, et dans le sud de l’Europe.
Nous avons donc, face à cela, entamé une réflexion portant sur la décarbonation de notre production. Pour des raisons environnementales et financières, mais aussi, tout simplement, pour répondre à la demande de nos clients, pour qui la question des émissions indirectes représente aujourd’hui un enjeu de plus en plus important.
Avant de procéder à des investissements, nous avons commencé par étudier nos sources d’émissions, en réalisant une analyse de cycle de vie (ACV) complète de nos activités, en prenant en compte la production, bien entendu, mais aussi les achats, les matières premières, le transport… Nous avons ainsi assez rapidement identifié que, au sein de notre chaîne de valeur, les moyens de fusion du métal représentaient la majeure partie – plus de 80 % – de nos émissions de gaz à effet de serre. Ceci, notamment parce qu’ils utilisent du coke : pour chauffer la matière dans le cas du cubilot, mais aussi, en plus, pour réaliser des réactions chimiques de réduction dans le cas du haut fourneau.
Problématique en soi, cette part très importante de nos émissions directes nous est aussi apparue, finalement, comme un puissant levier à actionner pour agir et décarboner notre production. Cela nous a pour ainsi dire paru « rassurant » de constater que nous avions les moyens de réduire drastiquement nos émissions.
Cela s’est ainsi naturellement traduit par la mise en œuvre de projets visant à remplacer, sur chacun de nos sites, ces moyens de production carbonés, par de nouveaux outils moins émetteurs.
Quelle est justement la voie que vous avez choisi d’emprunter, pour réaliser cette transformation « verte » de vos moyens de production ?
Nous avons rapidement choisi de nous tourner vers des solutions d’électrification technologiquement matures. Ceci, afin de décarboner rapidement, sans pour autant prendre de risques inconsidérés avec des solutions pas encore éprouvées. Nous nous sommes donc tournés vers deux technologies de fusion bien connues, que sont le four à induction, et le four à arc électrique. Cette deuxième option, que nous avons choisie pour notre haut fourneau de Pont-à-Mousson, reste pour l’heure au stade de projet, et devrait être mise en œuvre à l’horizon 2030. C’est en revanche déjà le cas pour la technologie de four à induction que j’évoquais… En 2022, nous avons en effet mis en service sur notre site de Pont-à-Mousson, le plus grand four électrique d’Europe pour la production de fonte ductile : Thor. Ce projet, sur lequel nous planchions depuis le début de la pandémie, nous a ainsi permis de compléter nos outils de production, tout en nous permettant de commencer à réduire nos émissions.
Ce four nous permet en effet d’avoir moins recours à nos hauts fourneaux, en n’en utilisant qu’un sur deux, par exemple. Au-delà des émissions directes, cela nous permet aussi de réduire nos émissions indirectes en utilisant davantage de ferrailles – ce que nous ne pouvions pas faire avec nos hauts fourneaux – provenant à la fois de boucles de recyclage internes et externes. Cet outil nous permet ainsi d’éviter l’émission d’environ 30 000 tonnes de CO2 par an – voire jusqu’à 50 000 tonnes en cas d’utilisation intensive – sur un total d’environ 350 000 tonnes pour ce site de Pont-à-Mousson.
Face à ces résultats pour le moins encourageants, nous avons décidé de répliquer ce four électrique sur un autre de nos sites de Meurthe-et-Moselle : celui de Foug, près de Toul. Notre objectif, cette fois, et de venir purement et simplement remplacer le moyen de fusion carboné dont dispose pour l’heure l’usine : un cubilot. Baptisé Vulcain, ce nouveau four sera identique sur le plan de sa capacité à Thor – 30 tonnes, pour 18 MW de puissance – à la différence près qu’il disposera de deux creusets, afin d’en accroître la productivité.
Qu’implique, techniquement, ce passage du cubilot au four électrique ? Quel est le niveau de complexité d’un tel projet ?
Il s’agit véritablement d’une opération de rupture, d’une grande complexité, et ce à plusieurs niveaux. Notre voulions tout d’abord éviter que cela n’affecte les procédés avals à la fusion, notamment les étapes de centrifugation. Ceci bien entendu pour des questions de coûts et de qualité – nos produits étant très normés – mais aussi de compétences. Nous nous sommes aussi fixé l’objectif de produire, grâce à ce futur four Vulcain, une fonte de même qualité que celle du cubilot actuel. Cela implique donc d’adapter au mieux notre approvisionnement en matières premières, notamment en ferrailles. Celles que nous utilisons aujourd’hui dans notre cubilot ne se prêtent en effet pas à une fusion dans un four électrique à induction. Nous avons donc commencé par qualifier nos futures matières premières, en utilisant notamment notre four Thor comme outil de tests.
D’autre part, contrairement au cubilot, un four électrique n’utilise pas de coke… Or, ce coke permet aussi de charger le métal en carbone au cours de la fusion. Nous allons donc, en plus du changement de type de ferrailles que j’évoquais, devoir « re-carburer » la charge contenue dans le creuset. C’est une opération que d’autres acteurs dans le monde réalisent déjà, mais qui constitue une nouveauté pour nous.
Ensuite, faire tourner ce four à induction n’implique pas les mêmes compétences que celles nécessaires pour gérer un cubilot. Nous allons donc mettre en place un accompagnement visant à former notre personnel, notamment à de nouvelles compétences autour de l’électricité haute tension.
Enfin, un autre point capital est celui de l’organisation du chantier de construction du four à proprement parler, mais aussi des opérations de mise en place d’une ligne électrique dédiée à son alimentation. Le tout, en toute sécurité, et sans interrompre le fonctionnement du site…
Quel est le coût d’un tel projet ? Comment avez-vous prévu de le financer ?
Ce projet de four électrique Vulcain représente un investissement de l’ordre de 20 M€. C’est peu et beaucoup à la fois… Peu face à d’autres projets de décarbonation industrielle, qui peuvent parfois, en effet, se chiffrer en centaines de millions d’euros… Mais aussi beaucoup pour une entreprise telle que PAM, d’autant que l’intérêt de l’opération ne tient pas tant à de potentiels gains de productivité qu’aux émissions de CO2 qu’elle permettra d’éviter.
Pour financer ce projet, nous avons notamment d’ores et déjà obtenu un financement de l’Ademe d’un peu plus de 5,5 M€. Nous espérons aussi une aide de la région pour la partie R&D du projet, et éventuellement un soutien de l’Agence de l’eau. Le projet vise en effet également à réduire de 80 % les prélèvements d’eau du site, grâce à la mise en place d’un circuit de refroidissement en boucle fermée. C’est aussi un aspect très important pour nous, qui permet en effet à la fois de préserver la ressource et de prévenir tout arrêt d’activité lié à un épisode de sécheresse.
Pour répondre à une demande d’électricité exponentielle, notamment alimentée par la croissance des centres de données et l’essor de l’intelligence artificielle (IA), les grands acteurs du numérique investissent massivement dans les technologies micronucléaires.
Microsoft a signé un contrat avec Constellation Energy pour remettre en service le réacteur n°1 de la centrale de Three Mile Island, en Pennsylvanie. Ce projet, qui s’inscrit dans un contrat de vingt ans, vise à s’assurer la production de 837 mégawatts d’électricité dès 2028. L’électricité servira à alimenter ses data centers et à accompagner la croissance fulgurante de ses besoins en IA.
Meta a également lancé un appel d’offres pour exploiter des technologies nucléaires. L’objectif : déployer entre 1 et 4 gigawatts (GW) d’électricité d’ici 2030. L’entreprise n’a pas précisé de manière détaillée la technologie nucléaire qu’elle envisage.
Google, Amazon et les petits réacteurs modulaires
De leur côté, Google et Amazon ont opté pour des partenariats avec des start-ups spécialisées dans les petits réacteurs modulaires ou SMR (small modular reactors). Grâce à leur dimension réduite et leur capacité d’implantation près des centres de données, ils offrent la promesse d’une production électrique décentralisée et mieux adaptée aux besoins locaux.
Google s’est associé à la start-up Kairos Power pour développer une série de SMR. L’objectif est de s’assurer jusqu’à 500 mégawatts d’ici 2035, en construisant ces réacteurs à proximité des centres de données.
Amazon a également annoncé un partenariat avec X-energy, une start-up pionnière dans le développement des SMR. Cette entreprise a levé 500 millions de dollars pour financer son déploiement, auquel Amazon participe activement. L’objectif : construire plusieurs réacteurs à proximité de ses centres de données d’ici 2039.
Oracle et le projet Stargate
Oracle, un autre géant des centres de données, a annoncé son propre projet : un gigantesque centre de données dédié à l’IA de plus d’un gigawatt. Il sera alimenté par trois réacteurs nucléaires modulaires.
Oracle est en plus impliqué dans le plan Stargate, lancé le 21 janvier 2025 par Donald Trump. Ce programme, soutenu par OpenAI et SoftBank, prévoit 500 milliards de dollars d’investissements d’ici 2029 pour développer des centres de données et des infrastructures énergétiques essentielles au déploiement de l’IA.
Vers une indépendance totale ?
Les géants du numérique ne veulent plus se reposer uniquement sur l’électricité du réseau. Face à une consommation qui augmente de 20 % par an – voire davantage avec l’expansion de l’IA –, ils cherchent à sécuriser leur approvisionnement électrique en contrôlant directement certaines infrastructures de production.
L’adoption des technologies micronucléaires leur permettrait une production d’énergie plus modulable, localisée et bas carbone, réduisant leur dépendance aux réseaux traditionnels et aux fluctuations des marchés de l’électricité.
Toutefois, cette tendance pose des questions de souveraineté énergétique et de régulation économique. Alors que ces entreprises aux moyens colossaux deviennent de véritables acteurs du système énergétique, les gouvernements devront rapidement adapter le cadre législatif pour éviter un déséquilibre où les intérêts privés primeraient sur les besoins collectifs.
Cette découverte a été suivie d’une analyse technico-économique, pour s’assurer de l’intérêt du procédé et de sa capacité à passer à l’échelle d’un point de vue industriel. Là aussi, les résultats sont plutôt encourageants, puisque les chercheurs coréens de l’université nationale des sciences et technologies de Séoul ont mis en avant des gains environnementaux et économiques, et notamment une baisse des coûts liés à la mise en œuvre chimique du recyclage des plastiques, liée à l’utilisation de l’eau.
Au niveau chimique, c’est lors de l’opération de dépolymérisation des polyoléfines que l’ajout d’eau améliore considérablement le rendement de la réaction. L’eau est combinée à des catalyseurs à base de ruthénium pour mener à bien ce procédé, qui permet pour le moment, via le couple Ruthénium/Zéolite-Y, de convertir 96,9% des polyoléfines.
Mais les convertir en quoi ? Et bien c’est tout l’intérêt du procédé de recyclage catalytique ici à l’œuvre. Ce dernier transforme les plastiques en produits chimiques d’intérêt, mais aussi en combustibles, comme l’essence ou le diésel. Le recyclage catalytique présente ainsi un intérêt économique, grâce à l’obtention de produits différents du produit initial, qui ont une valeur ajoutée plus grande que lors d’un recyclage classique, où l’on obtient le même produit au final, la plupart du temps pour des coûts qui plombent la rentabilité de l’opération.
L’hydrogénolyse et l’hydrofracking, les procédés de décomposition des plastiques qui permettent ces réactions catalytiques, se révèlent plus efficients lorsque les catalyseurs utilisés possèdent au sein de leur structure moléculaire des sites métalliques et acides, ce qui est le cas avec le ruthénium.
La suite ? L’équipe coréenne a l’origine de ces travaux veut faire évoluer cette solution de recyclage pour être en mesure de la mettre en œuvre dans un environnement où les déchets plastiques sont mélangés. En effet, le tri des plastiques – qui n’est pas toujours possible – est actuellement un facteur déterminant expliquant le faible recyclage actuel des matières plastiques au niveau mondial, qui plafonne aujourd’hui aux alentours de 10%, alors que sont mis en évidence depuis quelques années les effets ravageurs des microplastiques sur la santé humaine.
On utilise les polyoléfines dans de nombreux secteurs industriels tels que l’industrie chimique ou agroalimentaire. Ce matériau est aussi très utilisé en médecine. Au-delà de ses propriétés thermiques et mécaniques, c’est sa grande inertie chimique qui permet aux polyoléfines de se trouver au cœur de nombreuses applications industrielles. Que ce soit au contact de substances acides, basiques ou alcalines, les polyoléfines – utilisés sous forme de plaques – ne réagissent pas.
Dernier atout, les polyoléfines sont faciles à usiner, car c’est un matériau solide qui peut être facilement transformé : il supporte très bien le découpage et le perçage, et peut aussi être assemblé par soudage.
Aux États-Unis, la cybercriminalité autour des bornes de recharge est de plus en plus répandue. C’est ce que montre le rapport Automotive & Smart Mobility Global Cybersecurity Report 2025 d’Upstream.
Près de 400 actions malveillantes ont visé l’automobile et la mobilité intelligente, soit une hausse de 39 % en un an. Parmi ces attaques, 4 % visaient en 2023 les bornes de recharge. En 2024, leur part est passée à 6 %.
Un constat confirmé lors du concours international « Pwn2Own Automotive 2025 » qui vient de se dérouler à Tokyo. Comme à l’accoutumée, l’équipe française de Synacktiv a démontré ses capacités en cybersécurité offensive en remportant la seconde place de ce concours. Leurs découvertes révèlent des surfaces d’attaque jusqu’ici sous-estimées, qui pourraient être exploitées par des cybercriminels pour compromettre la sécurité des utilisateurs et perturber l’approvisionnement en énergie.
Plusieurs dispositifs de recharge de véhicules électriques présentent des failles, dont le Tesla Energy Wall Connector. Une vulnérabilité dans le protocole de communication avec les voitures sur le câble de charge permet en effet à une personne de réaliser des manipulations malveillantes simplement en se connectant à la borne de charge comme le ferait une voiture. Depuis ce concours, Tesla a déployé des correctifs de sécurité.
L’exploitation de ces failles pourrait avoir des conséquences graves, telles que :
Intrusions réseau : Les attaquants pourraient utiliser ces vulnérabilités pour s’infiltrer dans les réseaux internes des opérateurs de recharge et des constructeurs automobiles.
Manipulation des flux d’énergie : Une prise de contrôle des systèmes de charge pourrait engendrer des perturbations sur la gestion de l’électricité, altérant la facturation et la distribution d’énergie.
Interruption des services : L’exploitation de ces failles pourrait rendre certaines bornes de recharge inopérantes, impactant directement les utilisateurs et la continuité du service.
Les fabricants de bornes se moquent de la sécurité
« Nous n’avons pas étudié les bornes installées sur les autoroutes, car c’est un peu compliqué de se les procurer pour les étudier. Concernant une borne installée dans un domicile, en extérieur près du garage par exemple, on peut imaginer une personne utilisant cette borne comme point d’entrée dans le réseau domestique (ces équipements étant généralement connectées en Wi-Fi) pour accéder aux périphériques sur le réseau local (disques durs connectés du type NAS, imprimantes, etc.) », explique David Berard, expert sécurité spécialisé dans la rétro-ingénierie de systèmes embarqués et mobiles chez Synacktiv.
Mais cette mauvaise gestion de la sécurité est encore plus problématique pour les entreprises qui ont installé des bornes sur leur parking. « Une personne malveillante peut non seulement recharger son véhicule gratuitement, mais elle pourrait aussi infiltrer le réseau informatique de l’entreprise. »
« L’an dernier, nous avons attaqué le système d’Ubiquiti[1] conçu pour s’intégrer dans le réseau de l’entreprise. L’accès à la recharge est possible pour les employés avec le même badge qui leur sert à rentrer dans le bâtiment. Attaquer ce genre de système (généralement en extérieur) est une porte d’entrée vers le réseau de l’entreprise », prévient notre expert.
Il est indispensable que les sociétés renforcent le contrôle des identités des personnes qui s’y connectent et de limiter au maximum les interfaces. Ces bornes sont généralement connectées en Bluetooth et en Wi-Fi. Ce n’est pas forcément nécessaire pour les propriétaires des voitures électriques et ça augmente les pistes exploitables par les cybercriminels. Il est préférable de favoriser l’option « plug & charge », souligne David Berard.
Avec la fonction « plug & charge », le conducteur d’un véhicule électrique (Tesla, Porsche, Audi, Mercedes, BMW, Ford et Volkswagen notamment) n’a plus besoin de présenter un badge RFID ou sa carte de paiement pour procéder au règlement. Sa voiture est automatiquement identifiée dès que l’on branche le câble de recharge.
Ces mesures de sécurité doivent être aussi appliquées par les fabricants des bornes. « Malheureusement, sur ce genre de produit, il y a peu d’investissements, ce n’est pas vraiment leur priorité comme nous avons pu constater. Depuis la précédente édition de ce concours, certains constructeurs n’ont toujours pas intégré de correctifs de sécurité ; ils n’ont pas eu le temps officiellement… » nous déclare David Berard.
Une négligence que l’on retrouve dans de nombreux appareils connectés comme les caméras et les serrures… Comme pour la cybersécurité des entreprises, la mise en place de tests de sécurité réguliers, l’audit des systèmes et l’intégration de la cybersécurité dès la conception des équipements sont désormais indispensables pour sécuriser l’écosystème des véhicules électriques et connectés.
Crédit visuel de une : image générée sur Adobe Firefly
L’Allemagne, qui a fermé ses dernières centrales nucléaires le 15 avril 2023, est aujourd’hui confrontée à des prix élevés de l’électricité, et doit massivement importer son énergie, de France – énergie nucléaire – ou de Pologne – charbon -. D’où la tentation de relancer l’industrie nucléaire, en commençant par stopper le démantèlement en cours des centrales existantes ? C’est ce qu’a d’abord annoncé Friedrich Merz, le nouveau chancelier, jugeant nécessaire de revenir rapidement sur les démantèlement en cours, et de mettre en œuvre la construction de nouvelles centrales, même si cela ne « pourra pas être fait au cours de cette seule législature ». En cela le nouveau chancelier est sur la même longueur d’onde que ses électeurs, qui n’étaient que 15% à être favorables à la fermeture des trois derniers réacteurs encore en activité outre-Rhin.
Peu après ces déclarations, Friedrich Merz, s’il n’a pas fait machine arrière, s’est montré fataliste sur la possibilité de relancer réellement une activité nucléaire en Allemagne. En effet, alors que les géants du secteur, E.ON et RWE en tête, ont affiché leur scepticisme face aux difficultés techniques et politiques d’une relance du nucléaire, le chancelier allemand a concédé que les réacteurs sont aujourd’hui « démantelés et décontaminés. Il n’y a très probablement aucun moyen d’y remédier », et la probabilité d’une réactivation du nucléaire « diminue de semaine en semaine », selon lui.
Ainsi, bien que le retour du nucléaire constitue un point important du programme qui a permis à la CDU de recueillir près d’un tiers des suffrages lors de l’élection anticipée de la semaine dernière, les chances réelles d’un retour de l’atome dans le mix énergétique allemand sont quasi nulles.
Reste les petits réacteurs nucléaires modulaires, même si l’implémentation de ces derniers dans le mix électrique reste aujourd’hui hypothétique.
Cela dit, après avoir investi plus de 600 milliards d’euros dans sa transition énergétique – la fameuse Energiewende – l’Allemagne se retrouve aujourd’hui dans une situation tendue, entre incapacité à tenir ses engagements écologiques, et un prix de l’énergie ayant fortement augmenté, avec un impact désastreux sur la compétitivité industrielle du pays.
Si le développement d’une filière SMR représente une solution, l’Allemagne se tourne aujourd’hui notamment vers l’hydrogène pour décarboner sa consommation d’énergie, en investissant massivement sur les technologies de production et de stockage. Mais comme c’est le cas en France, reste à savoir si nos voisins parviendront à développer des moyens de production d’hydrogène vert suffisants pour répondre à la demande. Car aujourd’hui encore, l’immense majorité de l’hydrogène est produite via des énergies fossiles.
Si la transition énergétique allemande soulève encore de nombreux points d’interrogation, les choix technologiques devraient révéler peu à peu leur pertinence. Comme par exemple celui, initié en Allemagne, de miser sur le transport aérien propulsé à l’hydrogène, sur lequel Airbus vient de faire marche arrière. Et valider – ou invalider – la trajectoire allemande vers la neutralité carbone, prévue pour 2045.
Le lithium est un composant clé des batteries. De fait, avec le développement des véhicules électriques et des équipements portables, la demande n’a fait qu’augmenter, entraînant une multiplication par cinq du prix de carbonate de lithium depuis 2021. Sécuriser l’industrie de ce métal et stabiliser les prix devient donc une nécessité de plus en plus urgente.
Lithium : une production polluante et coûteuse
L’extraction du lithium peut se faire à partir de minerai ou de saumures. Cette dernière méthode est actuellement la plus fréquente et produit environ 70 % du lithium contenu dans les batteries des véhicules électriques. L’extraction du lithium à partir de saumures repose sur l’évaporation solaire, qui permet de séparer les ions Li+ des autres ions métalliques présents dans le fluide (Na+, K+ et Mg2+). Toutefois, malgré son faible coût, cette méthode est loin d’être satisfaisante sur le plan environnemental. Elle est de plus lente et très limitée géographiquement, ce type de saumures étant surtout exploitable en Chine et au Chili, où la pollution des sols en lien avec cette industrie devient de plus en plus préoccupante.
Les minerais de lithium comme le spodumène (principalement), la lépidolite, la pétalite ou encore certaines argiles, sont quant à eux distribués de manière bien plus égale à travers le globe. La France en posséderait d’ailleurs d’importantes quantités dans son sous-sol. Toutefois, l’extraction du lithium de ces minerais repose sur un lessivage impliquant actuellement l’utilisation d’acides forts à haute température (1 100°C). Lorsque le minerai est soumis à des températures élevées, sa densité atomique se trouve en effet réduite, ce qui facilite les réactions avec l’acide. Des ions hydrogène vont ainsi venir remplacer les ions lithium, qui se retrouvent libres et peuvent être récupérés. Un procédé efficace qui requiert toutefois un apport énergétique important tout en nécessitant des mesures de sécurité élevées en raison de l’utilisation d’acides très concentrés. Autant de points qui font grimper les coûts de production.
Dans le contexte d’une demande en constante augmentation, il devient donc urgent de développer un procédé permettant de minimiser l’impact environnemental de la production de lithium tout en réduisant les coûts.
Un lessivage électrochimique tout aussi efficace
Une équipe de chercheurs de la Pennsylvania State University présente ainsi une nouvelle méthode de lessivage du minerai qui pourrait offrir une solution intéressante. Le spodumène mélangé à un acide sulfurique est ici soumis à un champ électrique, ce qui permet un lessivage électrochimique : le lithium qui se trouve à l’état solide dans le minerai est dissous sous une forme soluble. L’ajout de peroxyde d’hydrogène (H2O2) comme promoteur facilite de plus le transfert des électrons et donc l’efficacité du lessivage. L’avantage de ce procédé est qu’il ne nécessite pas de températures élevées, de hautes pressions ni d’agents de lessivage hautement concentrés, ce qui facilite sa mise en pratique industrielle et son application à grande échelle.
Les résultats de l’étude, publiée dans la revue Nature communications, révèlent que ce nouveau procédé est aussi efficace que la méthode de lessivage chimique, avec 92,2 % d’efficacité. Il présente de plus d’autres avantages : un temps de traitement plus court et une économie d’énergie. Comparé à l’extraction du lithium par lessivage du minerai à l’acide, ce procédé pourrait ainsi permettre de réduire les coûts de 35,6 %, tout en abaissant les émissions de CO2 de 75,3 %. Face à l’extraction à partir de saumure, il présente l’avantage d’être bien plus rapide, mais aussi d’offrir un contrôle sur la quantité produite, tout en préservant les sols d’une pollution sur le long terme.
Une production de lithium plus respectueuse de l’environnement
Mais pour l’instant, ce lessivage électrochimique ne permet d’extraire le lithium que sous forme soluble. Pour les chercheurs, la prochaine étape est donc désormais de développer une méthode permettant de récupérer le lithium sous une forme solide, comme le chlorure de lithium ou l’hydroxyde de lithium, pour qu’il puisse être directement utilisé par l’industrie. Cette deuxième étape est nécessaire avant d’envisager tout développement industriel.
Si les résultats sont au rendez-vous, cette innovation pourrait véritablement transformer toute l’industrie du lithium, notamment en alignant la production avec les objectifs environnementaux visant à limiter le réchauffement climatique. Les scientifiques de la Pennsylvania State University restent très confiants face à ces premiers résultats. « Nous pensons réellement qu’il s’agit d’une révolution », explique Feifei Shi, co-auteur de l’étude, dans un communiqué. « L’électrochimie pourrait ouvrir la porte à une recherche interdisciplinaire et d’intérêt autour du traitement des minerais ou des procédés miniers ».
Techniques de l’Ingénieur : L’informatique quantique reste encore un concept pour de nombreuses personnes. Votre objectif est de démocratiser l’accès à l’informatique quantique ?
Simon Fried dirige les initiatives de développement commercial et de marketing de Classiq[1]Simon Fried : L’informatique quantique est un domaine technologique extrêmement complexe. La conception de circuits quantiques est difficile et devient de plus en plus compliquée à mesure que le nombre de qubits augmente. En outre, une expertise sur le matériel et les langages quantiques spécifiques est généralement nécessaire pour le développement de la large gamme d’options technologiques émergentes en matière d’informatique quantique. Classiq propose une plateforme de développement logiciel qui simplifie le développement d’applications quantiques et surmonte ces problèmes.
Notre plateforme permet aux programmeurs de profiter des performances de l’informatique sans être des experts dans ce domaine. Ils peuvent créer rapidement des circuits quantiques pour être déployés sur n’importe quel matériel quantique.
Est-ce que votre solution peut être considérée comme du No-Code ou du Low-Code[2]?
SF : Notre solution se rapproche du low-code. Nous avons développé Qmod (Quantum Modeling Language). C’est le premier langage de haut niveau (HLL- high-level language) pour le codage quantique. Qmod peut être utilisé par les développeurs, chercheurs et entreprises du monde entier. Qmod facilite la modélisation quantique avancée et permet de décrire des algorithmes quantiques à un haut niveau d’abstraction. Cette approche innovante permet aux développeurs de se concentrer sur l’intention fonctionnelle de leurs algorithmes, tandis que le puissant compilateur et le moteur de synthèse de Classiq gèrent les détails complexes de l’implémentation quantique tenant compte du matériel.
Guy Sella est Architecte d’Applications Quantique chez Classiq[3]Guy Sella : L’idée ici est de rendre le voyage quantique plus facile. Les personnes qui n’ont pas de fortes connaissances en quantique peuvent créer leurs propres actifs quantiques en décidant du type de circuit qu’ils veulent voir. Notre plateforme leur permet de choisir parmi différents types d’applications (finance, cybersécurité, chimie…) et différents codes qui représentent des problèmes spécifiques. Pour faciliter encore plus l’informatique quantique, nous permettons aux développeurs d’utiliser Qmod avec Python, un langage informatique très répandu. Les utilisateurs qui se sentent à l’aise pour programmer dans le langage et l’environnement Python peuvent trouver le format Python plus facile à utiliser. Le fait d’être intégré dans un langage général solide tel que Python présente un autre avantage majeur.
La roadmap d’IBM indique que l’informatique quantique ne remplacera pas tout de suite l’ordinateur classique. Pourquoi les entreprises devraient-elles déjà s’intéresser auquantique?
SF : C’est exact. Mais je pense, j’espère, que d’ici 12 à 18mois, il y aura des applications du quantique dans la finance. La chimie et la science des matériaux devraient également connaître des applications à plus court terme. Et dans d’autres domaines, ce sera peut-être plus long, dans10 ou 20ans. Entre ces deux échéances, nous allons découvrir de nouvelles applications et innovations au fur et à mesure de l’évolution des ordinateurs. Les entreprises doivent donc dès aujourd’hui développer des algorithmes et des programmes pour être prêtes lorsque ces machines quantiques seront performantes et optimisées.
Cependant, des experts estiment que l’IA est capable de répondre à de nombreux besoins d’entreprises.
SF : Absolument. La génération actuelle d’ordinateurs quantiques n’est généralement pas encore assez puissante pour surpasser les capacités des ordinateurs classiques pour des applications commercialement pertinentes. Actuellement, l’IA est sans doute beaucoup plus développée, notamment grâce aux puces graphiques de Nvidia. Ce que nous verrons probablement, c’est un mélange des deux. Les solutions seront peut-être hybrides. Certains calculs et problématiques seront traités par des ordinateurs classiques, car le quantique à certains stades ne présente pas d’avantages significatifs en termes de coût et de temps. Toutefois, les calculs le plus complexes auront besoin d’un ordinateur quantique. C’est pour cela qu’on imagine plutôt des solutions hybrides. L’idée ici est que certains calculs sont mieux adaptés aux ordinateurs classiques, tandis que d’autres sont effectués plus efficacement par des ordinateurs quantiques. L’objectif est donc d’orienter chaque calcul vers la machine la plus adaptée à la tâche.
Concernant la réduction des circuits, pourquoi et quels sont les avantages?
SF : Un des principaux problèmes des ordinateurs quantiques est le bruit généré lors des calculs ; plus le programme est long, plus il est exposé aux erreurs dues à ce bruit. Si un programme doit s’exécuter pendant plusieurs minutes, il devient presque impossible de lire des résultats exploitables, car les erreurs s’accumulent. Réduire donc la longueur devient crucial, car cette optimisation joue un rôle important dans l’évolution de ces machines et dans la correction des erreurs, notamment pour des constructeurs comme Google. Il existe des milliers, voire des millions de façons d’écrire un même programme quantique ; l’enjeu est dans son optimisation.
Même si l’IA a pris de l’avance, quelles sont les principales pistes de recherches menées actuellement parClassiq?
SF : En février 2024, nous nous sommes associés à Citi Innovation Lab –un centre de développement fintech du groupe bancaire Citibank basé à New York. L’objectif est de tester le potentiel de l’informatique quantique dans la finance et de comprendre son impact sur la résolution de problèmes commerciaux, en particulier l’optimisation de portefeuille. En avril 2024, nous avons lancé une collaboration avec Quantum Intelligence Corp. (une start-up coréenne) visant à accélérer le développement de médicaments en appliquant l’informatique quantique à la pharmacologie. Classiq travaille aussi avec BMW pour trouver l’architecture optimale des systèmes électriques et mécaniques des véhicules. Récemment Classiq s’est également associé à Florence Quantum Lab, afin de concevoir des solutions quantiques dédiées à l’agriculture de précision.
[1] Avant de rejoindre cette entreprise, Simon Fried a cofondé et occupé un poste de direction chez Nano Dimension, en se concentrant sur la fabrication additive et les solutions de l’industrie 4.0. Il est notamment titulaire d’un MBA obtenu à la Bocconi School of Management en Italie et d’un master en économie comportementale obtenu à l’Université d’Oxford.
[2] Les plateformes de Low-Code et de No-Code permettent de créer des sites web et des applications avec peu ou pas de connaissances techniques. Le No Code est une technique qui ne nécessite aucune notion de codage. Le Low Code permet d’ajouter quelques lignes de code, aux plateformes No Code.
De la découverte en laboratoire à l’innovation industrielle… On scrute pour vous chaque semaine les tendances de l’industrie.
Le pari de BYD : démocratiser la voiture électrique en Europe
Alors que le marché des véhicules électriques connaît des hauts et des bas en Europe, BYD lance un modèle à prix cassé pour attirer les acheteurs. Avec une autonomie de 427 kilomètres et un prix défiant toute concurrence, la Seagull pourrait bien changer la donne face à des concurrents comme Renault et Volkswagen. BYD, Renault, Volkswagen : qui remportera la bataille des VE abordables ?
Évolution du label Greenfin : vers une finance plus verte et transparente
Dix ans après sa création, le label Greenfin, garant de la finance verte, se met à jour pour intégrer les nouvelles normes européennes. Avec des critères d’exclusion renforcés et une transparence accrue, il guide les investisseurs vers des choix plus responsables Le label Greenfin s’adapte à une finance plus verte
Graphène et au-delà : renforcer la solidité des matériaux 2D
Le graphène, connu pour sa solidité, présente une faiblesse face aux fractures. Des scientifiques ont exploré des méthodes innovantes pour renforcer ce matériau, aboutissant à un dérivé du carbone à la fois solide et robuste. Des chercheurs de l’université Rice ont réussi à surmonter cette faiblesse en renforçant intrinsèquement le graphène, ouvrant la voie à de nombreuses applications. Des matériaux 2D qui intègrent la robustesse
Perspectives pour les matériaux : choix éclairés et innovations durables
Les matériaux contribuent aux transitions industrielles, de la fabrication additive aux batteries du futur, en passant par l’hydrogène et la construction durable. Voici des pistes pour faire des choix éclairés grâce à l’intelligence artificielle et aux analyses de cycle de vie. Les matériaux innovants dessinent l’avenir de l’industrie
Une nouvelle génération de robots aquatiques : efficacité et discrétion
Grâce à une propulsion silencieuse et une grande manœuvrabilité, un robot inspiré des vers plats aquatiques pourrait transformer l’exploration sous-marine. Pas plus grand qu’une carte de crédit, ce nageur discret est prêt à relever les défis des environnements aquatiques complexes. Un robot profilé pour l’exploration sous-marine
Dix ans après sa création au moment de la COP 21, le label de finance verte Greenfin (anciennement label TEEC) évolue. Une mise à jour de ses conditions d’éligibilité vient d’être publiée au Journal Officiel afin de les mettre en cohérence avec les exigences du cadre européen, notamment en matière de finance durable et d’objectifs climatiques. Ce label, porté par le Ministère de la Transition écologique, de la Biodiversité, de la Forêt, de la Mer et de la Pêche, permet aux investisseurs (banques, assurances et épargnants) d’identifier les produits financiers qui contribuent effectivement à la transition énergétique et écologique. Il regroupe actuellement 108 fonds labellisés pour un encours de 35 milliards d’euros.
Les activités économiques éligibles à ce label sont toujours au nombre de huit, à savoir l’énergie, le bâtiment, l’économie circulaire, l’industrie, le transport, les technologies de l’information, l’agriculture et la forêt, et enfin l’adaptation au changement climatique. Mais des critères d’exclusion ont été renforcés et visent particulièrement des activités qui sont contraires à la transition énergétique et écologique. Par exemple, le seuil d’exclusion du charbon est passé de 5 % à 1 %, conformément aux exigences européennes. D’une manière générale, toutes les sociétés qui sont liées à des activités en rapport avec les énergies fossiles sont exclues.
Pour rappel, en janvier 2024, le label avait intégré les activités économiques liées à l’énergie nucléaire au même titre que les énergies renouvelables (hydroélectricité, photovoltaïque, éolien, géothermie…), alors que jusqu’à cette date, les sociétés dont plus de 5 % de l’activité relevait de l’atome étaient exclues. Là encore, ce changement avait été effectué pour se mettre en cohérence avec la taxonomie européenne.
Plus de transparence sur la composition des fonds et leur impact environnemental
Autre évolution 2025 du label de finance verte : le renforcement de la transparence. Les sociétés de gestion doivent communiquer leurs rapports environnementaux régulièrement, au minimum tous les ans, et les informations doivent être rédigées de manière structurée afin de veiller à la bonne compréhension de la stratégie et des objectifs du fonds. Un inventaire complet du portefeuille d’investissement doit aussi être rendu public de façon lisible et accessible pour le grand public.
Il est également indiqué que chaque société de gestion doit posséder « une organisation du contrôle interne et du contrôle périodique qui lui permet de contrôler, en interne ou via des prestataires de services, la bonne application de la stratégie environnementale ainsi que l’ensemble des exigences du présent référentiel. » Elle doit par ailleurs démontrer « la mise en place de procédures visant à identifier les potentiels changements substantiels de stratégie environnementale du fonds. Mais aussi à prévenir, le cas échéant, « l’organisme certificateur du ou des changements substantiels de la stratégie environnementale. »
Le label Greenfin est actuellement délivré par trois organismes mandatés, à savoir Novethic, EY France et Afnor Certifications. La décision est prise en toute indépendance par l’organisme de labellisation, sur la base d’un rapport d’audit. Le label Greenfin est accordé pour une durée d’un an renouvelable et pendant la première année, des contrôles intermédiaires sont programmés afin de vérifier que le fonds est bien respectueux des exigences du label.
Cette nouvelle version du label Greenfin fait suite à celle du label ISR (Investissement socialement responsable) qui avait fait peau neuve l’année dernière pour lui aussi se mettre en conformité avec la réglementation européenne. Au premier janvier 2025, environ les deux tiers des fonds ont pu conserver ce label à la suite de sa refonte. Créé en 2016, il a pour but de concilier la performance financière et le développement durable, et prend en compte des critères extra-financiers, dits ESG (Environnement Social Gouvernance).
Les matériaux 2D ont permis de nombreuses innovations. Que ce soit dans la rapidité et l’efficacité de l’électronique, le stockage d’énergie à haute capacité, les capteurs avancés ou encore les technologies portables. Reste que ces matériaux ont une faiblesse : leur fragilité. Des matériaux dérivés du carbone comme le graphène ont beau compter parmi les plus solides au monde, ils présentent une extrême faiblesse au niveau de la résistance à la fracture. Une fois que des fissures y apparaissent, elles s’y propagent rapidement, menant finalement à une fracture soudaine. Le graphène se compose d’atomes de carbone rangés dans une matrice hexagonale ordonnée, dite cristalline. Pour rendre de tels matériaux plus robustes, deux voies s’offrent aux chercheurs : le « renforcement extrinsèque », ou le « renforcement intrinsèque ».
Un matériau amorphe des plus robustes
Le « renforcement extrinsèque » consiste à ajouter des nanostructures en soutien, quand le « renforcement intrinsèque » vise plutôt à introduire des modifications au sein même du plan du matériau. C’est cette dernière piste que des scientifiques de l’université Rice de Houston (Texas, États-Unis) et leurs collaborateurs ont choisi d’explorer… Avec succès ! Bongki Shin, étudiant diplômé en nanoingénierie et en science des matériaux de l’université Rice, est le premier auteur de cette nouvelle étude parue dans le journal Matter le 13 février 2025. Avec ses collègues, il s’est évertué à incorporer dans une monocouche de carbone amorphe (sans structure cristalline) à la fois des régions amorphes et nanocristallines. L’idée étant de fournir de la robustesse en plus de la grande solidité d’un matériau comme le graphène.
Pour mesurer quantitativement la qualité de leur matériau 2D, Bongki Shin et ses collaborateurs ont réalisé des tests de traction in situ sous un microscope électronique à balayage. Cela leur a permis d’observer dans le détail la formation et la propagation des fissures en temps réel. Ce travail a révélé un taux de libération d’énergie chez le nouveau matériau près de huit fois supérieur à celui mesuré dans le cas d’une monocouche de graphène. Les scientifiques ont également noté une amélioration dans la stabilisation des fissures et la déformation au niveau de la fracture. Il en résulte une meilleure absorption de l’énergie par le matériau au cours de la propagation d’une fissure, ce qui expliquerait le caractère à la fois solide et robuste de ce dérivé du carbone.
Pour notre dossier de Février, « EPR : des factures et des promesses », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.
En 2007, la construction d’un premier réacteur (Projet Olkiluoto 3) basé sur le modèle de l’EPR a débuté en Finlande tandis qu’en France, un décret autorisait la création d’un second (Flamanville 3).
Parce qu’elle n’émet pas de gaz à effet de serre et qu’elle se révèle économique, l’énergie nucléaire avait en effet été considérée comme une réponse apportée à la problématique du réchauffement climatique. Cependant, après l’accident de Tchernobyl survenu en 2003, renforcer les dispositions prises sur les réacteurs et prendre en compte la possibilité de situations de danger est apparu nécessaire. C’est ainsi que le futur EPR 3 a été envisagé pour répondre aux conditions de sûreté exigées par la France et l’Allemagne. Même avec un cœur dégradé, voire une fusion du combustible, les conséquences pour l’environnement devaient rester limitées.
Des conditions générales avaient par ailleurs été spécifiées dans l’objectif de construire à l’identique des centrales sur d’autres sites.
Sûreté et compétitivité
Cependant, à la sécurité et la préservation de l’environnement, la conception de l’EPR devait ajouter des coûts de production d’électricité compétitifs par rapport à ceux des autres sources d’énergie, tout en satisfaisant les différents besoins des électriciens français et allemands. Cette équation complexe a nécessité des choix techniques impliquant la standardisation de certains équipements, une disponibilité élevée et de faibles coûts de cycle du combustible. Le tout devait supporter une puissance électrique élevée, adaptée à des pays industrialisés équipés de réseaux interconnectés puissants et largement utilisateurs d’énergie nucléaire.
De l’EPR à l’EPR 3
S’alignant sur les installations les plus modernes précédentes construites et exploitées en France et en Allemagne, le réacteur à eau ordinaire sous pression de conception évolutive est apparu comme le meilleur choix pour équiper les futurs sites. Il permettait en effet de bénéficier d’une technologie éprouvée tout en intégrant les enseignements du retour d’expérience s’appuyant sur près d’une centaine de réacteurs déjà construits.
Des dispositions facilitant les actions de contrôle et de maintenance préventive avaient également été prévues dès la conception pour limiter la durée des arrêts pour rechargement.
En termes de sécurité, la stratégie prévoyait l’amélioration des mesures de prévention des accidents, mais également la limitation des rejets radioactifs en cas de survenue d’un accident, quelle qu’en serait la nature. Enfin, la possibilité d’une agression d’origine externe, par exemple par la chute d’un avion, a aussi été prise en compte.
Les systèmes de sauvegarde choisis répondaient eux-mêmes à deux principes, celui de la simplicité en occupant une seule fonction principale, et l’enjeu du secours mutuel, chaque fonction pouvant pallier une autre en cas de défaillance.
En 2007, par ses caractéristiques novatrices, l’EPR 3 a donc été considéré comme le mieux placé pour maintenir l’option nucléaire ouverte à l’horizon 2020, conformément à la politique énergétique de la France. Il devait permettre ainsi le renouvellement des centrales nucléaires françaises. À ce stade, il constituait une référence pour la construction de nouvelles centrales nucléaires de la troisième génération.
Flamanville 3 au défi
L’EPR de Flamanville aurait dû être mis en service en 2012, mais a été largement retardé. En effet, de nombreux incidents ont été constatés, notamment des fissures dans le béton dès 2008, des anomalies sur la cuve et son couvercle en 2015, ou encore des soudures défectueuses nécessitant des réparations complexes. De même, la complexité et l’ampleur du projet ont été sous-estimées, conduisant à des révisions successives du calendrier et du budget.
Par ailleurs, aucun nouveau réacteur n’ayant été construit en France durant des années, la perte de compétences a significativement impacté la qualité et l’efficacité de la réalisation du projet.
Enfin, la réglementation a évolué pendant la période de construction, notamment s’agissant des normes de sûreté, renforcées après l’accident de Fuskushima en 2011.
Malgré l’augmentation significative du coût du projet et les nombreux défis qui ont dû être relevés, l’Autorité de sûreté nucléaire a autorisé la mise en service de l’EPR de Flamanville en mai 2024, et le réacteur a commencé à produire de l’électricité en septembre 2024.
Nager en surface permet à un robot de collecter facilement l’énergie solaire nécessaire à son bon fonctionnement. De plus, les mesures variées qu’il effectue (pollution, qualité de l’eau…) peuvent être communiquées efficacement à la base d’opérations. Mais rien n’est jamais aussi simple, et un tel robot doit faire face à un environnement encombré de plantes, d’animaux et de débris divers. Il lui faut donc être en mesure de se mouvoir rapidement en réponse à l’apparition d’un nouvel obstacle. Pour le moment, ces robots usent d’une propulsion bruyante pouvant gêner voire blesser la vie sauvage alentour.
Une équipe mêlant des chercheurs de l’École Polytechnique Fédérale de Lausanne (Suisse) et de l’Institut Max-Planck pour les systèmes intelligents (Allemagne) a cherché l’inspiration pour une nouvelle génération de robots nageurs du côté des vers plats aquatiques – ou planaires – et de leur méthode de propulsion silencieuse – tout en ondulation…
Un petit ver robotique que rien n’arrête
Florian Hartmann, collaborant avec les institutions suisse et allemande, est le premier auteur de l’étude parue le 19 février 2025 dans le journal Science Robotics. Avec ses collègues, il y décrit la confection d’un robot pas plus gros qu’une carte de crédit et pesant tout juste 6 grammes ! Ce petit nageur possède une paire de nageoires pectorales millimétriques capables d’onduler. Un unique actionneur électrohydraulique mou situé de chaque côté du pseudo-ver plat aquatique permet de générer l’ondulation le propulsant à la surface de l’eau. L’oscillation de ses nageoires peut être jusqu’à dix fois plus rapide que chez les vers originaux, lui permettant d’atteindre une vitesse de 12 centimètres/seconde en déplacement et de 195 degrés/seconde en rotation. Et le petit prodige des bassins est également capable de nager en arrière, voire sur le côté !
Le ver robotique doit sa flottabilité avant tout à sa légèreté due à son alimentation compacte. Une prouesse rendue possible par une diminution du voltage d’opération des actionneurs au-dessous des 500 volts et de la consommation de puissance à 35 milliwatts. Fort de ces atouts, le robot de Florian Hartmann et ses collaborateurs est rapide, mais aussi très manœuvrable. Il s’est ainsi montré capable de naviguer en autonomie dans des espaces étroits, à travers des plantes herbacées, et en allant parfois jusqu’à pousser des objets sur son parcours pesant plus de 16 fois sa propre masse. À l’avenir, de tels robots pourraient servir dans l’exploration d’environnements complexes et la mesure de paramètres critiques pour l’aquaculture ou pour des écosystèmes à surveiller comme les récifs coralliens ou les bordures de lac.
Après le chargement du réacteur, l’EPR a été connecté au réseau à la fin de l’année dernière.
L’énergéticien français suit un programme très précis pour finaliser avec succès toutes les étapes du démarrage de l’EPR. EDF a expliqué à Techniques de l’Ingénieur ces dernières, mais aussi les améliorations prévues sur les futurs EPR2, tirées des retours d’expérience accumulés à la suite des chantiers de construction des premiers EPR.
Quelles étapes ont été franchies depuis le chargement du réacteur en mai 2024 ?
En mai 2024, les opérations de chargement des 241 assemblages combustibles dans la cuve du réacteur ont été effectuées.
Après la réalisation du chargement du réacteur, les équipes ont procédé à de nombreux essais techniques : c’est plus de 1 500 critères qui ont été vérifiés pour mettre en condition le réacteur pour sa première divergence.
En septembre 2024, l’Autorité de sûreté nucléaire a donné son accord à EDF pour procéder aux opérations de divergence du réacteur de Flamanville 3. La divergence correspond à la première réaction nucléaire dans le réacteur et consiste à établir une réaction nucléaire stable à très faible puissance. Une fois réalisée, le réacteur était situé à 0,2% de sa puissance nominale.
Après la première réaction nucléaire, les équipes ont poursuivi le programme d’essais et de contrôles pour monter progressivement le réacteur en puissance par paliers.
Le 21 décembre 2024, le réacteur de Flamanville 3 a été connecté pour la première fois au réseau électrique national et a produit 100 MW électriques.
Quelles sont les prochaines étapes qui vont suivre l’autorisation de franchir le seuil de 25% de puissance ?
Après ce premier couplage, conformément à la procédure de démarrage, les phases d’essais et de connexion et de déconnexion au réseau électrique sont en cours et se poursuivront pendant plusieurs mois, sous le contrôle de l’ASN, jusqu’à ce que le réacteur atteigne 100% de puissance d’ici l’été 2025.
Le démarrage d’un réacteur est une opération longue et complexe. Il demande la pleine mobilisation des équipes et est réalisé à chaque étape avec le plus haut niveau de sûreté ainsi que de fiabilité industrielle.
Deux passages de paliers sont soumis à accords de l’Autorité de Sûreté nucléaire : le seuil des 25 % de puissance, puis des 80 %.
Pourriez-vous donner quelques exemples des « événements significatifs » rapportés par EDF et des corrections apportées ?
Les déclarations d’Evènements Significatifs Sûreté (ESS) sur l’EPR de Flamanville sont disponibles en ligne. Il s’agit en très grande majorité d’ESS de niveau 0, c’est-à-dire sous l’échelle INES.
Le démarrage de l’EPR est un processus long et complexe avec la mise en service de matériels pour la première fois. Plus de 1 500 critères sont testés donc cette phase comprend de nombreux essais et s’accompagne de la prise en main progressive des matériels par les équipes d’exploitation.
L’appropriation des règles d’exploitation a été organisée en amont du démarrage lors de formations et une période d’application à blanc. Chaque évènement fait l’objet d’une analyse approfondie et, si besoin, conduit à la mise en place d’actions correctives. Un dispositif d’appui national a été mis en place auprès du site. Cela consiste notamment à détacher des renforts, et à la réalisation de revues de pairs (issus d’autres CNPE) qui permet de donner au site un renvoi d’image sur leurs pratiques.
Quels sont les éléments d’amélioration déjà répertoriés pour la mise en œuvre des EPR 2 ?
D’une puissance de 1 670 MW, le réacteur EPR2 s’appuie sur les enseignements acquis dans les chantiers réalisés ces dernières années en Chine, en Finlande, au Royaume-Uni et en France. L’EPR2 intègre les dernières évaluations scientifiques sur le changement climatique pour proposer un réacteur capable de fournir de l’électricité bas carbone pour au moins 60 ans.
Les chantiers de construction des EPR de Flamanville et d’Hinkley Point C (Royaume-Uni) sont une première étape permettant de reconstituer une supply chain adaptée aux enjeux de la construction et de réinvestir dans des parcours de formation et de professionnalisation. L’EPR2 est une version optimisée de l’EPR. Il conserve les atouts de ce dernier – puissance, sûreté, et adapté aux enjeux environnementaux – tout en améliorant sa compétitivité économique et sa constructibilité.
Ses principales améliorations vont dans le sens d’une simplification de la conception, de la standardisation des composants et des processus. Il sera aussi conçu pour être plus flexible et s’adapter à la production des énergies renouvelables.
En dessous de 20 000 euros : est-ce un seuil symbolique à ne pas franchir pour attirer des Européens vers la voiture électrique (VE) ? C’est le pari de BYD avec sa Seagull. Avec une longueur de 3,78 mètres et une autonomie annoncée de 427 kilomètres, ce modèle se positionne comme un concurrent direct de la Citroën ë-C3 (disponible depuis fin 2024 autour de 23 000 euros.).
BYD ne sera pas le seul sur ce créneau. Renault devrait lancer sa Twingo Electric l’an prochain. Il y a quelques jours, le patron de la marque au losange a indiqué qu’un autre modèle reposant sur la même base technique que les emblématiques R4 et R5 est également prévu. Enfin, Volkswagen devrait suivre en 2027 avec son ID.1.
L’arrivée de ces modèles permettra-t-elle de doper un marché des véhicules électriques présentant de forts contrastes ? En Allemagne, ce secteur a progressé de 50 %. À l’inverse, l’Hexagone a enregistré un recul de 15 % des immatriculations en 2024, mais janvier 2025 a affiché un + 3,2 %.
Des coûts de revient très bas
Des prix élevés, une réduction des bonus écologiques et des reportages mensongers diffusés par TF1 et M6 ont refroidi les acheteurs. Le parc français compte environ 1 160 000 VE.
L’arrivée d’un modèle vendu autour de 20 000 euros par BYD pourra-t-elle changer la donne et démocratiser l’usage du VE ? Car BYD est un acteur majeur. Acronyme de « Build Your Dreams » (« Construisez vos rêves »), le Chinois a été fondé en 1995. Il intervient sur quatre grands secteurs d’activité, ceux des technologies de l’information, des nouvelles énergies, de l’automobile et du ferroviaire.
Dans le domaine de l’énergie, BYD est tout à fait capable de développer, concevoir et de produire des batteries par ses propres moyens. En 2020, BYD a lancé sa propre technologie, la Blade Battery. Cette batterie LFP (lithium – fer – phosphate) affiche aujourd’hui une capacité de 61,44 et 80,64 kWh, ce qui permet de rouler environ de 433 à 552 kilomètres avec l’homologation européenne WLTP.
Second plus grand fabricant de batteries de traction, avec une part de marché mondial de 17,2 %, contre 37,9 % pour le Chinois CATL, BYD travaille sur des batteries à électrolyte solide. Cependant, sa production à grande échelle ne sera pas pour tout de suite, car le tarif est encore trop élevé.
Les tarifs attractifs sont justement l’un des arguments majeurs de BYD, mais aussi des autres marques chinoises. Pour afficher de tels tarifs en Europe (mais qui sont encore beaucoup moins chers en Chine), BYD maîtrise toute la chaîne de production, de l’extraction des matières premières à la production des batteries. Le coût de revient d’une voiture électrique fabriquée par BYD est donc très bas.
Mais est-ce suffisant ? En dehors de la Chine, la notoriété de la marque est plus faible que celle de Tesla et d’autres acteurs mondiaux. Par ailleurs, son réseau ne compte qu’une quarantaine de points de vente en France, contre environ 6 600 pour le groupe Renault (marques Renault, Dacia et Alpine). Pas simple en cas de panne ou de réparation, car le propriétaire d’une BYD devra faire de nombreux kilomètres.
Tesla en compte aussi une trentaine. Mais le constructeur rappelle qu’il n’est pas toujours nécessaire d’aller dans un centre pour l’entretien, grâce à ses équipes mobiles. Il peut réaliser près de 80 % des opérations d’entretien sur le lieu de préférence du propriétaire.
« La construction de l’EPR ne peut être considérée que comme un échec pour EDF » ou encore « un échec opérationnel patent ». Ce sont dans ces termes que la cour des comptes qualifiait dès 2020 le chantier de construction de l’EPR à Flamanville. Depuis, ce dernier a été chargé et mis en service, même s’il ne devrait atteindre sa pleine puissance que cet été.
Dans le cadre du plan de relance du nucléaire, ce sont trois paires d’EPR supplémentaires qui doivent être mises en service entre 2035 et 2042, pour à la fois augmenter la capacité de production d’électricité nucléaire tout en modernisant le parc existant. La construction de 8 réacteurs supplémentaires sur le territoire est évoquée pour être en mesure d’atteindre la neutralité carbone d’ici 2050, comme la France s’y est engagée.
Depuis des décennies, grâce à l’énergie nucléaire, qui permet à la France de produire près de 70% de son électricité, le pays dispose d’un des mix électriques les plus décarbonés au niveau mondial.
Si on se projette à horizon 2050, les enjeux sont multiples, mais la finalité limpide : être en mesure de produire une électricité 100% décarbonée. C’est au niveau des enjeux que cela se complique. Se défaire des énergies fossiles induit une augmentation de la production d’électricité ; l’électrification des mobilités implique aussi une augmentation de la consommation électrique ; la généralisation des usages numériques, informatique, l’IA, le stockage des données, ne va aujourd’hui pas dans le sens de la frugalité… Pour faire court, et sans minimiser les politiques de « sobriété » et les disruptions technologiques à venir, il est fort probable qu’il faille, d’ici à 2050, atteindre la neutralité carbone dans un contexte de forte hausse de la demande électrique.
Au milieu de cela, le nucléaire a vécu ces dernières années dans un flou entretenu par les alternances politiques. Il apparaît aujourd’hui que sous l’impulsion d’Emmanuel Macron, l’hexagone a remis l’atome au centre du jeu. En était-il possible autrement ? Si un déploiement massif des énergies renouvelables apparaît indispensable à l’objectif de neutralité carbone, une production nucléaire efficace, c’est-à-dire avec un parc nucléaire renouvelé, performant et pilotable, est à l’heure actuelle complémentaire à l’intermittence du solaire et de l’éolien. Avec l’impossibilité, encore aujourd’hui, de stocker l’électricité efficacement sur du moyen terme.
Dans un contexte prévisible de hausse de la demande d’électricité – pour la mobilité notamment, voire pour faire fonctionner des électrolyseurs ? -, d’une dépendance de plus en plus problématique aux ressources fossiles mise en lumière par le conflit en cours à l’Est de l’Europe, et qui impacte à la fois le prix de l’énergie, et la capacité à s’approvisionner en ressources, la capacité à produire une électricité décarbonée devient vitale. Encore plus si on ajoute à cela les transferts d’usages des énergies fossiles vers l’électricité, que ce soit au niveau de l’industrie ou du chauffage, pour ne citer qu’eux.
Les différents scénarios énergétiques à l’horizon 2050 montrent que plusieurs voies sont possibles, avec ou sans le nucléaire. Pour autant l’horizon énergétique le plus évident mêle énergies renouvelables – solaire, éolien -, production d’électricité nucléaire, et hydroélectricité. L’avantage du nucléaire est de minimiser les risques technologiques à mettre en œuvre en termes de développement des énergies renouvelables et de leur intégration au réseau électrique. Reste aujourd’hui que la politique énergétique du gouvernement doit absolument être mise en cohérence avec la politique fiscale. Il en va de même dans la conduite de la production sur le moyen et long terme, qui n’est aujourd’hui pas mise en relation étroite avec la gestion de la demande.
Les projets à venir d’EPR ont ce mérite, en termes de clarification des moyens mis en place sur le moyen terme pour produire une électricité décarbonée et répondre, au moins en partie, aux interrogations concernant la capacité tricolore à mener de front une production électrique décarbonée et en augmentation.
Ce lancement doit être suivi de six autres en 2025, qui seront tous répartis entre le mois d’août et de décembre 2025. A terme, le nouveau PDG d’Arianespace David Cavaillolès a annoncé un objectif d’une dizaine de lancements annuels en rythme de croisière pour le dernier né des lanceurs européens.
2025 est donc une année charnière pour Ariane 6, qui va devoir démontrer sa capacité à répéter les lancements, sans le droit à l’erreur, pour gagner en crédibilité auprès de ses clients potentiels.
La seconde mission aura donc lieu en août 2025. La mission VA264 permettra le placement en orbite polaire d’un satellite météorologique.
Si la suite du calendrier des lancements n’est pas encore officielle, on sait qu’une partie importante des commandes faites au lanceur européen concerne la mise en orbite de la constellation Kuiper d’Amazon, qui doit concurrencer Starlink, l’armada de satellite mise en orbite par le SpaceX d’Elon Musk, et qui doit fournir des accès à internet dans les zones aujourd’hui inaccessibles au réseau terrestre.
L’agence spatiale européenne, l’ESA, doit également, grâce à Ariane 6, envoyer plusieurs satellites dans l’espace, pour mettre en œuvre notamment le programme Copernicus chargé de documenter et d’observer les effets du changement climatique.
Cela dit, Arianespace va devoir, pour être concurrentiel, faire face à l’émergence de nombreux acteurs du New Space, au premier rang desquels SpaceX, et ses lanceurs réutilisables. Si les lanceurs Ariane 6 et Vega-C ne sont pas réutilisables, leurs coûts de fabrication, bien moins élevés que ceux des lanceurs précédents, ont été pensés pour être concurrentiels. Mais la concurrence vient également du continent européen.
Le sommet de Séville, fin 2023, a acté le transfert de la commercialisation des vols du lanceur Vega-C à la société italienne Avio, au détriment d’Arianespace. Mais aussi, sous l’impulsion allemande, il a été décidé de donner une chance aux mini-lanceurs développés par des entreprises privées, qui se développent massivement outre-Rhin. L’ESA prévoit sur ce point des aides allant jusqu’à 150 millions d’euros pour soutenir les projets les plus porteurs.
Le principe d’une compétition industrielle entre les trois grands pays du spatial européen, la France, l’Italie et l’Allemagne est aujourd’hui acté. L’objectif étant, comme cela a été le cas aux Etats-Unis sous l’impulsion de SpaceX, de mettre fin à la situation de monopole d’Arianespace et de sortir d’une logique institutionnelle pour mettre en place une logique économique et de compétition.
Si Arianespace doit donc aujourd’hui affronter une concurrence accrue, la possibilité pour des TPE et des PME tricolores de tirer leur épingle du jeu pourrait permettre à des jeunes pousses comme Maiaspace, Zephyr, Sirius, HyPrSpace, Dark ou encore Opus Aerospace de se faire une place sur un marché où les places sont chères, et peu nombreuses.
Les acteurs français devront cependant faire face aux autres acteurs européens, extrêmement actifs. Côté allemand, Isar Aerospace, RFA ou encore Hylmpulse développent des modèles de micro lanceurs qui doivent redonner à l’Allemagne une souveraineté sur ses lancements, au mieux à partir de 2026.
Cette effervescence au niveau européen, porteuse d’espoirs pour l’industrie spatiale, constitue donc aussi une forme de pression pour les gros lanceurs, au premier rang desquels Ariane 6.
L’EPR de Flamanville est le dernier EPR mis en route pour l’instant. S’il ne fonctionne pas à sa puissance maximale pour le moment, il a été raccordé au réseau en décembre dernier et EDF a annoncé, il y a quelques semaines, avoir reçu l’autorisation pour franchir le seuil de 25% de puissance. Sa mise en service industrielle, avec un fonctionnement à 100% de ses capacités, devrait intervenir au plus tôt à l’été 2025.
Les trois autres EPR en fonctionnement se situent en Chine et en Finlande. En Chine, dans le district de Taishan, deux réacteurs EPR ont été mis en marche en 2018 et en 2019. L’EPR finlandais, situé sur l’île d’Olkiluoto, est en service depuis 2023.
Deux autres réacteurs EPR sont actuellement en construction, sur le site de Hinkley Point C au Royaume-Uni. Initialement prévus pour être mis en fonctionnement en 2017, ils le seront au mieux en 2029, voire 2031, faisant de la centrale anglaise la plus chère jamais conçue. En décembre dernier, la cuve du premier réacteur, fabriquée par Framatome, a été mise en place. Si le retard du chantier est en partie imputable à la crise sanitaire liée à l’épidémie de Covid, d’autres facteurs entrent en considération. D’abord, il a fallu adapter la conception des EPR à la réglementation britannique, en y incluant les retours d’expérience issus des autres chantiers EPR déjà réalisés. Au total, ce sont plus de 7000 modifications qui ont été apportées par rapport aux plans initiaux, avec notamment l’ajout de 35% d’acier et 25% de béton, et la mise en place d’un système de contrôle commande spécifique. La seconde raison tient au génie civil. Plus de vingt ans après la construction de la dernière centrale sur le sol britannique, la productivité a été inférieure aux prévisions, en particulier en ce qui concerne la phase des montages électromagnétiques, et la difficulté à trouver des fournisseurs pour finaliser la conception détaillée.
La construction de six nouveaux EPR 2, versions standardisées et simplifiées des EPR a été annoncée en février 2022 par le Président Macron, avec des mises en service étalées entre 2035 et 2050. Huit autres réacteurs font l’objet d’études de faisabilité. Les six nouveaux EPR seront construits par paire, sur des sites d’ores et déjà identifiés à Penly (Seine-Maritime), Gravelines (Nord), et sur la centrale du Bugey (Ain). La construction des deux premiers réacteurs, à Penly, sera l’occasion de profiter des retours d’expérience accumulés sur les chantiers précédents, mais EDF est sous pression, car les retards et surcoûts démentiels constatés sur les premiers EPR ont un impact important sur leur rentabilité.
EDF, qui table sur une facture de 70 milliards d’euros, réhaussée par rapport aux 52 milliards initialement annoncés, sait que le coût du capital peut avoir un effet sur le coût final des chantiers, jusqu’à le faire doubler. Il est donc impératif de réduire au maximum la durée des chantiers. Sur ce point, Luc Rémont, le PDG d’EDF, a mis la barre haut, avec un objectif de 70 mois pour construire les EPR2, qui seront construits en série et par paire, pour un maximum d’efficacité. Une nécessité économique pour EDF, qui pourra s’inspirer de l’EPR chinois, construit en 68 mois.
Dans le meilleur des cas, l’énergéticien prévoit une mise en service des réacteurs de Penly en 2035, de ceux de Gravelines en 2038 et de la paire du Bugey en 2042.
La mise en service des ces réacteurs dans les temps, et le développement des SMR, ces petits réacteurs modulaires, doit fournir 25 gigawatts de nouvelles capacités nucléaires d’ici 2050 et permettre à la France de remplir ses objectifs de neutralité carbone, en prenant en compte la hausse des besoins en électricité dans les décennies qui se profilent.
De la découverte en laboratoire à l’innovation industrielle… On scrute pour vous chaque semaine les tendances de l’industrie.
Sommet de l’IA à Paris : entre ambitions et rivalités internationales
Dans un contexte de croissance exponentielle du marché de l’IA, le sommet de Paris a été l’occasion pour l’Europe de réaffirmer sa volonté de jouer un rôle clé sur la scène internationale. Entre annonces ambitieuses et tensions diplomatiques, cet événement a souligné l’importance de l’innovation et de la coopération pour éviter une concentration excessive du marché. Comment l’Europe pourrait rivaliser avec les géants de l’IA ?
Escalade tarifaire : la Chine contre-attaque face aux mesures américaines
Face aux taxes américaines, la Chine réagit en imposant ses propres droits de douane sur des importations stratégiques. Cette riposte s’accompagne d’une plainte à l’OMC et d’une réorientation des importations de GNL. Voyons les enjeux de cette confrontation économique majeure entre les deux puissances mondiales. La riposte chinoise aux droits de douane imposés par les Etats-Unis
L’essor de TEAM2 : de l’écotransition régionale à l’influence internationale
TEAM2 a su évoluer pour devenir un acteur majeur de l’économie circulaire en France et en Europe. Grâce à une structuration autour de cinq domaines d’activités stratégiques, le pôle accompagne aujourd’hui de nombreux projets innovants, renforçant ainsi la souveraineté économique et environnementale. Un pôle de compétitivité au cœur de l’innovation en recyclage
La Norvège, championne des ventes de voitures électriques en Europe
En Europe, la transition vers les véhicules électriques est encore timide, mais la Norvège se démarque avec des chiffres impressionnants. En 2024, 89 % des voitures neuves vendues étaient électriques, un chiffre qui a grimpé à 96 % en janvier 2025. Des politiques incitatives et un réseau de recharge performant ont permis au pays d’électrifier son parc automobile. Une exception en Europe sur le marché de l’automobile électrique
Gigafactory d’Hambach : le projet ambitieux de HoloSolis pour la souveraineté énergétique
En partenariat avec des acteurs majeurs de l’industrie, HoloSolis s’apprête à transformer le paysage énergétique européen avec la construction de la plus grande gigafactory de panneaux photovoltaïques à Hambach. Ce projet ambitieux vise à renforcer la souveraineté énergétique de l’Europe face à la concurrence mondiale. La production énergétique redéfinie en Europe
Aéroports et climat : vers une empreinte carbone réduite
Depuis 2009, le programme ACA, lancé par l’ACI, est le seul programme global de certification pour la gestion des émissions carbone des aéroports. Avec plus de 600 aéroports engagés, ce programme met en lumière les efforts pour réduire l’empreinte climatique des infrastructures aéroportuaires. Le programme ACA et ses impacts sur le climat
Le grand transfert d’eau en Chine : un projet ambitieux et controversé
Depuis les années 1950, la Chine s’est lancée dans un projet colossal de transfert d’eau du sud vers le nord, une initiative qui suscite aujourd’hui de nombreuses critiques. Ce projet, imaginé par Mao Zedong, vise à résoudre les pénuries d’eau dans le nord du pays en utilisant les ressources abondantes du sud. Cependant, les conséquences sociales, environnementales et économiques de ce projet titanesque soulèvent de nombreuses questions. Les dessous du projet de transfert d’eau en Chine
Analyse prédictive, stratégies de jeu personnalisées, suivi en temps réel des performances… L’intelligence artificielle a fait son entrée dans le domaine du sport de haut niveau et transforme peu à peu les pratiques. A l’Institut National du Sport, de l’Expertise et de la Performance (INSEP), l’IA facilite certaines recherches et permet de gagner du temps.
Biologiste et biomécanicien de formation, Gaël Guilhem a intégré l’INSEP comme chercheur en 2009, et est devenu directeur du laboratoire Sport Expertise Performance en 2016. Pour Techniques de l’ingénieur, il explique comment l’IA a fait son entrée dans les laboratoires, pour quels sujets elle est utile, et comment elle peut aider les athlètes à devenir plus performants.
Techniques de l’Ingénieur : Qu’est-ce que l’INSEP et sur quoi travaillez-vous avec le laboratoire Sport Expertise Performance ?
Gaël Guilhem, directeur du laboratoire Sport, Expertise, Performance à l’INSEP
Gaël Guilhem : L’Institut national du sport est un institut public qui a vocation à accueillir les sportifs de haut niveau qui se préparent pour les grandes échéances internationales, en particulier les Jeux Olympiques, les championnats du monde et les championnats d’Europe. L’objectif de l’INSEP est de créer les conditions optimales de l’émergence de la performance, c’est-à-dire amener aux acteurs tout ce qui va leur permettre d’être performant, et de se construire le meilleur projet de vie possible, d’un point de vue sportif et personnel. Dans cette pépinière, le rôle du laboratoire est de développer de la connaissance originale dans des domaines divers depuis les sciences humaines aux sciences de la vie, et que ces connaissances soient mobilisables le plus rapidement possible par les athlètes et leurs entraîneurs. Ce qui nous distingue des laboratoires académiques, c’est ce lien très étroit avec les encadrements techniques, les staffs et les athlètes.
Comment l’IA vous aide-t-elle dans vos recherches sur le sport de haut niveau ?
Dans notre métier de chercheur, les domaines d’application de l’IA sont très riches et les champs infinis, donc je vais donner trois exemples. D’abord, l’IA nous aide à accélérer notre capacité à réaliser des recherches bibliographiques. En rassemblant les documents utiles, elle nous permet de gagner du temps pour faire l’état de l’art dans un domaine précis. Ensuite, l’IA nous sert à croiser les informations et à en extraire des modèles. Dans notre travail avec les sportifs, l’objectif est de comprendre les facteurs internes qui font qu’ils sont performants dans leur discipline ou qu’ils sont exposés à des risques de blessure. Par exemple, connaître la force musculaire d’un athlète est importante en sprint mais pour savoir s’il va se blesser, il faut ajouter d’autres variables comme la charge et les conditions d’entraînement, son comportement etc. Grâce au machine learning, nous pouvons aller vers des modèles statistiques plus évolués.
Enfin, l’IA nous permet d’avoir des informations sur le sportif en train de performer, sans avoir besoin de l’équiper. Avec les techniques classiques, il faut équiper l’athlète de capteurs, aller repérer ses marqueurs, faire du traitement de données, ce qui est très lourd et long. Aujourd’hui, les outils d’intelligence artificielle commencent à proposer des solutions pertinentes pour accéder à cette information, sans avoir besoin d’équiper le sportif, ce qui évite toute contrainte pour lui. En prenant une vidéo de l’athlète et en la couplant avec de l’imagerie médicale que nous avons de lui, nous pouvons connaître sa vitesse de déplacement, les vitesses de rotation de ses bras, de ses jambes. Cela est nécessaire pour individualiser les conseils.
Mais dans tous les cas, nous ne nous arrêtons pas à ce que propose l’IA et nous repassons systématiquement derrière pour valider les résultats. Les modèles ne sont pas encore assez fiables donc nous corrigeons et réentrainons les IA pour qu’elles soient plus performantes.
Comment se passe l’intégration de l’IA dans les laboratoires ?
Tout ce que je viens d’énoncer existe déjà à l’INSEP mais nos outils sont encore perfectibles. Nous développons nos propres outils et nous essayons de ne pas nous appuyer sur des outils commercialisés car nous ne savons pas de manière transparente comment les données sont utilisées. En parallèle, nous travaillons avec des experts spécialisés dans l’IA. A l’INSEP, l’intelligence artificielle génère aussi beaucoup de discussions et de questionnements autour des bonnes pratiques, des écueils, de l’éthique, des limites juridiques. Ça me rassure de travailler avec des personnes qui se posent beaucoup de questions et qui ne plongent pas dans l’IA sans réfléchir.
Quels types de données recueillez-vous ?
La nature des données est infinie, il peut s’agir d’informations dans des questionnaires, de mesures de force, de données GPS, de données sur l’hydratation ou la réponse à la chaleur, d’imagerie médicale… Le champ est vaste et le nombre de solutions est très diversifié. Concernant ces données, nous suivons bien sûr le RGPD mais aussi la loi Jardé relative à la recherche biomédicale sur l’être humain. Nous respectons donc certaines exigences comme le respect du consentement des participants et le devoir d’informations, où nous précisons les tenants et aboutissants des recherches et qui aura accès à ces données.
L’IA permet d’avoir des informations sur le sportif en train de performer, sans avoir besoin de l’équiper / Crédit : INSEP
Avez-vous des exemples concrets de comment l’IA est aujourd’hui utilisée pour améliorer la performance des athlètes ?
Le fait d’accéder aux volumes musculaire des athlètes permet d’identifier les équilibres au sein d’un groupe musculaire, et ainsi prévenir les blessures. Par exemple, dans l’ischio-jambier, vous avez quatre chefs musculaires. Si vous avez des déséquilibres de volumétrie entre ces quatre muscles, vous allez accélérer la survenue d’une fatigue et donc le risque de blessure. En revanche, si vous avez accès à cette information, vous pouvez faire des suggestions très individuelles des muscles que l’athlète devra travailler en priorité. Sans l’IA, il est très difficile de proposer ces recommandations précises dans une temporalité qui respecte les besoins des athlètes de haut niveau.
Avec les Jeux Olympiques et Paralympiques Paris 2024, avez-vous noté une hausse de l’intérêt pour l’IA ?
Dans le domaine scientifique, incontestablement. Les laboratoires s’y intéressent beaucoup pour l’efficacité énoncée plus tôt, et du point de vue des acteurs sportifs, les référents scientifiques ont conscience de ces projets. Si la question est de savoir si l’IA a procuré un avantage concurrentiel aux sportifs et aux entraîneurs dans le cadre des JO de Paris, je pense que oui. En revanche, je ne pense pas que les athlètes ou entraîneurs en aient vraiment conscience pour le moment. Nous sommes dans un processus où l’IA fait avancer la recherche, mais le niveau d’appropriation se fait surtout au niveau des acteurs scientifiques. Il y a des enquêtes sociologiques après les JO pour savoir quelles questions, enjeux et problématiques ont émergé à chaque Olympiade. Nous verrons si l’IA en fait partie.
D’un point de vue éthique, pensez-vous qu’il soit souhaitable de viser l’optimisation totale des athlètes ?
C’est une question qu’on se pose aussi de notre côté. Déjà, il ne faut pas oublier que nous sommes encore loin du fantasme de l’optimisation maximale. Nous aurions besoin de ressources humaines et de moyens très conséquents pour réussir à optimiser tous les athlètes de toutes les disciplines. Prenons un exemple simple : nos athlètes n’ont pas toujours une hygiène de vie exemplaire car ce sont de jeunes adultes qui vivent leur vie en parallèle. Beaucoup de choses peuvent donc être optimisées de manière simple, sans passer par l’IA. Ensuite, l’optimisation ne concerne pas que la performance, mais aussi la santé des athlètes, ce qui est un net avantage pour eux. Enfin, les recherches sur le haut niveau ont des répercussions sur la population et répondent à des questions de santé. Actuellement, avec la fin des Jeux Olympiques, les financements liés à la haute performance sont en réduction. Une des voies de poursuite de nos travaux serait de tourner nos recherches vers la santé. Par exemple, nous avons divers projets qui visent à comprendre l’impact du stress environnemental comme la chaleur ou l’altitude sur la santé musculo-squelettique. Ce sont des questions de santé avant de toucher au sport.
Comment imaginez-vous le futur de l’IA dans la recherche à court et long terme ?
Ce que je vois très clairement, c’est que l’IA va nous permettre et nous permet déjà de gagner du temps. La prochaine étape maintenant est de faire en sorte qu’il y ait suffisamment de données validées humainement. Dans le domaine du sport, une de nos problématiques est d’avoir assez de données qualitatives pour avoir des banques de données conséquentes et des modèles performants. L’étape ultime sera la transformation des métiers mais nous en sommes loin. Je pense que les métiers de chercheurs vont devenir plus productifs : nous pourrons nous attaquer à certains défis qui nous paraissaient comme des Everest, que nous n’entreprenions pas par manque de temps ou de ressources. Néanmoins, il ne faut pas oublier que l’IA n’est pas indispensable pour tout. Beaucoup de nos recherches nous permettent aussi d’aider les athlètes très simplement, en organisant mieux leur journée par exemple, et pour cela nous n’avons besoin ni d’IA, ni de capteurs, ni de modèles mathématiques. Dans tous les cas, l’important sera de rester dans un cadre éthique et de s’interroger tout le long du process.
Imaginé par Mao Zedong dès les années 1950, le projet de transfert d’eau du sud de la Chine vers le nord suscite de plus en plus de critiques. Son idée de départ est simple : puisque le sud du pays, confronté à de multiples inondations, dispose de cette ressource en excès, alors que le Nord, une région agricole et industrielle, doit faire face à des pénuries récurrentes, il suffit de déplacer cette eau. En 2002, un vaste chantier a donc débuté et doit se terminer en 2050. Sauf qu’il n’est pas sans poser de multiples questions sur ses conséquences sociales, environnementales et économiques.
Ce projet prévoit la construction de trois canaux de dérivation, le premier étant déjà achevé. D’une longueur de 1 267 km, il prend sa source dans le fleuve Han, un affluent du Yangtsé et alimente principalement la ville de Pékin. Depuis 2014, l’eau est acheminée grâce à un système gravitaire à l’aide d’une série de barrages. Pour cela, le niveau du barrage de Danjiangkou, situé le plus en amont, a dû être relevé, ce qui a provoqué un agrandissement de la surface du lac et nécessité le déménagement de 330 000 habitants. Des conséquences écologiques sont également déjà visibles, puisque les barrages et le détournement de l’eau perturbent les habitats aquatiques et menacent la biodiversité locale.
Un second canal, situé à l’est du pays, est en cours d’achèvement. Long de 1 467 km, il doit permettre de dériver l’eau du Yangtsé pour l’acheminer vers plusieurs villes du nord, dont Tianjin. Plusieurs stations de pompage ont dû être installées pour surmonter le relief. Enfin, le dernier canal, situé à l’ouest du pays, n’a pas encore débuté, mais devrait mesurer environ 500 km. Le projet consiste à transférer l’eau du fleuve Yi, un affluent du fleuve Jaune situé près du plateau tibétain, vers diverses provinces telles que le Gansu, la Mongolie intérieure et le Qinghai.
Cette dernière phase du projet est la plus controversée, car cette dérivation doit traverser des zones écologiquement sensibles, comme le plateau tibétain. Le détournement de l’eau pourrait également raviver des tensions avec des pays voisins comme l’Inde et le Bangladesh, qui dépendent aussi des rivières alimentées par le plateau tibétain. Ce canal pourrait être perçu comme une appropriation unilatérale des ressources en eau et provoquer des conflits diplomatiques.
45 milliards de m3d’eau par an devraient être transférés du sud vers le nord
D’un point de vue technique, la construction de ce troisième canal est un véritable défi et nécessitera d’énormes travaux d’infrastructure, comme des tunnels et des barrages. La région, très montagneuse, présente des conditions extrêmes avec une altitude élevée et des terrains instables avec des risques géologiques. Cette phase nécessitera des investissements massifs et se révèle la plus coûteuse de ce projet, dont le coût global est évalué à 70 milliards de dollars.
À terme, environ 45 milliards de m3 d’eau par an devraient être transférés du sud vers le nord grâce à ces trois canaux. Mais certains experts doutent de l’efficacité à long terme de ces ouvrages, face au changement climatique et à l’augmentation des besoins en eau. La réduction du débit des rivières du sud pourrait également provoquer l’assèchement de zones humides et affecter durablement l’agriculture et la pêche locales, et donc dégrader les moyens de subsistance de milliers de personnes. Le dépôt de résidus dans les canalisations pourrait également se révéler un problème et aggraver la qualité des ressources hydriques dans les régions du Nord.
Plutôt que de mettre en œuvre ce projet de transfert massif d’eau, d’autres solutions alternatives pourraient être mises en œuvre, comme une meilleure utilisation de l’eau, avec par exemple la rénovation des canalisations et des barrages pour éviter les fuites, l’adoption de nouvelles techniques d’irrigation telles que le goutte-à-goutte ou encore l’encouragement au recyclage de l’eau dans l’industrie. Une gestion plus durable et équilibrée des ressources hydriques du pays pourrait être adoptée avec d’autres techniques comme le développement de la Réutilisation des eaux usées traitées (REUT) en stations d’épuration ainsi que la restauration et la préservation des sources d’eau naturelles du Nord en limitant la surexploitation.
Le marché de l’IA générative a doublé de taille en 2024 et devrait atteindre, voire dépasser, les 100 milliards de dollars en 2028 selon une étude publiée début février par Sopra Steria Next, cabinet de conseil de Sopra Steria.
L’IA est devenue incontournable. Mais face aux États-Unis et la Chine, la France (mais aussi l’Europe) doit préserver son autonomie sous peine de devenir dépendante. Ce qui est déjà le cas avec les GAFAM.
Dans ce contexte, le sommet de l’IA apparaissait comme une étape majeure pour redéfinir les règles et les enjeux. Le vieux continent ne veut pas rater le train de l’IA.
« Nous avons le meilleur écosystème en Europe », a affirmé Emmanuel Macron, en clôture de la première journée de cet événement. Le Président de la République a promis une accélération des procédures, notamment pour l’installation de datacenters nécessaires au fonctionnement des modèles d’IA.
Autre annonce choc, un investissement de 300 milliards de dollars dans l’IA, montrant principalement que la France et l’Europe sont prêtes à rivaliser avec les États-Unis et la Chine.
Mais derrière les sourires et ces annonces, le bilan est moins positif que lors des précédentes réunions de Bletchley au Royaume-Uni en 2023 et de Séoul (l’an passé) qui avaient permis de parvenir à quelques accords (même prudents), en particulier sur la sécurité des données.
Pour se démarquer, le sommet de l’IA de Paris s’est focalisé sur des questions immédiates telles que l’innovation, l’emploi et le bien public [pour dénoncer indirectement des monopoles de l’IA]. La déclaration finale a d’ailleurs appelé à « éviter la concentration du marché ».
La problématique de la sécurité des données n’a cependant pas été écartée. Mais la déclaration finale s’est contentée de « prendre note » des engagements volontaires en matière de sécurité de l’IA, une nuance du langage diplomatique…
Deux grands absents qui ont fait parler d’eux
Ce qui a été moins diplomatique a été la position ferme des États-Unis qui n’ont pas signé cette déclaration. La raison ? Une « régulation excessive » de l’UE selon JD Vance. Dans son discours, le vice-président américain a clairement indiqué que les États-Unis n’allaient pas être freinés dans le développement de la technologie par une réglementation mondiale ou par une attention excessive portée à la protection des données.
Ce sommet n’a pas non plus réussi à fédérer tous les acteurs mondiaux à cause de la rivalité sino-américaine. Emmanuel Macron voulait travailler avec tout le monde sur l’IA, y compris la Chine. Mais lors d’un dîner, JD Vance a quitté la salle dès l’intervention du vice-premier ministre chinois, Zhang Guoqing. M. Vance a mis en garde contre toute coopération avec des régimes « autoritaires » comme la… Chine.
De son côté, le vice-premier ministre chinois a déclaré que son pays était disposé à travailler avec d’autres pour préserver la sécurité et partager les réalisations dans le domaine de l’IA afin de construire « une communauté avec un avenir commun pour l’humanité ».
Absente à ce sommet, la start-up DeepSeek était pourtant sur toutes les lèvres, car elle rebat un peu les cartes et ébranle l’hégémonie américaine menée par OpenAI, Google…
Le modèle de DeepSeek représente une opportunité pour les acteurs européens de construire des modèles plus économes et frugaux. La piste explorée par les Chinois est en effet intéressante. Cette piste s’appelle la distillation de modèles. C’est une technique d’optimisation en intelligence artificielle qui permet de réduire la taille et la complexité d’un modèle tout en conservant ses performances.
Absent également à Paris, Elon Musk a également fait beaucoup parler de lui. Un consortium dirigé par l’homme le plus riche de la planète a lancé une offre de près de 100 milliards de dollars pour l’organisation à but non lucratif qui contrôle OpenAI.
Le patron d’OpenAI, monsieur Altman a déclaré que « l’entreprise n’est pas à vendre » et a répété une contre-offre en forme de clin d’œil : « Nous sommes heureux d’acheter Twitter ».
L’idée de casser les monopoles de l’IA est encore loin de devenir une réalité…
EPR signifiait à l’origine « European Pressurized Reactor ». Ce n’est plus le cas aujourd’hui, puisque les trois lettres qui ont tant fait parlé désignent désormais un réacteur évolutionnaire : « Evolutionary Power Reactor ». Une évolution sémantique qui symbolise à elle seule les montagnes russes subies par le projet lancé à la fin des années 1980, en coopération avec l’Allemagne, avant que nos voisins ne s’en extirpent définitivement en 2011, suite à leur décision d’abandonner le développement de l’énergie nucléaire, après l’accident de Fukushima.
L’EPR est classé par le CEA comme un réacteur de troisième génération : il se distingue de ses prédécesseurs – les REP, réacteurs à eau pressurisée – de seconde génération de par l’utilisation de techniques plus efficaces et plus sûres. En cela, il est souvent décrit comme une version moderne des REP, avec un meilleur rendement, des systèmes redondants de sûreté et une épaisse enveloppe de confinement en béton.
Le site de Flamanville, choisi en 2004 pour accueillir le premier EPR français, voit le chantier démarrer en 2007. A ce moment, le consortium Areva/Siemens, en charge de la conception des EPR, a déjà signé – en 2003 – un contrat avec TVO, la compagnie finlandaise d’électricité, pour la construction d’un EPR en Finlande, dont les travaux démarrent en 2005.
La Chine s’intéresse également à la technologie EPR et signe pour deux réacteurs, dont la construction débute en 2009.
A cette catastrophe nucléaire succède le début des ennuis techniques, et le feuilleton lié à la non conformité de la cuve du réacteur et des défauts de soudure sur le circuit secondaire. En effet, l’ASN, qui a aujourd’hui fusionné avec l’IRSN pour devenir l’ASNR, alerte à la fin de l’année 2014 sur une anomalie de la composition chimique de l’acier de la cuve du réacteur de Flamanville, pouvant conduire à dégrader sa capacité à résister à la propagation d’une fissure.
Areva NP, en charge seul de l’EPR suite au départ de Siemens, lance un programme d’essais afin de justifier de la résistance mécanique suffisante de l’acier dans toutes les situations de fonctionnement. Avec à la clé des retards qui s’accumulent et une facture qui s’envole : le coût final de l’EPR est estimé à plus de 23 milliards d’euros par la cour des comptes, alors que le budget initial présenté en avril 2007 s’élevait à 3,3 milliards d’euros, avec un délai de construction de cinq ans.
Si la validation de deux réacteurs EPR au Royaume-Uni sur le site d’Hinkley Point est une bonne nouvelle, Areva a souffert de ses déboires finlandais – l’EPR finlandais accuse en effet également d’importants retards et surcoûts – et voit sa branche réacteurs nucléaires reprise par EDF. Nous sommes alors en 2018 et le premier EPR est mis en fonctionnement, en Chine, suivi d’un second un an plus tard. Enfin une bonne nouvelle, même si le premier réacteur chinois accumule les problèmes obligeant son arrêt à plusieurs reprises.
L’EPR finlandais démarre en 2021, 12 ans après la date prévue.
En 2022, le Président Macron annonce la construction de 6 nouveaux EPR de nouvelle génération d’ici à 2050, afin d’être en mesure de remplir les objectifs de décarbonation du pays.
Alors qu’en Europe, les ventes de véhicules électriques peinent à décoller, un pays fait figure d’exception dans ce domaine : la Norvège. En 2024, 89 % des voitures particulières neuves vendues étaient électriques, selon le Conseil d’information sur le trafic routier (OFV), contre moins de 14 % dans l’UE. En janvier 2025, cette part est même montée à 96 %, soit tout proche de l’objectif de ne vendre que des voitures zéro émission cette année. Mais comment fait ce pays pour vendre autant de véhicules électriques, alors qu’il est un gros producteur d’hydrocarbures en Europe ?
Contrairement à l’UE, la Norvège n’a pas planifié l’interdiction des moteurs à combustion, mais a mis en place depuis de nombreuses années plusieurs mesures incitatives pour parvenir à cette transition énergétique. À commencer par une politique fiscale très favorable à l’achat, puisque les véhicules zéro émission neufs sont exemptés de taxes à l’import, au contraire des véhicules thermiques qui sont lourdement taxés. Jusqu’en 2022, les voitures électriques ont également bénéficié d’une exonération totale de la TVA, dont le taux s’élève à 25 % en Norvège. Depuis, cette TVA s’applique uniquement sur le prix du véhicule dépassant 44 000 euros.
En plus de ces mesures fiscales incitatives, qui sont les principales raisons du succès des voitures électriques dans le royaume du Nord, d’autres avantages ont été instaurés comme la gratuité des péages urbains et du stationnement dans les parkings publics, ainsi que la possibilité de conduire dans les couloirs de bus. Face au nombre croissant de ce type de véhicules, ces passe-droits ont été progressivement réduits ou annulés.
Ce pays scandinave a su en parallèle développer un réseau très dense de bornes de recharge. Il existe plus de 3 000 stations de recharge publiques dans tout le pays et plus de 9 000 chargeurs rapides. Même dans le nord de la Norvège, une région très étendue et peu peuplée, il est possible de se déplacer en voiture électrique, sans craindre de manquer d’autonomie. Ces bornes sont également faciles à utiliser, car nul besoin d’une application mobile ou d’un abonnement comme c’est le cas en France, il suffit de payer avec une carte bancaire.
Tesla domine les ventes avec une part de marché de près de 19 %
Le gouvernement a également joué un rôle primordial pour inciter sa population à franchir le pas en menant des campagnes de sensibilisation sur l’aspect économique en informant le public que l’achat de modèles électriques se révèle bien plus compétitif que les véhicules thermiques. Les autorités ont également mis en avant le potentiel des modèles électriques pour décarboner la mobilité. Ces voitures sont d’ailleurs jugées d’autant plus vertueuses que presque l’intégralité de l’électricité du pays provient de barrages hydrauliques.
Aujourd’hui, ces véhicules zéro émission sont devenus la norme dans le royaume scandinave et bénéficient d’un fort potentiel d’acceptation parmi la population. La qualité de vie des villes s’est améliorée grâce à une baisse de la pollution sonore et atmosphérique. Certains constructeurs automobiles bien connus dominent les cinq premières places des nouvelles immatriculations. Tesla s’adjuge la première position avec une part de marché en 2024 de près de 19 %, suivie par Volkswagen (11 %), Toyota (11 %), Volvo (9 %) et BMW (5 %). Le constructeur américain a consolidé sa présence dans ce pays plus rapidement que les marques chinoises, qui représentent un peu plus de 10 % du marché des voitures neuves.
Est-ce à dire que la Norvège peut devenir un modèle et s’exporter dans les autres pays européens ? Pas si sûr, car contrairement à la France, l’Allemagne, l’Espagne ou l’Italie, ce pays ne possède pas de site de production automobile, ni aucun lobby automobile avec lequel négocier pour inciter à la transition énergétique. Les autorités ont donc plus de marges de manœuvre pour mettre en place de véritables politiques incitatives afin de rendre l’achat de véhicules électriques très attractif.
Après qu’HoloSolis a annoncé, en janvier dernier, avoir obtenu le permis de construire et l’autorisation d’exploitation de cette future gigafactory, l’entreprise travaille désormais activement à l’élaboration de l’avant-projet détaillé, passage obligé avant que les partenaires du consortium n’actent leur décision finale d’investissement. Prévue pour l’année prochaine, elle constituera alors le signal de départ de la construction de pas moins de 18 ha de bâtiments, qui seront ensuite progressivement équipés, jusqu’en 2028, de plusieurs lignes de production dernier cri. Une condition en effet nécessaire pour assurer, face à la concurrence chinoise, la compétitivité de cette future usine, comme nous l’explique le président d’HoloSolis, Jan Jacob Boom-Wichers.
Techniques de l’Ingénieur : Quelles sont les origines de ce projet de gigafactory d’Hambach, et du consortium qui le porte, HoloSolis ?
Jan Jacob Boom-Wichers : La société HoloSolis a été créée par trois investisseurs : EIT InnoEnergy[1], groupe européen public-privé visant à accélérer la transition énergétique européenne par la réindustrialisation ; TSE[2], développeur de centrales photovoltaïques ; et le Groupe IDEC[3], acteur majeur de la construction. Après la pandémie, et à la suite du déclenchement de la guerre en Ukraine, nous avons collectivement pris conscience du niveau de désindustrialisation de la France et de l’Europe, et de sa dépendance aux énergies fossiles… Cela a ainsi notamment conduit InnoEnergy à redoubler d’efforts pour contribuer à la souveraineté énergétique européenne, en s’engageant dans des projets de construction de gigafactories. D’abord dans le domaine des batteries électriques, aux côtés d’entreprises telles que Verkor ou Northvolt, puis dans le secteur de l’hydrogène et de la production d’acier décarboné ; mais aussi, enfin, dans la filière photovoltaïque (PV). InnoEnergy a ainsi cherché à contribuer au rapatriement d’usines de fabrication de panneaux PV.
Cette perspective s’inscrit en effet dans le contexte de l’adoption du règlement pour une industrie « zéro net », ou Net-Zero Industry Act (NZIA), qui vise notamment à ce que 40 % des panneaux PV installés en Europe d’ici à 2030 soient fabriqués au sein de l’Union. C’est donc dans cette optique que le groupe s’est engagé dans des projets de construction d’usines de fabrication de panneaux, dont la future gigafactory d’Hambach, portée par HoloSolis, entreprise créée en 2021, et que je préside depuis décembre 2022.
Comment votre choix s’est-il porté vers ce site d’Hambach, en Moselle ?
Épaulé par l’une de mes premières collègues, Élise Bruhat, j’ai rapidement commencé à chercher le site qui pourrait accueillir au mieux cette future usine… Nous avons ainsi étudié et comparé pas moins d’une quarantaine de sites, répartis dans six pays européens, avant, finalement, de choisir Hambach, près de Sarreguemines en Moselle, en avril 2023. La commune s’est en effet avérée réunir tous nos critères : elle comporte tout d’abord un terrain suffisamment grand – de l’ordre d’une cinquantaine d’hectares – et viabilisé ; elle est située dans une zone caractérisée par une population active locale habituée au travail en usine, a fortiori en 3×8, mais aussi par un soutien administratif fort – tant de la part de la Région, que de la Communauté d’agglomération, que de la commune – ainsi que par, enfin, un important soutien financier. Outre son électricité peu carbonée et relativement bon marché, la France a en effet été l’un des pays les plus volontaires sur le plan des aides financières susceptibles d’être apportées au projet. Enfin, la position géographique de la commune s’est également révélée décisive : située à quelques kilomètres de la frontière allemande, Hambach va nous permettre d’atteindre en une journée de route, 85 % du marché PV européen (France, Allemagne, Benelux, nord de l’Italie, Pologne…).
C’est ainsi que le président Emmanuel Macron a publiquement annoncé le projet en mai 2023, dans le cadre du Sommet Choose France.
Combien d’emplois ce projet devrait-il permettre de créer ?
Nous misions au départ sur l’embauche d’environ 1 700 personnes, chiffre qui a depuis été revu à la hausse et se situera sans doute, finalement, autour des 1 900 salariés. Le projet, au moment de son annonce, s’est ainsi révélé le plus pourvoyeur d’emplois en France.
Quelles installations prévoyez-vous d’implanter sur ce site d’une cinquantaine d’hectares que vous évoquiez ?
Ce site de cinquante hectares comportera 18 hectares de bâtiments… Des bâtiments colossaux : l’un d’eux – destiné à la production des cellules photovoltaïques – mesurera plus de 500 mètres de long, sur 150 mètres de large, pour une hauteur de 12 à 13 mètres… Un autre – dans lequel seront notamment fabriqués les panneaux PV, et qui comportera également un transstockeur – mesurera quant à lui près de 350 mètres de long.
Dans son ensemble, le site constituera ainsi la plus grande installation européenne de production de cellules et de panneaux PV. Une partie de l’électricité sera, en outre, produite sur place, grâce aux panneaux photovoltaïques dont seront couverts les bâtiments, et aux ombrières photovoltaïques qui équiperont les parkings.
Quelle sera la technologie des cellules que vous comptez produire au sein de cette gigafactory d’Hambach ?
Nous avons décidé de miser sur la technologie TOPCon [pour Tunnel Oxide Passivated Contact, n.d.l.r.] de type N. Il s’agit en effet de la technologie actuellement la plus répandue et la plus aboutie du secteur. Il s’avère également que notre directeur technique Oliver Schultz-Wittmann est l’un des co-inventeurs de cette technologie…
Une technologie de cellules avancée… Comme le seront d’ailleurs également vos outils de production, n’est-ce pas ?
Nos moyens de production seront, en effet, eux aussi à la pointe de la technologie. En outre, l’usine fera la part belle à l’intelligence artificielle. Nous visons la production, à terme, de l’équivalent de 5 GW de panneaux par an, soit environ 10 millions d’unités, issues de la fabrication de 550 millions de cellules PV… La production d’un tel volume va ainsi nous permettre d’engranger d’énormes quantités de données. Avant de devenir une cellule PV, chaque plaquette de silicium passera en effet par une quinzaine d’étapes de production, au cours de chacune desquelles une centaine de mesures environ seront réalisées. Cela va donc représenter pas moins de 1 500 mesures par cellule, multipliées par les quelque 3 millions d’entre elles que nous comptons produire chaque jour, soit près de 4,5 milliards de points de données collectés quotidiennement ! L’IA va donc nous permettre d’analyser cette masse considérable de données, en nous apportant ainsi, notamment, des informations clés sur la qualité des cellules, et en nous permettant d’identifier les paramètres à réunir pour produire les cellules les plus performantes possible. En parallèle, un jumeau numérique de l’usine nous permettra de réaliser des simulations, et de progresser. Tout cela n’a pour l’heure jamais été mis en œuvre dans notre industrie. Nous avons donc la volonté d’être précurseurs dans ce domaine.
Sans doute cela est-il également l’une des conditions nécessaires pour assurer votre compétitivité face aux producteurs chinois, qui plus est après les échecs rencontrés par certains de vos prédécesseurs en France, tels que Systovi[4], ou plus récemment Photowatt[5]… ?
Les exemples que vous mentionnez sont tragiques, car il s’agit de sociétés qui se sont véritablement battues pour essayer de survivre… Quant à nous, notre objectif est effectivement de miser sur ces technologies de production de pointe pour parvenir à produire à très, très grande échelle. C’est uniquement en produisant en masse que nous parviendrons à atteindre des coûts de production compétitifs. Cela ne pourra se faire sans atteindre des cadences très élevées – grâce, notamment à un haut niveau d’automatisation – ainsi que des processus de contrôle qualité extrêmement rigoureux, dans le but d’accroître au maximum l’efficacité de notre future usine.
Où en est justement, aujourd’hui, le développement de ce projet de gigafactory d’Hambach ?
Nous avons franchi le 24 janvier dernier une étape décisive, en obtenant le permis de construire de nos futurs bâtiments, ainsi que notre autorisation d’exploitation, à l’issue d’une étude approfondie de nos dossiers environnementaux par la DREAL[6], la Préfecture, etc. Cela a pu aboutir dans un délai très court grâce au travail en bonne intelligence que nous avons pu mener dès le départ avec les services de l’État.
Quelles seront alors les prochaines étapes du projet ?
Cette année 2025 va être l’année de l’élaboration de notre avant-projet détaillé. Quand il sera prêt, nous lancerons alors des appels d’offres pour l’ensemble des travaux prévus : construction des bâtiments, installation des lignes électriques, mise en place des équipements de production… Quand nous aurons sélectionné ces futurs acteurs, nos investisseurs émettront une décision finale d’investissement. Ce n’est qu’à ce moment-là que pourront véritablement débuter les travaux, en 2026. Nous espérons ainsi pouvoir installer les premiers équipements de production en fin d’année prochaine, pour lancer la production des premières cellules et des premiers panneaux PV début 2027. S’ensuivra une montée en puissance progressive, grâce à l’installation successive de plusieurs autres lignes de production, pour atteindre, à terme, en 2028, les 5 GW de capacité annuelle de production que j’évoquais.
Cette progressivité va nous permettre d’équiper l’usine avec, à chaque fois, des outils de production dernier cri, leurs technologies évoluant en effet très vite… À l’image d’ailleurs des technologies de cellules. Nous travaillons ainsi main dans la main avec plusieurs centres de recherche, tels que l’Institut Photovoltaïque d’Île-de-France (IPVF) ou l’Institut Fraunhofer, pour les aider à industrialiser les technologies d’avenir, notamment les cellules tandem. L’objectif étant bien entendu de privilégier les technologies les plus efficaces, certes, mais aussi et surtout en offrant les coûts les plus bas possibles.
Même si son montant exact n’a pas encore été défini, quel est l’ordre de grandeur de l’investissement nécessaire pour faire aboutir un tel projet ? Comment comptez-vous le financer ?
Le budget total du projet se situe aux alentours de 800 millions d’euros. Nous avons déjà reçu beaucoup de soutien de la France et de l’Europe, notamment un crédit d’impôt au titre des investissements dans l’industrie verte, ou C3IV, à hauteur de 200 millions d’euros, ainsi que des subventions de la Région Grand Est. Nous travaillons également aujourd’hui sur des levées de fonds successives : nous menons actuellement une levée en Série A, d’un montant de 20 M€. Nous lancerons prochainement une levée de fonds en Série B, de 200 M€, qui se cumulera à de la dette et aux subventions publiques que j’évoquais.
Les évènements politiques récents et le contexte d’instabilité que nous connaissons actuellement vous ont-ils éventuellement, à un moment ou un autre, amenés à remettre en cause la réalisation de ce projet en France ?
Cela n’est pas allé jusqu’à remettre en cause la réalisation du projet. Les lois telles que le NZIA, conjuguées à l’impérieuse nécessité de souveraineté énergétique en Europe, nous confortent en effet dans l’intérêt que nous voyons à ce projet. Il serait selon nous extrêmement dommageable pour la France et l’Europe qu’il ne se concrétise pas. D’autant que nous avons la principale matière première nécessaire – le quartz[7] – directement sous nos pieds… Il s’agit-là à la fois d’une question économique, sociale et géostratégique majeure.
Une fois cette gigafactory d’Hambach pleinement opérationnelle, serait-il éventuellement envisageable, pour vous, d’en ouvrir d’autres ailleurs en France ou en Europe ?
Absolument. Après l’ouverture de cette première gigafactory, qui sera alors la plus grande d’Europe, nous espérons effectivement lancer d’autres projets de même envergure. C’est en tout cas notre vision à moyen/long terme. Nous concentrons en effet évidemment, pour l’heure, tous nos efforts dans ce projet d’Hambach. Reste qu’avec un marché de panneaux PV installés estimés à 100 GW en 2030, l’Europe aura de toute façon besoin d’au moins huit autres usines comme la nôtre pour atteindre ses objectifs et assurer sa souveraineté, tant énergétique qu’industrielle.
Acronyme de « Technologies de l’environnement appliquées aux matières et aux matériaux », TEAM2 fédère aujourd’hui un large réseau de partenaires industriels, académiques et institutionnels régionaux, mais aussi, pour une partie d’entre eux, implantés ailleurs en France et dans les pays limitrophes. Un pôle de compétitivité animé par une douzaine de salariés, en tête desquels figure Carole Magniez, directrice générale, épaulée par Moïse Vouters, directeur général adjoint et responsable des projets européens, qui nous a accordé cet entretien.
Techniques de l’Ingénieur : Y a-t-il des raisons particulières qui expliquent la création de TEAM2 dans les Hauts-de-France ?
Moïse Vouters : TEAM2 a été labellisé en tant que Pôle de compétitivité en 2010. Il existait alors déjà dans l’ex-région Nord-Pas-de-Calais, et plus particulièrement dans le secteur lensois, un écosystème centré sur « l’écotransition ». Les différents acteurs qui le composaient ont progressivement pris conscience de l’ampleur des actions à mener dans le domaine de l’environnement et plus particulièrement du recyclage… Ce qui était alors plutôt novateur et ambitieux, à une époque où les pouvoirs publics et la société en général ne s’y intéressaient pas encore suffisamment. C’est donc sous l’impulsion de ces pionniers qu’est née l’association TEAM2, alors animée par une poignée de salariés.
Après ses débuts relativement modestes, le pôle a connu un véritable décollage en 2019-2020, sous l’influence notamment de la prise de conscience collective des enjeux écologiques, amplifiée par les différentes crises que nous avons connues : pandémie, guerre en Ukraine… Cela nous a en effet montré à quel point nous pouvions être dépendants d’autres pays sur le plan de notre approvisionnement en matières premières. Il était donc plus que jamais temps de travailler à des solutions, en misant notamment sur les principes de l’économie circulaire. C’est ce à quoi s’attelle TEAM2 depuis sa création.
Comment cela se traduit-il sur le plan, tout d’abord, de la structuration du pôle de compétitivité TEAM2 ?
TEAM2 s’est progressivement bâtie autour de cinq « Domaines d’activités stratégiques », ou « DAS ». Le premier d’entre eux, historiquement, a été celui de la valorisation des matériaux, et plus précisément du recyclage des métaux, des matériaux organiques et des minéraux. Enfin, deux autres de ces domaines d’activités stratégiques sont venus se greffer un peu plus récemment : celui des boucles innovantes d’économie circulaire, ainsi que celui des équipementiers français du recyclage, un groupement(1) créé suite au message d’alerte lancé en 2013 par Louis Gallois, alors à la tête du PIA(2) dans le but de promouvoir l’utilisation sur le territoire national d’équipements de recyclage développés en France.
Au-delà de ces cinq DAS, l’activité de TEAM2 se concentre aujourd’hui plus largement autour de trois grands axes : la gestion optimisée des ressources ; le modèle économique des projets d’économie circulaire et les enjeux de cohésion sociale qui en découlent, notamment la création de nouveaux métiers, de nouvelles compétences, et des formations associées ; et un troisième axe consacré à la création de boucles d’économie circulaire – directement lié au dernier DAS que j’évoquais – qui permet d’assurer la pérennité du modèle circulaire et de gérer les externalités.
Quels sont les différents types d’acteurs représentés au sein de TEAM2 ?
Le pôle de compétitivité TEAM2 regroupe un large panel d’acteurs. Parmi les quelque 210 adhérents que nous comptons aujourd’hui, trois quarts environ sont des entreprises – notamment des start-up et PME – et, pour le quart restant, des fédérations, syndicats professionnels et laboratoires de recherche – adossés à des universités et écoles d’ingénieurs – ainsi que la plupart des éco-organismes liés au secteur du bâtiment, avec lesquels nous travaillons sur des sujets d’innovation dans un esprit « gagnant-gagnant ». Enfin, nous comptons aussi parmi nos adhérents quelques collectivités locales, ce qui est assez rare pour être souligné. Outre les aspects industriels, le sujet des déchets implique en effet d’aborder la question des déchèteries, de la gestion de biodéchets… dont les collectivités ont la charge.
À quelle échelle ces acteurs rayonnent-ils ? Régionale, nationale, voire au-delà… ?
Actuellement, 60 % de nos adhérents sont implantés dans les Hauts-de-France. Les 40 % restant sont quant à eux répartis sur le territoire national, mais aussi, pour trois d’entre eux, à l’étranger : en Suisse, au Luxembourg, et en Belgique.
Cet élargissement illustre finalement l’évolution historique de TEAM2 que j’évoquais : le pôle est passé en quelques années d’un écosystème très régional à une entité qui rayonne au niveau national – et même dans une certaine mesure à l’échelle internationale – à mesure que l’économie circulaire est devenue un enjeu majeur pour la France et l’Europe.
L’État a d’ailleurs demandé à TEAM2 d’agir afin de devenir le pôle de référence en matière d’économie circulaire sur le territoire national, mais aussi au niveau européen. D’où cette ouverture progressive au-delà de nos frontières.
Comment, concrètement, votre action auprès de vos adhérents se traduit-elle ?
Les services que nous leur proposons s’articulent autour de quatre aspects. Le premier d’entre eux est l’innovation : nous proposons des services d’accompagnement pour nos adhérents impliqués dans des projets innovants. Le deuxième axe de notre travail est l’animation de notre réseau, qui passe par la mise en place d’ateliers, de webinaires, de journées techniques… Enfin, les deux derniers axes de notre travail auprès de nos adhérents consistent en des services de veille stratégique et des actions de communication, de promotion des projets d’innovation que nous accompagnons. Cet aspect représente d’ailleurs pour nous un élément central. Nous aidons les porteurs de projets à orienter leur action, à bien définir leurs objectifs, mais aussi et surtout à construire le réseau de partenaires nécessaire. TEAM2 est en effet en capacité d’aller chercher les bons interlocuteurs partout en France. Autre point important : nous guidons aussi les porteurs de projets vers les bons guichets de financement, ceux qui leur permettront d’être financés le plus efficacement possible.
Avez-vous éventuellement en tête quelques exemples de projets marquants auxquels vous avez apporté votre contribution dernièrement ?
Je citerais tout d’abord un projet autour des batteries électriques. Plusieurs gigafactories de batteries sont actuellement en train de voir le jour dans les Hauts-de-France. Or, au démarrage de leur production, ces industriels vont produire ce que l’on appelle du « scrap(3)», contenant un certain nombre de métaux critiques dont il convient naturellement d’éviter le gaspillage en les revalorisant. Il existe, pour cela, différentes approches conventionnelles – pyrométallurgie, hydrométallurgie… – mais aussi un procédé novateur développé par une start-up créée il y a deux ans en région lyonnaise – Mecaware – et qui permet, en plus de la récupération de métaux critiques, une capture de CO2. TEAM2 a ainsi accompagné la jeune pousse dans un projet de R&D baptisé SEPAR8. Nous l’avons notamment aidée à identifier des partenaires pertinents – industriels, laboratoires de recherche, société d’ingénierie et institut public – et à construire son projet. Ce travail a abouti à ce que Mecaware s’installe dans les Hauts-de-France, à Béthune, au travers d’une unité pilote, fruit d’un investissement de 12 M€ soutenu par le Conseil Régional au travers du Fonds de Transition Juste. Cela va permettre de répondre à des enjeux stratégiques majeurs à l’échelle européenne, notamment de souveraineté.
Un autre exemple de projet marquant que j’ai en tête est celui qui nous a permis de faire se rencontrer deux secteurs qui n’étaient, au départ, que rarement en contact l’un avec l’autre… Lancé il y a un peu plus de trois ans, ce projet baptisé LLDé, pour « Lille-La Délivrance », regroupe en effet des acteurs des secteurs du ferroviaire et du bâtiment, tels que SNCF Réseau, EQIOM, ou encore Rabot-Dutilleul. L’économie circulaire est un axe stratégique que SNCF Réseau développe depuis plusieurs années, au travers de la collecte et la valorisation des produits des déposes (ballast, rails, traverses béton…). L’entreprise cherchait ainsi à trouver des solutions de valorisation pour ces matériaux de récupération, et avait identifié le secteur du bâtiment comme un débouché potentiel : certains éléments de récupération issus du ferroviaire – les traverses béton que j’évoquais, notamment – se révèlent en effet plus qualitatifs encore que des produits neufs du bâtiment. De ce constat est né ce projet visant à lever certains verrous à la réutilisation – d’ordre technique, tels que le développent d’équipements adéquats, mais pas seulement, avec par exemple le sujet de l’assurabilité de ces matériaux de réemploi – pour mettre en place une véritable plateforme de mutualisation de matériaux entre le secteur ferroviaire et celui du bâtiment.
Quelles sont désormais les perspectives, à moyen ou long terme, pour TEAM2 ?
Nous allons continuer à dérouler notre feuille de route établie jusqu’en 2026 dans le cadre de la phase V des pôles de compétitivité mise en place par l’État, en travaillant sur les trois grands axes que j’évoquais précédemment. Notre objectif est notamment de répondre aux besoins des entreprises françaises en matière d’économie circulaire, mais aussi de renforcer la dimension européenne de notre action, tout en accompagnant des projets d’ampleur de plus en plus importante. C’est un travail de fond, de longue haleine, mais qui nous permettra, je l’espère, de confirmer notre statut de pôle de référence en matière d’économie circulaire à l’échelle française et européenne.
[1] Devenu association en 2022.
[2] Programme Investissements d’avenir
[3] Déchet, rebut.
2e édition du Green Business Forum : TEAM2 partenaire de l’évènement
Le 27 mars prochain se tiendra à l’Arena Stade Couvert de Liévin, la 2e édition du Green Business Forum. Organisé par la Communauté d’Agglomération de Lens-Liévin, l’évènement réunira quelque 120 exposants, parmi lesquels TEAM2, partenaire du salon. Au programme : rencontres, conférences et tables rondes, mais aussi ateliers et visites guidées.