Trump et le Groenland : des terres rares convoitées, mais pas forcément exploitables

Si le contrôle de la zone arctique est bien un avantage stratégique, posséder le Groenland n’est pas indispensable à la sécurité américaine, tout simplement parce que l’île est déjà protégée par l’OTAN. Donc, à moins que les États-Unis aient décidé d’abandonner l’OTAN (ce qui n’est pas à exclure, car déjà évoqué par le passé), il n’y a pas de danger de ce côté-là.

En outre, Trump a été jusqu’à évoquer la crainte d’une invasion du Groenland par la Russie ou la Chine, devant des journalistes, en affirmant « nous ne voulons pas de la Russie ou de la Chine comme voisin ». Or, c’est déjà le cas, puisque moins de 100 km séparent seulement l’Alaska de la péninsule russe de Tchoukotka. Par ailleurs, toujours selon Trump, l’île serait « couverte de navires russes et chinois partout », une affirmation qui a été vivement démentie par nombre de spécialistes.

Il est donc clair que les arguments géostratégiques évoqués par Trump ne sont qu’un prétexte.

Les ressources minières du Groenland ont toujours été sa véritable motivation !

D’où vient cette obsession de Trump pour le Groenland ? Est-ce une simple lubie ? On pourrait le penser si on se remémore sa déclaration de 2019 à propos de l’île Arctique : « Regardez sa taille. C’est immense. Cela devrait faire partie des États-Unis ».

En réalité, cette idée d’acquérir le Groenland lui aurait été soufflée en 2018 par un proche : le milliardaire Ronald Lauder, héritier d’Estee Lauder. Et son intérêt pour le Groenland n’a rien à voir avec la défense du pays. En février 2025, il écrivait, dans le New York Post « Sous sa glace et sa roche se cache un véritable trésor d’éléments de terres rares, essentiels à l’IA, aux armements de pointe et aux technologies modernes ».

En effet, selon un rapport de 2023 de la Commission géologique du Danemark et du Groenland, le sous-sol du Groenland renfermerait 43 des 50 matières premières critiques jugées essentielles par le gouvernement américain. Le sous-sol de l’île serait ainsi la huitième plus grosse réserve de terres rares au monde, posséderait l’un des plus grands gisements d’uranium et des gisements de cuivre, de graphite ainsi que toutes sortes de métaux essentiels à la fabrication d’équipements de technologie modernes.

Le bras de fer engagé par Trump, et soutenu par la tech américaine, a donc un principal objectif : mettre la main sur le Groenland pour disposer de ses ressources et affaiblir les lois minières actuelles du pays.

Les terres rares du Groenland, des ressources difficiles à exploiter

La vision du monde simpliste de Trump se heurte malheureusement à des réalités physiques et techniques, car le trésor tant convoité s’avère tout particulièrement difficile à atteindre.

Il faut rappeler qu’actuellement, aucun projet concernant l’exploitation de terres rares et d’uranium au Groenland n’a été mis en production commerciale, car les obstacles sont nombreux, le premier étant l’absence d’infrastructures de transport.

En effet, il faut savoir que les routes et chemins de fer sont inexistants en dehors des côtes, alors que le pays est quatre fois plus grand que la France ! Par ailleurs, cette quasi-absence de réseau routier serait directement liée à l’autre obstacle majeur, c’est-à-dire le climat extrême du pays, puisque l’île est recouverte à 80 % de glace.

Le manque de main-d’œuvre est aussi un problème. Ainsi, comme l’explique Eldur Olafsson, directeur général de la compagnie minière Amaroq, qui développe un gisement de minéraux critiques et étudie la faisabilité d’exploiter les terres rares dans l’île, « avec le temps, à mesure que davantage de projets se développent au Groenland, il sera nécessaire d’importer davantage de main-d’œuvre ».

Mais le plus gros obstacle est probablement le manque de rentabilité des projets. Pour le géologue groenlandais Minik Rosing, l’emballement autour des richesses de l’île serait lié à un malentendu, car ces matières critiques existent aussi ailleurs et sont plus facilement exploitables. « Or, ce qui en fait une ressource, c’est la valeur qu’elles dégagent par rapport au coût de production, et on n’y est toujours pas ».

Trump est-il prêt à déstabiliser l’ordre mondial pour une chimère ? Il semble bien que oui, au vu de sa réponse aussi énigmatique qu’inquiétante, à la question posée mardi en conférence de presse : « Jusqu’où irez-vous pour acquérir le Groenland ? » Réponse : « Vous le découvrirez. »

Etudiants, êtes-vous prêts à relever le Défi T.I 2026 ?

📅 Rendez-vous le 12 mars 2026 pour une compétition en plusieurs étapes :

  • Phase 1 : un QCM en ligne de 30 minutes, en simultané avec toutes les équipes
  • Finale : les 3 meilleures équipes s’affrontent sur le même format
  • Remise des prix : en présentiel, dans une école participante, autour d’un moment convivial

Comment participer ?

  • Équipes de 3 à 4 étudiants
  • Un seul membre inscrit toute l’équipe via ce formulaire en ligne
  • Un lien de connexion à une visio pour la durée du QCM, le 12 mars vous sera communiqué pour la première manche

🥇 Les lots à gagner :

  • 1er prix : un week-end à Paris
  • 2ème prix : un escape game
  • 3ème prix: un sac de goodies Techniques de l’Ingénieur

Conditions de participation :

Disposer d’une adresse mail valide et faire partie d’une de ces écoles :

  • Université Le Havre Normandie
  • INSA Rouen
  • ENSICAEN

⏳ La date limite d’inscription : 11 mars 23h59
📄 Règlement disponible ici

Alors, motive tes camarades et inscris-toi au Défi T.I !🏆

L’UE ouvre ses bases biométriques aux autorités américaines

L’Union européenne a officiellement donné mandat à la Commission européenne pour négocier avec les États-Unis un cadre juridique permettant aux autorités américaines d’accéder à certaines données biométriques de ressortissants européens stockées dans des bases nationales. Cette décision, prise en décembre 2025 sans débat public approfondi, s’inscrit dans le cadre plus large du programme appelé Enhanced Border Security Partnership (EBSP), exigé par Washington pour maintenir le régime d’exemption de visa pour les citoyens de plusieurs pays européens.

Pourquoi ce partage de données ?

Depuis plusieurs années, les États-Unis ont conditionné la poursuite de leur Visa Waiver Program (VWP) à des mesures plus strictes de sécurité des frontières. Dans ce contexte, ils demandent à tous les pays participants d’établir des partenariats renforcés de sécurité des frontières, comprenant l’échange d’informations destinées à authentifier et vérifier l’identité des voyageurs.

Ces données incluent notamment des empreintes digitales, des images faciales et d’autres identifiants biométriques, ainsi que potentiellement des catégories supplémentaires de données sensibles selon certaines sources.

L’objectif affiché par les États-Unis est de renforcer la lutte contre le terrorisme, le crime organisé et les menaces à la sécurité publique, en permettant aux autorités américaines de vérifier rapidement l’identité des voyageurs à l’entrée sur leur territoire.

Plutôt que d’autoriser chaque État membre de l’UE à conclure des accords bilatéraux individuels avec Washington, les capitales européennes ont décidé de poursuivre un cadre commun négocié par l’UE. Cela permettrait d’harmoniser les conditions générales et les garanties encadrant les échanges de données avec les États-Unis.

Ce cadre ne crée toutefois pas de base de données centralisée européenne. Il définit les modalités selon lesquelles chaque État membre pourra conclure ensuite des accords bilatéraux spécifiques avec les autorités américaines, incluant quelles bases de données seront concernées et quel type de données pourra être partagé.

Assurer la conformité au droit européen

L’UE affirme que ces négociations devront strictement respecter le RGPD (Règlement général sur la protection des données), la Charte des droits fondamentaux de l’Union européenne et d’autres normes européennes de protection.

Le Contrôleur européen de la protection des données (EDPS) a souligné que le partage de données avec un pays tiers doit être accompagné de garanties efficaces afin d’éviter une ingérence disproportionnée dans les droits individuels. L’EDPS a explicitement recommandé de définir de façon très précise et restreinte les données concernées et d’exclure tout accès direct à des systèmes massifs de traitement d’informations.

Un point essentiel demeure la réciprocité. Selon plusieurs analyses, l’accord envisagé pourrait prévoir que l’UE obtienne également un accès aux bases de données américaines, mais cet aspect reste particulièrement incertain et dépendra des négociations bilatérales qui suivront l’accord-cadre.

Pour l’heure, la législation américaine ne prévoit pas de mécanisme comparable pour que les autorités européennes puissent interroger librement les systèmes américains. Cela soulève des interrogations quant à la pleine symétrie du futur accord.

Un accord qui divise experts et société civile

La décision de l’UE a reçu un consensus sur l’orientation politique, notamment parce que la majorité des États membres participent au Visa Waiver Program et souhaitent éviter la perte de ce privilège pour leurs citoyens.

Cependant, des organisations de la société civile et des experts en protection des données ont fortement critiqué cette approche. Elles alertent sur le risque d’une surveillance de masse déguisée en coopération sécuritaire, pointant que rendre l’accès aux données biométriques conditionnel à la liberté de voyager pourrait affaiblir les principes européens de protection de la vie privée.

L’une des principales préoccupations est que des catégories de données particulièrement sensibles, comme l’origine ethnique, les opinions politiques, ou encore les données génétiques, puissent être incluses dans les échanges si elles figurent dans certaines bases de données nationales.

Enjeux

Si l’accord est finalisé d’ici la fin de 2026, il pourrait redéfinir le paysage des voyages internationaux et de la sécurité des frontières. Cela pose la question fondamentale de l’équilibre entre sécurité collective et protection des libertés individuelles à une époque où la biométrie devient omniprésente dans les systèmes d’identification et de contrôle des migrations.

Pour les citoyens, l’un des défis sera d’obtenir une transparence totale sur l’usage de leurs données, les mécanismes de surveillance et la possibilité d’exercer des droits effectifs, comme l’accès, la correction ou la suppression de leurs données personnelles.

Accord UE-Mercosur suite à sa signature : enjeux économiques, industriels et réglementaires

L’accord UE-Mercosur, qui englobe plus de 700 millions de consommateurs au total, fait débat. Ses partisans, notamment l’Allemagne et l’Espagne, estiment qu’il pourrait raviver une économie européenne fragilisée par la concurrence chinoise et les barrières douanières américaines, en encourageant les exportations européennes dans les secteurs de l’automobile, des machines, des vins et des fromages. En parallèle, il ouvrirait davantage le marché européen aux produits agricoles sud-américains (bœuf, volaille, sucre, riz, etc.), via des quotas exonérés de taxes. En revanche, ses opposants, au premier rang desquels la France, redoutent un choc pour l’agriculture européenne qui serait confrontée à des produits moins coûteux et jugés insuffisamment conformes aux normes environnementales de l’UE, en raison de contrôles jugés trop laxistes.

Libéralisation commerciale UE-Mercosur : réductions tarifaires et favorisation des échanges

Selon un rapport du Parlement européen consacré au pilier commercial de l’accord, le Mercosur supprimerait les droits d’importation sur 91 % des importations en provenance de l’UE sur une période pouvant aller jusqu’à 10 ans pour la plupart des produits (une période de mise en œuvre plus longue s’appliquerait aux produits sensibles). De son côté, L’UE ferait de même sur 92 % des importations en provenance du Mercosur, sachant que les produits agricoles les plus sensibles seraient partiellement libéralisés au moyen de contingents tarifaires.

Concernant les exportations industrielles européennes, les réductions tarifaires seraient particulièrement significatives pour les voitures (droit actuel de 35 %), les pièces automobiles (14-18 %), les machines (14-20 %), les produits chimiques (jusqu’à 18 %), les vêtements et les textiles (jusqu’à 35 %), et les produits pharmaceutiques (jusqu’à 14 %). En particulier, le Mercosur libéraliserait totalement les importations de voitures à moteur à combustion en provenance de l’UE sur une période de 15 ans, selon un calendrier non linéaire. Pour les véhicules électriques, la période de transition serait de 18 ans, avec une réduction immédiate des droits de douane correspondants à 25 %.

Quant aux exportations agricoles européennes, les droits d’importation actuellement élevés seraient progressivement supprimés pour de nombreux produits alimentaires et boissons. Parmi les exemples figurent les vins (droit actuel de 27 %), le whisky et autres spiritueux (20-35 %), le chocolat (20 %), et les boissons non alcoolisées (20-35 %). Pour certains produits laitiers, des contingents à droit nul seraient introduits en dix phases annuelles égales, comme pour le fromage (28 %, 30 000 tonnes) et le lait en poudre (28 %, 10 000 tonnes).

Enfin, le projet d’évaluation de l’impact sur le développement durable du volet commercial de l’accord, publié par la Commission européenne, envisage une augmentation significative des exportations de l’UE vers les pays du Mercosur, compte tenu des barrières tarifaires et non tarifaires actuelles strictes. À titre indicatif, cette augmentation pourrait atteindre 60 % pour les produits chimiques et pharmaceutiques, 100 % pour les machines, 114 % pour le secteur automobile, et même 400 % pour les textiles et l’habillement, tout en permettant aux entreprises européennes d’économiser plus de quatre milliards d’euros de droits de douane.

Quotas des produits agroalimentaires sensibles exportés par les pays du Mercosur vers l’EU selon l’accord de libre-échange (source : EU-Mercosur Partnership Agreement : Trade pillar, briefing, Internationale Agreements in Progress, EPRS, March 2025)

Impacts sociaux et environnementaux de l’accord UE-Mercosur

Sur le plan social, des gains salariaux limités (entre 0,2 % et 0,8 %) seraient prévus tant dans les pays de l’UE que dans ceux du Mercosur, à l’exception du Brésil où les salaires resteraient stables. Par ailleurs, une baisse des prix est anticipée dans les pays du Mercosur, tandis que l’UE connaîtrait une légère hausse des prix, principalement liée à l’augmentation de la demande. En matière d’emplois, c’est le secteur agroalimentaire du Mercosur qui enregistrerait la création d’emplois la plus conséquente, contre des pertes d’emplois potentielles dans les secteurs des métaux et de l’automobile. Dans l’UE, les effets sur l’emploi resteraient globalement marginaux, avec des variations inférieures à 1 %.

Du point de vue environnemental, l’utilisation excessive des ressources en eau et leur contamination, ainsi que la déforestation (surtout au Brésil), constitueraient des situations modérément préoccupantes. Ces impacts seraient liés à l’expansion de l’agriculture et de l’élevage des animaux, l’utilisation accrue des pesticides et l’insuffisance des pratiques de gestion environnementale. En contrepartie, l’accord serait susceptible de renforcer les engagements des parties dans le cadre de l’Accord de Paris, de favoriser les échanges de biens et services environnementaux, et de stimuler la coopération internationale en matière de technologies vertes et de protection des ressources naturelles.

L’usage des pesticides : risques et régulations

La promotion de l’exportation des produits agricoles du Mercosur vers l’UE suscite des inquiétudes quant à la présence possible de pesticides jugés toxiques dans ces produits qui se retrouveraient au final dans les assiettes des consommateurs européens. En effet, certaines substances telles que l’atrazine, le propisochlore, la perméthrine ou encore le nonylphénol éthoxylé, bien qu’interdites dans l’UE depuis plus de dix ans, continuent d’être produites par de grands groupes agrochimiques européens et exportées massivement vers l’Afrique, l’Amérique latine et l’Europe de l’Est.

En Amérique du Sud, l’usage intensif des pesticides est déjà associé à une augmentation du nombre d’espèces menacées, à la dégradation des écosystèmes et à la contamination des cours d’eau. Dans ce contexte, l’importation de denrées traitées avec des produits phytosanitaires interdits dans l’UE, tels que l’imidaclopride, fait craindre une transposition de ces risques sanitaires et environnementaux sur le territoire européen.

Du coup, bien que la stratégie européenne « de la ferme à la fourchette » (F2F) vise à réduire de 50 %, d’ici 2030, l’utilisation globale et les risques associés aux pesticides chimiques, ainsi que le recours aux substances dangereuses, l’accord UE–Mercosur pourrait jouer en défaveur de cette stratégie. En effet, la réduction des droits de douane pourrait encourager une augmentation de la production, des échanges et de l’utilisation de pesticides. Dans cette perspective, la mise en œuvre de garanties strictes de conformité aux limites maximales de résidus (LMR) et au règlement REACH apparaît indispensable.

Enjeux techniques et règlementaires pour les acteurs de l’industrie européenne

La mise en œuvre de l’accord UE–Mercosur aura des implications opérationnelles majeures pour les industriels européens, tant en matière de chaînes d’approvisionnement que de conformité réglementaire et d’innovation.

Premièrement, la gestion des flux commerciaux représente un enjeu stratégique. Avec près de 56 milliards d’euros d’importations du Mercosur vers l’UE en 2024 (un nombre qui est censé augmenter considérablement dans les années à suivre), les entreprises devront renforcer leurs audits fournisseurs, assurer la traçabilité complète des intrants agricoles via des systèmes numériques comme TRACES, et segmenter les flux UE et hors UE pour limiter les risques règlementaires et protéger la réputation des marques.

Deuxièmement, la qualité et la conformité des produits importés imposent des contrôles analytiques multi-résidus renforcés. En 2023, plus de 133 000 échantillons alimentaires ont été analysés sous la direction de l’EFSA (European Food Safety Authority), mettant en jeu plus de 740 substances actives, avec 98 % de conformité. Les laboratoires européens devront adapter leurs capacités analytiques (LC-MS/MS, GC-MS) et former leurs équipes, ce qui entraînera des coûts supplémentaires pour les importateurs.

Troisièmement, la substitution de substances actives interdites et le développement de solutions de biocontrôle (comme celles à base de bactéries Bacillus Thuringiensis contre les insectes, ou de champignons Trichoderma spp. contre les maladies racinaires) constituent des leviers stratégiques soutenus par la stratégie européenne F2F, ouvrant des opportunités pour la chimie verte et la biotechnologie européenne. Les entreprises devront également investir dans la reformulation de produits, le développement de méthodes analytiques plus sensibles et l’intégration des exigences F2F dès la conception, anticipant une solidification progressive des standards et sécurisant leur compétitivité sur le marché.

Entre réserves et concessions, l’accord progresse prudemment…

Face aux réserves exprimées par plusieurs parties prenantes vis-à-vis de l’accord UE-Mercosur, la Commission européenne a proposé certaines concessions afin de convaincre les États membres qui étaient encore réticents avant le vote au Conseil.

Parmi celles-ci figurent des « clauses de sauvegarde » renforcées, permettant de suspendre les importations agricoles sud-américaines si leur volume augmente fortement d’une année à l’autre. Le seuil déclencheur, initialement fixé à 10 %, a été abaissé à 5 %, rendant le mécanisme applicable plus rapidement. La Commission a également envisagé d’interdire l’importation de produits contenant des résidus de substances chimiques prohibées dans l’UE.

Au-delà de l’accord commercial, d’autres mesures ont été annoncées pour soutenir les exploitations agricoles européennes : un assouplissement du mécanisme de taxe carbone sur les engrais azotés importés, dont les coûts ont fortement augmenté depuis le 1er janvier 2026, et le versement anticipé de 45 milliards d’euros de fonds de la politique agricole commune (PAC) pour soulager la trésorerie des exploitations agricoles.

Ces propositions n’ont cependant pas suffi à convaincre la France, la Pologne, l’Autriche, la Hongrie et l’Irlande qui ont finalement voté contre la signature, outre la Belgique qui s’est abstenue. En revanche, l’Italie a soutenu l’accord, permettant d’atteindre la majorité qualifiée et de procéder à la signature du 17 janvier.

Les négociations se poursuivront par la suite afin d’obtenir le consentement du Parlement européen avant que l’accord ne soit formellement conclu par le Conseil de l’UE, puis ratifié par l’ensemble des États membres – étapes primordiales permettant son entrée complète en vigueur.

Au-delà des enjeux économiques, l’accord UE-Mercosur met en lumière l’importance des dimensions scientifiques et réglementaires, qu’il s’agisse de la protection des produits locaux, la maîtrise des substances chimiques, ou l’intégration des principes de développement durable. À moyen et long termes, la capacité des acteurs européens à conjuguer innovation, conformité réglementaire et performance environnementale constituera un facteur déterminant pour tirer pleinement parti de cet accord de libre-échange.

Par Simon SEMAAN

Électricité nucléaire : bilan positif pour la France en 2025

Les Français vont pouvoir passer un hiver au chaud. Le fournisseur d’énergie EDF a indiqué dans un communiqué que la production d’électricité nucléaire était en hausse en 2025. À l’occasion de la publication des résultats relatifs à la production du mois de décembre (en augmentation de 2,9 TWh par rapport à décembre 2024), le groupe a fait le bilan de l’année qui vient de s’écouler. Il indique ainsi qu’en 2025, la production cumulée s’élève à 373 TWh, soit +11,3 TWh par rapport à 2024.

Une hausse qui était attendue par EDF. En octobre 2025, le groupe avait décidé de réviser l’estimation de sa production nucléaire pour l’année. Comprise initialement entre 350 et 370 térawattheures (Twh), la fourchette avait alors été estimée entre 365 et 375 Twh. En 2025, la production d’électricité du parc nucléaire français se situe donc dans la fourchette haute des prévisions d’EDF.

Optimisation des arrêts de tranche

Le groupe explique cette hausse de la production de +3,1 % par rapport à 2024 « par la bonne disponibilité des réacteurs en fonctionnement, des arrêts de tranche bien maîtrisés et toujours une forte modulation. »

Les arrêts pour maintenance des réacteurs nucléaires en particulier sont effectués sur des durées écourtées et sont gérés de façon mutualisée sur plusieurs centrales. C’est la stratégie mise en place en 2019 dans le cadre du plan d’action START 2025[1] pour améliorer l’efficacité opérationnelle du programme de maintenance. Résultat : à la fin septembre 2025, 18 arrêts sur 33 ont été plus courts qu’anticipés en début d’année.

En outre, EDF s’est efforcée de remédier au phénomène de corrosion sous contraintes (CSC) qui avait fait chuter à un niveau historiquement bas la production en 2022.  La France avait alors été contrainte, pour la première fois depuis 42 ans, d’importer son électricité. Une époque révolue. Selon RTE, le gestionnaire du réseau de transport d’électricité, la France a enregistré en 2025 le solde exportateur net le plus élevé de son histoire (92 TWh). Grâce à un solde très élevé de 89 TWh, l’année 2024 avait permis de battre le record de 77 TWh enregistré en 2002. En 2025, la France bat un nouveau record d’exportation de son électricité nucléaire pour la deuxième année consécutive.

Parc nucléaire français : Un horizon prometteur

La France peut compter sur un vaste réseau de centrales nucléaires : entre le mois d’octobre 2025 et le mois d’avril 2026, 49 réacteurs seront en pleine capacité de production (contre 46 l’année dernière).

Notons que le fameux EPR de Flamanville a franchi une étape majeure le 14 décembre 2025 en dépassant le palier des 80 %.  Le réacteur a, ce jour-là, atteint 100 % de puissance nucléaire et a produit 1 669 MW de puissance électrique brute. Cette pleine puissance est l’occasion pour les équipes techniques de tester le fonctionnement du matériel et de réaliser des relevés.

Chaque année, l’électricité nucléaire produite en France représente plus de 85 % de l’électricité produite par EDF. Cette part correspond à plus de 65 % du mix énergétique en France.

La relance du nucléaire s’observe aussi par l’augmentation des effectifs au sein de la filière qui représentent désormais près de 250 000 emplois en France. Cette dynamique devrait perdurer puisque la demande en main-d’œuvre qualifiée est importante. En effet, environ 100 000 recrutements sont planifiés sur les dix prochaines années.


[1] START : Soyons Tous Acteurs de la Réussite des arrêts de Tranche

Biogaz : passage attendu de la cogénération à l’injection

La France dispose actuellement de plus de 1 100 installations de méthanisation dont le biogaz est valorisé en cogénération (production simultanée de chaleur et d’électricité). Ce type de solution a été développé au début des années 2000 et a pris de l’ampleur avec la mise en place d’un soutien tarifaire plus fort de l’État à partir de 2006, puis 2011 et 2016.

Ce soutien prend la forme d’un contrat d’obligation d’achat de l’électricité (appelé BGM6, BG11 ou BG16 selon les années) produite par les cogénérations, pour une durée de 15 à 20 ans. Ces contrats ont peu à peu perdu de l’intérêt avec la mise en place d’un autre soutien public à l’injection directe de biométhane (c’est-à-dire du biogaz épuré) dans le réseau de gaz naturel. Formellement supprimé par un arrêté du 8 septembre 2025, le soutien à la cogénération biogaz perdure pour les contrats en cours, mais n’est plus accessible aux nouvelles installations de méthanisation.

Se pose donc la question de la conversion des installations en cogénération vers l’injection. Un phénomène qui commence tout juste et qui devrait prendre de l’ampleur dans les années à venir, sous réserve de respecter certaines conditions techniques, économiques et réglementaires.

Un potentiel de 2 à 4 TWh de biométhane

La France privilégie désormais l’injection de biométhane, avec déjà 15 TWh livrés dans le réseau en 2025. La future programmation pluriannuelle de l’énergie (PPE) devrait fixer un objectif de 44 TWh en 2030 pour l’injection. « Actuellement, toutes les cogénérations consomment environ 7 TWh de biogaz par an. Les plus petites, en dessous d’une puissance de 250 kW électriques, n’auront pas la taille suffisante pour rentabiliser une valorisation par injection. La filière estime donc que 2 à 4 TWh/an de biogaz de cogénération seront en mesure de passer à l’injection, ce qui n’est pas négligeable. La question de celles qui ne pourront pas basculer en injection demeure un enjeu pour la filière » expose Luc Budin, délégué général du Club Biogaz de l’ATEE, fédérant plus de 300 professionnels.

Le potentiel de conversion identifié repose sur environ 300 cogénérations de plus de 250 kWé qui sont situées à moins de 10 km d’un réseau de distribution de gaz. La proximité d’un réseau est essentielle pour concrétiser un projet d’injection, mais elle ne suffit pas. Les gestionnaires de réseau, dont le principal, GRDF, doivent aussi vérifier que chaque zone du réseau concernée par une injection aura la capacité d’accueillir les nouvelles quantités de biométhane. Le délai de raccordement est de 12 à 18 mois en moyenne, le temps que l’étude du projet, les éventuels travaux sur le réseau et la livraison d’un poste d’injection soient faits. Pour sécuriser les investissements, un dépôt de garantie (de 10 à 50 000 euros) par le porteur de projet est aussi prévu, dans le cas où la conversion nécessite un renforcement du réseau.

L’aspect financier est important. L’exploitant de la méthanisation doit prévoir les investissements nécessaires à l’arrêt et au démantèlement de la cogénération, à la suppression du raccordement électrique, et à l’acquisition de systèmes d’épuration du biogaz. Comme dans les projets neufs, le financement bancaire exige un apport de 15 à 20 % en fonds propres, et dépend du taux d’endettement du porteur de projet et de la rentabilité prévisionnelle du projet.

Une nouvelle génération de contrats… à négocier

L’équilibre économique de l’installation va donc dépendre de la vente du biométhane. Deux enjeux sont à considérer. Le premier est propre aux installations de cogénération bénéficiant d’une obligation d’achat d’électricité : pour les plus récentes, la résiliation anticipée de leur contrat les expose à une pénalité. « Les associations professionnelles ont travaillé avec la Direction générale de l’énergie et du climat pour prévoir des exemptions de pénalité. Elles sont désormais actées dans l’arrêté du 8 septembre 2025 pour les BG16, du moment que la conversion d’une installation prévoit une injection de biométhane, une valorisation du biogaz pour la production de chaleur ou la valorisation de biométhane en tant que carburant alternatif » précise Luc Budin.

Les sites de cogénération qui passeront à l’injection ne pourront pas bénéficier d’un tarif d’obligation d’achat du biométhane. Les contrats de gré à gré – entre un producteur et un acheteur – sont appelés BPA (Biogas Purchase Agreement) ou CPB (Certificats de Production de Biogaz). L’acheteur peut être un consommateur ou un fournisseur, et la durée du contrat varie entre 3 et 15 ans. En plus de rémunérer la molécule de gaz, les BPA valorisent aussi financièrement sa qualité « renouvelable » grâce à une garantie d’origine (GO) valable en Europe ou à un certificat de production de biogaz (CPB) valable en France. Pour être reconnus, CPB et GO nécessitent une certification prévue par la directive européenne RED III sur les énergies renouvelables. Les fournisseurs de gaz en France ont l’obligation légale à partir de 2026 d’acheter des CPB pour « verdir » leurs offres.

Les BPA étant encore peu répandus, le deuxième enjeu du modèle économique d’un projet porte sur la négociation de ces contrats ! Un appui juridique est recommandé, car il faut prévoir de nombreuses clauses (modalités du prix de la molécule, périmètre de vente, engagement de production, garanties de paiement, etc.). Dans le cas d’une conversion vers un contrat avec CPB, si une installation a plus de 15 ans et moins de 30 ans, l’État demande l’application d’un coefficient de modulation de 0,95 : au lieu d’un CPB par MWh de biométhane, le producteur n’en obtiendra que 0,95*.

Globalement, un projet de conversion prend trois ans. Les acteurs de la filière s’organisent pour faciliter et sécuriser ce passage à l’injection, par exemple avec un guide publié par GRDF, S3d Ingénierie, Lexion Avocats, l’AAMF et le Club Biogaz de l’ATEE. L’Ademe doit aussi bientôt publier des recommandations.

En 2023, la filière biogaz/biométhane a été la seule à atteindre les objectifs d’énergies renouvelables de la PPE. « La conversion des cogénérations vers l’injection participera à l’atteinte des nouveaux objectifs et consolidera une filière biométhane qui s’est fortement structurée et professionnalisée, avec de nombreuses entreprises françaises » conclut Luc Budin.


* Ce coefficient de modulation était initialement de 0,8, mais a été modifié par l’arrêté du 28 décembre 2025.

Industrial Acceleration Act, Parcoursup, missions Artemis… les infos à venir

Industrial Accelerator Act, rendez-vous le 28 janvier

L’Industrial Acceleration Act est l’un des textes structurants du Clean Industrial Deal, porté par la Commission européenne pour accélérer la réindustrialisation bas carbone du continent. L’objectif est clair : réduire les délais d’autorisation, sécuriser les investissements et permettre un passage plus rapide de la recherche à l’usine, notamment dans l’hydrogène, les batteries ou les matériaux critiques.

Après une consultation publique menée jusqu’au 8 juillet 2025, la publication officielle du texte est désormais attendue le 28 janvier 2026. Elle marquera l’entrée du projet dans sa phase législative.

S’ouvriront ensuite, au premier semestre 2026, les négociations entre le Parlement européen et le Conseil, avec des arbitrages sensibles sur les aides d’État, la préférence européenne et les filières prioritaires. En parallèle, la Commission souhaite avancer sur des outils financiers dédiés, comme une Industrial Decarbonisation Bank, attendue au deuxième trimestre 2026.

Enfin, d’ici fin 2026, des révisions des règles de marchés publics pourraient intégrer des critères de contenu européen et d’empreinte carbone. L’enjeu est majeur : sans décisions rapides et coordonnées, l’Industrial Acceleration Act risque de rester une ambition politique, alors même que le temps industriel, lui, ne ralentit pas.

Mission Artemis II : Rendez-vous dès le mois de février ?

La mission Artemis II constitue une étape clé du programme lunaire de la NASA : elle doit être le premier vol habité autour de la Lune depuis 1972, après plus de cinquante ans d’interruption. Prévue pour un lancement en 2025, elle enverra quatre astronautes à bord du vaisseau Orion afin de tester, en conditions réelles, les systèmes de navigation, de communication et de survie en espace lointain.

L’enjeu immédiat est majeur : valider la capacité des États-Unis à transporter des équipages au-delà de l’orbite terrestre, après le succès du vol non habité Artemis I en 2022. Artemis II doit notamment éprouver les manœuvres critiques autour de la Lune et le retour à grande vitesse vers la Terre, un passage déterminant pour la sécurité des missions suivantes.

À plus long terme, cette mission conditionne directement Artemis III, qui vise un retour d’astronautes sur la surface lunaire, désormais envisagé au plus tôt vers 2026-2027. L’objectif est d’installer une présence durable au pôle Sud de la Lune, de tester des technologies clés et de préparer les futures missions habitées vers Mars. Artemis II est donc à la fois un test technique, un signal politique fort et une étape indispensable dans la stratégie spatiale à long terme des États-Unis.

Ouverture de Parcoursup : c’est maintenant !

Les étudiants peuvent, à partir du 19 janvier, débuter la formulation de leurs vœux via la plateforme Parcoursup. Ils auront jusqu’au 12 mars pour formuler leurs choix. Les formations industrielles mettent de plus en plus l’accent sur

  • le numérique, l’automatisation et l’intelligence artificielle ;
  • les enjeux énergétiques et climatiques ;
  • la recherche appliquée et l’innovation ;
  • le travail sur des systèmes complexes mêlant sciences, technique et organisation.

S’orienter vers l’industrie, c’est aussi accepter le temps long des projets : entre la recherche en laboratoire, le développement industriel et la mise en production, les résultats se construisent progressivement. En contrepartie, ces métiers permettent d’agir concrètement sur des sujets clés : énergie, transports, santé, matériaux ou souveraineté technologique.

Pour s’informer de manière fiable avant de faire ses choix, voici plusieurs liens utiles pour nos futurs ingénieurs.

Entrée en vigueur du traité mondial sur la haute mer : Et après ?

L’entrée en vigueur du traité mondial sur la haute mer le 17 janvier marque un tournant historique pour la protection des océans, en encadrant pour la première fois les activités humaines dans les zones situées au-delà des juridictions nationales. Salué par Emmanuel Macron comme une « victoire immense », ce traité, négocié sous l’égide de l’Organisation des Nations unies, vise à enrayer l’effondrement de la biodiversité marine sur près de 50 % de la surface de la planète.

L’enjeu immédiat est la mise en œuvre concrète : le texte permet désormais de créer des aires marines protégées en haute mer, de mieux encadrer la pêche industrielle, le transport maritime et les projets d’exploitation des ressources génétiques marines. Il impose aussi des études d’impact environnemental pour les activités susceptibles de dégrader les écosystèmes océaniques.

Les prochaines étapes seront décisives. Dans les mois à venir, les États devront définir la gouvernance du traité, les mécanismes de contrôle et les modalités de financement, lors des premières conférences des parties. À moyen terme, l’enjeu sera de traduire ce cadre juridique en actions effectives, afin de tenir l’objectif international de protéger 30 % des océans d’ici 2030, et de faire de ce traité un véritable outil opérationnel, et non un simple symbole diplomatique.

Avion à Hydrogène : retour vers le futur

L’avion à hydrogène, longtemps présenté comme une rupture technologique attendue vers 2035, apparaît aujourd’hui comme une perspective très lointaine. Dans un entretien relayé par BFM Business, le patron de Safran estime qu’un tel avion ne verra probablement pas le jour avant 2100, évoquant des obstacles techniques majeurs et des coûts jugés « délirants ».

Le principal frein reste le stockage de l’hydrogène liquide, qui impose des réservoirs volumineux et cryogéniques, incompatibles avec les avions commerciaux actuels, comme l’expliquent aussi des analyses reprises par Public Sénat.

À cela s’ajoute l’absence d’un écosystème industriel complet, de la production d’hydrogène bas carbone aux infrastructures aéroportuaires, ce qui renchérit fortement les coûts.

Ces déclarations contrastent avec les ambitions affichées par Airbus, qui continue de travailler sur des concepts d’avions à hydrogène pour les décennies à venir.

Dans l’immédiat, l’industrie aéronautique privilégie donc des solutions jugées plus réalistes à court et moyen terme, comme les carburants d’aviation durables et l’amélioration de l’efficacité des moteurs, reléguant l’avion à hydrogène au rang de mirage technologique… pour l’instant.

Webinar : Modéliser les batteries avec COMSOL Multiphysics®

Ce webinar en accès libre organisé le jeudi 29 janvier de 11h à 12h portera sur les possibilités de modélisation et de simulation du module Battery Design de COMSOL Multiphysics®. Cet outil est dédié au développement de systèmes de batteries performants, durables et sûrs.

VOIR LE REPLAY

Le module Battery Design apporte des fonctionnalités spécialisées pour la construction de modèles détaillés de cellules et de packs de batteries, impliquant des phénomènes physiques tels que l’électrochimie et le transport des espèces dans la cellule, le transfert de chaleur à l’échelle de la cellule et du pack, l’écoulement des fluides dans le système de refroidissement ou encore la mécanique des différents composants. Les cycles de charge–décharge, le vieillissement et d’autres processus associés au fonctionnement des systèmes de batteries peuvent également être étudiés.

Dans ce webinar, nous présenterons les capacités de modélisation du module Battery Design et montrerons comment la modélisation et la simulation multiphysique permettent de prédire avec précision le comportement des cellules et des packs de batteries, ce qui contribue à améliorer les performances, réduire le vieillissement ou encore atténuer les risques d’emballement thermique.

VOIR LE REPLAY dès maintenant pour en savoir plus.

L’industrie française en 2026, entre défis et opportunités

Le contexte international menace le multilatéralisme

Dans un article publié le 14 janvier sur son site, l’ONU alarme sur les risques causés par le contexte international actuel et ses conséquences désastreuses sur le multilatéralisme, un système qui « se désagrège pièce par pièce », selon les mots de la présidente de l’Assemblée générale, Annalena Baerbock.

Il est vrai que l’année a commencé très fort, avec la capture par Washington du président vénézuélien en exercice, et le retrait annoncé des États-Unis d’une trentaine d’entités onusiennes et de 66 organisations internationales. En outre, devant l’obstination de Donald Trump à vouloir s’emparer du Groenland, la montée des impérialismes chinois et russe, il faut reconnaître que le désordre international actuel a de quoi inquiéter.

S’il est malheureusement impossible de prévoir l’avenir, il est malheureusement certain que le retour d’une compétition débridée et la lente fragmentation du monde auront des conséquences à long terme sur le commerce mondial, l’économie et l’industrie. Dans ce contexte incertain, il est donc vital de construire des filières de fournisseurs à la fois résilientes et compétitives et de poursuivre les efforts de réindustrialisation.

Industrie de l’armement : fort soutien de l’État, mais toujours pas de budget !

Cette montée des tensions internationales est néanmoins favorable à l’industrie de la défense. Selon l’Insee, l’industrie française de défense, qui a vu son carnet de commandes fortement augmenter depuis l’invasion de l’Ukraine, se porte désormais mieux que le secteur de l’industrie manufacturière.

Industrie manufacturière et industries de défense
Climat des affaires dans l’industrie manufacturière et dans les industries de défense (Sources : Insee, enquête mensuelle de conjoncture dans l’industrie ; S2E, enquête sur les Entreprises de défense de l’industrie et des services 2023.)

Néanmoins, tout n’est pas rose pour autant. Il y a d’une part la montée en cadence de la production, qui reste un défi pour l’industrie de la défense française. Celle-ci doit, en effet, passer d’une fabrication en flux tendu et en petites séries à un modèle d’« économie de guerre », avec une production massive, ce qu’elle affirme ne pas pouvoir faire sans commandes fermes.

Dans ses vœux aux armées, Emmanuel Macron a d’ailleurs rappelé à l’ordre les industriels de la défense, les enjoignant à prendre plus de risques sur l’appareil de production, à augmenter encore les cadences pour être prêt en cas de conflit et à faire de l’indépendance une obsession.

Mais l’État aussi devra faire sa part, la question du budget des armées restant toujours en suspens, pour des raisons purement politiques. Dans l’Usine Nouvelle, Olivier Andriès, président du Gifas, s’inquiète ainsi de l’absence de budget pour 2026, ce qui pourrait compromettre la bonne exécution de la loi de programmation militaire. Sans budget, que deviendra la hausse attendue de 6 milliards d’euros pour le budget des armées ?

Gigafactories de batteries : ouvertures et montées en puissance en 2026

Ces dernières années, plusieurs projets de gigafactories ont émergé et nombre d’entre eux vont monter en cadence ou ouvrir en 2026, notamment dans la vallée de la batterie (Hauts-de-France). C’est le cas, par exemple, de la gigafactory Verkor de Dunkerque, inaugurée le 11 décembre 2025 et dont les 16 GWh de capacité initiale sont réservés aux véhicules électriques du Groupe Renault.

De son côté, la gigafactory AESC de Lambres-lez-Douai devrait bientôt tourner à plein régime, alors que l’usine de Tiamat prévoit de sortir ses premières batteries en 2026. Pour ce qui est du projet du Taïwanais ProLogium, en revanche, il faudra attendre 2028 pour la mise en production, puisque la première pierre de l’usine devrait être posée en février prochain.

Les réglementations environnementales se renforcent en 2026

La taxe carbone aux frontières (Règlement (UE) 2023/956 du 10 mai 2023) est entrée en vigueur au 1er janvier 2026. Elle concerne les importateurs d’acier, d’aluminium, de ciment, d’engrais, d’électricité et d’hydrogène, qui devront payer pour les émissions liées à ces produits.

Depuis le 1er janvier, la loi « polluants éternels » impose également la détection de la présence des 20 principaux PFAS dans l’eau potable. En outre, elle signe également l’interdiction des PFAS dans les cosmétiques, les farts (revêtement sous les skis), ainsi que les vêtements, chaussures et leurs imperméabilisants, à l’exception des équipements de protection utilisés par certaines professions, comme les militaires ou encore les pompiers.

Fiscalité : ce qui attend les industriels en 2026

Enfin, concernant la fiscalité des entreprises, la suppression de la CVAE, initialement prévue pour 2024, puis repoussée à 2027 (loi de finances 2024) a encore été retardée, cette fois à 2030, pour des raisons budgétaires. En 2026, les entreprises restent donc redevables de la CVAE.

D’autres mesures fiscales affectent aussi l’industrie en 2026 : si le suramortissement de 40 % en faveur des équipements de décarbonation (loi Industrie verte 2023) reste actif en 2026, d’autres mesures exceptionnelles vont pénaliser les bénéfices des entreprises, notamment les plus grosses.

Citons, par exemple, la contribution exceptionnelle sur l’impôt sur les sociétés, une mesure qui touchera près de 400 entreprises dont le chiffre d’affaires consolidé est supérieur à 1 milliard d’euros et qui pèsera malheureusement sur les trésoreries tout au long de l’année.

Revue du Magazine d’Actualité #61 du 12 au 16 janvier

Entre investissements massifs, innovations de rupture et alliances structurantes, les acteurs publics et privés accélèrent la transition vers des solutions bas carbone, tout en préparant les infrastructures de demain.


⚡ ÉNERGIE & ENVIRONNEMENT

Autonomie énergétique des datacenters : l’électricité décarbonée, pilier d’un avenir numérique plus responsable

Les datacenters, grands consommateurs d’énergie, s’orientent vers des solutions décarbonées pour réduire leur empreinte carbone. L’intégration des énergies renouvelables et des systèmes de stockage devient essentielle pour garantir une autonomie énergétique et soutenir la croissance numérique responsable.
📱 Découvrir comment les datacenters se réinventent avec l’électricité décarbonée

ArcelorMittal signe avec EDF pour un apport en l’électricité nucléaire sur 18 ans

Le géant de la sidérurgie sécurise son approvisionnement en électricité bas carbone grâce à un contrat de long terme avec EDF. Cette alliance illustre la volonté des industriels de stabiliser leurs coûts énergétiques tout en réduisant leurs émissions.
🤝 Un partenariat stratégique pour une sidérurgie bas carbone

Les États-Unis choisissent Orano : 900 millions de dollars alloués pour une usine d’uranium enrichi

Washington investit massivement dans une usine d’uranium enrichi opérée par Orano, renforçant la souveraineté énergétique américaine et la sécurité d’approvisionnement en combustible nucléaire.
☢️ Un investissement clé pour l’indépendance énergétique américaine


🔋 TECHNOLOGIES & INDUSTRIE

Batteries solides : une alliance européenne stratégique pour l’avenir de l’électrification

Une coalition d’acteurs européens s’organise pour développer des batteries solides, considérées comme la prochaine révolution pour les véhicules électriques. Objectif : améliorer la densité énergétique et la sécurité tout en réduisant les coûts.
🔌 L’Europe mise sur les batteries solides pour accélérer l’électromobilité


🌍 HYDROGÈNE & INNOVATION

Hydrogène décarboné : l’État amorce la structuration d’un marché à long terme

Le gouvernement français lance les bases d’un marché pérenne pour l’hydrogène décarboné, avec des mécanismes de soutien et des contrats à long terme pour sécuriser les investissements.
📈 Comment l’État prépare le marché de l’hydrogène vert

Vers un hydrogène solaire plus propre et moins cher : l’atout des polymères conjugués face au platine

Des chercheurs explorent des polymères conjugués pour remplacer le platine dans la production d’hydrogène solaire, réduisant ainsi les coûts et l’impact environnemental. Une avancée prometteuse pour la compétitivité des énergies renouvelables.
☀️ Découvrez la percée des polymères pour un hydrogène solaire abordable


👓 Bon week-end et bonne lecture

Le Prix Marius Lavet distingue une pionnière de la spintronique et du calcul neuromorphique

Le 14 janvier 2026, à la Maison des Arts & Métiers à Paris, le Prix « Marius Lavet, Ingénieur et inventeur » a été décerné à Julie Grollier, à l’issue d’une cérémonie placée sous le signe de l’engagement sociétal et de l’innovation utile. Techniques de l’Ingénieur a participé à l’événement, représenté par Sylvie Darly et Angela Martin, respectivement Directrice éditoriale et éditrice, qui ont répondu positivement à l’invitation de l’organisation du prix.

Doté d’un montant de 15 000 euros, ce prix distingue chaque année un parcours d’ingénieur ou de chercheur incarnant l’inventivité, la responsabilité et la capacité à apporter des solutions concrètes aux grands défis contemporains.

Un prix ancré dans l’histoire de l’ingénierie française

Créé grâce au legs Chéreau-Lavet et abrité par la Fondation de France, le Prix Marius Lavet rend hommage à cet ingénieur-inventeur français majeur du XXᵉ siècle, pionnier de la mécatronique et inventeur du moteur pas à pas qui porte son nom. Sans héritiers directs, Marius Lavet a souhaité transmettre son patrimoine pour faire vivre une conception exigeante de l’ingénierie, fondée sur la transmission du savoir, l’innovation et l’utilité sociale.

La 27e édition du prix s’inscrit pleinement dans cette filiation. Elle affirme que, face aux enjeux environnementaux, climatiques, industriels et sociaux, l’ingénieur ne se limite pas à un rôle technique, mais devient un acteur central du progrès et de la transformation de la société.

À la frontière entre physique, intelligence artificielle et transmission

Julie Grollier – ©Association Marius Lavet

Physicienne et directrice de recherche au CNRS, rattachée à Thales, Julie Grollier est reconnue internationalement pour ses travaux en spintronique et en informatique neuromorphique. Cette discipline vise à concevoir des composants électroniques inspirés du fonctionnement du cerveau humain, capables de traiter l’information de manière plus efficace et plus sobre sur le plan énergétique.

En 2017, ses travaux ont franchi une étape décisive lorsqu’elle a démontré qu’un nano-neurone artificiel était capable de reconnaître des chiffres prononcés. Cette avancée a ouvert des perspectives nouvelles pour le développement de puces neuromorphiques, susceptibles de répondre aux limites énergétiques des architectures informatiques actuelles. En 2018, ces recherches ont été récompensées par la médaille d’argent du CNRS, confirmant la portée scientifique et technologique de ses travaux.

Au-delà de ses recherches, Julie Grollier s’illustre également par son engagement dans la diffusion des savoirs. Elle est l’autrice d’un livre jeunesse consacré à la découverte de l’intelligence artificielle, ainsi que d’un recueil de poésie, témoignant d’un parcours singulier où sciences, pédagogie et création se croisent. Cette dimension a fortement résonné avec l’esprit du prix, qui valorise la capacité des ingénieurs à dialoguer avec la société et à transmettre.

Une sélection reflétant la diversité de l’innovation

La lauréate était entourée de finalistes aux profils variés, issus de la recherche académique, de l’entrepreneuriat et de l’industrie. Parmi eux figuraient notamment Luc Julia, Pascale Senellart ou encore Éric Carreel, illustrant la diversité des formes que peut prendre l’innovation aujourd’hui. Le jury, présidé par Jean-Claude Lehmann, réunissait des représentants de l’industrie, de l’innovation et de la transmission scientifique.

La cérémonie a également donné une place importante aux lycéens, à travers la restitution de six ateliers consacrés à l’ingénierie comme métier de sens, abordant par exemple l’impact sociétal, l’intelligence artificielle, le climat ou encore l’entrepreneuriat. Cette dimension pédagogique prolonge l’ambition du prix, laquelle est de susciter des vocations, en rappelant que l’ingénierie est un levier essentiel pour construire l’avenir.

Électricité européenne : des records solaires face à une transition encore fragile

Jamais le soleil n’a autant pesé dans la balance électrique européenne, mais derrière ce record historique se cache une transition encore fragile. Selon les données publiées par Eurelectric, l’association de l’industrie électrique européenne, l’année 2025 a marqué un tournant pour l’énergie solaire dans l’Union européenne. Avec plus de 340 TWh produits, le solaire a couvert 12,5 % du mix électrique de l’UE, un niveau jamais atteint jusqu’ici. En un an, la production a progressé de plus de 60 TWh, soit l’équivalent de la consommation annuelle totale d’électricité du Portugal, confirmant le rôle central de cette filière dans la transition énergétique.

Cette envolée a permis de compenser les contre-performances d’autres énergies renouvelables. Entre 2024 et 2025, la production hydroélectrique a reculé de 13 %, tandis que l’éolien a baissé de 4 %, pénalisés par des conditions climatiques moins favorables. Résultat : la part des énergies renouvelables dans le mix électrique européen stagne à environ 48 %, malgré la dynamique du solaire. Le nucléaire, pour sa part, est resté stable autour de 24 %, continuant d’assurer une production de base fiable. Les énergies fossiles ont, elles, été largement contenues, puisque leur production n’a progressé que de moins de 2 % et représente désormais 28 % du mix électrique.

Sur le front de la décarbonation, le secteur électrique européen confirme les progrès réalisés sur le long terme. En 2025, ses émissions de CO₂ représentent environ 45 % de leur niveau de 1990, témoignant de trois décennies d’efforts continus. Malgré tout, la dynamique s’essouffle puisque les émissions totales sont restées quasi stables à 475 Mt, contre 472 Mt en 2024, alors que les baisses observées en 2022 et 2023 avaient été bien plus marquées. Un signal préoccupant alors que l’Union européenne s’est fixé un objectif de 50 % d’énergies renouvelables.

Entre tensions hivernales et détente estivale des prix

Les marchés de l’électricité ont, eux aussi, évolué dans un contexte contrasté. En 2025, les prix de gros pour le lendemain se sont établis en moyenne à 88 €/MWh, un niveau inférieur à ceux observés de 2023, mais légèrement supérieurs à ceux de 2024. Le premier semestre a été marqué par des prix élevés, conséquence d’une production éolienne et hydraulique insuffisante, avant un reflux au second semestre grâce à une forte production solaire et à la baisse des prix du gaz.

Malgré cette détente relative, la volatilité reste une caractéristique structurelle du marché. Des prix négatifs ont été observés pendant 3,3 % des heures, tandis que des pics supérieurs à 150 €/MWh ont concerné 9,3 % des heures. Ces niveaux, bien inférieurs à ceux de la crise de 2022 mais supérieurs à ceux de 2024, illustrent le besoin croissant de flexibilité du système électrique.

Un autre signal fort ressort des données d’Eurelectric, celui de la décorrélation progressive entre les prix de l’électricité et ceux des combustibles fossiles. En 2019, le prix de l’électricité dépassait le coût de production à partir de gaz durant 74 % des heures. En 2025, ce ratio est tombé à 32 %, démontrant la capacité des énergies renouvelables à atténuer l’influence du gaz sur les marchés. Pour amplifier cet effet, l’association souligne toutefois la nécessité d’accélérer les investissements dans le stockage et la flexibilité des réseaux.

Reste un point noir persistant : la demande d’électricité. En 2025, la consommation globale est restée stable par rapport à 2024, mais demeure inférieure de 7 % aux niveaux de 2021. Cette faiblesse reflète une reprise industrielle inégale selon les pays européens et pourrait freiner les investissements indispensables à la transition énergétique. L’Europe avance résolument vers une électricité plus verte, mais sans une relance de la demande et un renforcement massif de la flexibilité du système, la transition risque de manquer de souffle au moment même où elle devrait changer d’échelle.

Batteries solides : une alliance européenne stratégique pour l’avenir de l’électrification

L’industrie automobile et l’ensemble des secteurs de l’électronique et du stockage d’énergie s’intéressent de plus en plus aux batteries à l’état solide, considérées comme l’une des technologies clés pour la prochaine génération de véhicules électriques et de systèmes de stockage d’énergie. Ce type de batterie remplace l’électrolyte liquide (utilisé dans les batteries lithium-ion classiques) par un électrolyte solide, ce qui permet d’augmenter la densité énergétique, d’améliorer la sécurité et de potentiellement réduire les temps de recharge.

Cependant, malgré des avancées significatives, cette technologie reste encore largement en phase de recherche et n’est pas encore pleinement industrialisée à grande échelle en Europe. C’est dans ce contexte qu’une nouvelle coentreprise baptisée Argylium a été créée par Syensqo – spécialiste belge des matériaux pour batteries – et Axens – groupe français expert en ingénierie des procédés industriels.

Argylium : objectifs et aperçu industriel

La société Argylium a pour vocation de développer, optimiser et industrialiser des matériaux pour batteries solides, notamment des électrolytes à base de sulfures adaptés aux configurations « tout-solide » (All-Solid-State Batteries – ASSB). Ces matériaux sont essentiels pour concrétiser les promesses des batteries solides, car ils permettent une meilleure conduction ionique tout en assurant une stabilité opérationnelle sur de larges plages de températures.

L’un des enjeux clés n’est pas seulement de faire progresser la recherche, mais aussi de faciliter le passage du laboratoire à l’industrialisation, en fournissant des briques technologiques et des matériaux qui peuvent être intégrés dans des procédés de production à grande échelle.

Syensqo apporte à Argylium son expertise acquise au fil de plus d’une décennie de recherche, ainsi qu’une expérience pratique issue de sa ligne pilote de batteries solides située à La Rochelle (France). De son côté, Axens contribue avec ses compétences en conception de procédés, en ingénierie industrielle et en opérations de fabrication à grande échelle, atouts essentiels pour commercialiser des matériaux complexes.

En outre, l’organisme de recherche public IFP Énergies nouvelles (IFPEN) a également été associé à l’initiative, apportant son savoir-faire sur les matériaux à base d’oxydes et de sulfures et renforçant ainsi la base scientifique du projet.

Un écosystème européen pour réduire la dépendance

La création d’Argylium s’inscrit dans une volonté plus large de renforcer le tissu industriel européen dans le domaine des batteries, face à une concurrence agressive venue d’Asie, notamment de Chine ou du reste de l’Asie de l’Est, où des consortiums massifs sont déjà en place pour développer et produire des technologies de batteries avancées.

Cette initiative répond aussi à des ambitions de souveraineté industrielle, l’Union européenne et les États membres cherchant à diminuer leur dépendance à des fournisseurs extérieurs pour des composants critiques comme les électrolytes solides ou d’autres matériaux avancés.

Pour atteindre ces objectifs, Argylium prévoit de collaborer avec un large éventail d’acteurs européens, incluant des instituts de recherche publics et privés, des constructeurs automobiles, des fabricants de batteries et des partenaires technologiques. Une telle plate-forme collaborative est souvent considérée comme essentielle pour accélérer l’innovation et optimiser l’intégration technologique dans un environnement global compétitif.

Défis techniques et opportunités à venir

Même si les batteries solides promettent des performances supérieures, il reste encore plusieurs défis techniques à résoudre avant une adoption à grande échelle. Parmi ceux-ci figurent la gestion des interfaces entre électrode et électrolyte, la manufacturabilité à coût compétitif, la durabilité dans des conditions réelles d’usage, et l’optimisation des procédés de production.

Sur le plan de la recherche fondamentale, des études scientifiques montrent que la compréhension des mécanismes d’interface, l’amélioration de la conductivité ionique des matériaux et l’augmentation de la stabilité chimique sont des leviers indispensables pour optimiser les performances finales des batteries solides.

Pour l’industrie, la montée en puissance – même progressive – de nouveaux matériaux comme ceux développés par Argylium peut ouvrir la porte à des applications avancées dans l’automobile, l’aéronautique, les solutions de stockage stationnaire ou encore les dispositifs portables.

L’alliance entre Syensqo, Axens et IFPEN symbolise donc une étape importante dans la construction d’une chaîne de valeur européenne pour les batteries solides. En combinant compétences de recherche et capacité industrielle, cette initiative vise non seulement à accélérer le développement de matériaux avancés, mais aussi à renforcer la compétitivité de l’Europe dans un secteur technologique stratégique.

L’avenir des batteries solides, bien qu’encore marqué par des obstacles techniques, pourrait être accéléré par des collaborations de ce type, qui favorisent l’intégration de la recherche fondamentale à une perspective industrielle et commerciale à grande échelle.

Vers un hydrogène solaire plus propre et moins cher : l’atout des polymères conjugués face au platine

Dans la quête mondiale pour une énergie propre et durable, l’hydrogène vert est l’une des solutions énergétiques les plus prometteuses. Ne produisant que de l’eau comme sous-produit lors de sa combustion, il s’inscrit en effet comme une composante clé des systèmes énergétiques renouvelables de demain. Pourtant, pour que la production d’hydrogène à grande échelle devienne réellement viable, plusieurs obstacles techniques et économiques doivent encore être surmontés, en particulier celui de l’usage de métaux précieux comme le platine.

Platine dans la production d’hydrogène : un frein au développement de cette énergie

Le platine est en effet aujourd’hui un composant clé dans les photocatalyseurs classiques utilisés pour convertir l’énergie solaire en hydrogène. Il sert de co-catalyseur pour accélérer la réaction de production d’hydrogène à partir de l’eau. Cependant, ce métal précieux est rare, cher et énergétiquement coûteux à extraire. Sa production est de plus concentrée dans seulement quelques régions du monde, ce qui pose des risques en termes d’approvisionnement, de dépendance stratégique et d’impact environnemental. Des limitations qui ont longtemps freiné la généralisation des technologies solaires à l’échelle industrielle.

Développer des alternatives au platine est donc considéré comme un objectif majeur de la recherche énergétique actuelle.

Une équipe de chercheurs de la Chalmers University of Technology en Suède vient toutefois de franchir un cap important dans ce domaine. Dans une étude publiée dans Advanced Materials, les scientifiques présentent une méthode de production d’hydrogène à partir de la lumière solaire sans recourir au platine, en utilisant à la place des nanoparticules de plastique conducteur d’électricité, appelées polymères conjugués. Cette innovation pourrait ouvrir la voie à une production d’hydrogène plus efficace, plus durable et significativement moins coûteuse.

Les polymères conjugués, des substituts au platine très efficaces

Les polymères conjugués sont une classe de semi-conducteurs organiques, analogues aux semi-conducteurs inorganiques comme le silicium. Ils ont été découverts dans les années 1970. Leurs propriétés électriques étonnantes malgré leur nature plastique leur ont d’ailleurs fait remporter le prix Nobel de Chimie en 2000.

Les polymères conjugués, pour la production d’hydrogène solaire
Les polymères conjugués représentent une alternative intéressante au platine pour la production d’hydrogène solaire © Chalmers University of Technology, Henrik Sandsjö

Dans cette nouvelle approche, les chercheurs ont conçu des polymères conjugués peu coûteux autour d’unités moléculaires spécifiques – notamment à base de dibenzothiophène-S,S-sulfoxyde (BTSO) – et les ont transformés en nanoparticules dispersables dans l’eau par nanoprécipitation. Cette structure leur permet d’interagir efficacement avec la lumière solaire et de catalyser la production d’hydrogène sans avoir recours à un co-catalyseur métallique comme le platine.

Formation de bulles d’hydrogène
L’utilisation de polymères conjugués assure une photocatalyse efficace, les essais en laboratoire montrant bien la formation de bulles d’hydrogène © Chalmers University of Technology, Mia Halleröd Palmgren

Les premiers tests sont plutôt encourageants : ils montrent que ces nanoparticules sont capables de produire de l’hydrogène avec une efficacité très élevée. « Avec seulement un gramme de polymère, nous avons pu produire 30 litres d’hydrogène en une heure », annonce Alexandre Holmes, auteur principal de l’étude. Dans les essais en laboratoire, l’efficacité du processus est d’ailleurs visuellement impressionnante : lorsque les nanoparticules de plastique conducteur sont dispersées dans un bécher d’eau exposé à une lampe simulant la lumière du soleil, des bulles d’hydrogène se forment presque immédiatement. Plus précisément, des taux de production de plus de 209 mmol de H₂ par gramme de photocatalyseur par heure ont été observés, ce qui représente une performance comparable à certains systèmes traditionnels utilisant du platine.

Fort de ces résultats, les chercheurs ne comptent désormais pas s’arrêter en si bon chemin. Leur prochain objectif est en effet de s’affranchir d’un autre composant coûteux : la vitamine C.

Vers une production réellement durable

Actuellement, la vitamine C (acide ascorbique) est ainsi utilisée comme agent sacrificiel antioxydant. La vitamine C, en tant que donneur d’électrons, empêche en effet la réaction de s’enliser, ce qui permet d’obtenir en laboratoire des taux élevés de production d’hydrogène. Mais dans l’idéal, les chercheurs aimeraient obtenir un procédé reposant uniquement sur la lumière du soleil et l’eau, en s’affranchissant de l’aide de la vitamine C ou de tout autre produit chimique, dans le but de produire de l’hydrogène solaire réellement durable et de bas coût.

« Supprimer le recours au platine dans ce système constitue une étape importante vers une production d’hydrogène durable pour la société. Nous commençons désormais à explorer des matériaux et des stratégies visant à réaliser la dissociation complète de l’eau sans additifs. Cela nécessitera encore quelques années, mais nous pensons être sur la bonne voie », s’enthousiasme Ergang Wang, professeur du Département de Chimie et d’Ingénierie Chimique à Chalmers.

Si ces technologies continuent de progresser, elles pourraient réduire drastiquement le coût de production de l’hydrogène solaire et aider à surmonter l’un des principaux goulots d’étranglement de la transition énergétique actuelle, offrant ainsi une voie vers une énergie propre plus accessible et plus durable dans le futur.

Marché du charbon : entre record de consommation et basculement progressif

Pilier historique de la production d’électricité et première source mondiale d’émissions de CO₂, le charbon reste au cœur des équilibres énergétiques internationaux. Alors que les systèmes électriques traversent une période d’incertitude marquée par une hausse de la demande, l’essor des renouvelables et la recomposition des marchés du gaz, l’avenir du charbon apparaît plus contrasté que jamais. C’est ce que met en lumière le dernier rapport annuel de l’Agence internationale de l’énergie (AIE) consacré à cette ressource énergétique.

L’Agence estime que la demande mondiale de charbon en 2025 devait rester proche de son niveau de 2024, malgré des évolutions régionales parfois contre-intuitives. À l’échelle globale, la consommation atteindrait un nouveau record à 8,85 milliards de tonnes, en hausse marginale de 0,5 %, portée par des dynamiques nationales divergentes. En Inde, traditionnel moteur de la croissance de la demande, une mousson précoce et intense a réduit les besoins en électricité et favorisé l’hydroélectricité. Résultat : la production électrique à partir de charbon devrait reculer sur un an, une situation rare observée seulement trois fois en cinquante ans.

À l’inverse, aux États-Unis, où la consommation de charbon diminuait en moyenne de 6 % par an depuis quinze ans, une hausse de 8 % était attendue en 2025, sous l’effet combiné de prix élevés du gaz naturel et de mesures fédérales soutenant le maintien des centrales existantes. En Europe, la baisse de la production éolienne et hydraulique au premier semestre a temporairement relancé la production à partir de charbon. La demande de l’Union européenne ne devait reculer ainsi que de 2 % en 2025, loin des chutes à deux chiffres observées en 2023 et 2024. En Chine, premier consommateur mondial, la demande devrait rester stable par rapport à 2024, conformément aux prévisions.

Au-delà de 2025, l’AIE anticipe un plateau de la demande globale, suivi d’un lent déclin d’ici à 2030. À cet horizon, la consommation de charbon devrait être inférieure de 3 % à son niveau de 2025, tandis que la production électrique à partir de charbon passerait sous son niveau de 2021. La montée en puissance rapide des capacités renouvelables, l’expansion du nucléaire et l’arrivée massive de gaz naturel liquéfié (GNL) sur les marchés mondiaux accentueront la concurrence entre les sources d’énergie.

Le rôle central de la Chine dans l’évolution de la demande mondiale

La Chine demeure néanmoins le facteur clé des marchés mondiaux. Elle consomme à elle seule plus de charbon que le reste du monde réuni, en produit davantage que tous les autres pays et reste le premier importateur mondial. Si la demande chinoise est appelée à reculer légèrement d’ici à 2030, ce mouvement reste fragile. Une croissance plus forte de la demande électrique, un ralentissement du déploiement des renouvelables ou une accélération des projets de gazéification du charbon pourraient inverser la tendance. Pékin maintient toutefois son objectif d’atteindre un pic de consommation avant 2030.

Côté offre, la production mondiale, après un record historique en 2024, devait se stabiliser en 2025 avant de décliner légèrement d’ici à la fin de la décennie. La production chinoise a encore progressé en 2025, malgré des stocks élevés et des prix bas, tandis que l’Inde et l’Indonésie marquent le pas. Aux États-Unis, la production repart à la hausse, soutenue par la demande intérieure et des politiques favorables au secteur.

Les échanges internationaux de charbon sont déjà sous pression. Après un pic en 2024, les importations mondiales étaient prévues comme marquant un recul de 5 % en 2025, notamment en raison du repli de la demande chinoise et indienne. À plus long terme, le commerce international devrait continuer de se contracter, pénalisant les exportateurs de charbon thermique. À l’inverse, le charbon métallurgique, indispensable à la sidérurgie, bénéficie de perspectives plus solides, notamment grâce à la croissance attendue de la production d’acier en Inde.

Enfin, la détente des prix confirme l’entrée du marché dans une nouvelle phase. Après les sommets atteints lors de la crise énergétique de 2022, les prix du charbon thermique ont reculé en 2025, comprimant les marges des producteurs. Cette situation a gelé les opérations de fusions-acquisitions, très actives entre 2021 et 2023, mais désormais quasiment à l’arrêt. Entre inertie structurelle et pressions liées à la transition énergétique, le charbon semble ainsi engagé dans une phase de stabilisation avant un lent déclin, dont le rythme dépendra largement des choix politiques et industriels de la Chine.

La décarbonation de l’acier, un défi multifactoriel

Les usages de l’acier, si nombreux et diversifiés dans nos sociétés de consommation, font de ce matériau un élément stratégique aujourd’hui comme à l’avenir. La décarbonation de sa production est essentielle, car c’est une industrie fortement émettrice de CO2.

Dans son plan de transition sectoriel (PTS) sur la filière acier, l’Ademe a étudié trois scénarios possibles pour la France, tous dépassant largement l’objectif de réduction des émissions de l’industrie de 81 % (en 2050 par rapport à 2015) indiqué dans la Stratégie nationale bas carbone.

La situation de la France est celle d’un « petit » producteur, avec 0,8 % du tonnage annuel mondial en 2019, bien loin derrière la Chine qui a dépassé les 50 % depuis le début des années 2010. La production française baisse depuis plusieurs années. Avec 15 Mt d’acier en 2019, elle était encore proche de la consommation de l’Hexagone qui a été de 16,5 Mt/an en moyenne sur 2015-2022. En 2022, la production était passée sous les 14 Mt, et sous les 11 Mt en 2024

Sur la base des données 2019 du PTS, la production d’acier et de fonte est assurée environ aux deux tiers sur trois sites sidérurgiques, avec six hauts fourneaux (mais deux sont en arrêt désormais). Ils produisent des aciers primaires dits « plats » (tôles, feuillards) en acier carbone ou avec un faible pourcentage d’alliages. L’autre tiers de la production provient des aciéries électriques dont les produits sont de deux types : les aciers dits « longs » (barres, fils, profilés) et les aciers inox ou fortement alliés.

La filière hauts fourneaux utilise principalement du minerai de fer vierge et, à cause de son recours au coke de charbon pour la réduction chimique du fer, émet 96 % des émissions de CO2 du secteur de l’acier. La filière des fours à arc électriques utilise des ferrailles recyclées, et n’émet que 4 % des gaz à effet de serre du secteur. Le total des émissions était de l’ordre de 20 MtCO2 par an sur 2015-2019, soit 5 % des émissions nationales et 25 % des émissions de l’industrie française. Aujourd’hui, elle est plus proche des 14 MtCO2/an.

Deux scénarios avec une faible hausse de la consommation

La consommation des aciers primaires en France est aux trois quarts le fait, à parts quasiment égales, des secteurs du BTP, des biens d’équipements et de consommation (BEC) et du transport. Les aciers recyclés, eux sont surtout consommés dans le BTP (64 %) et les BEC (20 %). La chaîne de valeur française production / consommation est très intégrée dans le commerce européen et mondial. Tout le minerai de fer est importé (Brésil, Canada, Libéria) tandis que 62 % des ferrailles sont exportés. 6 à 7 Mt d’aciers primaires sont importés et exportés (le solde étant devenu négatif depuis 2019).

C’est sur cette base, conformément aux principes méthodologiques des PTS, que trois scénarios de transition ont été bâtis par l’Ademe, de manière à composer avec cet aspect multifactoriel de consommation, de solutions technologiques de production et d’évolution des marchés internationaux d’ici à 2050.

Le premier scénario, nommé « Pari hydrogéné », laisse la consommation d’acier stable par un double mouvement antagoniste : quadruplement des besoins du secteur énergétique (éolien et solaire photovoltaïque dont la fabrication est relocalisée), mais baisse de la demande dans le bâtiment. Ce scénario réduit un peu les importations et augmente globalement les exportations. La production augmente de 11 % entre 2022 et 2050. Elle est assurée par des fours à arc électriques (EAF – electric arc furnace) qui remplacent tous les hauts fourneaux, fermés à l’horizon 2035. Les fours sont alimentés par des ferrailles recyclées et par du minerai de fer pré-réduit (DRI – direct reduced iron). Ainsi, trois fours de réduction directe sont construits, en utilisant de l’hydrogène décarboné après 2035. À cause de ce développement important du DRI-H2, ce scénario est celui qui exige le plus d’investissements (13 Md€, voir tableau ci-dessous).

Le deuxième scénario dit de « Compétitivité dégradée » augmente un peu plus la consommation nationale d’acier que le précédent, portée notamment par la demande en transport et en emballage. Les pays disposant de gisements de fer et d’électricité renouvelables à bas prix (Brésil, Australie, Afrique du Sud) développant plus facilement les technologies DRI-H2 et EAF, la France importe beaucoup plus d’acier, ainsi que des équipements énergétiques contenant de l’acier. Par manque de compétitivité, la production française diminue donc de 41 %. Les hauts fourneaux sont remplacés par des EAF fonctionnant avec des ferrailles, et avec du minerai de fer pré-réduit, en partie importé et en partie produit en France grâce à du DRI à base de méthane et avec captage et stockage de CO2. Les investissements nécessaires dans ce scénario sont beaucoup plus faibles, mais corrélés à une plus forte dépendance aux importations.

Plusieurs enjeux incontournables

Le troisième scénario de l’Ademe prône « Sobriété et diversification ». Moins de besoins dans le BTP et dans le transport induisent une baisse de 20 % de la consommation d’acier, contenue par une relocalisation de la fabrication d’énergies renouvelables (éolien et photovoltaïque notamment). La production d’acier diminue ainsi globalement de 17 % même si la dynamique est positive (+43 %) pour la filière inox/alliages. Toutes les solutions technologiques sont mobilisées pour décarboner la production : du DRI-H2 ; un haut fourneau avec injection de gaz de cokerie, biocharbon, recirculation des gaz de haut fourneau, et captage et stockage de CO2 ; des EAF alimentés en ferrailles, minerai pré-réduit, et fer issu d’électrolyse. Cette diversification impose 7 Md€ d’investissements.

Dans les trois scénarios, une partie de la décarbonation est assurée par de l’efficacité énergétique dans les fours à arc électriques ainsi qu’un remplacement partiel du charbon par des déchets plastiques, et un peu par le stockage du carbone sous forme solide dans les laitiers. Au niveau des hauts fourneaux (tant qu’il y en a), on peut compter sur l’augmentation du taux de ferrailles dans le convertisseur à oxygène, sur l’injection de gaz de cokerie et sur le captage de CO2.

L’Ademe relève plusieurs conditions de réussite communes à ces trois scénarios. Le remplacement des hauts fourneaux par des EAF, qui est le plus grand levier de décarbonation (entre 177 et 285 MtCO2 cumulées évitées selon les scénarios), et le développement de DRI-H2 sont conditionnés à un accès pérenne à une électricité décarbonée à prix faible. Ensuite, la collecte, le tri et la décontamination des ferrailles doivent monter en gamme – tout en limitant l’exportation – pour assurer la bonne qualité de l’acier recyclé. Enfin, plus les politiques de sobriété seront planifiées, plus la visibilité des besoins en acier sera bonne et permettra, couplée à une relocalisation des industries manufacturières de produits stratégiques, de maintenir souveraineté, emplois et dynamique territoriale.

Industrie du futur : relevez le challenge !

Afin de favoriser l’émergence d’innovations dans le monde de l’industrie, SKF Magnetic Mechatronics (S2M) lance un challenge à destination des startups.

Vous avez un projet innovant, disruptif à destination de l’industrie ? Candidatez, passez les phases de sélection, et bénéficiez d’un accompagnement par un expert jusqu’à la grande finale ! 

4 thèmes ont été retenus pour cette nouvelle édition :  

  • Smart Entreprise : dessinez les contours de l’industrie intelligente de demain.
  • Matériaux et procédés du futur : réinventez les procédés industriels et matériaux d’avenir. 
  • Pour un monde décarboné et inclusif : Innovez pour impacter le monde. 
  • Prix coup de cœur : soyez le choix du public.  

Pourquoi postuler ?  

Ce challenge, comme les précédentes éditions, a vocation à être gagnant-gagnant pour l’ensemble des parties.  

Après une première phase de sélection, 20 startups seront amenées à poursuivre l’aventure et entreront dans une phase d’approfondissement. Elles pourront ainsi bénéficier de l’accompagnement d’ « experts métiers », afin d’adapter leur projet au contexte industriel de l’organisateur.  

Une grande finale réunira 10 startups sélectionnées pour cette dernière étape. Elles présenteront leur projet devant le jury, avec à la clé 4 prix distincts et une dotation financière pouvant aller jusqu’à 5000 €. 

Comment et quand postuler ?  

Les inscriptions sont ouvertes en ligne jusqu’au 16 mars 2026.  

Débutera ensuite la phase de sélection jusqu’au 31 mars. Les 10 startups sélectionnées seront alors invitées à poursuivre le challenge en phase d’approfondissement, jusqu’à la grande finale prévue le 25 juin 2026. 

Pour en savoir plus et postuler, rendez-vous sur ce lien.

 

ArcelorMittal signe avec EDF pour un apport en électricité nucléaire sur 18 ans

Cette année, ArcelorMittal n’a pas fait les choses à moitié pour Noël. Le spécialiste de l’acier s’est entendu avec EDF, le 26 décembre 2025, pour approvisionner en électricité nucléaire ses sites localisés en France. La signature du Contrat d’Allocation de Production Nucléaire (CAPN) a été rendue publique le 6 janvier dernier dans un communiqué conjoint. Celui-ci précise que « dans le cadre de cet accord, EDF allouera à ArcelorMittal une quote-part de la puissance de son parc nucléaire en exploitation, pour une durée de 18 ans. » Ce contrat est qualifié d’étape majeure par ArcelorMittal et concrétise la lettre d’intention signée entre les deux acteurs en janvier 2024.

Le nouvel attrait pour les CAPN

Les contrats dits « CAPN » mettent à la disposition des partenaires d’EDF une quote-part de la production effective du parc nucléaire historique. L’accès à cet approvisionnement est accordé sur des durées d’aux moins dix ans à des prix reflétant les coûts du parc nucléaire, protégeant ainsi les industriels de la volatilité des marchés de gros. Le contrat a la particularité de demander aux bénéficiaires, en échange de cette énergie, de partager les risques associés à la production des réacteurs.

Ces derniers mois, l’électricien a multiplié ces partenariats de long terme avec de grands groupes. En septembre dernier, des contrats CAPN ont notamment été conclus avec le cimentier Lafarge ou Data4, l’opérateur européen majeur de centres de données.

Réservés au départ aux industriels très énergivores, EDF a élargi le périmètre des acteurs éligibles à ces contrats en novembre 2025.

Une alternative au dispositif Arenh

Les premières livraisons effectuées à ArcelorMittal, qui ont commencé dès le 1er janvier 2026, coïncident avec la fin de l’Accès Régulé à l’Électricité Nucléaire Historique (l’Arenh). Ce dispositif, instauré par la loi NOME[1] du 7 décembre 2010, offrait un prix cassé de 42 euros par mégawattheure aux industriels pour un volume global maximal égal à 100 TWh/an. L’arrêt du dispositif, fixé au 31 décembre 2025, va probablement modifier le paysage énergétique français et déstabiliser les équilibres stratégiques des approvisionnements en énergie. Les contrats CAPN offrent ainsi une alternative non négligeable à l’Arenh. En signant cet accord, ArcelorMittal anticipe sur ses besoins en électricité décarbonée et sécurise sur le long terme ses approvisionnements.

Aucun des deux groupes n’a souhaité communiquer sur le prix du mégawattheure et les volumes d’électricité contractualisés. Il est fort probable que les nouveaux tarifs négociés soient supérieurs au niveau historique des 42 €/MWh en vigueur avec le dispositif Arenh. Précisons que ce dernier est remplacé par le Versement nucléaire universel.

Dans le cadre de sa stratégie énergétique, ArcelorMittal recourt non seulement à une électricité nucléaire pour ses activités mais investit aussi dans le secteur des énergies renouvelables. L’aciériste a annoncé, en décembre dernier, le développement de trois projets en Inde reposant sur l’énergie solaire et éolienne. Ces installations fourniront 35 % des besoins électriques des activités sidérurgiques d’AMNS India[2]. Une fois achevés, ses trois projets permettront au sidérurgiste d’atteindre une capacité en énergie renouvelable de 3,3 GW à l’échelle mondiale.


[1] Nouvelle Organisation du Marché de l’Électricité

[2] Coentreprise sidérurgique détenue à 60 % par ArcelorMittal et à 40 % par Nippon Steel.

Hydrogène décarboné : l’État amorce la structuration d’un marché à long terme

La France franchit une étape décisive dans le développement de l’hydrogène décarboné. Fin décembre, l’État a publié le cahier des charges de son tout premier appel d’offres destiné à soutenir la production d’hydrogène bas-carbone par électrolyse. Piloté par la Direction générale de l’énergie et du climat (DGEC) et opéré par l’ADEME, ce dispositif inédit marque l’entrée dans une nouvelle phase de la Stratégie nationale hydrogène (SNH).

L’objectif affiché est clair : faire émerger, à terme, environ 1 GW de capacités de production d’hydrogène décarboné sur le territoire national, afin d’accompagner la décarbonation de secteurs industriels fortement émetteurs. À la différence des dispositifs antérieurs, centrés sur l’amorçage technologique ou le soutien à l’investissement, ce premier appel d’offres met en place un mécanisme de soutien à la production, fondé sur les volumes effectivement produits.

Le mécanisme prévoit une aide proportionnelle à la quantité d’hydrogène produite, versée sur une durée de quinze ans. L’ambition est de combler l’écart de compétitivité de l’hydrogène décarboné, qui se révèle plus coûteux à produire que l’hydrogène d’origine fossile. En sécurisant les revenus des producteurs sur le long terme, l’État entend créer les conditions économiques nécessaires au passage à l’échelle industrielle.

Cette approche constitue l’un des piliers de la SNH lancée en 2020 et révisée en avril 2025. L’an dernier, le gouvernement a procédé à un réajustement de son calendrier et de ses ambitions en anticipant un déploiement plus lent qu’envisagé, lié à la maturation technologique des électrolyseurs, aux coûts de production encore élevés et à l’émergence progressive de la demande industrielle. Sans renoncer à son objectif de souveraineté énergétique et industrielle, l’État vise à présent jusqu’à 4,5 GW de capacités d’électrolyse en 2030, puis 8 GW à l’horizon 2035, contre des cibles initialement plus ambitieuses à court terme.

Priorité à l’industrie lourde et aux usages les plus difficiles à décarboner

Cette stratégie révisée opère également un recentrage sur les usages jugés prioritaires pour la décarbonation, à savoir l’approvisionnement de l’industrie dans les secteurs de la sidérurgie, la chimie lourde ou la production d’engrais, ainsi que pour la synthèse de carburants durables utilisés notamment pour décarboner le transport aérien. Elle considère aussi le rôle structurant de l’implantation de hubs hydrogène dans les grandes zones industrielles – Fos-sur-Mer, Dunkerque, Le Havre ou la Vallée de la chimie – et met l’accent sur la création d’infrastructures locales de transport et de stockage.

Cette SNH II réaffirme parallèlement un choix stratégique central, celui de privilégier une production nationale d’hydrogène décarboné par électrolyse, fondée sur le mix électrique bas-carbone français, combinant le nucléaire et les énergies renouvelables. Les soutiens publics, avec une enveloppe de 4 milliards d’euros, sont donc réservés à la production domestique, notamment afin de sécuriser l’approvisionnement des industriels, limiter les dépendances extérieures et renforcer la compétitivité de la filière française sur l’ensemble de la chaîne de valeur.

Le premier appel d’offres apparaît donc comme un outil opérationnel clé de la SNH II. Destiné à transformer une filière encore émergente en un pilier durable de la transition énergétique française, il est l’aboutissement d’un processus engagé dès la fin de l’année 2024. Dix candidats ont été présélectionnés et invités à participer à un dialogue concurrentiel avec l’État. Cette phase a permis d’ajuster le cahier des charges aux réalités technico-économiques du marché, dans un contexte encore marqué par l’immaturité relative de la filière et par une concurrence internationale accrue.

Dans ce paysage, le lancement d’un mécanisme de soutien à la production constitue un tournant. Il traduit la volonté de l’État de passer d’une logique de démonstration à une logique de déploiement, tout en sécurisant les investissements privés sur le long terme. Les candidats présélectionnés ont jusqu’au 27 février 2026 pour déposer leurs offres. Les premiers lauréats de ce dispositif très attendu pourraient ainsi préfigurer les futures pierres angulaires de la filière française de l’hydrogène décarboné, appelée à jouer un rôle central dans la transition énergétique et la souveraineté industrielle du pays.

Reprise d’Arc France, Davos, Budget 2026, Mercosur…

Phase décisive pour les acteurs économiques

Les discussions autour du budget 2026 ont repris à l’Assemblée nationale au début du mois de janvier, dans un contexte politique tendu et sous la pression de l’exécutif. Le gouvernement souhaite ainsi boucler l’examen budgétaire dans les plus brefs délais afin d’éviter une prolongation de l’incertitude institutionnelle et financière. Ce calendrier resserré intervient cependant alors que plusieurs points du projet de loi de finances restent discutés, notamment sur la trajectoire des finances publiques et les arbitrages sectoriels, dans un contexte de contraintes budgétaires fortes.

La poursuite des débats devrait permettre de préciser les orientations budgétaires pour 2026, un élément clé pour de nombreux secteurs industriels en attente de visibilité sur les aides, la fiscalité et les investissements publics. La finalisation rapide du texte pourrait lever certaines incertitudes pesant sur les stratégies d’investissement, même si des ajustements parlementaires restent possibles au cours de la discussion.

Accord commercial avec le Mercosur

Après plus de vingt ans de négociations, l’Union européenne et le Mercosur sont entrés dans la dernière ligne droite d’une signature politique attendue à la mi-janvier 2026 au Paraguay. Les États membres ont validé cette étape à la majorité qualifiée, malgré l’opposition de plusieurs pays dont la France.

L’accord prévoit une réduction progressive des droits de douane et de certaines barrières non tarifaires afin de faciliter les échanges commerciaux.

Si la signature se confirme, les entreprises européennes pourraient être confrontées à une concurrence accrue sur des secteurs sensibles, notamment l’automobile et l’agroalimentaire, tout en surveillant les modalités concrètes d’application et de ratification.
Les effets sur les chaînes d’approvisionnement dépendront du calendrier de mise en œuvre et des clauses de sauvegarde, dans un contexte où les débats politiques et environnementaux restent vifs.

La France dispose d’une marge de manœuvre très réduite dans les prochaines semaines pour tenter de forcer la décision en sa faveur.

À Davos, la France met en avant ses atouts économiques

Le Forum économique mondial de Davos se tiendra du 20 au 24 janvier 2025. Il réunira dirigeants politiques, chefs d’entreprise et acteurs économiques autour des grands enjeux mondiaux. À cette occasion, Business France conduit une série d’échanges destinés à valoriser l’économie française et son positionnement dans les grandes transitions. L’agence souhaite ainsi mettre en avant la capacité de la France à attirer des investissements internationaux, en s’appuyant sur son tissu industriel, son écosystème d’innovation et ses politiques publiques en faveur de la compétitivité.

Les discussions portent notamment sur la santé, l’intelligence artificielle et la décarbonation, trois domaines identifiés comme structurants pour les transformations économiques en cours.

Ces échanges visent à renforcer l’attractivité du territoire français et à consolider son rôle dans les transitions industrielles, technologiques et environnementales à l’échelle mondiale, en favorisant des partenariats et des projets d’investissement alignés avec ces priorités.

Recrutements dans l’aéronautique et la défense

Le 22 janvier 2026, Randstad organisera l’événement AeroDay afin de répondre aux besoins croissants en compétences des secteurs de l’aéronautique, de la défense et du spatial. Cette initiative s’inscrit dans un contexte de reprise durable des programmes civils et militaires, mais aussi de tensions persistantes sur le marché de l’emploi qualifié.

Les 2 800 recrutements prévus concernent un large éventail de profils techniques et industriels, reflétant les besoins structurels de la filière face à l’augmentation des cadences de production et aux enjeux de souveraineté. Selon Randstad, cette dynamique devrait se poursuivre au-delà de 2026, portée par la visibilité des carnets de commandes et par les investissements engagés dans l’aéronautique, la défense et le spatial.

Arc France engage une reprise sous contrainte judiciaire et industrielle

Placée en redressement judiciaire par le tribunal de commerce de Lille Métropole, Arc France traverse une nouvelle phase critique de son histoire industrielle. Le groupe verrier, qui emploie plusieurs milliers de salariés à Arques dans le Pas-de-Calais, fait face à une baisse de la demande, à une concurrence internationale accrue et à une structure de coûts devenue difficilement soutenable, conduisant à l’arrêt d’un four et à l’annonce de suppressions d’emplois.

Le projet de reprise actuellement étudié par le tribunal prévoit un redimensionnement de l’outil industriel, avec une concentration de l’activité sur un nombre plus restreint de fours afin d’adapter la production aux volumes réellement écoulés. Cette stratégie vise à préserver une partie de l’activité verrière tout en réduisant les charges structurelles, sans garantie à ce stade sur le maintien de l’ensemble des emplois.

Les discussions autour de cette reprise laissent entrevoir une restructuration profonde dont les effets sociaux restent à préciser, le calendrier judiciaire devant permettre d’examiner les offres dans les prochaines semaines. L’issue dépendra de la capacité du projet retenu à assurer la viabilité économique du site d’Arques dans un contexte industriel et énergétique toujours contraint.

CES 2026 : quand l’innovation se passe d’intelligence artificielle (ou presque)

Le CES, bien que surtout associé aux innovations en intelligence artificielle, a été le théâtre de nombreuses annonces mettant en lumière des objets et concepts qui ne reposent pas directement sur des systèmes intelligents et qui pourraient trouver des applications concrètes dans les mois à venir.

Un laboratoire d’usages inattendus

Des innovations inattendues jouant sur l’usage, le design ou l’expérimentation technologique ont ainsi été présentées. Parmi elles figurent des objets volontairement décalés, comme un aspirateur capable de se déplacer partiellement en sustentation, ou encore une sucette musicale.

Ces propositions, parfois plus expérimentales que réellement industrialisées, participent néanmoins à la fonction historique du CES, celle d’un laboratoire grandeur nature où s’expriment aussi des idées exploratoires et des usages encore émergents.

Nouveaux produits grand public

Parmi les innovations grand public ayant attiré l’attention, plusieurs appareils et gadgets se distinguent par leur originalité et leur potentiel d’usage. Lego a dévoilé son Smart Brick interactif, une brique compatible avec les jeux de la marque intégrant des capteurs et lumières pour enrichir l’expérience de jeu classique.

Sur le plan des appareils grand public, Hisense a mis en avant ses TV RGB MiniLED nouvelle génération, conçus pour offrir une qualité d’image accrue, avec une meilleure reproduction des couleurs et une réduction significative de la lumière bleue nuisible.

La marque Razer a attiré l’attention au CES de Las Vegas 2026 en présentant Project Madison, un concept de fauteuil gaming multisensoriel conçu pour immerger le joueur au cœur de l’action grâce à une combinaison d’effets visuels sonores et haptiques synchronisés avec les jeux vidéo. Ce siège intègre la technologie Razer Sensa HD Haptics qui utilise plusieurs moteurs pour fournir des retours physiques correspondant aux événements à l’écran, ainsi qu’un système audio spatial THX pour une restitution sonore enveloppante sans casque. L’éclairage Chroma RGB est également embarqué pour créer une atmosphère dynamique qui évolue avec le contenu affiché.

Dans le domaine des appareils ménagers, le CES 2026 a aussi présenté des innovations pratiques pour la vie quotidienne, comme des réfrigérateurs équipés de scanners de codes-barres et de caméras internes visant à faciliter la gestion des courses via des applications connectées.

Santé, bien-être et appareils personnels

La santé et le bien-être ont également été des thèmes forts du salon. Parmi les innovations, plusieurs appareils visent à enrichir la connaissance personnelle de la santé ou à simplifier des tests usuels.

Par exemple, des dispositifs permettant des tests portables et rapides pour détecter les allergènes dans les aliments ont été présentés, avec une capacité à délivrer des résultats en quelques minutes pour des éléments tels que le gluten ou le lait. Les balances intelligentes, capables de fournir une analyse détaillée de biomarqueurs de santé corporelle et de bien-être, ont aussi été à l’honneur lors de l’événement, illustrant la tendance vers des appareils personnels de suivis de santé plus complets.

L’année 2026 devrait voir aussi nos routines beauté évoluer vers des gestes plus simples, efficaces et centrés sur le bien-être global, avec une forte tendance à privilégier des soins personnalisés fondés sur la science plutôt que des protocoles trop complexes. Les experts anticipent un retour à l’essentiel avec des ingrédients éprouvés et des formules qui renforcent la santé de la peau, tout en intégrant des technologies intelligentes et des diagnostics adaptés à chaque type de peau.

Le groupe L’Oréal a quant à lui dévoilé son innovation LED Face Mask, un masque facial LED flexible développé avec iSmart qui diffuse directement de la lumière sur la peau pour agir sur les signes de l’âge et les irrégularités du teint. Récompensé par un Innovation Award lors du salon, ce masque transparent et ultrafin conçu en silicone associe deux longueurs d’onde de lumière – rouge et proche infrarouge – pour raffermir lisser et uniformiser le teint.

La start-up américaine iPolish, pour sa part, a fait sensation en présentant des faux ongles capables de changer de couleur en quelques secondes grâce à une impulsion électrique appliquée via un petit stylet connecté à un smartphone. Cette innovation combine beauté et technologie puisque chaque ongle press-on acrylique peut afficher jusqu’à 400 teintes différentes sélectionnables depuis une application mobile.

Mobilité et équipements techniques spécialisés

Dans le secteur de la mobilité, des concepts originaux ont été présentés qui pourraient influencer le design et l’ergonomie des véhicules du futur. Autoliv a révélé un volant rétractable, pensé pour améliorer le confort intérieur des véhicules autonomes de niveaux supérieurs. Ce volant se replie ainsi dans le tableau de bord lorsque la conduite autonome est active.

Un impact sur les secteurs industriels et grand public

Au-delà des annonces individuelles, ces innovations témoignent de la diversité des domaines couverts par le CES. Elles illustrent comment, malgré la domination médiatique de l’intelligence artificielle lors de cette édition, des technologies matérielles et des concepts pratiques continuent d’émerger et de proposer des applications concrètes pour les consommateurs et les industries.

L’impact de ces nouveautés devrait se ressentir tout au long de 2026, puisque de nombreux produits présentés sont soit déjà disponibles à l’achat, soit prévus pour un lancement commercial imminent, offrant aux constructeurs, développeurs et consommateurs une meilleure visibilité sur les technologies qui façonneront le quotidien.

Les États-Unis choisissent Orano : 900 millions de dollars alloués pour une usine d’uranium enrichi

Le groupe Orano avance ses pions outre-Atlantique. Le spécialiste de l’extraction et de la gestion de l’uranium a annoncé dans un communiqué qu’il venait d’obtenir un financement de 900 millions de dollars destiné à concrétiser son projet de construction d’une installation de production d’uranium enrichi.

Sélectionné par le Département de l’Énergie américain, Orano voit ainsi confirmée son expertise dans le secteur énergétique : « C’est une excellente nouvelle pour Orano et une avancée décisive pour notre projet d’usine d’enrichissement aux États-Unis ! Cette reconnaissance par les autorités américaines illustre la confiance placée dans notre expertise et notre capacité à mettre notre technologie au service de la robustesse de l’approvisionnement de nos clients », s’est réjoui Nicolas Maes, directeur général d’Orano.

Une avancée majeure

Le groupe envisage de déployer son usine d’enrichissement sur le site d’Oak Ridge dans l’État du Tennessee. Les prochaines étapes, fixées au 1er semestre 2026, devraient aboutir à une finalisation du contrat et à un dépôt de licence auprès de l’autorité de sûreté nucléaire américaine. La mise en production de la nouvelle usine est prévue pour le début de la prochaine décennie.

Le soutien américain permettra de financer ce projet, nommé IKE[1], d’un coût total de près de 5 milliards de dollars. S’inscrivant dans la stratégie d’Orano d’augmentation de ses capacités d’enrichissement, le projet IKE est complémentaire du projet d’extension de l’usine Georges Besse 2 en cours de construction sur le site du Tricastin dans la Drôme et qui prévoit une augmentation de 30 % de la capacité d’enrichissement.

L’installation d’une usine outre-Atlantique offre pour le géant français de l’uranium un moyen de stabiliser sa position sur le marché mondial de l’uranium enrichi. Confronté à des tensions géopolitiques sur le continent africain, le groupe voit l’exploitation de ses mines remise en question depuis que le Niger a entrepris la nationalisation progressive de ses stocks d’uranium. Un contexte qui oblige le groupe à diversifier ses capacités de production dans d’autres pays.

Une orientation stratégique pour l’autonomie énergétique américaine

Ce projet s’inscrit dans la stratégie déployée par le président Trump pour favoriser la production nucléaire qui doit permettre de répondre aux besoins croissants des États-Unis en électricité dans un contexte marqué par le développement de l’intelligence artificielle et des centres de données.

Le Département de l’Énergie a annoncé qu’aux côtés d’Orano deux autres sociétés bénéficieraient d’un financement similaire, à savoir American Centrifuge Operating et General Matter. Le total des commandes octroyées à ces trois sociétés s’élève à un montant de 2,7 milliards de dollars. En misant sur l’enrichissement de l’uranium au cours des dix prochaines années, le gouvernement américain cherche à réduire la dépendance des États-Unis à l’égard de l’approvisionnement russe ; la réglementation américaine interdit, à partir de 2028, l’importation d’uranium enrichi en provenance de Russie.

Le président Trump met en œuvre les conditions nécessaires pour garantir aux exploitants de réacteurs nucléaires américains un approvisionnement fiable en uranium enrichi.


[1] En référence au surnom du Président D. Eisenhower et en hommage à son discours sur l’énergie nucléaire « Atomes pour la paix » prononcé devant les Nations Unies

Autonomie énergétique des datacenters : l’électricité décarbonée, pilier d’un avenir numérique plus responsable

Nicolas Breyton, CEO de STELLARIA, et Régis Castagné, Directeur général d’EQUINIX France, ont accepté de répondre à nos questions.

À gauche : Nicolas Breyton, CEO de STELLARIA. À droite : Régis Castagné, Directeur général d’EQUINIX France
À gauche : Nicolas Breyton, CEO de STELLARIA (crédit : Dominique Fleury Photographie)
À droite : Régis Castagné, Directeur général d’EQUINIX France (crédit : ErinAshford)

STELLARIA développe le Stellarium, un réacteur à neutrons rapides de nouvelle génération à sels fondus, le premier réacteur au monde à utiliser des combustibles liquides capables de se régénérer entièrement lors du fonctionnement (Uranium 235, Uranium 238, Plutonium 239).

EQUINIX est une référence en matière d’excellence opérationnelle qui héberge des applications critiques, notamment 70 % des bourses mondiales. EQUINIX possède à ce jour 273 datacenters répartis dans le monde.

Techniques de l’ingénieur : la consommation énergétique des datacenters est un sujet qui fait débat. Est-il réellement possible de concilier développement durable et numérique ?

Régis Castagné : Aujourd’hui, les datacenters consommeraient 2 % de la puissance électrique mondiale et la trajectoire actuelle nous amène vers 6 % à l’horizon 2030 du fait de la forte croissance du secteur, donc on se doit de trouver les solutions énergétiques qui s’imposent.

EQUINIX s’intéresse à ces questions depuis longtemps et, quand nous avons commencé, personne ou presque ne parlait environnement, dans notre secteur. En 2014, nous avons ainsi été les premiers à nous engager vers la neutralité carbone en 2040 et 100% d’énergies renouvelables pour 2030. D’ailleurs, concernant les ENR, l’objectif est déjà atteint à 96 %, à l’échelle mondiale, grâce à des contrats de type PPA, notamment en éolien.

L’éolien peut-il répondre à lui seul aux besoins futurs des datacenters ?

RC : En France, nous avons actuellement sept fermes éoliennes qui produisent l’intégralité de notre consommation électrique. Néanmoins, je pense que nous arriverons vite à un seuil d’acceptabilité concernant l’éolien et c’est aussi valable pour le solaire, car ce sont des technologies très gourmandes en espace et l’intégration paysagère demeure problématique.

À l’inverse, les technologies SMR présentent l’avantage d’être extrêmement compactes et sont capables de produire en continu.

Nicolas Breyton : Je voudrais aussi ajouter qu’un réseau électrique dont la part en énergie intermittente est supérieure à 50 % devient instable, ce qui peut provoquer un effet de saturation. C’est d’ailleurs ce qui est arrivé en Espagne avec le fameux black-out du 28 avril, tous les rapports sont unanimes là-dessus.

Car il faut bien comprendre que la stabilité du réseau électrique dépend des machines tournantes que l’on retrouve dans les barrages, les centrales à gaz, à charbon, le nucléaire. Ce sont tous ces turboalternateurs synchronisés à 3 000 tours par minute qui vont créer le réseau en 50 hertz. Comme les panneaux solaires ne créent pas d’inertie et que celle des éoliennes est faible, un mix électrique stable repose donc sur un nombre suffisant de machines tournantes synchrones.

Les SMR sont donc une solution potentielle, mais qu’en est-il de leur acceptabilité par le public ?

NB : Des technologies comme le Stellarium sont nécessaires, pour une acceptation sociale parfaite des SMR, au niveau mondial, car c’est une technologie beaucoup plus sûre, qui n’a rien à voir avec le nucléaire « classique », en termes de sûreté.

Pour donner un ordre de grandeur, on vise 1 millisievert à la clôture du site, ce qui évite d’avoir une zone d’exclusion autour du réacteur. Concrètement, ça permet une intégration du SMR juste à côté du datacenter, sans impact pour le personnel qui y travaille. Tout ceci est calculé avec les autorités de sûreté, en tenant compte de l’ensemble des risques (tsunamis, séismes, inondations, crashs d’avions, etc.).

Par ailleurs, tout est prévu pour obtenir une sûreté maximale dès la conception : réacteur souterrain, basse pression, cœur liquide facilement évacuable dans des réservoirs, systèmes de sûreté supplémentaires, automatisation, etc.

Mais au-delà de la sûreté, il y a un autre avantage majeur : la gestion des déchets de haute activité à vie longue est facilitée, puisque les seuls déchets finaux seront les produits de fission, peu radioactifs et qui ne sortiront pas du réacteur avant 50 ans. D’autre part, à l’issue du cycle, le sel combustible ne sera pas rejeté, mais renvoyé dans le réacteur pour un autre cycle, après retraitement et séparation des produits de fission.

RC : Je pense aussi que nous aurons de moins en moins de difficultés à implanter des SMR, à mesure que les datacenters grossissent. Car, comme les gros datacenters nécessitent beaucoup de foncier, ils vont naturellement s’éloigner des agglomérations, ce qui colle parfaitement à la réalité du marché : plus de puissance, de foncier, de sécurité, des critères environnementaux plus stricts.

En fait, on a tendance à l’oublier, mais, avant d’être un service, l’hébergement de données est une véritable industrie, avec des problématiques industrielles et les besoins énergétiques qui vont avec !

NB : Les réacteurs Stellarium donneront aussi une image plus positive des datacenters. Demain, en plus d’être un data hub, le datacenter pourrait se transformer en energy hub, pour passer de simple consommateur d’électricité à « prosumer[1] », c’est-à-dire qu’il fournirait une petite partie de sa production d’électricité aux régions alentour, au lieu d’être accusé de consommer toute l’électricité et de faire grimper les prix.

Les réacteurs Stellarium sont alimentés par des déchets nucléaires. Cela veut-il dire que ces déchets problématiques sont finalement une ressource précieuse ?

NB : Nous estimons que la France dispose d’environ 5 000 ans d’énergie disponible sur son sol et ce n’est pas grâce au pétrole, au charbon ou au gaz ! Et ce n’est pas non plus grâce à l’uranium « frais », car les stocks sont très bas.

En fait, il faut savoir que l’énergie fissile, celle qui alimente les réacteurs nucléaires traditionnels, représente seulement une infime partie de l’énergie disponible dans le combustible (à peine 0,5 %), ce qui signifie que les matières sortant des réacteurs à fission contiennent encore énormément d’énergie !

Vues sous cet angle, ces matières injustement qualifiées de « déchets nucléaires » sont en réalité une ressource précieuse pour notre avenir énergétique.

Aujourd’hui nous avons des piscines pleines de combustibles « usagés » et de forts enjeux de stockage profond des déchets. Mais de notre point de vue, la France dispose surtout de 230 000 tonnes de matières utilisables dans les futurs réacteurs Stellarium, des matières (Uranium 238…) qui ont l’avantage d’être très peu chères, car elles sont actuellement stockées et inutilisées.

Il y a une vraie course mondiale sur le nucléaire de nouvelle génération et les déchets sont une aubaine. Pour moi c’est vraiment l’énergie du futur, celle de nos enfants.


[1] producteur-consommateur

Revue du Magazine d’Actualité #60 du 5 au 9 janvier

Cette semaine illustre parfaitement le ton de ce début d’année : des annonces stratégiques dans l’énergie, des signaux forts sur la transition industrielle, et des tendances technologiques qui dessinent l’avenir. Entre IA utile, matériaux disruptifs et ajustements réglementaires, les acteurs se positionnent pour conjuguer performance, durabilité et compétitivité.

⚡ÉNERGIE & ENVIRONNEMENT

Autonomie énergétique des datacenters : Signature d’un partenariat historique entre STELLARIA et EQUINIX

Le partenariat vise à doter des datacenters de moyens d’autoproduction et de sécurisation d’approvisionnement, afin de réduire la dépendance au réseau et l’empreinte carbone. L’accord met en avant des solutions hybrides combinant renouvelables, stockage et pilotage avancé. Au-delà de la résilience, l’enjeu est économique, avec une meilleure maîtrise des coûts énergétiques et une réponse aux pics de consommation des infrastructures numériques.
🔒 Datacenters autonomes : résilience et décarbonation

Programmation pluriannuelle de l’énergie : comment la France adapte ses investissements nucléaires et renouvelables

La PPE ajuste le mix à horizon moyen-long terme, avec des trajectoires de capacités pour le nucléaire, l’éolien, le solaire et le stockage. L’équilibre recherché : garantir la sécurité d’approvisionnement, accélérer la décarbonation et stabiliser les coûts. Les arbitrages portent aussi sur les réseaux, la flexibilité et l’efficacité énergétique, reflet d’un système en transition.
🔌 PPE, nucléaire et renouvelables : les nouveaux arbitrages

RTE alerte sur la surcapacité électrique et appelle à accélérer l’électrification

RTE signale une surcapacité momentanée liée aux mises en service et à une demande qui ne progresse pas au rythme attendu. L’opérateur invite à accélérer l’électrification de l’industrie, des transports et du chauffage pour aligner offre et usages. L’enjeu : valoriser la capacité disponible sans diluer les incitations à l’efficacité énergétique.
🔋 Surcapacité RTE : électrifier pour ne pas gâcher

Fin du thermique en 2035 : l’UE ouvre la voie à un assouplissement

L’Union européenne discute d’un assouplissement du calendrier ou des modalités d’interdiction des moteurs thermiques neufs à partir de 2035. Les débats portent sur les e-fuels, les niches technologiques et l’adaptation des filières industrielles. Entre objectifs climatiques et compétitivité, le compromis recherché pourrait infléchir la trajectoire du marché automobile.
🚗 2035, thermique : vers une flexibilité européenne ?


 💻 NUMÉRIQUE : CES 2026

Le CES 2026 dessine les contours technologiques des années à venir

Le CES 2026 met en scène des tendances structurantes : IA pervasive, interfaces immersives, santé connectée et mobilité augmentée. Les annonces montrent une maturité grandissante des cas d’usage, avec des solutions intégrées et orientées performance. Les acteurs priorisent fiabilité, sobriété et protection des données, signe d’une industrie qui sort du “proof-of-concept”.
🔭 Tendances CES 2026 : ce qui va compter demain

CES 2026 : de l’IA partout, mais de l’IA utile !

Le salon consacre l’IA “utile” : contextualisée, efficiente et intégrée aux workflows, loin du gadget. Les solutions se concentrent sur la fiabilité (RAG, audit), la sécurité des modèles, l’ergonomie et la frugalité calculatoire. Les industriels ciblent des gains réels : qualité, maintenance, support, conception assistée, et conformité.
🔧 IA utile au CES : efficacité plutôt que hype

Matthieu Deboeuf-Rouchon : « L’intégration de l’IA va devenir de plus en plus diffuse »

Dans cet entretien, Matthieu Deboeuf-Rouchon analyse la tendance à une intégration invisible mais omniprésente de l’IA dans les systèmes et services. Il insiste sur la nécessité de penser l’IA comme une infrastructure, et non comme une fonctionnalité isolée. Cette approche soulève des enjeux de gouvernance, d’éthique et de robustesse technique.
🎤 IA diffuse : la vision de Matthieu Deboeuf-Rouchon


👓 Bon week-end et bonne lecture

Les gyromorphes, cette nouvelle classe de matériaux qui pourrait permettre l’essor de l’informatique photonique

Une équipe de chercheurs de l’université de New York a récemment dévoilé une découverte majeure dans le domaine des matériaux photoniques : une nouvelle classe de matériaux dits « gyromorphes », qui pourrait transformer l’avenir des technologies informatiques basées sur la lumière. Publiés dans Physical Review Letters, ces résultats représentent un pas significatif vers la réalisation de systèmes photoniques pratiques, capables de surpasser les performances des circuits électroniques actuels.

L’informatique photonique face au défi des nouveaux matériaux

L’informatique traditionnelle repose sur le mouvement d’électrons à travers des circuits conducteurs pour traiter et stocker l’information. Mais ce paradigme est confronté à des limites physiques sévères, notamment en termes de dissipation thermique, de vitesse maximale et de densité de circuits. C’est dans ce contexte qu’émerge actuellement l’informatique photonique, qui utilise des photons pour transporter et manipuler les données. Les photons peuvent en effet potentiellement transmettre l’information à des vitesses extrêmes avec une chaleur dissipée minimale, ouvrant la voie à des processeurs et des interconnexions bien plus efficaces.

Cependant, pour que l’informatique photonique devienne une réalité pratique, la science des matériaux doit encore surmonter un défi central : rediriger les signaux lumineux microscopiques sur une puce de la même manière que les électrons le sont aujourd’hui, tout en veillant à minimiser les pertes d’intensité du signal. Cela requiert des matériaux capables d’interagir avec la lumière de façon très précise, en la confinant, en la bloquant ou en la guidant.

Bandgaps isotropes, où comment contrôler la lumière dans les circuits photoniques

Au cœur de ce défi se trouve la nécessité de disposer de matériaux présentant un « bandgap isotrope », une propriété qui permet de bloquer la lumière de la même façon dans toutes les directions, ce qui est impossible avec les matériaux optiques actuels. Un bandgap isotrope ne laisse ainsi aucune « fuite directionnelle » et bloque toute la lumière, quelle que soit la direction d’incidence. En électronique, les isolants électriques exploitent des gaps électroniques analogues pour bloquer les électrons. Dans l’optique, un bandgap isotrope permettrait donc de créer des régions d’une structure photonique où la lumière ne peut pas entrer ou s’échapper, une considération essentielle pour la construction de circuits photoniques complexes.

Les quasi-cristaux ont déjà été explorés pour créer de tels bandgaps photoniques. Ces structures se situent entre l’ordre parfait des cristaux et le désordre complet des fluides. Elles affichent une organisation complexe pouvant bloquer certaines ondes. Malgré leur potentiel, les quasi-cristaux présentent cependant souvent des compromis : soit ils bloquent complètement la lumière mais seulement dans certaines directions, soit ils offrent une suppression partielle du signal dans toutes les directions, sans atteindre un véritable bandgap isotrope robuste.

Les gyromorphes : une structure complexe conçue grâce à l’IA

C’est précisément ici que les gyromorphes interviennent comme une innovation clé. Ils possèdent en effet une configuration unique qui leur confère la capacité d’intercepter et bloquer la lumière venant de toutes les directions, sans compromis significatif. Pour visualiser leur architecture, il faut imaginer une forêt dense, où les arbres n’occupent pas un réseau parfaitement régulier comme dans un verger, mais ne sont pas non plus complètement aléatoires comme dans une jungle sauvage. Ils sont distribués de manière à former des motifs complexes et corrélés, qui à grande échelle semblent structurés mais à petite échelle intègrent suffisamment de variation pour amorcer un bandgap optique complet. Cette dualité est ce qui permet aux gyromorphes d’atteindre des performances inaccessibles à d’autres matériaux photoniques connus jusqu’ici. Ils exploitent ce que les chercheurs qualifient de « correlated disorder », un état intermédiaire où certains motifs répétitifs se fondent dans un arrière-plan désordonné mais hautement fonctionnel.

Illustration des propriétés d’un gyromorphe
Illustration des propriétés d’un gyromorphe. En haut à gauche : facteur de structure (organisation spatiale des éléments) ; en haut à droite : fonction de corrélation par paires (permet d’analyser le degré d’ordre et de désordre) ; en bas à gauche : faisceau lumineux polarisé totalement réfléchi par le gyromorphe ; en bas à droite : déplétion de la densité d’états dans le gyromorphe (illustre le bandgap optique) © Martiniani lab, NYU.

Pour produire ces nouveaux matériaux, l’équipe de chercheurs a utilisé des algorithmes sophistiqués pour générer des structures à l’échelle nanométrique. Ces outils permettent en effet d’explorer des espaces structurels immenses, bien au-delà de ce qu’un chercheur humain pourrait concevoir intuitivement, en identifiant des motifs présentant précisément le bon équilibre entre ordre et désordre.

La conception de matériaux par simulation numérique dirigée par algorithmes est un domaine en pleine expansion dans les sciences des matériaux. En exploitant la puissance croissante des simulateurs physiques et des approches d’optimisation basées sur l’intelligence artificielle, les chercheurs sont désormais capables de prédire des structures avec propriétés optiques et électroniques sur mesure avant même qu’elles ne soient synthétisées en laboratoire. Cela pourrait accélérer le développement de technologies photoniques, quantiques ou énergétiques à un rythme sans précédent.

La clé du développement de l’électronique photonique ?

L’avènement des gyromorphes pourrait avoir des impacts profonds, en premier lieu dans le domaine de l’informatique photonique. En fournissant une plateforme matérielle capable de manipuler efficacement la lumière sur une puce, ces matériaux ouvrent la voie au développement de circuits photoniques plus rapides et plus efficaces que les dispositifs électroniques classiques, d’interconnexions optiques internes aux processeurs permettant une réduction de la latence entre les différentes unités de calcul, ou encore de capteurs et dispositifs optiques intégrés dans lesquels la lumière peut être manipulée avec une grande précision (applications dans les télécommunications, les outils de mesure ultra-rapides et les technologies quantiques).

Toutefois, malgré ce potentiel considérable, plusieurs défis demeurent avant que les gyromorphes puissent être intégrés dans des dispositifs commerciaux. Il faudra notamment veiller à pouvoir synthétiser ces matériaux à grande échelle, à pouvoir intégrer ces structures dans des plateformes photoniques compatibles avec les standards industriels et à tester leur robustesse et leur stabilité dans des conditions opérationnelles réelles.

Cette découverte ouvre une nouvelle voie passionnante dans la science des matériaux photoniques, une voie où la frontière entre ordre et désordre n’est pas un obstacle, mais au contraire une ressource exploitable pour atteindre des propriétés optiques exceptionnelles.

RTE alerte sur la surcapacité électrique et appelle à accélérer l’électrification

La France se trouve confrontée à un paradoxe énergétique. Sa production d’électricité bas-carbone atteint des niveaux historiquement élevés, tandis que sa consommation peine à repartir. Ce décalage structurel, mis en évidence par le Bilan prévisionnel 2025-2035 publié par RTE (Réseau de transport d’électricité), place le système électrique français dans une situation de surcapacité appelée à durer plusieurs années. Si elle constitue un atout en matière de sécurité d’approvisionnement et de compétitivité, cette configuration pourrait, si elle se prolonge, fragiliser l’équilibre économique du système et retarder la décarbonation effective de l’économie.

Après plusieurs années marquées par la crise sanitaire puis la crise énergétique européenne, la production d’électricité française a retrouvé un niveau élevé. Le parc nucléaire a recouvré sa pleine capacité opérationnelle, tandis que les filières renouvelables (solaire, éolien et hydraulique) ont poursuivi leur montée en puissance. Rien qu’en 2025, près de 7 GW de nouvelles capacités solaires et éoliennes seront mises en service. Résultat : la production d’électricité bas-carbone croît aujourd’hui plus vite que la demande.

Dans les années 1980 et 1990, la France avait déjà traversé des épisodes de surcapacité à la suite du développement massif de son parc électronucléaire. L’histoire s’était alors révélée à son avantage avec des exportations record, un développement des usages électriques, une modulation du parc nucléaire et la fermeture progressive des centrales thermiques les plus émettrices. Mais le contexte actuel diffère par son urgence climatique et par l’objectif stratégique de décarbonation profonde de l’économie.

Aujourd’hui, malgré ce potentiel, la consommation d’électricité stagne. En cause : les usages industriels ont reculé depuis 2022, les ménages ont modifié leurs comportements durant la crise énergétique, et de nombreux projets industriels ou hydrogène restent encore à l’état de dossier, faute de visibilité économique ou d’avancées réglementaires. Dans le même temps, les investissements dans la production, déjà engagés, continueront d’augmenter l’offre dans les prochaines années.

Les limites économiques de l’abondance électrique

RTE avertit que cette situation de surcapacité ne peut durer. À court terme, elle provoque une chute des prix de marché très favorable aux consommateurs et aux industriels électro-intensifs. Cependant, à moyen terme, elle déséquilibre l’économie du système électrique, avec une érosion des revenus des producteurs, un besoin de modulation accrue du parc nucléaire et la multiplication des épisodes de prix négatifs. Un ralentissement volontaire du développement des filières renouvelables pourrait être envisagé, reconnaît RTE, mais il serait moins efficace économiquement et risquerait d’affaiblir des filières stratégiques avant qu’elles n’aient atteint leur pleine maturité.

Le gestionnaire de réseau identifie une solution plus structurelle et plus cohérente avec les objectifs climatiques : déclencher un mouvement d’électrification rapide du pays. Cela implique de faire basculer vers l’électricité des usages encore massivement dépendants des hydrocarbures, notamment ceux qui concernent les transports, le chauffage, les procédés industriels ou la production d’hydrogène bas-carbone. Une accélération qui permettrait non seulement d’utiliser la production excédentaire, mais aussi de réduire de moitié les importations de combustibles fossiles à l’horizon 2035, soit environ 500 TWh.

Pour la première fois, le rapport chiffre les volumes nécessaires pour engager ce mouvement. Sur les quelque 30 GW de projets industriels, hydrogène ou de datacenters ayant déjà contractualisé leur accès au réseau, RTE estime que la réalisation de 60 % d’entre eux suffirait à remettre le pays sur une trajectoire compatible avec le « Fit for 55 », à savoir réduire les émissions de gaz à effet de serre de 55 % au moins en 2030. Cela impliquerait, d’ici 2030, une augmentation significative de la consommation, avec 113 TWh supplémentaires pour l’industrie, 15 TWh pour les datacenters (contre 5 TWh aujourd’hui) et 15 TWh pour l’hydrogène.

Mais encore faut-il que ces projets voient le jour. RTE plaide pour une transformation de la planification du réseau en priorisant les projets les plus matures dès 2026, en créant des dispositifs de raccordement rapide et en améliorant l’anticipation territoriale des besoins. En parallèle, le pays doit progresser rapidement dans la décarbonation du chauffage et des transports, domaines où l’électrification reste encore en retrait. Le pari est désormais clair : convertir l’abondance électrique en croissance décarbonée, plutôt que de gérer durablement un excédent coûteux.

Photovoltaïque : l’idée brillante d’Arcadis pour des études de faisabilité optimisées

Une initiative Syntec-Ingénierie

Au travers d’une série de capsules vidéo intitulée « L’ingénierie augmentée au service du climat », la fédération professionnelle Syntec-Ingénierie – 400 entreprises adhérentes et 13 délégations régionales – a choisi de mettre en avant quatre initiatives portées par des entreprises du secteur, reposant sur l’utilisation du numérique pour simuler des scénarios, anticiper les impacts environnementaux, et concevoir des bâtiments à l’empreinte carbone réduite. Ceci, en donnant directement la parole à des ingénieur(e)s du secteur du bâtiment, afin d’illustrer le rôle de l’ingénierie pour accélérer la transition écologique et énergétique. Nous avons pu revenir en détail avec les adhérents de la fédération porteurs de ces projets, sur les tenants et aboutissants de leur travail. Pour le quatrième de ces quatre entretiens, rencontre avec Arcadis France.

Fort de plus de vingt années de carrière passées notamment au sein de l’entreprise allemande de génie climatique Transsolar Energietechnik, Arnaud Billard a acquis une importante expérience dans le domaine, notamment, de l’intégration des énergies renouvelables. Dans le cadre des fonctions qu’il occupe depuis 2020 au sein du pôle Bâtiment d’Arcadis France, l’expert a constaté l’hétérogénéité et le cloisonnement des approches mises en œuvre pour mener à bien les études de faisabilité nécessaires à l’implantation de projets solaires photovoltaïques. Pour y remédier, il s’est ainsi lancé l’an dernier, aux côtés de Nicolas Ledoux, alors responsable des activités urbanisme au niveau mondial, et de Camille Kapron, directeur de l’ingénierie et des grands projets, dans le développement d’une solution numérique inédite, baptisée Arca Sun. Arnaud Billard a accepté de revenir pour Techniques de l’Ingénieur sur les origines de ce projet, mais aussi de nous présenter plus en détail cet outil illustrant particulièrement bien la thématique de l’ingénierie augmentée au service du climat.

Techniques de l’Ingénieur : Pouvez-vous, en quelques mots, nous présenter le groupe Arcadis, et Arcadis France en particulier ? Quelles y sont vos principales missions ?

Arnaud Billard, directeur de l’Ingénierie climatique d'Arcadis France
Arnaud Billard a rejoint Arcadis France en 2020 en tant que directeur de l’Ingénierie climatique. Il joue aujourd’hui également un rôle de responsable des solutions sectorielles (domain solutions leader) dans le domaine de la décarbonation des villes et de la résilience des infrastructures. © Arcadis – DR

Arnaud Billard : Arcadis est un groupe mondial d’origine néerlandaise qui emploie environ 37 000 personnes. Il couvre à la fois les champs de l’ingénierie, de l’architecture et de l’urbanisme – le groupe représentant, en termes de revenus, le deuxième cabinet d’architecture et d’urbanisme au monde.

La filiale française du groupe, Arcadis France, compte à ce jour plus de 600 salariés et s’organise autour de trois grands pôles couvrant tous les métiers liés au secteur du bâtiment : le pôle Infrastructures de mobilité ; le pôle Résilience, c’est-à-dire l’environnement (eau, sols, etc.) ; et le pôle Bâtiment, auquel j’appartiens.

Ma première fonction au sein de ce pôle est celle de directeur technique sur l’ingénierie climatique, avec comme principales missions la décarbonation des bâtiments, la réduction des consommations énergétiques, la certification, etc. Je joue aussi, plus largement, un rôle de domain solution leader, au sein du groupe, qui consiste à imaginer des solutions pour décarboner les villes et améliorer la résilience des infrastructures. J’ai notamment un sujet de prédilection : la lutte contre les îlots de chaleur, et le développement de « perles de fraîcheur » à proximité immédiate et aux alentours des bâtiments.

Quel est le constat qui vous a conduit à vous lancer dans le développement d’une solution d’optimisation des études de faisabilité liées aux projets de déploiement de parcs photovoltaïques ?

Tout est parti d’un constat relativement simple : je me suis rendu compte, de par mon point de vue très transversal, que lorsqu’il s’agit de réaliser des études de faisabilité, que ce soit en France, en Europe ou ailleurs dans le monde, le principe est peu ou prou toujours le même, avec, toutefois, des approches concrètes très hétérogènes, chacun travaillant dans son coin avec ses propres outils, sa propre méthodologie. Il m’a donc semblé pertinent de développer une procédure et des outils communs simples et efficaces, à destination de tous les collaborateurs du groupe, capables de nous aider à répondre plus efficacement à des questions qui sont finalement toujours les mêmes. Très schématiquement : quelle quantité de soleil arrive sur une toiture ? Cette toiture peut-elle supporter des panneaux PV ? Comment peut-on organiser le passage des câbles, l’installation des onduleurs et des batteries, etc. ? Et quelle est l’estimation du rapport autoconsommation/injection sur le réseau ?

J’ai donc développé un outil qui permet d’aider l’ingénieur à apporter toutes les réponses à ces questions facilement, et le plus rapidement possible : Arca Sun.

Quels sont les principaux apports d’une solution numérique telle que celle-ci ?

L’outil d’ingénierie augmentée Arca Sun
L’outil d’ingénierie augmentée Arca Sun épaule les ingénieurs d’Arcadis dans la réalisation de leurs études de faisabilité. © Syntec Ingénierie – DR

L’une des forces des outils de calculs sur lesquels repose cette solution est qu’ils permettent de connaître, pour une date et une heure précise, quelle est la part d’autoconsommation et de production photovoltaïque envoyée vers le réseau, et ce, sur les 8 760 heures de l’année. Cela nous permet de faire directement le lien avec les exigences des règlementations RT2012/RE 2020, celles du décret tertiaire, mais aussi celles de la loi Climat et Résilience qui fixe notamment l’obligation de consacrer 30 % d’une toiture[1] à une installation photovoltaïque (ou à la végétalisation, n.d.l.r.) au-delà d’une surface au sol de 500 m2, ainsi que l’obligation d’installer des ombrières photovoltaïques sur 50 % de la surface des parkings de plus de 1 500 m2.

Tout cela découle notamment d’un partenariat technologique privilégié que nous avons noué avec Autodesk, dont nous sommes l’un des plus gros clients, et qui nous fournit ainsi les modèles 3D de tous les bâtiments à l’échelle mondiale à partir d’une simple adresse postale.

Arca Sun nous permet aussi de prendre en compte, le cas échéant, la structure existante sur laquelle est prévue l’implantation du projet solaire, en indiquant notamment si cette structure est capable, ou non, de supporter le poids des équipements, mais aussi, et surtout, de résister à l’arrachement au vent… Si ça n’est pas le cas, nous pouvons alors proposer une mission de conseil en maîtrise d’œuvre de renfort structurel. Nous pouvons aussi, en nous appuyant sur cet outil, intégrer dans nos études des phénomènes atmosphériques tels que l’influence de l’air salin dans le cas de projets situés sur le littoral, le transport aérien de sable dans certaines régions, ou encore la pollution de l’air, notamment en zones urbaines. Tout cela peut, en effet, avoir des conséquences sur les futurs besoins en maintenance, et doit donc être pris en compte dès la phase d’étude de faisabilité.

Enfin, notre outil nous aide aussi à prendre en compte les effets d’îlots de chaleur, ce qui est très important dans un tissu urbain dense, où les panneaux photovoltaïques peuvent, en effet, contribuer à ce phénomène de façon non négligeable – et perdre, au passage, en rendement, au-delà d’un certain seuil de température…

Quels sont justement, très concrètement, les autres intérêts de cette approche d’ingénierie augmentée par le numérique, pour vos clients et vous-mêmes ?

Toutes ces fonctionnalités, que nous ne cessons d’ailleurs de faire évoluer au fil des projets, nous permettent de veiller à la bonne insertion du photovoltaïque dans son environnement, ce qui est capital : pour bien faire, il faut prendre en compte toutes les conséquences et les interactions d’une installation. Arca Sun nous permet donc d’apporter à nos clients des réponses claires et personnalisées à plusieurs questions : quel est l’intérêt pour moi d’installer des panneaux PV ? Est-ce possible, oui ou non ? Quel est le temps de retour sur investissement ? Et quel est l’intérêt en matière de réduction d’émissions de CO2 ? Entre autres aspects…

Arca Sun est basé, notamment, sur un ensemble de feuilles de calcul, qui se nourrissent elles-mêmes des résultats fournis par des outils de simulation, ainsi que de données techniques et météo – irradiation solaire, température de l’air et des surfaces, humidité, vent… Nous prenons donc en compte, dès à présent, la progressive augmentation des températures liée au changement climatique. Ce phénomène va en effet avoir des conséquences, notamment sur la baisse de rendement des modules PV. Nous pouvons donc dès aujourd’hui anticiper les performances des installations dans un environnement futur.

Nous utilisons Arca Sun depuis septembre 2024. Nous avons déjà mené une dizaine de projets à l’aide de cet outil, qui est adapté à tout type de projet : datacenter, parking, logement, bâtiment tertiaire, ou encore commerce, pour ne citer que quelques exemples. Et ce, que ce soit pour des projets d’implantation de panneaux en façade, en ombrière ou au sol, et pour toutes les technologies de modules solaires photovoltaïques. Nous avons aussi constitué une base de données à partir de nos projets antérieurs, qui nous permet de capitaliser sur notre expérience passée, en réexploitant des données sur de nouveaux projets aux caractéristiques similaires.

Sans remplacer le travail de l’ingénieur, ces solutions d’ingénierie augmentée par le numérique nous aident donc à apporter plus rapidement encore des réponses à nos clients, et donc à agir toujours plus efficacement au service du climat.


[1] 40 % à compter du 1er juillet 2026, puis 50 % à compter du 1er juillet 2027.

Matthieu Deboeuf-Rouchon : « L’intégration de l’IA va devenir de plus en plus diffuse »

Matthieu Deboeuf-Rouchon
© Capgemini

Responsable du centre d’excellence Innovation de Capgemini Engineering en France, Matthieu Deboeuf-Rouchon est un expert reconnu des sujets autour de l’innovation et de la transformation digitale. En 2008, il fonde son cabinet de conseil en Transformation Digitale et Innovation. En 2017, il rejoint les équipes de Capgemini Engineering. Il est co-auteur du « Guide de Survie du Consumer Electronics Show : comment organiser, vivre & optimiser sa visite du plus grand salon mondial de la Tech ! » dont la dernière édition vient de paraître. Passionné par l’impact des technologies sur la société, les entreprises et les êtres humains, il co-anime le podcast Innovation & Prospective Talk.

Techniques de l’Ingénieur : L’IA reste-t-elle toujours omniprésente ?

Matthieu Deboeuf-Rouchon : Oui, en allant plus loin dans l’intégration. Mais cette intégration est maintenant diffuse, c’est-à-dire que l’IA est très présente sans pour autant être visible. De plus, je remarque qu’elle agit comme un copilote dans notre vie professionnelle et personnelle. Elle va orchestrer les process au sein des entreprises, mais aussi dans la société et à notre niveau en tant qu’individu. C’est vraiment cette intégration que l’on voit au salon, avec une multiplication de solutions immersives, qui procurent des sensations grâce aux retours haptiques intégrés à des gants qui permettent de ressentir des sensations précises et réalistes.

Et cette intégration diffuse va jusqu’à la prédiction ?

En effet, l’IA va déduire le sens de ce que l’on veut faire et elle va agir juste avant nous pour donner plus de sens. Elle va mieux anticiper les facteurs humains. Il s’agira d’être un petit peu moins dans la prédiction que dans l’aspect proactif. C’est le cas notamment dans la santé. L’IA est déjà exploitée pour le diabète et le cholestérol. Toutefois, la prochaine étape consistera à améliorer la détection précoce des diverses maladies, avec un accent particulier sur le cancer cette année. Avant, on se concentrait principalement sur les traitements et comment « gérer » les maladies chroniques. Demain, les médecins utiliseront l’IA pour savoir si une tumeur en particulier annonce une maladie grave. Nous sommes plus en amont.

Cette capacité à prédire la dangerosité d’une tumeur peut-elle aussi s’appliquer aux risques industriels ?

Totalement. L’IA étant capable de moins consommer parce qu’elle est de plus en plus embarquée dans les équipements industriels, elle va aussi mieux comprendre son environnement, être dans un traitement vertical qui sera plus efficace. La détection des anomalies sera considérablement améliorée. Lors d’une maintenance, un opérateur sera à la fois mieux guidé et il ressentira mieux les choses grâce à des gants spéciaux.

À propos de la vidéo, AWOL Vision a dévoilé Aetherion, une nouvelle gamme de vidéoprojecteurs ultra-courte focale (UST). C’est la fin du téléviseur de papa ?

Je ne suis pas convaincu que ce « meuble » va disparaître dans les prochaines années. Cependant, cette démocratisation des courtes focales va faciliter une intégration dans différents dispositifs de projection, qui offriront de nouvelles expériences à venir. Je note néanmoins une transformation des écrans au CES. Ils deviennent plus immersifs et plus transparents. Autre évolution, ils se « contextualisent » en fonction de l’environnement (passagers et conducteurs dans les voitures, à domicile, au travail…). À terme, nous consulterons du contenu audio-vidéo où on veut, sur un mur ou dans une paire de lunettes.

L’informatique est aussi présente avec le lancement d’une nouvelle ère de performances pour nos ordinateurs. Intel, Qualcomm et AMD montrent leurs muscles. Comme le téléviseur, l’ordinateur classique n’a pas encore dit son dernier mot ?

Il demeure effectivement indispensable au travail, puisque les autres interfaces ne sont pas adaptées. Nous ne pouvons pas travailler avec un casque de réalité virtuelle. Si Apple ne propose toujours pas d’interface tactile sur les écrans de ses ordinateurs fixes et portables, c’est que toucher en permanence un écran avec ses doigts, c’est fatigant. Concernant l’informatique, il y a un enjeu de souveraineté à propos des semi-conducteurs et des métaux rares. La miniaturisation, l’augmentation de la capacité de calcul, l’intégration dans les puces neuromorphiques de tous les agents font augmenter la demande. Rien de ce qui se montre au CES n’est possible sans ces métaux rares.

Pour terminer, une innovation vous a-t-elle marqué en particulier ?

Il y en a plusieurs, mais j’ai été particulièrement impressionné par la société Veintree. Sous la direction du Dr. Christophe Bron, elle a développé un système d’authentification basé sur l’analyse du tissu veineux des mains. En captant et en analysant le réseau veineux des mains, les algorithmes Veintree génèrent une clé chiffrée unique. Résultat : une protection inattaquable. On passe la main au-dessus de son smartphone et il se déverrouille automatiquement. Ce système d’authentification non nominative protège les données personnelles et la vie privée des utilisateurs, et permet aussi l’usage de la blockchain quand cela est nécessaire.

La cybersécurité est-elle un échec ?

Il ne se passe pas une semaine sans qu’on apprenne dans la presse que telle ou telle entreprise a été victime d’une infiltration de son réseau informatique. Au total, ce sont plusieurs centaines de sociétés et plus de 1 000 collectivités qui ont vu leurs données exfiltrées ou leur activité bloquée durant plusieurs jours comme La Poste fin décembre à cause d’une attaque par déni de service (ou DoS pour Denial of Service).

Le plus désespérant est que, dans la majorité des cas, les scenarii sont toujours les mêmes. Un salarié a cliqué sur une pièce jointe infectée ou a donné son identifiant/mot de passe sous différents prétextes (blocage d’un compte, maintenance…). En effet, encore aujourd’hui, la majorité des cyberattaques commencent par une attaque de phishing.

La mauvaise gestion des mises à jour des logiciels, un contrôle approximatif des différents accès des salariés, des sauvegardes pas assez sécurisées sont également exploités par les pirates, qui ne sont pas tous des Russes ou des Chinois. Des adolescents français ont été arrêtés par avoir infiltré le ministère de l’Intérieur et Free notamment.

Et le plus rageant est que certaines entités n’ont pas appris des cyberattaques dont elles ont été victimes ! C’est le cas en particulier de France Travail, anciennement Pôle emploi. L’organisme public a été piraté quatre fois depuis 2024 ! Les fuites de données massives en 2024 et 2025 concernent des dizaines de millions de personnes.

Les données personnelles en question sont le nom et prénom, date de naissance, identifiant France Travail, adresses électroniques et postales ainsi que les numéros de téléphone. Les mots de passe et les coordonnées bancaires ne seraient pas concernés. Mais les données personnelles peuvent être utilisées par des arnaqueurs pour se faire passer pour des services légitimes, et soutirer davantage d’informations.

Des fuites de données sensibles qui devraient être sécurisées…

Toutes ces attaques confirment que la cybersécurité est un échec. À propos de l’infiltration du réseau informatique de son ministère, le ministre de l’Intérieur, Laurent Nuñez, a déploré une faille de sécurité rendue possible par un manque « d’hygiène numérique » et dénoncé « des imprudences ».

Les entreprises considèrent toujours la protection des données comme un « centre de coûts » et pas comme un investissement. Résultat, elles multiplient les achats de logiciels de sécurité en pensant être parfaitement sécurisées. Mais elles oublient trois points majeurs.

Premièrement, un logiciel de sécurité reste un programme informatique avec… des failles. Deuxièmement, ces logiciels de sécurité doivent être correctement configurés et gérés pour être efficaces. Enfin, la cybersécurité doit être globale et englober l’aspect humain (par des sensibilisations appropriées) et les processus métier internes et externes (les partenaires sont aussi des maillons faibles potentiels).

Début 2026, un pirate a mis en vente environ 340 Go de données internes concernant EDF, Eiffage, Bouygues, Engie, Renault, l’Armée de l’Air, la FFT et plusieurs entités publiques. Les données comprennent des archives clients présentées comme… chiffrées (ou cryptées dans le langage commun), des documents industriels et techniques, des fichiers administratifs, etc.

Ces données proviendraient d’un piratage ayant affecté AXYON, une entreprise d’ingénierie, d’expertise technique et de conseils, spécialisée dans l’industrie, la construction et les expertises innovantes.

Or, cette entreprise a pour clients des entités sensibles : EDF (centrales nucléaires et sites sensibles), Eiffage (construction, énergie, génie civil, rail), Bouygues (construction, immobilier, BTP), l’Armée de l’Air, des collectivités territoriales et filiales publiques…

Cette année noire est aussi un échec pour la CNIL qui n’a pas assez sanctionné les entreprises. Combien d’entre elles appliquent correctement les mesures du RGPD exécutoire depuis 2018 ?

Enfin, les COMEX et Directions ont échoué en n’investissant pas assez dans les budgets de cybersécurité (logiciels, experts…) et en appliquant une gestion de crise ridicule.

Elle consiste dans la plupart des cas à se dédouaner et à recommander aux personnes concernées de faire désormais attention…