Haithem Gardabou : « En matière de cybersécurité, les industriels sont en train de rattraper leur retard »

Après avoir obtenu un diplôme d’ingénieur (Administrateur réseaux et systèmes) à l’Institut National des Sciences Appliquées et de Technologies INSA, Haithem Gardabou a multiplié les certifications : Certified Information Systems Security Professional (CISSP), ISO 27001 Lead Implementer. Il est intervenu comme consultant « Security IT » chez EDF, Bouygues Telecom avant de rejoindre IBM en 2019 où il conseille notamment les Comités de Direction : stratégies, business cases, remontée de risques et plans de mitigations…

Techniques de l’Ingénieur : Pourquoi les réseaux des industriels sont-ils un maillon faible ?

Haithem Gardabou, IBM France Sécurité, cyberstratégie
Haithem Gardabou, Managing consultant en cyberstratégie, IBM France Sécurité. Crédit : @IBM

Haithem Gardabou : Auparavant, les réseaux industriels étaient des systèmes et des équipements figés. Ils n’étaient pas changés pendant des années, voire des décennies. Ces équipements étaient dans une sorte de « boîte noire » : ils étaient bien isolés des autres réseaux et seul le personnel des opérations pouvait y accéder. Aujourd’hui, cette convergence entre l’IT (Information Technology) et l’OT (Operational Technology), la connexion des réseaux informatiques (analyse de données, intelligence des données, supervision centralisée…) a ouvert cette « boîte noire », ce qui a augmenté la surface d’attaque des industriels.

Comment ont réagi les industriels ?

Les fabricants d’automates et les industriels sont en train de rattraper leur retard. Nous constatons davantage de maturité chez nos clients, même s’ils ont encore des idées reçues sur leurs systèmes : leur chaîne de production n’est pas connectée à Internet (sous-entendu, les pirates ne pourraient pas accéder à leurs réseaux), leur usine est petite (sous-entendu les attaquants ne vont pas les cibler), leurs solutions industrielles sont très complexes avec des protocoles propriétaires (sous-entendu, les attaquants ne pourraient pas comprendre comment ils fonctionnent).

Mais avec ces idées reçues, les industriels oublient que les attaquants ciblent de petites entités, car elles sont moins bien sécurisées que les grands comptes. Différentes attaques ont démontré que les pirates avaient infiltré les gros industriels par rebond, c’est-à-dire en commençant par infiltrer le réseau de leurs sous-traitants.

Quelle est la position des fabricants d’automates ?

Les principaux fournisseurs publient des guides sur la cybersécurité et incitent leurs clients à suivre leurs recommandations, que ce soit en amont (avant la mise en place d’automates) ou en aval, lors des différentes interventions (notamment lors des maintenances). Mais dans les environnements réglementés comme la santé et la pharmacie, la modification de ces systèmes (par exemple, le changement du mot de passe par défaut) par les industriels eux-mêmes peut entraîner la perte de différentes certifications et de la garantie de ces machines. Pour répondre au contexte actuel, il convient donc aux fabricants de modifier certains points critiques (mot de passe ou compte par défaut par exemple) ou de recommander de changer les équipements arrivant en fin de vie, car ils seraient considérés comme des matériels défectueux.

Quelles sont les bonnes pratiques à mettre en place ?

S’il existe des équipements avec des protocoles vulnérables et qui engendrent un impact critique, il faut commencer par les isoler physiquement et logiquement. C’est indispensable, mais les dernières attaques ont montré que cet isolement n’était pas correctement réalisé chez toutes les entreprises. Les industriels doivent aussi déployer des solutions plus innovantes et performantes. Une fois déployées sur site, on leur laisse un peu de temps pour que leurs moteurs d’intelligence artificielle et de connaissance maîtrisent précisément l’environnement et les différentes opérations. Une fois le contexte maîtrisé, ces systèmes passent en mode détection. Dès qu’un comportement anormal (un changement de process un samedi soir, une modification de la température enregistrée par un capteur…) est repéré au niveau opérationnel, une alerte est envoyée au système central pour lancer des investigations. La partie cybersécurité de ces solutions va alors scanner tous les équipements et s’appuyer sur une base de connaissance des failles. Dès qu’une tentative d’intrusion exploitant une vulnérabilité a été constatée, elle bloque l’attaque et lève l’alerte au centre des opérations. Cette méthode, proactive et réactive, permet de conserver des solutions vulnérables tout en gardant la maîtrise de l’environnement, car leur changement serait complexe et long. Ce n’est pas comme si on changeait un simple ordinateur portable.

6e webinaire sur l’hydrométallurgie du GDR Prométhée, le jeudi 8 décembre

Le GDR Prométhée a pour vocation « d’offrir un cadre favorable à la réunion d’expertises transversales autour de l’hydrométallurgie des minerais et des matières premières primaires et secondaires de la mine urbaine. »

Au-delà des considérations environnementales, il s’agit aussi d’assurer un approvisionnement sécurisé en métaux stratégiques. Cette sécurisation, considérée comme cruciale pour la France et l’Europe, nécessite donc de chercher à valoriser au maximum les métaux stratégiques¹.

L’hydrométallurgie en quelques mots

Contrairement à la pyrométallurgie, qui est énergivore et polluante, l’hydrométallurgie est une méthode extractive particulièrement adaptée aux défis actuels, car elle permet :

  • de traiter des minerais à faible teneur, notamment les déchets ou les minerais de terres rares ;
  • un meilleur contrôle des coproduits ;
  • de développer des techniques à plus faible impact environnemental ;
  • de travailler à faible température, ce qui économise de l’énergie.

Si vous souhaitez approfondir vos connaissances sur les procédés d’hydrométallurgie, sachez que les interventions vidéo des webinaires précédents sont librement mises à disposition sur le site du GDR Prométhée.

Qu’est-ce que le GDR Prométhée ?

Le 1er janvier 2016, le Groupement de Recherche Prométhée est créé, dans le but de contribuer à la structuration de la recherche française sur les procédés hydrométallurgiques.

Ce GDR dédié aux Procédés Hydrométallurgiques pour la Gestion Intégrée des Ressources Primaires et Secondaires regroupe 140 chercheurs et chercheuses issus de 27 laboratoires du CNRS, du BRGM, du CEA et de l’IFPEN. Il est en partie financé par le CNRS, via l’Institut de Chimie (INC).

Webinaire du 8 décembre : un programme assez dense

Ce webinaire débutera le jeudi 8 décembre 2022 à 14h00 avec, en guise d’introduction, une intervention de Laurent Cassayre, du Laboratoire de Génie Chimique (LGC) de Toulouse et de Jean-Pierre Simonin du Laboratoire PHENIX de Paris.

  • À 14h15, Michel Meyer, de l’Institut de Chimie Moléculaire de l’Université de Bourgogne (ICMUB) à Dijon, abordera la spéciation de complexes métalliques en solution aqueuse.
  • À 15h00, Yohann Cartigny, du Laboratoire Sciences et Méthodes Séparatives (SMS) de Rouen, prendra le relais pour expliquer la construction expérimentale de diagrammes de phases S-L.
  • Vers 15h45, il laissera ensuite la parole à Arnault Lassin et Laurent André du Bureau de Recherches Géologiques et Minières (BRGM) d’Orléans. Ils parleront de l’élaboration de bases de données thermodynamiques pour des modèles de solutions électrolytiques.
  • Enfin, la session se terminera à 16h30 par une séance de questions, suivie par une conclusion.

Si vous souhaitez y participer, sachez que si l’inscription est gratuite, elle est néanmoins obligatoire. Pour vous inscrire, il vous suffit de cliquer sur le lien Zoom suivant.

Toutes les infos sont disponibles sur le site du GDR Prométhée.


¹ Le groupe de travail n°3 du GDR en a identifié plusieurs : cobalt, nickel, terres rares, palladium, platine, niobium, tantale.

Les réseaux industriels sont confrontés à de multiples attaques et… contraintes

En juin 2016, Saint-Gobain est touché par NotPetya, un ransomware qui profitait d’une faille dans Windows. Lancée par le groupe de pirates Shadow Brokers, cette cyberattaque coûtera environ 250 millions d’euros au géant ! L’opérateur télécom espagnol Telefonica et Renault en seront également victimes.

Trois ans plus tard, Norsk Hydro, un des principaux producteurs d’aluminium au monde, est impacté par une attaque de ransomware. Le groupe avait été contraint de fermer de nombreuses usines afin d’éviter la propagation du logiciel malveillant à l’ensemble de ses sites industriels.

L’année 2021 a été particulièrement dure pour le secteur de l’agroalimentaire français. Lactalis, le producteur de champagne français Laurent-Perrier et le groupe Avril (connu pour ses marques Lesieur, Matines…) auront été victimes du même genre de code malveillant. La même année, l’activité de la filiale américaine du géant brésilien de la viande JBS est bloquée par un code malveillant. L’entreprise aura été contrainte de stopper ses activités aux États-Unis, au Canada et en Australie. Quelque temps plus tard, la société révélera avoir payé une rançon de 11 millions de dollars pour récupérer l’accès à ses données.

Actions de sabotage

Ces quelques exemples confirment qu’aucun secteur industriel n’est épargné et que ces menaces remontent déjà à plusieurs années. Mais la situation est devenue très complexe et risquée pour les industriels.

« Nous trouvons de plus en plus de techniques et d’outils tout prêts avec de la documentation sur internet. D’années en année, on rehausse le niveau des personnes malveillantes qui peuvent attaquer des systèmes de plus en plus complexes », constate Renaud Lifchitz, Directeur Scientifique chez Holiseum, une entreprise française spécialisée dans la cybersécurité des infrastructures critiques et industrielles.

Même si les guerres conventionnelles existent encore, des opérations de cyberguerre visant des réseaux industriels sont également menées par des États. Des sabotages entraînant des coupures massives d’électricité ont ainsi été menés en Ukraine.

Pour les industriels, la situation est très difficile à gérer. Les réseaux deviennent de plus en plus complexes et ils sont connectés entre eux. Or, les interconnexions entre univers IT (Information Technology) et OT (Operational Technology) représentent dorénavant un maillon faible de la sécurité.

Prenons l’exemple d’un ERP (Entreprise Resource Planning). Pour centraliser l’ensemble des outils nécessaires à la gestion d’une entreprise, ce logiciel est donc connecté à la chaîne de production. Une faille de sécurité au niveau de ce programme peut être exploitée par un cybercriminel. En infiltrant tout le réseau informatique, il peut récupérer des données sensibles ou les chiffrer (dans le langage courant, on parle plutôt de crypter) pour exiger une rançon (attaque de type ransomware ou rançongiciel).

Liaisons dangereuses

Outre ces interconnexions dangereuses, il y a une inertie générale, que ce soit au niveau de la mise à jour des systèmes et au niveau de la sécurisation de systèmes eux-mêmes, car « la priorité des industriels est la disponibilité de leur outil de production au détriment de la confidentialité ou de l’intégrité des données. Ils ne veulent pas que leur activité soit interrompue. Tout arrêt ou transformation/amélioration du système informatique par de nouveaux programmes ou processus est considéré comme une perte d’argent », souligne Renaud Lifchitz.

Or, beaucoup de systèmes d’exploitation installés dans les usines sont obsolètes. Il n’est pas rare de voir des ordinateurs fonctionnant sous Windows 95, 98, Millenium et pour lesquels Microsoft n’assure plus aucun support (mises à jour, publication et correctifs de sécurité…) depuis des années !

Autre écueil, les fabricants d’automates ne garantissent un support que si leurs clients laissent en l’état la configuration et, en particulier, le mot de passe par défaut. « Cette pratique est entièrement assumée par les constructeurs, car ces mots de passe sont utilisés pour l’administration et la maintenance. Dans le contrat de prestation, il est d’ailleurs stipulé que leur modification entraîne la rupture du support », précise Renaud Lifchitz.

Dans ce contexte, les industriels doivent mettre en place des procédures adaptées pour limiter les risques d’infection virale. Étant donné qu’il n’est pas possible de modifier la configuration des machines, « la seule parade est d’isoler physiquement les réseaux et surtout de ne pas les connecter à l’internet ou, si c’est le cas, de passer par des couches fonctionnelles (supervision, management, opérations…) intermédiaires. Une isolation périmétrique du réseau est indispensable afin qu’il n’y ait pas d’attaquant dans le même périmètre », explique Renaud Lifchitz.

Pour appliquer ces règles essentielles, il est nécessaire de respecter la norme ISO 62443 qui définit la séparation en couche fonctionnelle dans le réseau industriel. Mais elle n’est pas systématiquement appliquée par les industriels…

Un projet industriel conjoint pour développer des alternatives renouvelables et biosourcées

La biomasse lignocellulosique est un trésor encore peu exploité qui permet d’obtenir des combustibles, des sucres, des polymères, des cosmétiques, mais aussi des protéines pour l’alimentation et de nombreuses matières premières servant dans le domaine de la construction ou de l’ingénierie.

bioraffinage, ultrasons, Bio-Sep
Le procédé de bioraffinage par ultrasons de Bio-Sep convertit les sous-produits de la sylviculture en produits chimiques (crédit : Bio-Sep Ltd)

La start-up anglaise Bio-Sep, fondée en 2010, a mis au point un procédé unique de bioraffinage. Par ce procédé, il est ainsi possible de transformer tous types de biomasses lignocellulosiques (bois durs et tendres, pailles, bagasse de canne à sucre, plantes herbacées ou ligneuses) en cellulose, en lignine et en sucres, de manière plus économique.

Bio-Sep est un spécialiste du bioraffinage par ultrasons

Le procédé Bio-Sep se démarque des autres procédés de bioraffinage par une consommation d’énergie réduite, l’utilisation de solvants organiques récupérables et la génération d’une faible quantité de déchets.

En effet, le procédé de bioraffinage développé et breveté par Bio-Sep a la particularité d’utiliser les ultrasons pour briser les liaisons chimiques. Comme il fonctionne à basse température et à basse pression et que les temps de cycles sont réduits, il a notamment l’avantage de consommer peu d’énergie.

Par ailleurs, comme les conditions de traitement (température et pression notamment) sont douces, cela permet de ne pas décomposer les produits obtenus et de ne pas altérer leur qualité.

  • Les sucres de l’hémicellulose sont récupérés sans hydrolyse et sont de haute qualité.
  • La lignine est récupérée sans dépolymérisation ou sulfonation importante.
  • La cellulose obtenue n’est pas endommagée.

Un projet industriel conjoint avec l’iCAST et le NCC

Ce procédé ouvre de nouvelles possibilités intéressantes pour la lignine non sulfonée, un produit qui a suscité de l’intérêt en raison de son potentiel de conversion en produits à très haute valeur ajoutée, mais qui n’est actuellement pas disponible à grande échelle.

Afin d’explorer au maximum le potentiel que représente ce procédé, Bio-Sep vient de lancer un projet industriel conjoint avec l’Innovation Centre for Applied Sustainable Technologies (iCAST), un centre de R&D britannique qui a pour vocation d’accompagner les stratégies d’innovation des entreprises travaillant dans le domaine de la croissance verte.

Dans un communiqué de presse, le Docteur Andrew West, chimiste en chef, est enthousiaste : « Ce projet de R&D interdisciplinaire nous permettra de développer et de démontrer les applications potentielles de notre lignine non sulfonée et de notre procédé de bioraffinage. Nous sommes très impatients de travailler avec des partenaires de valeur au sein d’iCAST, et de bénéficier de leur expertise mondiale et de leur connaissance approfondie de la chimie des matériaux biosourcés et de la fabrication des composites. »

Par ailleurs, l’université de Bath et le National Composites Centre (NCC) font aussi partie de ce projet, dont l’objectif est de tester de manière approfondie les propriétés et les performances des produits, à la fois en tant que composants de composites biosourcés et en tant qu’adjuvants du ciment.

Tim Young, responsable du développement durable au National Composites Centre, a ainsi déclaré : « Notre participation au projet Bio-Sep nous permettra d’évaluer l’adéquation d’un matériau composite très innovant et à faible teneur en carbone. L’équipe du NCC est impatiente d’évaluer la faisabilité de l’utilisation du matériau dans des applications industrielles en utilisant notre expertise en matière de conception, de fabrication et d’évaluation de la qualité, ainsi que notre réseau de clients, afin de faciliter la mise sur le marché du matériau.

Nous sommes ravis de soutenir Bio-Sep dans son offre passionnante de durabilité pour le marché des composites, et de faire partie d’un consortium de partenaires qui mettent en commun leur expertise et leurs connaissances dans ce domaine spécialisé en pleine expansion. »

Des virus de plus en plus sophistiqués

1983 a vu la création par Fred Cohen – considéré comme l’un des pères de la virologie grâce à ses travaux menés dans les années 1980 lorsqu’il était étudiant à l’université de Californie[1] – d’un des premiers virus, lesquels se comptent désormais par milliers.

Aujourd’hui, la diversité des programmes malicieux a obligé les spécialistes à parler de « codes malveillants » (ou malwares) plutôt que de virus. La volonté des pirates a aussi évolué. L’appât du gain est devenu leur principale motivation. Pour mener à bien leur forfait, ils disposent dorénavant d’une palette de programmes malveillants très variée : virus, vers, chevaux de Troie…

Ils diffèrent sur de nombreux points, tels que le vecteur d’infection, la réplication, la distribution, la propagation et le contrôle de l’attaquant. D’un point de vue technique, il est également possible de différencier les composants en fonction de leurs capacités :

  • charges utiles : le virus en lui-même ;
  • droppers : extraction de fichiers du réseau informatique de l’entreprise ciblée ;
  • backdoors : « porte dérobée » dans un logiciel ou un matériel permettant d’accéder au réseau informatique ;
  • stealer : cheval de Troie (ou trojan horse) qui collecte des informations, principalement de connexion (identifiant, mots de passe) ;
  • packers : outil chiffrant, compressant ou modifiant le format d’un code malveillant pour le faire ressembler à un fichier anodin… ;
  • wiper : un logiciel malveillant conçu pour endommager le système d’exploitation d’un ordinateur ou d’une machine en détruisant de façon irrévocable tous les fichiers.

Les wipers n’ont pas beaucoup évolué depuis que le virus « Shamoon » avait paralysé quelque 30 000 ordinateurs et serveurs chez Saudi Aramco il y a plus de dix ans. Mais différentes études ont constaté un regain d’intérêt pour ce type de code malveillant dont il existe maintenant une vingtaine de variantes.

Industriels : cibles de certains pays

Cette année, des activistes et les groupes travaillant pour des États ont déployé de très nombreux wipers (appelés notamment WhisperGate et HermeticWiper) durant des cyberattaques. Principale cible, l’Ukraine avant que l’invasion du pays par la Russie commence en février.

Pour que les différents maillons d’un code malveillant restent discrets, le développement des composants requiert des expertises spécifiques et un développement continu pour s’adapter aux évolutions des environnements informatiques des victimes. Ces codes sont vendus, partagés et réaffectés, ce qui complique la tâche des experts en cybersécurité et des forces de l’ordre. Il est donc très difficile d’identifier correctement les acteurs de la menace impliqués dans une campagne de logiciels malveillants.

Les réseaux des industriels n’échappent pas à cette évolution de la menace. En avril dernier, le gouvernement américain a tiré la sonnette d’alarme après avoir découvert de nouveaux outils personnalisés capables de compromettre et de perturber entièrement des systèmes et des serveurs ICS/SCADA (Supervisory Control And Data Acquisition ou Système de contrôle et d’acquisition de données). Grâce aux systèmes SCADA, les organisations peuvent contrôler leurs processus industriels soit sur place, soit à distance, et interagir directement avec les équipements, tels que les moteurs, les pompes et les capteurs.

L’alerte conjointe du département de l’énergie, de la NSA et du FBI portait sur des virus développés précisément pour causer des dommages importants aux automates de Schneider Electric et d’OMRON Corp.

« En compromettant et en maintenant un accès complet au système des dispositifs ICS/SCADA, les acteurs malveillants pourraient élever leurs privilèges, se déplacer dans un environnement industriel et perturber les dispositifs ou fonctions critiques », selon l’avis des services américains.

Une preuve supplémentaire que les industriels sont devenus des cibles prioritaires pour certains États…


[1] University of Southern California’s School of Engineering (nom actuel : Viterbi School of Engineering)

Les solutions de financement spécialisées : un catalyseur de l’investissement pour l’industrie manufacturière ?

On pourrait craindre que les objectifs de développement durable, ou de décarbonation soient relégués au second plan, faute de pouvoir investir. Selon Siemens, il ne faut pas craindre le pire, car investir dans la transition énergétique et le développement durable représente aussi des avantages commerciaux importants pour les industriels.

Une conjoncture compliquée pour les industriels

Si cette transition est absolument nécessaire, pour rendre l’industrie « plus durable », la volatilité actuelle des marchés et l’incertitude économique sont souvent des obstacles à l’investissement. Il est vrai que depuis la pandémie de COVID-19, les industriels sont en permanence confrontés à de nouvelles difficultés.

  • L’approvisionnement en pétrole et en gaz est gravement perturbé, ce qui impacte autant les prix de l’énergie que la fabrication des produits dérivés du pétrole (plastiques, produits chimiques, etc.).
  • Le coût des matières premières et les frais d’expédition augmentent.
  • Les taux d’intérêt sont à la hausse, notamment en raison de la pression inflationniste.
  • Les tensions géopolitiques perturbent les chaînes d’approvisionnement déjà fragilisées par le COVID-19.
  • Les chaînes d’approvisionnement se réorganisent et de nouvelles sources et voies d’approvisionnement devront être trouvées, en particulier pour certaines matières premières ou certains produits.

Un financement intelligent peut aider à atteindre les objectifs de durabilité

L’étude conduite par Siemens Financial Services (SFS) montre comment le financement intelligent permet d’investir dans des technologies durables, qui réduisent les déchets, minimisent la consommation de ressources et d’énergie, améliorent la productivité, utilisent moins de matières premières, etc.

Par ailleurs, elle met en avant 4 leviers permettant d’aller vers plus de « durabilité » avec la finance intelligente :

  1. favoriser l’investissement dans les technologies durables, en harmonisant les modalités de financement souples ;
  2. améliorer la gestion de la trésorerie, par des programmes de financement adaptés aux besoins de trésorerie de chaque fabricant ;
  3. rendre la transition financièrement viable, en lissant les modalités pour gérer les transitions onéreuses d’un environnement de production à un autre ;
  4. aider les fournisseurs de technologies durables à assister leurs clients, en intégrant la finance intelligente en tant que partie d’une proposition globale pour faciliter l’investissement du client dans les meilleures solutions durables possibles.

L’exemple Energy-as-a-service

Le concept d’énergie en tant que service permet un financement à budget neutre, voire positif, de la transformation énergétique. Selon SFS, cette technique de financement intelligent permet au fabricant de compenser les économies d’énergie pour financer la solution ou l’infrastructure nécessaire.

Il s’agit donc d’une option de financement avec lequel l’industriel paye pour avoir des résultats : il effectue un paiement régulier (mensuel ou trimestriel) en fonction des économies réalisées, ce qui produit un avantage opérationnel net.

Selon SFS, les principaux fabricants déploient déjà des financements intelligents de ce type auprès de fournisseurs spécialisés afin d’investir dans des technologies durables tout en conservant une certaine souplesse commerciale.

Hectar veut attirer des « super-entrepreneurs » vers l’agriculture

Situé dans le Parc Naturel Régional de la Haute Vallée de Chevreuse, le campus agricole Hectar réunit, dans un écosystème unique de 600 hectares, 300 hectares d’expérimentation en agriculture régénératrice pour préserver les sols agricoles, et un accélérateur de start-up. « L’agriculture régénératrice part du principe qu’il faut prendre soin de nos sols pour qu’on puisse continuer à se nourrir sainement », a expliqué Audrey Bourolleau, fondatrice de l’association Hectar, lors de l’Université de la Terre le 25 novembre à l’Unesco.

« 95 % de ce que nous mangeons provient des sols agricoles, rappelle Audrey Bourolleau. La moitié de notre territoire sont des terres agricoles, mais on a 25 % de nos sols en France qui souffrent. » Alors, l’entrepreneure souhaite profiter du renouvellement des générations pour régénérer les sols et attirer de nouveaux profils vers l’agriculteur. « On doit attirer des talents parce qu’on va avoir 160 000 fermes à reprendre dans les 5 ans en France », prévient-elle. Hectar se présente ainsi comme « créateur de solutions pour la transition agricole ».

Attirer des entrepreneurs vers l’agriculture

Face à ce défi considérable, Audrey Bourolleau souhaite attirer des « super-entrepreneurs ». « On part du principe que l’agriculteur est un super-entrepreneur, un entrepreneur du vivant », explique-t-elle. « Aujourd’hui, on va passer d’un modèle historique de transmission familiale de nos fermes à un modèle où il faut reprendre du foncier, ou investir dans la terre », poursuit-elle.

Les nouveaux agriculteurs vont aussi devoir diversifier leurs activités. « Créer de la valeur, c’est peut-être transformer des produits sur sa ferme, faire de la vente directe faire de l’agrotourisme, faire des énergies vertes », énumère-t-elle. « 70 % de nos fermes en France vont produire des énergies d’ici 2050 », prédit-elle. Et pour faciliter le quotidien des agriculteurs, Hectar propose un programme de 3 mois dédié à l’accélération des startups de l’agritech et de la foodtech en partenariat avec l’incubateur HEC Paris.

Audrey Bourolleau s’est confrontée à de lourdes résistances dans son projet au service de la transition agricole. « J’ai eu une très forte résistance des syndicats en place qui disent qu’Hectar détourne les agriculteurs de leur vocation nourricière », raconte-t-elle. Mais elle l’assure : « Factuellement, un nouvel agriculteur installé dans notre pays ne peut pas vivre sur le modèle économique actuel, il n’y a pas assez de valeur. »

Financer la transition agricole

Hectar cherche ainsi à trouver des financements adaptés au monde agricole. « Faire la transition, c’est réconcilier les différentes échelles de temps du vivant face à des modèles d’investissement et des modèles économiques qui ont été plutôt structurés sur une économie un peu standardisée », explique Audrey Bourolleau. « La diversification des cultures met en jeu toutes les chaînes de stockage, de logistiques qui se sont bâties sur une massification des flux, une standardisation des variétés », poursuit-elle.

Pour tester de nouveaux modèles, Hectar mise sur la collaboration au sein de son campus agricole. « C’est la coalition d’acteurs engagés qui fera bouger les entreprises de manière un peu plus systémique, et qui peut inspirer les grands groupes », partage Audrey Bourolleau. Hectar a ainsi lancé, en collaboration avec le Fonds Danone pour l’Écosystème, La Laiterie des Godets. Cette ferme laitière pilote vise à améliorer les conditions de travail des éleveurs pour lever les freins au maintien de l’activité d’élevage laitier dans notre pays, et susciter des vocations notamment auprès des jeunes générations. Hectar souhaite ainsi bâtir un référentiel documenté de reprise des fermes laitières, un enjeu majeur. « Il reste 51 000 fermes laitières en France et il en resterait 38 000 en 2025 », calcule Hectar.

Acwa robotics : Cartographier et caractériser l’état des canalisations d’eau potable

En France, le réseau de distribution d’eau potable est évalué à un peu moins d’un million de kilomètres de conduites. Environ un litre sur cinq ne parvient pas à l’usager à cause de fuites. Leurs origines sont nombreuses et variées : âge et type des canalisations, corrosion, vieillissement des joints d’étanchéité, mouvements des sols, pression élevée de l’eau à l’intérieur… Les collectivités et les exploitants de ces réseaux mettent en place des programmes pour remplacer ou réparer ces canalisations. Pour les aider, la start-up Acwa robotics développe un robot capable de se déplacer en toute autonomie dans des réseaux en exploitation afin de les localiser et de caractériser leur état. Créée en 2018, elle compte aujourd’hui 14 salariés, essentiellement des ingénieurs. Entretien avec Jean-François Rossi, le directeur technique et le fondateur de cette entreprise.

Techniques de l’ingénieur : À quels besoins répondent les technologies développées par Acwa robotics ?

Jean-François Rossi, directeur technique, fondateur, Acwa robotics
Jean-François Rossi, directeur technique et fondateur de Acwa robotics.

Jean-François Rossi : Nous développons des technologies pour localiser les canalisations d’eau enterrées afin de pouvoir intervenir plus facilement sur ces infrastructures. En France, une réglementation impose à chaque collectivité de les localiser à 40 cm près, y compris en profondeur. Ensuite, nous fournissons des informations sur leur état d’entretien. Là encore, il s’agit d’une obligation française, depuis le Grenelle de l’environnement de 2012. Les collectivités doivent non seulement établir la cartographie de ces réseaux, mais aussi les documenter : diamètre des canalisations, matériaux constitutifs, état des tuyaux, équipements installés… Toutes ces données doivent ensuite être retranscrites dans un open data appelé Eaufrance. Si ce travail n’est pas réalisé, l’État se réserve le droit de doubler son prélèvement sur la facture d’eau, et depuis un an, des amendes commencent à tomber.

Comment réussissez-vous à collecter toutes ces informations ?

Nous développons des robots capables de s’introduire dans des réseaux d’eau en exploitation, puis de les parcourir de manière totalement autonome, d’y relever des informations, de ressortir à un autre endroit ou à son point d’entrée, et enfin de restituer les données collectées.

Acwa-robotics, robot
Le robot développé par Acwa robotics. Crédit : Acwa robotics

Pour le déplacement, nous avons opté pour un mode de locomotion mixte. Le robot est soit porté par le courant, une solution que l’on privilégie dans les lignes droites, ou alors se déplace en mode automoteur. Il n’est pas équipé de roues, car des couches de rouille très importantes sont présentes dans les réseaux, et elles risqueraient de les dégrader, et donc de créer de l’eau rouge impropre à la consommation. Notre machine s’inspire du biomimétisme et du déplacement des chenilles. Elle se déplace le plus délicatement possible, à l’aide de ses appuis sur la canalisation. Pour avancer, elle lâche ses appuis à l’avant, le robot s’étire, puis il reprend ses appuis avant, pour ensuite relâcher ceux à l’arrière et se rétrécir. Il progresse ainsi doucement, mais peut prendre des virages jusqu’à 90 degrés.

Nos robots peuvent faire face à un écoulement de l’eau jusqu’à 2 mètres par seconde. Ils sont tous conçus et testés pour résister à des pressions de 20 bar, ce qui correspond à celles rencontrées à 200 mètres de profondeur. Avec notre première série de machines, nous ciblons des canalisations dont le diamètre commence à 250 mm. Sur le plan réglementaire, elles doivent résister à des pressions pouvant aller jusqu’à 16 bar.

Comment parvenez-vous à localiser les canalisations ?

Dans un réseau d’eau potable, il n’y a pas de signal GPS, ni aucun moyen de communication avec notre robot. Nous utilisons plusieurs sources de données que nous fusionnons afin de situer le tracé des canalisations avec précision. Nous nous servons de l’odométrie, une technologie qui enregistre les mouvements du robot, et déjà présente dans les voitures pour les positionner lorsqu’elles traversent de longs tunnels. Une centrale inertielle est également installée sur nos machines. Elle nous apporte des informations complémentaires sur la gravité par exemple, car dans une canalisation, les magnétomètres ne fonctionnent pas et l’on perd le nord magnétique. Nous prenons aussi des prises de vues des éléments des canalisations, qui sont eux géolocalisables. C’est le cas notamment de ces petits ronds en fer, appelé bouche à clé, que l’on peut observer à la surface des routes et qui permettent d’ouvrir et de fermer les vannes du réseau. Ces équipements sont une autre source de données et nous servent également pour reconstituer le tracé.

Quels types de capteurs sont installés sur vos robots ?

Ils sont capables d’accueillir différents types de capteurs en fonction des besoins de nos clients. Nous ne fabriquons pas ces capteurs, mais les adaptons afin qu’ils fonctionnent dans le milieu contraint des canalisations. Par exemple, nous sélectionnons des capteurs de distance qui fonctionnent dans l’eau et nous les abritons derrière des vitres en plexiglas spécifiques afin qu’ils supportent la pression, tout en veillant à ne pas perturber la mesure.

Beaucoup d’exploitants veulent connaître l’épaisseur résiduelle des canalisations. Pour celles en fonte, nous la calculons grâce à des capteurs à ultra-son, mais il n’existe pas de solution universelle. Pour les autres canalisations, nous devons travailler matériau par matériau et d’autres technologies peuvent être utilisées, comme celles basées sur les courants de Foucault. Nous avons noué un partenariat avec l’INSA de Lyon pour réaliser un panorama complet de toutes les dégradations mesurables dans des réseaux d’eau potable ; cela concerne surtout les canalisations métalliques.

Jusqu’à présent, les appareils que l’on introduisait dans des réseaux d’eau prenaient des vidéos à basse définition, avec des images difficilement exploitables, car les machines étaient secouées par l’écoulement de l’eau. Étant donné que la nôtre prend appui sur la canalisation et qu’elle peut s’immobiliser, elle est capable de prendre des images à haute définition.

La demande de nos clients porte sur des capteurs que l’on n’avait pas imaginés au départ comme la mesure de la turbidité de l’eau, sa dureté, son pH… Nous travaillons pour les intégrer sur nos robots.

À quel stade se trouve votre projet ?

Nous testons une première présérie de machines en conditions réelles chez des exploitants de réseaux. En parallèle, nous étudions la faisabilité de monter une première unité de fabrication et de maintenance de nos robots à Aix-en-Provence. Une des contraintes dans leur fabrication est qu’ils doivent être à flottabilité neutre, c’est-à-dire avoir la même densité que l’eau, de manière à ne pas consommer d’énergie pour se maintenir à flot dans les canalisations. Ils pèsent environ 10 kg et c’est à quelques dizaines de grammes près. Une autre difficulté dans la conception se situe sur le plan sanitaire. Nous devons être très précautionneux sur les matériaux que nous choisissons, puisque nos machines ne doivent pas dégrader la qualité de l’eau des canalisations.

Pour l’instant, nous avons fait très peu de communication, mais nous recevons déjà des demandes du monde entier. Le problème du vieillissement des canalisations et de leur mauvais état ne concerne pas uniquement la France et notre marché est mondial.

La sécurité des infrastructures industrielles reste trop vulnérable aux attaques

Dans son dernier rapport « Threat Landscape », paru fin novembre dernier, l’agence européenne indique que « l’intérêt des acteurs étatiques à cibler les infrastructures critiques et les réseaux de technologie opérationnelle augmenterait certainement dans un proche avenir ».

L’ENISA[1] n’est pas la seule à tirer la sonnette d’alarme. Tous les experts en cybersécurité et les agences gouvernementales, comme l’ANSSI en France, constatent de plus en plus de collecte de renseignements et de déploiement de logiciels malveillants ciblant l’OT. L’Operational Technology est en effet un rouage essentiel aux industriels. Il concerne en effet les composants matériels et logiciels qui détectent ou contrôlent les équipements industriels (machines-outils, bras robotisés, robots, chaînes de production…).

Ce maillon essentiel est maintenant dans le viseur des pirates. Publiée l’an passé, une étude mondiale de Fortinet, un des leaders de la cybersécurité, indiquait que 93 % du secteur OT avaient subi une intrusion sur les 12 derniers mois et 78 % en avaient enregistré plus de trois. Aucun secteur n’y échappe : industries pétrolière et gazière, production et distribution d’électricité, l’aviation, la marine, le ferroviaire, etc.

Convergence

Ces risques doivent être pris au sérieux par tous les industriels, car il y a une convergence des réseaux informatiques (IT – Information Technology) et industriels (OT – Operational Technology). Auparavant, les réseaux informatiques IT et OT étaient gérés séparément. Mais depuis quelques années, avec la transformation numérique, la convergence entre ces deux sphères est de plus en plus forte.

Or, l’intégration progressive dans les systèmes OT de fonctionnalités informatiques innovantes est à double tranchant : elle permet de gagner en efficacité, mais elle augmente aussi la surface d’attaque.

En un mot, l’infrastructure industrielle n’échappe plus aux maux de l’informatique : vulnérabilité, gestion des mots de passe, déploiement de correctifs de sécurité… Mais à la différence de la cybersécurité des réseaux informatiques « conventionnels », la cybersécurité industrielle a des contraintes particulières. Pour les industriels, l’un des défis principaux est d’assurer la continuité de service.

S’il est possible de faire redémarrer des ordinateurs pour appliquer une mise à jour majeure, il n’est pas aussi évident d’arrêter et de redémarrer une chaîne de production ou des automates surveillant un réseau ferroviaire. Autre difficulté inhérente à l’OT : il s’agit de systèmes qui ont parfois plusieurs décennies d’existence et sur lesquels plusieurs sociétés de maintenance sont intervenues, mais il n’existe pas forcément d’historique précis des modifications… Impossible d’avoir une vision précise et exhaustive de l’infrastructure industrielle.

Attaques menées par des États

La situation est d’autant plus inquiétante que les industriels ne sont pas prêts à affronter ces différentes menaces. La preuve, plus d’un tiers (35 %) des entreprises interrogées ne savent pas si leur organisation a été victime d’un piratage selon le rapport SANS « The State of OT/ICS Cybersecurity in 2022 and Beyond ». Le Sans Institute est une organisation regroupant 165 000 professionnels de la sécurité ayant pour but de mutualiser l’information concernant la sécurité des réseaux informatiques.

Ce contexte est donc favorable aux cyberattaquants. Mais pas n’importe lesquels. Si les médias relatent régulièrement des attaques visant une cartonnerie ou un fabricant de porcelaine, ces affaires relèvent de l’anecdote. Sans pour autant minimiser les impacts d’une action malveillante pour l’entreprise et ses salariés (perte d’activité durant plusieurs semaines, trésorerie affectée, impacts psychologiques…), ces affaires montrent que les cibles n’étaient pas prêtes, mais surtout qu’elles n’ont pas eu de chance. Elles ont été victimes d’une attaque de masse.

Ce n’est pas le cas des attaques ciblées. Organisées par des États, elles visent à impacter l’activité d’un pays en paralysant les industries essentielles.


[1] The European Union Agency for Cybersecurity.

Biocarburants pour l’aérien : c’est pour bientôt ?

Le 16 novembre dernier, la Royal Air Force a réalisé une première. En effet, les forces aériennes britanniques ont fait voler un Airbus 300 MRTT, avec des cuves remplies à 100 % par des biocarburants. Une prouesse réalisée lors de la COP 27, qui se tenait en Egypte. Pour réaliser ce vol, les moteurs ont été très peu modifiés, et les ingénieurs ont calculé que les émissions de GES lors de cet exercice étaient quatre fois inférieures à celles d’un vol identique avec du carburant classique. Ce qui laisse entrevoir le potentiel des biocarburants pour verdir les transports aériens. D’ailleurs, les chercheurs restent persuadés que les biocarburants constituent, avec les avions électriques, le plus gros espoir pour permettre au secteur aérien d’atteindre ses objectifs de décarbonation.

Le développement de biocarburants innovants, dits SAF (sustainable aviation fuel), et de l’aviation électrique sont souvent cités comme étant les solutions miracles pour permettre aux compagnies aériennes d’atteindre leurs objectifs environnementaux. On le sait aujourd’hui, le secteur aérien ne pourra pas relever ses défis écologiques sans opérer d’importants changements dans sa façon de fonctionner. Même si l’empreinte écologique du secteur aérien (moins de 2 % des émissions totales) reste peu élevée, c’est donc une véritable révolution que va devoir opérer tout un secteur industriel pour rester compétitif et écologique en même temps.

Les biocarburants feront assurément partie de cette révolution, même s’il est difficile d’anticiper. En 2007, l’Association Internationale du Transport Aérien assurait que les biocarburants pour l’aviation représenteraient, en 2020, 10 % des carburants utilisés par l’aérien. La réalité a donné tort à l’AITA, puisque ce chiffre atteint aujourd’hui péniblement 0,01 % et fait l’objet de nombreuses critiques. Sauf que depuis, le secteur aérien a affronté une crise sanitaire et s’est engagé pour, sur le moyen terme, décarboner son activité. Dans l’immédiat, le développement des biocarburants semble, sur court-moyen terme, un outil efficace pour faire baisser les émission du secteur aérien de manière significative.

Les objectifs de la feuille de route publiée par le Ministère de l’Ecologie tablent sur une intégration progressive des biocarburants dans le mix aérien : 2% en 2025, 5% en 2030… puis 50% en 2050, pour être cohérent avec les objectifs nationaux et continentaux de neutralité carbone.

Seul problème, aujourd’hui la production de biomasse permettant de fournir la matière première pour produire des biocarburants fait l’objet d’une demande forte, dans de nombreux secteurs d’activité, et notamment celui du transport routier. Le coût de production des biocarburants destinés à l’aviation reste aujourd’hui entre 2 et 3 fois supérieur à celui du kérosène utilisé actuellement.

Cette course à la biomasse est donc la première étape vers un développement massif de nouveaux carburants dans le secteur aérien. Aujourd’hui les projets autour des biocarburants se multiplient, comme celui de TotalEnergies à Grandpuits-Bailly-Carrois. L’entreprise française veut convertir sa raffinerie en plateforme zéro pétrole, et transformer 400 000 tonnes de biomasse par an, en partie en biocarburant destiné au secteur aérien.

L’appel à projet lancé par le gouvernement pour le « développement d’une filière de production française de carburants aéronautiques durables », qui s’est clos il y a quelques semaines, pourrait constituer un catalyseur pour changer d’échelle en ce qui concerne la production de biocarburants tricolore destinée à l’aviation. 

 

Une solution d’impression 3D métal à 2 lasers qui décuple la productivité et permet de produire des pièces ultra-fiables

3D Systems, Scott Anderson, vice-président, chef de segment
Scott Anderson est vice-président et chef de segment chez 3D Systems. (Crédit : 3D Systems)

3D systems est l’une des entreprises pionnières de la fabrication additive. Elle propose une offre étendue et unique de matériaux, logiciels, machines et services, ainsi que des solutions innovantes, développées en collaboration avec ses clients.

Techniques de l’ingénieur : Quelles sont les innovations apportées par ce nouveau modèle d’imprimante DMP ?

Scott Anderson : La plateforme Direct Metal Printing (DMP) de 3D Systems est reconnue comme une technologie de pointe, capable de produire des pièces exceptionnellement solides et d’une grande pureté chimique.

La solution DMP Flex 350 Dual de 3D Systems permet à Amnovis d'améliorer sa productivité et de réduire ses coûts
La solution DMP Flex 350 Dual de 3D Systems permet à Amnovis d’améliorer sa productivité et de réduire ses coûts. Copyright: 3D systems

Nous avons annoncé le « DMP Flex 350 Dual » et le « DMP Factory 350 Dual » en novembre 2021, en mettant sur le marché une configuration à deux lasers de notre plateforme, qui permet de réduire jusqu’à 50 % le temps de construction et de diminuer les coûts.

Les deux imprimantes 3D métal peuvent contribuer à accélérer l’innovation pour une variété d’applications, notamment les dispositifs médicaux, l’aérospatiale, les turbomachines, les semi-conducteurs, ainsi que l’automobile et les sports mécaniques.

En quoi le DMP Flex 350 Dual permet-il d’améliorer la fiabilité et la qualité des pièces ?

Le DMP Flex 350 Dual est construit sur la même plateforme que le modèle monolaser, réputé pour sa fiabilité et sa qualité.

Par conséquent, le DMP Flex 350 Dual conserve les avantages offerts par la configuration monolaser, tels que la souplesse d’utilisation des applications et les modules de construction à remplacement rapide, ainsi qu’un serveur central permettant de gérer les travaux d’impression, les matériaux, les paramètres et la maintenance pour une productivité 24 heures sur 24 et 7 jours sur 7.

En outre, notre chambre à vide unique permet d’obtenir des pièces particulièrement solides et d’une grande pureté chimique, la machine offrant une très haute pureté en oxygène.

L’imprimante comprend également le logiciel 3DXpert d’Oqton, l’outil le plus puissant du secteur pour préparer et optimiser rapidement les données des pièces, permettant une conception rapide pour la fabrication additive métallique. Ainsi, les temps de production sont réduits et la précision des pièces est augmentée.

Quels sont les avantages de disposer d’une machine à deux lasers ?

Les DMP Flex 350 Dual et DMP Factory 350 Dual sont des imprimantes 3D métal à haut débit et haute précision qui génèrent des pièces de grande qualité dans une large gamme d’alliages. Il s’agit de systèmes de fabrication additive de métal à haute performance qui constituent des alternatives solides aux procédés traditionnels de mise en forme des métaux : ils permettent de réduire les déchets et les temps de réglage, d’augmenter les vitesses de production, et de produire des pièces métalliques très denses dotées d’excellentes propriétés mécaniques.

Avez-vous des concurrents qui proposent également ce type de produit ?

Il existe une grande variété d’imprimantes 3D laser métal. C’est notre chambre à vide unique qui distingue le DMP Flex 350 Dual et le DMP Factory 350 Dual de 3D Systems. La chambre nous permet de réduire fortement la consommation de gaz argon tout en affichant la meilleure pureté d’oxygène de sa catégorie (<25 ppm). Il en résulte ces pièces exceptionnellement denses et dotées d’excellentes propriétés mécaniques, évoquées précédemment.

Pourquoi dit-on que la DMP Flex 350 Dual est pensée pour accélérer l’innovation ?

La solution que nous proposons à nos clients est plus qu’une simple imprimante à deux lasers qui accélère la productivité de 50 %.

Nous avons testé de manière approfondie notre portfolio de matériaux métalliques et avons développé des paramètres pour optimiser les performances. De plus, nos ingénieurs expérimentés, qui font partie de notre groupe d’innovation applicative (AIG), collaborent étroitement avec nos clients pour résoudre les problèmes complexes de conception et de fabrication additive.

Ces exigences d’application guident le développement et le déploiement du hardware, des matériaux, des logiciels et des services, en collaboration avec notre équipe. Ceci permet d’apporter une plus grande valeur ajoutée et de fournir à nos clients un avantage concurrentiel – alors que leur organisation se développe avec l’additif.

Avez-vous des exemples d’applications de la part d’Amnovis ?

Les fondateurs d’Amnovis ont été parmi les premiers à utiliser la technologie de fusion laser sur lit de poudre (LPBF) pour fabriquer de manière additive des dispositifs médicaux en titane tels que des implants orthopédiques et rachidiens.

L’intégration de l’imprimante DMP Flex 350 Dual dans son flux de production permet à Amnovis d’accroître son potentiel d’innovation en matière de dispositifs médicaux spécifiques aux stocks et aux patients.

Avec cette nouvelle fonctionnalité, Amnovis introduit également des améliorations de produits et de processus qui peuvent être utilisés dans des applications industrielles hautement réglementées, notamment dans l’aérospatiale et la haute technologie.

Autopartage : diversifier les profils des usagers, clé d’un impact à large échelle

Depuis la crise sanitaire, les Français vivant en ville se sont remis au vélo ; les services de vélo et trottinettes se sont multipliés. Si la crise a modifié les usages et les modes de transport des Français, l’autopartage a peu profité de cette évolution. « Le cas d’usage le plus commun [pour l’autopartage, ndlr] est la location d’un véhicule pour une courte durée, pour circuler dans l’agglomération et pour des motifs non contraints (visite à des amis, sorties, achat…) », relève l’enquête Autopartage 2022 réalisée par le bureau de recherche 6t pour l’Ademe. « On compte aujourd’hui une vingtaine d’opérateurs proposant près de 12 000 véhicules en autopartage pour près de 300 000 autopartageurs actifs », avance l’enquête.

Qui utilise aujourd’hui l’autopartage ?

L’étude, menée auprès de 2 768 usagers de l’autopartage, a permis de déterminer un profil type des Français utilisateurs de ce service. Dans le cas de l’autopartage en boucle – avec récupération et restitution du véhicule à une même station – qui continue de dominer le marché de l’autopartage en France, il s’agit le plus souvent d’hommes (55,5 %) âgés de 40 à 50 ans. Ils sont pour la plupart actifs (80,9 %) et plus diplômés que la moyenne nationale.

Autre point révélateur du profil de ces utilisateurs, 86 % d’entre eux vivent dans une agglomération d’au moins 200 000 habitants. Ils louent le véhicule environ trois fois par mois pour des locations courtes, majoritairement dans la ville où ils habitent. Enfin, la pratique de l’autopartage semble être ancrée au sein de ces usagers : 72 % d’entre eux projettent de rester inscrits à ces services dans les cinq prochaines années.

Les autopartageurs sont avant tout des usagers des modes alternatifs à la voiture individuelle. Ils privilégient les déplacements collectifs, la marche ou le vélo. Alors que 29,7 % des ménages français ne possèdent pas de véhicules, 73,8 % des utilisateurs de l’autopartage en boucle n’en possèdent pas. Ils sont 69,5 % à s’être séparés d’un véhicule motorisé. Et pour 40 % d’entre eux, c’est la raison principale du recours à l’autopartage.

Diversifier les profils pour avoir un impact réel

L’autopartage fait bien reculer le nombre de véhicules en circulation. L’étude estime qu’« une voiture en autopartage remplace 5 à 8 voitures personnelles, supprime entre 10 000 et 19 000 km en voitures personnelles par an et libère 0,9 à 3 places de stationnement en voirie. » Toutefois, l’autopartage n’a pas aujourd’hui d’impact sur la mobilité automobile des Français. « La concrétisation d’un réel impact de l’autopartage nécessite une multiplication par 100 du volume de services existant », préviennent les auteurs.

L’objectif est bien d’arriver à « un usage combiné, fluide, facile de services complémentaires » pour « construire une alternative solide à la voiture individuelle possédée ». Pour y parvenir, il convient d’abord de « multiplier le volume de services existant et de territoires desservis ». Mais il s’agira aussi de travailler sur la demande pour accompagner la diversification des profils des usagers. En particulier, les retraités et les jeunes constituent une cible prioritaire en vue de les démotoriser ou d’éviter leur motorisation. L’étude propose enfin une communication ciblée et une offre adaptée pour l’usage des familles et des personnes à mobilité réduite.

Une technologie pour observer les réactions chimiques dans les batteries commerciales

Les batteries sont des systèmes électrochimiques capables de stocker de l’énergie électrique sous la forme chimique puis de la restituer. S’il est possible, en laboratoire, d’observer ces réactions chimiques, grâce à des cellules munies de fenêtres transparentes par exemple, ce type de dispositif ne peut pas être installé dans des batteries commerciales, qui sont considérées comme de véritables boîtes noires. Une équipe de recherche regroupant des scientifiques du Collège de France, du CNRS, de l’Université Rennes 1 et de l’Université de Montpellier vient de résoudre cette difficulté en développant une méthode pour suivre l’évolution de la chimie à l’intérieur d’une batterie, en direct, et tout au long de ses multiples charges et décharges. Ces travaux viennent de faire l’objet d’une publication dans Nature Energy.

« Les batteries sont composées d’une électrode positive et d’une électrode négative, qui vont servir à stocker les ions lithiums, explique Charlotte Gervillié-Mouravieff, chercheuse au Collège de France. Au milieu se trouve un liquide appelé l’électrolyte, qui permet aux ions de passer d’une électrode à l’autre. Lors de la charge, le courant force des réactions chimiques et l’énergie se stocke dans le pôle négatif, puis lors de la décharge, une réaction électrochimique spontanée engendre le déplacement inverse des électrons vers le pôle positif. L’énergie est ainsi libérée pour créer un courant électrique. Contrôler et étudier la chimie d’une batterie tout au long de sa vie est crucial pour comprendre son fonctionnement, mais aussi améliorer ses performances ainsi que la conception des futures batteries. »

Les chercheurs ont utilisé des fibres optiques un peu particulières, fabriquées à partir de chalcogénure, pour observer ce qui se passe à l’intérieur de la batterie. Il s’agit d’une famille de verre qui permet le transport de la lumière dans le domaine des infrarouges. Un point très important, car la plupart des molécules présentes dans l’électrolyte absorbent cette gamme de longueurs d’onde. Concrètement, la fibre vient traverser la batterie dans le sens de la longueur et est plongée dans l’électrolyte. À l’entrée, de la lumière infrarouge est envoyée, et tout le travail consiste ensuite à observer quelle partie de cette énergie a disparu. En analysant celle-ci, il est possible d’en déduire les molécules ayant rencontré la lumière dans la batterie.

« Cette technologie nous permet de suivre la nature des molécules présentes ainsi que leur quantité, complète la chercheuse. Ce suivi n’avait jamais pu être réalisé jusqu’ici dans des batteries commerciales. La lumière infrarouge est particulièrement intéressante, car elle est absorbée en fonction des liaisons chimiques. Nous obtenons donc une précision de mesure à l’échelle de la liaison chimique, et l’on peut ainsi certifier les types de molécules présentes. »

Suivre en temps réel le fonctionnement des batteries

Des tests ont été réalisés sur des batteries de type sodium-ion conçues par la start-up française Tiamat Energy. Résultat : ce procédé a démontré sa capacité à identifier les additifs présents dans l’électrolyte et à suivre en temps réel leur évolution durant le fonctionnement de la batterie. À terme, il pourrait servir à mieux déterminer les différents rôles de chacun et à fournir des préconisations sur l’emploi de tel additif plutôt que tel autre.

Au-delà de l’électrolyte, les scientifiques ont démontré que ce nouveau procédé permet aussi d’observer le comportement de certains matériaux dans la batterie. C’est le cas notamment du LFP (Lithium fer phosphate), l’un des matériaux les plus couramment utilisés au niveau de l’électrode positive. Étant donné que les phosphates absorbent la lumière infrarouge, il est ainsi possible de suivre la quantité de lithium dans cette électrode en fonction des cycles de charge et décharge. Du côté de l’électrode négative, les fibres optiques permettent également d’étudier l’interface entre l’électrolyte et l’électrode, que l’on appelle SEI (Solid electrolyte interphase). Cette couche, qui se forme lors de la première utilisation de la batterie, est à la fois conductrice d’ions et isolante des électrons. Son étude est essentielle, car sa stabilité est déterminante pour la longévité des batteries.

Cette nouvelle technologie pourrait à l’avenir être intégrée dans des batteries commerciales afin de mieux comprendre leur fonctionnement. « L’intégration des fibres optiques dans les batteries suscite un vrai intérêt dans les communautés scientifiques et chez les industriels, confie Charlotte Gervillié-Mouravieff. Les fibres optiques de chalcogénure sont un matériau plutôt rare et peu diffusé sur le plan commercial, mais sont déjà employées par la start-up Diafir pour des applications dans le biomédical. En réunissant différents acteurs, je pense que l’on pourrait trouver des applications concrètes de notre procédé. En parallèle, nous continuons à explorer toutes les possibilités de cette nouvelle technologie en laboratoire. »

Les pertes et dommages, victoire « historique » de la COP27 !

Après de longues et intenses négociations, la décision obtenue le dimanche 20 novembre à l’issue de la COP27 de Charm el-Cheikh, en Égypte, s’accorde sur la création d’un fonds sur la question des pertes et préjudices liés aux dommages déjà existants du changement climatique. Il s’agit d’« un accord historique », soulève Lola Vallejo, directrice du programme climat de l’Iddri, même si elle reconnaît qu’« il reste beaucoup à faire pour éviter que le fonds ne reste une coquille vide ». Une quarantaine de pays se sont pour l’instant engagés à mobiliser plus de 350 millions de dollars dans ce fonds. Un comité de Transition doit être nommé d’ici au 15 décembre prochain.

Une longue attente sur les pertes et dommages

Les pertes et dommages étaient notamment une demande des petits États insulaires au sein de la Conférence Cadre des Nations Unies sur les Changements Climatiques depuis 1991. La demande devenait un point bloquant des négociations avec la hausse de la mobilisation des pays du G77 et de la société civile sur la justice climatique, et la reconnaissance de cette dette climatique par le dernier rapport du GIEC.

La COP27 a aussi vu l’opérationnalisation du Réseau de Santiago, « un réseau lancé à la COP25 qui vise à catalyser l’assistance technique pour les pertes et dommages », relève Lola Vallejo. Ce réseau a notamment vocation à aider les pays à évaluer leurs besoins et à les connecter avec des organisations appropriées.

Des besoins qui se chiffrent en centaines de milliards

« Historiquement, les financements climat étaient uniquement pour l’adaptation et l’atténuation, rappelle Lola Vallejo. On est en train de créer un troisième pilier : les financements sur les pertes et dommages, c’est-à-dire faire face aux effets du changement climatique déjà réalisés. » Les pays développés s’étaient ainsi engagés à mobiliser 100 milliards de dollars par an à destination des pays en développement sur la période 2020-2025. Si cet engagement ne devrait pas être atteint avant 2023-2024, la question se pose déjà :  quel montant viendra remplacer les 100 milliards au titre de l’atténuation, de l’adaptation et des pertes et dommages ? La réponse est loin d’être trouvée.

En début de COP27, le rapport « Financement de l’action climatique : accroître les investissements en faveur du climat et du développement » a toutefois donné une idée des besoins. Présidé par Vera Songwe et Lord Nicholas Stern, il montre que les marchés émergents et les pays du sud – hors Chine – ont des besoins d’investissements de l’ordre de 2 000 milliards de dollars par an, dont au moins 1 000 milliards devront venir de financements internationaux privés et publics.

Par ailleurs, la réussite du partenariat pour la transition énergétique juste (Just Energy Transition Parnership – JET-P) annoncé à Glasgow avec l’Afrique du Sud a donné naissance à un nouveau JET-P avec l’Indonésie annoncé à Charm-el-Cheick. « C’est une enveloppe de 20 milliards de dollars, contre 8,5 milliards pour l’Afrique du Sud, à moitié de source publique et moitié de source privée », partage Sébastien Treyer, directeur de l’Iddri. Ce type de partenariats pourrait se multiplier selon l’expert.

Finalement, Lola Vallejo nous éclaire sur l’articulation entre ces différentes promesses « Les jet-P sont souvent des contributions qui sont incluses dans la promesse des 100 milliards, car cela fait partie de la finance climat. Les 350 millions sur les pertes et dommages sont aussi des fonds déjà comptés dans le décompte des 100 milliards, car on ne s’est pas encore mis d’accord sur à quoi correspondent ces financements pertes et dommages. » Le défi principal reste donc bien de multiplier l’enveloppe globale de la finance climatique pour l’après-2025.

Peu d’avancées sur l’ambition des émissions

La question des pertes et dommages va devenir capitale puisqu’« il y a un échec collectif actuellement à l’atténuation », note Lola Vallejo. La COP27 devait être le lieu de discussions techniques pour accroître l’ambition sur la réduction des émissions de gaz à effet de serre. Le déblocage des négociations sur les pertes et dommages était un préalable à des avancées sur cette question. Dans ces conditions, « il était difficile d’attendre des résultats, la COP27 a plutôt été une préparation du bilan mondial à la COP28, à mi-chemin entre 2015 et 2030 », partage Sébastien Treyer. Le secrétaire général de l’ONU prévoit ainsi un sommet de l’ambition climatique en 2023 pour les avoir des annonces sur de nouveaux engagements en amont de la COP28.

Sur ce sujet, les négociations ont principalement abouti à une répétition des objectifs adoptés à Glasgow : diminuer le recours au charbon et se débarrasser des subventions aux énergies fossiles inefficaces. L’événement a aussi maintenu vivant l’objectif de limiter le réchauffement climatique à 1,5°C d’ici la fin du siècle.

« La déclaration finale a manqué de mentionner le besoin de sortie de l’ensemble des fossiles, c’est-à-dire parler pour la première fois du pétrole et du gaz, malgré une très large coalition de pays dont l’Inde, le groupe AOSIS (petites îles en développement), l’Union européenne et de gros pays producteurs de pétrole et de gaz – les États-Unis, le Canada et la Norvège », regrette Lola Vallejo. Elle poursuit : « La position de l’Inde est très intéressante : elle critique le focus sur le charbon, une énergie dont dépendent beaucoup l’Inde et la Chine, et dénonçait le fait que les pays développés se cachent derrière le fait qu’on ne parle pas du pétrole et du gaz, des énergies dont ils sont grands producteurs et consommateurs. »

La législation sur les gaz fluorés évolue

En avril 2022, la Commission européenne annonce qu’elle va réviser le règlement de 2014 sur les gaz fluorés. Ces derniers font partie de la famille des fluorocarbones (FC), qui regroupe cinq catégories : les chlorofluorocarbones (CFC), les hydrochlorofluorocarbones (HCFC), les hydrofluorocarbones (HFC), les perfluorocarbones (PFC) et l’hexafluorure de soufre (SF6). En 1987, le protocole de Montréal avait déjà interdit l’utilisation des CFC et des HCFC dans le monde. Les FC sont majoritairement utilisés comme réfrigérants dans les pompes à chaleur, les frigos, ou les extincteurs. Malgré leurs nombreuses qualités, ils détruisent la couche d’ozone et possèdent une persistance importante dans l’environnement.

De nouvelles mesures encore plus restrictives

Ce nouveau règlement devrait permettre de renforcer le système de quotas mis en place en 2014 et ajouter un nouvel objectif, celui d’atteindre 98 % de réduction de l’utilisation des gaz fluorés en 2050. Plus concrètement, l’utilisation de ces gaz ne sera désormais possible que dans de nouveaux équipements, à condition qu’il n’existe pas d’alternative. Par exemple, le SF6, dont le potentiel de réchauffement global (PRG) est 23 900 fois supérieur à celui du dioxyde de carbone qui sert de référence (PRG du CO2=1), devra être totalement éliminé d’ici à 2031.

La Commission européenne entend également faciliter le contrôle des importations et exportations des autorités douanières et de surveillance afin d’éviter le commerce illégal. De plus, les sanctions deviendront plus homogènes au sein de l’Union Européenne.

Mais pour l’EFCTC (European Fluorocarbons Technical Committee), ces mesures manquent de cohérence. L’association craint qu’une « réduction progressive plus importante des gaz fluorés, comme dans la proposition de révision de la Commission européenne, puisse ralentir l’ambition de déployer 80 millions de pompes à chaleur d’ici 2050 ». D’après elle, des quotas plus stricts pourraient tendre davantage le marché, déjà sous pression, des gaz fluorés et favoriser le commerce illégal. Ils ajoutent que les industriels concernés ont déjà réalisé des investissements pour réduire leur consommation, et que cette proposition pourrait engendrer des pertes chez les fabricants.

Le système de quotas de 2014

 En 2014, la Commission Européenne met en place un système de quotas avec l’ambition de diminuer progressivement l’utilisation des gaz fluorés pour atteindre 79 % de réduction en 2030. Les entreprises productrices ou importatrices de HFC reçoivent des quotas annuels spécifiques. Le niveau de référence correspond à la période 2009-2012, soit environ 182,5 millions de tonnes d’équivalent CO2 et équivaut à 100 %. En 2016, ce niveau a été réduit de 7 %, de 37 % en 2018 et de 55 % en 2021. Les prochains paliers seront de 69 % en 2024, de 76 % en 2027 et de 79 % en 2030. La proposition de règlement d’avril 2022 ajoute une étape : passer à 98 % de réduction en 2050. L’objectif ? Faire en sorte que les prix grimpent pour pousser les industriels à trouver des alternatives.

Au cours des premières années de sa mise en place, le système fonctionne correctement et les prix augmentent considérablement, ce qui a pour conséquence une diminution de l’utilisation des gaz. En 2018 cependant, un marché noir apparaît, faisant à nouveau chuter les prix. La Commission européenne réagit rapidement et les prix remontent. Pour l’EFCTC, ce commerce illégal est lié « au manque d’application dans un certain nombre d’États membres du règlement initial sur les gaz fluorés et du système de quotas de réduction progressive ».

Quelles substitutions ?

Les gaz fluorés vont petit à petit disparaître de nos appareils. Mais par quoi les remplacer ?

Il existe d’autres réfrigérants utilisés depuis longtemps comme les hydrocarbures (isobutane, propane) ou l’ammoniac. Même si leur prix est abordable, leur production à un niveau industriel présente des risques : inflammabilité ou toxicité. Une nouvelle catégorie de substances pourrait remplacer ces gaz : les hydrofluoro-oléfines (HFO).Elles ont des propriétés similaires à celles des HFC avec une durée de vie atmosphérique plus courte et un faible pouvoir de réchauffement climatique. Toutefois, leur prix est encore trop élevé pour que leur usage soit universel.

 

Les termites pourraient influencer le cycle global du carbone dans le futur

Les forêts jouent un rôle majeur dans le cycle du carbone. Elles constituent le principal puits de carbone terrestre et 8 % de leur stock se trouve dans le bois mort. La décomposition de celui-ci a pour effet d’en rejeter une partie dans l’atmosphère. À l’échelle de la planète, les insectes sont à l’origine de près d’un tiers de cette décomposition. Une équipe internationale de plus de 100 scientifiques s’est penchée sur le comportement des termites face au changement climatique. Les résultats de ces travaux, publiés dans Science, mettent en évidence qu’ils vont jouer un rôle de plus en plus important dans le futur.

Grâce à des données collectées dans 133 sites à travers 6 continents, les chercheurs révèlent pour la première fois que les termites sont à la fois très sensibles aux variations de température, mais tolèrent des niveaux d’humidité faibles. Le taux de décomposition des termites augmente ainsi de plus de 6,8 fois à chaque hausse de 10 degrés des températures. En comparaison, celui des champignons, eux aussi responsables de la dégradation du bois, se limite à 2 fois, car dès que le bois contient moins de 20 à 22 % d’humidité, ils sont confrontés à des difficultés à dégrader la lignine et la cellulose.

« Dans les forêts tropicales humides, la compétition entre les champignons et les termites est moins élevée, car ils sont tous les deux capables de dégrader le bois, explique Jacques Beauchêne, xylologue au Cirad et co-auteur de l’étude. Alors que les forêts sèches, les savanes et les zones subdésertiques ne sont pas propices au développement des champignons, car ils ont besoin d’une humidité au moins supérieure à 20 % pour se déplacer. Une plus forte activité des termites est donc observée dans ces endroits, car leur compétition avec les champignons est moins forte. »

Or, en raison du réchauffement climatique, les zones chaudes et arides vont s’étendre à l’avenir dans le monde. Les chercheurs ont croisé leurs résultats avec des modèles de changement climatique. Ils ont découvert que peu importe la trajectoire des émissions de gaz à effet de serre retenue, l’aire de répartition des termites risque d’augmenter à travers les régions tropicales et subtropicales d’ici à 2050. « Cette progression des termites nous a surpris, ajoute le chercheur. J’ai vécu plus de 30 ans en Guyane et j’étais persuadé que l’activité des termites était plus virulente en zone tropicale humide. En fait, grâce à notre étude, on se rend compte qu’ils sont plus virulents dans les climats tropicaux secs. »

Une capacité à maintenir un taux d’humidité élevé

L’explication de cette adaptabilité de cet insecte vient de son mode de vie. Les termites vivent en société très organisée et font preuve d’intelligence collective. Ils fonctionnent en colonies avec un système de castes, comme les fourmis ou les abeilles, où chaque type d’individu a un rôle bien déterminé. Une colonie peut être constituée de centaines de milliers voire des millions de termites. Ces derniers sont capables de bâtir des systèmes pour maintenir une humidité élevée grâce à la construction de réseaux de galeries permettant des connexions à la nappe phréatique, et ainsi maintenir une dégradation possible du bois. « En Afrique, on observe un système de climatisation avec la formation d’importantes cheminées pour faire circuler l’air et évacuer le CO2. Certains termites élèvent même des champignons qui vont dégrader la matière organique à leur place, puis vont manger ces champignons, à l’image des fourmis Atta en Amérique du Sud », précise Jacques Beauchêne.

L’augmentation de l’aire de répartition des termites pourrait avoir des implications majeures sur le cycle du carbone. Elle pourrait en effet entraîner une augmentation de la décomposition du bois mort, et donc avoir un impact global sur les émissions de CO2. Par contre, les scientifiques n’ont pas réussi à quantifier les retombées sur les stocks forestiers de carbone, faute de données suffisantes. L’estimation est par ailleurs complexe à réaliser puisque le carbone émis par le bois mort n’est pas entièrement libéré dans l’atmosphère, car une bonne partie est piégée dans les sols. Et pour évaluer l’impact global de ce processus sur le climat, il faudrait aussi tenir compte des émissions de méthane produit par les termites, un gaz à effet de serre nettement plus puissant que le CO2.

Les véhicules électrifiés atteignent près de 20 % de part de marché en France

La France a franchi le cap des 1 million de véhicules électriques et hybrides rechargeables vendus en France en octobre 2022, selon le Baromètre des immatriculations de l’Avere France. « Précisément, 1 025 602 véhicules électrifiés rechargeables roulaient dans le pays au 31 octobre 2022, assure Clément Molizon, délégué général de l’Avere-France. Les modèles électriques et hybrides rechargeables représentaient plus de 2,4 % du parc total ; 1,5 % en ne considérant que les véhicules 100 % électriques. »

Les ventes de véhicules électriques et hybrides continuent de croître : les ventes sont en augmentation de 6,4 % sur le mois d’octobre par rapport à octobre 2021. Sur les 10 premiers mois de l’année, les ventes sont en hausse de 9,6 %. Les véhicules électriques et hybrides atteignent sur le mois 19,6 % de parts de marché des véhicules neufs : 11 % pour les véhicules particuliers électriques, 1,3 % pour les utilitaires électriques et 7,3 % pour les véhicules particuliers hybrides rechargeables.

La France, marché dynamique pour la voiture électrique

L’édition 2022 du Zero-Emission Vehicles Factbook publiée le 17 novembre par BloombergNEF fait le point sur les ventes de voitures électriques et hybrides rechargeables de tourisme dans le monde au premier semestre 2022. Sur le semestre, 13,2 % des voitures de tourisme vendues dans le monde étaient électriques. C’est bien plus qu’en 2021, lorsque la part de marché atteignait 8,7 %, et qu’en 2020, avec 4,3 %. En 2022, l’étude prévoit la vente de plus de 10 millions de véhicules électriques, contre 6,6 millions en 2021.

L’Europe est le deuxième marché de la voiture électrique de tourisme, derrière la Chine, mais devant les États-Unis. « 23 % et 22 % des voitures [de tourisme, ndlr] vendues en Chine et en Europe, respectivement, étaient électriques au premier semestre 2022, contre 2 % au Japon et 7 % en Amérique du Nord », partage l’étude. L’adoption des voitures électriques en Inde, en Asie du Sud-Est, au Brésil ou en Russie reste inférieure ou égale à 1 %. En Europe, la part de marché sur le premier semestre atteint 26 % en Allemagne, 24 % au Royaume-Uni, 21 % en France et 12 % en Italie. Le baromètre de l’Avere au premier semestre 2022, qui considère l’ensemble des véhicules électriques et hybrides, indique de son côté une part de marché de ces véhicules de 17 %.

L’étude évalue que l’ensemble des véhicules électriques en circulation – voitures, bus, motos, scooters, camionnettes et camions – permettent d’économiser près de 1,7 million de barils de pétrole par jour en 2022. Cela représente près de 3,8 % de la demande mondiale. Ils évitent l’émission de 152 millions de tonnes de CO2 par an. La plus grande contribution provient de la flotte de véhicules électriques à deux et trois roues en Asie.

Avoir encore plus de nucléaire en France ?

Alors que se tient la Semaine de l’industrie, il en est une sur qui souffle le chaud et le froid : celle du nucléaire civil. D’un côté, la filière se voyait déjà mise en mode « veille », après l’accident de Fukushima en 2011 et le vote de la loi de 2015 qui plafonne la puissance installée nucléaire à 63,2 GW en France et vise une part de production à 50 % dans le mix électrique. Elle est actuellement malmenée par un parc de production d’électricité qui accumule les retards de maintenance et les opérations de réparation, mettant en danger l’approvisionnement en électricité cet hiver. D’un autre côté, elle est encensée par le président Macron qui annonce vouloir lancer la construction de six nouveaux réacteurs EPR2. Bien que le débat public sur ce programme nucléaire soit encore en cours et que le premier EPR de Flamanville ne soit toujours pas en fonctionnement, l’annonce présidentielle est une sacrée bouffée d’oxygène pour la filière.

Mais pour l’association Les voix du nucléaire, ce potentiel avenir radieux n’est pas suffisant. Elle souhaite plus d’ambition pour la filière de l’atome et a publié en ce sens une autre vision, à rebours des scénarios 100 % renouvelable ou même de ceux visant une part de 50 % de nucléaire. À l’instar de sa fondatrice et présidente, Myrto Tripathi, l’association veut fortement réhabiliter l’énergie nucléaire et tranche dans le vif en revendiquant une position plus militante que les acteurs industriels*.

100 GW de nucléaire en 2070

Même si ses promoteurs disent faire des choix permettant d’éviter de nombreux écueils, ce scénario pro-nucléaire, appelé TerraWater, repose a minima sur trois paris très ambitieux.
Premièrement, il suppose une très forte électrification des usages en France. Cette option est certes dans presque tous les scénarios de transition énergétique, mais rarement au niveau où Les voix du nucléaire l’imagine. Selon elle, la consommation d’électricité devrait passer de 480 TWh en 2021 à 792 TWh en 2050. Pour éviter de fortes contraintes de sobriété et d’efficacité énergétiques à la population, l’association croit préférable de lâcher la bride :

  • à l’industrie, avec passage de 115 à 280 TWh d’électricité par an, dont seulement 25 TWh pour l’hydrogène ;
  • au transport routier, en passant de quasiment rien aujourd’hui à 110 TWh en 2050, dont 75 TWh pour la mobilité légère et 35 TWh pour la mobilité lourde (via l’électrification des autoroutes par caténaires !) ;
  • au chauffage électrique, contenu grâce à un gain de seulement 30 % par rénovation des bâtiments, qui serait assuré par 63 TWh de pompes à chaleur et 23 TWh de dispositifs résistifs ; et à l’eau chaude sanitaire et la cuisson des aliments qui sont entièrement électrifiés et consomment respectivement 60 TWh et 23 TWh en 2050. Toutes les solutions gaz/méthane pour ces usages sont supprimées.

Ce choix de consommer de l’électricité à tout va – même bas-carbone – est très étonnant dans un monde où la nécessité de baisser l’empreinte écologique (matières, déchets dont ceux qui sont radioactifs, ressources en eau, etc.) exige la sortie de ce modèle hyper-consumériste.

TerraWater, évolution de la production d’électricité
Évolution de la production d’électricité dans TerraWater.
Dans le scénario TerraWater, la production est dimensionnée pour être toujours un peu supérieure à la consommation. La production de pointe (1 TWh en 2041) assurée par des turbines à combustion biomasse n’est pas visible sur ce graphe. Source : Les voix du nucléaire.

Le second pari, comme le laisse présager l’orientation pro-nucléaire de l’association, est de massifier fortement le recours à l’atome. À tel point que son appétit pour les technologies de fission ressemble à de la boulimie. Elle imagine en effet que la filière nucléaire serait capable à la fois de pousser les réacteurs existants au-delà de 60 ans, de construire 26 EPR2 puis d’installer plus de 50 GW de réacteurs d’autres technologies (IVe génération, SMR…). Du jamais vu ! Ainsi, 29 des 56 réacteurs existants atteindraient au moins 70 ans, obligeant à gérer les risques liés au vieillissement des cuves et à remplacer au moins une fois les composants de chaudronnerie du circuit primaire, comme le générateur de vapeur. Pour les EPR2 (dont la conception n’est pas finalisée), les trois paires de réacteurs envisagées par EDF seraient construites entre 2026 et 2041, et un programme de construction de deux réacteurs par an prendrait le relais à partir de 2035 jusqu’en 2050. On arriverait ainsi à 90 GW de nucléaire en 2050 et 100 GW en 2070 (voir graphique ci-dessous). Il n’est pas du tout certain que la filière nucléaire soit capable d’assurer un tel rythme de construction. Et à quel coût ? Terrawater ne le dit pas, mais selon un rapport qui évalue le coût des six premiers EPR2 à plus de 51 milliards d’euros, ce n’est pas moins de 215 milliards d’euros qu’il faudrait investir au total pour les seuls EPR. Malgré tous ces efforts pour augmenter significativement le parc nucléaire, sa part n’excéderait jamais 70 % de toute la production d’électricité. Tout ça pour ça…

TerraWater, évolution du parc nucléaire
Source : Les voix du nucléaire

Quelle place pour les EnR ?

Le troisième pari de TerraWater est celui des énergies renouvelables. Une technologie est particulièrement promue : les stations de transfert d’énergie par pompage (Step). Aux 5 GW actuellement en service viendraient s‘ajouter 42 GW de ces installations nécessitant de créer deux bassins entre lesquels l’eau circule. Là encore, du jamais vu, car aucune Step n’a été construite en France depuis les années 80. Et les délais sont longs : la construction récente d’une des plus puissantes Step d’Europe (0,9 GW) en Suisse à Nant-de-Drance a duré plus de 10 ans… Certes ces Step permettraient de disposer d’un stockage d’énergie (8 TWh de capacité réversible selon Les voix du nucléaire) et pourraient être en partie installées sur des sites hydroélectriques existants. Mais, reconnaît l’association, cela nécessitera une adaptation des usages des réservoirs d’eau et obligera à mobiliser environ 250 km² de terrains (Alpes, Pyrénées, Auvergne) et à exproprier 12 000 personnes. Un immense défi d’acceptabilité sociale !

Pour le reste, TerraWater compte sur 55 GW de solaire photovoltaïque en 2050 et 35 GW d’éolien terrestre, soit bien moins que dans tous les autres scénarios (RTE, Ademe et négaWatt), ainsi que sur 22,5 GW d’éolien en mer, soit le même niveau que les scénarios N03 de RTE et S2-S3 nucléaire de l’Ademe. Les agrocarburants et le biogaz sont peu développés et surtout réservés au transport maritime et aérien. Par ailleurs, le bois-énergie – réduit au niveau des particuliers – serait consacré à des turbines à combustion pour assurer le besoin de pointe électrique : avec 20 GW prévus dans le scénario, ce serait une centaine d’installations de 200 MW à mettre en service entre 2027 et 2034 ! Un défi de plus, sans compter le fait que la combustion de la biomasse pour ce type de turbine pose des problèmes d’encrassage. Au final, cela veut aussi dire qu’un parc de production fortement nucléarisé aurait besoin de ce « back-up » thermique, reproche qu’on fait d’habitude au scénario 100 % renouvelable…

À la vue de tous ces paris ambitieux, voire démesurés, il semble bien que le scénario TerraWater n’ait rien de réaliste.


* Acteurs industriels comme Orano et Framatome, bien heureux tout de même de financer Les voix du nucléaire à hauteur de 100 000 euros cette année.

Les thèses du mois : L’industrie française face à la crise énergétique

Pour notre dossier d’octobre, « Vers une industrialisation du recyclage des émissions de CO2 », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

 

Gouverner par le signal-prix ? Sur la performativité des prix du carbone internes aux entreprises
Raphaël Olivier
Thèse de doctorat en Sciences de gestion, soutenue le 16-03-2022
Dauphine Recherches en management

 

Facteurs incitant les agents économiques à changer ou lisser leur consommation énergétique
Josias Mahouna Kpoviessi
Thèse de doctorat en Sciences économiques, soutenue le 07-01-2021
LEM – Lille Économie Management

 

Macro-dynamics of the energy transition: robustness, money velocity and public policies
Edouard Dossetto
Thèse de doctorat en Économie, soutenue le 28-02-2022
Centre d’économie de la Sorbonne

 

PROSPECTIVE ÉNERGÉTIQUE PACA ˸ Quelles transformations futures du territoire pour assurer une transition énergétique et d’économie circulaire ?
Carlos Andrade
Thèse de doctorat en Contrôle, optimisation, prospective, soutenue le 24-09-2021
Centre de mathématiques appliquées

 

Reaching carbon neutrality in France by 2050: optimal choice of energy sources, carriers and storage options
Behrang Shirizadeh Ghezeljeh
Thèse de doctorat en Économie de l’environnement, soutenue le 10-02-2021
Centre de développement de la recherche internationale en environnement

 

Optimal Energy Storage System Management in Telecommunications Networks under Energy Market Incentives
Isaias Faria silva
Thèse de doctorat en Informatique, soutenue le 07-12-2021
Centre d’études et de recherche en informatique et communications

 

Finance et Climat : Risques, enjeux et perspectives
Romain Schweizer
Thèse de doctorat en Sciences Economiques, soutenue le 17-12-2021
Laboratoire d’Economie de Dauphine

 

A mixed-complementarity problem approach for solving multi-sector, multi-region, electricity systems in the presence of government interventions
David Wogan
Thèse de doctorat en Sciences Economiques, soutenue le 13-01-2021
EconomiX

 

Trois essais en économie financière : risque climatique et transition vers une économie bas carbone
Josselin Roman
Thèse de doctorat en Sciences Economiques, soutenue le 14-12-2021
Laboratoire d’économie de Dauphine

 

La Transition écologique et le Tarif d’Utilisation des Réseaux Publics d’Électricité (TURPE)
Louis Grall
Projet de Thèse de doctorat en Droit, depuis le 13-12-2021
Centre de recherche droit Dauphine

 

La géopolitique de l’énergie face au changement climatique

Un extrait de Une nouvelle géopolitique de l’énergie par Jean-Pierre FAVENNEC

Les énergies fossiles sont encore prédominantes dans le mix énergétique mondial. Le pétrole représente 34 % de la consommation énergétique mondiale, le gaz 23 % et le charbon 28 %. Nous consommons également de l’énergie électrique d’origine hydraulique (7 % de nos besoins), d’origine nucléaire (4 %), et d’origine éolienne/solaire/géothermique (4 %). Or, les gisements de pétrole, de gaz et de charbon sont inégalement répartis sur la planète. À ce problème s’ajoute la question du changement climatique. La combustion de ces énergies dégage du CO2, principal gaz à effet de serre. Et selon une large majorité d’experts, principal responsable du réchauffement de la planète et du changement climatique. Le développement des énergies renouvelables (éolien, solaire, géothermie…) est donc à l’ordre du jour puisque ces énergies ne produisent pas ou peu de CO2.

Un passage obligé aux énergies alternatives

La problématique de l’épuisement des réserves d’énergie fossiles a totalement changé au cours des dernières années. Au début des années 2000, la question du pic de production du pétrole (peak oil) faisait l’objet d’importants débats. Ces derniers ont perdu de leur acuité avec la prise de conscience de l’abondance des ressources, et en particulier avec le développement de la production de pétrole de schistes aux États-Unis. Les ressources de pétrole, de gaz et de charbon sont considérées comme très abondantes (les réserves prouvées de pétrole correspondent à 50 ans de consommation au rythme actuel, celles de gaz à plus de 50 ans, et celles de charbon à des centaines d’années de consommation). Le problème est moins désormais celui des réserves d’énergies fossiles que celui de leur utilisation, responsable du changement climatique. Une fraction importante des ressources d’énergies fossiles ne devrait pas être exploitée si l’on veut éviter un réchauffement excessif de la planète. Le charbon est particulièrement visé. En effet, la production d’électricité à partir du charbon émet deux fois plus de CO2 que la production de la même quantité d’électricité à partir du gaz naturel.

Il importe de réfléchir dès maintenant à des sources d’énergie alternatives qui prendront progressivement le relais des énergies fossiles pour ralentir le réchauffement de la planète. Cependant, quel que soit le rythme de la transition énergétique, les énergies fossiles continueront un certain temps à être une source d’énergie importante, leur part devant décliner progressivement pour parvenir à des économies sobres en carbone. Il faut donc s’interroger sur la géopolitique des énergies fossiles. Le secteur de l’énergie connaît des transformations profondes sur le plan mondial. Alors que jusqu’en 2000, le paysage changeait peu, les dernières années ont été marquées par des bouleversements dans les sources d’énergie et d’approvisionnement. Mais jusqu’où iront ces changements ?

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 8 décembre 2022 !

Une nouvelle géopolitique de l’énergie, par Jean-Pierre FAVENNEC

Europe énergétique : l’espoir d’une union ?

Le coût de l’énergie, aujourd’hui au plus haut, constitue une source de tensions, que ce soit  dans l’industrie, chez les particuliers ou encore dans les services publics. Si l’Etat met tout en œuvre pour limiter, à coup de milliards d’euros, l’impact de cette hausse, il convient de se projeter au-delà de cette crise. Et il est difficile de penser que les prix de l’énergie vont sur le moyen terme retrouver la valeur qui était la leur avant la crise du Covid.

Le Président du MEDEF, Geoffroy Roux de Bézieux, a ainsi, sur France Info, confirmé que l’« énergie, en Europe, va coûter plus cher », avant de regretter le manque d’harmonisation au niveau européen, qui empêche une réponse efficace à la crise énergétique : « Nous fixons un prix pour l’électricité qui n’a aucun rapport avec le prix de production, puisque qu’on prend en compte le dernier facteur de production, c’est-à-dire le prix du gaz, comme référence (…). L’Europe n’a pas réussi à se mettre d’accord, et contrairement à ce qui s’est passé lors de la crise du COVID, nous sommes partis dans un chacun pour soi. »

En effet, l’Allemagne, moins endettée que la France, a mis en place l’équivalent d’un bouclier tarifaire pour ses entreprises, alors que du côté français, une grande partie des aides va plutôt aller du côté des ménages. Le nœud du problème réside dans le plafonnement des prix du gaz. Pays par pays, les membres de l’Union Européenne présentent des mix énergétiques très variés, ce qui rend les effets d’un plafonnement des prix du gaz très différents d’un pays à l’autre. Pour résumer, ce plafonnement profitera à certains pays et sera inefficace voire contraignant dans les autres. Partant de là, une position commune paraît difficile à trouver.

C’est ce que confirmait au Sénat cette semaine Laurence Boone, la secrétaire d’Etat chargée de l’Europe, lors d’une audition : « Le découplage que nous demandons du prix du gaz et de l’électricité nous bénéficie, mais coûtera cher à d’autres pays. Il faut que l’on arrive à trouver un mécanisme qui fait que l’on peut en bénéficier, mais sans faire porter de coûts financiers à ceux qui produisent beaucoup d’électricité avec du gaz ».

Alors, quelle peut être la solution ? Pour l’Europe, il s’agit de trouver des solutions qui vont à la fois permettre à tous les pays de traverser la crise énergétique actuelle en limitant son impact, et de projeter le continent sur un changement de paradigme énergétique, avec une électricité plus chère et dont le prix n’est plus global mais local. L’accélération de la décarbonation constitue à ce titre un choix cohérent.

Le 24 novembre, les Ministres européens de l’énergie se réunissent. La Commission Européenne entend proposer un plafond pour le prix du gaz dans la foulée. C’est ce qu’a laissé entendre le commissaire européen à l’Energie, Kadri Simon, lors de la COP 27 qui se tenait la semaine dernière. Si jamais un accord est trouvé par les Ministres le 24 novembre. Ce plafonnement pourrait être glissant, pour rester cohérent avec le marché. Il pourrait constituer la première pierre de la future stratégie énergétique européenne.

Des plantes bioluminescentes pour les villes et les habitations

En 2020, et en dépit des ralentissements dus à la pandémie, l’équipe de la start-up Woodlight obtient ses premiers résultats de luminescence chez des cellules végétales. Une réussite confirmée pour de bon en 2021, et qui vient couronner 5 années d’intense engagement de la part de ses fondateurs Rose-Marie et Ghislain Auclair. Prochaine étape : le prototypage sur une plante entière, en vue de permettre un balisage urbain écologique ainsi qu’une mise en lumière végétale dans les hôtels, restaurants et autres vitrines. Pour cela, « nous avons besoin de fonds pour recruter une spécialiste du domaine. Or, l’expertise a un prix… », indique Rose-Marie Auclair. Woodlight a donc ouvert le 15 novembre dernier une campagne de financement participatif sur la plate-forme Kriptown, offrant à chacun la possibilité d’obtenir des actions dans la société[1].

Luminescence : des cellules au végétal entier

Pour les deux docteurs en biologie génétique, l’aventure commence en 2016. Face à la pollution et au manque de verdure des grandes villes, une idée leur vient. « Comme les plantes absorbent le CO2, qui est un gaz à effet de serre, nous nous sommes demandé s’il ne serait pas possible de les rendre luminescentes », se souvient Rose-Marie Auclair. Le résultat serait une lampe 100 % verte : sans électricité et totalement recyclable ! Pendant deux années, les biologistes se forment et créent dans la foulée un laboratoire de biotechnologie de type fablab. Nous sommes alors en 2018 et la société Woodlight est officiellement fondée. Dès la fin de l’année, les premières preuves de concept font entrer la toute jeune start-up dans l’incubateur d’entreprises du Grand Est SEMIA. Les subventions qui en découlent mènent à l’embauche de trois précieux renforts dès 2019.

Les recherches passent alors de la mise en place du système de bioluminescence à son intégration dans des cellules végétales. L’équipe veut fournir à la plante Nicotiana – leur modèle – les gènes codant pour l’enzyme luciférase et le substrat luciférine. Et c’est la biochimie de l’interaction entre luciférase et luciférine qui est à l’origine du phénomène de luminescence. Son nouveau jalon technologique atteint, Woodlight vise désormais à produire un premier prototype visible d’ici mi-2024. « Pour la commercialisation il faudra encore attendre quelques mois afin de rendre les plants stériles, et ce pour éviter qu’ils ne se reproduisent de manière incontrôlée », précise Rose-Marie Auclair. Alors que de nombreuses villes pourraient se laisser tenter par l’offre de Woodlight pour seconder leur éclairage public, la start-up forme déjà des partenariats, comme avec Vhm dans la conception de mobiliers urbains adaptés à tous les usages. Rose-Marie Auclair présentera d’ailleurs au côté de son partenaire leur solution bioluminescente lors du Salon des Maires, qui se tient du 22 au 24 novembre prochain à la Porte de Versailles.

[1] Mise de départ à seulement 10 € !

Prix de l’énergie : à qui la faute ?

La hausse des prix de l’énergie touche en premier lieu les particuliers, qui vont voir leur facture d’électricité et de gaz exploser cet hiver. Les pouvoirs publics sont également très inquiets, les mairies au premier rang d’entre eux. C’est ce que révèle une enquête du CEVIPOF : 35% des maires de communes françaises sont très inquiets de l’augmentation du prix de l’énergie. Ces derniers prévoient des factures de gaz et d’électricité en forte hausse, dans une fourchette entre 30 et 300%. Les conséquences immédiates devraient être une limitation de l’éclairage public, du chauffage dans certains bâtiments publics, et surtout, pour près de la moitié des maires interrogés, une remise à plus tard des projets de transition énergétique prévus.

Enfin, c’est tout le secteur économique qui pâtit déjà de cette crise et craint les mois à venir. Le tissu industriel tricolore, qui espérait profiter d’un regain de croissance à la suite des multiples confinements liés à la crise sanitaire, est aujourd’hui dans l’œil du cyclone.

Les secteurs industriels les plus consommateurs au niveau énergétique sont aujourd’hui en train de s’adapter au contexte actuel : certaines entreprises ont diminué leurs cadences de production, tandis que d’autres ont tout simplement suspendu leur activité, tout en scrutant l’évolution du prix de l’énergie dans les mois qui viennent.

Et le moins que l’on puisse dire, c’est que l’avenir proche n’incite pas à l’optimisme. RTE a annoncé il y a quelques jours que l’hiver pourrait être rude : des coupures de courant ciblées pourraient intervenir au mois de janvier, si les températures sont plus froides que prévu.

Au-delà de la gestion de la crise actuelle, essayons de voir quels sont les facteurs les plus déterminants sur les prix actuels de l’énergie. A la fin du mois d’août de cette année, le tarif du mégawattheure a dépassé les 1000 euros. Le problème, au-delà du prix, est que ce tarif exorbitant concerne l’électricité achetée à l’avance pour 2023, signe que la crise énergétique va durer. A titre de comparaison, le mégawattheure se négociait, un an plus tôt, autour de 85 euros.

A qui la faute ?

La situation en Ukraine, pays souverain attaqué par le Russie à la fin du mois de février 2022, a tendu les relations internationales, alors que la planète se remettait tout juste de la crise du Covid, qui avait révélé la fragilité des chaînes de valeur mondialisées, entre autres.

Aussi, la Russie fournit du gaz, beaucoup de gaz, à l’Europe, depuis longtemps. Devant l’impossibilité immédiate de se passer du gaz russe pour mettre la pression sur Vladimir Poutine, les Européens ont décidé de mettre en place des solutions alternatives, pour, le plus rapidement possible, développer un approvisionnement en gaz moins lié au géant russe. 

Ainsi, l’Europe mise aujourd’hui sur le gaz naturel liquéfié pour son approvisionnement énergétique. Ce dernier a obligé l’Europe à se tourner vers les Etats-Unis, aujourd’hui premier fournisseur de GNL du continent. Le deuxième fournisseur est la Russie, qui a fortement augmenté ses livraisons de gaz liquéfié, depuis la chute des livraisons par gazoduc. Quoi qu’il en soit, ce n’est pas uniquement la situation en Ukraine qui explique les prix actuels de l’énergie, qui s’étaient envolés bien avant l’invasion du 24 février dernier.

La raison principale de la hausse subite des prix de l’énergie se trouve en réalité sur notre territoire. En effet, la France, qui fait la part belle au nucléaire dans son mix énergétique, voit aujourd’hui un nombre important de réacteurs à l’arrêt : ces derniers sont habituellement mis à l’arrêt pendant l’été, pour être révisés et rechargés en combustible. Sauf que cette année, de nombreux réacteurs n’ont pas pu être redémarrés. Le 6 septembre, ce sont 28 des 56 réacteurs présents sur le territoire qui étaient à l’arrêt. A la fin du mois d’octobre, 24 réacteurs étaient toujours à l’arrêt. La raison de ces arrêts intempestifs est un problème de corrosion, observé sur des tuyaux de refroidissement dans un réacteur de la centrale de Civaux, et sur de nombreux autres depuis.

Pour pallier à cette situation, l’Etat a deux solutions : importer de l’électricité, ou en produire par d’autres moyens. Dans les deux cas, l’électricité coûte beaucoup plus cher. C’est ce qui explique – principalement – la situation actuelle sur le front du prix de l’énergie, que la crise actuelle en Ukraine a aggravé, en projetant à la hausse le prix du gaz.

Par Pierre Thouverez

Les filles désertent les filières scientifiques : agissons !

La France veut se réindustrialiser, reprendre sa place dans le nucléaire, conquérir la chaîne de valeur de l’hydrogène, réussir la transition écologique et énergétique, se renforcer dans le digital… Comment réussir ces défis sans la moitié des talents, les filles, alors que nous avons un manque structurel d’ingénieurs ?
5.000 ingénieurs manquent dans la filière hydrogène, 10.000 dans la filière de l’air et de l’air et de l’espace, 10.000 dans le nucléaire… chaque année 38.000 nouveaux ingénieurs sont diplômés, alors qu’il en faudrait 60.000.
Grâce à un travail en profondeur et sans relâche durant les deux dernières décennies, l’effectif des filles avait augmenté jusqu’à représenter 47% des élèves présentant un bac scientifique.
Selon le collectif Maths et Sciences [2], depuis la réforme du bac en 2019, l’effectif des élèves à profil scientifique a plongé de 24% pour un nombre stable de bacheliers. Pire, la part des filles a encore plus baissé : parmi les élèves recevant plus de 6 heures de cours de maths en terminale, l’effectif des filles a baissé de 61% !

Ces résultats confortent ceux des enquêtes de l’association Ingénieurs Et Scientifiques de France (IESF), ainsi que ceux de Gender Scan montrant un recul significatif des jeunes filles dans les filières scientifiques. Un corollaire étant qu’en terminale seulement 1, 6 % des élèves choisissent la voie des sciences de l’Ingénieur ! et 2, 5 % celle du numérique et des sciences de l’information [3] !
Pour cette filière plus spécifiquement, pourtant source majeure d’innovation et de développement économique, les écoles, fédérations professionnelles et les entreprises ont multiplié les politiques d’incitation afin d’attirer plus de femmes vers les métiers du numérique. Pour autant la pénurie de talents en général et de talents féminins en particulier est toujours aussi chronique et inexpliquée dans cette filière.

La désertion des filles des filières scientifiques est catastrophique parce que la mixité est un atout pour la compétitivité de notre industrie et de notre recherche :

  • Le rayonnement scientifique de la France au niveau international ne peut pas se faire en se passant de plus de 50% du vivier de talents.
  • La réponse à des défis climatiques et sociétaux de plus en plus prégnants, les projets de réindustrialisation de la France, les enjeux de compétitivité et de souveraineté de la France sur la scène européenne et internationale, la pénurie de talents à laquelle sont confrontées les entreprises et tout particulièrement les entreprises du numérique montrent l’importance grandissante des STIM* dans les formations et parcours professionnels.

Tous les grands défis de notre temps nécessitent des équipes mixtes femmes / hommes :

  • Énergies propres, sobriété, intelligence artificielle, informatique quantique, gestion des données, cybersécurité…, sont autant de défis qui façonnent déjà le futur de notre société et de notre économie, et qui concernent, dans toutes leurs dimensions, autant les femmes que les hommes.
  • Or la pénurie de talents dans les milieux scientifiques et numériques nuit gravement au développement de solutions à ces défis. Nous ne pourrons donc pas construire une société prospère et inclusive, sans les ingénieures, développeuses, chercheuses… indispensables, ne serait-ce que pour éviter les biais de genre dans la conception et l’exploitation des solutions.

C’est pourquoi les membres du collectif signataires de cette tribune appellent à se saisir dès aujourd’hui de ce sujet pour renforcer les initiatives existantes – qui ont fait leur preuve – et impulser une dynamique de changement d’échelle.

Pour agir sur l’orientation des filles afin de les réintégrer dans les parcours scientifiques il est tout particulièrement indispensable de :

    1. 1. Au-delà de modifier au plus vite les programmes de tronc commun de 1ère et de terminale pour les maths et les matières scientifiques, s’attaquer également au sujet dès l’école primaire.
    1. 2. Renforcer les actions systémiques de formation de la part de l’éducation nationale envers les professeurs et notamment les professeurs principaux chargés de l’orientation pour les former aux sciences, aux enjeux de compétences et aux inégalités filles/garçons.
    1. 3. Accélérer la mise en œuvre d’actions pour promouvoir l’égalité filles / garçons, auprès des corps enseignants et des parents sachant que le décalage garçons/filles sur ces sujets liés aux maths commence dès l’âge de 6 /7 ans [4].
    1. 4. Se donner une ambition ferme, volontariste et à grande échelle à travers une loi de programmation pluriannuelle d’orientation des compétences pour répondre aux enjeux de France 2030, en capitalisant sur les actions les plus impactantes proposées et mises en place par les associations, les établissements d’enseignements supérieurs ou les entreprises.

Les cosignataires (mise à jour du 18/11) :
2GAP
AM alumni
Cercle InterElles
Cigref
Conférence des Grandes Ecoles (CGE)
Digital Ladies & Allies
Ensemble contre le sexisme
ESSEC alumni
Femmes@Numérique
Femmes Ingénieures
Institut G9+
Grandes Écoles aux Féminins (GEF)
Ingénieurs Et Scientifiques de France (Iesf)
HEC Au Féminin
Sciences ParisTech au Feminin
UPSTI

 


 

[1] https://www.gouvernement.fr/actualite/france-2030-un-plan-d-investissement-pour-la-france-de-demain
[2] https://smf.emath.fr/actualites-smf/22104reformelyceefillessciences
[3] https://smf.emath.fr/actualites-smf/22913reformelyceeprofilssciences1
[4] https://femmes-numerique.fr/et-toi-tu-reves-de-faire-quel-metier-plus-tard-pour-changer-le-monde/
* STIM (science, technologie, ingénierie et mathématiques) ou STEM (science, technology, engineering, and mathematics)

Techniques de l’Ingénieur participe au Salon BE 4.0

Né de l’envie de faire avancer les industriels de la région mulhousienne vers l’industrie du futur, le salon BE 4.0 grandit au fur et à mesure des années et rassemble une communauté solide et dynamique. Il met également en avant l’excellence opérationnelle et la créativité de 300 porteurs de solutions de la France, l’Allemagne et de la Suisse afin de susciter des rencontres et de nouveaux projets.

L’édition de cette année va réunir tous les décideurs et acteurs de l’industrie et de la transition 4.0 autour du thème “piloter votre transition”. Pendant 2 jours, vous aurez la possibilité d’appréhender les solutions technologiques, découvrir les dernières innovations, dynamiser votre réseau et d’échanger pour réussir sa transformation vers l’industrie du futur. Notamment en participant aux conférences plénières qui aborderons 4 enjeux actuels :

  • l’accélération de la transformation digitale, 
  • la relocalisation de la production, 
  • la décarbonation, 
  • et la collaboration homme/machine 5.0.

Toutes ces conférences seront diffusées en direct sur le site du salon et traduites en simultané en français-anglais.

En parallèle, BE 4.0 industries du futur proposera d’autres temps forts comme :

  • De nombreux ateliers proposés par les exposants,
  • Un village de startups innovantes,
  • Un espace « solutions » animé par des démonstrations de technologies 4.0, de la R&D et des conférences d’experts sur leurs innovations et projets innovants,
  • Un espace « compétences » réunissant les solutions de formation et laboratoires de recherche,
  • Un espace B2B dédié aux rendez-vous d’affaires entre acteurs de l’écosystème tri-national de l’industrie 4.0,
  • Des parcours thématiques pour découvrir les savoir-faire et l’excellence des exposants.

Pour plus d’informations, rendez-vous sur le site de l’évènement https://www.industriesdufutur.eu/fr

Un procédé de guérison sous stimulus pour réparer les élastomères thermoplastiques

Les matériaux autoréparants font l’objet d’un vif intérêt scientifique depuis plus d’une décennie. Coupés en deux, ils sont capables de cicatriser spontanément lorsque les deux morceaux sont remis en contact. Leur développement à l’échelle industrielle se heurte cependant à plusieurs difficultés. Pour qu’ils se réparent à température ambiante, la mobilité des molécules constituant ces matériaux doit être suffisante pour générer le soudage macroscopique. Or, cette forte mobilité n’est pas toujours compatible avec des matériaux robustes, produits à grande échelle dans l’industrie. S’inspirant des propriétés des matériaux intelligents, une équipe de chercheurs de l’INSA de Lyon a développé, au sein d’un projet baptisé Pommade¹, un nouveau procédé de guérison sous stimulus, applicable sur une gamme de matériaux produits à grande échelle : les élastomères thermoplastiques (TPEs).

« Pour ce projet, nous avons décidé d’assumer le fait qu’un stimulus soit nécessaire pour déclencher la guérison, permettant d’élargir considérablement les possibilités en termes de nature de matériaux, et notamment d’aller vers des thermoplastiques plus durs, révèle Guilhem Baeza, maître de conférences HDR et chercheur au laboratoire Mateis. Les TPEs sont des polymères omniprésents dans notre quotidien : mousses, liant bitumineux, électroménager, bioplastiques, revêtement de sols… et les plus gros tirages sont réalisés pour l’industrie automobile. Ce sont notamment ces caoutchoucs, agréables au toucher, que l’on retrouve un peu partout dans l’habitacle et dans l’assemblage des tableaux de bord. Ils présentent le grand avantage de pouvoir s’écouler à température élevée, permettant une mise en forme facile et leur cicatrisation. En revanche, l’énergie thermique à température ambiante ne suffit pas à donner la mobilité moléculaire suffisante pour la guérison du matériau. Pour qu’elle s’opère, il faut lui apporter de l’énergie. »

Pour faire monter en température le matériau, les scientifiques utilisent la méthode du chauffage par induction. Elle consiste à incorporer des nanoparticules dans les TPEs et qui ont la particularité de répondre à un champ magnétique. Elles sont constituées de fer ou de magnétite (oxyde de fer : Fe3O4) et représentent entre 1 et 5 % du volume du matériau, ce qui rend possible la guérison sans changer de façon significative les propriétés mécaniques du matériau. Concrètement, la guérison consiste à appliquer un champ magnétique oscillant à très haute fréquence, de l’ordre de 1 mégahertz, sur les TPEs. Les nanoparticules présentes à l’intérieur vont alors chauffer et entraîner une mobilité des chaînes polymères. Celles-ci vont ensuite pouvoir s’écouler et ainsi permettre la cicatrisation.

Récupérer quasiment les mêmes propriétés de la pièce originelle

« Lorsque l’on coupe en deux un TPE dans lequel sont incorporées des nanoparticules, puis que l’on met en contact les deux parties, l’application du champ magnétique pendant une minute sur la fissure suffit pour récupérer l’intégrité de la pièce, explique l’enseignant-chercheur. Les propriétés de la pièce guérie sont alors quasiment identiques à celles de la pièce originelle. Certes, si l’on va loin dans la déformation (>100 %), on peut s’apercevoir que la guérison n’est pas parfaite, mais elle est largement suffisante pour la plupart des applications industrielles pour lesquelles les TPEs n’ont pas vocation à être déformés de façon trop importante. »

Une autre application de ce procédé est également envisagée et concerne le lissage de pièces imprimées en 3D. L’une des principales contraintes de cette technique de fabrication par dépôt de fils fondus se situe au niveau de sa vitesse d’exécution. Pour concevoir une pièce très lisse, sans défaut, un temps de fabrication très long est nécessaire, pouvant atteindre une journée entière pour obtenir une pièce de quelques dizaines de centimètres seulement. Ici, l’idée est de fabriquer rapidement le matériau, puis d’appliquer ce nouveau procédé a posteriori. « Cette technique existe déjà grâce à l’utilisation d’un traitement chimique, précise Guilhem Baeza. Elle consiste à diffuser des vapeurs d’acétone à la surface de la pièce pour faire s’écouler superficiellement le polymère et ainsi lisser sa surface. Nous avons démontré que notre procédé pouvait également être utilisé dans ce but, pour l’instant à l’échelle de quelques centimètres. En effet, comme le champ magnétique ne pénètre que sur 1 ou 2 mm, il est possible de rendre la surface liquide, et donc lisse, tout en gardant l’intégrité de la pièce. »

Ce nouveau procédé, adapté aux TPEs, a été récemment breveté et existe sous la forme d’un démonstrateur de laboratoire. Les chercheurs tentent à présent de poursuivre son développement en nouant des partenariats avec des industriels. L’un des projets futurs pourrait par exemple consister à réparer des pare-chocs abîmés. Un projet ANR (Agence nationale de la recherche) va également être lancé à la suite de ce travail de recherche, sur des aspects fondamentaux, pour comprendre la manière dont se comportent les nanoparticules et quantifier les effets de chauffage dans les TPEs.


¹ Le projet Pommade (Polymar Materials Induction Healing) est financé par l’Institut Carnot

L’Etat et l’Europe au secours de l’industrie

La hausse des prix, que ce soit en termes d’énergie ou de matières premières, impacte de plus en plus l’ensemble du tissu industriel français. Alors que de nombreux salariés réclament d’ici à la fin de l’année des hausses de salaires pour contrecarrer l’inflation galopante, la problématique énergétique vient de faire passer ces désirs au second plan. En effet, nombre d’entreprises industrielles se trouvent aujourd’hui dans des situations intenables. C’est le cas de l’usine Ascometal de Fos par exemple, qui prévoit un coût annuel de l’électricité passant de 7 à 80 millions d’euros, entre 2022 et 2023. Une hausse exponentielle, ingérable pour l’entreprise qui, pour pallier cette situation, a décidé de stopper son activité durant quelques mois. Les exemples tels que celui-ci sont nombreux. Les entreprises Duralex (production de verre), l’aciérie Aperam, ont par exemple pris des mesures similaires pour assurer la survie de leurs outils de production. Evidemment, les employés de ces entreprises vont voir leurs salaires diminuer, dans une période inflationniste qui risque rapidement de tendre les rapports sociaux, dans l’hexagone mais aussi sur l’ensemble du continent.

Les exemples d’entreprises industrielles contraintes d’arrêter provisoirement leurs outils de production sont nombreux au sein de l’hexagone, mais aussi dans toute l’Europe. C’est pourquoi les gouvernements, mais aussi l’Union Européenne interviennent, pour soutenir financièrement les secteurs d’activité dans l’impossibilité d’absorber cette hausse des prix de l’énergie, et pour proposer des solutions à court moyen terme permettant de surmonter cette crise. Notamment en se défaisant de la dépendance européenne au gaz russe.

En France, l’Etat, après avoir réuni les partenaires sociaux, a mis en place différentes mesures pour protéger au mieux les entreprises face aux hausses tarifaires. Ces mesures, dont certaines ont été mises en place dès la fin de l’année 2021 sont adaptées dans le temps et selon la taille des entreprises, soulagent déjà plusieurs secteurs en crise. Il faut souligner que ces mesures s’inscrivent pour la plupart dans le prolongement de négociations menées au niveau européen, pour harmoniser ces aides à l’échelle du continent.

Pour les très petites entreprises, le bouclier tarifaire est maintenu jusqu’à la fin de l’année 2022, et sera remis en place pour limiter les hausses des tarifs réglementés de la vente d’électricité à 15% pour l’année à venir. Aussi, pour les TPE (et les PME) qui consomment le plus d’énergie de part la nature de leur activité, le principe d’”amortissement électricité”, à partir du début 2023, verra l’Etat prendre en charge une partie de la facture énergétique contractée par les entreprises concernées. Enfin, comme pour les ETI, le principe du guichet unique, pour les entreprises très énergivores, leur permettra de bénéficier directement de montants importants pour supporter la hausse des tarifs.

Pour les entreprises de taille intermédiaires et les grandes entreprises, la mise en place du guichet unique pour le gaz et l’électricité est reconduite jusqu’à la fin de l’année 2022, avec un critère simplifié : cette aide concerne les entreprises dont la facture énergétique se chiffre à au moins 3% du chiffre d’affaires, et qui ont vu le montant de cette facture doubler cette année. Le montant de ces aides à d’ailleurs été doublé pour atteindre réellement ses objectifs. 

Enfin, les entreprises énergo-intensives : elles ne sont pas très nombreuses mais leur consommation énergétique est extrêmement importante. Pour ces dernières, l’Etat a mis en place des aides pouvant aller jusqu’à 150 millions d’euros, selon le type d’activité et la facture énergétique propre à l’entreprise.

Ces aides, qui ont été révisées à la hausse au mois de septembre suite à la demande de nombreuses entreprises, qui les estimaient mal proportionnées et inefficaces, font encore aujourd’hui l’objet de débats sur leur utilité, et sur leur montant.

Ainsi, l’Allemagne, qui vient de débloquer 200 milliards d’euros pour aider les entreprises germaniques en difficulté, fait des jaloux : les autres États membres soulignent une initiative unilatérale de l’Allemagne, alors que le Conseil Européen s’échine à proposer une réponse collective à ces hausses tarifaires. Le montant des aides accordées à l’industrie allemande fait aussi tiquer, côté français notamment, où l’on qualifie la démarche de concurrence déloyale. Crise énergétique ou pas, la guerre commerciale se poursuit en Europe.

Par Pierre Thouverez

iQspot connecte les bâtiments pour réduire leurs consommations

iQspot se revendique comme le leader du secteur et le seul acteur en France à proposer un système complet de suivi en temps réel des consommations d’un bâtiment. Facile à installer et simple d’usage, la solution – fruit de deux années de travaux de R&D – équipe actuellement plus d’1,7 million de mètres carrés de bâtiments. L’association de capteurs connectés avec une plateforme d’analyse en ligne permet aux investisseurs immobiliers de suivre au plus près les consommations de leurs bâtiments, zone par zone et à l’aide de graphiques. Un système d’alerte permet également de prévenir ces gestionnaires en cas d’incident ponctuel, tel qu’une fuite d’eau non détectable visuellement. En pleine croissance, la jeune pousse s’engage désormais également dans la voie de l’internationalisation, comme nous le révèle Julien Bruneau, co-fondateur et CEO d’iQspot.

Techniques de l’Ingénieur : Pouvez-vous nous retracer les grandes étapes de la création d’iQspot ?

iQspot, fondateurs, Quentin Enard, Julien Bruneau
Quentin Enard (à droite), CTO et co-fondateur d’iQspot, et Julien Bruneau (à gauche), CEO et co-fondateur de la start-up. © iQspot

Julien Bruneau : Nous nous sommes lancés à deux, Quentin Enard et moi-même, alors que nous étions en thèse d’informatique. Nous venons donc plutôt de ce monde-là, de l’informatique et de l’IoT[1]. Nos thèses tournaient autour d’une question : comment utiliser le monde de l’IoT dans de la programmation logicielle ? Nous nous sommes lancés après nos thèses avec le constat que le monde du bâtiment bénéficiait jusqu’alors de technologies relativement anciennes par rapport à ce que nous avions pu voir dans d’autres domaines au cours de notre thèse. Nous nous sommes donc interrogés sur la façon de changer cela, dans l’objectif de rendre les bâtiments plus performants, plus efficaces. C’est vraiment le point de départ… Nous nous sommes ainsi lancés à deux, assez naïvement il faut dire ! (Rires)

De fil en aiguille, nous nous sommes concentrés sur un premier sujet : celui de l’efficacité énergétique. Nous avons cherché comment nous pourrions utiliser l’IoT pour suivre de façon simple les consommations des bâtiments. Puis un second sujet a naturellement découlé de cette première réflexion : comment parvenir à préconiser des actions efficaces pour avoir un effet bénéfique sur les consommations énergétiques, c’est-à-dire les réduire. Nous nous sommes aussi spécialisés sur une typologie d’acteurs en particulier dans ce domaine du bâtiment, qui sont les investisseurs immobiliers.

Actuellement, nous utilisons aussi des capteurs IoT pour suivre d’autres types de données dans le bâtiment, qui sont, par exemple, des données de confort comme la température, l’humidité ou la luminosité ; des données de qualité de l’air, comme la concentration en CO₂ et même le niveau de déchets dans les conteneurs des immeubles, chose que nous venons de lancer. Tout ceci avec toujours la même vision : comment utiliser l’IoT pour avoir la meilleure vision possible des bâtiments et les rendre les plus efficaces possible.

D’où proviennent les différents capteurs IoT que vous évoquez ? Avez-vous réalisé leur développement, ou du moins contribué à leur conception ? Comment fonctionnent-ils ?

La base de ces capteurs est constituée par des éléments sur étagère. Mais nous avons effectivement réalisé de nombreux échanges avec leurs fabricants pour leur faire des retours sur l’utilisation que nous en avions et améliorer leur paramétrage. Il s’agit en effet, en quelque sorte, de « coquilles vides » avec lesquelles on peut tout faire ou presque. Nous avons donc beaucoup échangé afin d’optimiser leur configuration… Des adaptations ont également dû être réalisées sur certains capteurs, du côté de leur fabricant.

Pour la partie énergie par exemple – celle que nous déployons le plus –, les capteurs s’installent généralement sur les compteurs généraux, les points de livraison des bâtiments : les compteurs Enedis pour l’électricité, les compteurs GRDF pour le gaz… L’idée est vraiment de rendre connectable n’importe quel compteur, quelle que soit sa génération, y compris les très anciens compteurs électromécaniques. Le point commun de tous les compteurs est que nous pouvons récupérer une impulsion, qui peut être lumineuse, électrique, ou initiée par un aimant, par exemple pour un compteur d’eau. Il existe plein de cas de figure différents, mais dans tous les cas une impulsion est donc générée. Nos capteurs saisissent ces impulsions, et ce sont ces informations qu’ils vont transmettre sur le réseau IoT. Un réseau qui peut être privé ou public, géré par un opérateur. Nous utilisons notamment le LoRa[2]. Dans le cas de l’utilisation d’un réseau privé, nous faisons appel à un concentrateur connecté au propre réseau LoRa privé déployé dans le bâtiment. C’est souvent ce que nous faisons dans des bâtiments de type haussmannien, à Paris : les compteurs sont souvent situés en sous-sol, parfois très en profondeur. Il n’y a donc souvent pas d’autre choix que d’avoir cette architecture de réseau. Mais si les compteurs sont plutôt au-dessus du sol et dans des zones relativement moins denses en termes d’urbanisation, alors nous pouvons directement connecter le capteur au réseau opéré, comme Objenious de Bouygues Télécom, ou le réseau LoRa d’Orange.

La réglementation a commencé à inciter les gens à prendre en compte cet enjeu de suivi énergétique, mais l’explosion des prix de l’énergie a rendu indispensable le fait de pouvoir mener des actions immédiates, sans travaux ; et c’est là-dessus que nous sommes clairement positionnés. En moyenne, pour un bâtiment de quelques milliers de mètres carrés, une demi-journée suffit en effet à l’installation de notre solution, sans interruption de l’exploitation du bâtiment. Cela permet d’obtenir des premiers axes d’améliorations possibles au bout d’une à deux semaines seulement.

Une fois transmises sur le réseau, comment ces données sont-elles analysées ?

Toutes les données sont centralisées sur un tableau de bord accessible depuis n’importe quel navigateur web. Le gestionnaire ou le propriétaire du bâtiment a accès, sur cette plateforme, à toutes les informations qui le concernent. Il s’agit d’une part de restitution « classique », permettant de suivre chaque point de mesure de la façon la plus précise possible et de comparer les différentes zones entre elles, avec également de nombreux graphiques, de nombreuses courbes. Mais nous avons aussi, d’autre part, des systèmes d’alerte automatique : s’il y a une fuite d’eau ou une surconsommation d’énergie soudaine, des notifications sont automatiquement envoyées par e-mail directement à la personne concernée, afin de lui permettre d’agir le plus vite possible.

Au-delà des alertes ponctuelles en cas d’incident, quels bénéfices à plus long terme votre solution permet-elle d’obtenir ?

Nous avons réalisé une étude à ce sujet en début d’année, afin d’évaluer précisément ces bénéfices. Sur la partie énergie, ce qui en découle est que, dès la première année, on peut obtenir une diminution de 16 % des consommations d’énergie. On installe la solution et c’est en moyenne ce que l’on obtient au bout d’une année… Ce qui est vraiment bien !

Sur l’eau, l’évaluation est un peu plus délicate, car le principal bénéfice reste celui d’être immédiatement prévenu si une grosse fuite d’eau survient. Il est donc difficile de quantifier les bénéfices précis en la matière, mais cela permet en tout cas à nos clients d’être réactifs et d’éviter de gros dégâts lorsqu’il s’agit de fuites situées dans des zones non directement visibles.

Quels sont les coûts – d’installation, de fonctionnement, de maintenance… – de la solution que vous proposez ?

Nous proposons notre solution sous la forme d’un abonnement à 100 %, qui s’étale sur plusieurs années : il n’y a aucun coût de départ pour l’installation. En ce qui concerne son montant, l’ordre de grandeur va vraiment dépendre des typologies d’immeubles, du nombre de locataires… La fourchette oscille entre 30 centimes par mètre carré et par an, jusqu’à 1,50 € en fonction, donc, des typologies d’immeubles, mais également des options choisies.

Beaucoup de nos clients investisseurs immobiliers raisonnent souvent en budget de charges sur leurs immeubles, notre offre d’abonnement leur permet donc d’inclure nos services assez facilement dans leur budget.

Quelle est la durée de vie des piles alimentant vos capteurs ?

En moyenne, nos capteurs émettent en standard une donnée par heure, ce qui est largement suffisant pour suivre au mieux les paramètres des bâtiments. Avec cette fréquence, nous constatons en général une durée de vie de 3 à 5 ans. Il faut ensuite remplacer les piles des capteurs, qui sont aujourd’hui très faciles à changer.

Outre les investisseurs immobiliers, à qui votre solution peut-elle s’adresser ?

Notre solution s’adresse particulièrement, au sens large, aux personnes qui gèrent des parcs de bâtiments. Elle leur permet en effet d’avoir une vision sur ce qui s’y passe et de cibler les actions à mener, grâce aux résultats qui sont remontés automatiquement. Notre cible principale reste donc celle des investisseurs immobiliers, mais, en fonction des opportunités, nous travaillons aussi parfois avec des collectivités ou des entreprises disposant de directions de l’immobilier et qui gèrent donc des parcs de bâtiments importants. Ce sont des marchés sur lesquels nous espérons également pouvoir nous développer d’ici peu, car le besoin est là.

Le grand public est en revanche moins la cible. Il s’agit vraiment d’un marché à part, avec des attentes tout à fait différentes. C’est aussi un monde avec beaucoup plus d’acteurs ! C’est un autre métier, vers lequel nous ne prévoyons pas de nous tourner.

Dans quelle mesure votre solution est-elle aujourd’hui déployée ? Quelles sont vos perspectives de développement ?

iQspot, équipement, parcs immobiliers
La solution développée par iQspot équipe aujourd’hui près d’1,7 million de mètres carrés de parcs immobiliers. © joel-filipe

Nous avons actuellement près d’1,7 million de mètres carrés de parcs immobiliers couverts par notre solution. Cela représente à peu près une trentaine de clients, pour des bâtiments situés partout en France, mais également maintenant dans des pays voisins. Nous débutons ainsi notre internationalisation avec des clients français qui ont des bâtiments ailleurs en Europe. Cela nous permet de tester la technologie sur d’autres types d’immeubles. Nous sommes pour l’instant très agréablement surpris ! Cela fonctionne très bien en dehors de nos frontières.

Cette année, en termes de montants pour le parc équipé, nous allons doubler notre chiffre en 2022 et notre objectif est, de nouveau, de doubler en 2023, puis en 2024. La tendance est vraiment forte, nous sommes sur un créneau très porteur : la réglementation pousse les clients à faire appel à ce type de solution, tout comme l’augmentation du montant des factures énergétiques.


[1] Internet of Things, internet des objets

[2] Long Range ou « longue portée »

La crise force l’industrie à la sobriété énergétique

Depuis le milieu de l’année  2022, les prix de l’énergie se sont envolés. Pour les particuliers comme pour les entreprises et l’industrie au sens large. En effet, en moyenne sur le continent européen depuis trois mois, les prix de l’électricité ont été multiplié par quatre et celui du gaz par trois. Une hausse qui impacte directement l’industrie dans sa globalité, et plus durement certains secteurs, comme ceux de la fonderie et de la métallurgie, très énergivores. 

Ces hausses de prix trouvent leurs origines à travers deux réalités : la première est la reprise économique post Covid. En effet, la reprise de l’activité observée à la sortie des multiples confinements a mécaniquement fait grimper les prix de l’énergie, tout simplement à cause de la hausse subite de la demande.

Aussi, la guerre provoquée par la Russie en Ukraine est venue aggraver cette situation, l’Europe s’engageant à mettre en place des modes d’approvisionnement en gaz la libérant de son voisin russe, qui fournissait il y a encore quelques mois près de la moitié du gaz importé par les européens. Et qui en fournit toujours une grande partie.

Si l’Etat français a mis en place des mesures destinées à venir en aide aux entreprises dans l’incapacité d’absorber ces hausses, le gouvernement a également publié une feuille de route pour inciter les entreprises à plus de sobriété. En effet, les incertitudes sur les prix de l’énergie dans les mois qui viennent obligent les entreprises à évoluer rapidement vers des modes de fonctionnement plus sobres, pour limiter l’impact des fluctuations des prix, tributaires du contexte international.

Ainsi, le Ministère de l’Ecologie a publié au début du mois d’octobre un « plan sobriété », qui doit permettre aux entreprises de consommer moins d’énergie.

Un plan sobriété en dix points

Le premier point, celui sur lequel les économies potentielles sont les plus importantes, est le chauffage. De nombreuses entreprises ont une facture de chauffage très importante car elles possèdent de nombreux bâtiments qu’il faut chauffer pendant tout l’hiver. Pour certains secteurs d’activité, le chauffage des bâtiments représente plus de la moitié de la facture énergétique. Pour ces derniers, baisser la température des pièces de un degré permet de faire baisser leur facture d’environ 7 %.

Dans la même veine, une gestion plus intelligente des éclairages, soit en réduisant les éclairages extérieurs, soit en privilégiant des ampoules LED, doit permettre aux industriels de limiter leur consommation sans réduire la productivité du site concerné.

Viennent ensuite des dispositions plus sectorielles : pour les industriels utilisant des équipements de chauffage et de froid, il leur est conseillé de les optimiser le plus régulièrement possible, au-delà des inspections quinquennales, pour économiser l’énergie consommée par ces équipements. D’ailleurs, le gouvernement élargit ces recommandations à tous les types d’équipements industriels.

Le numérique est également un point sur lequel des économies d’énergies peuvent être réalisées : éteindre les ordinateurs le soir, être plus pointilleux sur les envois de mails non indispensables, mais aussi rationaliser la taille des salles de serveurs, les modes de refroidissement… ces dispositifs, autant au niveau des choix de l’entreprise que des habitudes des salariés, participent à la diminution de la facture énergétique de l’entreprise.

Enfin, le gouvernement insiste également à travers sa feuille de route sur l’importance d’impliquer les salariés dans ces démarches : par la formation, la pédagogie, et par l’action individuelle. En effet, chacun à leurs niveaux, les salariés peuvent choisir des modes de transports propres, faire un usage raisonné de leurs outils informatiques, ou encore télétravailler. Ce dernier point, le télétravail, peut se révéler être un outil très efficace pour économiser de l’énergie, si jamais il est accompagné d’une fermeture des bureaux qui ne sont pas occupés par les salariés en télétravail.

Pour terminer, il est aussi demandé aux entreprises de faire un état des lieux de ses consommations d’énergies et de ses pratiques. Pour, in fine, s’engager dans des démarches d’économies d’énergies plus ambitieuses, investir dans des projets d’efficacité énergétiques ou de décarbonation ou encore développer des produits et des services les plus éco conçus possible.

Si l’urgence climatique n’a pour le moment pas eu l’effet escompté sur les modes de production et de fonctionnement de l’ensemble du tissu industriel français, la crise énergétique actuelle fait bouger les lignes. Il en va de la survie d’une grande partie du tissu industriel tricolore. Les incertitudes quant à un retour à un prix de l’énergie plus raisonnable vont, à coup sûr, obliger les entreprises à considérer les ajustements que nous venons d’évoquer comme des obligations pour rester compétitives.

D’ailleurs, selon RTE, les premiers effets de ce plan commencent à se faire sentir, même si la douceur des températures au mois d’octobre incite à la prudence quant aux effets réels des incitations gouvernementales.

Par Pierre THOUVEREZ