Pour faire office de candidat à la manipulation d’informations quantiques, un matériau doit présenter des propriétés électriques et optiques très particulières. L’utilisation d’ions d’éléments de terres rares, notamment l’ion europium Eu3+, fait ainsi partie de ces solutions potentielles, explorées par les deux chercheurs américains.
Comment choisir les bons matériaux pour l’informatique quantique ?
« Normalement, dans le domaine de l’ingénierie des matériaux, on peut consulter une base de données et trouver le matériau connu qui devrait convenir à une application particulière.Par exemple, des personnes ont travaillé pendant plus de 200 ans pour trouver des matériaux légers et résistants pour différents véhicules. Mais dans le domaine de l’informatique quantique, nous n’y travaillons que depuis une ou deux décennies, de sorte que la population de matériaux est en fait très réduite et que l’on se retrouve rapidement en territoire chimique inconnu. »
En ce qui concerne les « propriétés quantiques des matériaux », tout le travail reste donc à faire, ce qui rend la phase de choix particulièrement complexe ! Pour tenter de résoudre cet épineux problème, les deux chercheurs américains proposent ainsi d’utiliser une méthode appelée Théorie de la fonctionnelle de la densité, aussi appelée méthode DFT.
Les calculs réalisés par cette méthode leur ont ainsi permis d’identifier des composés d’europium pouvant faire office de plate-forme de mémoire quantique.
De la sélection du bon candidat à sa synthèse
Dans le papier publié dans le Journal of the American Chemical Society (ACS), les chercheurs expliquent que la méthode DFT leur a permis de sélectionner plusieurs candidats, dont l’halogénure de pérovskite double Cs2NaEuF6, qui présente l’avantage d’être stable dans l’air. Par ailleurs, les chercheurs ne se sont pas contentés de le sélectionner, puisqu’ils ont également été les premiers à le synthétiser.
D’autres matériaux potentiels ont également été listés comme candidats, mais le plus important est probablement la méthode en elle-même, puisque les chercheurs ont prouvé qu’il était à la fois possible de prédire les composants stables et de les synthétiser.
L’informatique quantique, s’oriente vers le Quantum as a Service
Bien qu’émergente, l’informatique quantique entre désormais en phase de démocratisation, puisque le monde industriel et académique a désormais accès a cette technologie révolutionnaire, via un service de cloud computing appelé Quantum as a Service ou QAAS.
Le 18 mars 2024, le spécialiste français du cloud computing OVH a ainsi inauguré son premier ordinateur quantique, acquis un an plus tôt. Cette machine, appelée MosaiQ, a été développée par la start-up française Quandela qui a ni plus ni moins pour ambition de démocratiser l’accès au calcul quantique pour l’industrie, la recherche et la communauté académique.
Enfin, OVHcloud va prochainement lancer un programme éducatif à destination des étudiants qui leur donnera accès aux différentes technologies quantiques proposées par Quandela, mais aussi Pasqal, C12, Eviden et Alice&Bob.
Lancé en décembre 2019, le Pacte Vert européen ou European Green Deal est une initiative de l’Union européenne visant à parvenir à la neutralité carbone à l’horizon 2050. Sur le plan des systèmes agro-alimentaires, une approche globale est mise en œuvre, en considérant l’ensemble de la chaîne alimentaire, de la ferme à l’assiette. La démarche vise à agir sur trois leviers principaux : le développement d’une agriculture agroécologique, la réduction des pertes et gaspillages alimentaires et l’adoption de régimes alimentaires plus sains et plus durables. Des chercheurs de l’INRAE ont analysé quels seront les impacts de ces leviers et ont publié leurs travaux dans la revue de l’OFCE.
Grâce à des simulations réalisées à partir d’un modèle original du secteur agroalimentaire européen calibré sur les données des années 2018 à 2020, les auteurs de cette étude estiment que l’utilisation conjointe des trois leviers peut permettre d’obtenir des résultats significatifs sur le plan climatique et environnemental. D’ailleurs, leur analyse suggère qu’il n’existe pas de véritable voie alternative, puisqu’en poursuivant le modèle actuel basé sur l’intensification de la production, il faudrait retirer des surfaces de la production agricole pour restaurer la biodiversité, tout en augmentant les rendements sur les terres restant dévolues à la production agricole.
Les chercheurs pointent tout de même du doigt que les impacts du Pacte Vert seront sensiblement différents selon qu’un seul levier est actionné ou que les trois leviers sont utilisés simultanément. Par exemple, la mise en œuvre du seul levier de l’agroécologie, qui prône une extensification de l’agriculture par un moindre recours aux intrants chimiques et à l’augmentation des surfaces en agriculture biologique, conduirait à des bénéfices climatiques et écologiques amoindris, du fait notamment de fuites d’émissions de gaz à effet de serre vers l’étranger liées à l’importation de denrées agricoles.
Adopter des régimes alimentaires moins riches en produits d’origine animale
Selon ces travaux de recherche, l’utilisation simultanée des trois leviers prévus par le Pacte Vert augmenterait sensiblement les bénéfices climatiques et environnementaux. Ainsi, les émissions de gaz à effet de serre liées à la production agricole domestique diminueraient de 249 MT eq CO2 (millions de tonnes en équivalent CO2). À cela, s’ajouterait une réduction de 20 MT eq CO2 des émissions incorporées dans les échanges de denrées alimentaires avec l’étranger. Dans ce scénario, un bénéfice sur le plan nutritionnel est aussi prédit, tout comme une baisse des dépenses alimentaires de 15 %.
Mais ces effets positifs ne devraient être possibles que si les comportements de consommation évoluent de façon très substantielle, à la faveur de régimes alimentaires moins riches en produits d’origine animale. Pour y parvenir, l’une des voies d’action consiste à informer les consommateurs, à travers des campagnes de communication. Une autre porte sur le système de prix et vise à taxer ou au contraire subventionner les prix des aliments selon leurs caractéristiques nutritionnelles et environnementales. Une autre solution consiste à agir sur l’offre, en exposant par exemple les consommateurs à des menus végétariens dans la restauration collective.
Reste que cette hypothèse d’un changement de la dynamique des préférences alimentaires des consommateurs est une des principales inconnues des évolutions à venir. Cette modification aura également un impact très négatif sur l’économie des filières animales, avec un secteur de l’élevage qui risque d’être confronté à un choc de la demande auquel il ne pourra pas faire face sans des mesures fortes d’accompagnement des pouvoirs publics. « Les conséquences économiques du Pacte vert pour les acteurs des filières animales sont une difficulté majeure qui, par construction, est trop peu prise en compte dans les exercices reposant sur des modèles biophysiques de biomasse et visant à établir la faisabilité technique d’un modèle agricole et alimentaire européen reposant sur l’agroécologie et des régimes alimentaires contenant moins de produits animaux », alertent les auteurs.
Le jeudi 4 avril, l’Assemblée nationale a adopté à l’unanimité une proposition de loi visant à protéger la population contre les risques liés aux substances perfluoroalkylées et polyfluoroalkylées (PFAS). Ce texte reprend en grande partie les recommandations du rapport « PFAS, pollution et dépendance : comment faire marche arrière ? » élaboré par le député MoDem Cyrille Isaac-Sibille. La proposition de loi prévoit l’interdiction des rejets de PFAS dans l’environnement et le financement de la dépollution des milieux. Elle doit désormais être confirmée au Sénat.
La proposition de loi veut interdire certains usages non essentiels, tels que les farts, les cosmétiques et les textiles d’habillement contenant des PFAS à partir du 1er janvier 2026. Mais les députés n’ont pas trouvé de consensus sur l’interdiction de ces produits dans les ustensiles de cuisine. L’UE travaille pour sa part à restreindre leur usage dans les emballages alimentaires à partir de 2026, dans le cadre du règlement emballages (PPWR).
Les PFAS, partout dans l’environnement
Les PFAS sont une large famille de plusieurs milliers de composés chimiques omniprésents dans notre quotidien. D’après Vie publique, 256 seraient produits industriellement, mais une base de données sur la toxicité, de l’Agence de protection de l’environnement des États-Unis, en répertorie plus de 14 000. Cette large répartition pose des difficultés pour dresser un état des lieux des pollutions et bien documenter les impacts sanitaires potentiels. Malgré tout, les industriels en sont friands en raison de leurs propriétés chimiques, notamment de résistance à l’eau et aux températures élevées. Nous les retrouvons dans les ustensiles de cuisine, les textiles, les emballages alimentaires et les cosmétiques.
Cette famille de composés chimiques entre donc dans la composition de poêles antiadhésives, avec des revêtements en PTFE (polytétrafluoroéthylène), plus connu sous le nom commercial de « téflon » depuis 1945. Un autre PFAS, le PFOA (acide perfluorooctanoïque), servait à fabriquer ce PTFE. Il a été interdit en juillet 2020 en Europe en raison de sa toxicité et de sa persistance dans l’environnement. En décembre 2023, le PFOA a d’ailleurs été classé comme « cancérogène pour les humains » (groupe 1) par le Centre international de recherche sur le cancer (CIRC).
Le PFOA a été remplacé par d’autres produits chimiques, comme les polymères GenX ou le PFBS (acide perfluorobutane sulfonique) et ses sels, dont l’innocuité pose également question. L’Agence européenne des produits chimiques (Echa) les a inscrits sur sa liste des substances extrêmement préoccupantes en 2019.
Des scientifiques montent au créneau
Alors que Tefal se réjouit de l’exclusion des ustensiles de cuisine de la future loi d’encadrement de l’usage des PFAS, un collectif de scientifiques et de vulgarisateurs a publié une tribune dans le Monde pour demander que « les PFAS soient gérées comme une classe chimique unique, au nom de leur persistance et de leurs risques démontrés ou potentiels sur la santé humaine et environnementale ». Cela permettrait de mieux encadrer les usages liés à l’utilisation de ces composés dont il reste difficile de documenter l’ensemble des risques sanitaires. Alors qu’il en existe des milliers, « l’évaluation du risque sanitaire causé par chaque PFAS peut prendre des décennies », rappelle le collectif.
Pierre Labadie, directeur de recherche en chimie de l’environnement au CNRS, estime auprès de France info que « dire qu’il n’y a pas de problèmes avec le PTFE est une contre-vérité ». La fiche toxicologique du PTFE fournie par l’INRS mentionne : « Dans les différentes opérations de transformation et lors des manipulations, le risque principal est dû au dégagement de particules fines et de gaz sous l’action de la chaleur. Les risques dus aux additifs, essentiellement aux charges, se manifestent surtout au moment de leur incorporation ou lors des travaux d’usinage. Certains produits (acide phosphorique, acide chromique, sels de chrome) employés avec le polymère pour les revêtements ont, en plus de leur nocivité propre, la propriété de diminuer notablement la stabilité du polymère à la chaleur. La décomposition commence alors à des températures inférieures à celles couramment admises. » En plus, via l’émission de particules et gaz toxiques, l’institut signale que « les opérations de transformation du polytétrafluoréthylène présentent des risques certains lorsqu’elles font intervenir des températures supérieures à 350°C. »
Les industriels soulignent le peu de risques que fait courir le PTFE lors de conditions normales d’utilisation. Mais il convient de s’intéresser aux impacts du PTFE lors de sa production et non pas seulement lors de son utilisation. En ce sens, Pierre Labadie rappelle que « la production et l’utilisation de fluoropolymères comme le Téflon peuvent engendrer des émissions de toute une gamme de composés dans l’environnement ». Il ajoute qu’« on peut penser que le PTFE puisse se fragmenter et générer des microparticules voire des nanoparticules capables de pénétrer dans les cellules des organismes vivants ».
Pour sa part, le gouvernement vient de lancer un plan interministériel sur les PFAS, structuré autour de cinq axes d’actions. Premièrement, face au manque d’informations sur les impacts des PFAS sur la santé et sur l’environnement, il s’agira de développer des méthodes de mesure des émissions, des contaminations de l’environnement et de l’imprégnation des humains et des autres organismes vivants. Il s’agira ensuite de développer des « scénarios robustes d’évaluation d’exposition des organismes (humains et autres organismes vivants) prenant en compte les multiples voies (ingestion, inhalation, contact cutané) et sources d’exposition ». Le gouvernement entend enfin renforcer les dispositifs de surveillance des émissions, réduire les risques liés à l’exposition aux PFAS et soutenir la recherche, tout en améliorant l’information auprès de la population.
Selon Laurence Poirier-Dietz, la directrice générale de GRDF « atteindre la neutralité carbone en 2050 n’est pas une option ». Pour GRDF, distribuer du gaz décarboné est donc non seulement possible, mais souhaitable, car l’électrification ne deviendra pas la solution unique.
Objectif : réduire les émissions de carbone sur l’ensemble des scopes
Convaincu de la possibilité de distribuer du gaz décarboné, GRDF s’est fixé plusieurs objectifs de réduction de ses émissions directes et indirectes, en engageant un véritable projet d’entreprise. Dans son communiqué de presse du 3avril, le distributeur de gaz explique avoir tenu compte, pour son bilan carbone, de l’ensemble des scopes. L’utilisation du gaz par ses clients (Scope3), qui est le poste responsable de la majorité des émissions, n’est donc pas oubliée.
Si GRDF a déjà constaté une baisse de 18% de l’empreinte carbone de ses clients gaz entre 2009 (58MtCO2eq) et 2023 (47,3MtCO2eq), l’objectif pour 2030 est de passer en dessous de la barre des 39MtCO2eq.
Trois leviers pour distribuer du gaz et décarboner
Comment GRDF compte-t-il atteindre cet objectif ambitieux? En jouant sur troisleviers, dont le principal concerne bien entendu la consommation de gaz.
GRDF va ainsi poursuivre sa stratégie d’accompagnement des clients consommateurs vers plus de sobriété en proposant des solutions pragmatiques pour chaque usage. Par ailleurs, les actions de sobriété qui ont été mises en place en 2022 sont désormais acquises, puisque ses effets perdurent d’année en année.
GRDF continuera en outre de s’appuyer sur ses compteurs communicants, dont la campagne de déploiement vient de prendre fin en 2023, faisant de GRDF le distributeur de gaz le plus en avance au monde sur le sujet. Lors de la conférence de presse, LaurencePoirier-Dietz a notamment souligné toute l’importance des données de comptage qui « permettent aux gestionnaires de parcs (bailleurs et collectivités locales) de connaître les consommations sur l’ensemble d’une résidence et de prioriser leurs choix en matière de rénovation des bâtiments. »
La performance des équipements jouera aussi un rôle essentiel dans la décarbonation, la France étant en retard par rapport à d’autres pays d’Europe sur l’amélioration de leur efficacité énergétique. Comme moins de la moitié des chaudières françaises sont efficaces d’un point de vue énergétique (contre 85% voire 90% pour l’Allemagne et les Pays-Bas!), la marge de progression est significative, l’installation de chaudières à très haute performance énergétique (THPE) pouvant faire économiser jusqu’à 30% de gaz!
GRDF, confiant sur l’avenir des gaz verts
Le second levier de décarbonation proposé par GRDF porte sur l’utilisation de gaz verts, avec un objectif de 20% de gaz verts dans les réseaux en 2030, en majorité du biométhane.
Laurence Poirier-Dietz semble confiante et en a profité pour rappeler que l’objectif de 6TWh par an de capacité qui avait été fixé par la BPE pour 2023 a été largement dépassé, puisque 12TWh (de biométhane) ont déjà été injectés, soit l’équivalent de deuxréacteurs nucléaires. Selon GRDF, cette trajectoire va se conforter dans les années à venir, permettant d’atteindre l’objectif de 60TWh de capacité en 2030, soit cinqfois plus qu’actuellement.
Pourquoi une telle confiance? D’une part, la méthanisation, qui est actuellement le principal process de production de gaz vert, est en plein développement, puisque la France dispose du plus grand parc au monde de sites de méthanisation en injection. Entre décembre2018 et décembre2023, le nombre de sites est en effet passé de 76 à652 et la France devrait compter plus de 740sites à la fin de l’année2024, selon GRDF.
Le développement de la méthanisation «à la Française», qui est essentiellement agricole, devrait donc permettre d’atteindre les objectifs pour 2030, grâce à la filière agricole autonome (423unités en 2023), mais aussi par la mise en place d’une filière territoriale (136unités en 2023) avec de gros porteurs de projets, énergéticiens, coopératives agricoles, etc.
D’autre part, GRDF pourra également compter sur la montée en puissance de la méthanisation des boues et des eaux usées issues de stations d’épuration urbaines, qui présente un fort intérêt pour le monde de l’eau, mais aussi sur la méthanisation territoriale, le biogaz issu des ISDND¹ et la filière biodéchets.
Et au-delà de 2030? Pour atteindre ses objectifs à très long terme, c’est-à-dire 100% de gaz vert en 2050, GRDF compte aussi énormément sur d’autres technologies de production de biogaz, actuellement peu développées ou encore à l’échelle pilote: la pyrogazeification, la gazéification hydrothermale, le Power-To-Méthane et l’hydrogène.
Décarbonation de l’industrie : quelles sont les actions à mener?
En ce qui concerne l’industrie, GRDF rappelle que 70% des procédés thermiques industriels ne pourront pas être électrifiés (29% au maximum seront électrifiables à l’horizon2035). Disposer d’équipements industriels au gaz toujours plus performants est donc une nécessité.
GRDF souligne ainsi que le remplacement des brûleurs d’ancienne génération permet de gagner jusqu’à 60% d’énergie et que l’amélioration des rendements de process représente un potentiel de chaleur fatale valorisable supérieur a 109TWh!
L’intégration de gaz vert dans la consommation des industriels via le recours au Biogas Purchase Agreement(BPA) va également se développer, sur l’exemple de deux gros consommateurs de gaz, Arkema et Saint-Gobain.
Enfin, l’avenir est aussi aux technologies de captage, de stockage et de valorisation du carbone, à l’instar de la chaudière CH0C, un démonstrateur basé sur la technologie d’oxycombustion dont la mise en route est prévue pour septembre2024.
¹ Les Installations de Stockage des Déchets Non Dangereux récupèrent et valorisent le biogaz émis naturellement par les déchets stockés.
Charles-Alexandre Concedieu, Directeur commercial des Solutions Eau chez ITRON, nous a expliqué les enjeux de la digitalisation des compteurs et détaillé les stratégies à mettre en place pour lutter contre les pertes en eau.
Charles-Alexandre Concedieu, Directeur commercial des Solutions Eau chez ITRON (Crédit : ITRON)
ITRON innove pour permettre aux services publics et aux villes de gérer l’énergie et l’eau.
Son portefeuille de réseaux intelligents, de logiciels, de services, de compteurs et de capteurs offre à ses clients une plus grande visibilité et un meilleur contrôle de leurs systèmes de distribution.
Présent dans plus de 100 pays, ITRON fournit des solutions dotées d’une intelligence accrue qui améliore la sécurité, la fiabilité, la résilience et la durabilité de la distribution de l’énergie et de l’eau.
Techniques de l’Ingénieur : Quelles sont les activités d’ITRON ?
Charles-Alexandre Concedieu : Le groupe est surtout connu, en France et en Europe, comme fabricant de compteurs. Bien qu’ITRON soit une société américaine, le groupe a souhaité garder une holding en France, car il était très important de faire perdurer le savoir-faire et la qualité de la fabrication française, acquis depuis plus de 150 ans auprès des entités publiques.
Aux États-Unis, en revanche, ITRON ne fabrique pas de compteurs, mais propose des solutions de connectivité, dont les cartes de communication intégrées dans les compteurs. Une fois installées, ces cartes permettent d’exploiter nos solutions d’analyse de données, reconnues dans le monde de l’éclairage public connecté, puisque nous avons 85 % de part de marché sur l’éclairage public connecté aux États-Unis.
Pour les collectivités, à quels enjeux la digitalisation des compteurs d’eau répond-elle ?
Cela fait une quinzaine d’années qu’ITRON propose ses solutions de digitalisation des compteurs. Pour les collectivités, l’intérêt est d’avoir accès à des applicatifs leur permettant d’analyser leurs propres données, en rendant les compétences hydrauliques plus accessibles.
En ce qui concerne la gestion de l’eau, l’intérêt de remonter ces données n’est pas uniquement de faire de la facturation, même si c’est un point essentiel, c’est aussi un moyen de détecter des défauts techniques ou des anomalies sur le réseau.
En effet, il faut savoir qu’un compteur fabriqué par ITRON est capable de remonter pas moins de 32 informations différentes : compteur bloqué, module arraché, sous-dimensionnement, surdimensionnement, consommation anormalement haute ou basse, etc.
Ces informations, collectées par ITRON, peuvent alors être croisées avec d’autres données à disposition de la collectivité : volumes injectés dans le réseau, consommation par secteur hydraulique, capteurs de pression, etc.
Le croisement des données de production et d’exploitation permet ainsi aux collectivités de travailler d’une part sur l’amélioration du rendement des réseaux et d’autre part sur la préservation de la ressource.
En cas de fuite, quelles sont les possibilités d’action des collectivités ?
Nous proposons deux axes de travail. Le plus connu, celui qui semble le plus évident, est le cas de figure de la canalisation cassée, qui doit être réparée ou remplacée (la France a 50 ans de retard sur la rénovation de ses réseaux d’eau), mais ce n’est pas le seul.
Pour comprendre, il faut revenir à la définition de rendement du réseau, autrement dit la différence entre ce qui est produit et ce qui est consommé. Car les pertes d’eau ne sont pas toujours où l’on croit ! En France, on considère que 20 % de l’eau produite n’est jamais facturée. Sur ces 20 %, 70 % sont de réelles fuites présentes sur le réseau, mais pour les 30 % restants, les causes sont directement liées au comptage de l’eau (ou à son absence).
Ces anomalies de comptage peuvent avoir de multiples origines : compteur inexistant, branchement sauvage, compteur défaillant, mal dimensionné, mal relevé, etc.
Pour une collectivité, faire la distinction entre ces deux sources de pertes est capital. En effet, si l’eau provenant d’une fuite sur le réseau d’eau potable peut représenter 70 % des pertes, l’impact est limité en termes financiers puisque sa valeur équivaut au coût de production qui est de 20 centimes le m3, en moyenne. Néanmoins, c’est un défi environnemental majeur pour les années à venir et la préservation de la ressource.
En revanche, pour l’eau provenant de problèmes de comptage, l’enjeu financier est bien plus important, puisque l’eau a bien été consommée, mais jamais facturée. Sachant que le m3 d’eau facturé et assaini est autour de 4 € le m3 (20 fois plus que le m3 produit), ces pertes ont donc un impact non négligeable sur les finances des collectivités ! C’est un des outils immédiats pour augmenter la capacité d’investissement dans la lutte contre les pertes réseau.
Quelle stratégie proposez-vous aux collectivités pour traquer ces pertes en eau ?
Bien entendu, nous considérons qu’il faut travailler sur les deux axes. Mais nous pensons qu’il est bien plus simple et rentable de commencer par s’attaquer au problème des m3 consommés et non facturés.
Le compteur intelligent Intelis d’ITRON (crédit : ITRON)
Grâce à notre savoir-faire d’hydraulicien et à nos décennies d’expérience sur les compteurs, nous savons identifier rapidement toutes sortes d’anomalies. Grâce à la démocratisation de la télérelève, il est dorénavant possible, en une semaine, d’avoir une vision claire de la situation, alors qu’il fallait attendre un an avec la relève manuelle.
Nous donnons ainsi aux collectivités les moyens d’agir rapidement pour récupérer les sommes injustement non perçues. Une fois récupéré, cet argent peut ensuite être réinvesti sur le deuxième volet, particulièrement coûteux : la mise en place de programmes de surveillance acoustique des réseaux et leur rénovation.
Par ailleurs, nous sommes conscients que certaines collectivités n’ont pas les moyens financiers et humains pour détecter la dérive des compteurs et mettre en place les actions correctives. Pour les convaincre qu’il est pertinent d’investir dans nos solutions, nous avons un argument fort : l’obligation de résultat.
En clair, nos études préalables sont des prestations de service intellectuelles. Elles sont facturées si le client dégage des économies. C’est donc la preuve que nous sommes certains de trouver des anomalies ! De plus, il ne faut pas oublier que la prestation est ponctuelle, mais que les bénéfices se répercuteront chaque année.
Y a-t-il une accélération de la demande ? Comment voyez-vous l’avenir ?
Cela fait plusieurs années que nous constatons une explosion des demandes concernant nos solutions de gestion intelligente de l’eau. Nous avons observé une progression de +53 % en 3 ans sur la partie compteurs connectés !
La sécheresse de 2022 a aussi été un événement majeur qui a marqué les consciences collectives, les amenant à sérieusement s’y intéresser. Les capacités à financer les projets de télérelève ont alors augmenté, pour les ARS et les conseils généraux, et l’arrivée du Plan Eau en 2023 n’a fait que confirmer cette tendance.
De nouveaux financements sont envisagés, notamment pour la mise en place des réseaux de communication radio, ce qui va aussi libérer des fonds pour l’achat de compteurs communicants, sans lesquels ces réseaux seraient plus difficilement amortissables.
Enfin, il faut savoir que, depuis 2020, tous les appels d’offres en délégation de service public demandent au minimum l’option de télérelève et dans 75 % des cas celle-ci est imposée. C’est la preuve d’une transformation profonde du marché français !
Les collectivités se sont donc saisies du sujet vital de la gestion de l’eau et ITRON veut être là pour les accompagner dans cette transition. Malheureusement, les prévisions de sécheresse du GIEC pour les années à venir nous donnent raison.
Cela est néanmoins rassurant : le monde de l’eau est bel et bien en train d’opérer sa transition vers un vrai suivi de la ressource, mais avec 15 ans de retard par rapport à l’électricité et au gaz. Nous allons vers un pilotage de la production au plus juste, de type smart grid et avec de fortes différences territoriales et saisonnières.
Safran va construire un nouveau site de fonderie sur le territoire de la métropole de Rennes dédié à la production d’aubages de turbines. Ces aubes serviront à la fabrication de deux types de moteurs : dans le domaine militaire, le M88, qui équipe les Rafales, et dans le domaine civil, le moteur LEAP1 destiné aux Airbus A320neo et Boeing 737 MAX. Ce site devrait être opérationnel en 2027 et emploiera près de 200 personnes. Il sera la vitrine des innovations du groupe Safran et bénéficiera des meilleurs standards en termes de performance énergétique.
Cette nouvelle usine devrait produire 500 000 aubes par an. En comparaison, le site de Gennevilliers que possède Safran, fabriquant entre autres ces pièces, en produit 80 000, avec la particularité qu’il fabrique une grande diversité de modèles (80 références différentes). « Nous possédons déjà une usine en Chine qui produit des aubes à grande cadence, mais avec des technologies métallurgiques plus simples, déclare Emmanuel Vivier, directeur du centre d’excellence industrielle des aubes de turbines chez Safran Aircraft Engines. Sur ce nouveau site, l’objectif est de mettre en place des technologies plus avancées, tout en produisant en grande série, et pour l’instant nous ne possédons pas ce type d’usines dans le groupe. »
Le procédé mis en œuvre est celui de la fonderie à cire perdue. Les aubes sont d’abord produites en cire puis assemblées en grappes. Elles sont ensuite trempées dans de la céramique liquide, pour constituer des moules en céramique autour de cette cire. L’étape suivante consiste à cuire ces moules, ce qui a pour effet de faire fondre la cire, puis à couler du métal dans les moules afin de fabriquer les pièces finales.
Pour atteindre de grands volumes de production, toutes les étapes du procédé de fabrication seront automatisées, à l’image de ce que l’on peut rencontrer dans l’industrie automobile. Des bras de robots viendront positionner les pièces lors de chaque étape et les moules s’ouvriront, se rempliront et se fermeront automatiquement. Le système logistique sera lui aussi automatisé à l’aide de véhicules à guidage automatique (VGA ou AGV pour Automatic guided vehicle) qui déplaceront les pièces d’un poste à un autre.
250 paramètres du procédé de production analysés en temps réel
Une autre brique technologique concernera l’aspect digital et manufacturing 4.0 de cette usine. Environ 250 paramètres du procédé de production vont être collectés et suivis en temps réel grâce notamment au développement d’algorithmes d’intelligence artificielle. « Dans une fonderie traditionnelle, nous parvenons à en suivre une quarantaine, confie Emmanuel Vivier. Grâce au suivi de l’ensemble de ces paramètres, nous allons pouvoir être au plus proche de ce qui se passe et comparer les résultats avec nos outils de simulation numérique. L’analyse de toutes ces données va nous permettre d’optimiser le process, d’améliorer le niveau de qualité et baisser le taux de rebut. Cela contribuera aussi à baisser nos coûts de fabrication, tout en réduisant notre impact environnemental et énergétique. »
Un jumeau numérique de l’usine et de l’ensemble du système sera également créé. Il permettra de suivre en temps réel et d’optimiser le pilotage des flux, en analysant entre autres la manière dont les pièces se déplacent et à quels endroits elles attendent plus que d’autres. « Ce type de système apporte une meilleure compréhension du fonctionnement global en considérant l’usine comme un ensemble à part entière, analyse Emmanuel Vivier. Nous avons déjà en interne des jumeaux numériques à l’échelle d’un atelier, mais pas encore à l’échelle de tout un site, ce qui représente un niveau de complexité beaucoup plus élevé. »
Pour réduire l’impact carbone du site, le procédé de fabrication sera intégralement électrique et ne consommera aucune énergie fossile. Environ 20 % de la consommation électrique sera alimentée par l’énergie produite sur place grâce à des panneaux solaires installés sur les toits de l’usine et une partie des parkings. Pour les 80 % restants, Safran espère nouer des partenariats pour trouver de l’électricité renouvelable. Un système de récupération de la chaleur latente des fours sera également installé et branché sur le circuit de refroidissement des fours. L’entreprise envisage d’alimenter un réseau de chaleur urbaine en cours de construction sur le site de la Janais, là où sera implantée l’usine.
Un système de management de l’énergie (SME) pour lisser la consommation
Comme sur tous les sites du groupe Safran, un système demanagement de l’énergie (SME) sera déployé. Il procédera à des mesures et au suivi de la consommation énergétique, machine par machine, et un pilotage en temps réel de cette consommation dans le but de lisser la consommation et écrêter les pics. « La mise en route des fours ne sera pas réalisée au même moment, car le SME mettra en place une logique de séquençage pour récupérer la chaleur d’un premier four en phase de refroidissement pour préchauffer un autre par exemple », complèteEmmanuel Vivier.
Représentation en 3D de la future usine du groupe Safran sur la métropole de Rennes. Crédit : Safran
La construction de l’usine sera réalisée à l’aide de matériaux respectant les derniers standards relatifs aux normes environnementales. Une attention particulière sera portée à l’isolation, car le procédé de fabrication à cire perdue nécessite une maîtrise de l’hygrométrie et des températures, celles-ci ne devant pas dépasser 24 à 25 degrés. Un bon niveau d’isolation devrait permettre d’éviter des dépenses énergétiques liées à l’utilisation d’appareils de climatisation.
Tous les procédés innovants ne seront pas opérationnels dès l’ouverture de ce site, car certains nécessitent une plus grande maturation technologique pour atteindre le stade industriel. À terme, Safran souhaite que l’usine atteigne la neutralité carbone. « Comparé à une usine traditionnelle, notre objectif est de diviser au moins par trois la consommation énergétique, ramenée à la pièce produite, poursuit Emmanuel Vivier. Cette forte réduction s’explique en partie par le volume de production, car en introduisant deux fois plus de pièces dans un four de plus grande taille, il n’est pas nécessaire de le chauffer deux fois plus. Lorsque l’usine aura atteint son régime de croisière, je pense qu’il sera possible de diviser par cinq la consommation énergétique. »
[1] Le moteur LEAP est produit par CFM International, une coentreprise détenue à part égale par Safran Aircraft Engines et General Electric Aerospace
Au cours des derniers siècles, les activités humaines ont relargué plus de 2 trillions de tonnes de dioxyde de carbone dans l’atmosphère terrestre. Pour limiter le réchauffement climatique, nous devons réduire nos émissions de CO2. En France, la Stratégie nationale bas carbone (SNBC) vise la limitation de l’augmentation des températures à +1,5 °C par rapport à la période préindustrielle et l’atteinte d’un équilibre entre les émissions et les absorptions de CO2 d’ici 2050. Ce seuil est appelé neutralité carbone ou « zéro émission nette ». Pour y parvenir, deux solutions doivent être mises en place : la réduction directe des émissions de dioxyde de carbone et l’augmentation des puits de carbone.
Selon le site de l’IFPEN, « l’Agence internationale de l’énergie estime, dans le scénario Net Zero Emission by 2050 (NZE) rendu public en 2021, que pour atteindre la neutralité carbone en 2050, 7,6 Gt de CO2 devront être captés par an à partir de 2050, soit 20 % des émissions actuelles ».
Différentes techniques de capture du carbone
Différentes techniques de captage, stockage et valorisation du CO2 (CCUS-Carbon Capture, Use and Storage) se développent. Certaines sont fondées sur l’accumulation naturelle du CO2 par la préservation de l’environnement. On peut ainsi évoquer :
la plantation d’arbres et l’expansion des forêts ;
la sauvegarde du littoral côtier qui comprend les marais salants et les herbiers marins, véritables puits de carbone. En les préservant et les restaurants, il est possible de prévenir l’érosion et de protéger les espèces ;
la reconstitution des écosystèmes marins qui favoriserait le déplacement du carbone de la surface vers les fonds grâce aux courants et aux chaînes alimentaires. Le carbone est contenu dans les plantes et les animaux qui tombent au fond de l’océan lorsqu’ils meurent.
D’autres solutions sont étudiées pour favoriser l’absorption de carbone des milieux naturels :
ajouter des nutriments comme le fer, le phosphore et l’azote dans les eaux pour augmenter la capacité du phytoplancton à absorber le dioxyde de carbone par la photosynthèse ;
cultiver des algues riches en carbone. Leurs racines enfoncées dans le fond marin stockent du carbone ou le transforment en nutriments ;
ajouter des substances alcalines non acides dans l’océan pour extraire et fixer le carbone dans les roches et les sédiments ;
faire remonter à la surface des eaux profondes, froides et riches en nutriments afin d’augmenter la production de phytoplancton ;
limiter le labourage des sols agricoles et planter des cultures de couvertures pour réduire la libération de carbone par les terres agricoles.
Enfin, d’autres solutions proposent de recourir aux dernières innovations technologiques pour capter le CO2 :
l’utilisation de ventilateurs géants pour capturer le CO2 et le piéger grâce à des solvants. Le carbone est ensuite réemployé ou stocké sous terre. De par la faible concentration de CO2 dans l’air, c’est une solution très coûteuse ;
exploiter la biomasse pour produire de l’énergie. Le CO2 libéré au cours de cette combustion est réutilisé ou stocké ;
se servir du basalte, qui se lie naturellement au carbone atmosphérique pour le séquestrer dans des dalles rocheuses souterraines ;
faire passer un courant électrique dans l’eau de mer pour éliminer directement le dioxyde de carbone ;
Une fois capturé, le carbone peut être stocké dans deux structures différentes : les aquifères salins profonds qui sont des réservoirs d’eau salée non potable situés au fond de l’océan, ou les gisements d’hydrocarbures (pétrole et gaz) épuisés. D’après l’IFPEN « la capacité mondiale de stockage de CO2 serait comprise entre 8 000 et 55 000 gigatonnes. Ainsi, même le chiffre le plus bas (8 000 Gt) dépasse de très loin les 100 Gt de CO2 qui devraient être stockées d’ici 2055 dans le scénario “développement durable” ».
Une solution controversée
La capture de carbone reste un sujet controversé. Si personne ne met en doute le bien-fondé des solutions de préservation des écosystèmes, certains défenseurs de l’environnement remettent en cause la légitimité des technologies de CCUS. En effet, en 2016, treize grandes compagnies pétrolières ont créé un fonds d’un milliard de dollars, l’Oil & Gas Climate Initiative, pour développer ces solutions. Les défenseurs de l’environnement craignent que ces technologies ne soient une distraction de la part de ceux qui ont contribué à l’urgence climatique et n’empêchent de réduire les émissions. Ils redoutent que les pollueurs ne tirent profit de la pollution qu’ils engendrent.
Une série d’images du cerveau impressionnantes. Le CEA a dévoilé les premiers clichés de son scanner IRM baptisé Iseult, le plus puissant du monde. Il est capable d’imager le cerveau humain à un niveau de résolution jamais atteint afin de découvrir de nouveaux détails sur son anatomie, ses connexions et son activité. Pour un temps d’acquisition de seulement 4 minutes, l’appareil donne des images d’une précision de 0,2 mm (millimètre) dans le plan et de 1 mm en profondeur, ce qui représente un volume équivalent à quelques milliers de neurones seulement. Les images ont fait le tour du monde et marquent la concrétisation de plus de 20 années de recherche et développement.
Ce scanner utilise le principe de l’imagerie par résonance magnétique. Les images des tissus mous du cerveau sont réalisées à partir des propriétés magnétiques (spin) des noyaux d’hydrogène présents dans les molécules des tissus biologiques. Elles sont obtenues grâce à l’utilisation d’un aimant qui génère un champ magnétique et une antenne qui émet des ondes radio de fréquences variées, sous la forme d’impulsions très brèves, pour modifier l’orientation du spin. À la fin de chaque impulsion, le spin retourne à sa position initiale en émettant une onde réceptionnée par l’antenne. La mesure de cette onde et notamment sa durée renseigne sur la nature des tissus et des molécules auxquels les noyaux d’hydrogène sont liés.
Différences de résolutions d’images de coupes du cerveau humain prises avec une IRM d’un champ magnétique de 3 T (teslas), 7 T et 11,7 T (pour un même temps d’acquisition). Crédit : CEA
Installée à Paris-Saclay, dans un centre de recherche du CEA appelé NeuroSpin, la machine est dotée d’un champ magnétique de 11,7 teslas, soit 223 000 fois le champ magnétique terrestre. « La majorité des IRM utilisées en hôpitaux ont un champ magnétique compris entre 1,5 et 3 teslas, déclare Alexandre Vigneau, directeur de recherche au CEA. Atteindre cette qualité d’image à ces niveaux de champs magnétiques, en termes de résolution et de clarté, exigeait des temps d’acquisition beaucoup trop longs, supérieurs à 2 heures, ce qui est incompatible avec la pratique, puisque dans les faits, il ne faut pas bouger pendant l’acquisition pour obtenir des images de cette qualité. »
Pour atteindre cette intensité du champ magnétique, un aimant hors norme a été fabriqué, pesant 132 tonnes et mesurant 5 mètres de long et 5 mètres de diamètre extérieur. À l’intérieur, une cavité d’un diamètre de 90 cm permet le passage d’un corps humain entier. L’aimant est alimenté par un courant de 1 500 ampères et constitué de 182 km de fils supraconducteurs en alliage de niobium-titane qui sont en permanence refroidis grâce à 7 500 litres d’hélium liquide à -271,35 degrés. L’appareil nécessite 5 heures pour une montée en courant.
Améliorer la prise en charge des maladies neurodégénératives
Cet aimant a été fabriqué par une équipe du CEA qui avait déjà à son actif la conception d’aimants de Tokamak développés dans le cadre du projet ITER de fusion nucléaire et des aimants des détecteurs du CERN (Conseil européen pour la recherche nucléaire) ayant permis la découverte du boson de Higgs. Sa fabrication a débuté en 2010 et aura demandé de nombreuses années de travaux d’installation et de réglage minutieux pour atteindre l’homogénéité de champ magnétique requise pour arriver à sa mise en service opérationnelle. « L’obtention de ces images exceptionnelles a été rendue possible grâce aux compétences de nos chercheurs sur l’acquisition du signal IRM développé à 7 teslas et transposé sur notre aimant à 11,7 teslas », souligne Anne-Isabelle Etienvre, directrice de recherche fondamentale au CEA.
Au total, ce projet a fédéré près de 200 personnes issues du CEA, de l’université de Freiburg en Allemagne pour le développement de nouvelles technologies et méthodes pour l’IRM à ultra haut champ et de partenaires industriels. Alstom, devenu GE (General Electric), a été associé à ce projet pour la fabrication de l’aimant, Siemens Healthcare pour l’installation des composants complémentaires du système d’imagerie par résonance magnétique, ainsi que Guerbet, fabricant d’agents de contraste, qui a utilisé la plateforme d’IRM à très haut champ du CEA pour évaluer et sélectionner des molécules à fort potentiel d’application chez l’homme.
Le scanner Iseult sera utilisé pour faire de la recherche fondamentale et devrait permettre d’accéder à des informations sur les neurones jusqu’ici inatteignables et de comprendre comment notre cerveau encode nos représentations mentales, nos apprentissages ou encore de découvrir quelles sont les signatures neuronales de l’état de conscience. Des applications en recherche médicale sont attendues et devraient participer à établir un meilleur diagnostic et une meilleure prise en charge des maladies neurodégénératives telles que les maladies d’Alzheimer ou de Parkinson. Par exemple, ce nouvel équipement devrait faciliter la détection de signaux faibles, peu exploités, tels que celui du lithium, un médicament utilisé pour traiter les troubles bipolaires. Il sera ainsi possible d’évaluer précisément sa distribution dans le cerveau et de mieux comprendre son efficacité.
Les voitures électriques bon marché chinoises vont-elles envahir le marché européen ? Alors que l’Union européenne a entériné la fin des moteurs thermiques dans les voitures neuves à partir de 2035, une certaine inquiétude apparaît sur le Vieux Continent, berceau de marques prestigieuses et qui a dominé l’innovation automobile pendant plus d’un siècle. La Chine représente aujourd’hui environ 8 % des ventes de voitures électriques en Europe. Preuve de cette montée en puissance et pas seulement en Europe, le constructeur automobile chinois BYD a pour la première fois dépassé Tesla en termes de livraisons de voitures électriques au niveau mondial au dernier trimestre 2024.
Face à cette crainte d’une inondation du marché européen, l’Europe a réagi en lançant une enquête, en octobre dernier, sur les subventions attribuées aux voitures électriques. Ursula von der Leyen, la présidente de la Commission européenne, s’est ainsi justifiée lors de son quatrième discours sur l’état de l’Union : « les marchés mondiaux sont aujourd’hui inondés de voitures électriques chinoises bon marché dont le prix est maintenu artificiellement bas par des subventions publiques massives”. L’enquête, qui ne doit pas excéder 13 mois, devra déterminer à quel niveau la Chine subventionne ce secteur de son économie, et si une concurrence déloyale est avérée, l’Europe pourra prendre des mesures compensatoires, en augmentant ses droits de douane sur les produits incriminés, en s’appuyant sur les règles établies par l’OMC (Organisation mondiale du commerce).
Les États-Unis ont déjà pris une mesure protectionniste en subventionnant uniquement l’achat de véhicules électriques produits sur leur sol ou chez leurs alliés, tels que le Canada. La France a embrayé le pas puisque depuis le 1er janvier 2024, le pays n’accorde un bonus écologique qu’aux véhicules électriques ayant un score environnemental acceptable. Seuls ceux dont les émissions de CO2 générées par la production, mais aussi le transport de l’usine jusqu’au client, ne dépassent pas un certain seuil seront subventionnés. Une mesure qui exclut la totalité des voitures chinoises, selon une première liste de véhicules éligibles rendue publique par un arrêté au journal officiel en fin d’année dernière, puis mise à jour au début du mois de février. À noter, que la Dacia Spring, reine du low-cost, mais produite en Chine, n’est plus éligible au bonus. Du côté de Tesla, si le Model Y conserve bien cette aide, ce n’est plus le cas du Model 3.
Des voitures électriques chinoises produites en Italie grâce à Stellantis
Pour contrecarrer cette mesure, la marque MG, filiale de l’entreprise chinoise SAIC Motor, a décidé de casser les prix en annonçant une remise immédiate de 4 000 euros sur tous ses modèles électriques et mêmes hybrides rechargeables de sa gamme. Quant au géant chinois BYD, il a annoncé son intention de construire une usine en Hongrie dans le but d’éviter toute possibilité de sanctions économiques à l’égard des modèles chinois. Il faudra tout de même attendre de longs mois avant qu’elle ne sorte de terre.
Mais la contre-offensive pourrait paradoxalement venir de Stellantis, devenu actionnaire stratégique de Leapmotor en octobre dernier grâce à un investissement de 1,5 milliard d’euros. Le but de ce rapprochement avec cette start-up chinoise spécialisée dans les voitures électriques est de développer l’activité internationale des véhicules électriques de ce constructeur. Le groupe franco-italo-américain envisagerait la production en Italie de 150 000 voitures électriques par an de la marque Leapmotor sur un site de production historique de Fiat.
Tous les logiciels ne sont pas parfaits. De nombreuses applications, programmes et sites web sont mis sur le marché malgré la présence d’erreurs. Dans la plupart des cas, les conséquences ne sont pas dramatiques. Il n’en va pas de même avec les systèmes critiques tels que les protocoles cryptographiques, les appareils médicaux, les fusées…
Le 4 juin 1996 à 9h35 du matin, la fusée Ariane 5 échappe à tout contrôle et explose en vol après seulement 36 secondes. L’origine de cet accident se trouve dans quelques lignes de code. Pour des raisons de coûts, un code dans les systèmes informatiques qui gèrent le guidage a été copié de Ariane 4 à Ariane 5. Or, le logiciel Ariane 4 utilisait des nombres entiers de 16 bits, tandis que les capteurs Ariane 5 envoyaient des nombres flottants de 64 bits.
Cette intégration a provoqué une erreur de conversion. Le logiciel a cru que la fusée allait dans une mauvaise direction et a ordonné une correction massive. Résultat, la fusée s’est autodétruite. Coût : 500 millions d’euros.
Au début des années 1980, Therac-25 a entraîné la mort de cinq malades. Développée conjointement par l’Énergie atomique du Canada Limitée et CGR MeV, cette machine de radiothérapie avait provoqué une overdose de radiations à cause d’un bug informatique. La machine sera retirée du marché en… 1987.
Ces deux exemples confirment que la moindre erreur dans un logiciel peut avoir de graves conséquences. Mais la repérer est un vrai casse-tête. C’est pourtant indispensable lorsqu’il s’agit d’appareils médicaux. Problème, un logiciel dans un pacemaker peut nécessiter plus de 80 000 lignes de code, une pompe à perfusion de 170 000 lignes et un scanner à IRM (Imagerie à Résonance Magnétique) plus de 7 millions de lignes.
Baldur et Thor trouvent des preuves
Pour relever ce défi, on s’appuie sur des méthodes dites « formelles ». Elles permettent de répondre aux besoins de certification des logiciels critiques en assurant la fiabilité et l’absence de dysfonctionnement d’un système ou d’un logiciel. En reposant sur des formules mathématiques, les ambiguïtés ne sont pas possibles ! On apporte la preuve qu’il n’y a pas de bugs et que le logiciel fonctionne correctement.
Pour faciliter cette vérification formelle, une équipe de chercheurs de l’Université de Massachusetts Amherst a mis au point une nouvelle méthode basée sur l’intelligence artificielle. Appelée Baldur, elle permet de générer automatiquement des preuves mathématiques.
Dirigée par Yuriy Brun, cette équipe s’appuie sur le grand modèle de langage (LLM) Minerva de Google. Baldur a été entraîné à partir d’articles scientifiques (équivalent de 118 Go de données) et de pages web contenant des expressions mathématiques. L’étape suivante a consisté à s’appuyer sur des données relatives aux preuves et aux théorèmes.
Baldur travaille avec Isabell/HOL, un langage dans lequel les preuves mathématiques sont écrites. Lorsqu’il reçoit un énoncé de théorème, Baldur est capable de générer une preuve complète dans près de 41 % des cas. Si Isabell/HOL trouve une erreur, les informations relatives à cette erreur sont renvoyées au LLM pour lui permettre d’apprendre de son erreur et de générer une autre preuve avec moins d’erreurs, voire aucune.
Pour augmenter le taux de réussite de Baldur, l’équipe a fourni au modèle des informations contextuelles supplémentaires, telles que d’autres définitions ou les lignes précédant l’énoncé du théorème dans un fichier théorique. Le taux de preuve a progressé à 47,5 %. Cela signifie que Baldur est capable de prendre en compte le contexte et de l’utiliser pour prédire une nouvelle preuve correcte.
La situation s’améliore encore plus lorsque Baldur est associé à Thor, un autre outil spécialisé dans la génération automatique de preuves. Ce binôme parvient à générer des preuves correctes dans près de 66 % des cas.
Il reste donc encore un degré d’erreur considérable. Mais les techniques d’intelligence artificielle continuant de s’améliorer, les capacités de Baldur devraient progresser également. En attendant, ce projet a été approuvé par la Defense Advanced Research Projects Agency (DARPA) et la National Science Foundation.
La Banque européenne d’investissement (BEI) est la principale institution de financement de l’Union européenne. Au cœur de ses missions : le soutien à des actions en faveur du climat. Dans sa feuille de route, elle s’est engagée à soutenir 1 000 milliards d’euros d’investissements verts d’ici à 2030 et à aligner toutes ses nouvelles opérations sur l’accord de Paris. Devenue la banque verte de l’Europe, elle a décidé de consacrer plus de 50 % de ses investissements à des activités en faveur du climat et de la durabilité environnementale d’ici à 2025. Mais pour l’heure, elle ne prévoit pas de financer la construction de nouveaux réacteurs nucléaires.
Officiellement, le nucléaire fait pourtant partie des activités éligibles au financement de la BEI. Sauf que depuis 1987, cette institution n’accorde plus aucun soutien à de nouveaux projets nucléaires et se contente de financer des projets liés à la sûreté nucléaire ou au cycle du combustible. Une nouvelle orientation pourrait intervenir à la faveur du changement de la présidence de la BEI. Depuis le 1er janvier 2024, l’Allemand Werner Hoyer, opposé à l’atome, a en effet été remplacé par l’Espagnole Nadia Calvino, qui semble plus ouverte à soutenir le nucléaire. Dans un entretien accordé au Financial Times, elle a déclaré que « l’Europe doit agir si elle ne veut pas être en retard concernant les petits réacteurs modulaires, qui sont encore dans une phase de recherche au sein de l’UE. »
À la tête de la BEI, des réticences se font toutefois encore entendre, puisque Thomas Östros, le vice-président, a déclaré lors du Sommet sur l’énergie nucléaire qui s’est tenu le 21 mars : « jusqu’en 2030, nous nous concentrerons en priorité sur les énergies renouvelables ». Et d’ajouter : « nous sommes une banque et nous considérons les risques des projets [nucléaires] comme très élevés ».
Les pays membres s’opposent entre les pro et anti-nucléaires
La Commission européenne est aussi partie prenant dans le soutien ou non au développement du nucléaire, puisqu’elle est chargée de fournir un avis sur tous les financements de la BEI. Lors du dernier sommet sur l’énergie nucléaire, la présidente Ursula von der Leyen a apporté son soutien en affirmant que « les technologies nucléaires peuvent jouer un rôle important dans la transition vers les énergies propres ». Et parmi toutes les tâches à accomplir pour soutenir le nucléaire, elle a déclaré : « il convient tout d’abord de s’assurer de nouveaux investissements. » Elle a aussi apporté son soutien à l’innovation dans de nouvelles technologies, « en particulier […] les petits réacteurs modulaires, ou PRM. »
Malgré tout, le financement de nouveaux projets nucléaires devrait se heurter au mode de gouvernance de la BEI dont le processus de décision doit être pris en concertation avec les 27 États membres, actionnaires de cette institution. Et dans le camp des anti-nucléaires, se trouve entre autres l’Allemagne, qui considère que le nucléaire est dangereux et ne doit pas être développé, à l’inverse des énergies renouvelables. De son côté, l’alliance européenne du nucléaire, qui compte 14 États membres, fait campagne pour que l’Union européenne contribue au financement des projets nucléaires au moyen d’instruments financiers tels que la BEI, mais aussi le Fonds pour l’innovation et les Projets importants d’intérêt européen commun (IPCEI).
En cas d’accord, la BEI agit en tant que source complémentaire de financement et peut prendre en charge jusqu’à 50 % du coût du projet financé.
Gros plan sur quelques projets de mobilité qui pourraient garantir un acheminement idéal aux seize millions de spectateurs attendus sur les 25 sites retenus pour les Jeux de cet été.
Les bagages cabine scannés en 3D
Points de convergences cruciaux, les aéroports sont un des acteurs clés de la fluidification des déplacements. Un nouveau scanner 3D analysant le contenu des valises en cabine a ainsi été expérimenté à Paris-Orly l’année dernière avant d’être déployé depuis octobre dernier à l’aéroport de Roissy Charles-de-Gaulle. Présente sur d’autres aéroports européens, cette version plus récente du logiciel évite aux voyageurs de retirer de leur bagage cabine les liquides[1] et les appareils électroniques lors de leur passage aux points de contrôle. En effet, le visuel en trois dimensions permet à l’opérateur de sécurité de distinguer sous différents angles les objets présents dans les bagages grâce aux algorithmes et aux détecteurs de molécules qui identifient les liquides et les objets électroniques. Outre la précision de ces contrôles, un gain d’un tiers du temps de préparation est observé.
Un taxi volant dans le ciel de paris
Objet hybride combinant les apparences d’un drone et d’un hélicoptère, le taxi volant électrique permet une traversée aérienne de Paris en quelques minutes pour une centaine d’euros la course. Néanmoins, le Volocity, du constructeur allemand Volocopter, ne devrait pas décrocher à temps la certification nécessaire pour être commercialisé durant les Jeux. Celle-ci doit être délivrée par l’AESA[2] et doit être suivie d’un feu vert accordé par le ministère français des Transports. Cependant, l’avis très défavorable rendu, en septembre dernier, par l’Autorité environnementale pourrait freiner l’élan de ces engins à décollage et atterrissage verticaux. En effet, celle-ci considère « incomplète » l’étude d’impact sur le « vertiport »[3]. Parallèlement, les élus parisiens ont rendu un avis négatif, en novembre dernier, en pointant notamment une consommation de près de 190 kWh aux 100 km, soit deux à trois fois plus élevée qu’une voiture à moteur thermique. Les normes exigées obligeant Volocopter à retravailler certaines pièces, dans le meilleur des cas, seuls deux taxis volants seront disponibles pendant les JO.
Un navire à propulsion électrique sur la Seine
Afin de gérer les flux, l’utilisation des voies fluviales peut permettre de libérer les réseaux terrestres. La start-up NepTech propose des navires à propulsion électrique pouvant transporter jusqu’à 200 personnes sur la Seine et à Marseille. Les navires sont équipés des solutions hydrogène de l’entreprise EODev[4]. Bien que lauréates de l’appel à innovations « Mobilités JO Paris 2024 », ces navettes ne seront finalement pas prêtes pour cet été.
Un taxi robot sur rail
La start-up UrbanLoop a développé une capsule autonome sans conducteur qui sera expérimentée à Saint-Quentin-en-Yvelines pendant les JO. Les deux spectateurs embarqués pourront ainsi parcourir une boucle de deux kilomètres reliant le vélodrome olympique à la base nautique de Montigny-le-Bretonneux. La propulsion 100 % électrique a permis à Urbanloop d’établir le record du monde de la plus faible consommation énergétique au kilomètre.
[1] Bouteilles d’eau, parfums…interdits ou autorisés en quantité limitée
[2] Agence européenne de sécurité aérienne
[3] Plate-forme d’accueil flottante temporaire implantée sur la Seine, quai d’Austerlitz
[4] Filiale d’Energy Observer, elle développe et industrialise des solutions énergétiques durables utilisant l’hydrogène
La dépendance au gaz russe, un héritage soviétique
L’histoire de l’Autriche avec le gaz russe commence dans les années 1960, lorsque le pays signe un accord gazier avec les Soviétiques en échange de sa non-adhésion à l’Espace économique européen (EEE).
Pendant des décennies, l’Autriche a ainsi bénéficié de liens privilégiés avec la Russie qui se sont notamment traduits par l’importation d’un gaz bon marché.
En 2018, le groupe pétrolier et gazier autrichien OMV a même renouvelé son contrat avec le russe Gazprom lui permettant d’assurer une livraison jusqu’en 2040. La position de l’Autriche vis-à-vis du gaz russe demeure donc plus que jamais incertaine puisque la part de gaz russe est passée de 80 % en février 2022 à 17 % en octobre 2022, avant de remonter à 50 % début 2023 pour finalement atteindre un record de 98 % en décembre 2023 !
Néanmoins, ces chiffres restent à relativiser, car d’un autre côté la consommation de gaz a fortement diminué en Autriche, passant de 100 TWh à 75 TWh en 2023.
Par ailleurs, consciente du besoin urgent de trouver des solutions alternatives au gaz russe, l’Autriche aurait lancé des forages exploratoires sur son sol, attisant la colère des écologistes.
Un mix électrique largement décarboné
79 % : c’est la part d’énergies renouvelables enregistrée en 2021 dans la production totale d’électricité autrichienne. Grâce à l’hydroélectricité, l’Autriche fait ainsi partie des champions d’Europe en matière de production d’électricité verte et figure en tête en matière de consommation d’électricité décarbonée.
En 2022, entre 54 % et 67 % de la production d’électricité autrichienne provenait de centrales hydroélectriques, ce qui est bien au-dessus de la moyenne mondiale qui avoisine les 16 %. Le pays compte pas moins de 130 centrales, plus de 3 100 barrages et exploite ainsi la quasi-totalité de ses cours d’eau en produisant une énergie décarbonée qui fait la fierté de l’Autriche.
En complément de cette électricité d’origine hydraulique, l’Autriche produit 11 % d’énergie éolienne et 6 % de photovoltaïque, ce qui est dans la moyenne européenne, mais très peu en comparaison avec d’autres pays d’Europe, puisqu’en 2021, le solaire et l’éolien représentaient 26 % de la production d’énergie en Italie et 40 % en Espagne. Mais le modèle à suivre reste l’Allemagne qui est classée comme 3e producteur mondial d’électricité éolienne, derrière la chine et les États-Unis et 5e producteur d’électricité photovoltaïque.
L’hydroélectricité, un atout incontestable, mais qui montre ses limites !
Comme le reste de l’Europe, l’Autriche n’échappe pas aux effets du changement climatique. Or, l’hydroélectricité dépend entièrement de la ressource en eau et plusieurs années de sécheresse ont rendu la situation critique. En 2022, année de tous les records en matière de chaleur, le pays a même été contraint, pour la première fois de son histoire, à importer de l’électricité.
Et ce n’est malheureusement qu’un cri d’alarme ! Les experts estiment qu’à court terme, le dérèglement climatique entraînera de nombreuses perturbations : débordement des barrages, puis diminution des volumes d’eau de fonte et enfin une accélération de l’évaporation des réservoirs.
L’Autriche n’a donc pas le choix : elle doit à tout prix diversifier sa production électrique. Le pays étant hostile au nucléaire, il va devoir développer fortement l’éolien et le solaire s’il veut atteindre les 100 % d’électricité décarbonée d’ici 2030, comme annoncé dans la nouvelle loi EAG. Selon les plans du gouvernement autrichien, le photovoltaïque devra fournir l’effort le plus important, en multipliant par huit les capacités solaires installées actuellement.
En raison de la démocratisation de cette méthode, d’ici 2025, 70 % des nouvelles applications développées par les entreprises utiliseront des technologies Low-code ou no-code, contre moins de 25 % en 2020¹. Selon le cabinet d’analystes Gartner, ce marché devrait connaître une croissance des revenus de 25 % pour atteindre environ 12 milliards de dollars en 2024².
Alexandre Cozette, Lead Solutions Architect d’OutSystems. Crédit photo : OutSystems
Alexandre Cozette est actuellement Lead Solutions Architect chez OutSystems, leader mondial dans le développement d’applications Low-code haute performance. Avec plus de 20 ans d’expérience, dans le conseil et l’industrie du logiciel informatique, Alexandre a aidé les plus grandes organisations mondiales à évaluer, comprendre et choisir des solutions logicielles innovantes apportant une valeur ajoutée tant pour le métier que pour l’IT.
Spécialiste reconnu, son domaine d’expertise s’étend de la gestion des règles métier aux solutions de gestion de la relation client, incluant la gestion des processus métier (BPM), le Case Management, la gestion d’événements métier et l’expérience utilisateur en général
Techniques de l’Ingénieur : Comment pouvez-vous qualifier le Low-code ?
Alexandre Cozette : Le Low-code concerne avant tout le développement d’applications web et mobile, sachant qu’aujourd’hui, le secteur du smartphone est en très forte progression. Le Low-code représente une alternative au développement traditionnel, mais en étant plus rapide. Avec le Low-code, nous allons développer une première version entre deux et quatre fois plus rapidement. La maintenance évolutive et corrective sera entre quatre et huit fois plus rapide.
Comment le Low-code permet-il de réduire autant les délais de développement ?
Si on regarde l’évolution du développement logiciel, tout a commencé avec l’Assembleur, puis y a eu ensuite l’apparition et la généralisation de différents langages comme le C, C++, Java, REACT… À chaque évolution, nous avons ajouté une couche d’abstraction qui masque tout un ensemble de manipulations répétitives et de bas niveau que l’on faisait auparavant « à la main ». Le Low-code représente donc un niveau supplémentaire d’abstraction en se focalisant sur les besoins métier. Cet objectif est atteint notamment grâce à des éditeurs visuels. D’ailleurs, on parle de « programmation visuelle » à propos du Low-code en faisant notamment des drag & drop. Pour développer une application, je dispose d’un ensemble de briques et d’éléments, comme des Lego. Nous n’écrivons plus de texte. Le Low-code est aussi une plateforme complète qui va compiler, déployer, gérer la supervision, le monitoring… En un mot, tous les cycles de vie d’une application, ce qui apporte aussi beaucoup de valeur et de simplification aux entreprises.
Pourquoi de nombreuses entreprises s’intéressent-elles au Low-code ?
Il s’agit à la fois de petites et de très grandes entreprises. Quelle que soit leur taille, elles sont impactées par deux problématiques qui sont en train de se télescoper. Premièrement, elles ont des clients, en interne (certains services) ou en externe, qui leur demandent de plus en plus d’applications métiers, car elles sont en pleine transformation digitale. Les clients finaux eux-mêmes demandent des applications de self-service pour gérer eux-mêmes certaines fonctionnalités. Deuxièmement, les équipes IT ont de plus en plus de mal à répondre à toutes ces sollicitations, car le développement demande de plus en plus de compétences, et de plus ces compétences se font de plus en plus rares. Une application mobile requiert une solide infrastructure et une équipe comprenant une douzaine de profils. Cela devient donc inabordable.
N’y a-t-il pas un risque de voir se multiplier les applications bâclées ou mal sécurisées ?
C’est en effet un risque, mais il y a différents modèles de Low-code. Chez OutSystems, nous avons une solution qui s’adresse aux développeurs. L’idée est simple : plutôt que de donner des outils aux « Citizen Developpers » (avec toute la gouvernance, le contrôle, la formation, l’accompagnement et l’animation que cela nécessite) nous préférons donner à l’IT les moyens de répondre aux demandes métier beaucoup plus rapidement et plus agilement qu’ils ne peuvent le faire aujourd’hui. Avec le Low-Code, l’équipe IT d’une entreprise garde le contrôle du projet et de la sécurité, et peut appliquer ses processus de tests et de qualité… Côté Citizen Development, les solutions No-code sont tellement puissantes et faciles à utiliser qu’un responsable marketing pourrait très bien développer une solution qui envoie des données personnelles dans un Cloud aux États-Unis sans le savoir. Cette option pose dans ce cas de graves questions concernant la confidentialité des informations. Avec le Low-code, c’est le meilleur des deux mondes : on a l’agilité que demande le métier et on reste dans le cadre des procédures et de la gouvernance IT.
L’intelligence artificielle générative est-elle une aubaine ou un risque pour le Low-code ?
C’est une formidable opportunité. Nous travaillons sur ce que l’on peut qualifier de Midjourney (en référence au programme d’intelligence artificielle du même nom capable de créer des images à partir de descriptions textuelles, NDLR) du Low-code. Les équipes de différents services pourront demander à l’IA, sous forme de textes ou de prompts, de créer une application qui leur permettra de gérer mon entreprise de transport pour mieux gérer mes livreurs. Notre solution sera capable de créer intégralement l’application avec les écrans, les données et la logique. Ensuite, les équipes métier pourront présenter leur application à l’équipe IT pour que celle-ci gère l’intégration, les tests de qualité, la sécurité des données avec les capacités Low-code telles qu’on les connaît aujourd’hui puisque l’IA Generative a été éduquée à générer une application dans le formalisme de la solution Low-code. Avec cette solution, on pourra enfin réellement intégrer des Citizen Developpers au processus de création de l’application.
L’IA permettrait-elle également de corriger les erreurs ?
Notre solution fournit des outils d’analyse pour s’assurer que tout fonctionne correctement. Reprenons notre exemple d’application pour un transporteur. Une fois la maquette de l’application faite par un métier, l’équipe IT va intégrer de nouvelles étapes. Mais même à son niveau, un développeur junior peut commettre des erreurs en termes de sécurité ou de performance. Notre IA va analyser la performance, la scalabilité et la sécurité de l’application. Avec l’IA, le Low-code est gagnant à tous les niveaux du cycle de vie d’une application de la création jusqu’au contrôle qualité.
En 2022, les émissions françaises territoriales de CO2 s’élevaient à 403,8 millions de tonnes d’équivalent (CO2 eq). Dans son étude « Pourquoi la France doit absolument pérenniser son choix historique de l’énergie nucléaire » publiée en décembre dernier, l’institut économique Molinari estime qu’en 45 ans, le nucléaire aurait permis à la France d’éviter environ 25 fois les émissions totales de CO2 de 2022.
Du nucléaire bon pour le climat ?
Pour arriver à ce résultat, Georges Sapy, ancien d’EDF et membre de la Sfen (Société française d’énergie nucléaire), estime une production nette cumulée des réacteurs français de 14 200 TWh depuis leur mise en service jusqu’à ce jour. Le nucléaire émettant 4 000 tonnes de CO2 eq/TWh, les réacteurs français ont donc émis l’équivalent de 56,8 millions de tonnes de CO2 depuis leur entrée en fonction.
Dès lors, il imagine un mix électrique alternatif, à base d’énergies fossiles, qui aurait émis 750 000 tonnes de CO2 eq de plus par TWh. Ce chiffre est conforme à la base carbone de l’ADEME. Les émissions par TWh produit en France sont en effet de 418 000 tonnes avec du gaz, de 730 000 tonnes avec du fioul et de 1,1 million de tonnes avec du charbon. Ainsi, les 14 200 TWh de ce mix fossile imaginé auraient émis 10 650 millions de tonnes de CO2 en 45 ans. C’est exactement 26,3 fois plus que les émissions nationales de 2022.
Et avec des énergies renouvelables ?
Selon la base carbone de l’Ademe, par TWh, l’hydraulique émet 6 000 tonnes de CO2 eq tonnes, l’éolien en mer 15 600 tonnes, l’éolien terrestre 14 100 tonnes et les panneaux photovoltaïques 43 900 tonnes lorsqu’ils sont produits en Chine. Les panneaux solaires fabriqués en Europe et en France ont une empreinte carbone inférieure : respectivement 32 300 tonnes et 25 200 tonnes par TWh.
Sur ce même raisonnement, Techniques de l’ingénieur s’est demandé quel aurait été l’impact d’un mix électrique 100% renouvelable. Dans son scénario 100 % renouvelable de référence élaboré en 2015, l’Ademe imaginait en 2050 un mix possible à 63 % d’éolien, 17 % de solaire, 13 % d’hydraulique et 7 % de thermique renouvelable. Avec ce mix (hors thermique renouvelable) et des panneaux en provenance de Chine, chaque TWh émettrait donc 17 600 tonnes de CO2. Au final, ce mix 100 % renouvelable aurait donc émis l’équivalent de 250 millions de tonnes de CO2 depuis 45 ans. C’est 200 millions de tonnes de plus qu’avec le nucléaire, mais seulement 0,5 fois les émissions totales de CO2 de 2022.
Bétons, composites, mais aussi certaines roches ont tous pour point commun de contenir de nombreuses hétérogénéités. Leur comportement est qualifié de quasi-fragile, car leur rupture, sous l’action d’une contrainte, résulte de microfissurations progressives, dans une zone d’endommagement située autour d’une fissure principale, et qui peuvent conduire à la rupture complète du matériau. Ces matériaux ont la particularité d’être opaques et massifs, ce qui limite les observations directes du phénomène. Des chercheurs du laboratoire 3SR (Sols, solides, structures, risques) se sont servis du papier comme modèle de matériaux quasi-fragiles afin de comprendre et de modéliser leurs risques de rupture. Leurs travaux ont fait l’objet d’une publication dans la revue International Journal of Fracture.
« Nous avons utilisé le papier pour étudier les risques de rupture d’autres matériaux comme le béton, car ce matériau est plus facile à fissurer en laboratoire et a l’avantage de révéler sa microstructure à la lumière visible, déclare François Villette, actuellement chercheur post-doctoral au Laboratoire Georges Friedel. Si l’on regarde une feuille de papier à la lumière, on aperçoit des variations d’intensité lumineuse qui correspondent aux agrégats de fibres générés lors du procédé de fabrication du papier. Ces agrégats de fibres peuvent être assimilés aux agrégats présents dans le béton sous la forme de graviers. »
L’étude du papier a consisté à procéder à des essais de traction sur des bandelettes rectangulaires, en étirant chacune de leurs extrémités et à observer ce qui se produit. Ce matériau étant quasi-fragile, son endommagement est progressif et se diffuse d’un bout à l’autre de l’échantillon. Des enregistrements ont permis de tracer des courbes représentant l’évolution de la force exercée par la traction jusqu’à la rupture complète de l’échantillon.
Cette force de traction augmente progressivement jusqu’à un pic, puis chute au moment de l’endommagement du papier et qu’il perd de sa rigidité. Lors de cette baisse, en raison de l’hétérogénéité du matériau, des fluctuations des forces de traction sont observées. Les scientifiques ont alors analysé leur distribution statistique en amplitude afin d’y trouver la signature des hétérogénéités. Ils sont parvenus à faire un lien entre la baisse de force et la nature de l’endommagement.
Mise en évidence de deux régimes de distribution des chutes de forces
« L’étude statistique des chutes de forces classées par amplitudes a permis d’observer un premier régime de distribution, qui est toujours présent quel que soit l’endommagement, et qui se caractérise sur un graphique par une droite correspondant à une loi puissance, révèle François Villette. On retrouve avec un simple capteur de force un résultat déjà connu dans la littérature en utilisant d’autres dispositifs, d’émission acoustique par exemple, et qui s’applique à tous les phénomènes critiques, comme les séismes. Nos travaux ont également permis de mettre en évidence un deuxième régime qui se caractérise par une déviation des plus grandes chutes de forces par rapport au tracé de cette droite et qui s’observe sur les échantillons ayant rencontré une propagation de fissures. Plus ce deuxième régime est important et plus nous observons une propagation franche de la fissure. »
Cette découverte est à mettre en relation avec une précédente étude réalisée par la même équipe du laboratoire 3SR et qui a fait l’objet d’une publication dans la revue Acta Mechanica. Le dispositif expérimental était le même avec des bandelettes de papier rectangulaire soumises à des forces de traction à leurs extrémités. Sauf qu’au lieu d’étudier la distribution statistique des chutes de forces, les scientifiques ont observé, à l’aide d’une caméra, la zone d’endommagement qui a la particularité de s’assombrir lorsque les liens entre les fibres de papier se rompent.
« Nous observons un changement de forme, avec au départ une zone d’endommagement petite et circulaire qui, en grossissant, finit par s’allonger dans la direction de la propagation de la fissure, ajouteFrançois Villette. Plus la taille de la zone d’endommagement est grande et plus la chute de force mesurée est grande.Même si les chutes de forces ne sont pas directement celles que nous avons observées dans l’étude sur leur distribution statistique, nous avons tout de même de bonnes raisons de penser que la forme de la zone d’endommagement et les régimes dans la distribution statistique sont liés. La prochaine étape de ce travail de recherche consisterait à faire le lien entre la distribution statistique des chutes de forces et la zone d’endommagement pour améliorer la modélisation des risques de rupture des matériaux quasi-fragiles. »
Selon les évaluations de The Shift Project, les réseaux représentent 12 % de l’impact carbone mondial du numérique. Mais selon d’autres évaluations, cet impact pourrait monter jusqu’à 25-35 %. « Les réseaux sont importants en termes quantitatifs, mais aussi dynamiques », prévient Maxime Efoui-Hess, coordinateur de projet « numérique » chez The Shift Project. L’association présidée par Jean-Marc Jancovici publie le nouveau rapport « Énergie, climat : Stratégie pour des réseaux numériques sobres et résilients ».
Et il faut bien dire que l’impact du numérique croît toujours, allant à l’encontre de tous les objectifs de décarbonation du secteur. La croissance du numérique provient désormais en grande partie des réseaux mobiles. « Si l’on regarde la consommation électrique des infrastructures réseaux dans le monde, les réseaux mobiles ont une augmentation de +12 % par an et représentent aujourd’hui 60 % de la consommation des réseaux totaux », résume Maxime Efoui-Hess. Parmi ces infrastructures, l’installation des constellations de satellites en orbite basse présente une dynamique tout particulièrement inquiétante. En cause principalement, le déploiement d’usages en mobilité « pour avoir accès à tout le contenu, depuis n’importe où, tout le temps », ajoute l’expert.
Des objectifs de décarbonation loin d’être atteints
Au niveau mondial, les acteurs du numérique se sont engagés à réduire leurs émissions de 45 % d’ici 2030 par rapport à 2020. En France, cela suppose de diminuer ces émissions de 30 % entre ces deux horizons, estime The Shift Project. L’organisation a exploré l’effet d’un scénario tendanciel, puis d’un scénario dit « exponentiel » avec un déploiement accru de technologies comme l’intelligence artificielle, l’internet des objets, la réalité virtuelle et augmentée après 2030. « On a une augmentation par trois des émissions de gaz à effet de serre et jusqu’à 5 térawattheures (TWh) de plus de consommation électrique en 2035 », prévient Maxime Efoui-Hess.
Cela appelle à faire des choix dès maintenant. Maxime Efoui-Hess explique : « 5 TWh, c’est exactement ce dont on a besoin pour décarboner tous les engrais dont on a besoin en France en 2050. Si on déploie tous azimuts les idées pour le numérique, il y aura de l’électricité que l’on n’aura pas pour autre chose. […] Il va falloir choisir entre le monde virtuel et manger décarboné, ou les mondes virtuels et rouler décarboné. » Avec tous les secteurs souhaitant davantage d’électricité, les décideurs seront en effet appelés à privilégier certains choix de développements technologiques plutôt que d’autres, afin d’orienter l’électricité de façon prioritaire.
L’écoconception insuffisante pour maîtriser l’impact
The Shift Project a tout de même voulu savoir si les objectifs étaient atteignables avec les engagements déjà pris. Et c’est là où le bât blesse : malgré une écoconception systémique de l’infrastructure réseau et une croissance maîtrisée se reposant sur de la sobriété individuelle, les émissions de gaz à effet de serre des réseaux mobiles en France ne parviennent même pas à retrouver les niveaux de 2020.
Les trois quarts des impacts du numérique pour 2030 ont été déterminés par les choix faits en 2020 et inscrits dans les cahiers des charges des régulateurs, puis dans les stratégies économiques des opérateurs et des acteurs de services numériques, explique The Shift Project. « Le mieux que l’on puisse faire est de revenir en 2035 aux niveaux [d’émissions des réseaux mobiles en France] de 2020 », assure Maxime Efoui-Hess. Pour y parvenir, il convient de combiner l’écoconception systémique à de la sobriété individuelle et collective.
En amont du déploiement de la 6G, la question sera donc de retravailler les cahiers des charges des régulateurs pour reprendre la main sur les usages. L’objectif doit bien être de « mettre la prochaine génération au service de la décarbonation et du maintien de l’impact sous un certain seuil », et non « pas au service des mondes virtuels », prévient l’expert de The Shift Project. L’idée serait donc de conditionner les déploiements et les investissements à des études d’impacts quantifiées pour vérifier la compatibilité avec la trajectoire de baisse des émissions.
En attendant, l’association recommande la réorganisation collective vers la sobriété avec le déploiement ciblé des technologies comme la 5G. Enfin, un défi capital réside dans la formation de toutes les parties prenantes de l’innovation et du déploiement aux impacts des choix technologiques qu’ils alimentent.
Alors que les entreprises chinoises contrôlent 80 % des processus industriels du photovoltaïque dans le monde et inondent actuellement l’Europe avec des panneaux à bas coût, la filière photovoltaïque européenne est particulièrement menacée et craint une désindustrialisation massive. Mais la situation actuelle révèle également deux choses : d’une part, une remise en question de nos modèles de production s’avère nécessaire et d’autre part, la filière attend des signaux politiques forts, de manière à protéger la production européenne et à la développer.
Les constructeurs chinois se ruent vers l’Europe, les Européens traversent l’atlantique
Cette « inondation » du marché européen par les panneaux chinois n’est pas le fait du hasard. Elle résulte directement de décisions politiques prises par les États-Unis et l’Inde visant purement et simplement à bloquer l’accès à leur marché afin de soutenir leurs propres filières photovoltaïques. Certains responsables politiques européens n’hésitent d’ailleurs pas à accuser le protectionnisme américain d’être responsable de la situation européenne actuelle.
Ironiquement, si cette crise du solaire européen a contraint Meyer Burger à quitter l’Allemagne, l’entreprise semble avoir trouvé refuge aux États-Unis, puisqu’elle a récemment annoncé la construction d’une giga-usine au Colorado, en partie financée par les aides américaines !
En dehors de toute considération politique, l’exemple de Meyer Burger semble également révélateur d’un problème de fond : la nécessité de produire plus, de massifier la production pour bénéficier d’un effet d’échelle sur les coûts.
La construction de giga-usines solaires pour faire face à la concurrence chinoise
Comme le disait Pierre-Emmanuel Martin, président et cofondateur de CARBON, lors de l’interview qu’il nous avait accordée en 2023, seule une production à grande échelle de cellules et de modules photovoltaïques permettra à l’Europe de devenir compétitive face à la chine.
« En multipliant par dix la capacité de production, vous réduisez par deux le coût de production. C’est le principe qu’ont appliqué les Chinois. En 15 ans, ils ont réussi à atteindre de très gros volumes et à baisser drastiquement le coût du panneau, si bien que l’énergie photovoltaïque est devenue l’énergie la plus compétitive du marché. »
Il faut donc se rendre à l’évidence, ce passage à l’échelle est une question de survie. Et pour y arriver, il n’y a qu’une seule solution : faire comme les fabricants chinois, c’est-à-dire construire des giga-usines solaires ayant des capacités de production au moins dix fois supérieures.
C’est un sujet que nous avions déjà abordé il y a un an, au sujet de CARBON, dont la future giga-usine de Fos-Sur-Mer sera opérationnelle en 2026, emploiera 3 000 personnes et produira 5 GW par an de cellules photovoltaïques (et 3,5 GW de modules).
Mais à l’instar de CARBON, plusieurs projets de giga-factories devraient voir le jour dans les prochaines années en France et ailleurs en Europe. Le consortium Holosolis a ainsi récemment annoncé la construction d’une autre giga-usine de 5 GW de capacité annuelle. L’usine, basée dans la Région Grand Est, sera opérationnelle en 2025, alimentera les marchés français et européen et emploiera 1 700 personnes.
Autant de projets qui, s’ils aboutissent, permettront donc de développer une vraie filière européenne d’énergie solaire, capable de répondre aux ambitions de la Commission européenne : atteindre une puissance de solaire installé de 600 GW d’ici 2030.
Nos besoins en cellules et modules solaires sont ainsi amenés à croître considérablement si nous voulons respecter nos objectifs climatiques. Dans un article de 2023, Simon Perraud, directeur adjoint de l’institut Liten du CEA, expliquait que pour atteindre 200 GW de capacités photovoltaïques en France d’ici 2050, il faudra « ajouter 6 GW de capacités photovoltaïques par an, entre maintenant et 2050 ».
La concurrence chinoise menace-t-elle de tuer dans l’œuf ces projets de giga-factories ?
Ces giga-projets sont certainement la bonne solution, car il est urgent d’accélérer la massification de notre production solaire et de réduire notre dépendance face aux panneaux chinois. En attendant que ces usines sortent de terre, la situation actuelle semble faire le jeu de la Chine et des États-Unis et d’autres fermetures d’usines sont malheureusement à craindre.
Un protectionnisme à l’européenne qui s’avère donc nécessaire et devrait, on l’espère, permettre de rassurer les investisseurs désirant investir dans ces giga-usines, sur notre capacité à conquérir une industrie d’avenir, déjà considérée comme hautement stratégique.
Pour déployer un service de connexion à Internet sur toute la planète, les fournisseurs peuvent placer des satellites en orbite géostationnaire, à 36 000 km de la Terre, ou des constellations de satellites, en orbite basse, à moins de 2 000 km de la Terre. « Les satellites géostationnaires sont fixes au-dessus de la même position terrestre, les satellites en orbites basses sont défilants autour de la Terre », rappelle Marlène de Bank, ingénieure de recherche « numérique » à The Shift Project. L’association présidée par Jean-Marc Jancovici publie le nouveau rapport « Énergie, climat : Stratégie pour des réseaux numériques sobres et résilients ».
Des milliers de satellites en orbite basse
Ce rapport s’intéresse tout particulièrement aux impacts climatiques des satellites. Et pour cause : un satellite géostationnaire permet traditionnellement de couvrir environ un tiers de la planète. Il en faut donc trois pour assurer une couverture mondiale minimale. « On peut en mettre plus pour couvrir plus de personnes et donner plus de débit à plus de monde », ajoute Marlène de Bank. Mais cela est très différent pour les satellites en orbite basse. L’ingénieure explique : « Ces satellites sont mis en orbite basse pour réduire le temps de trajet entre le sol et les satellites. Cela fait que la latence – le temps nécessaire à des paquets de données pour passer dans le réseau – est réduite [de l’ordre de 600 à 30 millisecondes]. Pour réussir à avoir une faible latence et une couverture continue, il suffit de cent satellites. »
S’« il suffit de cent satellites », les fournisseurs décident d’en placer beaucoup plus en orbite. Leur objectif : apporter davantage de débit à toujours plus d’utilisateurs. Ainsi, la constellation Starlink[1] de la société SpaceX, c’est déjà 5 100 satellites de moins de 300 kilogrammes placés en orbite. La constellation OneWeb[2] d’Eutelsat OneWeb, c’est 648 satellites de 150 kilogrammes. Mais ces géants prévoient beaucoup plus grand : SpaceX prévoit par exemple environ 12 000 satellites en 2025 et a demandé les autorisations pour en lancer un maximum de 42 000. « S’il ne fallait amener ce service qu’à un nombre limité de personnes, la constellation ne serait pas de taille si importante », souligne le rapport. Le dimensionnement des besoins à venir et le rôle de la sobriété individuelle et collective apparaissent ici clairement pour maîtriser l’empreinte carbone de ces constellations.
Une empreinte carbone qui s’envole
Aéro Décarbo et The Shift Project ont analysé l’empreinte carbone (en milliers de tonnes de CO2 équivalent par an, ktCO2e/an) de ces deux réseaux satellitaires. Ces évaluations comprennent les émissions liées aux constellations de satellites, aux lanceurs, aux stations au sol et aux antennes utilisateur, ainsi que les points de contact entre les terminaux utilisateurs et le réseau Internet. Résultat : 1 600 ktCO2e/an pour Starlink, et près de 600 ktCO2e/an pour OneWeb. « 1 600 ktonnes de CO2e par an, c’est deux fois les réseaux fixes et mobiles en France [en 2020] », illustre Marlène de Bank. L’empreinte carbone des constellations de satellites est particulièrement importante et bien supérieure à celle de satellites géostationnaires. À titre d’exemple, l’organisation cite le satellite Konnect VHTS d’Eutelsat Group, émettant 65 ktCO2e/an.
Un déploiement massif qui fait craindre le pire
2022 a marqué un point de bascule avec plus de 1 000 tonnes de satellites mises en orbite sur l’année. « En 2022, on a mis autant de masse en orbite pour les satellites en orbite basse que pour le reste des activités spatiales : 94% est uniquement due aux constellations Starlink et OneWeb », prévient Marlène de Bank. Et cela s’accélère. En 2023, plus de 1 400 tonnes de charge utile ont été placées en orbite dont les trois quarts en orbite basse.
Cette tendance historique ne serait qu’une amorce puisque les prévisions du secteur prévoient de multiplier cette masse par neuf entre 2021 et 2050. Les experts redoutent en plus les effets « hors CO2 » de ces mises en orbite. « Au lancement et à la ré-entrée des satellites dans l’atmosphère, des particules sont émises et impactent le climat », évoque Marlène de Bank. Ces effets encore peu documentés ne sont pas pris en compte dans les évaluations.
The Shift Project appelle donc à conditionner le déploiement des constellations de satellites à des études d’impact et à mener des études pour réduire les incertitudes sur les effets hors-CO2. Tout l’enjeu sera de réfléchir à des stratégies de connectivité compatibles avec les budgets carbone. L’association souligne que « la réplication d’une solution type Starlink pour assurer un accès à Internet véritablement mondial serait une impasse environnementale ».
Ainsi, tout le défi consiste à adopter de manière raisonnée et différenciée ces technologies, sans surdimensionner les services. Hugues Ferreboeuf, chef de projet « numérique » à The Shift Project souligne : « On n’a pas forcément besoin de 10 000 satellites en orbite basse pour fournir un service de connectivité. En mettre quelques milliers ou quelques dizaines de milliers, cela revient tout simplement à dupliquer des infrastructures […], ce qui évidemment d’un point de vue environnemental est le contraire de ce qu’il faut faire ».
En 2020, la combinaison de la crise du Covid-19 et d’un hiver peu rigoureux avait contribué à une réduction historique des émissions de gaz à effet de serre de 9 % sur l’année par rapport à 2019. En 2022, les émissions françaises étaient reparties à la baisse, en repli de 2,7 %, après une hausse de 6,4 % en 2021 due à l’effet rebond de la reprise économique post-Covid-19. Mais l’année 2023 retrouve des résultats conformes à la stratégie nationale bas-carbone qui doit emmener la France vers la neutralité carbone d’ici 2050. L’activité sur le territoire français, sans compter l’empreinte carbone des importations s’établit à 384,5 millions de tonnes d’équivalent CO2 (Mt CO2e), plus bas que le record de 2020 (392 Mt CO2e).
Une décarbonation poussée par l’énergie et l’industrie
Selon le Citepa, la production énergétique est responsable d’une baisse de 6,3 Mt CO2e entre 2022 et 2023 (- 14 %). Elle provient avant tout de la remise en service des centrales nucléaires. Ainsi, la production nucléaire a atteint 320,4 térawattheures (TWh) en 2023, contre 279 TWh en 2022. Elle reste toutefois en dessous de ses niveaux historiques de 394,7 TWh en moyenne entre 2014 et 2019, calcule le gestionnaire du réseau électrique RTE, dans le Bilan électrique 2023.
2023 a aussi été une bonne année niveau production hydraulique (+ 9,2 TWh) « grâce notamment à des précipitations plus abondantes », ajoute RTE. Et l’année se caractérise en plus par des records de production à la fois pour l’éolien (+ 15,2 TWh pour ces deux filières cumulées), selon les données de RTE.
En parallèle, la France a continué à baisser sa consommation électrique corrigée des effets météorologiques et calendaires. Elle est passée de 460 TWh en 2022 à 446 TWh en 2023, en baisse de 3,2 % sur l’année. Cette diminution s’explique à la fois par une mobilisation continue en faveur des économies d’énergie, et par la conjoncture macroéconomique dégradée. « Notamment, 27 % de la baisse structurelle de consommation est attribuable aux grands consommateurs industriels », estime RTE. Face à la hausse des prix de l’énergie, les industriels cherchent en effet à s’adapter face au doublement de leur facture énergétique.
Conséquence directe de la réduction de la production industrielle et de facteurs plus structurels de décarbonation, l’industrie diminue ses émissions de 6 MtCO2e (- 8 %). Grâce à une telle recrudescence de la production décarbonée et un ralentissement de la demande, la France a pu tasser le recours aux combustibles fossiles et en particulier au gaz. La production est ainsi passée de 44,1 TWh en 2022 à 30 TWh en 2023. Et le charbon devient « totalement anecdotique dans le mix français », note RTE, représentant 0,17 % du mix électrique sur l’année.
Tassement des émissions résidentielles et du transport routier
La baisse des émissions vaut pour tous les secteurs, sauf l’aérien. En moyenne sur l’année 2023, les émissions mensuelles du secteur résidentiel-tertiaire ont baissé de 3,9 Mt CO2e (- 6 %). Pour expliquer cette décroissance, le Citepa avance la « poursuite des comportements de sobriété des ménages et entreprises », la « continuation des rénovations thermiques des bâtiments », la « météo », le « prix de l’énergie et inflation ».
En 2023, les émissions du routier repartent également à la baisse avec un repli de 3 %. C’est le niveau le plus bas observé depuis 2009, en dehors de l’effet Covid-19. Plusieurs effets se combinent selon le Citepa : « des effets “prix ponctuels […] avec une hausse du prix à la pompe”, “la poursuite du renouvellement du parc de véhicules” et “les évolutions de comportements” ». Toutefois, les émissions liées au secteur aérien repartent à la hausse : + 21 % pour le trafic domestique et + 27 % pour le transport international. En revanche, si les trajets intérieurs ont repris leur niveau pré-crise de 2019, ce n’est pas encore le cas du transport international.
Dans ces conditions, « les objectifs de la SNBC-2 [ Stratégie nationale bas carbone 2], en 2023 et en moyenne sur 2019-2023, sont respectés », avance le Citepa dans son Baromètre des émissions mensuelles. Et ce après avoir échoué à respecter son premier budget carbone (2015-2018). Ce manquement lui avait valu d’être traînée en justice par des ONG dans le cadre de l’Affaire du siècle. Cette stratégie prend toutefois en compte les objectifs de l’UE de l’époque, à savoir une réduction de – 40 % entre 1990 et 2030. Depuis, cet objectif de l’UE a été rehaussé à 55 %, et une mise à jour de la SNBC est en cours. Les prochains budgets carbone devraient donc se voir modifiés et les objectifs de réduction augmentés pour les années à venir.
De gauche à droite : Lamine Benaissa et Jean-Sébastien Moulet, de WORMSENSING (Crédit : LANGOUET) et Christophe Girard de SOITEC (Crédit : UTOPIK/WORMSENSING)
WORMSENSING[1] est un spin-off du CEA-LETI, co-fondé par Jean-Sébastien Moulet et Lamine Benaissa, deux anciens ingénieurs du CEA-LETI.
Christophe Girard est Strategic Office Technology Director chez SOITEC, l’un des leaders mondiaux dans la fourniture de matériaux semi-conducteurs.
Créé en 1988 par France Télécom, INNOVACOM est un pionnier du capital-innovation en France. INNOVACOM accompagne WORMSENSING via son fonds Technocom 3 dans lequel SOITEC est impliqué.
CEA Investissemment et KBC Focus Fund font également partie des investisseurs de WORMSENSING.
Techniques de l’ingénieur : En quoi votre technologie de capteurs de vibration Dragonfly® diffère-t-elle des technologies concurrentes ?
Lamine Benaissa : Nos concurrents produisent soit des jauges de contrainte, soit des accéléromètres, c’est-à-dire des objets fabriqués par des procédés macroscopiques, par des techniques proches de l’horlogerie, issues d’un savoir-faire de plus de 70 ans. Leurs points faibles, c’est l’impossibilité de réduire les coûts et de miniaturiser au-delà d’une certaine limite avec les techniques soustractives.
Par ailleurs, les techniques piézoélectriques traditionnelles emploient généralement des céramiques, donc des matériaux fragiles, difficiles à travailler et chers. De notre côté, nous sommes dans une approche additive, notre procédé est plus reproductible, plus économe et nous bénéficions des millions d’heures de R&D que l’industrie du semi-conducteur a consacrée à son développement.
Qu’est-ce qui vous a amené vers les procédés semi-conducteurs ?
Une boîte de capteur Dragonfly® (Crédit : WORMSENSING)
Lamine Benaissa : Avec mon co-fondateur, nous sommes tous les deux des anciens du CEA-LETI, ce qui nous a amenés à travailler sur de nombreuses technologies émergentes. Généralement, ce qui empêche ces technologies de sortir du laboratoire c’est le manque de capacité à passer à l’échelle industrielle, malgré de bonnes propriétés, sur le papier.
Nous avions l’avantage d’être complémentaires de ce côté-là : j’ai une étiquette génie des procédés, alors qu’il a plus la fibre dispositifs et composants. Nous avons ainsi toujours travaillé de pair en veillant à apporter de l’innovation avec une vision à long terme de sortie du laboratoire qui prenne en compte les contraintes technico-économiques.
Car s’il y a beaucoup de matériaux qui émergent, poussés par des technologies de pointe, très peu arrivent à l’échelle grand public. De son côté, l’industrie du semi-conducteur a su relever le défi de rendre abordable des technologies très pointues. Pour développer la technologie WORMSENSING, nous avons ainsi combiné des savoir-faire issus de secteurs de l’industrie du semi-conducteur qui mettent en œuvre des procédés de fabrication totalement différents, mais avec les mêmes exigences.
Par exemple, si l’on compare la fabrication d’un wafer de silicium à celle d’un écran plat, les procédés et les volumes n’ont rien à voir. Pourtant le niveau d’exigence est, dans les deux cas, maximal, car il n’est pas concevable aujourd’hui de vendre un écran ayant un « pixel mort ».
Avec l’inauguration de la ligne de production Hypérion, avez-vous prouvé que vous savez relever ce défi ?
Lamine Benaissa : Jusqu’à présent notre défi était de trouver le bon chemin technologique, en faisant un benchmark des meilleures solutions, à chaque étape, en prenant en compte différents facteurs comme la précision ou le coût.
Avec notre ligne de production Hypérion, nous prouvons qu’il est possible d’atteindre un niveau de rendement comparable à celui de l’industrie du semi-conducteur. Nous sommes rassurés sur le fait de pouvoir fournir des capteurs ultrasensibles, proposant les facteurs de forme de l’électronique flexible, tout cela avec la reproductibilité des semi-conducteurs et un niveau de performance inégalable par les approches traditionnelles.
Dorénavant, la prochaine étape va être de figer le niveau de qualité et de faire de l’amélioration continue pour atteindre les volumes et les niveaux de rendement demandés par les marchés les plus exigeants.
Inauguration de la ligne de production Hypérion (Crédit : WORMSENSING)
Quels sont ces marchés que vous visez ?
Lamine Benaissa : Le capteur Dragonfly®, qui est notre premier produit « sur étagère » est destiné à l’instrumentation et au monitoring de machines ou d’infrastructures. Ce sont donc plutôt des applications macroscopiques.
Pour le moment, le facteur de forme de Dragonfly® répond bien au besoin de nos premiers clients, mais si nous voulons aller vers de nouveaux marchés, nous devrons encore réduire nos coûts de production.
Lorsque nous viserons le marché automobile, nous irons ainsi vers des facteurs de forme beaucoup plus petits et des volumes toujours plus importants.
Quelles sont les prochaines étapes du développement de WORMSENSING ?
Christophe Girard : Cette ligne « pilote » baptisée Hypérion est bien une vraie ligne de préproduction, puisque sa capacité de production s’élève à 2 millions d’unités par an. Elle permettra à WORMSENSING de se développer dans les années à venir.
Cette étape de préproduction est en effet essentielle, car WORMSENSING vise des marchés pour lesquels il est crucial de démontrer une capacité de production importante en termes de volume, avec une qualité constante.
Ce qui nous rassure, c’est qu’il y a déjà de nombreux retours positifs de la part des clients et qu’avec cette ligne ils sont prêts à réellement attaquer le marché. Je pense aussi que le choix technologique des semi-conducteurs est le bon et aussi le plus évident, car Lamine comme Jean-Sébastien savent parfaitement ce qu’est une ligne de semi-conducteurs.
Selon moi, avoir réussi à développer en parallèle la structure de l’entreprise et le procédé en si peu de temps est une véritable performance.
Enfin, il y a de nombreuses similitudes entre l’histoire de SOITEC et celle de WORMSENSING. C’est donc de bon augure pour la suite !
Pour comprendre les tenants et aboutissants du règlement européen sur l’intelligence artificielle, nous avons interrogé Jean-Gabriel Ganascia, informaticien et philosophe spécialisé dans l’intelligence artificielle et l’éthique à Sorbonne Université. Il est également membre du comité d’éthique du CNRS. Il nous partage également les bonnes questions à se poser avant de développer l’IA.
Le règlement européen IA Act, a pour objectif “de nous prémunir contre les dangers liés à l’intelligence artificielle” explique Jean-Gabriel Ganascia. Et ce, en introduisant la notion de risque qui est “l’éventualité d’un danger” ajoute-t-il. Ces risques sont catégorisés : inadmissibles (techniques subliminales, notation, biométrie en temps réel), élevés, modérés et faibles (filtres à spam, jeux vidéos).
Pour l’instant il y avait peu de réglementation propre à chaque pays, et encore moins en France. Raison pour laquelle ce règlement est devenu important. Du côté des Etats-Unis et de la Chine, l’encadrement est très différent. Aux Etats-Unis, depuis juillet 2023, une réglementation enjoint les entreprises à développer l’IA pour le bien commun. En Chine, “le principe éthique sur lequel se reposent les réflexions c’est qu’il faut d’abord assurer la sécurité et la cohésion” précise l’expert.
Des entreprises inquiètes [17:04 – 21:14]
De nombreuses entreprises s’inquiètent de la complexité des règlements, avec des règles générales et contraignantes, ou encore des exceptions aux règles. En d’autres termes, “il faut des services juridiques compétents qui maîtrisent parfaitement cette réglementation pour guider […] et pour des petites sociétés, c’est extrêmement difficile” regrette Jean-Gabriel Ganascia. Le règlement a d’ailleurs tardivement inclut l’IA générative, et en urgence, notamment avec l’arrivée de ChatGPT sur le marché.
Intégrer l’éthique dans le développement [21:18 – 31:46]
Faut-il se poser des questions sur l’éthique avant de se lancer dans le développement de l’IA ? Pour notre expert, les questions doivent se poser après la maîtrise des techniques d’IA mais avant la mise en œuvre des projets qui l’utilisent. “Sur chaque projet, il faut se demander quelles sont les conséquences et les dérives d’utilisation du système” précise le président du COMETS, en suivant une méthodologie précise en quatre points : réunir un comité d’éthique, se demander quelles sont les contraintes qu’on va s’imposer pour éviter les mauvaises utilisations, faire certifier par un organisme indépendant et garder une supervision. Et si vous ne savez pas comment faire pour mettre tout cela en place, il existe des formations !
Cogitons Sciences est un podcast produit par Techniques de l’Ingénieur. Cet épisode a été réalisé par Séverine Fontaine, en collaboration avec Marie-Caroline Loriquet.
Les cicadelles sont des insectes suceurs de sève, faisant partie des hémiptères (cigales, pucerons). Les scientifiques savent depuis les années 1950 qu’elles sécrètent des molécules très particulières, nommées brochosomes. Celles-ci prennent la forme de sphéroïdes creux nanoscopiques, munis de trous connectés entre eux par une cavité centrale. Les cicadelles s’enduisent le corps de ces brochosomes plusieurs fois par jour, de façon à maintenir une couche épaisse et régulière. Mais quel rôle peut bien jouer cette fameuse couche ? Au fil des années, de nombreuses hypothèses ont émergé : protection contre les microbes, résistance à la dessiccation, transport de phéromones, anti-réflexion… Pour autant, difficile de vérifier qui a raison au vu de la précision requise pour reproduire ces minuscules granules. Tak-Sing Wong, co-auteur de la nouvelle étude étant parvenue à réaliser cet exploit, avait déjà tenté sa chance en 2017 sans parvenir à une reconstruction parfaite des brochosomes naturels. Il aura donc fallu attendre mars 2024 pour entendre parler, dans le journal PNAS, de brochosomes synthétiques aboutis. Une étape clé vers des applications bioinspirées des cicadelles et de leurs capacités étonnantes…
Photographie obtenue par microscopie électronique à balayage de brochosomes sur une aile de l’espèce de cicadelle Curtara insularis. Crédits : Elizabeth Bello/University of Illinois Urbana-Champaign.
Cicadelles : une couche anti-reflet pour échapper aux prédateurs
Pour répliquer les sphéroïdes sécrétés par les cicadelles, le postdoctorant Lin Wang a choisi d’user de l’impression 3D biphotonique. Il est le premier auteur de la recherche parue en mars 2024, sur laquelle il a collaboré avec des scientifiques de l’université d’État de Pennsylvanie et de l’université Carnegie-Mellon (États-Unis). Cette technique d’impression 3D lui a permis d’obtenir des brochosomes synthétiques fidèles à leurs penchants naturels. Seule différence : leur taille. Alors que les granules visibles sur les cicadelles ont un diamètre variant entre 300 et 700 nanomètres, leurs versions synthétiques avoisinent les 20 micromètres – soit 20 000 nanomètres. Ce qui reste malgré tout une prouesse, leur taille étant près de cinq fois inférieure à celle d’un cheveu humain ! L’équipe de recherche a ensuite disposé ses brochosomes synthétiques jusqu’à recouvrir une surface d’environ 400*350 nanomètres. Tout était finalement en place pour tester leur réflectivité.
Les résultats ont fait pencher la balance en faveur du rôle anti-reflet des brochosomes. Les scientifiques ont ainsi noté que leur diamètre était calibré pour diffuser largement la lumière visible, et que leurs trous filtraient les faibles longueurs d’onde (ultraviolet). Une fois les deux effets associés, la réduction de la réflexion lumineuse d’une cicadelle peut atteindre 94 % ! Selon les chercheurs, les brochosomes auraient pu connaître une telle évolution géométrique pour permettre aux cicadelles d’échapper plus facilement à leurs prédateurs. En effet, oiseaux et autres lézards possèdent une vision particulièrement adaptée aux ultraviolets et à la lumière visible… Du côté des humains, la géométrie unique des brochosomes offre une nouvelle approche dans le domaine des manipulations optiques. À l’avenir, leur utilisation pourrait mener à de meilleurs systèmes de collecte d’énergie solaire, à des revêtements anti-reflet omnidirectionnels, voire même à du chiffrement optique. Sans oublier bien sûr la possibilité d’un camouflage multispectral, sorte de cape d’invisibilité bioinspirée…
Considéré comme une énergie d’avenir par l’Agence internationale de l’énergie(AIE), l’hydrogène devrait jouer un rôle important dans la transition vers la neutralité carbone dans tous les secteurs industriels. C’est notamment le cas dans le domaine des transports, où les piles à combustible pour les véhicules électriques permettent de réduire l’utilisation du diesel. De même, dans le domaine de l’énergie, l’hydrogène peut être une solution de stockage d’électricité pour pallier l’intermittence des énergies renouvelables.
Par ailleurs, si de nouveaux usages de l’hydrogène se sont fait jour, particulièrement dans l’éolien et le solaire, les industries chimique et sidérurgique sont les principales consommatrices de cette énergie décarbonée.
Cependant, actuellement, la production d’hydrogène est encore à plus de 95% d’origine fossile, ce qui entraîne chaque année l’émission de plusieurs millions de tonnes de CO2 dans l’atmosphère. La condition essentielle au développement des différents usages de l’hydrogène est donc qu’il soit produit de manière décarbonée, en utilisant de l’électricité à la production elle-même décarbonée, ou en ayant recours à des dispositifs «CCUS» (capture, stockage et utilisation du CO2).
La typologie des acteurs en Europe
Tous pays d’Europe confondus, la grande majorité (59%) des acteurs de l’hydrogène vert européen sont des acteurs de l’énergie ou des spécialistes de la production, du transport, du stockage et de la distribution de gaz comprimés, de la chimie ou encore dans laR&D.
Par catégorie, la moitié de ces acteurs s’inscrivent dans le secteur de la production d’hydrogène vert, suivis de près par les spécialistes du stockage et de la distribution, également très présents. Le transport de l’hydrogène ou sa consommation sont actuellement des thématiques moins développées.
Le secteur de l’électrochimie apparaît naturellement en tête de la catégorie chimie, l’électrolyse de l’eau étant un procédé clé de la production d’hydrogène vert.
Dans le secteur de la mobilité, l’automobile et le transport lourd arrivent aussi en tête, de manière logique.
La France, leader de l’hydrogène décarboné en2030?
La France est, quant à elle, le pays d’Europe qui compte le plus grand nombre d’acteurs de l’hydrogène vert. Son ambition affichée est notamment de devenir le leader de l’hydrogène décarboné.
Cette ambition se traduit par un soutien public important à la filière. Ainsi, ce sont 7milliards d’euros qui lui sont consacrés jusqu’en2030, suite au déploiement de la stratégie nationale pour le développement de l’hydrogène décarboné.
Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 11 avril 2024 !
Pour notre dossier de janvier, « Hydrogène : quels ajustements pour la stratégie française ? », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.
Production d’hydrogène par photo-électrolyse de l’eau Lorenzo Lombardi
Projet de thèse en Chimie inorganique et Bio inorganique, depuis le 01-02-2023 Systèmes moléculaires et nanomatériaux pour l’énergie et la santé.
Production bio-inspirée de dihydrogène Michail Papadakis
Thèses de doctorat en Sciences Chimiques – Soutenue le 17-03-2023 Institut des sciences moléculaires de Marseille
Hy24, qui est le fruit d’une co-entreprise entre Ardian[1], un des leaders mondiaux de l’investissement privé, et l’expert industriel FiveT Hydrogen[2], gère aujourd’hui le plus grand fonds mondial dédié au développement des infrastructures dont la filière a besoin pour se structurer. En investissant, en France et à l’international, sur des projets et technologies d’envergure ayant un impact durable pour l’industrie et la société, l’entreprise veut participer au déploiement de l’hydrogène, un vecteur incontournable de la transition énergétique, s’alignant ainsi sur l’ambition de la France et sa stratégie nationale hydrogène révisée, bientôt entérinée.
Pierre-Germain Marlier, Directeur de l’investissement de l’équipe d’Hy24 dédiée aux infrastructures, a expliqué à Techniques de l’Ingénieur la stratégie d’investissement mise en place par Hy24 pour sourcer et investir dans des projets hydrogène à grande échelle.
Quelle est l’ambition d’Hy24 ?
Pierre-Germain Marlier : Hy24 est un gestionnaire de fonds qui déploie aujourd’hui un fonds dédié aux infrastructures hydrogène qui s’élève à 2 milliards d’euros, et qui lève actuellement un second fonds dédié aux équipements et technologies hydrogène. Le fonds infrastructure investit dans des entreprises et des projets de production d’hydrogène et ses dérivés (carburants durables, ammoniaque), au transport, à la distribution d’hydrogène, jusqu’au applications finales comme la production d’acier vert et la mobilité lourde (investissement dans les réseaux de stations hydrogène ou des flottes captives par exemple).
Le fonds équipements va soutenir la structuration des entreprises qui devront produire à l’échelle les technologies dont nous avons besoin pour mener à bien les projets d’infrastructures.
Le fonds dédié aux infrastructures, qui fait partie de mon périmètre, a pour ambition de soutenir les projets qui font sens pour Hy24, pour nos investisseurs (LPs), pour la transition énergétique, et pour les clients. Notre objectif est d’accompagner ces projets industriels pour une durée de sept à dix ans au minimum, et ils ont pour vocation de continuer leur exploitation pendant plusieurs dizaines d’années après notre sortie. Notre intérêt est donc que ces projets génèrent de la valeur sur le long-terme, même après notre sortie. C’est pour cette raison que nous ciblons les actifs qui auront une valeur stratégique et une compétitivité accrue, même dans dix ans.
Comment peut se matérialiser cette valeur stratégique que vous évoquez ?
Cette notion de valeur stratégique peut prendre plusieurs formes : les entreprises et les projets disposent d’un accès préférentiel à une ressource renouvelable, au réseau de distribution électrique, à des réseaux de distribution comme des pipelines pour approvisionner les clients, mais aussi la proximité avec les clients, les ports, mais aussi la solidité et l’expérience des équipes dirigeantes… Ce sont tous ces facteurs qui vont guider nos décisions d’investissements, en plus des critères financiers, bien sûr, et des critères de réduction des émissions de CO2 puisque nos fonds sont alignés avec la taxonomie européenne, et catégorisés Art 9 de la réglementation SFDR.
Comment positionnez-vous votre activité par rapport aux stratégies nationales élaborées autour de l’hydrogène ?
D’un côté, nous ne pouvons pas attendre que les stratégies soient totalement publiées et exécutées pour agir. Mais de l’autre côté, il est difficile pour nous de nous positionner sur des actifs tant qu’il n’y a pas une certaine stabilité, au niveau stratégique et réglementaire, et au niveau des impulsions données par les gouvernements.
Prenons par exemple la comptabilité pour les énergies renouvelables. Nous avons attendu pendant des années que l’Europe publie de manière claire les règles sur la manière de s’approvisionner en électricité renouvelable pour que l’hydrogène que l’on produit soit en accord avec la réglementation européenne.
Nous avons anticipé, et avons commencé à travailler sur certains projets, avec tout de même une certaine incertitude sur ce périmètre règlementaire.
Nous avons d’ailleurs, chez Hy24, des équipes qui se consacrent à la veille règlementaire pour l’implémenter dans les projets et être en mesure d’agir et d’investir en prenant en compte l’agenda réglementaire.
Après, comme dans tous les projets relatifs à l’industrie lourde, nous sommes obligés de travailler en avance de phase, car il faut souvent plusieurs années entre l’idée de départ et la réalisation effective de ces projets.
Quelle est la spécificité de la stratégie française sur l’hydrogène ?
La stratégie française sur l’hydrogène tient sa spécificité dans le rôle qui est aujourd’hui donné au nucléaire. L’enjeu est aujourd’hui de savoir si le nucléaire va devenir contingent pour le développement de la filière hydrogène. Aujourd’hui, il apparaît clairement que le nucléaire a et va avoir un rôle clé dans le mix énergétique français. La question qui va se poser est celle de la compétitivité, notamment par rapport à nos voisins européens.
Nous voyons que le gouvernement pousse pour faire du nucléaire un vecteur énergétique de production d’hydrogène décarboné. En tant qu’investisseur, nous prenons en compte les différentes options de production d’hydrogène décarboné ou bas carbone, sans pour autant ignorer les coûts inhérents à la solution choisie, et les délais d’implémentation. Le nucléaire en France n’est pas une stratégie, c’est une des solutions du mix, un potentiel de décarbonation immense, mais nous ne pourrons pas compter uniquement sur cette solution. La stratégie de la France ne peut donc pas seulement se résumer à une relance du nucléaire mais doit prévoir d’accélérer le déploiement des renouvelables et considérer d’importer une part de son énergie, depuis des pays où les énergies vertes sont les plus compétitives (Europe du Nord, du Sud, pays du pourtour méditerranéen).
Ce n’est pas une découverte : il y a des pays où l’éolien et le solaire sont plus compétitifs qu’en France, et l’hydrogène permet de transporter ces énergies vertes au travers des océans, notamment pour les besoins de l’Europe. Avoir la possibilité d’importer (et les infrastructures associées) me paraît sain, même quand on a des ambitions domestiques importantes. Cela peut aussi permettre à la France, au-delà de sa demande domestique, d’aller chercher de la croissance, en se positionnant à la fois comme producteur mais aussi comme porte d’entrée des renouvelables importés vers le reste de l’Europe. In fine, le but est d’avoir le choix, un mix d’options que l’on pourra faire évoluer selon les différentes conditions de marché et pour les besoins de la transition énergétique.
L’hydrogène blanc peut-il devenir une solution pour les pays, comme la France, qui disposent de réserves dans leur sous-sol ?
Nous regardons tout ce qui se passe autour de l’hydrogène blanc avec la même approche que pour le reste, c’est-à-dire en gardant un maximum d’options ouvertes. Nous ne tirons pas de conclusions hâtives sur les coûts de l’hydrogène blanc versus l’hydrogène produit avec de l’électricité issue du nucléaire et des renouvelables. Il faut donc regarder, étudier, essayer de comprendre quels sont les volumes concernés. Est-ce une ressource fossile mais décarbonée, renouvelable avec le temps ? Nous sommes en train d’étudier ces questions, sans verdict définitif pour le moment.
Une des interrogations concerne notamment le degré de pureté de l’hydrogène qui peut être extrait du sol et in fine, du coût associé à l’extraction et à la purification de l’hydrogène blanc.
L’impact environnemental et l’acceptabilité sociale de l’activité extractive est également un enjeu important qui doit être adressé.
Le contexte international actuel est-il selon vous propice au développement d’une filière industrielle de l’hydrogène décarboné ?
La période actuelle me paraît très importante, c’est aujourd’hui que nous devons être en mesure de démontrer que l’on peut utiliser l’hydrogène à grande échelle dans différents segments de marché et secteurs clés comme l’acier ou le raffinage par exemple. Avec le conflit en Ukraine, l’Europe et la France ont réalisé que notre dépendance au gaz russe met à mal notre souveraineté. Sans intégrer les enjeux environnementaux dans notre stratégie de remplacement du gaz russe, le risque est de créer une nouvelle dépendance, au GNL par exemple, que nous allons importer en plus amples quantités du Moyen-Orient ou des Etats-Unis, et de ralentir notre transition aux énergies renouvelables, notamment sous forme d’hydrogène. C’est en ce sens que la période actuelle est déterminante pour faire de l’hydrogène un vecteur d’énergie compétitive, qui rebat les cartes du jeu géopolitique mondial.
Sur l’aspect infrastructures, pourriez-vous nous donner un exemple d’investissement réalisé par Hy24 ?
Nous avons récemment investi dans une entreprise qui s’appelle H2 Green Steel, qui développe en Suède une aciérie verte de taille industrielle, qui sera opérationnelle fin 2026. Elle produira plus de 5 millions de tonnes d’acier « vert » par an. Ce dernier sera à 90% décarboné par rapport à celui qui est aujourd’hui produit par des hauts fourneaux à base de charbon.
Ce nouveau site « intégré » de production d’acier fonctionnera entièrement avec de l’hydrogène vert que H2 Green Steel peut produire grâce aux ressources abondantes disponibles en Suède. Le pays est doté d’une électricité peu chère et l’hydroélectricité permet de pallier l’intermittence des énergies renouvelables telles que le solaire et l’éolien. Ce sont ces deux facteurs qui permettent de mettre en place des usines de ce type, à cet endroit, en considérant également que la Suède possède sur son sol de nombreuses mines de fer.
Aussi, la demande en acier vert, venant notamment des acteurs industriels européens de l’automobile, est de plus en plus soutenue. Pour remplir leurs objectifs de production de véhicules Net Zéro (scope 3), les constructeurs doivent se fournir en acier vert. C’est la combinaison de tous ces facteurs qui a permis de financer ce projet d’usine, pour plus de 5 milliards d’euros.
Image du une : Pierre-Germain Marlier, HY 24. Copyright Geraldine Aresteanu
Qu’ont en commun les mondes glacés d’Europe, de Titan et d’Encelade ? Toutes ces lunes de planètes géantes abritent un océan caché sous leur croûte gelée. Or, ces océans sont prometteurs pour la recherche en astrobiologie. Encelade en particulier, qui orbite autour de Saturne, fait de l’œil aux astrophysiciens avec son océan probablement en contact avec le cœur rocheux de la lune (source importante de minéraux). De plus, les failles d’Encelade laisseraient jaillir dans l’espace une partie de cette eau des profondeurs. Alors, à quand une collecte d’échantillons ? Pas pour tout de suite apparemment, car l’environnement extrême de la lune saturnienne rend l’opération difficile. Sans compter l’absence de connaissance approfondie du terrain et les énormes délais de communication (jusqu’à 155 minutes !) entre les opérateurs humains et un éventuel robot d’exploration. Pourtant, le défi a été relevé par une équipe de recherche internationale menée par Tiago S. Vaquero, du Jet Propulsion Laboratory (JPL) au California Institute of Technology (Pasadena, États-Unis). Son robot inspiré des serpents est décrit dans le journal Science Robotics du 13 mars 2024.
Comme un serpent-robot sur la glace
Le serpent robotique du JPL se nomme EELS, pour Exobiology Extant Life Surveyor. Il se compose de dix segments articulés identiques, amenant sa longueur totale à près de 4,4 mètres pour une masse avoisinant les 100 kg. Chaque segment possède trois actionneurs : deux pour modifier sa forme au besoin, et un troisième pour activer sa peau. Cette dernière, en forme de vis, lui permet de se déplacer dans tout type d’environnement. La structure répétitive d’EELS lui fournit une redondance bienvenue en cas de dégradation avancée de l’un des segments. Le robot d’exploration est une véritable plate-forme instrumentale mobile. L’extrémité qui joue le rôle de tête contient toute une panoplie de capteurs afin d’observer les environs. Ainsi, un Lidar permettant de mesurer les distances à l’aide de faisceaux laser est couplé à quatre caméras stéréo. S’y ajoutent un baromètre et des diodes luminescentes, bien pratiques pour éclairer son chemin dans la pénombre des failles.
EELS lève la tête durant un test de terrain enneigé sur une station de ski, dans les montagnes de San Bernardino au sud de la Californie, en février 2023. Crédits : NASA/JPL-Caltech.
Les travaux de l’équipe de Tiago S. Vaquero ont donné naissance à un serpent-robot autonome, adaptable et résilient. Un atout de premier ordre pour l’exploration à haut risque des terrains gelés d’Encelade. Selon ses créateurs, EELS serait capable de descendre au sein des failles éruptives pour aller y récupérer de précieux échantillons d’eau non altérée. Pour valider leurs attentes, ils ont soumis différentes versions de leur robot à des tests en laboratoire et sur le terrain. Les premiers ont eu lieu dans les terrains sablonneux du Mars Yard, au cœur même du JPL. Quant aux seconds, ils ont nécessité le transport d’EELS jusqu’aux terres glacées et enneigées de Big Bear[1], en Californie. Le serpent robotique a pu dans chacun des cas être confronté à différents environnements : terrain plat, pentes inclinées, obstacles et trous. Les résultats ont fait plus que rassurer l’équipe, qui se prend déjà à imaginer EELS rejoindre l’océan sous-glaciaire d’Encelade. Est-ce possible ? Cela, seul l’avenir nous le dira…
France Hydrogène est une association qui fédère quelque 460 membres ayant des activités sur la chaîne de valeur industrielle de l’hydrogène. Un écosystème en pleine effervescence depuis quelques années, suite à l’engagement national et européen sur les technologies hydrogène, le vieux continent voulant faire de la molécule le vecteur énergétique de la prochaine décennie.
La France, qui a déployé en 2020 sa stratégie pour faire de l’hexagone un leader sur les technologies hydrogène, notamment via sa capacité à produire de l’hydrogène via des électrolyseurs alimentés par l’électricité de son réseau décarboné, a révisé cette stratégie en fin d’année dernière. Un document, publié le 15 décembre 2023, a été mis en consultation et devrait être entériné dans les semaines à venir lors du Conseil national de l’hydrogène.
Christelle Werquin, déléguée générale de France Hydrogène, a expliqué à Techniques de l’Ingénieur le contexte autour de la révision de la stratégie hydrogène, ainsi que les préconisations élaborées par France Hydrogène pour développer en France une filière hydrogène compétitive.
Techniques de l’Ingénieur : Dans quel cadre national et international prend place la révision de la stratégie française relative à l’hydrogène ?
Christelle Werquin : Le cadre régulatoire autour de l’hydrogène a évolué en 2023, avec l’adoption d’un certain nombre de règlements et de directives par les institutions européennes. Plusieurs décisions restent encore en suspens. Ce que nous attendons encore aujourd’hui est l’acte délégué, issu de la directive hydrogène et gaz, qui doit donner une définition de ce qu’est l’hydrogène bas carbone.
Pour la France, la qualification de l’hydrogène bas carbone est fondamentale : elle dictera la façon dont on peut faire valoir l’intérêt de notre mix électrique bas carbone, basé notamment sur l’électricité nucléaire, pour utiliser l’électricité du réseau afin de faire fonctionner nos électrolyseurs à fort facteur de charge. C’est un avantage compétitif que nous avons et sur lequel nous misons beaucoup.
Au niveau européen toujours, il y a eu un certain nombre de décisions prises ces derniers mois, notamment en ce qui concerne l’aéronautique, le maritime, qui ont permis de mettre en place le cadre qui manquait jusqu’alors.
Qu’est-ce qui a motivé la révision de la stratégie française lancée en 2020 ?
Au niveau français, la révision de la stratégie est un processus qui a été annoncé il y a plus d’un an : le motif à l’époque se situait à plusieurs niveaux. Au premier rang desquels la guerre en Ukraine, qui a généré une forte augmentation des prix de l’énergie primaire. Mais aussi l’exercice de planification écologique, à l’occasion duquel les pouvoirs publics se sont interrogés sur la disponibilité de l’électricité pour répondre à l’ensemble des besoins de la filière hydrogène. Nous avons travaillé avec le SGPE et RTE et l’ensemble des filières consommatrices d’hydrogène pour faire converger les besoins.
Il y avait aussi l’idée, à ce moment-là, de s’interroger sur l’importation d’hydrogène ou de molécules de synthèses, venant de pays qui se disent capables d’en produire en grande quantité, notamment pour l’export, à des prix très concurrentiels. C’est à cette période que l’UE a mis en place des partenariats avec l’Amérique latine, les pays du Moyen-Orient, l’Inde sur ces problématiques… La question s’est alors posée de savoir si l’importation ne représentait pas la solution pour obtenir de l’hydrogène à prix compétitif.
Quelles évolutions caractérisent la révision de la stratégie française ?
Entre décembre 2022, moment auquel la révision de la stratégie a été décidée de par l’évolution du contexte et notamment la volonté de décarboner les 50 sites industriels français les plus polluants, et la publication pour consultation de la stratégie révisée, il y a eu une grosse évolution. Nous sommes aujourd’hui sur une approche beaucoup plus globale, avec notamment un soutien accru à la production de systèmes de petite taille, chose que France Hydrogène défend depuis longtemps.
Cependant, la problématique qui nous interpelle aujourd’hui est que cette révision de la stratégie ne s’accompagne pas pour le moment de budget supplémentaire.
En effet, pour l’instant, sur les 9,2 milliards d’euros alloués au développement de la filière hydrogène via le plan national de 2020 et France 2030, environ la moitié a été déboursée ou est en passe de l’être, mais environ 4 milliards d’euros, promis en 2021 sur le mécanisme de soutien à la production, restent aujourd’hui en suspens.
Cela dit, même en comptabilisant ces 4 milliards d’euros, cela permet de financer au mieux 2 à 3 GW d’électrolyseurs. Or, pour rappel, l’objectif est de 6,5 GW pour 2030 et 10 GW en 2035. Nous sommes donc loin du compte.
En conséquence, que faut-il mettre en place pour atteindre l’objectif de 6,5 GW à horizon 2030 ?
Plusieurs réponses sont selon nous possibles. D’abord, il faut offrir un coût d’accès à l’électricité qui soit favorable pour les producteurs d’hydrogène. Au-delà des différents subsides, c’est structurellement qu’il faut permettre aux producteurs d’hydrogène d’avoir accès à une électricité à moindre coût, afin de rendre compétitive la production d’hydrogène par électrolyse. Cela fait actuellement l’objet de négociations entre l’Etat, EDF et les industriels. Il faut que les producteurs d’hydrogène aient accès à un prix du MWh électrique autour de 40 euros (une fois tous les leviers activés), pour être compétitifs.
L’autre gros sujet, que l’on retrouve à l’international, est l’écart entre les intentions de projets, qui sont énormes, et les décisions finales d’investissements, qui sont très faibles. Cela est lié à la hausse des coûts des équipements, des matières premières, mais aussi de l’incertitude sur la demande.
Cette incertitude sur la demande tient en particulier au temps qu’a mis le cadre régulateur à se mettre en place, aux contraintes règlementaires qui sont associées, ou pas, aux régulations… Il faut donc absolument savoir où se trouve la demande, pour être en mesure de la soutenir efficacement.
Enfin, la réglementation européenne ReFuelEU impose, en particulier au secteur aérien, des objectifs très contraignants quant à l’incorporation de carburants de synthèse, dont la production nécessite de l’hydrogène.
Il y a une très forte propension en France au développement de projets de production de molécules de synthèse, mais il faudrait une véritable stratégie par rapport aux e-fuels, car il y a des opportunités pour l’industrie tricolore, mais il faut rapidement se mettre en ordre de bataille.
Qu’en est-il de la mobilité hydrogène ?
Parmi les sujets associés à la demande, nous défendons en particulier le soutien à la mobilité routière à hydrogène. Pas seulement car cela correspond à une forte part de la décarbonation du secteur des véhicules utilitaires, mais aussi parce qu’en France nous avons toute la chaîne de valeur industrielle, beaucoup d’investissements ont déjà été opérés sur les équipements clés (pile à combustible, réservoirs…), les constructeurs ont été soutenus…. Il faudrait donc pouvoir continuer à développer ce segment des véhicules utilitaires légers.
Nous avons élaboré un premier plan mobilité, que nous sommes en train de réviser en ce moment, du fait de nouvelles données d’entrée de la filière auto : Pour résumer, il faut soutenir le CAPEX des véhicules, donner de la visibilité sur la TIRUERT, et soutenir le développement des infrastructures de recharge.
Plus généralement, sur les marchés industriels, nous regardons comment travailler avec nos partenaires européens pour une transposition de la directive RED III, et notamment des articles 22a et 22b… Nous faisons de nombreuses propositions assez complexes et techniques, sur les modes d’approvisionnement, de contractualisation, afin de soutenir au mieux les producteurs d’hydrogène tricolores.
Nos actions sont peut-être un peu sous le radar en ce moment, mais un élément nous fait penser qu’il ne faut pas relâcher l’effort de la stratégie nationale. Contrairement à ce qui a été dit, on ne voit pas d’importations depuis des pays extérieurs à l’UE d’hydrogène poindre à l’horizon avant 2035/2040. Il ne faut pas compter à court terme sur des importations, ni sur l’hydrogène naturel d’ailleurs.
La nouvelle mouture, déjà connue dans les grandes lignes, devrait être entérinée à la fin du mois de mars 2024 lors du Conseil national de l’hydrogène.
Cette révision de la stratégie doit permettre à l’hexagone d’affiner l’efficacité du déploiement d’une filière industrielle de l’hydrogène, dont l’avènement est un challenge au niveau national mais aussi européen.
Revenons à la révision de la stratégie nationale. En termes de chiffres, la France veut installer une production électrolytique d’hydrogène bas-carbone de 6,5 GW en 2030, puis 10 GW en 2035. Pour alimenter cette production tout en obtenant de l’hydrogène bas carbone, l’hexagone compte sur son parc nucléaire, qui devra fournir de grandes quantités d’électricité décarbonée pour produire l’hydrogène nécessaire via des électrolyseurs. Reste à savoir si cet hydrogène bas-carbone, produit à partir d’électricité nucléaire, sera labellisé par l’Europe au même niveau que l’hydrogène renouvelable, vert. Un enjeu de taille pour la France, qui risque de conditionner la capacité du pays à remplir ses objectifs en termes d’intégration d’énergies renouvelables dans son mix énergétique.
La révision de la stratégie nationale réaffirme la volonté de faire de l’hydrogène un vecteur énergétique important pour les transports et plus particulièrement la mobilité lourde. Mais aussi pour la décarbonation des activités industrielles fortement émettrices, comme les aciéries ou la sidérurgie, et plus généralement les sites qui concentrent les émissions de gaz à effet de serre, mis en avant à travers la décision de décarboner les 50 sites les plus émetteurs en France.
Un point très important de la révision de la stratégie française sur l’hydrogène concerne la possibilité d’importer de l’hydrogène. Cette ouverture permet à l’hexagone d’être en mesure de s’adapter, dans le futur, à ce que sera la réalité de la production – et de ses coûts – d’hydrogène vert, et de s’alimenter à bas prix. En Europe du Nord par exemple, l’électricité renouvelable pour faire fonctionner des électrolyseurs, est disponible et peu onéreuse. Pour résumer, la France ne met pas tous ses œufs dans le même panier et se donne une marge de manœuvre supplémentaire, tout en militant pour que l’hydrogène – bas carbone – produit via des électrolyseurs alimentés par électricité nucléaire soit bien pris en compte par l’Europe, à côté de l’hydrogène renouvelable.
En ce qui concerne la révision de la stratégie française, la volonté de pérenniser les projets déjà lancés et d’assurer leur industrialisation, ainsi que la garantie de la compétitivité de l’hydrogène décarboné[1] pour 10 ans par rapport à l’hydrogène fossile[2] va également dans le sens d’une pérennisation de la filière en déploiement.
Au niveau continental, les contextes géographiques[3] et politiques[4] influent sur les positionnements et les intérêts particuliers de chaque pays face au déploiement d’une filière industrielle européenne sur l’hydrogène.
Prenons l’exemple de l’Allemagne, qui met en œuvre depuis sa décision de sortir du nucléaire un plan ambitieux devant mener le pays à du 100% renouvelable en 2035. L’hydrogène est pour cela une pièce majeure, qui devrait alimenter des centrales à gaz, celles étant en activité aujourd’hui fonctionnant soit au gaz, soit au charbon. Ces centrales seront un outil de stabilisation du réseau électrique.
Pour les alimenter en hydrogène – renouvelable, bas-carbone ? – l’Allemagne, qui ne sera pas en mesure de produire sur son sol l’hydrogène nécessaire, va se tourner vers l’extérieur. Ainsi, des discussions font état de la volonté allemande de se pourvoir, pourquoi pas, en hydrogène bas-carbone français, produit par des électrolyseurs alimentés par de l’électricité nucléaire. Aussi, le gouvernement outre-Rhin a annoncé la construction de plus de 1800 kilomètres de conduites d’hydrogène, préparant une politique d’importation massive de la molécule.
On le voit, la révision de la stratégie française, entre adaptation et pérennisation, doit permettre à l’hexagone, mais aussi au continent européen, de poursuivre sa trajectoire vers une économie décarbonée, dans laquelle l’hydrogène a une place centrale.
[1] via des subventions
[2] qui rappelons-le constitue à l’heure actuelle de manière ultra majoritaire l’hydrogène utilisé par l’industrie
[3] L’Europe du Nord et son hydroélectricité
[4] L’Allemagne et sa volonté de sortir du nucléaire au profit d’autres énergies renouvelables sur un laps de temps très court