Infr@2050 : un nouveau pôle de compétitivité dédié aux routes et infrastructures décarbonées

Infr@2050* est le dernier-né des 55 Pôles de Compétitivité français. Il est situé entre les régions Bourgogne-Franche-Comté et Auvergne-Rhône-Alpes et réunit, au moment de sa création, 243 adhérents, dont 54 laboratoires et centres de recherche, 73 startups et PME et 64 ETI et grandes entreprises.

Les Pôles de Compétitivité dans le contexte France 2030

Sans surprise, l’État a fait le choix de prolonger l’existence des Pôles de Compétitivité pour la période 2023-2026. Cette Ve phase repose sur trois objectifs :

  • renforcement et multiplication des liens entre acteurs régionaux ;
  • poursuite des actions des pôles au niveau européen ;
  • accompagnement dans le cadre de la transition écologique et numérique et du plan France 2030.

Le plan France 2030 prévoit en effet que la moitié des montants accordés soient destinés à aider des acteurs émergents, donc des entreprises jeunes et innovantes. Les Pôles de Compétitivité labellisés pour cette Ve phase vont ainsi jouer un rôle significatif dans le repérage des entreprises prometteuses. Ils seront le principal soutien à leur développement et deviendront « des relais du déploiement du plan France 2030 et des politiques régionales d’innovation »

Le pôle Infr@2050 : une excellente nouvelle pour la filière des infrastructures

Le 27 mars 2023, Roland Lescure, ministre délégué chargé de l’Industrie, a officialisé le lancement du pôle Infr@2050.

Cette labellisation est particulièrement remarquable, car elle vient combler un manque : la filière des infrastructures et de l’aménagement faisait partie des rares secteurs ne bénéficiant pas de leur propre Pôle de Compétitivité. C’est d’autant plus étonnant pour une filière qui pèse plus de 48 milliards de chiffre d’affaires et emploie 360 000 personnes !

Par ailleurs, la raison d’être d’Infr@2050 est non seulement de soutenir l’innovation, mais aussi de contribuer à l’atteinte de la neutralité carbone de la filière de la construction des infrastructures.

Ce nouveau Pôle de Compétitivité mobilisera notamment les différents acteurs de la filière autour des enjeux de l’eau, de la décarbonation des mobilités, de la surchauffe urbaine et de l’énergie.

Si vous souhaitez accélérer le développement d’un projet, que vous avez des idées ou que vous cherchez à bénéficier de l’aide du réseau, vous pouvez contacter le pôle Infr@2050 à cette adresse.

* Infr@2050 est porté par NOVABUILD, les clusters INDURA (Auvergne-Rhône-Alpes), ECORSE TP (Bourgogne-France-Comté) et par l’IREX (institut pour la Recherche Appliquée et l’expérimentation en Génie-Civil). Il est également soutenu par le Syntec-Ingénierie et la FNTP, et les autres membres du Hub Innov’Infra, NOVABUILD (Pays de la Loire) et ODEYS (Nouvelle-Aquitaine).

WIND my ROOF, une solution innovante qui allie solaire et éolien sur les toitures

Imaginée par deux étudiants de l’Ecole des Ponts ParisTech, la WindBox – un module combinant production d’électricité éolienne et solaire – développée par l’entreprise WIND my ROOF est conçue pour être installée sur le bord des toitures plates des bâtiments, et permet de produire de l’électricité, soit éolienne, soit solaire, soit les deux en même temps, quand les conditions le permettent.

Juliette Fournand, COO de WIND my ROOF, a expliqué aux Techniques de l’Ingénieur la genèse du projet et son développement, de la R et D à la commercialisation, depuis la création de la société en 2018.

Techniques de l’Ingénieur : Racontez-nous comment est né le concept de box mixant les technologies solaires et éoliennes aujourd’hui commercialisé par WIND my ROOF.

Juliette Fournand : WIND my ROOF est à la base un projet imaginé par deux étudiants de l’école des Ponts ParisTech en 2016, à partir d’une problématique technique : comment produire de l’électricité sur les toitures ? Ils ont, à cet effet développé une turbine éolienne fonctionnelle et adaptée aux toits plats des bâtiments, qui a remporté un prix d’innovation lors d’un concours organisé par Vinci Energies ; avec à la clé un an d’incubation dans l’incubateur mis en place par Vinci Energies, Leonard. C’est à partir de là que ces deux étudiants, Antoine Brichot et Yanis Maacha, se sont vraiment lancés dans l’entrepreneuriat.

S’en sont suivies trois années de recherche et développement, avec la problématique de produire de l’électricité à partir du vent.

Quels sont les facteurs clés pris en considération pour développer la partie éolienne de la WindBox ?

Le premier facteur à prendre en considération est l’emplacement sur la toiture et l’écoulement des vents. Si on considère un bâtiment classique, rectangulaire, les vents remontent le long des façades en accélérant, puis deviennent des turbulences qui sont inexploitables par n’importe quel type d’éolienne. Avant, les systèmes mis en place pour éviter ces turbulences étaient constitués d’éoliennes placées au milieu des toits, en hauteur pour éviter les turbulences, mais ces systèmes ne sont pas viables. En effet, dans ce cas, le pylône de support de l’éolienne se retrouve dans les turbulences, et les supports et lests à mettre en place pour renforcer la structure sont trop importants. Et les risques d’arrachement trop importants.

Les créateurs de WIND my ROOF ont opté pour le placement d’éoliennes en bordure de toiture, pour exploiter les vents qui remontent le long de la façade en accélérant, avant que ces derniers ne deviennent des turbulences. C’est ce qu’on appelle le corner flow : les vents sont plus forts en bordure que sur les autres endroits de la toiture, sans être pour autant trop hauts pour être exploités.

Et le second facteur ?

L’outil que nous avons mis en place ne ressemble pas du tout à une éolienne classique. Les essais qui ont été réalisés nous ont poussés à développer un modèle d’éolienne verticale, mais qui est disposée à l’horizontale, à l’image d’une turbine à eau. Cela permet d’avoir quatre points de fixation sur le toit du bâtiment, et d’éviter les effets de balancier et les phénomènes d’arrachement dus aux vents.

Pendant la phase de R et D, nous avons été incubés au sein de Green Tech Innovation, dans les locaux de l’école des Ponts, et nous avons pu faire des essais en soufflerie, des tests en conditions réelles, notamment sur un bâtiment situé sur le parvis de l’esplanade de La Défense. Nous avons également réalisé des essais à la soufflerie du CSTB à Nantes, avec des vents à 180 km/h, ce qui a validé la possibilité d’installer nos modules sur l’ensemble du territoire français continental sans risques.

Nous avons enfin pu y valider avec succès nos courbes de puissance, à savoir la puissance produite en fonction de la force du vent.

Où en êtes-vous en termes de commercialisation ?

Elle a débuté depuis deux ans. Nous commençons systématiquement par une phase d’étude, sur laquelle nous sommes accompagnés par un laboratoire de R et D d’EDF, CEREA, qui nous permet d’utiliser Code-Saturne, un outil de simulation des écoulements d’air à l’échelle d’un quartier, pour évaluer l’impact de l’architecture du quartier en question sur l’accélération ou la décélération des vents. Cela nous fournit les informations nécessaires pour être en mesure de trouver les endroits où il serait le plus judicieux de placer les WindBox. C’est la première phase de la commercialisation, nécessaire avant de passer à la commercialisation du produit en tant que tel.

Il y a un an, nous avons mis en place notre premier projet pilote sur le toit d’un immeuble à Rouen, avec la version actuelle des WindBox, et le mois dernier, nous avons réalisé une installation pour la SICAE de la Somme et du Cambresis, un gestionnaire de réseau électrique, à l’occasion d’un projet (Capitole) soutenu par le FEDER et la région Hauts-de-France où diverses briques technologiques innovantes sur le plan énergétique sont testées, dont la nôtre.

Nous avons d’autres projets en gestation dans le Sud de la France, en Belgique, au Luxembourg et en Allemagne.

La technologie de base des WindBox est la turbine éolienne. Pourquoi avoir ajouté des panneaux solaires sur le dispositif ?

Il s’agit là d’une idée techniquement simple à mettre en place. On fixe sur la WindBox deux panneaux solaires, et cela permet deux choses : d’abord la maximisation de l’énergie produite sur un même espace, en ajoutant très peu de poids sur la toiture. C’est important, car les toitures ne sont pas prévues pour supporter un trop grand poids. Aussi, il se trouve que les bords de toit sont les parties du toit les plus solides, donc c’est vraiment à cet endroit qu’il est pertinent d’ajouter des modules de production d’énergie sans fragiliser la structure.

La seconde raison est la saisonnalité des sources d’énergies solaires et éoliennes, qui est très souvent inverse en France. Ce mix éolien/solaire assure donc une production électrique stable tout au long de l’année.

Selon l’analyse que nous faisons sur un site géographique, nous allons conseiller soit du solaire, soit de l’éolien, soit les deux. Tout va dépendre de la situation du site et des résultats de l’analyse qui va être réalisée, l’objectif restant de mettre en place la solution la plus efficiente possible en termes de production énergétique.

L’installation des WindBox peut-elle se faire sur plusieurs bords d’un même toit ?

Les écoulements de vents, qui changent selon la zone géographique, rendent potentiellement réalisable l’installation des WindBox sur deux côtés du toit d’un bâtiment. Dans la plupart des cas cependant, nous exploitons le couloir de vent majoritaire.

Quelle est votre compétitivité aujourd’hui en termes de prix au Kwh ?

Aujourd’hui, nous sommes plus chers en termes de coût de production. Nous sommes entre 20 et 25 centimes pour un Kwh pour la WindBox en France, ce qui est supérieur à la moyenne des technologies de solaire sur toiture sur le territoire français, qui est de l’ordre de 13 centimes par Kwh. Nous sommes donc au-dessus, mais notre objectif est de s’aligner sur ces prix et de suivre leur baisse par la suite, grâce à l’industrialisation et à la R et D que nous poursuivons.

Propos recueillis Par Pierre Thouverez

Booster le procédé de photo-électrolyse de l’eau pour produire de l’hydrogène vert

Pour produire de l’hydrogène vert, la principale méthode consiste à réaliser l’électrolyse de l’eau à partir d’une source extérieure d’électricité renouvelable (solaire ou éolien). Cet hydrogène décarboné peut également être produit en une seule étape par photo-électrolyse de l’eau. Dans ce cas, les électrodes chargées de dissocier les molécules d’eau captent également la lumière du soleil pour produire l’énergie nécessaire à cette réaction chimique. Ce procédé n’est pas nouveau et a été initié au début des années 70, mais il est pénalisé par son faible rendement énergétique. Pour surmonter cet obstacle, des chercheurs de l’Institut des nanotechnologies de Lyon (INL), en collaboration avec deux autres laboratoires1, explorent les propriétés physiques de structures à la taille nanométrique : les nanofils.

À l’origine, ce procédé de photo-électrolyse a été développé à partir de semi-conducteurs à base de dioxyde de titane (TiO2), un matériau très stable chimiquement , mais qui ne capte qu’une fraction limitée de l’énergie lumineuse. En cause : son énergie de gap (Eg) s’élève à un peu plus de 3 électronvolts, ce qui signifie que seuls les photons dont l’intensité lumineuse est supérieure à ce seuil sont valorisés. Les scientifiques ont fait le choix de remplacer le TiO2 par des semi-conducteurs III-V à base de phosphure de gallium et d’arséniure de gallium, dont l’énergie de gap varie entre 1,4 et 2,2 électronvolts, ce qui permet de capter un plus large spectre solaire.

L’originalité de ce travail de recherche est ensuite d’avoir fabriqué ces semi-conducteurs III-V non pas sous la forme de couches minces, mais de nanofils pour permettre de multiplier la surface de contact avec l’électrolyte. « Il faut imaginer ces nanofils comme des brins qu’on va faire croître verticalement sur la surface des électrodes, explique José Penuelas, enseignant-chercheur à l’INL. Ils permettent de multiplier la surface au contact des molécules d’eau par un facteur d’environ 10. Nous obtenons ainsi un nombre plus élevé de sites catalytiques potentiels à l’intérieur desquels la réaction chimique peut avoir lieu pour convertir l’eau en hydrogène et en oxygène, et donc augmenter le rendement énergétique. »

L’autre intérêt des nanofils est leur capacité à piéger la lumière, puisque les photons, lorsqu’ils parviennent au contact de ce type d’électrodes, se retrouvent bloqués. « Grâce à la structure en forme de nanofils, nous obtenons une réflectivité inférieure à 1 %, alors qu’habituellement, l’arséniure de gallium reflète entre 30 et 40 % de la lumière, révèle le chercheur de l’INL. Nous pouvons ainsi capturer beaucoup mieux la lumière, par rapport aux couches minces. » Dernier avantage : ces nanofils sont fixés sur un support de dimension macrométrique à base de silicium, un matériau peu onéreux, tandis qu’il n’est pas nécessaire d’utiliser des quantités importantes de phosphure de gallium ou d’arséniure de gallium, des matériaux beaucoup plus coûteux, puisque ces nanofils sont des structures à la taille nanométrique.

Multiplier par deux le rendement énergétique de la photo-électrolyse

Par contre, ce type semi-conducteur III-V présente un défaut majeur : leur manque de stabilité. « Dès qu’on les plonge dans l’eau, ils se dégradent à cause de la photo-corrosion, ajoute José Penuelas. Même en présence d’air, une petite couche d’oxyde se forme immédiatement autour des nanofils et empêche les charges de sortir du semi-conducteur pour arriver jusqu’au liquide afin d’engendrer la réaction chimique d’électrolyse »

Les scientifiques ont encore innové pour contourner cette difficulté en encapsulant les nanofils. Le choix du matériau s’est porté sur l’oxyde de titane (TiO2), non pas pour engendrer une réaction de photocatalyse, mais pour protéger les nanofils. Pour parvenir à déposer une couche uniforme de TiO2 de seulement cinq nanomètres sur l’ensemble des nanofils, un procédé particulier de dépôt de couches minces atomiques a été utilisé, appelé Atomic Layer Deposition (ALD).

Les résultats de ce travail de recherche viennent d’être publiés dans la revue scientifique ACS Applied Materials and Interface. La publication montre qu’il est possible de multiplier par environ deux l’efficacité énergétique de la photo-électrolyse grâce aux nanofils. « Nous sommes parvenus à prouver que cette structure géométrique est supérieure, en termes de rendement, à une couche mince, se réjouit le chercheur de l’INL. Mais nous n’avons pas réussi à explorer tout son potentiel et nous estimons qu’il serait possible d’améliorer la captation de l’énergie lumineuse d’un facteur 20 à 30. » Quant à la couche protectrice de TiO2, elle a permis de n’améliorer que partiellement la durée de vie des photoélectrodes. Mais là encore, les chercheurs sont confiants et estiment qu’il existe une importante marge de progression pour que cette enveloppe protectrice diminue beaucoup moins le transfert des charges générées. « Ce sont de premiers essais et nous pensons qu’il est possible de fabriquer des électrodes plus robustes en améliorant notamment la qualité des interfaces entre la coquille protectrice en TiO2 et les nanofils. Nous allons donc poursuivre ce travail de recherche. »

1 Le Laboratoire Chimie et Biologie des Métaux (LCBM) et le laboratoire Matériaux, Ingénierie et Science (MATEIS)

 

Les émissions de CO2 liées à l’énergie toujours en hausse

Les émissions mondiales de CO2 provenant de la combustion d’énergies fossiles et de la production de ciment vont atteindre un nouveau record en 2023. Elles devraient s’élever à 36,8 milliards de tonnes de CO2 (Gt CO2), en hausse de 1,1 % sur un an, selon la dernière publication de référence du Global Carbon Budget produite par une équipe internationale de plus de 120 scientifiques. Elles avaient augmenté de 0,9 % en 2022. En ajoutant les émissions mondiales de CO2 dues au changement d’usage des terres (4,1 Gt CO2), les émissions totales atteindraient 40,9 Gt CO2 en 2023, en augmentation de 0,5 % par rapport à 2022. Ces projections doivent encore être confirmées.

Le monde continue de s’éloigner de ses objectifs. « L’estimation de 2023 est que les émissions liées aux énergies fossiles seront supérieures à ce qu’elles étaient avant le COVID en 2019. C’est aussi 6 % au-dessus de 2015, lorsque l’Accord de Paris a été signé », partage Pierre Friedlingstein, chercheur à l’Université d’Exeter et auteur principal de l’étude, lors d’une conférence de presse à la COP28 de Dubaï.

7 ans de budget carbone pour atteindre +1,5°C

L’étude évalue à 275 Gt de CO2 le budget carbone restant pour avoir une chance sur deux de limiter le réchauffement climatique à 1,5°C. Au niveau actuel d’émissions, il pourrait être dépassé dans 7 ans. Le budget pour limiter le changement climatique à 1,7°C serait quant à lui dépassé dans 15 ans, et celui pour limiter le changement climatique à 2°C dans 28 ans.

Il va donc falloir aller vite et faire un effort sans précédent. « En distribuant ce budget, il faudrait atteindre la neutralité carbone avant 2040 », assure Pierre Friedlingstein. Cela reviendrait à diminuer les émissions anthropiques totales de CO2 en moyenne de 2,4 Gt CO2 par an, soit chaque année de 5,9 %. La neutralité devrait être atteinte en 2055 au plus tard pour limiter le changement climatique à 1,7°C et en 2080 pour 2°C.

Des tendances contrastées selon les pays

Les émissions mondiales de tous les combustibles fossiles devraient augmenter : de +1,1 % pour le charbon, +1,5 % pour le pétrole et +0,5 % pour le gaz. Celles liées à la production de ciment devraient aussi poursuivre leur hausse de 0,8 %. Les niveaux de CO2 atmosphérique devraient atteindre en moyenne 419,3 parties par million (ppm) à la fin de l’année. C’est 51 % au-dessus des niveaux préindustriels.

Il y a des tendances assez contrastées. Les émissions diminuent dans 26 pays. En particulier, un recul de 7,4 % est attendu dans l’UE, et de 3 % aux États-Unis. La situation est moins rose en Inde où ces émissions devraient augmenter de 8,2 % et en Chine de 4 %.

Le rôle du changement d’usage des terres

Les émissions mondiales de CO2 dues au changement d’usage des terres devraient diminuer légèrement cette année. Elles atteindraient 4,1 Gt CO2, contre 4,7 Gt CO2 par an au cours de la dernière décennie (2013-2022). À eux trois, le Brésil, l’Indonésie et la République démocratique du Congo contribuent à hauteur de 55 % de ces émissions. « Mais gardez en tête qu’environ un quart de ces émissions sont dues à des produits destinés à l’exportation », observe Julia Pongratz, professeure de géographie physique et de systèmes d’utilisation des terres à l’Université de Munich, également autrice de l’étude.

Ces émissions baissent depuis 20 ans, mais les chiffres restent très incertains, en raison de suivis mal orchestrés. Il est également difficile de séparer l’activité humaine des dynamiques naturelles de la végétation, notent les auteurs. Julia Pongratz détaille : « Les émissions d’utilisation des terres et changement d’affectation des terres, c’est un mélange de flux qui vont dans les deux directions. D’un côté, les modifications de l’agriculture augmentent ou diminuent les aires forestières et les autres aires naturelles de végétation. De l’autre, la récolte du bois entraîne des émissions quand vous défrichez la forêt ou brûlez des produits forestiers, mais élimine du CO2 quand la forêt repousse ensuite. » En fin de compte, les émissions liées à la déforestation restent malheureusement trop importantes pour être compensées par les absorptions liées au reboisement et au boisement.


Crédit image de une : freepik

COP28 : L’encadrement des énergies fossiles au cœur des enjeux

La COP28 qui s’est ouverte à Dubaï le 30 novembre est celle de tous les enjeux pour combattre la crise climatique. Au cœur des négociations qui devraient durer jusqu’au 12 décembre se joue l’encadrement de la production des énergies fossiles. En ouverture de la COP28, le Sultan Ahmed Al Jabeb, président de l’événement, a invité les participants à « s’assurer de l’inclusion du rôle des énergies fossiles » dans le Bilan mondial de l’Accord de Paris. Reste à savoir quels mots seront utilisés.

L’AIE appelle à la fin des énergies fossiles sans CSC

Dans sa feuille de route « Net Zero » visant à maintenir l’objectif de 1,5°C à notre portée, publié en septembre 2023, l’Agence internationale de l’énergie (AIE) mise sur le développement de dispositifs de captage et de stockage de CO2 (CSC). En particulier, l’agence prédit une chute de 40 % d’ici 2030 de la production énergétique issue des combustibles fossiles sans CSC. Et d’ici 2050, il n’y aura presque plus aucune centrale sans un tel dispositif. La production mondiale d’électricité sans CSC à base de charbon et gaz passerait ainsi de 17 636 TWh en 2022 à 11 066 TWh en 2030 et 158 TWh en 2050.

La demande en combustibles fossiles baisserait ainsi de 25 % d’ici 2030, et de 80 % d’ici 2050. Pour concrétiser ce scénario, l’AIE l’assure : « Aucun nouveau projet pétrolier et gazier en amont à long terme n’est nécessaire. Les nouvelles mines de charbon, les extensions de mines ou les nouvelles centrales à charbon sans CSC ne le sont pas non plus ». Seuls des investissements dans certains actifs pétroliers et gaziers existants et dans des projets déjà approuvés devraient se poursuivre. Pour concrétiser cette vision, l’AIE invite à tripler les capacités en énergie renouvelable d’ici 2030, et à doubler le rythme annuel d’efficacité énergétique. Il s’agira aussi d’augmenter fortement les ventes de véhicules électriques et de pompes à chaleur et diminuer les émissions de méthane du secteur énergétique de 75 %. En plus, l’AIE estime que « le CSC, l’hydrogène et les carburants à base d’hydrogène, les bioénergies durables sont critiques pour atteindre le zéro émission ».

Réduire, sortir des énergies fossiles ? Atténuer les émissions ?

Toute la question sera de savoir quelle place sera donnée aux technologies de CSC dans le Bilan mondial de l’Accord de Paris. Pour cela, le choix des mots retenus sera important. Les négociateurs inscriront-ils le terme de « phase down » (réduction) ou de « phase out » (sortie) des combustibles fossiles ? Utiliseront-ils le terme d’« unabated fossil fuels », désignant les énergies fossiles sans dispositif de CSC, ou préféreront-ils parler de tous les combustibles fossiles ? La mention ou non d’une échéance, plus ou moins lointaine, déterminera également l’ambition du texte.

Vendredi 1er décembre, António Guterres, le secrétaire général de l’ONU, a clairement invité les délégués présents à inscrire la sortie des énergies fossiles dans le texte. « La science est claire : la limite de 1,5 °C n’est possible que si nous arrêtons finalement de brûler tous les combustibles fossiles. Ni réduire, ni diminuer. Suppression progressive, avec un calendrier clair ».

Le secrétaire espère ainsi que l’Accord final ne repose pas largement sur le CSC pour atténuer les émissions, dans tous les domaines. La position européenne adoptée en Conseil de l’environnement est de ne pas faire de pari à trop large échelle sur les technologies de CSC. Celles-ci devraient rester cantonnées aux secteurs difficilement électrifiables, comme l’industrie lourde. L’Europe recommande d’éviter un déploiement massif dans le secteur électrique, où les énergies renouvelables permettent de faire une transition énergétique compétitive. Au contraire, les Émirats arabes unis et les autres pays producteurs de pétrole devraient pousser au développement de ces technologies.

COP28 : Macron signe sur le nucléaire et les ENR contre le charbon

Les scénarios du GIEC qui permettent de limiter le réchauffement climatique à +1,5°C impliquent de réduire la consommation de charbon de 95 %, du pétrole de 60 % et de gaz de 45 % en 2050 par rapport à l’année 2019. En déplacement à la COP28 à Dubaï les 1er et 2 décembre, Emmanuel Macron a détaillé les messages portés par la France en matière d’énergie pour avoir une chance de limiter le réchauffement climatique à 1,5°C. « Le cœur de la priorité, c’est que les pays les plus consommateurs de charbon en sortent le plus vite possible », a-t-il estimé en conférence de presse.

Emmanuel Macron appelle ainsi tous les pays du G7 à montrer l’exemple et sortir du charbon d’ici 2030 (la France le fera avant 2027). L’objectif pour la France est de tourner la page du pétrole « d’ici 2040-2045 » et celle du gaz en 2050. Emmanuel Macron appelle à ce « que tous les pays du G20 fassent de même le plus vite possible » et à couper « progressivement les financements au charbon ». Il s’agira en parallèle d’aider les pays émergents à faire de même. Pour cela, la France entend concentrer ses aides publiques sur les projets nucléaires et renouvelables et les programmes de « juste transition énergétique » (Just Energy Transition Partnership – JETP). Ces partenariats lancés avec l’Afrique du Sud, l’Indonésie, le Vietnam et le Sénégal depuis la COP26 à Glasgow ont pour but d’aider ces pays à la transition énergétique et à la sortie du charbon.

Tripler les capacités nucléaires d’ici 2050

Pour la France, sortie du charbon et développement du nucléaire font bon ménage. Le 2 décembre 2023 à la COP28, elle a signé une déclaration, aux côtés de 21 autres pays, dont les États-Unis, les Émirats arabes unis, et le Japon, appelant à tripler les capacités de production nucléaire mondiales d’ici 2050 par rapport à 2020. À la fin de cette année-là, la capacité nucléaire installée s’élevait à 393 gigawatts (GW), selon l’Agence internationale de l’énergie atomique (AIEA). Tripler les capacités de production nucléaire d’ici 2050 reviendrait donc à atteindre 1 179 GW à cet horizon.

Emmanuel Macron s’en réjouit. « Cet engagement et l’objectif de tripler l’énergie nucléaire d’ici 2050 que nous approuvons aujourd’hui envoient un message extrêmement puissant au Monde : l’énergie nucléaire est de retour et est une solution indispensable à la lutte contre le changement climatique », a assuré Emmanuel Macron à la tribune. La déclaration invite d’autres pays à les rejoindre dans cet effort. La Chine et la Russie, les premiers constructeurs de réacteurs nucléaires dans le monde aujourd’hui, n’ont toutefois pas signé la déclaration.

La Belgique, qui a repoussé sa sortie nucléaire de dix ans (de 2025 à 2035), accueillera à Bruxelles le premier sommet sur l’énergie nucléaire les 21 et 22 mars 2024, en partenariat avec l’AIEA. La participation d’environ 30 pays, dont la France, est attendue. « Pour la première fois, [cette rencontre] va mettre autour de la table les gouvernements, les entreprises, les investisseurs et les régulateurs du secteur pour organiser une stratégie cohérente pour permettre ce triplement du nucléaire à 2050 », s’est félicité Emmanuel Macron.

Greenpeace dénonce de son côté une vision « déconnectée de la réalité ». « Entre retards, surcoûts et dépendance à la Russie, l’industrie nucléaire perd chaque jour du terrain dans le mix énergétique mondial et se marginalise un peu plus au profit des énergies renouvelables. Bien moins chères, rapides à déployer et accessibles aux pays en développement, ces énergies font quant à elles consensus sur la scène internationale », déclare Pauline Boyer, chargée de campagne Transition énergétique à Greenpeace France, dans un communiqué.

Énergies renouvelables et investissements

Le même jour à la COP28, la France s’est aussi engagée, parmi 116 pays, au triplement des capacités d’énergies renouvelables (ENR) d’ici 2030. L’objectif : atteindre 11 000 gigawatts, contre environ 3 400 aujourd’hui. « Le bon mix, c’est l’efficacité énergétique, plus de renouvelable et plus de nucléaire », a défendu Emmanuel Macron.

Le chef de l’État entend s’attaquer à la rémunération des banques privées pour encourager le développement des énergies renouvelables et l’arrêt du financement de nouvelles centrales à charbon. « Si vous êtes investisseur, vous payez le même taux d’intérêt pour un projet charbon, un projet gaz ou un projet renouvelable », a regretté le président, suggérant de mettre en place des taux d’intérêt différenciés suivant les énergies financées. Le projet d’un « gold standard », sorte de « classification financière de ces types d’investissement », doit être piloté et mis en place par la Banque mondiale, a avancé Emmanuel Macron.

Ciment sans clinker : la solution d’avenir ?

Le monde du ciment vit une révolution qui se passe actuellement en Vendée. Ce matériau, devenu essentiel dans le secteur de la construction, peut en effet désormais être fabriqué sans clinker[1] grâce à une rupture technologique portée par la société Hoffmann Green Cement. Non content de créer un produit cinq fois moins carboné que le ciment classique Portland, elle a aussi repensé totalement le modèle industriel, avec une usine verticale alimentant elle-même 50 % de sa consommation d’énergie.

L’histoire de la start-up industrielle commence il y a plus d’une dizaine d’années avec une innovation de David Hoffmann qu’il expérimente seul. Il arrive à remplacer le clinker par un mélange à froid de laitiers de hauts-fourneaux (liquide silicaté fondu, sous forme de sable après refroidissement) et d’activateurs afin d’obtenir des liants hydrauliques pouvant réagir avec de l’eau pour faire du ciment. La proportion est d’environ 85 % de déchets en poudre (laitiers de hauts-fourneaux ou argiles du lavage des sables de carrières ou désulfogypses) et 15 % d’activateurs, également sous forme de poudre. L’approche est à l’époque trop innovante pour les cimentiers et les banquiers, qui refusent de le soutenir dans ses travaux. La rencontre en 2014 avec Julien Blanchard et le microcosme des entrepreneurs vendéens va tout changer : ils lèvent une centaine de millions d’euros pour construire une usine pilote. « Il a fallu neuf mois pour arriver à reproduire industriellement ce qui n’avait été fait qu’en laboratoire jusque-là. Avec 6 000 m2 au sol, pas de combustion donc pas de cheminée, peu de déchets, cette première usine peut déjà produire 50 000 tonnes de ciment par an », raconte François Simon, prescripteur Île-de-France pour le cimentier Hoffmann.

Une filière qui a besoin de se décarboner

Cette première étape est une goutte d’eau par rapport à la production française de ciment, qui était de 16,5 millions de tonnes en 2018. Mais elle montre une nouvelle direction très prometteuse. La filière ciment émet en effet environ 10 Mt CO2eq chaque année, soit 12,5 % des émissions de gaz à effet de serre de l’industrie en France. Elle doit donc fournir un effort conséquent pour arriver à se décarboner. Elle imagine le faire en modernisant ses usines, en verdissant le mix thermique de ses fours, en réduisant le taux de clinker, et en appliquant de manière incrémentale d’autres technologies de décarbonation. Mais, comme l’a montré l’Ademe dans son plan de transition sectoriel, ces solutions de référence conduiraient encore à l’émission de 6 Mt CO2eq en 2050, alors qu’il faudrait les réduire à 2 Mt CO2eq. Même en utilisant des technologies de capture et stockage de carbone (CSC), les émissions des cimentiers seraient encore de près de 5 Mt CO2eq. Pour arriver au bon résultat, l’Ademe a modélisé deux autres scénarios, l’un poussant plus fortement le curseur de la sobriété, et l’autre maximisant les solutions technologiques, en particulier le CSC.

La solution proposée par Hoffmann, en supprimant l’étape de fabrication du clinker, rend la perspective beaucoup plus abordable. C’est pourquoi elle a été progressivement reconnue, et a d’ailleurs récemment reçu le prix du Low Carbon Cement remis par l’Association mondiale du ciment, tandis que Julien Blanchard était distingué par l’Académie d’Architecture. Il faut noter tout de même que cette reconnaissance a pris du temps. « Comme les cimentiers traditionnels ont verrouillé la réglementation en imposant un taux minimum de clinker de 5 % dans le ciment, la solution Hoffmann a dû batailler pour obtenir des homologations. Après plus de quatre années et 6 millions d’euros dépensés pour mener des essais physiques, chimiques et mécaniques avec le CSTB, notre ciment H-UKR a notamment obtenu une appréciation technique ATEx A[2] » explique François Simon. En validant une durée d’utilisation pour 100 ans, et en le qualifiant comme une technique courante pour les assureurs et contrôleurs techniques, ce ciment va pouvoir servir aux bétons utilisés dans les ouvrages d’art et plus globalement à toute superstructure (poteaux, poutres, voiles, dalles).

Une usine verticale 4.0

Hoffmann a aussi été lauréat du prix Usine RSE lors des Trophées des Usines 2023, pour saluer sa deuxième unité de production. Cette usine, inaugurée le 12 mai en Vendée et nommée H2, a la particularité d’être la première cimenterie verticale du monde ! Elle a été construite avec le béton Hoffmann Green pour montrer son efficacité à réaliser une tour de 70 m de haut et environ 25 m de large. La partie haute de la tour contient 19 cellules verticales remplies des matières premières et produits chimiques – jusqu’à une douzaine d’activateurs, parfois dosés en très petite quantité – nécessaires à la production de ciment. Ils sont assemblés à froid par gravité dans la partie basse de la tour, minimisant ainsi le besoin d’énergie et de maintenance. Un choix qui renforce la résilience de l’entreprise face à une crise énergétique : l’énergie ne compte que pour 2 % de ses coûts structurels, soit dix fois moins que les cimentiers traditionnels. Douze trackers solaires et des panneaux photovoltaïques sur le toit des bâtiments annexes fourniront la moitié de la consommation d’électricité nécessaire au site.

ciment Hoffmann
Crédit : Hoffmann Green Cement

Avec cette deuxième usine, Hoffmann élève sa capacité de production à 250 000 tonnes de ciment par an. D’autres usines devraient voir le jour dans les prochaines années. Car la demande va forcément augmenter, et certains grands acheteurs, comme Spie Batignolles, commencent à sécuriser les volumes qu’Hoffmann pourra leur livrer. Même si les ciments Hoffmann sont pour l’instant plus chers que leurs concurrents, il est probable que cela ne va pas durer. En augmentant son volume de production, l’entreprise devrait réduire ses coûts, tandis que les cimentiers traditionnels vont inexorablement voir les leurs augmenter : les évaluations de l’Ademe montrent que, sans effort de décarbonation, la filière classique verrait un triplement du coût de production (avec une tonne de CO2 à seulement 180 euros), mais que la mise en œuvre d’efforts – en gardant le clinker – conduira tout de même à un doublement des coûts…


[1] Pour rappel, depuis 200 ans, le clinker est le principal actif du ciment. Il est obtenu par cuisson d’un mélange de calcaire (80 %) et d’argile (20 %) à 1 450°C dans un four rotatif. Cette étape représente la quasi-totalité des émissions de gaz à effet de serre des cimentiers : elles sont dues à la fois à la consommation d’énergie thermique (un tiers des émissions) pour la cuisson, et à la réaction chimique de calcination qui transforme le calcaire en chaux et en CO2 (deux tiers des émissions).

[2] Appréciation Technique d’Expérimentation

COP28 : quatre choses à savoir sur la création du fonds pertes et dommages

C’était une attente forte des pays du sud. Lors de la COP27 à Charm el-Cheikh fin 2022, un comité de transition a été mandaté pour définir les contours du nouveau fonds dédié aux pertes et préjudices liés aux dommages irréversibles du changement climatique. Et, belle prouesse, il est parvenu à avaliser un projet de texte le 4 novembre à Abu Dhabi. Il a finalement été adopté au premier jour de la COP28 à Dubaï par les pays signataires de l’Accord de Paris.

Cette nouvelle a surpris et ravi de nombreux acteurs, allant des ONG aux nations directement concernées par la mise en place d’un tel fonds. « C’est un jour remarquable », juge Avinash Persaud, l’un des négociateurs du comité de transition, représentant les pays en développement du G77, et envoyé spécial de la Première ministre de la Barbade Mia Mottley.

1/ Un fonds pour quoi faire ?

Si la contribution des pays au fonds restera volontaire, cette adoption au premier jour de la COP constitue une véritable avancée. Désormais, le conseil d’administration du fonds devra définir les règles de contribution et d’accès. Dans les faits, « ce fonds permettra d’accéder au financement pour faire face à des phénomènes à occurrence lente, comme la montée du niveau des mers ou les sécheresses, mais aussi des phénomènes extrêmes comme des cyclones ou des inondations », partage Fanny Petitbon, responsable du plaidoyer de l’ONG Care France.

2/ Quel est l’objectif monétaire à atteindre ?

Lors de cette première journée de COP28, les 200 millions de dollars nécessaires à la capitalisation du fonds ont été réunis. En particulier, les Émirats arabes unis et l’Allemagne ont tous deux promis d’abonder ce fonds à hauteur de 100 millions de dollars. Le Royaume-Uni a promis 75,9 millions de dollars (60 millions de livres), les États-Unis 17,5 millions et le Japon 10 millions. D’autres annonces auront lieu les 1er et 2 décembre lors du sommet de l’action climatique. Mais les pays en développement espèrent beaucoup de ce fonds qui n’a pas encore d’objectif officiel. « Ce fonds doit être de 100 milliards de dollars par an », défend Avinash Persaud.

3/ Qui contribuera à ce nouveau fonds ?

Les pays industrialisés, en raison de leur responsabilité historique, sont exhortés à y participer, mais le texte ne prévoit aucune obligation. Les autres pays, comme la Chine, le Qatar, l’Arabie saoudite, la Corée du Sud, ainsi que les autres pays émergents sont encouragés à le faire sur une base volontaire.

Si rien n’est encore décidé, le texte permet de mettre en place un large éventail de sources de financements publics, mais aussi privés. « Nous voulons qu’il s’agisse d’un fonds moderne qui puisse recevoir un large éventail de sources : les dons de gouvernements, mais aussi de nouvelles sources de financements liées aux émissions de gaz à effet de serre, par exemple en taxant les émissions du maritime, de l’aviation, du pétrole et du gaz et les transactions financières », partage Avinash Persaud. Les organisations philanthropiques et les entreprises pourraient également abonder le fonds.

 4/ Un fonds pour qui ?

Le conseil d’administration du fonds aura en charge de définir les événements soutenus et les montants associés. « Dès qu’il sera établi, le board décidera des critères d’éligibilité en décidant d’un pourcentage minimum de fonds alloué aux pays les moins avancés et aux petites îles en développement et en évitant la surconcentration des fonds », précise Lola Vallejo, directrice du programme climat de l’Iddri.

D’autres pays comme la Libye, les Philippines, le Pakistan, qui ne font pas partie de ces pays les plus vulnérables, pourraient aussi y accéder si par exemple une partie importante de leur PIB est concernée suite à une catastrophe climatique. Ces règles devraient voir le jour dès 2024.

L’impression 3D pour des implants antibactériens

Remplacer une hanche ou un genou par un implant métallique est devenu une opération courante, qui se déroule quotidiennement partout dans le monde. La colonisation bactérienne est l’une des principales causes d’échec de telles chirurgies. Il existe bien des antibiotiques, mais leur administration n’est pas efficace à tous les coups. Ainsi, près de 7 % des cas finissent par une seconde opération, d’extraction cette fois. D’abord de l’implant… et parfois du membre colonisé. Des chercheurs de la Washington State University menés par le professeur Amit Bandyopadhyay, ont voulu mettre au goût du jour les implants en titane développés il y a plus de 50 ans. Leur idée : y ajouter du tantale et du cuivre pour améliorer leur biocompatibilité et contrer du même coup la résistance bactérienne.

Des implants biocompatibles et résistants aux bactéries

matériau imprimé en 3D
Le nouveau matériau imprimé en 3D a été soumis à des tests de fatigue. Crédits : WSU Photo Services.

Les implants actuels sont composés de Ti6Al4V, un alliage titane-aluminium-vanadium. Amit Bandyopadhyay et son équipe ont fabriqué additivement leur propre alliage par la technique de fusion laser sur lit de poudre. Ce procédé couche par couche consiste à faire fusionner de la poudre au passage d’un laser. Ici, les scientifiques ont mêlé dans des proportions massiques équivalentes du CpTi (plus de 99 % de titane) et du Ti6Al4V pour former du Ti3Al2V. Ils ont ensuite cherché à évaluer les propriétés biologiques et mécaniques de leur nouveau matériau, enrichi de tantale et de cuivre. D’abord, ils lui ont additionné 3 % de cuivre (Cu) et l’ont mis en contact pendant 48 heures avec des lignées bactériennes de bacille pyocyanique (Pseudomonas aeruginosa) et de staphylocoque doré (Staphylococcus aureus). Le cuivre a permis une nette réduction des colonies de bactéries, de 78-86 % comparé au CpTi. L’ajout de 10 % de tantale (Ta) a quant à lui montré une bien meilleure biocompatibilité que le Ti6Al4V, avec une formation osseuse 3,5 fois plus importante ! Enfin, l’alliage complet (Ti3Al2V-10Ta-3Cu) a répondu excellemment aux différents tests de résistance à la fatigue et au cisaillement.

Ce travail, présenté le 17 novembre 2023 dans l’International Journal of Extreme Manufacturing, a demandé trois années de mise au point aux chercheurs de la Washington State University. Mais le résultat final valait bien le temps passé, car ce nouvel alliage pourrait à l’avenir remplacer les anciens implants pour des chirurgies orthopédiques et dentaires. La prochaine étape annoncée par l’équipe scientifique vise à atteindre le taux de mortalité bactérienne standard, soit plus de 99 %. Et ce sans endommager les tissus environnants. Du côté de Washington, la recherche continue…

Le Bilan mondial de l’Accord de Paris a sonné !

C’est bientôt l’heure du bilan des objectifs à long terme de l’Accord de Paris. Et rapport après rapport, le constat est sans appel : le monde se dirige actuellement vers un réchauffement de + 2,7°C. Les 100 milliards de dollars d’aide promis par les pays développés en 2009 aux pays du Sud à partir de 2020 ne sont toujours pas réunis. Le défi est grand : arrivera-t-on à renforcer les capacités d’adaptation ? Rendre les flux financiers compatibles avec la trajectoire de développement bas carbone ? Et pourra-t-on atteindre un pic des émissions mondiales avant 2030 ? Le Bilan mondial, qui doit être adopté à l’issue de la COP28 à Dubaï le 12 décembre prochain, permettra de s’en assurer.

Dans le cadre de l’Accord de Paris, les pays ont pris des engagements de réduction de leurs émissions de gaz à effet de serre. Il s’agit des contributions déterminées au niveau national (CDN, ou National Determined Contribution, NDC). « Ce bilan mondial est destiné à éclairer la prochaine série de NDC que doivent soumettre les Parties à l’Accord de Paris en 2025 », partage Mark Tuddenham, responsable de l’information au CITEPA (Centre interprofessionnel technique d’études de la pollution atmosphérique) et expert des négociations internationales sur le climat. Ils courront jusqu’en 2035 ou 2040, suivant la préférence des pays.

Un bilan technique et politique

En septembre 2023, l’organisme des Nations Unies chargé du changement climatique, la CCNUCC (appelée aussi ONU Climat) a publié un rapport de synthèse technique. S’il ne fournit aucune nouvelle donnée en termes d’émission ou de projection par rapport au dernier rapport du GIEC et au « Gap report » du PNUE, il dresse un panorama en termes d’efforts climatiques sur l’atténuation, l’adaptation et la finance à travers 17 messages clés. « La conclusion globale est sans équivoque : des actions beaucoup plus importantes sur tous les fronts et par tous les acteurs sont nécessaires pour atteindre les objectifs à long terme de l’Accord de Paris », résume Mark Tuddenham.

Les travaux de ce premier Bilan mondial s’achèveront lors de la COP28 à Dubaï. Après l’évaluation technique, c’est le temps des négociations politiques. « La phase politique va être déterminante et délicate. La question est de savoir comment ces résultats techniques vont être interprétés et se concrétiser sur le plan politique et le niveau d’ambition associé », avance Mark Tuddenham.

Que faut-il en attendre ?

Une série d’événements de haut niveau, ainsi que les réunions entre chefs d’État devraient aboutir à des recommandations politiques clés. « Cela devrait mener à l’adoption d’une décision spécifique de la CMA-5 (5e réunion des Parties à l’Accord de Paris, NDLR) et d’une déclaration politique par les ministres et chefs d’État et de gouvernements réunis à Dubaï, prévient Mark Tuddenham. Ces recommandations clés devront être prises en compte par les États lorsqu’ils mettront à jour leur NDC. »

En amont de la COP28, l’expert note « un large consensus sur le fait que l’action climat n’a pas été suffisante et que toutes les Parties doivent la renforcer et renforcer le soutien aux pays en développement ». Toutefois, « il y a divergence des points de vue sur les questions de savoir comment atteindre les objectifs de l’Accord de Paris et comment répartir les efforts de réduction et de financement. » Les négociations, qui dureront 15 jours, devront permettre d’arriver à une position commune.

 


Crédit image de une : freepik

Le déploiement à venir du véhicule autonome

Un extrait de Véhicule autonome et connecté – Technologies, enjeux et déploiement par Jacques EHRLICH

Au début des années 2000, la plupart des chercheurs s’accordaient à dire que l’année 2020 verrait nos routes et nos rues parcourues par de nombreux véhicules totalement automatisés. En France, le ministère de l’Équipement, des Transports et du Logement publiait même un ouvrage collectif intitulé La Route Automatisée : un scénario périurbain dans lequel un scénario de véhicules automatisés, circulant en pelotons, était exploré aussi bien sous ses aspects techniques, sécuritaires que socio-économiques. Vingt ans après, force est de constater que tout ne s’est pas réalisé conformément aux attentes. Les feuilles de route publiées de façon récurrentes par ERTRAC projetaient dans un premier temps un déploiement du véhicule totalement automatisé à l’horizon 2030, repoussé ensuite au-delà de 2040. Aujourd’hui plus personne n’ose se prononcer sur une date d’échéance. En revanche, les ADAS (Advanced Driving Assistance System) sont considérés comme désormais déployés. Même si à ce jour, tous les véhicules du parc automobile n’en sont pas équipés, on assiste comme pour toutes les innovations précédemment introduites dans l’automobile à un déploiement partant du haut de gamme pour se disséminer progressivement vers les véhicules intermédiaires puis inférieurs. Le déploiement des niveaux supérieurs intitulés « Chauffeur et Auto Pilot » se situe dans les horizons 2020-2024 et 2024-2028 respectivement.

Les scénarios selon les types de véhicules

Pour les véhicules personnels, le concept Chauffeur concerne l’assistance à basse vitesse (< 60 km/h) en situation de congestion sur rocades urbaines, périurbaines et voies rapides. Le véhicule est capable de gérer des situations de Stop & Go et de changement de voie. C’est au conducteur d’activer cette fonction et son attention n’est pas requise en permanence. Sur autoroute, le concept est étendu jusqu’à une vitesse de 130 km/h. Si une reprise en manuelle est requise, le conducteur a suffisamment de temps pour le faire en sécurité. Dans le cas où celui-ci ne reprendrait pas le contrôle, une manœuvre dite à « risque minimal » sera automatiquement engagée. Le concept Pilot étend le précédent à l’autoroute et s’en distingue par le fait que le véhicule ne requerra pas la reprise manuelle par le conducteur. Le principe de la manœuvre à risque minimal est également applicable.

Pour les camions, seul le concept Pilot figure dans la feuille de route en faisant la distinction entre trois cas d’usages. D’abord, les aires fermées où le trafic est totalement contrôlé (hubs logistiques et zones portuaires). Dans ce contexte, des camions sans chauffeur, supervisés par un centre de contrôle pourront circuler. Sur les liaisons hub à hub, la feuille de route prévoit la circulation de camions automatisés avec présence d’un conducteur selon un cadre très précis. Il s’agit donc de routes dont les caractéristiques sont parfaitement maîtrisées et sur lesquelles les règles de conduite sont spécifiques (limitations de vitesses, changement de voie, etc.). Le concept le plus avancé de camions autonomes est celui où ils sont capables de circuler sans intervention du conducteur dans des contextes de trafic mixte, sur des routes ouvertes et en milieu urbain.

Pour les véhicules de transports collectifs urbains, il existe quatre cas d’usage. D’abord avec les PRT (Personal Rapid Transit), qui sont composés d’un ensemble de cabines sans chauffeur de petite taille pouvant transporter quelques personnes, et d’une infrastructure dédiée sur laquelle se déplacent les cabines. On peut citer pour exemple le campus de la West Virginia University aux États-Unis, l’aéroport de Heathrow à Londres et le déploiement en cours à Masdar dans l’émirat d’Abou Dhabi aux Émirats arabes unis. Le concept des navettes autonomes est assez voisin du PRT mais les coûts d’investissement et d’exploitation sont moindres (pas d’infrastructure spécifique). Les navettes évoluent en trafic mixte et, théoriquement, ne requièrent pas la présence d’un conducteur. De nombreux déploiements sont en cours, comme par exemple en France sur le parvis de La Défense ou sur le plateau de Satory à Versailles. Destinés à circuler sur des « sites propres » existants ou à construire, les bus automatisés sur voie dédiée doivent pouvoir évoluer conjointement avec des bus non automatisés. Ils s’arrêtent automatiquement aux stations et pourront le cas échéant circuler en pelotons. Pour ce qui est du trafic mixte, le cas d’usage est comparable au précédent mais sur des voies non dédiées et en coexistence avec tout autre type de véhicules.

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 14 décembre 2023 !

Véhicule autonome et connecté – Technologies, enjeux et déploiement, par Jacques EHRLICH

Les thèses du mois : « 2035, étape décisive vers un transport décarboné et intelligent »

Pour notre dossier du mois de novembre, « 2035, étape décisive vers un transport décarboné et intelligent », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

Méthodologie de développement de véhicules autonomes sûrs à partir d’exigences fonctionnelles et non fonctionnelles
Yasmine Assioua
Thèse de doctorat en Réseaux, informations et communications, Soutenue le 19-04-2023
Laboratoire Traitement et communication de l’information

Un schéma efficace de dissémination des informations urgentes pour les réseaux véhiculaires émergents
Raoua Chakroun
Thèse de doctorat en Informatique, Soutenue le 30-11-2022
Laboratoire d’Analyse et d’Architecture des Systèmes (Toulouse)

Modélisation et optimisation de la maintenance des infrastructures routières pour le véhicule autonome
Ikram Najeh
Thèse de doctorat en Signal, Image, Automatique, Soutenue le 17-11-2022
Laboratoire Génie des Réseaux de Transport Terrestre et Informatique Avancée

Multi layered Misbehavior Detection for a connected and autonomous vehicle
Mohammed Bouchouia
Thèse en informatique, Soutenue le 02-06-2023
Laboratoire Traitement et communication de l’information

Apprentissage machine pour la décision de conduite autonome de véhicules guidés : Application dans le domaine ferroviaire
Antoine Plissonneau Duquene
Thèse de doctorat en Automatique, Soutenue le 03-04-2023
Laboratoire d’automatique, de mécanique et d’informatique industrielles et humaines (Valenciennes, Nord)

Calcul et optimisation de trajectoires pour véhicules autonomes soumis aux contraintes d’un environnement agricole
Danial Pour Arab
Thèse de doctorat en Informatique, Soutenue le 30-06-2023
Laboratoire des sciences de l’ingénieur, de l’informatique et de l’imagerie (Strasbourg)

Road surface condition detection for autonomous vehicle by NIR LED system and machine learning approaches
Hongyi Zhang
Thèse de doctorat en Génie électrique, Soutenue le 07-07-2022
Institut d’optique graduate school

Visual Odometry Using Heterogeneous Cameras for Simultaneous Localization and Mapping for Autonomous Vehicles
Abanob Soliman
Thèse de doctorat en Sciences du traitement du signal et des images, Soutenue le 05-10-2023
Informatique, Biologie Intégrative et Systèmes Complexes

​​Infrastructure routière intelligente collective par approche individu-centrée et apprentissage
Jules Bompard
Projet de thèse en Informatique et applications, Thèse en préparation depuis le 01-10-2023
Centre de Recherche en Informatique, Signal et Automatique de Lille

Optimisations multi-objectifs pour la gestion des bords de route
Ignacio Castaneda Rodriguez
Projet de thèse en Génie des Systèmes Industriels, Thèse en préparation depuis le 22-07-2023
ERPI – Equipe de Recherche sur les Processus Innovatifs (Université de Lorraine)

La Suède va investir massivement dans le nucléaire

La déclaration de la France, qui sera dévoilée le 2 décembre, a d’ores et déjà reçu le soutien de cinq pays : Royaume-Uni, États-Unis, Corée du Sud, Émirats arabes unis, sans oublier la Suède, particulièrement impliquée dans la relance du nucléaire à l’échelle européenne et mondiale.

La Suède : un exemple à suivre en termes de décarbonation

Ce n’est pas un secret. La Suède fait figure d’exemple en matière de décarbonation. C’est même le pays de l’OCDE qui affiche les meilleures performances !

En Suède, le secteur du bâtiment, habituellement l’une des principales sources d’émission[1] de CO2, est également très en avance sur ses voisins, puisque les émissions de CO2 des modes de chauffage ont diminué de 90 % entre 1990 et 2019. Cet exploit, pour un pays proche du cercle polaire, est lié à une particularité suédoise : la construction généralisée de réseaux de chaleur dans les villes, qui sont en partie alimentés par la combustion de déchets forestiers, l’incinération de déchets, mais aussi par des pompes à chaleur ou la chaleur fatale.

Il faut aussi rappeler que la Suède a entrepris d’améliorer l’efficacité énergétique de ses bâtiments dès les années 1960 et qu’elle a cherché à réduire sa dépendance au pétrole suite aux chocs pétroliers des années 1970. La Suède décida alors de miser sur le nucléaire, les énergies renouvelables et le charbon, jusqu’à l’instauration d’une taxe carbone en 1991, dont le coût augmente depuis 30 ans, ce qui pénalise à la fois charbon et pétrole.

De quoi est composé le mix électrique suédois ?

Le mix électrique[2] suédois est composé en majorité de nucléaire (à 43 %) et d’hydroélectricité (à 31 %). L’histoire de la Suède avec le nucléaire ne date donc pas d’hier, puisque le pays exploite actuellement six réacteurs nucléaires, répartis dans deux centrales.

Le mix est par ailleurs complété par la cogénération (9 %) et par l’éolien, une source d’énergie qui s’est fortement développée dans le pays (16 % du mix) ces dernières années.

La production électrique suédoise
Depuis les années 1970, la production électrique suédoise s’appuie fortement sur le nucléaire. L’hydroélectricité a toujours représenté une part importante, et l’éolien est en croissance depuis les années 2010. Source : Ambassade de France en Suède, 2022

 Cette électricité bas carbone et compétitive a permis à la Suède :

  • de devenir le plus grand exportateur européen d’électricité en 2022, avec 20 % de production exportée ;
  • d’attirer et développer de nombreuses industries électro-intensives, notamment en lien avec les objectifs de décarbonation (gigafactories, électrolyseurs, etc.).

Victime de son succès énergétique, la Suède prévoit ainsi un doublement de la consommation électrique du pays d’ici 2040 !

Si la Suède veut être en mesure de « suivre la cadence », tout en conservant une production électrique bas carbone, elle n’a donc pas le choix que de soutenir le développement du nucléaire.

Des annonces attendues à la COP28

Des études de faisabilité ont déjà été lancées par Vattenfall, l’énergéticien public détenu à 100 % par l’État, pour la construction de deux réacteurs modulaires (SMR) à Ringhals, dans le but de commencer à produire vers 2035.

Mais selon les estimations du gouvernement, la Suède aura besoin de bien plus : l’équivalent de dix nouveaux réacteurs d’ici 2045 ! Et comme pour tous les pays[3] qui se lancent dans des chantiers de cette ampleur, les questions de coûts, de délais et de compétences disponibles vont s’avérer cruciales.

La déclaration initiée par la France et qui sera dévoilée le 2 décembre à la COP28 prévoit d’appeler à un triplement des capacités de production nucléaire d’ici 2050, ce qui nécessiterait d’importants efforts d’investissements. Cet appel à développer le nucléaire sera donc aussi un appel aux banques de développement et à la Banque mondiale à soutenir financièrement le nucléaire.


 [1] Selon un rapport de 2020 du Haut conseil pour le climat, le secteur du BTP produit plus du tiers des émissions de CO2 en Union européenne, plus du quart en France !

[2] Chiffres de 2021

[3] Notamment la France, la Finlande et le Royaume-Uni

 

ACC, futur géant des batteries pour véhicules électriques made in Europe

ACC (Automotive Cells Company), co-entreprise créée par Stellantis et Saft en 2020, a pour objet la fabrication de cellules et de modules de batteries pour véhicules électriques. La mise en service d’une première gigafactory dans les Hauts-de-France, au mois de mai dernier, illustre l’ambition de l’entreprise, qui prévoit d’en construire deux autres en Allemagne et en Italie. Le tout afin d’être compétitif, sur un marché à l’heure actuelle écrasé par les acteurs asiatiques.

Matthieu Hubert, secrétaire général d’ACC, a expliqué aux Techniques de l’Ingénieur la stratégie d’ACC pour être compétitif sur le marché des batteries pour véhicules électriques, et l’importance pour l’Europe de se doter d’une filière industrielle compétitive dans ce domaine, sur l’ensemble de la chaîne de valeur.

Techniques de l’Ingénieur : Comment est né Automotive Cells Company (ACC) ?

Matthieu Hubert : ACC est une entreprise relativement jeune, lancée en août 2020 par ses deux actionnaires historiques, Saft et PSA à l’époque (devenue Stellantis depuis).

Saft, aujourd’hui filiale de Total Energies, est fabricant de batteries depuis plus de 100 ans et développe de nombreuses applications de pointe sur les batteries lithium-ion, dont il est le leader mondial. Cependant, Saft n’avait pas encore investi le champ des batteries pour l’automobile avant la naissance d’ACC.

L’autre actionnaire, Stellantis, a un profil très complémentaire à Saft, puisqu’il s’agit d’un constructeur automobile de grandes séries, prêt à prendre le virage de l’électrification, mais qui n’avait jusqu’en 2020 pas d’accès direct aux technologies mises en oeuvre pour les batteries des véhicules électriques.

Il s’agit donc là d’un attelage très cohérent, de deux géants industriels dont les besoins et les savoir-faire se complètent.

Depuis, un troisième actionnaire, Mercedes Benz, a rejoint cet attelage. L’Union Européenne a appuyé ACC à travers le PIIEC batteries, qui permet aux États membres d’investir massivement pour favoriser le développement de futurs champions industriels des batteries, afin de créer une filière industrielle complète dans ce domaine.

Quel écosystème industriel a été développé depuis la création d’ACC ?

Nous avons inauguré un centre de R et D à Bruges près de Bordeaux en 2021, qui est pleinement opérationnel aujourd’hui et regroupe 800 employés. C’est un outil essentiel pour ACC en termes d’innovation.

Aussi, nous avons, l’année dernière, inauguré notre usine pilote à Nersac, où évoluent 250 employés, et qui permet d’opérer la convergence du produit avec le processus, afin de préparer l’industrialisation en grande série de notre fabrication, dans nos Gigafactories. La première d’entre-elles se situe à Billy-Berclau dans les Hauts-de-France, dont le premier bloc a été inauguré au mois de mai dernier, et qui devrait permettre de livrer notre client, Stellantis, dans les toutes prochaines semaines.

In fine, la gigafactory française comptera trois blocs, tout comme les deux autres gigafactories qui seront construites en Allemagne et en Italie. Notre stratégie est de mettre en production les gigafactories bloc par bloc : ainsi, après la mise en service du premier bloc à Billy-Berclau, nous mettrons en service le premier bloc de notre Gigafactory en Allemagne, et ainsi de suite, pour aboutir à la mise en service des neufs blocs de nos trois gigafactories en 2030. Ce qui correspondra alors à une puissance de 120 GW de capacité installée, soit 2,5 millions de véhicules électriques équipés par an.

Derrière la mise en service de la gigafactory d’ACC, il y a la volonté européenne de mettre en place une véritable filière européenne des batteries. Quelle est la place d’ACC dans cette ambition ?

ACC est une brique importante du montage de cette filière européenne de la batterie. Si d’autres briques se mettent en place actuellement en Europe sur l’ensemble de la chaîne de valeur des batteries, force est de constater qu’il reste encore beaucoup de travail. Je vais vous donner deux exemples. D’abord sur la première brique, qui concerne les matériaux. L’extraction des matières premières est une activité qui se structure en Europe, qui commence à émerger, mais qui n’est à l’heure actuelle pas opérationnelle. Ce qui oblige un fabricant comme ACC à se fournir hors d’Europe, là où les matières premières sont extraites. Moyennant bien sûr le respect d’une charte achat très stricte pour garantir l’aspect
social et environnemental des produits que nos fournisseurs nous livrent. Ensuite, à l’autre bout de la chaîne de valeur, il y a le recyclage. Sur ce secteur d’activité, la filière n’est encore qu’émergente, et ne constitue pas aujourd’hui un pilier sur lequel nous pouvons nous reposer pour recycler nos batteries. Ceci dit, cela est moins problématique que pour l’extraction des matières premières, puisque les besoins en recyclage n’apparaîtront concrètement que dans quelques années, étant donné l’espérance de vie, et de seconde vie, des batteries que nous produisons.

Quelle stratégie adoptent les constructeurs automobiles face à la fin programmée des véhicules thermiques, et au déploiement massif de l’électrification des transports ?

La réglementation européenne très contraignante autour des normes (Euro 6, Euro 7) pour le développement de nouveaux moteurs a obligé les constructeurs à changer leur fusil d’épaule, pour se concentrer dès aujourd’hui sur la bascule vers l’électrique. Et donc sur les batteries. C’est aujourd’hui un enjeu de court et moyen termes. A horizon 2035, ce sont près de 12 millions de batteries qui seront nécessaires à l’échelle européenne chaque année pour équiper les véhicules électriques. Aujourd’hui, les seules batteries commercialisées viennent de Chine, de Corée du Sud et du Japon. Il est donc impératif de pouvoir équiper les véhicules européens avec des batteries produites localement. Dans ce sens, Mercedes voit d’un bon œil le développement d’une gigafactory ACC en Allemagne, et plus généralement, la constitution d’une filière de batteries européenne compétitive est un gage d’indépendance pour le futur, notamment par rapport à l’Asie. Mais ceci n’est vrai qu’à partir du moment où nous serons réellement compétitifs par rapport à nos concurrents, d’où une forte pression sur les acteurs européens émergents dans le domaine des batteries.

Quel est votre état d’esprit face à cette pression pour être compétitif par rapport au marché asiatique, et plus globalement sur l’avenir de la filière batteries européenne ?

Si je prends un tout petit peu de recul sur l’activité que nous développons chez ACC, j’évoquerai trois points. D’abord, le fait que nous travaillons à ce que la planète aille “moins mal” dans les années et les décennies qui viennent. Nous connaissons tous les conditions dans lesquelles les batteries sont produites aujourd’hui, il apparaît nécessaire de faire des efforts pour assainir cette situation et rendre les modes de production des batteries plus vertueux, écologiquement parlant. Nous nous y employons.

Le second point qui nous motive, c’est l’aspect réindustrialisation. A travers le développement d’ACC, il y de nombreuses créations d’emplois, dans notre centre de R et D, et dans nos gigafactories, qui emploieront chacune 2 000 salariés à terme. Ceci dans des
territoires qui sont en train de se « réinventer », et à  proximité immédiate de sites industriels aujourd’hui dédiés à la production d’organes automobiles mécaniques et qui verront demain
leur activité inexorablement se réduire du fait de ce virage vers le tout électrique.

Nos implantations permettent à ces sites de se réinventer plutôt que de péricliter, ce qui permet d’éviter de nouvelles casses sociales, et à la France de concrétiser en partie son objectif de réindustrialisation.

Enfin, nous contribuons à permettre à la France et à l’Europe d’assurer une certaine forme d’autonomie, une certaine forme de souveraineté technologique et industrielle, sur cet
élément clef qu’est la batterie pour véhicule électrique.

Propos recueillis par Pierre Thouverez

« Développer la connectivité de l’infrastructure routière et de l’infrastructure réseau est un levier indispensable pour favoriser le développement de nouveaux services C-TIS »

Les améliorations technologiques nécessaires pour voir évoluer sur nos routes des voitures sans conducteur sont nombreuses et l’Europe subventionne de nombreux projets, 148 au total, pour tendre vers cet objectif.

Parmi eux, InDiD est l’un des 13 projets français retenus par la Commission européenne dans le cadre du dernier appel à projets du Mécanisme pour l’Interconnexion en Europe (MIE). Il s’inscrit dans la suite des projets de Systèmes et Transports Intelligents Coopératifs, les C-TIS.

Sécurité, infrastructure, connectivité… Les défis sont donc nombreux et le projet InDiD apportera sa pierre à cet immense édifice.

Toufik Ahmed, Directeur Adjoint de l’ENSEIRB-MATMECA – Bordeaux INP, et chercheur au LaBRI, a expliqué aux Techniques de l’Ingénieur les spécificités du projet InDiD, qui réunit 24 acteurs au niveau institutionnel et de la recherche. 

Techniques de l’Ingénieur : Pouvez-vous nous présenter le projet InDid, qui a été prolongé de six mois et qui se terminera au début de l’année 2024 ?

Toufik Ahmed : Le chef de file de ce projet est le Ministère de la Transition Écologique et Solidaire, qui coordonne les 24 acteurs (industriels, collectivités, sociétés d’autoroutes, laboratoires de recherches, partenaires institutionnels), dont Bordeaux INP  fait partie. Le projet InDID se concentre sur le développement de l’infrastructure routière numérique de demain en complément de l’infrastructure physique, pour favoriser des services de transports innovants et plus particulièrement les Systèmes de Transport Intelligents Coopératifs (C-TIS). 

Sur quelles problématiques travaillez-vous ?

Les problématiques traitées concernent l’amélioration de la connectivité sur l’infrastructure routière numérique et l’infrastructure réseau (cœur du réseau). A savoir comment garantir un échange efficace d’informations entre les véhicules, mais également entre le véhicule et l’infrastructure numérique. 

Dans ce contexte, notre travail se concentre sur deux aspects, d’une part l’hybridation technologique et d’autres part le traitement des données dans l’infrastructure numérique.

Sur le premier volet, l’accent est mis sur l’apport de la 5G pour favoriser des services novateurs sur les véhicules C-TIS. Par exemple, les services comme le support de véhicules autonomes ou encore le platooning, qui consiste en un convoi de véhicules guidé par une seule personne. Le platooning s’adresse principalement au transport de marchandises.  

L’ambition du projet InDiD dans sa globalité est de continuer à développer les services C-TIS à travers les sites pilotes du projet et d’expérimenter de nouveaux services. 

Le second volet a pour ambition de comprendre comment rapprocher les services du consommateur et du fournisseur de services. Sur ce point, nous avons investigué le déploiement d’infrastructures de traitement de données à la périphérie du réseau, appelé Edge Computing. Implantée stratégiquement sur des emplacements clés des routes et des autoroutes, cette infrastructure vise à exécuter les services au plus près de l’utilisateur, réduisant ainsi significativement les temps de latence et améliorant les performances.

Revenons sur l’hybridation technologique. Quelles sont les expérimentations que vous avez mises en place ?

Plusieurs technologies existent au-delà des réseaux cellulaires 4G/5G, et notamment ITS-G5, la technologie européenne des C-ITS basée sur le wifi, qui permet une connexion ad hoc entre plusieurs véhicules. Nous avons constaté que cette technologie ne parvient pas à offrir seule un débit suffisamment élevé. Nous avons donc travaillé sur une amélioration de cette technologie, ce qui a permis d’obtenir de meilleurs résultats en termes de fiabilité, de débits et de taux d’erreurs. Cependant, malgré ces avancées, les services comme le platooning ou la conduite à distance ne peuvent être pleinement assurés par ces technologies lorsqu’elles sont considérées de manière isolée, que ce soit l’ITS-G5 ou même la 5G.

L’idée directrice de nos travaux a donc été d’hybrider la 5G et l’ITS-G5, afin de bénéficier des avantages de chaque technologie et d’obtenir des résultats optimaux en termes de débit et de temps de latence, tout en permettant à plusieurs véhicules d’accéder à l’interface radio simultanément. 

Quels résultats avez-vous obtenu ?

L’hybridation a permis d’obtenir une amélioration de l’ordre de 30% sur le taux de réception des paquets, et une amélioration du débit de 20%, et une réduction du taux d’occupation du canal de l’ordre de 10%. 

Ces améliorations sont suffisantes aujourd’hui pour supporter la première phase de déploiement des C-TIS, qui concerne surtout les services d’information : congestion routière, services de type GLOSA (vitesse optimale de franchissement d’un feu tricolore). Ces services concernent la première phase de déploiement, qui est actée et déployée aujourd’hui.

Parlez-nous des phases 2 et 3, qui doivent suivre cette première phase ?

La seconde phase regroupe les améliorations relatives à la perception de l’environnement du véhicule et les échanges d’informations entre véhicules, Enfin, la phase trois assure le support automatisé des véhicules autonomes, qui inclut la perception collaborative, et la capacité d’un véhicule à s’insérer de manière efficace et donc sécurisée sur des routes fréquentées par d’autres véhicules.

Les latences nécessaires pour ce type de service de phase 3, ou pour le platooning par exemple, sont de l’ordre de la milliseconde, ce qui est aujourd’hui inaccessible, même avec l’hybridation entre la 5G et l’ITS-5G. Il va falloir attendre des améliorations dans l’interface radio pour disposer de plus de débit et moins de latence.

En ce qui concerne le traitement des données à la périphérie de l’infrastructure numérique, quels résultats avez-vous obtenu, et quels sont les freins persistants ?

Actuellement, tout est centralisé. Si on regarde l’infrastructure routière en France, il y a un data center national, à Paris, qui est utilisé pour l’ensemble des services. Ce qui induit évidemment un temps de latence important. L’idée ici est donc de déployer des mini-data centers, que l’on appelle des Edges, pour opérer les calculs et la prise de décision localement, et pas sur le nœud national.

L’objectif est donc de déployer des nœuds au niveau local, tout en permettant au service de suivre l’utilisateur une fois que ce dernier s’éloigne spatialement d’un nœud, c’est ce que l’on appelle la continuité de service. C’est comme cela que nous parvenons à réduire le temps de latence significativement, et donc à améliorer les performances des services.

Comment avez-vous expérimenté cela ?

Nous avons expérimenté cela au niveau d’une barrière de péage banalisée pendant la durée d’expérimentation par l’APRR, au niveau de laquelle nous avons déployé nos antennes ITS-G5 et les Edges. Nous avons ensuite simulé un véhicule autonome connecté pour expérimenter la vitesse de calcul et le temps de latence entre ce dernier et le data center local : bien sûr, la qualité de service obtenue est bien meilleure qu’en utilisant un data center national beaucoup plus éloigné du véhicule : il s’agissait en l’occurrence pour le véhicule de choisir la voie de péage la plus pertinente pour fluidifier le trafic au maximum.

De nombreux projets sont menés au niveau européen en ce moment sur les différentes problématiques inhérentes au développement de véhicules autonomes et connectés. Comment mettre en commun toutes les avancées qui sont réalisées sur ces différents projets ?

Il faut savoir que les acteurs de l’industrie et de la recherche travaillent sur plusieurs projets simultanément, au niveau national et européen. Cela permet de mutualiser les connaissances, mais également de travailler sur un aspect très important indispensable au déploiement de la première phase que nous avons évoqué, qui est l’interopérabilité des services d’un pays à un autre. Aujourd’hui, le déploiement d’infrastructure routière numérique sur tout le territoire va permettre à terme d’assurer une meilleure couverture des services de la phase 1, avant de passer aux phases 2 puis 3.

Propos recueillis par Pierre Thouverez

La chaleur extrême, risque accentué par le changement climatique

L’été 2023 est l’été le plus chaud au niveau mondial depuis au moins 100 000 ans, annonçait récemment le service Copernicus ECMWF pour le changement climatique. Si l’année 2023 n’a pas fini de battre tous ses records, en 2022, la population a été exposée en moyenne à 86 jours de fortes températures dangereuses pour la santé, d’après le 8e rapport annuel du Lancet Countdown sur les impacts sanitaires du changement climatique. 60 % d’entre eux ont eu deux fois plus de chances de se produire à cause du changement climatique.

Ce rapport annuel dirigé par l’University College London a réuni 114 experts issus de 52 institutions de recherche et agences de l’ONU du monde entier. Alors que la COP28 qui se tient à Dubaï du 30 novembre au 12 décembre consacrera une journée aux liens entre climat et santé, « tout espoir n’est pas perdu », indique le Dr Marina Romanello, directrice exécutive du Lancet Countdown à l’University College London. « Si les négociations climatiques engendrent une suppression progressive équitable et rapide des énergies fossiles, accélèrent l’atténuation et soutiennent les efforts d’adaptation en matière de santé, l’ambition de l’Accord de Paris de limiter le réchauffement mondial à 1,5°C reste atteignable, tout comme un avenir sain et prospère », analyse-t-elle.

Mourir de la chaleur n’est plus exceptionnel

Les personnes âgées meurent de plus en plus de la chaleur. Le nombre de décès lié aux hautes températures observé chez les plus de 65 ans a en effet augmenté de 85 % entre 2013 et 2022, comparé à la période 1991-2000. En l’absence de changement climatique et en ne comptabilisant que l’évolution démographique, la hausse n’aurait été que de 38 %, partage le Lancet Countdown.

La mortalité due à la chaleur devrait s’amplifier. D’ici 2050, le monde pourrait connaître une hausse de 370 % de ces décès dans le cas d’un réchauffement climatique limité à 2°C. D’ici la fin du siècle, l’augmentation atteindrait même 683 %. Si les hommes et les femmes comptent sur la protection de leur système de santé pour se protéger des effets du changement climatique, ils pourraient néanmoins être déçus. En effet, le réchauffement actuel de 1,14°C par rapport à l’ère préindustrielle met déjà à rude épreuve certains systèmes de santé. « 27 % (141/525) des villes interrogées s’inquiètent à l’égard des systèmes de santé qui sont dépassés par les conséquences du changement climatique », relève le rapport.

La chaleur met également en péril le système économique. « L’exposition à la chaleur a aussi provoqué la perte de 490 milliards d’heures de travail potentielles à l’échelle mondiale en 2022 », calculent les auteurs. La hausse atteint quasiment 42 % par rapport à la dernière décennie des années 1900.

La mortalité liée à la chaleur va encore augmenter

Si la hausse des températures atteint 2°C à la fin du siècle, les décès liés à la chaleur devraient augmenter de 370 % d’ici 2050. « L’exposition à la chaleur devrait accroître de 50 % le nombre d’heures de travail potentielles perdues à l’échelle mondiale », abonde le rapport.

La hausse de la température s’accompagnera en plus du renforcement de l’insécurité alimentaire et hydrique, ainsi que de l’accélération de la diffusion des maladies infectieuses mortelles, comme les maladies diarrhéiques ou la dengue. En parallèle, la multiplication des événements climatiques extrêmes finira d’amplifier les risques. « Nous devons nous attacher à la prévention primaire et traiter les causes profondes du changement climatique, en accélérant rapidement l’atténuation dans tous les secteurs d’activité afin de garantir que l’ampleur des dangers pour la santé ne dépasse pas la capacité d’adaptation des systèmes de santé », prévient Stella Hartinger, directrice du centre régional Lancet Countdown pour l’Amérique latine.

Techniques de l’Ingénieur soutient la 12ᵉ édition de la Semaine de l’industrie

La Semaine de l’Industrie met en lumière le monde de l’industrie, de l’innovation et de la technologie française, à travers différentes animations : job dating, visites d’entreprises et des établissements de formations, ateliers, escapes games, webinaires… Cette édition 2023 a pour thème “Avec l’industrie, fabrique ton avenir”. L’objectif  est de faire la démonstration, à ceux qui en douteraient encore, d’un secteur innovant et engagé dans la décarbonation.

La semaine de l’industrie vue par Techniques de l’Ingénieur

Pour l’occasion, Techniques de l’Ingénieur, à travers une série de livres blancs ou d’articles de ressources documentaires ouverts gratuitement, vous montre comment les industriels agissent, vous ouvrent les portes des usines, des bureaux d’études et des arcanes de la R&D. 

Commençant par la visite d’un site de production aéronautique, où sont abordés des défis majeurs : l’industrie du futur, ses métiers, la maîtrise des impacts environnementaux, la décarbonation ou encore l’utilisation de ChatGPT ! 

Une semaine de 7 jours….7 articles à lire !

Les articles de ressources documentaires :

(Pour accéder à l’article, cliquez sur le lien puis sur le bouton « Libre Accès » en haut de la page.)

Les fiches pratiques :

Les livres blancs :

Transport de demain : l’intelligence au service de l’environnement

En tout premier lieu, l’avènement programmé du véhicule électrique ne va pas sans poser certaines questions. Aujourd’hui, le prix des véhicules électriques, très supérieur à celui des automobiles thermiques, reste prohibitif pour beaucoup d’usagers. Bien sûr, on peut tabler sur une baisse progressive de leur prix. Cependant, l’amélioration des performances, notamment en ce qui concerne l’autonomie des véhicules, avec de nouvelles générations de batteries, aura tendance à tirer les prix vers le haut. Il est actuellement difficile d’évaluer quel sera, sans subventions, l’investissement réel lié à l’acquisition d’un véhicule électrique en 2035.

Qui plus est, d’ici là, le paysage des transports devrait être bouleversé. Les infrastructures liées à l’électrification des transports sont déjà déployées à grande échelle, et cela va s’accélérer. Entre 45 000 et 60 000 nouveaux points de charge devraient voir le jour, d’ici à 2025, uniquement pour les transports de marchandises électrifiés. Si la fourniture d’électricité relative à ces nouveaux modes de transports n’inquiète pas RTE pour le moment, la situation apparaît plus incertaine sur le long terme, notamment après 2035.

Différentes technologies au service de transports plus performants

Pour limiter l’impact écologique des transports dans le futur, il est impératif de rendre ces derniers plus efficients. Différentes technologies peuvent être mises en œuvre pour cela. L’intelligence artificielle en fait partie. Le déploiement actuel de la connectivité des véhicules, entre eux et avec l’infrastructure routière, permettra, grâce à l’intelligence artificielle, de bénéficier de transports individuels et collectifs plus performants : gestion des congestions routières, régulation du trafic, optimisation des trajets et de la consommation énergétique des véhicules… Toutes ces améliorations offrent un meilleur service aux usagers, en même temps qu’elles optimisent la consommation énergétique globale du secteur des transports.

Autre élément fondamental pour le futur des transports, l’intermodalité, qui consiste à utiliser plusieurs modes de transports lors d’un même trajet. Cela permet de gérer plus efficacement les flux, d’usagers ou de marchandises, et donc d’optimiser l’énergie nécessaire pour les déplacements.

Les transports collectifs et le covoiturage sont également des leviers forts qui sont déjà développés et encouragés actuellement, et qui vont devenir incontournables dans le paysage des transports d’ici à 2035. C’est déjà une réalité dans de nombreuses grandes villes françaises, ou d’importantes infrastructures aménagées pour mettre en place des lignes de bus, de tramways, permettent à ces derniers d’évoluer sur des voies de circulation quasi privatisées. A l’heure actuelle, ces voies, en ce qui concerne les bus par exemple, sont au contact direct des voies de circulation pour les véhicules privés, mais cela devrait évoluer. Et cela a son importance, car l’autonomisation des transports nécessite pour le moment l’utilisation de voies dédiées, pour des questions de fiabilité et de sécurité. Le déploiement de navettes autonomes, en Norvège par exemple, laisse penser que le chemin vers des transports collectifs autonomes passera par la mise en place de ces dispositifs sur des voies réservées. En France, 100 à 300 navettes autonomes devraient être mises en place d’ici à 2030.

Pour conclure, si le chemin qui mène à la neutralité carbone des transports en 2050 passe par des ruptures technologiques – déjà engagées – sur les modes de propulsion des véhicules, une révolution des usages, plus performants et intelligents, doit se développer simultanément.

Croissance nécessaire des réseaux de chaleur

La fédération des services énergies environnement (Fedene) regroupe sept syndicats dont le SNCU (syndicat national du chauffage urbain et de la climatisation urbaine). Elle réalise chaque année une enquête pour faire l’état des lieux des réseaux de chaleur et de froid, depuis les années 1980. Ces réseaux, principalement urbains, permettent d’alimenter en chaleur des bâtiments résidentiels et tertiaires, et dans une moindre mesure en refroidissement. Réalisée désormais en partenariat avec l’association Amorce, cette enquête fournit une base de données unique en Europe. Elle est d’ailleurs supervisée par le Service de la donnée et des études statistiques du ministère de la Transition énergétique.

La bonne connaissance du niveau de développement des réseaux de chaleur et de froid est importante : elle permet de vérifier la décarbonation progressive des moyens collectifs de production de chaleur/froid, ces derniers étant nécessaires pour compléter les solutions d’électrification.

Plus de 66 % de chaleur renouvelable dans les réseaux

« Par rapport aux années passées, le contexte est plus favorable au développement des réseaux de chaleur. Leurs avantages sont mieux reconnus et cela se ressent chez les professionnels du secteur qui ont deux fois plus de dossiers à l’étude qu’avant » déclare Yann Rolland, président du SNCU. En effet, les informations relevées par la Fedene montrent la poursuite du développement des réseaux de chaleur engagé depuis 10 ans. Le nombre de bâtiments raccordés est passé de 26 100 en 2012 à plus de 47 300 en 2022, soit une multiplication par 1,8. L’allongement de la longueur des réseaux est un peu plus fort, avec une multiplication par 1,95, de 3 612 à 7 046 kilomètres. On compte ainsi 946 réseaux de chaleur qui ont délivré 26,3 TWh de chaleur en 2022, un peu moins qu’en 2021 à cause de conditions climatiques moins rigoureuses. Pour les réseaux de froid, au nombre de 40, les chiffres sont moindres mais tous en augmentation : 1 563 bâtiments sont raccordés sur 250 km de réseaux, pour 1 TWh livré.

Autre avancée majeure des réseaux, leur décarbonation. Désormais, 66,5 % de la chaleur qu’ils livrent provient des énergies renouvelables et de récupération (EnR&R). Les trois principales sont la géothermie (5,4 %), la biomasse (25,5 %) et la récupération de chaleur des incinérateurs de déchets (30 %). Les émissions de gaz à effet de serre des réseaux ont ainsi diminué puisque leur contenu carbone, en analyse de cycle de vie, est passé de 200 à 112 gCO2/kWh en 10 ans. « Il faut poursuivre cette décarbonation, d’autant plus que les prochains objectifs nationaux de la programmation pluriannuelle de l’énergie [PPE] vont nous inciter à viser 80 % d’EnR&R en 2035. Pour y arriver, les collectivités souhaitant faire de la géothermie doivent voir leurs projets sécurisés, le bois-énergie utilisé de manière collective doit être prioritaire sur les usages individuels et la chaleur fatale industrielle – encore trop peu utilisée – doit bénéficier d’un fonds de garantie et de financements supplémentaires pour relier les sites industriels aux réseaux urbains » poursuit Yann Rolland.

Porter le Fonds Chaleur à plus de 2 milliards d’euros par an

Cependant, la croissance des réseaux ne suffit pas à atteindre les objectifs fixés par l’État. En corrigeant les données des conditions climatiques, le rythme actuel conduirait à être inférieur aux volumes de chaleur renouvelable souhaités en 2023 (20,6 contre 24,4 TWh) et en 2028 (26,3 contre 31-36 TWh en 2028). Comme les objectifs vont être rehaussés dans le cadre de la prochaine PPE – probablement à hauteur de 50 TWh en 2030 et 70 TWh en 2035 –, une forte accélération va être nécessaire.

Evolution de la chaleur renouvelable livrée par les réseaux urbains
Au rythme actuel, la chaleur renouvelable livrée par les réseaux urbains n’atteindra pas les objectifs de la programmation pluriannuelle de l’énergie (PPE) Source : FEDENE

« Deux conditions vont permettre d’augmenter les réseaux de chaleur, estime Yann Rolland. Il faut tout d’abord poursuivre la hausse du Fonds Chaleur qui aide les projets. On est passé de 350 M€ en 2021 à presque 600 M€ cette année. 820 M€ devraient y être consacrés en 2024. À terme, il faut viser plus de 2 milliards d’euros par an, notamment pour pouvoir soutenir les petites et moyennes collectivités. Ensuite, il serait utile de rendre obligatoire l’élaboration de plans chaleur à l’échelle des territoires : les acteurs locaux pourraient ainsi identifier les ressources locales pour bénéficier de chaleur renouvelable collective ».

Globalement, il est aussi nécessaire de densifier les réseaux en raccordant plus de bâtiments. On estime que les nouveaux objectifs pour 2030-2035 nécessiteraient de raccorder 300 000 à 360 000 logements par an, contre 160 000 par an actuellement. Une des solutions techniques proposées par les professionnels pour y arriver est de créer des boucles d’eau chaude secondaires qui permettraient de relier aux réseaux existants des bâtiments actuellement équipés de chauffages individuels. Le défi est de taille mais vaut la chandelle économiquement pour les consommateurs. Selon une enquête d’Amorce, la facture en chauffage et eau chaude sanitaire d’un logement est moins élevée s’il est raccordé à un réseau de chaleur : le coût global est ainsi 20 % moins cher par rapport à une chaudière gaz, 40 % moins cher qu’un chauffage individuel électrique, et 50 % moins cher qu’une chaudière fioul (données 2021).

La fin du véhicule thermique, acte de naissance du transport décarboné

Pour autant, cette interdiction, qui prendra effet 15 ans avant l’horizon fatidique de 2050, n’a pas fait l’objet d’un consensus global, c’est le moins que l’on puisse dire. Les Etats membres semblaient initialement majoritairement en accord sur l’arrêt de la production de véhicules thermiques en 2035, comme le laissait penser la validation de la loi consacrée à cette ambition, le 14 février dernier. A partir de là, la validation définitive du texte de loi par le conseil de l’Union Européenne n’aurait dû être qu’une simple formalité… mais il n’en fut rien. En effet, le 10 mars dernier, l’Allemagne, à la surprise de beaucoup, s’est jointe aux trois seuls pays qui affichaient des réticences quant à la validation de cette loi, à savoir l’Italie, la Pologne et la Bulgarie. Un mois de bras de fer plus tard, le texte validant la fin de la production des véhicules thermiques d’ici à 2035 est finalement validé par l’ensemble des pays membres. L’Allemagne a accepté de valider l’accord, ayant obtenu ce qu’elle désirait, à savoir un aménagement spécifique autorisant, après 2035, l’utilisation de carburants synthétiques pour les véhicules thermiques.

Si les contours législatifs de cet aménagement ne sont pas encore définitifs, l’enjeu est lui de taille, puisqu’il autorise la poursuite de la production de véhicules thermiques après 2030, à la condition que ces derniers fonctionnent avec des carburants de synthèse. La pertinence écologique de ces carburants fait aujourd’hui débat : que ce soit à partir d’hydrogène vert ou d’électricité bas carbone afin d’obtenir du méthanol, la production des carburants de synthèse se révèle extrêmement chère, et leur usage sera donc très limité.

Quoi qu’il en soit, l’Europe est donc bel et bien engagée sur une interdiction des véhicules thermiques à horizon 2035. Le choix de cette date ne doit rien au hasard : la durée de vie des véhicules thermiques étant estimée à une quinzaine d’années, on retombe sur la disparition de ces véhicules pour 2050, qui correspond à la date à laquelle l’UE vise la neutralité carbone.

En France, la stratégie nationale bas carbone – SNBC – définit les orientations stratégiques concernant chaque secteur industriel de façon à parvenir à une société décarbonée en 2050. La SNBC définit la feuille de route à suivre, par étapes, pour atteindre ce résultat. En ce qui concerne les transports, l’objectif pour 2030 est de réduire les émissions de gaz à effet de serre de 28% par rapport à 2015. Cette ambition couvre l’ensemble des moyens de transport, à l’exception du transport aérien. 

Comment y parvenir ? La SNBC liste quatre leviers d’actions. D’abord, l’amélioration de la performance énergétique des véhicules légers et lourds, avec un objectif de consommation de 4 litres pour 100 km concernant les véhicules thermiques utilisés par les particuliers. 

Le second levier concerne l’électrification des véhicules et le développement des infrastructures inhérentes au fonctionnement de cette flotte de véhicules décarbonés. En termes de chiffres, le gouvernement espère atteindre 35% de ventes de véhicules particuliers neufs électriques ou à hydrogène en 2030, et 100% en 2040. 

Troisième point, la maîtrise des besoins de transport : optimisation de l’utilisation des véhicules, covoiturage, télétravail… en bref, il faut limiter autant que possible la demande pour le transport.

Enfin, la SNBC vise à transférer les usages vers des modes de transports sobres, en ce qui concerne les personnes comme les marchandises : les deux modes de transports à privilégier sont donc les transports en commun et le vélo pour les personnes, et le train pour les transports de marchandises.

Si l’horizon 2035 peut paraître encore éloigné, de nombreux constructeurs automobiles se sont déjà engagés sur des objectifs cohérents avec ceux de l’UE. Citons Audi, qui annonce achever sa transition vers le 100% électrique pour 2033, ou Renault, qui affiche l’ambition de proposer une flotte composée à 90% de véhicules électriques pour 2030.

Par Pierre Thouverez

L’« Atlantification » de l’océan Arctique lié à un phénomène météorologique

Depuis des décennies, l’océan Arctique se réchauffe plus rapidement que la température moyenne des océans du reste du monde. Cette situation s’explique en partie par l’« atlantification » de l’Arctique, c’est-à-dire par des courants d’eau plus chaude et relativement salée venant de l’Atlantique Nord qui se déplacent vers l’Arctique. Le processus mis en œuvre est complexe et implique des interactions entre le système atmosphère-océan, mais son origine était jusqu’ici mal connue. Dans une étude publiée dans la revue Science, des chercheurs regroupant notamment ceux de l’université de l’Alaska de Fairbanks, révèlent que ce phénomène est lié à un facteur météorologique appelé le dipôle arctique.

Mis en lumière pour la première fois au milieu des années 1990, le dipôle arctique désigne un schéma de circulation atmosphérique qui se caractérise par des différences de pressions atmosphériques entre plusieurs régions de l’hémisphère nord. Il produit une configuration des vents qui génère des courants océaniques supérieurs qui ont des effets tout au long de l’année sur la température de l’air de la région, les échanges thermiques atmosphère-glace-océan, la dérive des glaces, ainsi que des conséquences biologiques. Les auteurs de cette étude ont identifié que les sens de circulation des vents ont pour effet de limiter ou alors de favoriser le déplacement des courants d’eau plus chaude vers l’Arctique.

Selon eux, le dipôle arctique actuellement à l’œuvre se déroule selon un schéma qualifié de positif. Il se caractérise par des hautes pressions sur la partie canadienne de l’Arctique et crée des vents dans le sens des aiguilles d’une montre. En parallèle, un système dépressionnaire est centré sur l’Arctique sibérien, avec des vents qui circulent dans le sens inverse des aiguilles d’une montre. Ce schéma provoque une diminution du débit de l’océan Atlantique vers l’océan Arctique via le détroit de Fram à l’est du Groenland, ainsi qu’une augmentation du débit atlantique dans la mer de Barents, située au nord de la Norvège et à l’ouest de la Russie. Au final, cette configuration a un effet positif et permet de ralentir le déversement d’eau plus chaude vers l’Arctique et donc de limiter la fonte de la banquise.

Le dipôle arctique pourrait à nouveau avoir un impact négatif prochainement

Grâce à l’analyse d’une multitude de données, notamment des observations instrumentales directes, des produits de réanalyse et des informations satellitaires remontant à plusieurs décennies, les scientifiques sont parvenus à démontrer que le dipôle arctique alterne selon un cycle d’environ 15 ans et que le cycle actuel a démarré en 2007. Depuis cette date et jusqu’en 2021, il a donc contribué à réduire le déclin de la glace de la mer arctique par rapport à la période précédente allant de 1992 à 2006. Ces dernières années, il apparaît que l’épaisseur que la couche d’eau froide de l’océan Arctique en surface a augmenté, la rendant trop épaisse et trop stable pour se mélanger avec l’eau plus chaude et salée qui circule en dessous et en provenance de l’Atlantique. Cette couche d’eau froide et moins dense empêche actuellement l’eau de mer plus chaude de faire fondre la glace.

Mais selon les chercheurs, le cycle actuel approche très probablement de sa fin et ils estiment que le dipôle arctique pourrait passer en mode négatif prochainement et donc avoir pour effet de participer à l’accélération de la fonte de la glace. « Nous avons dépassé le sommet du régime dipolaire arctique actuellement positif, et il pourrait s’inverser à tout moment, déclare Igor Polyakov, l’auteur principal de cette étude. Cela pourrait avoir des répercussions climatologiques importantes, notamment une perte de glace dans la mer potentiellement plus rapide dans les systèmes climatiques arctiques et subarctiques. »

Samp : du jumeau numérique à la « Réalité Partagée »

Pour y parvenir, c’est le concept même de « jumeau numérique » que Samp a voulu faire évoluer par le biais de sa solution de Réalité Partagée. Grâce aux algorithmes d’intelligence artificielle qu’elle a développés, l’entreprise née il y a quatre ans de la rencontre de Shivani Shah et de Laurent Bourgouin se révèle en effet capable de transformer en l’espace de quelques jours seulement le nuage de points issu de la numérisation 3D d’un site industriel en un modèle tridimensionnel riche de sens, dans lequel chaque organe constitutif de l’installation est précisément localisé et clairement identifié, et ce, automatiquement.

En complément, une technologie de « streaming 3D » également mise au point par la jeune pousse employant aujourd’hui 23 personnes permet de rendre ces informations accessibles au plus grand nombre dans les meilleures conditions possibles, de l’exploitant jusqu’à l’opérateur de terrain, en passant par l’ingénieur en charge des opérations de maintenance et de modernisation.

Alors qu’elle compte déjà plusieurs dizaines de sites utilisant sa solution SaaS en Europe, et espère franchir le seuil de la centaine d’ici peu, Samp prépare une levée de fonds visant à accélérer son développement commercial à l’échelle internationale, mais aussi à accompagner la maturation d’une solution complémentaire actuellement en phase de bêta-test, comme nous le dévoile son CEO et cofondateur, Laurent Bourgouin.

Techniques de l’Ingénieur : Vous êtes cofondateur et dirigeant de Samp. Quel est le parcours qui vous a amené à vous lancer dans cette aventure entrepreneuriale ?

Laurent Bourgouin, CEO et cofondateur de Samp
Ingénieur en mécanique, diplômé de l’École Centrale, le CEO et cofondateur de Samp, Laurent Bourgouin nourrit depuis de nombreuses années un intérêt pour les systèmes virtuels dédiés à la préparation d’opérations bien réelles.

Laurent Bourgouin : Cela fait presque 20 ans que je travaille dans le domaine de l’industrie de process, principalement dans les secteurs de l’eau et de l’énergie. Je suis, au départ, ingénieur en mécanique, diplômé de l’École Centrale. J’ai fait une thèse en Australie, centrée sur la modélisation 3D de systèmes complexes. J’avais donc, déjà à l’époque, un intérêt pour les systèmes virtuels permettant de préparer des actions à mener dans le monde réel… J’ai ensuite travaillé pendant de nombreuses années dans le domaine de l’inspection-maintenance de sites industriels, puis dans le domaine de l’ingénierie et du design de leur modernisation. Plus récemment, mon parcours a pris un tournant un peu plus « numérique », puisque j’ai travaillé chez l’éditeur de logiciels Dassault Systèmes, en tant que directeur technique en charge des solutions pour la branche Energy, Process & Utilities.

Pendant toutes ces années, j’ai pu constater – tristement – le retard technologique pris par l’industrie lourde. Cela fait plusieurs années, voire plus d’une décennie, que l’on parle de l’industrie 4.0… Or, ce concept peine à prendre forme au sein des sites de cette branche.

J’ai moi-même été confronté à de nombreuses situations d’inspection-maintenance et de modernisation dans lesquelles les plans papier étaient encore légion. Des plans très souvent pas à jour, avec tous les problèmes que cela peut poser ! J’ai notamment eu à faire face à un accident industriel mortel directement lié à cela. Cela a naturellement renforcé ma volonté de faire adopter des solutions technologiques plus fiables à ces industries. Les grands acteurs d’alors avaient toutefois du mal à se réinventer. Je me suis donc dit que cela ne pourrait se faire que par le biais d’une start-up… C’est ainsi que je me suis lancé il y a quatre ans dans l’aventure entrepreneuriale Samp.

Cela a débuté dans le cadre d’un programme d’incubation – Entrepreneur First – une sorte de speed-dating entrepreneurial qui m’a permis de rencontrer mon associée et cofondatrice Shivani Shah. Shivani avait quant à elle réalisé une thèse au sein du Commissariat à l’énergie atomique (CEA), consacrée aux questions de l’intelligence artificielle et du big data. Elle avait donc une connaissance très pointue de ces technologies, sans avoir en revanche d’idée précise de la manière de les mettre à profit pour un usage qui ait du sens.

Nous nous sommes donc rencontrés dans le cadre de ce programme. J’arrivais avec mon besoin industriel et mon envie de faire bouger les choses sans savoir quelle technologie utiliser, et elle détenait la techno sans besoin précis à mettre en face… La rencontre s’est donc révélée fructueuse et c’est ainsi que tout a commencé.

Quelles ont été les principales étapes des travaux de R&D que vous avez menés ?

Samp, Laurent Bourgouin et Shivani Shah, programme Entrepreneur First
Samp est née de la rencontre de Laurent Bourgouin et de Shivani Shah dans le cadre du programme Entrepreneur First.

Comme je l’évoquais, le plus gros enjeu des sites industriels qui ont besoin de se transformer – notamment en réponse à l’urgence climatique – consiste à avoir des données à jour. Or, seules les données de terrain garantissent, par essence, d’avoir des informations à jour. C’est pour cela que nous prenons pour point de départ le scan 3D des installations, une technologie qui s’est nettement améliorée et accélérée ces dernières années. Cette matière première, acquise par nos partenaires, nous permet d’avoir entre les mains la réalité du terrain.

Nos travaux de R&D ont ainsi consisté, en premier lieu, à entraîner des modèles d’IA 3D, un peu à l’image de ce que font les voitures autonomes pour détecter les objets dans leur environnement. Nous avons donc engrangé de grandes quantités de données pour entraîner des réseaux de neurones afin qu’ils soient capables, via le machine learning et des approches géométriques, de donner un sens à ces numérisations 3D. C’est-à-dire de détecter et identifier des éléments tels que des tuyaux, des pompes, des vannes ou encore des réservoirs.

Nous avons par ailleurs réalisé un autre gros travail de R&D sur ce que nous appelons le « Netflix de la 3D industrielle » : un système de streaming 3D qui permet au client d’accéder où qu’il soit au scan 3D de son site industriel, ce de manière fluide malgré une connexion internet souvent déficiente et un matériel qui se limite généralement à de simples ordinateurs prévus pour des tâches de bureautique.

Voilà les deux premiers pans de notre activité de R&D, que nous poursuivons d’ailleurs toujours aujourd’hui. Mais à cela s’ajoute désormais un troisième axe, qui commence à prendre forme, et qui concerne quant à lui la mise en relation des éléments du modèle 3D avec les schémas fonctionnels existants – que l’on nomme P&ID, pour piping and instrumentation diagram –, à des fins de comparaison. Ceci nous a amenés à déposer un brevet portant sur cette solution qui permet de mettre au jour les différences entre la réalité du terrain révélée par les scans et le « tel que documenté » de schémas bien souvent pas à jour.

Samp met en relation des éléments du modèle 3D avec les schémas fonctionnels existants
Outre l’identification en tant que telle des éléments constitutifs d’une installation industrielle, Samp travaille à la mise en relation des éléments du modèle 3D avec les schémas fonctionnels existants.

À quelle solution, très concrètement, ces travaux de R&D ont-ils permis de donner naissance ?

Nous parlons d’une solution de « Réalité Partagée ». Cette solution permet d’offrir à tous les acteurs d’un site – exploitants, ingénieurs, responsable santé-sécurité, et même opérateurs finaux – une vision que l’on qualifie de « 1D-2D-3D » : 3D pour l’accès au scan lui-même, 2D pour les schémas et plans, 1D pour la décomposition en listes arborescentes des équipements.

Pour faire le lien entre ces trois aspects, notre solution part d’un nuage de points, d’une part, et d’autre part des données du système d’information du site auquel nous nous connectons pour y récupérer les fameux schémas, ou « P&ID » que j’évoquais. C’est là que la magie opère ! (Rires) Nos algorithmes viennent découper le nuage de points en objets, puis relier ces tuyaux, vannes et autres pompes, à ceux qui figurent sur les schémas. Le résultat de ce traitement est, in fine, exposé sur le portail web de Réalité Partagée que nous avons développé et qui permet au client d’accéder au jumeau numérique de son installation.

Le pari que nous avons fait, et que nous sommes aujourd’hui en mesure de tenir, est de livrer les résultats du traitement du scan 3D d’un site en l’espace de quelques jours seulement, là où des solutions de CAO ou de BIM[1] plus conventionnelles peuvent prendre des mois, voire des années à se mettre en place, avec donc le risque qu’elles ne soient déjà plus à jour au moment de leur mise à disposition du client.

Samp, éléments détectés par l'IA
Tuyaux, pompes, vannes et autres réservoirs sont automatiquement détectés grâce à l’IA et identifiés, donnant ainsi du sens en quelques jours seulement aux numérisations 3D.

Quels marchés visez-vous ?

Notre cœur de métier concerne pour l’heure l’industrie de process, en particulier l’eau et l’énergie. Or ces sites utilisent tous des équipements de même nature. La taxonomie de ces équipements est donc très bien couverte par notre solution, qui bénéficie d’un très bon taux de reconnaissance, d’autant plus que la qualité des scans que nous recevons est de plus en plus impressionnante ! En outre, les capacités de reconnaissance de nos algorithmes sont bien plus larges et nous permettent donc d’aller vers d’autres marchés tels que les mines, la chimie, la pharma ou la marine qui disposent d’équipements plus spécifiques. Il nous suffit pour cela d’entraîner nos algorithmes sur quelques jeux de données supplémentaires. Notre technologie permet par ailleurs de travailler aussi bien sur des sites en extérieur comme en intérieur.

Quels sont les principaux avantages et intérêts de votre solution pour les acteurs de ces différents marchés ?

Le premier grand intérêt de notre solution est qu’elle permet de réconcilier les acteurs de terrain et l’ingénierie, les « cols bleus » et les « cols blancs ». L’heure est en effet à la modification en continu des sites industriels. Il y a donc un besoin constant de faire travailler ensemble exploitants et ingénieurs pour avoir des données à jour. Certains de nos clients nomment ainsi notre solution « la pierre de Rosette » ! Elle permet en effet à des gens pratiquant historiquement un langage différent de parler enfin la même langue.

Au-delà de cet aspect fondamental, les grands cas d’usages dans lesquels notre solution révèle ses intérêts sont axés autour de la préparation d’interventions : maintenance, grands travaux… Nous sommes capables d’écourter de plusieurs mois la durée d’un chantier.

Un autre intérêt majeur est celui de la sécurité : comme je le dis souvent, notre objectif est de « faire bon du premier coup », plutôt que d’effectuer de mauvaises manipulations, potentiellement risquées, basées sur des hypothèses erronées, et non pas la réalité du terrain.

Ces intérêts convergent naturellement vers un ultime avantage, de nature économique quant à lui : le prix d’une erreur matérielle, ou de l’indisponibilité d’un site – ne serait-ce que l’espace d’une journée – se comptent en effet en centaines de milliers d’euros.

Enfin, un ultime avantage, notamment dans le cadre de délégations de service public, est celui de la transparence. Les concessionnaires peuvent en effet expliquer à la collectivité comment ils vont travailler, quel est leur plan de maintenance et de gestion patrimoniale du site. Ceci s’illustre notamment au travers de l’expérience de l’un de nos plus importants clients : SUEZ.

SUEZ, avec qui vous avez justement signé un partenariat il y a peu… Quelles perspectives cela ouvre-t-il pour vous ?

SUEZ a fait partie des premiers à croire en notre solution. Nous avons donc mené nos premiers tests avec eux dès 2020, sur une vingtaine de sites, pendant près de deux ans. Il y a quelques semaines, à la fin de l’été, nous avons effectivement signé un gros contrat avec la direction de SUEZ Eau France qui va nous permettre de déployer plus largement encore notre solution, potentiellement sur tous les sites SUEZ en France… Outre l’eau, les autres business units de SUEZ commencent en effet à s’intéresser à notre solution, notamment pour la valorisation énergétique de déchets, secteur qui fait face aux mêmes problématiques. Notre potentiel d’expansion pourrait d’ailleurs également s’étendre à l’étranger. Nous avons ainsi ouvert il y a quelques mois un bureau au Royaume-Uni, où le domaine des infrastructures d’eau est un énorme sujet. Nous avons déjà beaucoup de demandes. Nous visons également tous les pays limitrophes à la France : Espagne, Italie… Les problèmes liés aux installations vieillissantes sont véritablement internationaux.

Dans le prolongement de notre solution de Réalité Partagée, nous nous apprêtons à sortir un module complémentaire, basé cette fois sur un concept de « Réalité Générée ». Cette brique supplémentaire cible les entités d’ingénierie. Elle va en effet leur permettre de produire des livrables tels que des inventaires ou des fichiers CAO, utilisables ensuite pour préparer, par exemple, les opérations de modernisation d’un site. La solution est pour l’heure disponible en bêta, et nous sentons déjà une forte demande.


[1] Building information modeling : modélisation des données du bâtiment / de la construction.

Jean-Luc Viruéga : promouvoir la traçabilité pour mieux valoriser les services

Techniques de l’Ingénieur : Pouvez-vous revenir sur votre parcours professionnel ?

Jean-Luc Viruéga :La crise de l’ESB[1], survenue alors que j’étais en dernière année d’études d’ingénieur en génie industriel[2], a été pour moi l’occasion d’une première approche du domaine de la traçabilité.

À cette époque, je souhaitais suivre un DEA[3], parallèlement à ma dernière année d’école, toujours en génie industriel et j’ai enchaîné ensuite avec un doctorat en génie industriel. J’ai donc travaillé sur la traçabilité appliquée à trois grandes crises : les produits du sang contaminé par le virus du sida, l’ESB, les OGM et les polémiques liées. Cette formation par la recherche – et non pour la recherche – m’a permis de me spécialiser dans ce domaine.

J’interviens soit dans l’objectif d’améliorer une situation, de développer et intégrer de nouvelles technologies, soit en cas de litiges, de rappels de produits, de non-conformité et lorsque mon expertise judiciaire est requise.

Par ailleurs, je continue le monitorat. J’enseigne à des professionnels, des étudiants et j’organise des formations ou participe à des conférences.

Qu’est-ce qui vous a amené à vous intéresser à la traçabilité ?

Compte tenu des normes de qualité[4] imposées à l’industrie, la traçabilité figurait au programme de mes études. J’avais un peu étudié le sujet à l’école et plus concrètement lors de stages sur les produits industriels.

Des sujets transversaux – tels que la gestion de production, l’assurance qualité ou le management de la qualité et des ERP[5] – me passionnaient également. À cette époque[6], la traçabilité était peu connue et concernait essentiellement l’industrie du secondaire. Mise au grand jour via la crise de la viande bovine, elle s’est révélée un sujet digne d’intérêt, constituant même une demande sociétale, publique, réglementaire et pas seulement technique, puis est devenue une obligation pour l’industrie.

À cette époque, la combinaison de flux d’information, à travers le digital naissant, et d’un produit par exemple me captivait déjà, d’autant plus que cette notion pouvait être transposée à tous les secteurs.

Comment la définissez-vous ?

En conférence, au travail, ou en cours, je ne peux montrer ni d’exemple, ni d’échantillon, ni de maquette de traçabilité. Elle n’est pas uniquement physique, mais doit s’adjoindre des termes complémentaires pour être mieux qualifiée.

L’expression « système de traçabilité », déclinée en une approche systémique, me semble ainsi la plus pertinente. Elle ne doit pas, par ailleurs, être réduite à une seule technologie de marquage et de gestion de l’information impliquant des logiciels, mais tenir compte d’une organisation et d’un contexte physique, avec des matières entrantes et sortantes comportant des informations, comme la marque d’un fabricant.

Un système de traçabilité sert essentiellement lorsque des crises éclatent. Il est souvent mis en place suite à des problèmes liés à des produits défectueux et susceptibles de créer des dommages. Il se traduit par la gestion et la diffusion d’informations sur des lots, permettant d’enclencher le rappel ou le retrait de produits de la vente.

Hors crise, des systèmes de traçabilité sont mis en place depuis longtemps. C’est par exemple une étiquette certifiant le bon étalonnage des postes de station essence, ou encore des mentions environnementales ou d’origine pour un produit. Sans la traçabilité, il n’y aurait pas d’information fiable.

Toutes les chaînes de fabrication, les filières et les secteurs sont concernés. Depuis le 31 mai 2023 par exemple, un fabricant de produits en bois doit indiquer les coordonnées de la parcelle de provenance pour justifier que ce produit n’est pas issu de la déforestation.

La traçabilité a aussi une dimension internationale, à travers des sujets tels que le commerce équitable ou le travail des enfants notamment.

Je travaille à la mise à jour d’un article de ressources documentaires des Techniques de l’ingénieur sur la traçabilité dans la RSE et le développement durable. Cet article porte sur le système de traçabilité positive permise grâce aux efforts apportés tout le long de la chaîne d’approvisionnement. Ce processus aboutit à des informations valorisantes sur les produits mis en vente, quel que soit le niveau où on se place, professionnel ou consommateur final. L’information y est prouvée par le système de traçabilité et peut être contrôlée par un organisme public ou privé.

Au-delà de cette garantie du produit de consommation, le QR code posé sur de nombreux produits de consommation raconte le cycle de vie d’un produit, de son élaboration à sa consommation. Il permet au consommateur d’affirmer ses convictions à travers ses choix d’achats et non plus de subir l’asymétrie d’information démontrée par Georges Akerlof[7]. Le besoin de processus certifiant la qualité a donné naissance à différents labels.

Comment la traçabilité a-t-elle pris une place centrale dans votre travail ?

Les trois crises déjà évoquées ont révélé la nécessité, pour toute entreprise et pas uniquement du secteur alimentaire, d’une traçabilité, notamment en raison des enjeux de santé humaine.

La déclinaison sur le terrain industriel des textes de loi relatifs à la traçabilité est une part importante de mon travail, certains problèmes revêtant même un traitement judiciaire. La modification d’une loi, d’une organisation, voire d’une composition, ou le rappel d’un produit peuvent nécessiter l’appui d’un conseil extérieur spécialisé en traçabilité.

Estimer le coût de la traçabilité est facile, évaluer son apport l’est moins, puisqu’il n’apparaît qu’en cas de problème. Pour résumer, la traçabilité coûte, mais son absence encore plus.

Depuis les crises sanitaires du sang contaminé et de l’ESB qui ont contribué à souligner l’importance de la traçabilité, de quelle façon le concept a évolué ?

La traçabilité, jusque-là soumise à la volonté des entreprises, est devenue une obligation pour tout produit alimentaire en Europe, par un règlement européen voté en 2002, et obligatoire au 1er janvier 2005 pour toute entreprise. L’obligation porte sur le résultat, pas les moyens mis en œuvre pour garantir la traçabilité. Des exigences normatives existent cependant, ainsi que des guides de bonnes pratiques.

Au-delà de la question de la sécurité sanitaire justifiant un rappel de produit, la traçabilité est à présent utilisée dès qu’une preuve doit être apportée sur la qualité de conception ou de fabrication d’un produit, son origine, son authenticité, son fonctionnement, ou pour prouver qu’il ne contient pas d’éléments nocifs.

Enfin, les systèmes de traçabilité s’accompagnent d’équipements ou de technologies, dont la nature n’est pas précisée par l’obligation législative. La difficulté est donc de déterminer la solution technique adaptée pour répondre à l’obligation réglementaire. Certains équipements n’évoluent donc pas parce qu’ils doivent se conformer à cette obligation.

Est-il pertinent de parler de frictions entre pression réglementaire et manque de traçabilité ?

Oui. L’obligation réglementaire pousse les entreprises à s’engager afin de garantir une meilleure sécurité. Traçabilité et responsabilité sont intimement liées. S’ajoutent à présent des problématiques environnementales qui impliquent de protéger la santé des consommateurs et de l’environnement. Le paradoxe et l’aspect contre-productif de la pression réglementaire peuvent être prégnants.

La pression réglementaire est légitime et son origine est liée à des abus, intervenus avant l’obligation de traçabilité. Est-elle peut-être trop présente ? L’équilibrage est difficile à trouver. Quoiqu’il en soit, en dépit d’une volonté bien présente des entreprises, cette obligation peut leur paraître imposante et contraignante en termes de financements.

Mon travail consiste à positiver une contrainte. Prise entre l’ingénieur et le juriste, la réponse à l’obligation réglementaire ne doit pas être apportée au détriment de la rentabilité ou de la souplesse de production. Les réflexions, analyses et études qui précèdent un changement d’organisation doivent minimiser l’impact sur la production. J’espère apporter cette valeur ajoutée. Mon travail me paraît essentiel lorsqu’il s’agit d’intégrer une nouvelle obligation de traçabilité. Il est l’occasion d’une remise à plat de la gestion des stocks ou d’une révision de la nomenclature, voire de l’ajout d’une mention valorisante.

Guidé par l’intérêt économique, le secteur de la logistique, par exemple, a gagné en fiabilité grâce au tracking, et ce sans pression réglementaire.

En conclusion, le niveau en traçabilité exigé est acceptable lorsqu’elle a un intérêt, mais parfois l’évolution n’aboutit qu’à force d’abondants textes réglementaires, de litiges, de procès ou encore de scandales dans les médias. Avant la crise de l’ESB, la traçabilité en alimentaire semblait impossible. Mais les événements dramatiques participent à modifier un ordre qui semble immuable, comme le démontre la théorie du cygne noir[8].

La traçabilité est-elle aussi importante pour les producteurs, les consommateurs, et les gouvernements ?

Elle est aussi importante, mais de nature différente. La mise en vente d’un produit engage la responsabilité de son producteur, voire d’un fournisseur.

Le consommateur attend un service. Le produit acheté lui appartient. Il conserve la preuve d’achat, l’emballage ou la garantie pour le produire en cas de problème, car il n’en est pas responsable.

Les pouvoirs publics se situent entre les producteurs qu’ils doivent défendre et les consommateurs pour lesquels ils doivent garantir la sécurité sanitaire. Les contrôles des douanes empêchent ainsi l’importation de produits dangereux. L’autorité publique a une responsabilité et une mission de régulation et de protection.

De la production à la distribution, la traçabilité est-elle bien intégrée, acceptée ?

Le point de vue du consommateur est un maillon important, mais mal tracé, de cette chaîne. Les factures devraient être conservées durant 5 ans. Elles sont à présent souvent numériques. En cas de problème, il faut aller chercher la preuve d’achat sur le bon relevé bancaire. Cette traçabilité n’est ni vraiment acceptée ni vraiment intégrée.

Concernant le distributeur, les systèmes de traçabilité sont bien intégrés. Cependant, si les produits de consommation courants, par exemple alimentaires, mentionnent la date limite de consommation, leur numéro de lot pourrait être ajouté, intégré au code-barre[9] ou dans le ticket de caisse. Un lot se révélant défectueux ou dangereux pourrait ainsi être bloqué en caisse. Faut-il attendre une obligation sur ce point aussi ?

Pour sa part, le producteur répond essentiellement à la contrainte réglementaire de traçabilité. Très ponctuellement, une mention d’origine sanitaire est ajoutée, comme le pays d’origine, par exemple. Entre l’obligation réglementaire formelle de résultat et la réponse technologique, les producteurs ne sont pas dans une position simple. Un problème d’interprétation ou de compréhension peut également s’ajouter. Les documents techniques de traçabilité restent rares, alors qu’ils pourraient contribuer à l’émergence des moyens à mettre en œuvre pour répondre aux obligations réglementaires de traçabilité.

Les producteurs qui ont le mieux intégré et accepté la notion de traçabilité sont ceux qui ont eu des problèmes. L’obligation de traçabilité est attendue par le consommateur, mais son incitation est perçue comme une contrainte supplémentaire au lieu d’être considérée comme un outil de facilitation. Mon travail consiste justement à transformer cette recommandation extérieure en un outil interne de pilotage de la production, avec comme objectif que la traçabilité soit mieux accueillie.

Comment faire de cet outil de contrôle de la qualité d’un produit une stratégie pour les entrepreneurs ?

D’une stratégie prospective peuvent se dégager des idées pour mettre en place et intégrer un système de traçabilité, qui pourra être valorisé en interne comme en externe. Certaines entreprises intègrent à leurs produits l’obligation de traçabilité, moyennant une augmentation de tarif infinitésimale. L’intégration obligatoire de traçabilité peut être l’occasion de valoriser un produit, avec par exemple une mention environnementale. Le produit est alors doté d’une dimension supplémentaire, comme une garantie ou une information jusque-là inexistante.

En production, l’intégration d’un système de traçabilité permet de mieux gérer les stocks par exemple. L’usage interne de la traçabilité pourrait être d’une grande aide stratégiquement parlant, via notamment la mise en place d’un système d’alerte en cas de défaut, avant la sortie d’usine.

Dans le cadre de mon travail, lorsque je suis sollicité pour des questions techniques, j’observe l’absence de stratégie en traçabilité, seul le niveau fonctionnel étant considéré. L’application d’une contrainte n’est pas une stratégie. Quand on me demande un conseil en stratégie, ma réponse porte sur l’objectif, puis j’amène l’échange sur le terrain de l’ingénierie et de l’analyse fonctionnelle. L’obligation en traçabilité ne décrit pas les moyens. Reste le résultat et le bon fonctionnement des moyens retenus.

Quels conseils adressez-vous à un ingénieur, un technicien ou un scientifique qui arrive sur le marché du travail ?

Quel que soit le parcours professionnel, la traçabilité en fait partie, par exemple à travers la rédaction d’un texte scientifique ou l’application d’un protocole expérimental. Pour un technicien, elle est présente dans le matériel technique, l’entretien, la maintenance, les EPI. Pour un ingénieur, elle est dans la gestion d’un projet. Je conseille de ne pas ignorer la traçabilité et d’en faire une compétence.

Il est aussi possible de faire son métier de la traçabilité, comme c’est mon cas, ou du lien à tisser avec la technologie ou le service visé. En maîtriser tous les aspects est presque impossible, même si elle est largement représentée dans la loi. Pour ma part, j’ai appris sur le tas, suivi des formations sur l’expertise judiciaire, et beaucoup travaillé avec des juristes.

Quels sont vos projets, actuels et futurs ?

J’ai souvent constaté un manque de documents sectoriels définissant les moyens d’application de la traçabilité. Je m’emploie donc à combler ces lacunes. De plus, particulièrement dans les secteurs de niche, j’aborde les questions de la contrefaçon afin de valoriser la production. À mes missions s’ajoutent des questions environnementales et le devoir de vigilance. J’apprécie d’agir pour que la traçabilité ait une utilité au quotidien, pas uniquement en réponse à une obligation. Je formalise à l’écrit vingt ans de pratique et développe ma propre méthode pour instaurer un système de traçabilité en entreprise, afin de combler l’absence de processus défini. Il s’agirait d’une innovation sur le plan méthodologique, pour auditer en interne. En effet, l’entreprise attend qu’un système de traçabilité soit efficace. Or, apporter une garantie de bon fonctionnement n’est pas toujours aisé.

Mon deuxième axe de développement est digital, j’aimerais concevoir une application de traçabilité pour les consommateurs, qui constituent le maillon de la chaîne le moins valorisé.

Que vous apporte la collaboration avec Techniques de l’Ingénieur, en tant qu’auteur et conseiller scientifique ?

Je me servais déjà de la base documentaire en école d’ingénieur. J’apprécie l’accès à ces connaissances. J’apprends autant que je donne. Dans la base « traçabilité » notamment, je ne suis pas l’auteur le plus abondant et je parcours avec intérêt ce qu’écrivent les autres auteurs, issus de différents réseaux. Je prends connaissance de ce qui est écrit dans d’autres thématiques connexes comme la logistique, la production, la qualité.

Être référent chez Techniques de l’ingénieur et auteur me donne une visibilité et une forme de caution.

Je développe également mon réseau en traçabilité, car je peux être amené à contacter les autres auteurs qui publient sur ce sujet, ce qui mène à des rencontres, à des échanges, pas seulement au téléphone, mais aussi à l’écrit, expression plus précise et plus puissante.

Les contributions de Jean-Luc Viruéga aux Techniques de l’Ingénieur

Jean-Luc Viruéga contribue en tant que conseiller scientifique sur l’offre traçabilité et auteur auprès de Techniques de l’Ingénieur.

La traçabilité dans l’environnement et le développement durable

La traçabilité : un enjeu stratégique

Vers un nouveau champ d’action de la traçabilité : avant-propos


* Jean-Luc Viruéga, expert en traçabilité

[1] ESB : encéphalopathie spongiforme bovine. Le Premier ministre anglais annonce le 3 mars 1996 que la possible contamination à l’homme de la maladie de l’encéphalopathie spongiforme bovine peut déclencher chez l’homme une nouvelle forme de la maladie de Kreuztfeld-Jacob. Ce qui a été appelé la maladie de la vache folle développe chez la personne touchée une dégénérescence au niveau cérébral. C’est le 1er janvier 2005 que s’est appliquée dans toute l’Europe la traçabilité sur les viandes.

[2] Traduction d’”industrial engineering”

[3] DEA, diplôme d’études approfondies, correspond à un master 2 recherche aujourd’hui.

[4] ISO 9001 et ISO 9002 (qui n’existe plus)

[5] Les ERP, Enterprise Resource Planning, étaient désignées à cette époque-là par le terme GPAO : Gestion de la Production Assistée par Ordinateur

[6] Dans les années 1990

[7] Asymétrie d’information, développée par Georges Akerlof, économiste américain d’inspiration keynésienne. Ses travaux sur l’analyse des imperfections de marché ont été récompensés par le prix Nobel d’Économie 2001

[8] Le « Cygne noir » théorisé par Nassim Nicholas Taleb

[9] Code-barre ou EAN13 (European Article Numbering

Éolien : la Commission européenne sur la brèche face aux vents contraires qui soufflent sur le secteur

Franchir le seuil des 500 GW de capacité éolienne installée à l’horizon 2030, c’est ce qui serait nécessaire pour atteindre, à cette même échéance, l’objectif fixé par l’Union Européenne d’un mix énergétique composé d’une part de renouvelables d’au moins 42,5 %. La barre semble toutefois placée particulièrement haut : en 2022, la capacité éolienne installée au travers de l’UE ne dépassait pas les 204 GW, progressant de 16 gigawatts par rapport à l’année précédente. Une « augmentation record de 47 % par rapport à 2021 », comme le note la Commission européenne dans un communiqué daté du 24 octobre dernier, qui n’en demeure pas moins largement insuffisante. « C’est nettement moins que ce que l’UE devrait installer pour être en mesure d’atteindre ses objectifs », souligne en effet celle qui se décrit elle-même comme la voix de l’industrie éolienne européenne, l’association WindEurope. À ce rythme, le seuil des 500 GW de capacité installée ne serait en effet franchi… qu’en 2041.

Pour y parvenir comme espéré en 2030, ce ne sont ainsi pas moins de 37 GW de capacités éoliennes supplémentaires qui devraient être installés chaque année par les États membres de l’Union. Une perspective pour le moins incertaine, donc, d’autant que la filière fait face à une série de problèmes qui freinent son développement : « un ensemble unique de défis », tels que les décrit la Présidente de la Commission européenne Ursula von der Leyen, à commencer par celui de l’inflation.

Hausse des coûts… et des taux d’intérêt

Cedric Philibert, consultant indépendant et analyste senior des questions d’énergie et de climat
Cédric Philibert est consultant indépendant et analyste senior des questions d’énergie et de climat. Il est également chercheur associé à l’Institut français des relations internationales (Ifri). © Ifri / DR

« Depuis la reprise post-Covid intervenue mi-2021, puis la tentative russe d’invasion de l’Ukraine, l’inflation générale a mis un certain nombre d’entreprises dans la difficulté, notamment chez les fabricants [d’éoliennes], et chez quelques développeurs également », constate le chercheur associé à l’Institut français des relations internationales (Ifri) Cédric Philibert, par ailleurs auteur, consultant indépendant et analyste, spécialiste des questions d’énergie et de climat. « Un certain nombre de projets avaient en effet été actés à des tarifs inférieurs au coût de revient actuel. L’inflation a certes touché les matériaux, mais aussi et surtout les taux d’intérêt, qui se révèlent décisifs pour ce secteur qui est sans doute le plus capitalistique de tous », éclaire celui qui fut également conseiller du Directeur général de l’Agence de l’Environnement et de la Maîtrise de l’Énergie (ADEME) de 1992 à 98.

Des projets actés mais donc pas encore réalisés, et ce pour différentes raisons, telles que les perturbations de l’approvisionnement en matières premières liées à la crise sanitaire, ou encore les problèmes de raccordement. « La file d’attente peut être très longue, note M. Philibert. Un, deux… voire jusqu’à cinq ans parfois. Si entre-temps les conditions économiques changent, cela peut donc poser problème ».

L’expert souligne toutefois que la France n’est pas, sur ce plan, le pays le moins bien loti, en grande partie grâce au mécanisme d’indexation qu’elle a mis en place. Un système en effet censé protéger les producteurs contre les évolutions de leurs coûts d’exploitation une fois leurs investissements réalisés, comme l’explique la Commission de régulation de l’énergie (CRE), et qui n’existe donc pas partout. « Certains acteurs européens, y compris des développeurs français, se retrouvent ainsi exposés sur ces marchés où il n’y a pas d’indexation, tels que les États-Unis », souligne Cédric Philibert.

Et l’expert de pointer une catégorie d’acteurs – celle des manufacturiers – encore plus exposés aux bourrasques qui soufflent sur le secteur. Les fabricants se trouvent en effet affectés par un ensemble de facteurs plus large encore : annulation de projets, diminution des marges, problèmes techniques, mais aussi forte concurrence chinoise. Un aspect également pointé du doigt par la Commission européenne, qui parle sobrement de « pression accrue de la part de concurrents internationaux ».

Des politiques publiques parfois défavorables

Enfin, outre le problème de la disponibilité en main-d’œuvre qualifiée, un ultime facteur expliquant la situation pour le moins délicate dans laquelle se trouve aujourd’hui le secteur éolien européen est celui de la lenteur – et de la complexité – des procédures d’autorisation au travers des États membres de l’UE, à commencer par la France. « Les autorisations vont plus vite dans d’autres pays, observe en effet M. Philibert. Certains sollicitent davantage la participation citoyenne, ce qui limite souvent le nombre de recours. C’est le cas de l’Allemagne ou du Danemark en particulier. » Des « champions » européens de l’éolien qui, outre cet aspect, doivent leur position de leaders à des facteurs tels que la puissance et la solidité de leur industrie, leur position géographique privilégiée, mais aussi et surtout une volonté politique claire de favoriser le déploiement de cette énergie renouvelable. « Il existe un tas de raisons aux différences observées au sein de l’UE, mais la politique y est pour beaucoup, confirme Cédric Philibert. L’Allemagne s’est par exemple lancée dans l’éolien avec beaucoup plus de vigueur, tout comme l’Espagne, le Portugal, les Pays-Bas ou l’Irlande. » D’autres, dont la France fait partie, restent à l’inverse freinés par des politiques inadaptées, selon l’expert.

Eoliennes, Markus Distelrath, Pixabay
Le plan d’action présenté le 24 octobre dernier prévoit par exemple la création « d’académies européennes des compétences pour l’industrie net zero », dont une pour l’éolien. © Image par Markus Distelrath de Pixabay

Un plan d’action pour booster l’éolien européen

Les « défis » ne manquent donc pas pour le secteur. Une situation problématique face à laquelle l’UE a ainsi estimé qu’une « action immédiate » était nécessaire. Le 24 octobre dernier, la Commission a ainsi présenté le plan d’action de l’UE en matière d’énergie éolienne, comme l’avait annoncé le mois précédent la Présidente von der Leyen dans son discours sur l’état de l’Union. Objectif : « Garantir que la transition vers une énergie propre aille de pair avec la compétitivité industrielle et que l’énergie éolienne continue d’être un exemple de réussite européenne », note la Commission dans son communiqué du 24 octobre. « Ce plan d’action contribuera à maintenir une chaîne d’approvisionnement en énergie éolienne saine et compétitive, dotée d’une réserve claire et sûre de projets, afin d’attirer les financements nécessaires et de participer à la concurrence sur un pied d’égalité à l’échelle mondiale », précise également le document.

Le plan d’action dévoilé fin octobre définit ainsi une série de mesures que les États membres, l’industrie, mais aussi la Commission doivent prendre conjointement et ce, de manière immédiate. Des mesures axées autour de six aspects principaux : accélération des procédures d’autorisation, amélioration de la conception des enchères, accès au financement facilité, lutte contre les pratiques commerciales déloyales à l’échelle internationale, accompagnement de la montée en compétence en facilitant notamment la création « d’académies européennes des compétences pour l’industrie net zero », dont une pour l’éolien et, enfin, élaboration d’une charte de l’éolien par la Commission, les États membres et l’industrie, dans l’objectif « d’améliorer les conditions propices au maintien de la compétitivité de l’industrie éolienne européenne ».

« Ce plan européen est plutôt utile », juge Cédric Philibert, qui y voit notamment des avancées sur le plan du régime d’autorisation et d’enchères, mais qui déplore l’absence de dispositif de modulation des tarifs. Cela permettrait en effet selon lui d’éviter que tous les projets éoliens ne se concentrent au nord de l’Europe, et accélérerait donc, in fine, les choses. « Il faut faciliter l’installation d’éoliennes là où se trouve déjà du solaire, et inversement. Les deux modes de production se complètent en effet très bien et peuvent en général se contenter d’un seul et même réseau pour leur raccordement. Tout cela suppose cependant un peu de modulation des tarifs », estime l’analyste, qui juge par ailleurs que les mesures de soutien à l’industrie du plan d’action se heurtent à un financement insuffisant : « L’IRA[1] américain, tout comme les systèmes opaques chinois soutiennent leurs industries de façon nettement supérieure à ce que fait l’Europe avec le Net-Zero Industry Act ».

Renforcer aussi l’éolien en mer pour épauler, demain, les installations à terre

Présentation du plan d’action de l’UE en matière d’énergie éolienne
La Commission a présenté le 24 octobre dernier le plan d’action de l’UE en matière d’énergie éolienne, comme l’avait annoncé le mois précédent la Présidente von der Leyen dans son discours sur l’état de l’Union. © Copyright European Union 2023 – NA

En marge de la présentation de ce plan d’action, la Commission a également affirmé « redoubler d’efforts » pour soutenir l’éolien en mer, par le biais de mesures supplémentaires visant notamment à renforcer les infrastructures de réseau, à accélérer l’octroi d’autorisation, ou encore à soutenir la recherche et l’innovation ainsi qu’à développer les chaînes d’approvisionnement et les compétences. « L’énergie éolienne en mer devrait contribuer de manière significative aux objectifs de l’UE en matière de climat et d’énergie dans les années à venir », espère en effet la Commission.

Pour Cédric Philibert, la priorité reste toutefois au développement de l’éolien terrestre, seul moyen selon lui de répondre à l’urgence de la situation actuelle, qui fait se rencontrer la nécessaire décarbonation de la production et la croissance des besoins en électricité. « Le potentiel de l’éolien offshore est important en Europe, mais les projets en la matière sont plus longs à mettre en place. L’éolien en mer viendra donc, à terme, épauler l’éolien terrestre, mais nous ne pouvons pas attendre », estime-t-il. L’analyste en est convaincu : « Nous avons besoin de l’éolien tout de suite ».


[1] Inflation Reduction Act, « plus grand investissement pour le climat de l’Histoire des États-Unis », signé en août 2022 par le président Biden.

Techniques de l’Ingénieur est partenaire du Congrès Horizons Hydrogène

Le congrès HORIZON HYDROGÈNE est le lieu parfait d’échanges et d’expertise pour tous les acteurs de l’hydrogène. 

Sont attendus 800 professionnels de la filière, 115 speakers, 100 sponsors et partenaires, promettant des débats de haut niveau, des échanges et de retours d’expériences à la fois riches et intenses en informations sur un marché en plein essor. 

Sur deux jours, dans quatre salles différentes, saisissez l’opportunité de vous informer sur les dernières innovations et projets en cours sur le marché de l’hydrogène. Pour cette troisième édition du salon, découvrez un programme rempli, portant sur une panoplie de sujets : 

  • lors de conférences plénières où vous pourrez vous rassembler autour de tables rondes, de points de vue et de regards croisés, 
  • de présentations d’études et de projets dans la salle Marché, 
  • de démos dans la salle R&D,
  • d’ateliers dans la salle de Formation. 

 

Venez découvrir les offres, services et solutions les plus récentes au cœur du marché de l’hydrogène. Exclusif en son genre, rejoignez les experts, décideurs, chercheurs, fournisseurs, industriels et entrepreneurs qui seront à même de vous guider et de vous inspirer dans la réalisation de vos stratégies.

 

Vous désirez en savoir plus, n’hésitez pas à aller sur le site de l’événement en cliquant ici.

Fructose : le responsable de l’épidémie d’obésité ?

Et si l’épidémie d’obésité était provoquée par un excès de fructose, ce sucre présent dans de nombreux aliments ? C’est le modèle que proposent des chercheurs américains et mexicains dans une revue de la littérature scientifique parue dans le journal Obesity. Ce modèle novateur suggère qu’un excès de fructose et la capacité de notre organisme à en synthétiser en réaction à une alimentation occidentale (index glycémique élevé et riche en sel) engendreraient une prise de poids. Il repose sur la diminution de la concentration intracellulaire d’adénosine triphosphate (ATP), molécule qui fournit de l’énergie à la cellule, qui serait induite par une forte concentration de fructose. Ce dernier est déjà connu pour favoriser le surpoids, l’obésité et les pathologies associées, comme le diabète de type 2, des maladies cardiovasculaires et certains cancers, quand il est consommé en excès. D’après l’étude, de faibles niveaux d’ATP intracellulaires entraînent une faim, une altération de la satiété et une augmentation de la prise alimentaire. Elle évoque également l’idée que la consommation de fructose provoque une diminution de la dépense énergétique, ce qui favoriserait le stockage sous forme de graisse de l’énergie consommée en excès.

Toutefois, ce modèle pose question. En effet, si la diminution de la concentration de l’ATP par le fructose est effective de manière aiguë, l’effet chronique est bien plus difficile à démontrer.

En outre, peu d’éléments cliniques confirment ce que ces chercheurs proposent et les récentes études vont à l’encontre de ce concept. Pouvoir expliquer l’obésité dans le monde, donc dans des populations aux cultures très différentes, en ne s’intéressant qu’à un seul nutriment, le fructose, et un unique mécanisme comme celui de l’ATP, est peu probable.

Expliquer l’obésité grâce à différents modèles

Pour tenter d’expliquer l’explosion de l’obésité, les chercheurs ont développé différentes théories. Le modèle glucides-insuline suggère que la prise de poids serait liée à des glucides ingérés en excès, qui via l’induction de la sécrétion d’insuline, modifieraient la réponse hormonale et notre métabolisme et favoriseraient un plus grand appétit et le stockage des graisses. En effet, les glucides, en particulier les sucres libres et le fructose, sont rapidement digérés et stimulent la production d’insuline. Cependant, ce modèle a été remis en question ces dernières années, car de la même manière que celui du fructose, il ne désigne qu’un nutriment et un mécanisme comme coupable. En revanche, il pourrait être intégré dans le modèle plus large de la balance énergétique.

Ce dernier est le plus courant pour expliquer l’augmentation de l’obésité qui touche aujourd’hui 17 % des adultes français. L’hypothèse principale est la suivante : c’est le cerveau qui est l’organe majeur de la régulation de notre poids. La prise alimentaire serait ainsi régulée en intégrant des signaux externes, tels que l’environnement alimentaire (pollution, stress, qualité du sommeil, certains médicaments, milieu socio-économique), et internes issus des organes périphériques, tels que les hormones, les nutriments, certains métabolites. Ce concept est bien plus général et englobe la complexité et la multiplicité des mécanismes de la régulation de la consommation, qu’elle soit consciente ou inconsciente.

Forte augmentation des cancers chez les moins de 50 ans dans le monde

Alors que les cancers sont généralement plus répandus chez les adultes âgés de plus de 50 ans, une étude publiée dans la revue médicale BMJ Oncology révèle que ceux touchant les personnes de moins de 50 ans ont considérablement augmenté dans le monde au cours des trois décennies. Cette étude, menée par une équipe internationale de chercheurs, a été réalisée à partir de la base de données mondiale du Global Burden of Disease (GBD) et porte sur 29 cancers différents recensés dans 204 pays et régions du monde.

Il apparaît qu’en 2019, le nombre de nouveaux cancers précoces diagnostiqués chez des personnes âgées entre 14 et 49 ans s’est élevé à 3,26 millions, contre 1,82 million en 1990, soit une augmentation de 79,1 %. Quant au nombre de décès, il est passé de 0,83 million à 1,06 million sur la même période, soit une progression de 27,7 %. Toujours à l’échelle mondiale, les cancers qui ont connu la plus forte augmentation sont ceux du nasopharynx et de la prostate, tandis que le cancer du foie a connu la plus forte baisse.

Le cancer du sein présente le taux d’incidence le plus élevé chez les personnes de moins de 50 ans en 2019, avec 13,7 personnes sur 100 000 qui ont été touchées par cette maladie parmi la population mondiale, et 3,5 personnes sur 100 000 qui sont décédées. Les types de cancer les plus rencontrés sont ensuite ceux de la trachée, des bronches et du poumon, ainsi que ceux de l’estomac et colorectaux.

Les régions du monde ne sont pas égales face à cette maladie. Les taux de cancer précoce les plus élevés sont enregistrés en Amérique du Nord, en Australasie et en Europe occidentale en 2019. Les Émirats arabes unis, le Qatar et l’Arabie saoudite sont les pays ayant connu les plus fortes hausses de cancer, avec une progression dépassant 800 % entre 1990 et 2019, tandis que la Lituanie, la Géorgie et la Lettonie ont connu les baisses les plus importantes (environ 30 %).

Le nombre de cancers précoces devrait continuer à augmenter d’ici à 2030

L’étude révèle que plus le pays et la région du monde sont développés et plus l’incidence des cancers précoces est importante. « Cette incidence croissante des cancers à apparition précoce peut être attribuée en partie au recours croissant au dépistage et à la détection précoce dans les régions et pays développés, cependant seul un petit nombre de pays ont mis en place des stratégies de dépistage des personnes atteintes de cancers de moins de 50 ans et lorsque c’est le cas, elles ne concernent que certains types de cancers, notamment, le cancer du col de l’utérus, le cancer du sein et le cancer colorectal », écrivent les auteurs de cette étude.

Même s’il est difficile d’affirmer avec certitude quelles sont les causes de cette augmentation, les chercheurs estiment que les régimes alimentaires et le mode de vie ont participé à l’augmentation du taux d’incidence des cancers précoces. Les principaux facteurs de risque alimentaire sont une alimentation riche en viande rouge, pauvre en fruits, riche en sodium et pauvre en lait. La consommation d’alcool et le tabagisme sont aussi considérés comme des facteurs de risque. Par rapport au cancer à apparition tardive, l’augmentation des cancers à apparition précoce aurait des ramifications personnelles et sociétales plus importantes.

D’après des calculs prédictifs, le nombre mondial de nouveaux cas de cancer précoce et de décès associés devrait continuer à augmenter d’ici à 2030, de respectivement 31 % et 21 %, et les quadragénaires devraient être les plus exposés. Les stratégies de dépistage du cancer seraient les mesures préventives les plus efficaces contre ce type de maladies. Selon les scientifiques : « encourager un mode de vie sain, notamment une alimentation saine, la restriction de la consommation de tabac et d’alcool et une activité de plein air appropriée, pourraient réduire le fardeau du cancer à apparition précoce. Il vaut la peine d’examiner si les programmes de dépistage précoce et de prévention du cancer à apparition précoce devraient être élargis pour inclure les personnes âgées de 40 à 44 ans et de 45 à 49 ans, mais des études systématiques et des essais randomisés supplémentaires sont nécessaires pour prendre une décision définitive. »

Électronique de puissance et véhicule électrique : « Nous ne devons pas rater le coche ! »

Organisé dans les locaux de l’École supérieure des techniques aéronautiques et de construction automobile (ESTACA), sur le Campus Paris-Saclay, cette 3e édition du TechShow dédié à l’électronique de puissance aura attiré pas moins de 120 participants, qui ont ainsi eu l’occasion de découvrir les projets portés à l’échelle européenne par cinq têtes de filières – Valeo, Vitesco, Renault, STMicroelectronics et Murata – épaulées par leurs nombreux partenaires.

Directeur mobilités de NextMove, Geoffroy Martin nous dresse un rapide bilan de l’évènement et revient en détail sur l’importance que revêt l’électronique de puissance pour la filière du véhicule électrique. Il nous livre également sa vision des facteurs qui pourraient permettre à la France de se positionner en tant que leader européen – voire mondial – sur ce sujet.

Techniques de l’Ingénieur : Quel est votre rôle au sein de NextMove ? En quoi vos missions consistent-elles ?

Geoffroy Martin, directeur mobilités de NextMove
Actuellement directeur mobilités de NextMove, Geoffroy Martin œuvre au sein du pôle de compétitivité depuis près de douze ans. ©Michel Rubinel

Geoffroy Martin : Je travaille au sein du pôle de compétitivité NextMove depuis une douzaine d’années. Ma mission consiste à animer des comités d’experts, dans le but d’accompagner les projets d’innovation, des projets centrés au départ sur les sujets « chaîne de traction » et « gestion de l’énergie », et désormais sur le thème « matériaux, confort et environnement ».

Collectivement, notre rôle est de favoriser l’innovation collaborative, de travailler en filière pour préparer les mobilités de demain. Nous sommes, historiquement, très centrés sur l’automobile, mais nous nous sommes petit à petit ouverts à tous les autres types de mobilité terrestre – transports en commun, mobilité douce… – mais aussi à tous les outils qui peuvent aider à passer d’une mobilité à une autre, ainsi qu’à tous les moyens qui permettent de produire ces outils de mobilité. Cette dernière partie axée autour de la performance industrielle ne fait en revanche pas partie de mon périmètre d’action ; je reste concentré sur les aspects liés à l’innovation en matière de produits et services de mobilité.

Vous avez co-organisé, le 3 octobre dernier, la 3e édition du TechShow Électronique de puissance… Quels étaient les objectifs de cette journée ?

Il s’agit d’une thématique que nous cherchons tout particulièrement à animer. Cet intérêt découle d’un programme lancé en 2020 autour de ce sujet par la Plateforme automobile et mobilités (PFA), qui représente la filière.

Nous vivons en effet en ce moment une révolution dans le domaine de l’électronique de puissance, avec l’arrivée des matériaux « grand gap » que sont le nitrure de gallium (GaN) et le carbure de silicium (SiC). Ces matériaux ont des propriétés physiques très particulières, qui permettent d’obtenir des gains d’efficience, de compacité et de rendement très importants. Ils permettent donc d’améliorer les performances des systèmes de conversion d’électricité, tout en diminuant leurs coûts.

Cette édition 2023 a ainsi été l’occasion pour nous de présenter de gros projets européens initiés grâce à ce programme PFA, des projets que l’on appelle IPCEI, pour « important projects of common european interest », et ce face à plus de 120 participants réunis pour l’occasion.

Ces projets ont vraiment pour vocation d’aboutir à une phase d’industrialisation. Nous avons ainsi eu l’occasion de découvrir les projets portés par cinq têtes de filières : Valeo, Vitesco, Renault, STMicroelectronics et Murata. Chacun de ces projets implique la mise en place de collaborations, de partenariats avec d’autres acteurs, et embarque ainsi une grande partie de la filière, au niveau national et européen.

Outre le fait de faire connaître ces projets en tant que tels, l’objectif de cette journée était aussi d’inciter les participants à déposer leurs propres projets. L’offre de financement au niveau national et européen se révèle en effet plutôt étoffée aujourd’hui. Les porteurs de projets ont donc tout intérêt à se regrouper pour en bénéficier. NextMove est là également pour les aider à répondre à ces appels et trouver les bons partenaires.

Edition 2023 du TechShow électronique de puissance
Cette édition 2023 du TechShow électronique de puissance a été l’occasion pour cinq têtes de filières de présenter face à plus de 120 participants les projets IPCEI (important projects of common european interest) dans lesquels elles se sont lancées aux côtés de leurs partenaires. ©NextMove

D’une manière générale, quelles sont les fonctions, quels sont les organes des véhicules électriques qui pourraient bénéficier des progrès de l’électronique de puissance ?

On distingue trois grandes familles d’organes concernés. La première concerne le chargeur embarqué. Ce dispositif fait le lien entre la borne de recharge à domicile et la batterie, en convertissant le courant alternatif du secteur en courant continu nécessaire à la recharge. Or, toute conversion implique des pertes, notamment par échauffement. Ces pertes s’élèvent, pour l’heure, à environ 10 % ou 20 %, selon les marques de chargeurs embarqués, voire jusqu’à 30 % pour les plus anciens modèles… Tout l’enjeu de l’électronique de puissance consiste ainsi à réaliser cette conversion avec le moins de pertes possible.

Ceci est valable pour la seconde catégorie d’organes concernés par l’électronique de puissance : l’onduleur. Ce dispositif permet quant à lui de convertir le courant continu de la batterie en courant alternatif, afin de l’envoyer vers le moteur. Chaque point de rendement gagné sur cet onduleur se traduit ainsi soit par un gain d’autonomie, soit par une diminution de la taille des batteries, et donc in fine du coût d’achat du véhicule électrique. Ceci illustre à nouveau l’intérêt de développer des électroniques de puissance très performantes.

Enfin, le dernier de ces organes est le convertisseur « DC-DC », qui permet d’abaisser les 400 ou 800 V de la batterie vers la tension de 12 V qui fait fonctionner tout le réseau de bord : feux, autoradio, etc.

L’émergence des matériaux « grand gap » que j’évoquais va donc permettre d’améliorer les rendements de tous ces organes, mais aussi d’en augmenter la compacité et d’en diminuer la masse. Ces technologies restent relativement jeunes, leur coût se révèle donc en général un peu plus élevé que celui de solutions plus conventionnelles. En considérant le système dans son ensemble, elles s’avèrent toutefois d’ores et déjà avantageuses grâce au poids et au volume qu’elles permettent d’économiser. À terme, elles devraient également permettre de gagner en coûts.

La filière électronique et la filière automobile ont l’objectif de construire une « équipe de France » de l’électronique de puissance… Quelles sont les origines de cette ambition ?

Nous sommes partis d’un constat très simple : aujourd’hui, une grande partie de l’industrie des semi-conducteurs est incarnée par des acteurs basés en Asie. Nous avons pourtant de vrais atouts à faire valoir, avec une recherche académique très performante et des acteurs bien positionnés tels que ST ou Exagan. Malheureusement, la concurrence asiatique a causé beaucoup de torts à l’industrie électronique nationale, il nous faut donc aujourd’hui la redévelopper d’un point de vue industriel. Le Covid a par ailleurs révélé notre dépendance vis-à-vis de ce type de systèmes. Nous avons donc tout intérêt à nous donner les moyens de les produire en France afin de remédier à cette crise, qui persiste. À cela s’ajoutent des tensions géopolitiques très fortes, notamment du côté de Taïwan, l’un des grands fournisseurs de ces semi-conducteurs avec TSMC par exemple…

Cet objectif répond aussi à de vrais enjeux de souveraineté, de compétitivité, et d’emploi local. Pour donner un ordre de grandeur, les trois systèmes que j’évoquais – chargeur embarqué, onduleur et DC-DC – représentent à eux seuls une part qui équivaut à celle d’un moteur essence dans le coût global d’un véhicule électrique. Nous avons donc tout intérêt à nous doter des outils nécessaires à la production de ces systèmes.

Quelles sont selon vous les conditions à réunir pour permettre à cette ambition de se concrétiser ?

La première d’entre elles concerne les compétences : on a notamment besoin d’avoir des ingénieurs en grand nombre. Ensuite, il faut aussi que nous soyons à la pointe en matière d’innovation. Le pôle de compétitivité NextMove a un grand rôle à jouer sur ce plan, en fédérant les acteurs : constructeurs, équipementiers… mais aussi start-up, PME et laboratoires de recherche, tels que le CEA-Leti, le SATIE, VEDECOM, l’IRT Saint Exupéry

Nous sommes historiquement axés autour du secteur automobile, et moins de l’électronique. C’est pour cela que nous nous sommes associés à l’Alliance des composants et systèmes pour l’industrie électronique (ACSIEL), afin que nous puissions mêler nos deux écosystèmes. Il faut faire en sorte que toutes ces compétences se parlent et puissent s’associer. C’est d’ailleurs l’un des objectifs d’un évènement tel que le TechShow.

L’ultime clé qui permettra à la France de s’imposer en tant que leader européen – voire mondial – de l’électronique de puissance est aussi le développement d’usines, et ce sur toute la chaîne de valeur, depuis les fonderies qui fabriqueront les wafers de GaN et de SiC, jusqu’aux Electronic manufacturing services (EMS), chargés quant à eux de l’implantation des composants sur les cartes électroniques. Toute cette filière industrielle reste à mobiliser.

L’implication des pouvoirs publics sur ce sujet n’est pas encore aussi forte que pour le développement d’usines de batteries par exemple. Pour autant, il se passe quand même des choses. STMicroelectronics et GlobalFoundries ont notamment annoncé un énorme projet d’usine à Crolles, en Isère ; un investissement de 7,5 G€, financé pour partie grâce à un soutien public de 2,9 G€. On ne peut donc pas dire qu’il ne se passe rien, même si des progrès restent à faire.

Le sujet de l’électronique de puissance est sans doute un peu moins sexy que celui de la batterie, ou de l’hydrogène par exemple, il s’agit pourtant d’un sujet central, stratégique, qu’il faut absolument aider. Nos concurrents asiatiques sont particulièrement agressifs, nous devons donc être ingénieux et compétitifs, afin de contrecarrer leurs offres à bas coût par l’innovation. Nous devons tout faire pour ne pas rater le coche !

La COP28, un tournant décisif pour respecter l’Accord de Paris ?

La COP28 se tiendra à Dubaï du 28 novembre au 14 décembre. Elle tirera notamment le premier Bilan mondial de l’Accord de Paris en vue d’éclairer la prochaine série de plans d’action climatique – les contributions déterminées au niveau national, ou CDN – qui seront proposés d’ici 2025. Et on sait déjà qu’il faudra accélérer.

Dans un nouveau rapport, l’organisme des Nations Unies chargé du changement climatique, la CCNUCC (appelée aussi ONU Climat), montre qu’avec les engagements actuels des pays, les émissions mondiales devraient atteindre 53,2 milliards de CO2 équivalent (Gt CO2 eq) en 2025 et 51,6 Gt CO2 eq en 2030, hors secteur UTCATF (utilisation des terres, changement d’affectation des terres et foresterie). Par rapport à 2019, les émissions mondiales de gaz à effet de serre augmenteraient donc de 1 % en 2025, mais baisseraient de 2 % en 2030.

Le rapport relève une « légère augmentation du niveau d’ambition global des CDN » par rapport à l’année dernière. Les émissions projetées baissent ainsi de 0,2 Gt CO2 eq en 2025 et de 0,8 Gt CO2 eq en 2030. Si le rapport montre une nouvelle fois que les émissions n’augmentent plus après 2030, la baisse reste largement insuffisante, par rapport à ce que préconise la science, pour respecter l’Accord de Paris. En effet, pour avoir une chance sur deux de contenir le réchauffement climatique à 1,5°C d’ici la fin du siècle, les émissions mondiales doivent baisser de 43 % entre 2019 et 2030, selon le dernier rapport du GIEC.

Passer aux « pas de géants à la COP28 »

Même avec des efforts accrus de la part de certains pays, le rapport souligne la nécessité d’actions bien plus importantes. Il faut passer de la politique des « petits pas » aux « pas de géants à la COP28 », a déclaré Simon Stiell, secrétaire exécutif de l’ONU Climat dans un message vidéo accompagnant la sortie du rapport. « Les gouvernements doivent non seulement se mettre d’accord sur les mesures climatiques plus strictes qui seront prises, mais aussi commencer à montrer exactement comment les mettre en œuvre », a-t-il ajouté.

Pour élaborer ce rapport, l’ONU Climat a analysé les CDN de 195 Parties à l’Accord de Paris. Il prend en compte 20 CDN nouvelles ou mises à jour soumises jusqu’au 25 septembre 2023. Il ne comptabilise toutefois pas l’actualisation des 27 pays européens ou du Brésil, soumises depuis. Selon le rapport, la concrétisation de ces engagements « dépend principalement de l’accès à des ressources financières améliorées, du transfert de technologie et de la coopération technique ».