Un risque d’inflation des prix alimentaires avec le changement climatique

L’impact des conditions météorologiques sur le prix des biens et des services est un phénomène peu étudié. Dans un contexte de changement climatique, évaluer cette corrélation est un enjeu crucial sur le plan économique, ainsi que pour le bien-être des populations et la stabilité politique. L’ONU estime par exemple que la crise du coût de la vie des années 2021 et 2022 a précipité 71 millions de personnes supplémentaires dans la pauvreté en raison de la hausse rapide des prix. Une étude de l’Institut de Potsdam pour la recherche sur l’impact du climat en Allemagne (PIK : Potsdam-Institut pour Klimafolgenforschung) et de la Banque centrale européenne (BCE), publiée dans la revue Communications Earth and Environment, révèle que le réchauffement climatique pourrait menacer la stabilité des prix.

Les chercheurs ont étudié 27 000 observations d’indices mensuels des prix à la consommation dans 121 pays du monde sur la période 1996-2021 et fait le lien avec des indices climatiques (températures élevées, précipitations extrêmes,…). Grâce à des projections, ils ont calculé que la hausse des températures d’ici à 2035 en raison du réchauffement climatique devrait entraîner une pression inflationniste à la hausse dans le monde entier. En moyenne, l’augmentation annuelle des prix alimentaires devrait atteindre à 0,92 % dans le meilleur scénario et jusqu’à 3,23 % dans celui le moins favorable. La pression inflationniste globale devrait quant à elle être environ deux fois moins importante, et se chiffrer respectivement entre 0,32 % et 1,18 %.

La hausse des prix alimentaires s’explique par « un choc de productivité du côté de l’offre étant donné les preuves considérables des impacts sur la production agricole dus à la température et à d’autres fluctuations météorologiques », écrivent les auteurs de cette publication. D’autres études auparavant ont en effet déjà mis en évidence le fait que l’agriculture est particulièrement sensible au réchauffement climatique. Ici, ces travaux permettent de montrer que l’impact très important sur le prix des denrées alimentaires devrait avoir des répercussions non négligeables sur l’inflation globale. Les scientifiques n’ont pas trouvé d’autres sous-composantes de prix impactées par le réchauffement climatique, mises par le secteur de l’électricité, qui pourrait lui aussi être concerné par une hausse des prix liée à la progression de la consommation pour faire face à l’augmentation des températures.

Une inflation alimentaire de 0,6 % en Europe liée aux chaleurs de l’été 2022

L’étude montre que la réponse de l’inflation à l’augmentation de la température mensuelle moyenne n’est pas linéaire puisqu’elle progresse lorsque les températures augmentent, mais qu’elle le fait plus fortement en été ainsi que dans les régions chaudes des latitudes plus basses, notamment dans le sud de la planète, comme en Afrique et en Amérique du Sud. Tandis que dans l’hémisphère nord, la hausse des températures devrait faire grimper les prix surtout pendant les mois d’été. Selon le rapport, une augmentation d’un degré de la température mensuelle moyenne a un impact sur les prix pendant encore 12 mois et que le même phénomène est constaté en cas d’excès de pluie. Par contre, les impacts sur les prix ne sont que de courte durée lorsqu’ils proviennent d’un excès de sécheresse.

Les scientifiques ont également examiné la période de l’été 2022 en Europe, où la chaleur et la sécheresse ont eu un impact considérable sur l’agriculture et l’économie. « Nous estimons que la chaleur extrême de l’été 2022 a augmenté l’inflation alimentaire en Europe d’environ 0,6 %, explique Maximilian Kotz, chercheur au PIK et premier auteur de cette étude. Le réchauffement futur prévu pour 2035 amplifierait les impacts sur les prix jusqu’à 50 % [d’ici à cette échéance]. Ces effets sont très importants pour les unions monétaires ayant un objectif d’inflation de 2 % comme la zone euro et continueront à s’accentuer avec le futur réchauffement climatique. »

« Origine-info », le nouvel indicateur pour les produits alimentaires verra le jour dès cet été

Le 11 avril dernier, la ministre déléguée en charge des Entreprises, du Tourisme et de la Consommation, Olivia Grégoire, a annoncé que « plus d’une quarantaine de marques très connues » s’engagent, dès cet été, à indiquer la provenance des ingrédients composant leurs produits alimentaires transformés.

C’est en réponse à la crise agricole, révélatrice du désarroi des agriculteurs, que le gouvernement avait annoncé, le 22 février dernier, la mise en place de ce nouvel étiquetage. Celui-ci a pour but de justifier les prix plus élevés des produits d’origines françaises et permettre ainsi une revalorisation des revenus des producteurs.

À la suite de cette annonce, industriels et distributeurs du secteur agroalimentaire, mais aussi associations de consommateurs ont été convoqués à Bercy, en mars dernier, pour poser les premiers jalons d’une démarche baptisée Origine-Info. D’ici le mois de mai, un cahier des charges définissant notamment le degré de précision de l’étiquetage devra être finalisé.

Un manque de traçabilité criant

La législation en vigueur impose uniquement d’indiquer l’origine pour les produits bruts comme la farine, les fruits, les légumes ou le miel.

En 2017, le scandale des lasagnes à la viande de cheval, déboucha sur une première avancée pour la traçabilité des produits transformés en rendant obligatoire l’indication de l’origine de la viande dans les plats préparés et du lait dans les produits laitiers. Cependant, après une éphémère expérimentation, le lobbying a fini par avoir gain de cause en obtenant la levée de l’obligation.

L’opacité de l’information domine, comme le révèle une enquête de l’UFC-Que Choisir qui démontre que l’origine de 69 % des ingrédients des produits transformés n’est pas mentionnée.

Même si des initiatives émanent du côté de certaines enseignes comme Intermarché qui a mis en place un Franco Score ou E.Leclerc qui a décidé d’apposer l’origine géographique sur ses produits, l’exigence de clarté doit être une préoccupation collective et non le fait de particuliers. D’autant plus que l’origine des produits est un critère majeur pour les consommateurs. Ils sont, en effet, 86 % à souhaiter disposer de cette information au moment de leur achat.

Un logo explicite pour un choix éclairé

Le logo « Origine-Info » aura pour ambition de combler ces lacunes en fournissant une indication précise concernant la proportion des ingrédients français présents dans les plats préparés pour les matières premières principales. Le logo sera élaboré en concertation avec les consommateurs et sera dévoilé au cours du mois de mai.

Bien que l’origine-score soit inspiré du Nutri-Score, l’échelle de couleur attribuant une notation de lettres (de A à E) n’a pas été retenue. Une première esquisse du logo prend la forme d’un diagramme divisé en trois, avec une partie sur l’origine France, une partie sur l’origine Union européenne et une partie sur l’origine hors Union européenne.

Ce prototype a été créé et expérimenté en septembre dernier par l’association En Vérité regroupant une soixantaine de marques agro-industrielles. En l’apposant sur les emballages de quelques produits, le collectif a pu étudier l’impact de l’information sur la provenance du produit sur le choix du consommateur. Malgré des prix plus élevés par rapport à leurs concurrents, les ventes des produits utilisant des matières premières françaises ont doublé, prouvant ainsi que les consommateurs sont prêts à dépenser plus pour soutenir les agriculteurs.

Une démarche qui sera facultative

L’apposition du futur indicateur reposera, comme c’est le cas pour le Nutri-Score, sur le volontariat pour rester conforme au droit européen. Une décision critiquée par les associations de consommateurs qui redoutent que les industriels achetant leurs matières premières à l’étranger ne jouent pas le jeu. Le logo serait alors accessoire puisque l’origine française d’un produit, considérée comme un atout pour la vente, est déjà affichée spontanément par les fabricants. Néanmoins, le succès rencontré en France par le Nutri-Score, avec presque 1 500 marques engagées, permet d’envisager une même destinée pour l’Origine-score.

Reste à savoir si l’information indiquée est authentique. Notons que sur 2 000 contrôles effectués, 683 établissements n’étaient pas en conformité concernant l’origine française de leurs produits alimentaires selon la DGCCRF[1].


[1] Direction générale de la concurrence, de la consommation et de la répression des fraudes

Des impulsions électriques pour convertir un signal magnétique en un signal optique

En plus d’être des particules élémentaires chargées négativement, les électrons possèdent une autre propriété intéressante, appelée spin. Ils se comportent comme de minuscules aimants en rotation sur eux-mêmes, c’est la raison pour laquelle le spin des électrons peut être assimilé à un moment magnétique. Et de la même façon qu’un aimant possède un pôle nord et un pôle sud, le spin s’oriente de deux façons différentes, vers le haut (up) ou vers le bas (down), si bien que l’une des orientations peut être assignée à un bit de valeur 0 et l’autre à un bit de valeur 1. Une telle propriété offre donc la possibilité de stocker des informations dans des dispositifs numériques comme les mémoires MRAM (Magnetic Random Access Memory) que l’on retrouve dans des ordinateurs.

Pour utiliser cette propriété, ce type d’équipement doit être fabriqué à partir de matériaux ferromagnétiques, mais dès lors que l’on retire les électrons de ce dispositif de stockage, l’information sur le spin est rapidement perdue et ne peut donc pas être transportée. Une équipe internationale de scientifiques1, dirigée par l’Institut Jean Lamour, a utilisé des impulsions électriques pour transférer l’information magnétique en la convertissant en un signal lumineux polarisé. Leur découverte, qui a fait l’objet d’une publication dans la revue Nature (en libre accès sur le site Nature), pourrait révolutionner les télécommunications optiques à longue distance.

Concrètement, la technologie développée consiste à se servir de diodes électroluminescentes, de quelques centaines de microns, qui émettent de la lumière, c’est-à-dire une onde électromagnétique (un champ électronique associé à un champ magnétique alternatif), et à manipuler la polarisation circulaire de cette lumière. Lorsque ces diodes sont utilisées en l’état, cette polarisation de la lumière n’est pas contrôlée et s’effectue à 50 % à gauche et à 50 % à droite. Les scientifiques ont ajouté une couche ferromagnétique sur ces diodes puis ont injecté des électrons à travers elle. Résultat : lorsque le spin d’un électron est injecté en position « up » dans la couche de la diode, la lumière polarisée s’oriente à gauche et quand le spin est injecté en position « down », elle s’oriente à droite. De cette manière, il est possible de convertir un signal magnétique en un signal optique.

Une forte augmentation de la fréquence de l’encodage de l’information

Jusqu’à présent, pour moduler cet état de spin sur la polarisation de la lumière, la technique employée consistait à utiliser des champs magnétiques. Sauf qu’ils doivent être générés par des électro-aimants puissants, donc très volumineux, peu maniables, et la fréquence d’encodage reste relativement lente, de l’ordre du kHz (kilohertz) ou du MHz (Mégahertz). Dans ce travail de recherche, les scientifiques ont utilisé pour la première fois une impulsion électrique, sans champs magnétiques, pour moduler l’aimantation de l’injecteur, convertissant le spin de l’électron en un signal optique présentant une polarisation circulaire spécifique grâce à un effet quantique appelé un « couplage spin-orbite ». Grâce à cet effet, la fréquence de l’encodage pourra passer de 10 à 100 GHz (gigahertz) et le dispositif expérimental générant ces impulsions présentera une taille réduite qui rend sa mise en œuvre bien plus aisée.

« Le concept des spin-LED a été initialement proposé à la fin du siècle dernier, déclare Yuan Lu, chercheur CNRS à l’Institut Jean Lamour de l’université de Lorraine. Cependant, pour passer à une application pratique, il doit répondre à trois critères cruciaux : le fonctionnement à température ambiante, l’absence de champ magnétique et la capacité de contrôle électrique. Après plus de 15 ans de travaux dévoués dans ce domaine, notre équipe collaborative a réussi à surmonter tous les obstacles. Nous sommes très heureux de pousser cette technologie vers une autre application spintronique importante au-delà de l’effet de magnétorésistance ».

À l’avenir, grâce à sa mise en œuvre dans des diodes laser à semi-conducteurs, appelées spin-lasers, ce codage d’informations très efficace pourrait ouvrir la voie à une communication rapide sur des distances interplanétaires puisque la polarisation de la lumière peut être conservée lors de la propagation spatiale, ce qui en ferait potentiellement le moyen le plus rapide de communication entre la terre et mars. Ce nouveau codage pourrait aussi permettre le développement de plusieurs technologies avancées sur terre, comme la communication et le calcul quantique optique, l’informatique neuromorphique pour l’intelligence artificielle, les émetteurs optiques ultrarapides et à haut rendement pour les data-centers ou les applications Light-Fidelity (LiFi).

1 Ce travail de recherche a été réalisé en collaboration avec le Laboratoire Albert Fert (France), l’Université de Toulouse (France), l’Université Paris-Saclay (France), la Ruhr-Universität Bochum (Allemagne), l’Institut des semi-conducteurs et l’Institut de physique (Académie chinoise des sciences), National Institute of Advanced Industrial Science and Technology (Japon), University of Minnesota (États-Unis), National Renewable Energy Laboratory (États-Unis) et University at Buffalo (États-Unis).

Facebook veut mieux informer les internautes sur les deepfakes

Certains les trouvent drôles ou ni prêtent pas attention, d’autres sont choqués et inquiets. Les vidéos générées par l’IA pullulent sur l’internet. À l’approche de toute élection, on voit apparaître de tels clips, qui se présentent comme des parodies ou des détournements potaches. Mais le risque de désinformation est permanent.

Tous les pays sont concernés. Une fausse interview générée par une IA et diffusée quelques jours avant les élections législatives slovaques de septembre 2023 a tenté de présenter le leader de Progressive Slovakia, Michal Šimečka, comme ayant discuté avec un journaliste de la manière de truquer le vote.

Un faux contenu audio a faussement impliqué un candidat à la présidence dans des projets de manipulation des bulletins de vote lors des élections nigérianes de février 2023. Au Bangladesh, des vidéos truquées de membres de l’opposition, en bikini et dans une piscine, ont été publiées avant les élections nationales.

La France n’est pas épargnée par les deepfakes. Deux comptes TikTok diffusant des vidéos de jeunes filles, nombril à l’air et longs cheveux blonds, avec les visages de Marine Le Pen et Marion Maréchal, ont été supprimés.

Désinformation et fake news

La désinformation, les contenus générés par l’IA et les fake news constituent une menace sérieuse pour les processus démocratiques alors que la moitié de la population mondiale participera à plus de 80 élections nationales en 2024 – dont les élections européennes en juin.

Pour endiguer ce fléau, le Parlement européen est parvenu, en décembre 2023, à un accord sur la proposition de loi européenne sur la liberté des médias (EMFA). Il vise à harmoniser les législations nationales des États membres de l’UE en matière de liberté éditoriale, de pluralisme et d’indépendance des médias.

Meta, maison mère de Facebook, est bien concernée au premier rang par ce fléau. Après des années sans réelles actions, le groupe a annoncé vouloir étiqueter les vidéos diffusées sur ses plateformes pour différencier les « vraies » vidéos de celles générées par de l’IA.

Les étiquettes seront apposées soit lorsque les utilisateurs divulgueront l’utilisation d’outils d’IA, soit lorsque Meta détectera des « indicateurs d’image d’IA standard de l’industrie ». Cependant, l’entreprise n’a pas fourni plus de détails sur son système de détection.

Par ailleurs, on ne sait pas encore exactement quel impact les « deepfakes » pourraient avoir sur les élections et nous pourrions même voir ce type de contenu utilisé d’une manière qui n’a pas encore été imaginée.

Enfin, il convient également de rappeler que la désinformation n’est pas toujours une affaire de haute technologie. Il existe d’autres moyens d’attaquer ou de déstabiliser une démocratie : rumeurs, théories du complot, fraude électorale…

Même si l’annonce de Meta est à saluer, aucun système ne pourra être parfait dans la détection de deepfakes. Des erreurs, voire des abus, pourraient être relevés. En 2018, Facebook avait censuré les seins nus de « La Liberté guidant le peuple » et « L’Origine du monde » de Gustave Courbet…

Le Deep learning en passe de devenir moins énergivore

Les modèles d’apprentissage profond (ou deep learning) sont basés sur des réseaux de neurones à plusieurs couches, fonctionnant sur le modèle du cerveau humain. Or, ces processus sont assez coûteux d’un point de vue énergétique, en particulier pendant la phase d’entraînement, qui peut durer plusieurs jours.

Selon différentes études, plusieurs facteurs ont un impact sur le coût énergétique, en particulier la taille des données, l’architecture du réseau, le type de tâche, les décisions d’optimisation des paramètres…

Des chercheurs de l’EPFL (École polytechnique fédérale de Lausanne) ont, semble-t-il, trouvé une solution pour réduire cet impact. Ils ont développé un algorithme avancé pour les réseaux neuronaux. Leur algorithme entraîne efficacement les réseaux neuronaux analogiques, offrant une alternative économe en énergie aux réseaux numériques traditionnels.

Des algorithmes évolutifs

Leur méthode, qui s’aligne plus étroitement sur l’apprentissage humain (en référence aux réseaux neuronaux et aux puces neuromorphiques), a montré des résultats prometteurs. Elle a été testée avec succès sur trois systèmes physiques basés sur les ondes (sonores, lumineuses et micro-ondes) pour transporter des informations.

Sans entrer dans le détail trop technique, leur approche comporte deux étapes. La première est une passe avant où les données sont envoyées à travers le réseau et une fonction d’erreur est calculée sur la base de la sortie. La seconde étape est une passe arrière (également connue sous le nom de rétropropagation) où un gradient de la fonction d’erreur par rapport à tous les paramètres du réseau est calculé.

Mais cette seconde étape n’est pas l’idéal, car elle nécessite un jumeau numérique et elle consomme beaucoup d’énergie. En cause, les itérations répétées pour que le système se mette à jour sur la base des deux calculs de la première étape afin de fournir des valeurs de plus en plus précises.

L’idée des scientifiques était de remplacer cette seconde étape par un second passage dans le système physique pour mettre à jour localement chaque couche du réseau. En plus de réduire la consommation d’énergie et d’éliminer le besoin d’un jumeau numérique, cette méthode reflète mieux l’apprentissage humain.

L’EPFL n’est pas la seule entité à mener des recherches visant à améliorer les réseaux neuronaux à haut rendement énergétique. Une équipe de chercheurs de l’Oak Ridge National Laboratory (ORNL) a démontré que les algorithmes évolutifs peuvent produire non seulement des réseaux neuronaux qui accomplissent bien une tâche, mais aussi des réseaux économes en énergie, petits et rapides. De quoi accélérer les recherches sur le cancer.

« Créer un logiciel capable de comprendre non seulement le sens des mots, mais aussi les relations contextuelles entre eux n’est pas une tâche simple. Les humains développent ces compétences au fil d’années d’interaction et de formation. Pour des tâches spécifiques, l’apprentissage profond permet de comprimer ce processus en quelques heures », annonce ce laboratoire qui mène des recherches depuis 2014.

Le défi des données

Ces initiatives soulignent les efforts en cours pour améliorer l’efficacité énergétique des réseaux neuronaux, ce qui pourrait conduire à des avancées significatives dans le domaine de l’intelligence artificielle. Ils pourraient être utilisés pour gérer la consommation d’énergie dans divers secteurs.

Ces réseaux permettraient également de déterminer la performance énergétique actuelle d’un bâtiment et prédire le potentiel d’économie d’énergie grâce à des stratégies de rénovation.

Cependant, l’adoption à plus grande échelle de réseaux neuronaux économes en énergie se heurte à plusieurs difficultés. Comme pour l’intelligence artificielle de façon générale, le principal défi est toujours la disponibilité de données pertinentes. Leur absence peut en effet nuire à l’efficacité de ces réseaux.

Autre challenge, le manque de compétences dans le domaine de l’IA et de l’apprentissage automatique. Il faut des professionnels qui comprennent non seulement comment développer et former des réseaux neuronaux, mais aussi comment les mettre en œuvre d’une manière économe en énergie.

Il y a enfin la mise à l’échelle. Pour l’instant, les expériences de l’EPFL ne s’appuient que sur des réseaux neuronaux comportant jusqu’à 10 couches. Est-ce que leur procédé donnerait d’aussi bons résultats sur 100 couches et des milliards de paramètres ? C’est la prochaine étape qui nécessitera de surmonter les limitations techniques des systèmes physiques.


Crédit image de une : © Anaïs Chalard (IMRCP) – Laurence Vaysse (ToNIC) – Brice Ronsin et Stéphanie Bosch (CBI-LITC-TRI), Toulouse

Cellules nichées au cœur des fibres du gel moléculaire de N-heptyl-galactonamide. Les cellules, de forme ronde, sont visibles en vert. Les fibres droites et rigides sont visibles en rose. Les fibres courbes et flexibles sont visibles en vert.

Écoutez notre podcast Cogitons Sciences : Recyclés et biodégradables, une fausse bonne idée ? [Plastique addict : comment s’en débarrasser ? #1]

Pour faire face à la pollution plastique, des solutions alternatives sont mises en avant. Recyclés, biosourcés, biodégradables ou encore compostables… ces différents états sont-ils une bonne idée ? Voici les réponses de Raphaël Guastavi et le témoignage de Thomas Huriez.

Ecouter l’épisode ici !  

L’industrie, addicte au plastique [01:17 – 04:06]

Pour ses différentes caractéristiques, le plastique a largement été utilisé par l’industrie même lorsque ce n’était pas nécessaire. « On est passé à 15 millions de tonnes de plastiques produits dans les années 60 à plus de 300 millions de tonnes aujourd’hui. En France, c’est 5 millions de tonnes de plastique produits pour 1,3 millions de tonnes » explique Raphaël Guastavi.

Des solutions alternatives… plastiques [04:14 – 16:21]

Recyclé, biosourcé, biodégradable ou encore compostable… « la meilleure solution alternative, c’est de réduire le plastique » insiste Raphaël Guastavi. Mais utiliser du plastique recyclé à la place d’une résine vierge est plutôt une bonne idée pour l’expert, notamment pour la réduction de son impact environnemental. Les matériaux biosourcés également, toujours en substitution de matière vierge « et en en utilisant des résidus de culture » précise-t-il. Pour le compostable, la solution doit être limitée à des cas très spécifiques.

L’exemple du jean en plastique recyclé et recyclable [16:32 – 22:49]

1083 conçoit un jean en polyester recyclé et qui est recyclable grâce à sa composition monomatière. En cherchant à développer ce jean, en s’intéressant aux potentiels fournisseurs , « on s’aperçoit que beaucoup de boutons sont en polyester recyclé, que le fil à coudre est très majoritairement en polyester et les étiquettes aussi peuvent l’être, explique Thomas Huriez. Il existait tout ce dont on avait besoin. Pour le moment, la boucle d’économie fermée n’est pas encore mise en route puisque les jeans vendus – consignés à 20 € pour favoriser le retour – ne sont pas, ou très peu, été retournés. Dès que la quantité de jean consignée reçu en retour client sera suffisante, et bien on va les effilocher pour les refondre et les mélanger dans la même filature et en faire un neuf » précise Thomas Huriez.

Une compétition sur les matières [22:53 – 25:34]

« Aujourd’hui, les résines de matières vierges sont abondantes et peu chères, ce qui rend la compétition difficile avec les matières recyclées plus cher » explique Raphaël Guastavi. « C’est vrai que sur une matière première très mûre à recycler comme les bouteilles plastique, il y a une forte tension car c’est très demandé commercialement, ajoute Thomas Huriez. Toutes les marques de boisson veulent montrer à leur client qu’elles font leur part de réchauffement climatique et que leurs bouteilles sont recyclées. » De ce fait, la demande est supérieure à l’offre, ce qui crée des tensions sur les matières premières.

Cliquez ici pour écouter cet épisode

Références citées :

– L’ademe
– 1083
– Le filateur espagnol Antex et le projet Seaqual
– La gamme Infini de 1083

Ressources pour aller plus loin :

Bilan sur 10 ans de recyclage, mars 2024, Ademe
Transition 2050, Ademe
– Les feuilletons : « empreinte matière, empreinte carbone de la France », mars 2024, Ademe
La Permaindustrie, éditions Eyrolles

 

 

Exclue, la Chine joue les cavaliers seuls et accélère le lancement de la 6G

À peine la 5G est-elle utilisée en France avec seulement 12 % des abonnés mobiles en 2023 selon l’ARCEP, que la 6G est déjà annoncée ! Cette nouvelle norme mondiale devrait prendre en charge des cas d’usage qui commencent à émerger dans la 5G, tels que l’IoT LPWA (low-power wide area), l’accès sans fil fixe (FWA), les réseaux non terrestres (NTN) et les communications fiables et urgentes.

Mais pour l’instant, la 6G est loin d’être aboutie. Nous en sommes au stade des prises de position géopolitiques. En février, la France avec neuf autres pays (Australie, Canada, États-Unis, Finlande, Japon, Corée du Sud, République tchèque, Royaume-Uni et Suède) a signé une déclaration commune en faveur d’une norme ouverte. La Chine ne se retrouve pas dans cette liste, car elle a été délibérément écartée.

Pour autant, la Chine reste un acteur majeur de la 6G. La preuve, elle envisage de la commercialiser d’ici à 2030. C’est ce qu’a rappelé en décembre dernier le ministère chinois de l’Industrie et des Technologies de l’information lors d’une importante conférence mondiale de deux jours sur le développement de la 6G qui s’est tenue à Chongqing, dans le sud-ouest de la Chine.

Un satellite chinois pour la 6G

Preuve supplémentaire de l’intérêt de la Chine pour la 6G, China Mobile a lancé avec succès en février dernier le premier satellite au monde pour tester l’architecture 6G. Cet engin héberge une architecture autonome distribuée pour la 6G, qui a été développée conjointement par cet opérateur télécom et l’Académie d’innovation pour les microsatellites de l’Académie chinoise des sciences.

Pour revenir à la 6G, fin 2023, l’organisation mondiale 3GPP (3rd Generation Partnership Project) s’est engagée à développer cette nouvelle génération. Un calendrier de normalisation de la 6G a été décidé lors des réunions du 3GPP de mars 2024. D’autres forums de normalisation industrielle, comme l’Open Radio Access Network (O-RAN) Alliance, participeront également au développement de certaines parties des réseaux 6G.

De 2024 à la fin de 2026, l’UIT (Union internationale des télécommunications) s’emploiera à définir les exigences de performance technique et les méthodes d’évaluation de la performance correspondantes pour la technologie d’interface radioélectrique IMT-2030. Les exigences seront fonctionnelles et seront axées sur l’efficacité spectrale, le temps de latence, la précision de positionnement…

La 6G étant un nouveau système, l’étude portera à la fois sur de nouveaux cas d’utilisation et sur l’amélioration des fonctionnalités déjà prises en charge par la 5G.

Ensuite un processus de soumission des technologies pour l’IMT-2030 commence en 2027 et se poursuivra jusqu’au début de 2029. L’étape finale, qui implique la décision de l’UIT de désigner une technologie comme IMT-2030, devrait être achevée d’ici à 2030.

Un baromètre sur les salaires dans l’industrie en 2024

Le baromètre réalisé par BlueDocker s’appuie sur les données des recrutements réalisés par les consultants de l’entreprise. Afin d’obtenir des résultats précis, BlueDocker a étudié l’ensemble des besoins de ses clients, les fiches de poste, ainsi que les données des candidats en cours de changement de poste ou ayant fait appel à eux.

  • Les données de 15 000 candidats ont été étudiées entre 2019 et 2023.
  • Ces données incluent des PME, startups et grands groupes.
  • L’étude est découpée en trois zones – Paris, grandes villes et régions.
  • Une variation de 2 à 5 % a été observée entre les grandes villes.
  • Les fourchettes de salaires ne tiennent pas compte des primes et concernent les CDI.

L’étude complète est téléchargeable à cette adresse

Quels sont les métiers les plus rémunérateurs ?

Selon l’étude, les métiers d’ingénieur en conception mécanique et d’ingénieur procédé sont les plus rémunérateurs en début de carrière, avec un salaire moyen de 38 500 €.

En revanche, si huit métiers d’ingénieur figurent dans le top 9 des métiers industriels les plus rémunérateurs pour les juniors, il est intéressant de noter que le métier de chargé d’affaires est également bien placé avec un salaire médian autour de 37 500 € en début de carrière.

Salaires médians pour les profils juniors
Salaires médians pour les profils juniors ; 0-2 ans d’expérience (crédit : BlueDocker)

Concernant les profils seniors entre 5 et 7 ans d’expérience, les carrières qui offrent le plus de perspective concernent les postes de directeur de site (85 000 € annuels en moyenne) et de responsable de bureau d’études (80 000 €). D’une manière générale, les postes de responsable figurent naturellement dans le top 10 des métiers les plus rémunérateurs pour les seniors : responsable achats, production, méthodes, logistique, directeur QHSE.

Salaires médians pour les profils seniors
Salaires médians pour les profils seniors ; 5-7 ans d’expérience (crédit : BlueDocker)

Quels sont les profils les plus rares et les plus recherchés ?

Outre la question des salaires, le baromètre de BlueDocker aborde également les problématiques de recrutement pour chaque type de profil, en termes de difficulté de recherche, mais aussi de fréquence.

L’étude permet ainsi de donner un score qu’il faut interpréter de la manière suivante :

  • difficulté de recherche proche de 0 % : profils communs ;
  • difficulté de recherche proche de 100 % : profils extrêmement rares sur le marché de l’emploi ;
  • fréquence de recherche proche de 0 % : les profils les moins recherchés par les clients de BlueDocker ;
  • fréquence de recherche de 100 % : les profils très régulièrement recherchés, donc les plus populaires.

Ces indicateurs permettent ainsi de déceler des métiers particulièrement en tension. Sans surprise, les automaticiens, électromécaniciens, électrotechniciens, dessinateurs projeteurs et techniciens de maintenance figurent en tête des profils industriels à la fois très recherchés et particulièrement rares. Par ailleurs il faut également noter que les chargés d’affaires sont aussi très demandés.

D’autres métiers un peu moins recherchés sont également très difficiles à trouver : les roboticiens, ingénieurs en génie électrique, ainsi que les rédacteurs techniques.

Il faut aussi souligner que si le secteur de la R&D éprouve encore plus de difficultés de recrutement, c’est l’ensemble de l’industrie qui est concerné par les pénuries de profils.

Difficulté et fréquence de recherche des profils industriels
Difficulté et fréquence de recherche des profils industriels. Les scores supérieurs à 90% sont indiqués en rouge (d’après l’étude des salaires des métiers de l’industrie).

Enfin, il est important de souligner que l’étude ne prend pas en compte tous les métiers de l’industrie et qu’un nombre important de profils très pénuriques ne figurent pas dans cette liste ! C’est par exemple le cas des chaudronniers, soudeurs ainsi que de nombreux profils de niveau Bac à Bac+2, notamment en lien avec les métiers de la métallurgie.

La réforme du marché de l’électricité a été adoptée par le Parlement européen

Si elle n’est pas la refonte complète qui était attendue, cette réforme adoptée le 11 avril 2024 place les consommateurs, mais aussi les entreprises, au centre des préoccupations. Elle prévoit également des mesures pour encourager les investissements énergétiques et donne plus de marges de manœuvre aux États membres en cas de crise des prix de l’électricité.

À quels changements faut-il s’attendre ?

Le communiqué de presse officiel résume cette réforme en quatre points :

  • un marché européen de l’électricité plus abordable et plus favorable aux consommateurs ;
  • le recours aux « contrats d’écart compensatoire » pour encourager les investissements dans l’énergie ;
  • les clients vulnérables seront protégés contre les coupures d’électricité ;
  • l’UE aura le pouvoir de déclarer une crise des prix de l’électricité à l’échelle régionale ou européenne.

Des contrats d’écart compensatoire pour soutenir les énergies renouvelables et le nucléaire

Pour encourager les investissements énergétiques, la nouvelle législation prévoit la mise en place de contrats d’écart compensatoire (CEC)¹, ou d’autres régimes ayant les mêmes effets.

Ces contrats bidirectionnels permettront de garantir un rendement minimal pour les investissements tout en évitant des coûts excessifs en cas de nouvelle crise. Les producteurs d’électricité auront également des recettes plus stables.

Le processus est expliqué en détail, sur la page officielle dédiée à la réforme.

  • Le producteur vend l’électricité sur le marché.
  • Il règle ensuite la différence entre le prix du marché et le prix convenu avec l’entité publique.
  • L’excédent de recettes est redistribué au client final.

Par ailleurs, une certaine liberté sera laissée aux États membres concernant le déploiement de cette mesure.

Quels avantages pour l’industrie ?

Cette réforme de l’organisation du marché de l’électricité devrait faire bénéficier, à l’ensemble des consommateurs, particuliers comme professionnels, de tarifs plus abordables et compétitifs. La compétitivité des industries de l’Union est d’ailleurs clairement citée, le texte ayant aussi pour objectif de faciliter « les investissements dans les technologies propres dont elles ont besoin pour réussir leur transition vers le “zéro net” ».

En outre, le texte donne aux États membres la possibilité de « soutenir, en conformité avec les articles 107 et 108 du traité sur le fonctionnement de l’Union européenne, les coûts supplémentaires de l’électricité supportés par les clients industriels en période de crise de l’électricité et de hausses exceptionnellement fortes des prix. »

Concrètement, les gouvernements pourront notamment inciter les entreprises et les promoteurs d’énergies renouvelables à signer des contrats à long terme de vente directe d’électricité (power purchase agreement ou PPA), le but étant, pour les professionnels, de stabiliser les prix.

Un mécanisme dédié aux situations de crise

Pour limiter l’impact des crises énergétiques à venir, le texte donne par ailleurs « une nouvelle arme » au Conseil européen : la possibilité de déclarer une crise des prix de l’électricité, soit à l’échelle régionale, soit à l’échelle de l’Union.

Deux conditions devront être remplies pour déclarer une situation de crise :

  • l’existence de prix moyens très élevés sur les marchés de gros ;
  • de fortes hausses des prix de détail (de l’ordre de 70 %) et une prolongation estimée sur au moins 3 mois.

Un État en situation de crise pourra alors prendre des mesures temporaires afin de fixer les prix de l’électricité et de limiter l’impact pour les PME ainsi que l’ensemble des consommateurs industriels à forte intensité énergétique.


[1] Contracts for Difference ou CfD, en anglais

Hydrogène bas carbone : une demande surestimée en Europe ?

Le moins que l’on puisse dire c’est que l’hydrogène promet de faire couler encore beaucoup d’encre. Le plan RepowerEU fixe un objectif de consommation de 20 millions de tonnes par an d’hydrogène renouvelable au niveau européen à l’horizon 2030. La moitié serait produite en Europe l’autre part serait importée. De là à rêver d’une demande plus forte que la réalité ? C’est que suggère l’étude Sisyphe menée par le CEA et publiée en mars 2024.

L’étude s’appuie sur le témoignage de 70 industriels européens concernant leurs projets engagés et leurs besoins à venir en hydrogène. Sur cette base, elle évalue la demande européenne en hydrogène bas carbone et en molécules dérivées (notamment e-fuels) d’ici 2040. Résultat : elle prévoit une demande en hydrogène obtenu par électrolyse de l’eau à 2,5 millions de tonnes en 2030 et de 9 millions en 2040. Le CEA pointe ainsi « un risque élevé de non-atteinte des objectifs européens », mais met en avant plusieurs leviers pour accélérer le développement de ce marché en Europe.

Le raffinage et la chimie face à la sidérurgie et l’aviation

À titre de comparaison, 9 millions de tonnes d’hydrogène sont aujourd’hui déjà consommées au niveau européen, principalement par les secteurs industriels du raffinage et de la chimie. Il s’agit presque exclusivement d’hydrogène produit à partir d’énergies fossiles. Pour ces secteurs, un frein important à la croissance de la demande en Europe de l’hydrogène bas carbone réside dans la crainte d’un manque de compétitivité par rapport aux énergies fossiles, en absence de taxe carbone élevée.

Alors que la chimie et le raffinage sont les utilisateurs « historiques » de l’hydrogène, la plupart des acteurs ne prévoient pas d’évolution majeure de leur appareil de production avant 2040. Et ce d’autant plus que l’avenir d’une partie des raffineries est désormais incertain, face aux enjeux de sortie des énergies fossiles. Si le secteur de la chimie sera soumis à des cibles d’incorporation d’hydrogène renouvelable dès 2030, « les acteurs interrogés soulignent l’absence en l’état de modèle économique viable », précise le rapport.

L’hydrogène fait partie des plans de décarbonation pour remplacer les énergies fossiles dans l’industrie et les transports lourds entre 2030 et 2050. Le plan de décarbonation de la sidérurgie prévoit notamment l’installation de fours DRI (Direct Reduction of Iron) utilisant de l’hydrogène. Et la réglementation européenne ReFuelEU Aviation prévoit de soumettre le transport aérien à des cibles d’incorporation d’e-kérosène dès 2030. « En l’état, la sidérurgie et le transport aérien seraient les secteurs les plus demandeurs en hydrogène électrolytique sur la période 2030-2040 », précise le CEA. Ces deux secteurs représenteraient près de 75 % de la demande en 2040.

Scénario Sisyphe de la demande européenne en hydrogène électrolytique, secteur par secteur
Source : CEA

Un manque d’électricité et d’infrastructures ?

Le manque de garanties concernant la disponibilité de quantités suffisantes d’électricité bas carbone et de planification de l’infrastructure associée participe aussi à la frilosité des industriels. Dans le cadre du scénario Sisyphe, pour produire les 2,5 millions de tonnes d’hydrogène bas carbone en 2030, le CEA estime qu’il faudrait déjà 120 térawattheures (TWh) d’électricité. Et il en faudrait 420 TWh en 2040 pour produire 9 millions de tonnes, soit l’équivalent de la consommation électrique française actuelle.

Le scénario implique par ailleurs d’installer au minimum entre 3 et 5 gigawatts (GW) d’électrolyseurs chaque année dès 2028, à condition d’avoir suffisamment d’électricité bas carbone disponible. Sinon, « il faudrait installer des capacités d’électrolyse encore plus importantes, ce qui pose la question de la disponibilité d’électrolyseurs de grande puissance dès la fin de la décennie », prévient le CEA.

À ces freins s’ajoute l’instabilité du cadre réglementaire combiné à des mécanismes de soutien « insuffisamment incitatifs », souligne le CEA. Pour remédier à cette retenue, le CEA appelle à « accélérer le développement de capacités de production d’électricité bas carbone (renouvelables et nucléaires) en Europe », à « assurer le passage à l’échelle des installations de production d’hydrogène et de molécules dérivées » et à « clarifier et stabiliser les mécanismes de support, avec des dotations financières en cohérence avec les objectifs ».


Crédit visuel à la une : image générée sur Adobe Firefly

E7A : Renault et Valeo dessinent l’avenir du moteur électrique, toujours sans terres rares

Avec une première génération mise sur le marché dès 2012, suivie d’une deuxième en 2022, Renault Group fait véritablement figure de pionnier du moteur électrique sans terres rares dans le secteur automobile. Précurseur, l’industriel n’en oublie pour autant pas les défis actuels – notamment celui de la recharge rapide et de l’autonomie autoroutière des véhicules à batteries – et planche désormais avec l’aide de son partenaire équipementier Valeo sur une troisième génération de moteur, toujours sans terres rares, car dépourvu d’aimant permanent. Un projet auquel chacun des deux acteurs apporte sa propre expertise : le rotor bobiné pour Renault Group et le stator dit « hairpin » pour Valeo.

Directeur des technologies et projets amont au sein de la filiale Ampere de Renault Group, Maxime Bayon de Noyer nous retrace les origines de ce projet et nous en décrit les grands objectifs. Le responsable lève aussi le voile sur d’autres axes de travail explorés par Renault via sa nouvelle filiale dédiée au véhicule électrique, créée en novembre dernier.

Techniques de l’Ingénieur : Quelles sont vos fonctions au sein de cette jeune filiale créée au sein de Renault Group, Ampere ?

Maxime Bayon de Noyer : Je suis directeur en charge des technologies et des projets amont liés aux véhicules électriques à batterie, mais aussi à pile à combustible hydrogène. Mon périmètre d’action couvre à la fois les technologies liées aux moteurs électriques en tant que tels, l’électronique de puissance, les batteries, leur chimie et leur intégration au sein des véhicules, ainsi que tous les aspects liés à la gestion thermique des voitures. Autant de technologies qui sont propres à l’électrique et qui nécessitent donc une approche différente de celle adoptée jusqu’à présent pour les véhicules thermiques.

Alors que nous misions sur des plateformes flexibles pour nos voitures thermiques, nous développons en effet désormais, pour le véhicule électrique, des plateformes qui sont en continuité avec le moteur et la batterie. Tout cela s’étudie donc d’une manière globale. C’est pour cette raison que Renault a décidé de réunir toutes ses forces dédiées à la voiture électrique au sein de cette nouvelle filiale, Ampere. C’est donc désormais dans ce cadre que nous menons le développement de notre nouvelle génération de moteur électrique E7A.

Un projet qui est antérieur à la création d’Ampere… Quelles en sont les origines ?

Depuis ses débuts sur le marché du véhicule électrique de grande série et le lancement de la Zoe, Renault fabrique ses propres moteurs électriques. Nous sommes donc motoristes pour une majeure partie de nos volumes de ventes. Dans ce contexte, nous nous sommes dès le départ souciés de deux facteurs importants. Le premier d’entre eux concerne l’empreinte carbone liée à la fabrication de ces moteurs. Le second est le rendement de ces mêmes moteurs. Pas tant le rendement sur un cycle WLTP d’ailleurs, mais le rendement sur autoroute. C’est bien, en effet, la consommation sur autoroute qui va conditionner le dimensionnement de nos batteries. Dans ce cadre-là, nous avons donc opté depuis le départ pour une technologie de moteur électrique en particulier, sur laquelle nous avons été véritablement pionniers : le moteur dit « EESM », pour Electrically Excited Synchronous Motor[1]. Il s’agit d’une technologie de moteur sans aimant permanent, et donc sans terres rares, doté d’un rotor bobiné. Ce bobinage se transforme en un électroaimant sous l’action d’un module d’excitation sans contact.

Nous avons opté pour cette technologie d’une part pour le bon bilan carbone qu’elle permet d’obtenir à la fabrication des moteurs, mais aussi d’autre part pour le rendement qu’elle offre à haute vitesse et faible couple, ce qui est typiquement le cas sur autoroute. En l’absence d’aimants permanents, la technologie EESM est aussi, évidemment, synonyme de non-recours aux terres rares…

D’autres constructeurs ont, eux, misé à leurs débuts sur d’autres technologies sans aimant : des machines asynchrones, en l’occurrence, dont le rendement se révèle un peu moins bon. Nous avons quant à nous trouvé, avec cette technologie EESM, une solution pour concilier rendement optimal et non-recours aux aimants permanents, et ce il y a plus de dix ans maintenant…

Après une première génération de moteurs sur la Zoe, nous avons développé une deuxième génération, que nous avons lancée avec la Megane E-Tech et que nous nous apprêtons aujourd’hui à décliner sous la forme d’un nouveau moteur d’une « demi-génération » d’écart sur l’un de nos nouveaux modèles, la Renault 5 électrique.

Renault et Valeo codéveloppent un moteur électrique sans terres rares
Renault et Valeo apportent chacun leur pierre à l’édifice qu’est ce projet de codéveloppement d’une toute nouvelle génération de moteur électrique sans terres rares. © MARTIN-GAMBIER Olivier

Au-delà de ça, nous cherchons désormais à pousser le rendement dans ses retranchements, mais aussi, par ailleurs, à accroître la vitesse de charge de nos futurs véhicules, en particulier de nos voitures du segment C, les grandes routières… Cette ambition va ainsi se traduire par le passage de nos véhicules à une architecture électrique 800 volts, ce qui a naturellement un impact direct sur le moteur en tant que tel. C’est comme cela que nous avons lancé, en 2021, ce nouveau projet baptisé E7A.

Alors que nous entamions nos réflexions amont sur le développement de ce moteur, nous avons échangé avec notre fournisseur historique Valeo et fini par nouer un partenariat « gagnant-gagnant » sur ce projet.

Quel rôle jouez-vous, l’un et l’autre, dans ce projet de codéveloppement ?

Nous apportons, de notre côté, notre technologie de rotor bobiné. Valeo apporte quant à lui une technologie en matière de stator baptisée « U-pin » ou « Hairpin » : en lieu et place d’un fil de cuivre bobiné, cette approche s’appuie sur des pièces de cuivre semblables à des barrettes à cheveux en forme de U. Insérées dans le stator puis soudées, ce sont elles qui vont permettre de générer le champ magnétique côté stator. Les avantages de cette technologie sont multiples : le rendement du moteur est meilleur et son isolation plus facile, même à 800 volts. Notre objectif commun est ainsi de parvenir à marier nos savoir-faire respectifs, pour tirer parti du meilleur des deux mondes et développer, in fine, une technologie commune.

Où en est, pour l’heure, le projet ? Quels sont vos objectifs, à terme ?

Le projet se situe encore en phase amont. Nous espérons passer ce cap dans le courant de cette année. Quant à nos objectifs finaux, nous espérons – au moment où ce moteur sortira – pouvoir nous positionner en tant que leaders du marché sur cette caractéristique précise qu’est le rendement sur autoroute. Le rendement en ville sera certainement lui aussi très bon, mais ça n’est pas notre objectif principal dans le cadre de ce projet. Nous visons en tout cas également un coût relativement modéré, évidemment, tout en continuant à produire en France.

Plus largement, nous espérons aussi obtenir un ensemble moteur – électronique de puissance plus compact.

Quelles seront, justement, les évolutions en matière d’électronique de puissance qui seront nécessaires pour accompagner le développement de ce nouveau moteur et de cette architecture électrique 800 volts ?

Pour la partie « onduleur », nous utilisons, pour l’heure, des transistors de puissance IGBT. Nous comptons, demain, passer sur des composants en carbure de silicium (SiC). En matière de recharge, nous allons mettre sur le marché cette année une première génération de chargeurs bidirectionnels dans le cadre de la sortie de la Renault 5 E-Tech electric. D’ici à la sortie du nouveau moteur que nous développons, nous allons encore améliorer les fonctions de bidirectionnalité de nos chargeurs, tout en augmentant leur puissance : notre objectif est de proposer, demain, une charge en seulement 15 minutes pour une autonomie de deux heures sur autoroute. Cela serait en effet en phase avec la préconisation en matière de sécurité routière… C’est donc vraiment ce qui nous guide aujourd’hui. Cela implique un travail important sur des aspects de gestion thermique de la batterie, notamment son pré-conditionnement.

L’évolution de la chimie des batteries fait-elle également partie de vos axes de travail ?

Nous travaillons effectivement sur cet aspect, mais nos travaux, à ce stade, visent essentiellement à réduire l’empreinte carbone, mais aussi le coût de nos batteries, qui représentent en effet pour l’heure jusqu’à 40 % du prix de fabrication d’une voiture. Ceci afin de rendre le véhicule électrique accessible à tous.

Comme beaucoup d’autres acteurs, nous étudions bien entendu aussi la possibilité de sortir de la technologie lithium pour passer au sodium. Pour nos citadines, peut-être, mais sans doute pas pour nos voitures autoroutières, les compromis en termes de densité énergétique s’annonçant en effet rédhibitoires…

Pour en revenir à ce projet de moteur E7A en tant que tel, à quelle échéance son industrialisation pourrait-elle intervenir ? Comment comptez-vous organiser sa production dans le cadre du partenariat que vous avez noué avec Valeo ?

Le moteur électrique nouvelle génération E7A sera produit en 2027
Encore en phase de prototypage, le moteur électrique nouvelle génération E7A devrait entrer sur les lignes de production de série en 2027. © Le 7eme Bureau

Nous tablons sur 2027. La fabrication du moteur pourra alors être réalisée dans nos usines ou celles de notre partenaire Valeo. Nous fabriquerons chacun de notre côté des éléments, et l’assemblage final pourra être réalisé chez l’un, chez l’autre, ou chez chacun d’entre nous, en fonction de nos besoins.

Quelle(s) catégorie(s) de véhicules pourrait-il alors équiper ?

Ce moteur de la classe des 200 kW s’adressera aux voitures des segments C et D, ainsi qu’aux véhicules utilitaires. Nous pourrons, éventuellement, en développer une variante pour des véhicules plus petits, mais nous nous intéressons aussi à d’autres technologies de moteurs pour l’avenir, avec d’autres priorités que le seul rendement autoroutier, mais, bien entendu, toujours sans terres rares !


[1] Moteur synchrone à excitation externe.

Crédit visuel de une : Tom Radetzki sur Unsplash

Le bitcoin est-il nocif pour notre planète ?

Le réseau Bitcoin consomme une quantité d’énergie impressionnante. Le processus de « minage » nécessite une puissance de traitement importante pour résoudre des problèmes mathématiques complexes, rendant la falsification des enregistrements difficile. Fin novembre 2023, une étude publiée dans Cell Reports Sustainability avait notamment estimé qu’il consommait environ 2,2 billions de litres d’eau par an.

Avec la flambée actuelle du prix du bitcoin, la question revient sur le devant de la scène. Le prix d’échange avait en effet atteint, le 8 mars dernier, un nouveau record sur les marchés financiers, en dépassant brièvement les 63 900 euros !

Cependant, évaluer l’impact réel de Bitcoin est difficile en raison de la nature décentralisée du réseau et de l’incertitude entourant le matériel et les sources d’énergie utilisés par les mineurs. La traduction des données de minage de Bitcoin en émissions de carbone est donc complexe. Les études se basent généralement sur les adresses IP des mineurs pour déterminer leur emplacement et les sources d’énergie utilisées.

Des trillions de litres d’eau

Dans un article des chercheurs de l’Université des Nations unies à Hamilton, environ 67 % de l’énergie utilisée par Bitcoin entre 2020 et 2021 proviendrait de combustibles fossiles, principalement en Chine, au Kazakhstan et en Russie. Cela entraînerait l’émission de 85,89 mégatonnes de CO2. De son côté, le Cambridge Bitcoin Electricity Consumption Index (CBECI) estime les émissions annuelles de CO2 du Bitcoin à 77,98 mégatonnes. Les calculs du CBECI sont basés sur des données de localisation de 2022, et une mise à jour est prévue pour refléter le départ de nombreux mineurs de la Chine et du Kazakhstan.

Par contre, l’estimation de l’Université des Nations unies à propos de l’empreinte hydrique (1,65 trillion de litres d’eau sur la même période) diffère largement de l’étude précédemment citée. Un important décalage qui confirme les difficultés à faire des estimations au plus juste.

Mais la plupart des estimations supposent que la consommation d’électricité augmente proportionnellement à la demande de calcul, alors qu’en réalité, la technologie devient plus efficace à grande échelle.

Quel que soit l’impact du Bitcoin, il est important de se focaliser sur les solutions permettant de réduire son impact sur l’environnement. Plusieurs pistes peuvent être étudiées. Les gouvernements pourraient mettre en œuvre des politiques visant à réguler l’impact environnemental du minage de Bitcoin. Aux États-Unis, le gouvernement a proposé de taxer les mineurs de cryptomonnaies afin de réduire l’impact environnemental.

Bitcoin et Tesla

Les innovations technologiques pourraient conduire à des processus de minage plus efficaces. Il peut s’agir du développement de nouvelles solutions matérielles ou logicielles qui réduisent la quantité d’énergie nécessaire au minage.

Les mineurs tendent à s’installer dans des régions où l’énergie est bon marché, souvent renouvelable comme l’hydroélectricité, le solaire et l’éolien. Certains utilisent également des « énergies non renouvelables » comme le méthane résiduel des puits de pétrole et des décharges, qui peut être utilisé comme source d’énergie neutre en carbone.

Block (anciennement Square), une société américaine a ouvert au Texas une mine de bitcoins alimentée par l’énergie solaire et le stockage de… Tesla. De son côté, HIVE Blockchain, une entreprise canadienne utilise une centrale hydroélectrique pour alimenter son installation de minage d’Ethereum en Suède. Enfin, CH4 Capital créé par Daniel Batten (investisseur spécialisé dans les technologies climatiques) déploie des solutions de minage permettant de réduire les émissions de méthane en convertissant les gaz d’échappement en électricité.

Un récent rapport du Bitcoin Mining Council a d’ailleurs révélé qu’au premier trimestre 2022, l’industrie minière du bitcoin dans son ensemble utilisait un mélange d’électricité durable de 58,4 %.

Traitement des eaux urbaines résiduaires : l’UE renforce les règles afin d’améliorer la qualité du traitement

Cette révision des normes permettra de mieux protéger l’environnement et la santé publique au sein de l’UE, par une surveillance accrue des polluants chimiques, des agents pathogènes et de la résistance aux antimicrobiens. Si au moins 80 % des coûts de traitement devaient être financés par les industriels, les municipalités européennes craignent cependant une explosion de leurs coûts.

Des traitements qui devront évoluer sur le long terme

Le texte qui a été adopté le 10 avril 2024 à une large majorité (481 voix pour, 79 contre et 26 abstentions) prévoit trois échéances : 2035, 2039 et 2045.

Dans un premier temps, d’ici 2035, les collectivités de plus de 1 000 équivalents-habitant (EH) devront mettre en place un traitement secondaire des eaux usées urbaines afin d’éliminer les matières organiques biodégradables. Jusqu’ici, ce type de traitement n’était imposé qu’aux communes de plus de 2 000 habitants par la Directive 91/271/CEE.

Il faut néanmoins rappeler qu’en France, les STEU (stations de traitement des eaux usées) délivrant au moins un traitement secondaire représentent déjà 97 % de la capacité totale des STEU en activité.

Mais d’ici 2039, un traitement tertiaire sera également imposé aux communes de plus de 150 000 habitants, afin d’éliminer l’azote et le phosphore. Cette jauge sera ensuite abaissée aux communes de plus de 10 000 habitants en 2045. Sur ce volet, la nouvelle législation ira donc bien plus loin que la Directive 91/271/CEE qui l’impose uniquement dans des zones « définies comme sensibles ».

Enfin, et c’est probablement le plus intéressant, cette nouvelle loi ne compte pas s’arrêter là, puisqu’en 2045 des traitements supplémentaires seront obligatoires afin de traiter un large éventail de micropolluants. Ce traitement dit « quaternaire » sera ainsi imposé aux stations de plus de 150 000 EH[1].

Micropolluants : les PFAS sont aussi en ligne de mire

Qu’entend-on par « micropolluants » ?

Si le texte ne donne pas de liste précise, il suggère néanmoins de « se concentrer sur les micropolluants organiques qui représentent une part importante de la pollution et dont les technologies d’élimination existent déjà. »

Ces traitements quaternaires devraient donc permettre d’éliminer un large éventail de micropolluants résiduels dont les résidus de médicaments, de produits cosmétiques, mais aussi les microplastiques et les PFAS qui font régulièrement l’actualité.

Une responsabilité élargie des industriels vis-à-vis de la pollution des eaux

Dans une estimation publiée en 2020, la Commission européenne et l’OCDE évaluaient le coût d’une telle directive à 289 milliards d’euros supplémentaires pour l’approvisionnement en eau et l’assainissement, à l’horizon 2030 (pour l’ensemble des 28 pays de l’UE).

La question du financement est donc cruciale, les municipalités de l’UE ne pouvant supporter la majorité du surcoût de traitement. Pour y remédier, le texte prévoit alors la mise en place de régimes de responsabilité élargie des producteurs (REP), qui mettront donc à contribution les industriels, sur le principe du pollueur-payeur.

Pour le moment, seuls deux types de polluants figurent à la liste des produits couverts par ce régime de REP : les médicaments à usage humain[2] et les produits cosmétiques[3]. Néanmoins, la liste sera amenée à évoluer, et pourrait varier suivant les États membres, puisque le texte rappelle qu’ils « peuvent dépasser les exigences minimales énoncées dans la présente directive, par exemple en appliquant des délais ou des seuils plus stricts que ceux qui y sont prévus (…) et/ou en instituant des exigences supplémentaires concernant l’application de leurs régimes nationaux de responsabilité élargie des producteurs ou en élargissant le champ d’application de ceux-ci. »

Il n’est donc pas exclu qu’une REP PFAS soit un jour mise en place en France. C’est même fort probable, puisque cette REP fait partie des recommandations présentées dans le rapport PFAS qui a été remis au Premier ministre le 4 janvier 2024, au même titre que la création d’une filière de traitement.


[1] Voire 10 000 EH, si une évaluation des risques l’impose.

[2] Relevant du champ d’application de la directive 2001/83/CE du Parlement européen et du Conseil.

[3] Relevant du champ d’application du règlement (CE) 1223/2009 du Parlement européen et du Conseil du 30 novembre 2009 relatif aux produits cosmétiques.

Crédit image de une : image générée sur Adobe Firefly

CCB Greentech : et le bois devient béton

De l’eau, du ciment, des granulats[1]. Tels sont, depuis des décennies, les trois ingrédients de base d’un matériau ancestral aujourd’hui réputé pour être le plus utilisé au monde : le béton. Il y a un peu moins de vingt ans, deux passionnés du monde de la construction entrevoient toutefois une possibilité nouvelle : remplacer les granulats du béton par… des déchets de bois. Une idée pour le moins surprenante, issue de l’expérience professionnelle de l’un d’eux, comme le retrace Caroline Gérard, directrice marketing et du développement commercial de l’entreprise née de cette intuition, CCB[2] Greentech : « Le président fondateur de l’entreprise, François Cochet, a fait toute sa carrière dans le domaine de l’exploitation forestière. Bûcheron à ses débuts, il a fini par prendre les rênes d’une scierie, Bois du Dauphiné. Il s’est ainsi trouvé confronté à une problématique majeure : celle de la gestion des déchets de cette scierie. En moyenne, ce type de site génère en effet près de 40 % de résidus. Outre celle du bois, sa passion pour la construction l’a amené à échanger avec un autre passionné de ce domaine, Laurent Noca, diplômé de l’École nationale supérieure d’Arts et Métiers. Ils ont ainsi tous les deux décidé d’explorer cette voie d’un béton dans lequel les granulats seraient remplacés par des déchets de bois ».

Quinze ans de R&D

Les deux hommes se lancent ainsi en 2006 dans l’aventure CCB Greentech. Le matériau sur lequel ils travaillent alors n’est, en tant que tel, pas tout à fait nouveau : du béton additionné de bois était déjà utilisé pour la fabrication de murs antibruit érigés en bordure d’autoroutes. Un matériau présentant toutefois un inconvénient majeur : son instabilité dimensionnelle. Pendant pas moins de quinze ans, le duo s’est ainsi attelé à d’importants travaux de R&D, portant tout d’abord sur la formulation de ce futur béton de bois. « Ils ont misé sur la substitution intégrale du sable et des graviers par des déchets de bois. Ils ont pour cela cherché à définir quels types de bois seraient les plus appropriés, quelle granulométrie serait la plus adaptée, et quel dosage ciment-eau-bois donnerait au matériau les meilleures propriétés », explique Caroline Gérard.

CCB GREENTECH et le bois dit «de trituration»
Pour produire le granulat à la base de son béton de bois, CCB Greentech utilise du bois dit «de trituration». Crédit photos : CCB GREENTECH

Explorant naturellement, en premier lieu, la piste des déchets de scieries, les cofondateurs de CCB Greentech finissent finalement par se tourner vers un autre coproduit de la filière forêt-bois : le bois de trituration. « Il s’agit de coproduits de forêt, et plus précisément de tous les arbres qui n’ont pas les caractéristiques nécessaires pour faire du bois d’œuvre, parce que trop courts, trop courbés, ou présentant trop de nœuds, par exemple », éclaire Caroline Gérard. Des arbres destinés jusqu’alors à la fabrication de pâte à papier ou au bois énergie…

CCB GREENTECH - Le granulat de bois est additivé avec un liant minéral
Le granulat de bois est additivé avec un liant minéral. Crédit photos : CCB GREENTECH

Pour pouvoir en faire du béton, François Cochet et Laurent Noca ont ainsi imaginé un procédé consistant à broyer ce bois de trituration pour en faire un « granulat », ensuite additivé d’un liant minéral, avant d’être mélangé à de l’eau et du ciment pour finalement donner naissance à un béton de bois aux multiples vertus écologiques (lire en encadré ci-dessous). Contenant ainsi plus de 80 % de bois en volume, le matériau se révèle trois fois plus léger[3], à volume égal, que le béton, mais aussi – et surtout – très stable sur le plan dimensionnel.

Outre ce travail de dosage et de formulation, les deux hommes se sont également penchés sur un second pan de leurs travaux de R&D, celui de la mise en œuvre du matériau. « Une fois la formulation mise au point, ils ont cherché à déterminer le principe constructif le plus adapté à la mise en œuvre de ce béton de bois », explique Caroline Gérard. Une approche leur apparaît alors rapidement comme la plus pertinente : la préfabrication. « On n’en parlait pourtant pas beaucoup à l’époque », souligne la directrice marketing.

Visionnaires sur tous les plans, les deux cofondateurs finissent ainsi par aboutir, en 2021, à l’industrialisation de leur solution, qu’ils baptisent alors TimberRoc[4], une technologie protégée par pas moins de dix brevets. « Ils ont, au cours de ces quinze années de R&D, donné naissance à une cinquantaine de réalisations concrètes, qui ont ainsi permis de mettre à l’épreuve le matériau et son principe constructif », note Caroline Gérard.

Une production industrielle

CCB GREENTECH - Les principes constructifs permettant la mise en œuvre du matériau, par préfabrication
Outre le matériau en tant que tel, l’entreprise a également travaillé sur les principes constructifs permettant sa mise en œuvre, par préfabrication. Crédit photos : CCB GREENTECH

Au cours de cette période, CCB Greentech décroche également, en 2010, un premier avis technique du CSTB[5], préalable indispensable à la mise sur le marché d’un procédé de construction innovant. Un premier aboutissement suivi, à l’issue de la phase d’industrialisation lancée en 2021, de l’obtention par CCB Greentech d’une série « d’ATEx[6] de cas “a”[7] » portant sur les différents principes constructifs développés par l’entreprise : mur porteur à chaînage béton, façade non porteuse ou encore prédalle nervurée[8]. « Notre béton de bois permet aujourd’hui de préfabriquer des murs porteurs jusqu’en R+3, voire R+3+attique[9]. Il peut aussi être utilisé en tant que mur non porteur, en remplissage de structures poteau-poutre béton, et permet dans ce cas de monter jusqu’en R+10. C’est l’un de ses gros avantages par rapport à d’autres matériaux biosourcés. Quant aux prédalles nervurées, dont l’ATEx est en cours d’obtention, leur portée pourra atteindre 7 m », fait valoir Caroline Gérard, qui souligne au passage un autre avantage technique majeur de cette préfabrication : sa résistance au feu.

Pour assurer la production de l’ensemble de ces éléments préfabriqués, CCB Greentech a concédé à deux industriels partenaires une licence d’exploitation de sa technologie TimberROC® : Spurgin Leonhart – spécialiste alsacien de la préfabrication-béton, qui dispose notamment d’une usine dédiée au béton de bois implantée à La-Roque-d’Anthéron dans les Bouches-du-Rhône, et compte en ouvrir une seconde en mai prochain dans la région de Chartres – et R-Technologies, entreprise haut-savoyarde, filiale du groupe Cheminal, qui rayonne sur toute la région Auvergne-Rhône-Alpes. « Notre objectif est de multiplier les partenariats de ce type pour mettre en place un maillage national de préfabricants d’ici 5 ans », dévoile Caroline Gérard.

CCB GREENTECH - L’entreprise, son unité de production industrielle, et son usine pilote
L’entreprise a reconverti une friche industrielle de 5 ha, où elle a implanté une unité de production industrielle ainsi qu’une usine pilote. Crédit photos : CCB GREENTECH

Des préfabricants à qui CCB Greentech fournit cette matière première qu’est le granulat de bois additivé qu’elle produit – à partir de bois issu uniquement de forêts françaises et majoritairement d’exploitants certifiés PEFC – dans une usine de 2 000 m2 implantée sur son site de Beaurepaire, en Isère, ex-friche industrielle de 5 ha reconvertie entre 2021 et 2022 par l’entreprise. « Nous disposons pour l’heure d’une capacité de production annuelle permettant la préfabrication d’un million de m2 de murs », précise la directrice du Marketing et du développement commercial de l’entreprise qui dispose également, sur ce même site, d’une seconde usine – pilote quant à elle – implantée sur 12 000 m2 aux côtés d’un showroom et de démonstrateurs à taille réelle.

De quoi accompagner la montée en puissance vécue ces derniers mois par l’entreprise iséroise, visiblement pas prête de s’essouffler… Comme le souligne en effet finalement Caroline Gérard, « avec plus d’une quarantaine de projets dans les tuyaux, nous connaissons aujourd’hui une véritable accélération ». Comptant pour l’heure 14 salariés, la PME compte à terme recruter pas moins de 48 personnes sur son site isérois de Beaurepaire, et table sur une croissance de son chiffre d’affaires de 1,5 M€ en 2023 à 27,95 M€ d’ici à 2026.

Le béton de bois : un matériau aux multiples vertus

Composé à 80 % de bois en volume, le béton de bois TimberROC® développé par CCB Greentech bénéficie ainsi, en premier lieu, d’un bilan carbone particulièrement favorable, très « négatif », au sens où il permet de stocker bien plus de carbone qu’il n’en émet dans l’atmosphère tout au long de son cycle de vie. « Ce bilan carbone est attesté par cinq FDES pour chacun de nos principes constructifs, réalisées par un laboratoire indépendant », souligne Caroline Gérard. « Une tonne de bois stocke environ 1,8 tonne de CO₂. Du carbone qui n’est à aucun moment relargué une fois encapsulé dans la matrice cimentaire de notre matériau », ajoute-t-elle. De quoi offrir aux projets de construction une forme de « crédit carbone » dès leur lancement…

Hormis ce point central, le TimberROC® de CCB Greentech présente également des performances thermiques remarquables : un R de 1,9 pour une épaisseur de 30 cm, un taux d’amortissement thermique maximum de 98 % et un déphasage thermique de 17 h sur un mur brut de cette même épaisseur. « Notre béton de bois se distingue également sur le plan hygrothermique grâce à sa perspirance[10] élevée », ajoute la directrice marketing. De quoi offrir aux occupants d’un bâtiment en béton de bois un confort « hors-norme », selon l’entreprise.

Imputrescible et insensible aux attaques d’insectes xylophages, le béton de bois est aussi résistant au feu et très stable sur le plan dimensionnel, avec une variation inférieure à 1 mm par mètre linéaire entre états extrêmes.

Enfin côté coûts, CCB Greentech avance un prix de l’ordre de 180 à 200 € par m² pour un mur brut livré et posé. « Si l’on prend en compte un projet dans son ensemble, avec un accent mis sur l’écoconception, l’utilisation de notre béton de bois n’entraîne un surcoût que de 2 à 5 % environ », assure Caroline Gérard, qui met en avant trois grands facteurs pour expliquer cela, à commencer par le faible poids du matériau : trois fois moins dense que le béton, il autorise en effet la mise en place de fondations plus légères elles aussi et donc moins coûteuses. « Nos principes de construction permettent également de se passer, dans 90 % des cas, de rupteurs de pont thermiques », ajoute la directrice marketing, avant de dévoiler le troisième et ultime argument en matière de coût du matériau : son bilan carbone particulièrement négatif évoqué plus haut, qui permet ainsi à lui seul de répondre aux exigences du RE2020, sans avoir à recourir à d’autres matériaux biosourcés. Une autre source potentielle d’économies, conjuguées ainsi, en outre, à l’écologie.

  • [1] Fragments minéraux de nature et taille variées, cf. en détail.
  • [2] Carbon Capture Buildings.
  • [3] Sa masse volumique est de 800 kg/m3.
  • [4] La technologie TimberROC® est constituée par le matériau béton de bois et ses différents principes constructifs de préfabrication.
  • [5] Centre scientifique et technique du bâtiment.
  • [6] Appréciation Technique d’Expérimentation : procédure rapide d’évaluation technique formulée par un groupe d’experts sur tout produit ou procédé innovant. Cette évaluation permet des premiers retours d’expérience sur la mise en œuvre de produits ou procédés en préalable à un Avis Technique (source).
  • [7] L’ATEx de cas « a » vise un produit ou un procédé appliqué sur différents chantiers pendant une durée limitée déterminée (source).
  • [8] ATEx de cas « a » attendu pour le 2d trimestre de cette année.
  • [9] Niveau supérieur d’un bâtiment, de dimensions réduites par rapport aux autres étages, délimité par une corniche (source).
  • [10] Coefficient de résistance à la diffusion de vapeur d’eau (μ) de 10, contre 80 à 130 par exemple pour le béton armé conventionnel (source).

Des essaims robotiques au comportement de bancs de poissons

Bancs de poissons, nuées de sauterelles et autres colonies de fourmis forment des structures collectives en pleine nature. Or, le groupe est amené à faire face à diverses situations et doit alors être capable d’y réagir rapidement tout en gardant sa cohésion. Pouvoir jongler aisément entre réaction et cohésion demande aux animaux de faire continuellement la différence entre les informations utiles (ceci est une source de nourriture, ceci est un prédateur) et le « bruit de fond » environnant. En y parvenant, ces collectifs vivants finissent par surpasser la somme de leurs parties et répondre plus efficacement aux menaces et aux défis qu’ils rencontrent. C’est en s’inspirant de cette « intelligence collective » que les deux chercheurs de l’université du Texas à Austin (États-Unis), Zhihan Chen et Yuebing Zheng, ont eu l’idée de l’appliquer à un essaim de minuscules machines. Ils ont travaillé pendant plus d’un an pour tenter de recréer des interactions sociales parmi leur armada robotique, en vue d’obtenir un groupe parfaitement coordonné. Les résultats sont parus début avril 2024 dans le journal Science Advances.

Des essaims de robots travaillant en groupe

Dans la nature, une hypothèse veut que les poissons d’un banc s’effarouchent une fois que le nombre de signaux d’avertissement émis par leurs voisins franchit un certain « seuil de danger ». Ainsi, le banc tout entier adapte en quelque sorte sa « sensibilité » à son environnement proche. Pour imiter ce comportement, les chercheurs ont affublé leur essaim d’un nouveau trait distinctif : la temporisation adaptative. Ainsi, chaque robot ajuste son déplacement au sein du groupe en fonction des changements de l’environnement local. Avant de passer à la machinerie, Zhihuan Chen et Yuebing Zheng ont testé leur concept avec des microsphères de silice d’un diamètre moyen de 1,97 μm (les robots) placées en solution (l’environnement). En effet, chaque particule a beau être guidée par un rayon laser individuel, le mouvement brownien (le déplacement aléatoire d’une particule immergée dans un liquide) fait que sa direction réelle dévie. Le système d’expérimentation simule ainsi la réponse de l’essaim à un environnement « bruyant », en perpétuel mouvement.

L’expérience a montré aux scientifiques l’efficacité de leur temporisation adaptative. La réactivité de l’essaim modifié a été multipliée par 1,6 comparée à celle d’un essaim standard, soit un gain de temps d’environ 38 %. Et ce, sans perdre la cohésion du groupe pour autant ! En associant la temporisation adaptative à du transport longue distance et à des capacités d’évitement d’obstacles, l’idée d’un prototype d’essaim robotique intelligent est loin d’être farfelue. Dans un premier temps, la temporisation adaptative pourrait fournir une meilleure efficacité aux flottes de drones autonomes. Mais par la suite, des essaims de mini-robots pourraient très bien servir à délivrer des médicaments de manière ciblée ou encore à décontaminer des eaux polluées. Pour le moment, les chercheurs de l’université du Texas à Austin s’évertuent à tester les limites de leur invention en multipliant les obstacles. La prochaine étape devrait ainsi consister à passer d’une solution stationnaire à un liquide en écoulement.

Les thèses du mois : « GNL : solution transitoire ou fuite en avant ? »

Pour notre dossier de janvier, « GNL : solution transitoire ou fuite en avant ? », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

Étude dynamique des systèmes de stockage de chaleur cryogénique en vue de leur application dans la reliquéfaction et la gestion des gaz dans les navires de transport de GNL
Ghiwa Shakrina
Thèse de doctorat en Énergétique et génie des procédés, soutenue le 17/12/2021
Centre Efficacité Énergétique des Systèmes

 

La Russie face aux défis du nouveau marché du gaz naturel, débats et enjeux
Olga Gerasimchuk
Thèse de doctorat en Économie et sociétés, soutenue le 01/04/2021
Centre de Recherches Europes-Eurasie

 

Études des équilibres de phases à basses températures et de la cinétique pour l’optimisation du procédé de liquéfaction du gaz naturel
Wen hwa Siah
Projet de thèse en Énergétique et génie des procédés, depuis le 03/10/2022
Centre Thermodynamique des Procédés

 

La flexibilité sur le marché du gaz naturel
Amina Baba
Thèse de doctorat en Sciences Économiques, soutenue le 23/10/2020
Laboratoire d’Économie de Dauphine

 

Méthodes et modèles pour l’étude de faisabilité des navires propulsés au gaz naturel liquéfié
Jonas Thiaucourt
Thèse de doctorat en Énergétique, Thermique, Combustion, soutenue le 30/09/2019
Laboratoire de recherche en hydrodynamique, énergétique et environnement atmosphérique

 

Investigation des équilibres de phases à basses températures incluant des solides moléculaires : application à la production du GNL
Salem Hoceini
Thèse de doctorat en Énergétique et génie des procédés, soutenue le 10/12/2021
Centre Thermodynamique des Procédés

 

Caractérisation et modélisation du comportement mécanique des structures tissées aux températures cryogéniques
Christian Kamdem Signe
Thèse de doctorat en Mécanique des solides, des matériaux, des structures et des surfaces, soutenue le 20/06/2019
Unité de Mécanique de Lille – Joseph Boussinesq

 

Modélisation et simulation numérique du comportement de chargement de gaz naturel liquéfié dans une cuve de méthanier
Ibrahima Sory Noba
Thèse de doctorat en Génie des procédés, des produits et des molécules, soutenue le 21/12/2018
Laboratoire réactions et génie des procédés

 

Analyse économique de la pauvreté énergétique. Le cas de la Côte d’Ivoire
Arouna Diallo
Thèse de doctorat en Sciences économiques, soutenue le 16/12/2020
Centre d’études et de recherches sur le développement international

 

Les gaz liquéfiés comme solvants alternatifs pour l’éco-extraction de produits naturels
Vincent Rapinel
Thèse de doctorat en chimie, soutenue le 29/06/2018
Sécurité et Qualité des Produits d’Origine Végétale

Le GNL, une ressource énergétique incontournable sur l’échiquier mondial

Un extrait de « Gaz naturel – Carburant pour véhicule » par Richard TILAGONE et Bertrand LECOINTE

Le gaz naturel trouve naturellement sa place comme carburant pour les applications industrielles et le transport. De fait, quel que soit son champ d’application, cet hydrocarbure présente des avantages spécifiques qui en font une alternative stratégique, tant pour une recherche de diversification énergétique viable que pour élargir l’offre que constituent les carburants liquides conventionnels.

Les réserves prouvées de gaz naturel dans le monde ont d’ailleurs augmenté considérablement durant ces quarante dernières années. Elles représentaient en 1970 une quantité d’énergie exploitable équivalente à la moitié des réserves de pétrole et aux trois quarts dans les années 1980. Aujourd’hui, elles se maintiennent autour de 80 %, avec une progression bien plus importante pour le gaz naturel, conduisant ainsi en 2008 à une réserve prouvée totale de l’ordre de 180 Gtep.

Cette quantité considérable d’énergie positionne le gaz naturel comme une source énergétique incontournable sur l’échiquier mondial.

Un carburant complexe, mais aux multiples atouts

Si cette diversité d’approvisionnement est indéniablement un atout économique et stratégique, elle s’accompagne cependant de quelques difficultés pour l’utilisation du gaz naturel en tant que carburant, même si le débat sur la transition énergétique le considère comme incontournable dans le futur paysage énergétique.

Ainsi, les récentes prises de position concernant la nécessité de prendre en compte l’impact global d’une filière carburant sur l’environnement remettent les « carburants de substitution » sur le devant de la scène, véritables alternatives aux carburants conventionnels reformulés ou non.

Que ce soit sur le plan de la diversification des ressources ou des émissions de polluants non (encore) réglementés, le gaz naturel se positionne dès lors comme un excellent carburant offrant des propriétés appréciées par les motoristes. Le gaz naturel est de fait considéré comme un carburant « propre ».

Le GN carburant dans le contexte de transition énergétique

L’atteinte des objectifs fixés par l’Europe, comme mentionnée au travers des directives FQD et RED, passera par des ruptures technologiques et l’adoption plus large d’un mix énergétique. À ce titre, le gaz naturel carburant est bien placé pour permettre à la fois une diminution des émissions de CO2 intrinsèque à sa composition chimique, mais également des gains sur le rendement du moteur.

Les véhicules alimentés au gaz naturel doivent bien évidemment satisfaire aux réglementations limitant les émissions de polluants normalisés, avec plus ou moins d’adaptations prenant en compte des spécificités du carburant gazeux. Au fil du temps, les essais et contrôles se sont renforcés pour prendre en compte les différents modes de fonctionnement.

Les atouts du gaz sur le plan du respect de l’environnement sont donc déjà mis en avant, mais les solutions proposées restent partiellement optimisées, souvent pour des raisons économiques (les gains intrinsèques étant déjà probants au regard des autres motorisations de l’époque).

Grâce à son potentiel, le gaz naturel a sa place parmi les carburants du futur. En partant de la situation actuelle où le gaz naturel alimente des moteurs thermiques issus pour la plupart des applications essence, le gaz naturel deviendra à plus long terme le carburant qui s’imposera comme une alternative viable, fiable et disponible en masse.

Par ailleurs, l’émergence de la production de biogaz entrouvre la perspective de gisements biosourcés ayant un bilan CO2 quasi neutre.

Le GNL, un carburant de proximité

La filière gaz naturel liquéfié n’est, pour sa part, viable que pour les flottes de véhicules évoluant à proximité d’infrastructures portuaires équipées pour maintenir le gaz sous sa forme liquide, ou proches de centres de distribution adaptés pour le GNL. En effet, le coût d’une liquéfaction spécifique du gaz serait rédhibitoire.

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 9 mai 2024 !

Gaz naturel – Carburant pour véhicule, par Richard TILAGONE et Bertrand LECOINTE


Crédit image de une : Adobe Firefly

Piratage du tiers payant : nos données personnelles sont-elles efficacement protégées ?

Généralement, ces deux opérateurs assurant la gestion du tiers payant des complémentaires santé restent inconnus du grand public. Mais Viamedis et Almerys ont fait la une des journaux après avoir dû reconnaître une cyberattaque affectant leur infrastructure informatique.

Si ces deux entreprises restent très discrètes sur la technique employée par les attaquants, des fuites dans la presse évoquent un procédé bien classique : l’hameçonnage ou le phishing. Des professionnels de la santé auraient mordu à l’hameçon des pirates et dévoilé leurs informations d’identification pour accéder à ses systèmes. Une fois en possession de ses précieux sésames, les attaquants auraient profité de vulnérabilités pour s’introduire dans le réseau et accéder aux bases de données.

Cette importante fuite de données inclut, pour les assurés et leur famille, l’état civil, la date de naissance et le numéro de sécurité sociale, le nom de l’assureur santé ainsi que les garanties du contrat souscrit.

La CNIL et les deux plates-formes de tiers payant ont indiqué que ni les informations bancaires ni les données strictement médicales, pas plus que les numéros de téléphone ou les emails n’avaient été volés.

Mais le plus gênant est que les cyberattaquants disposent de notre numéro de sécurité sociale. Si une fuite de données concernant des identifiants et des mots de passe peut voir son impact limité, dans la mesure où les personnes concernées réagissent rapidement en modifiant leur mot de passe, c’est une autre affaire avec le numéro de sécurité sociale.

Impossible de le changer ! Pire, cette information est indispensable pour accéder à de nombreuses plates-formes en ligne via le service France Connect : impôts, retraite, allocations, chômage, renouvellement des papiers d’identité, immatriculation d’un véhicule…

Une amende de 1,5 million d’euros

« Si vous êtes une personne concernée, la CNIL vous conseille d’être prudent sur les sollicitations que vous pourrez recevoir, en particulier s’ils concernent des remboursements de frais de santé et de vérifier périodiquement les activités et mouvements sur vos différents comptes ». Ne cliquez pas sur des messages (SMS et emails) usurpant des organismes de santé (Ameli, complémentaires santé) qui vous réclament des coordonnées de cartes bancaires sous différents prétextes : panne informatique, cyberattaque, mise à jour…

Ce type d’escroquerie n’a pas attendu la cyberattaque touchant Viamedis et Almerys pour se multiplier. Qui n’a en effet pas reçu un SMS envoyé soi-disant par Ameli et vous demandant de payer une dizaine d’euros pour mettre à jour votre carte Vitale ?

Le plus inquiétant dans cette affaire est que la protection de nos données personnelles ne semble pas être très renforcée et, surtout, surveillée en temps réel pour repérer les moindres signaux d’une infiltration en cours. La France a pourtant un arsenal juridique imposant vis-à-vis de la confidentialité des données personnelles.

La loi française sur la protection des données personnelles est la loi n° 2018-493 du 20 juin 2018. Elle adapte la loi du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés au cadre juridique européen entré en vigueur le 25 mai 2018. Au niveau européen, le Règlement Général sur la Protection des Données (RGPD) est exécutoire depuis 2019 pour protéger les citoyens contre ces fuites. Et malgré ces mesures, les incidents se multiplient. Pôle Emploi a été victime d’une importante violation de données en août 2023.

Heureusement, des entreprises sont sanctionnées. Suite à une fuite massive de données de santé divulguée concernant près de 500 000 personnes en février 2021, la CNIL avait condamné la société Dedalus Biologie à une amende de 1,5 million d’euros notamment pour manquement à son obligation de sécurité des données.


Crédit image de une : freepik

IA générative, métavers, réalité virtuelle, cybersécurité…

Dans les secteurs comme la fabrication et la conception, l’IA permet d’automatiser les processus de production, de prévoir les pannes d’équipements grâce à l’analyse prédictive, d’optimiser la maintenance et de ce fait de réduire les coûts de production. De son côté, la RV permet, par exemple, aux ingénieurs de créer et tester les prototypes virtuels leur permettant d’effectuer des modifications avant d’entamer la production “physique”.

L’analyse de données massives, rendue plus rapide lors de l’utilisation de l’IA, pouvant analyser de grands volumes de données et ainsi identifier les comportements suspects et répondre aux menaces en temps réel, est applicable à tous les domaines, de l’IoT à la cybersécurité. Dans les industries telles que l’aérospatiale ou la santé, la RV permet aux futurs pilotes ou chirurgiens de réaliser des entraînements immersifs et sans risque, ainsi réduisant certains dangers et diminuant les coûts. 

Ces sujets clés, majeurs dans la transition industrielle en cours, sont tous issus des offres du domaine d’expertise “Technologie de l’information” de Techniques de l’ingénieur. Vous souhaitez souscrire un abonnement ? Profitez d’une remise de 10% pour toute souscription en ligne avant le 23/05/2024.

La réalité virtuelle a pour finalité l’immersion et l’interaction avec un environnement virtuel. Des problématiques existent, comme la contrainte forte du temps réel et la difficulté d’un interfaçage comportemental efficace.

La RA peut apporter beaucoup à l’innovation, pour des prototypes d’objets ou pour tester des méthodes ou des services. Mais elle a aussi ses contraintes, à connaître pour l’utiliser au mieux.

Quels sont les concepts principaux du Big Data ? Comment stocker, gérer et analyser ces mégadonnées ?

L’intelligence artificielle générative utilise un modèle particulièrement puissant de réseaux neuronaux, les réseaux convolutifs, pour « produire » un texte, une image, une vidéo, ou autre à partir d’un court texte appelé prompt. Mais comment fonctionnent ces modèles d’IA ?  

Comment fonctionnent les moteurs de recherche sur Internet ? Comprendre leur mode opératoire vous permettra d’améliorer vos recherches et les performances de vos propres sites Internet. 

Le pare-feu, essentiel dans un réseau informatique, isole et filtre les flux via divers mécanismes comme le filtrage de paquet, les proxys applicatifs, les passerelles de niveau circuit, incluant des fonctions telles que la traduction d’adresse, les VPN et les systèmes d’IDS/IPS, tout en étant intégré dans une stratégie globale de sécurité.

 

Image générée par l’Intelligence Artificielle Générative

Miser sur l’importation de gaz alternatifs : « Nous n’avons aucune visibilité sur les sources d’approvisionnement en gaz alternatifs »

Ce rapport, publié en avril 2024 par Les Amis de la Terre, revient sur la dépendance française au gaz. Une énergie fossile dont l’hexagone s’est engagé à réduire sa consommation. Hors, les événements géopolitiques actuels, entre autres, ont fait exploser les importations de GNL.

Anna-Lena Rebaud, chargée de campagne Climat et transition juste au sein de l’association Les Amis de la Terre, a expliqué aux Techniques de l’Ingénieur cette dépendance française au gaz et son impact sur les ambitions climatiques françaises.

Techniques de l’Ingénieur : Le rapport des Amis de la Terre évoque une dépendance française au gaz russe. La France a misé sur le GNL pour « se passer du gaz russe ». Quelle est la réalité derrière ce choix ?

Anna-Lena Rebaud : En cherchant à se passer du gaz russe importé par gazoduc via l’Allemagne, la France a augmenté de 80% ses importations de GNL pour « diversifier les sources d’approvisionnement ». Mais parmi les sources d’approvisionnement en GNL, il y a aussi… la Russie. En 2022, les importations de GNL russe ont augmenté de 45% par rapport à 2021. En 2023, ces importations sont restées élevées.

En parallèle, les importations depuis les Etats-Unis ont explosé, et celles depuis le Qatar ont augmenté. En somme, la France est passé d’une dépendance à d’autres.

L’ambition française de baisser sa consommation de gaz est-elle contradictoire avec la multiplication des installations destinées à l’importation de GNL ?

Les installations d’importation de GNL actuelles sont suffisantes pour satisfaire la demande en gaz fossile d’aujourd’hui, et celle-ci est vouée à baisser. Augmenter la capacité d’importation de GNL est donc non seulement inutile, mais aussi risqué : construire de nouvelles infrastructures (i.e., étendre les terminaux existants ou construire de nouveaux terminaux GNL) nécessite des investissements à rentabiliser. Si ils sont réalisés, les projets de GRT Gaz posent deux risques : soit ils ne seront pas utilisés en raison de la baisse de la demande, ne seront donc pas rentabilisés et deviendront des actifs échoués ; soit pour les rentabiliser, la demande en gaz sera encouragée à l’encontre de nos objectifs climatiques.

Multiplier les installations destinées à l’importation de GNL est donc contradictoire avec l’ambition de baisser la demande.

Quels sont les avantages pour la France de massifier ses approvisionnements en gaz via l’importation de GNL ?

On peut décomposer la question en trois : quels sont les avantages pour l’Etat français, pour les entreprises françaises et pour les ménages ? Il est également important de distinguer l’année 2022 et la réponse urgente à la nécessité de se passer de gaz russe, et aujourd’hui où la place du GNL ne peut pas être la même.

  • Pour l’Etat, massifier les importations de GNL en 2022 était une manière de sécuriser un approvisionnement en gaz alternatif au gaz russe et répondre à la demande à court-terme, mais cette justification a été la source d’abus (mise en place du terminal du Havre dont l’inutilité n’a pas été prouvée, signature de contrats de très long terme). Au final, la France a importé plus de GNL que sa consommation et a réexporté du gaz vers ses voisins européens : cela positionne la France comme une plaque tournante du gaz et lui octroie un certain pouvoir géopolitique.
  • Pour les entreprises gazières, il s’agit de maintenir leur modèle économique fondée sur cette énergie fossile du passé.
  • Pour les ménages, un approvisionnement massif par GNL se traduit par une facture énergétique bien plus élevée, puisque le GNL est plus cher que le gaz importé par gazoduc.

Dans le rapport est évoqué l’hypocrisie de considérer le gaz comme une énergie de transition. Pouvez-vous nous expliquer pourquoi ?

Le gaz « naturel », que nous préférons appeler « gaz fossile », est souvent présenté comme une énergie moins dangereuse que le pétrole et le charbon. Ce prétendu moindre impact climatique du gaz permettrait de l’utiliser comme une énergie de transition en attendant de mettre en place un système énergétique soutenable.

Pourtant, le gaz fossile a un impact considérable sur le climat à cause des fuites de méthane qui occurrent au moment de l’extraction, du transport, de la compression… Par ailleurs, développer le gaz n’a rien de transitoire : remplacer des usages du pétrole ou du charbon par du gaz aujourd’hui revient à construire des infrastructures qui seront utilisées pendant des décennies. On s’enferme alors dans la consommation de gaz au lieu de l’utiliser temporairement.

Rappelons également que le gaz fossile a d’importants impacts sur la santé des communautés riveraines des exploitations mais également des usagers (cuisson), et son extraction s’accompagne d’inquiétantes violations de droits humains.

Quel est votre point de vue sur le développement du bio-GNL et de l’e-GNL ? Peuvent-ils avoir leur place dans la transition énergétique ?

La place du « biogaz » ou des « e-gaz » dans le futur système énergétique est encore très discutée. Les moyens de fabrication de gaz alternatifs au gaz fossile (méthanisation, méthanation, pyrogazéification…) sont limités, c’est-à-dire qu’on ne pourra produire qu’une quantité limitée de gaz alternatifs avec les ressources et technologies à disposition.

Cela signifie que même avec une demande en gaz très basse, la satisfaire avec une production sur le territoire national sera compliqué vu les limites de ressources : envisager un modèle économique d’exportation de « bio-GNL » ou « e-GNL » est donc irréaliste.

Faut-il à l’inverse parier sur des importations de gaz alternatifs par GNL pour satisfaire la demande française ? Ce serait extrêmement risqué. Nous n’avons aucune visibilité sur les sources d’approvisionnement en gaz alternatifs. Si on parie sur des importations de « bio-GNL » ou « e-GNL » pour satisfaire une demande en gaz relativement aisé, on court le risque de ne pas trouver d’approvisionnement et d’avoir recours à du gaz fossile. Par ailleurs, on ne maîtriserait pas les conditions de fabrication de ces gaz qui connaissent aussi de nombreuses dérives (surexploitation de ressources organiques comme le bois, impacts sur le modèle agricole, pollution des sols…).

L’IA, nouvelle arme dans la lutte contre la résistance aux antimicrobiens

« Le besoin de développer de nouveaux traitements anti-infectieux[1] est urgent. » C’est le constat que mettait une nouvelle fois en avant, dans un article de fond paru en juillet dernier dans un hors-série de la revue Science, un trio de chercheurs américains. Et pour cause : le développement croissant de pathogènes résistants aux molécules antimicrobiennes est aujourd’hui devenu une véritable menace pour la santé humaine à l’échelle mondiale, et même l’une des dix plus grandes, comme s’en alarmait déjà l’OMS il y a plusieurs années, comme ici en 2021. S’il n’est pas rapidement jugulé, cet essor de la résistance aux antimicrobiens pourrait se révéler à l’origine, à l’horizon 2050, de la mort de 10 millions de personnes dans le monde chaque année… Soit une toutes les trois secondes. « Relever les défis posés par les épidémies, les pandémies et la résistance aux antimicrobiens nécessitera une action interdisciplinaire concertée », analysaient ainsi les trois chercheurs sus-cités, s’attelant, dans leur article, à passer en revue les différentes approches permettant de détecter, de comprendre et de traiter les maladies infectieuses, en soulignant les progrès réalisés dans chacun de ces cas grâce à un champ de techniques aujourd’hui au centre de toutes les attentions : l’intelligence artificielle (IA).

« Associée à la biologie des systèmes et de synthèse, l’IA permet désormais des progrès rapides, accroissant la découverte de médicaments anti-infectieux, améliorant notre compréhension de la biologie des infections, et accélérant le développement de l’art du diagnostic », expliquaient en effet alors les scientifiques. Des vertus de l’IA en matière de lutte contre la résistance aux antimicrobiens que deux membres de cette même équipe – Felix Wong et James J. Collins – n’ont justement pas tardé à illustrer dans un autre article publié en décembre dernier, dans Nature cette fois. Ils y décrivent en effet, avec l’aide d’une vingtaine d’autres collègues, rien de moins que la mise au jour d’une toute nouvelle famille d’antibiotiques. Une découverte réalisée grâce à des algorithmes d’apprentissage profond (deep learning), à l’issue de travaux menés dans le cadre du projet Antibiotics-AI du MIT. Des travaux qui apportent, en sus, une plus-value notable : celle de l’explicabilité des résultats apportés par la machine.

Des dizaines de milliers de substances passées au crible

Le pathogène ciblé par les chercheurs est une bactérie Gram positive bien connue : le staphylocoque doré (Staphylococcus aureus). Une souche de staphylocoque qui se révèle, selon l’Institut Pasteur, la plus fréquemment rencontrée en pathologie humaine et vétérinaire, et qui partage en outre avec la bactérie Escherichia coli « le triste privilège d’occuper le premier rang des germes responsables d’infections nosocomiales ». Comme le rappelle la fondation, « les traitements visant à éradiquer les infections [à staphylocoques] sont difficiles, car de nombreuses souches sont multirésistantes aux antibiotiques ». Des souches résistantes impliquées en effet, selon les services hospitaliers, dans 20 à 50 % des cas d’infection, et parmi lesquelles se trouve un groupe plus particulièrement représenté : les staphylocoques résistants à la méticilline. « Les souches de staphylocoques résistantes à la méticilline, ou SARM[2], font partie des bactéries résistantes aux antibiotiques les plus fréquentes en milieu hospitalier, représentant environ 27 % des infections à Staphylococcus aureus », note en effet l’Institut Pasteur. Aux États-Unis, ce sont chaque année plus de 80 000 personnes qui sont infectées par un SARM. Parmi elles, pas moins de 11 000 en meurent.

Si des approches vaccinales sont à l’étude, c’est bien la voie des antibiotiques – pourtant a priori en impasse – qu’ont décidé d’explorer à nouveau Felix Wong et ses collègues, avec l’appui, cette fois, de cette nouvelle alliée que s’est révélée constituer l’IA.

« À partir de données expérimentales et informatiques, nous avons évalué expérimentalement la capacité de 39 312 substances [antibiotiques déjà connus, composés naturels et autres molécules aux structures diverses] à stopper la croissance de Staphylococcus aureus cultivé en laboratoire, ainsi que leur propension à tuer trois types de cellules humaines », expliquent tout d’abord les chercheurs dans un résumé accompagnant leur publication. Les membres de l’équipe américaine se sont ensuite attelés à l’entraînement de réseaux de neurones en graphes (Graph Neural Networks, ou GNN) à partir des jeux de données issus de cette première phase de travail. Cette étape leur a alors permis d’aboutir à des prédictions quant à l’action antibiotique potentielle de pas moins des 12 millions de composés, mais aussi à leur éventuelle toxicité pour les cellules humaines.

Deux composés finalement retenus

Deux composés efficaces contre les SARM retenus par les chercheurs
À l’issue d’un criblage au travers d’algorithmes d’intelligence artificielle, deux composés efficaces contre les SARM ont finalement été retenus par les chercheurs. ©Christine Daniloff, MIT ; Janice Haney Carr, CDC ; iStock

Les chercheurs ont alors passé au crible les résultats fournis par leurs modèles, en se basant à la fois sur les prédictions de l’IA en matière d’action antibiotique des composés – ne gardant que les composés pour lesquels elle se révélait particulièrement élevée – mais aussi, notamment, sur leur cytotoxicité potentielle. « Après ce passage au crible, nous avons conservé 3 646 composés », notent les chercheurs, qui ont en outre élargi ce travail de criblage in silico en prenant en compte d’autres critères – absence de sous-structures potentiellement à risque pour la santé au sein des molécules, et côté « inédit » de leur structure – pour aboutir, finalement, à un jeu de 283 composés. Des « finalistes » que les chercheurs ont alors testés en laboratoire, afin de juger de leur efficacité, in vitro, contre les SARM. Résultats : deux d’entre eux, appartenant à une même famille, ont été désignés vainqueurs de leur combat contre l’invincible staphylocoque.

« L’étude approfondie de ces composés a montré leur efficacité contre les bactéries multirésistantes, y compris le S. aureus résistant à la méticilline (SARM) », notent les chercheurs. « Nous avons constaté que le composé 1 réduisait efficacement les niveaux de SARM dans deux modèles de souris in vivo », ajoutent-ils, avant de révéler le mécanisme d’action de ces substances : « Nous avons la preuve assez solide que cette nouvelle classe structurelle agit contre les pathogènes Gram-positifs en atténuant sélectivement la force proton-motrice au sein des bactéries », explique Felix Wong. « Les molécules attaquent les membranes des cellules bactériennes de manière sélective, de façon à ce que cela n’entraîne pas de dégâts majeurs sur les membranes des cellules humaines », ajoute le chercheur, qui souligne finalement l’autre défi majeur relevé par son équipe dans le cadre de ces travaux : « Ce que nous avons cherché à faire dans cette étude est d’ouvrir la boîte noire ». Et pour cause : « Ces modèles [d’IA] consistent en un très grand nombre de calculs qui imitent les connexions neuronales, et personne ne sait vraiment ce qui se passe sous le capot », décrit Felix Wong.

Les rouages des modèles étudiés à la loupe

« Les modèles d’IA, y compris les GNN, sont souvent considérés comme des “boîtes noires”, car leurs prédictions ne peuvent pas être expliquées ou interprétées facilement », confirment les chercheurs, qui expliquent ainsi dans le détail comment ils sont parvenus à plonger la tête sous le capot de leurs modèles d’IA : « Afin de saisir les sous-structures chimiques associées à des scores de prédiction élevés de l’action antibiotique, nous avons “ouvert” la boîte noire en utilisant une méthode de recherche permettant d’identifier par ordinateur les sous-structures. Notre méthode de recherche supprime de manière itérative des atomes et leurs liaisons, et note les sous-structures résultantes pour déterminer si elles sont responsables de la majeure partie du score prédictif ». Une approche baptisée « recherche arborescente Monte-Carlo » (Monte Carlo Tree Search, ou MCTS) utilisée notamment dans le cadre de modèles d’apprentissage profond dédiés aux jeux, tels que le célèbre AlphaGo.

« L’idée, ici, était que nous puissions voir ce que les modèles apprenaient afin de prédire que certaines molécules feraient de bons antibiotiques », explique le chercheur et professeur d’ingénierie médicale au MIT James Collins, qui, pour finir, ne cache pas son enthousiasme face aux résultats obtenus aux côtés de ses collègues dans le cadre de ces travaux de recherche : « Notre travail fournit un système qui permet d’économiser du temps et des ressources et qui est mécanistiquement pertinent, du point de vue de la structure chimique. Le tout, avec une approche inédite ».

Une percée remarquable que Collins a décidé de mettre à disposition de l’association à but non lucratif qu’il a créée aux côtés de collègues dans le cadre du projet Antibiotics-AI : Phare Bio. Une structure au sein de laquelle va ainsi se poursuivre l’étude des composés identifiés par les chercheurs, afin d’en analyser plus précisément encore les propriétés chimiques et les potentielles applications thérapeutiques. Au sein de son laboratoire du MIT, James Collins travaille également à l’identification d’autres composés potentiellement actifs contre d’autres pathogènes résistants.

Si elle est sans doute encore loin d’être gagnée, la guerre contre la résistance aux antimicrobiens semble en tout cas se diriger vers une issue de moins en moins funeste grâce cette nouvelle alliée de taille constituée par l’IA.


[1] Le terme « anti-infectieux » est un terme général désignant l’ensemble des médicaments qui combattent une infection, quelle qu’en soit la cause. Source : Vidal.

[2] Methicillin-resistant Staphylococcus aureus.

« Il y a des fuites de méthane tout au long de la chaîne de production du GNL »

Transport et Environnement est une ONG européenne basée à Bruxelles, qui existe depuis plus de trente ans, et qui fédère également des associations à travers toute l’Europe. L’organisation possède des antennes à travers toute l’Europe, dont une à Paris.

Agissant en faveur du développement d’une mobilité zéro émission, Transport et Environnement participe à faire évoluer le cadre législatif européen dans ce sens, notamment à travers la publication de rapports d’experts démontrant les impacts de certains usages actuels sur l’environnement et la santé.

Concernant le transport maritime par exemple, Transport et Environnement a publié, en 2022, une enquête démontrant que CMA CGM, le géant français du transport maritime, avait surestimé le gain environnemental découlant de l’utilisation du GNL pour propulser certains de ses navires. En effet, l’utilisation du GNL comme carburant pour le transport maritime provoque des fuites de méthane dans l’atmosphère lors du fonctionnement des moteurs mais aussi sur toute la chaine de production. Ce méthane, directement relâché dans l’atmosphère, se révèle être un puissant gaz à effet de serre. L’ONG a également publié un rapport en 2023, intitulé « gaz fossile : la pilule empoisonnée du transport maritime », pour dénoncer l’usage du gaz dans le transport maritime, considéré comme non durable.

Fanny Pointet, responsable du transport maritime au sein du bureau français de Transport et Environnement, a expliqué à Techniques de l’Ingénieur en quoi l’utilisation du gaz pour le transport maritime, à fortiori du GNL, même biologique ou de synthèse, était une solution non durable.

Techniques de l’Ingénieur : Quelles sont les missions de Transport et Environnement ?

Fanny Pointet : Notre objectif est l’avènement de modes de transports décarbonés à l’horizon 2050, à la fois neutres pour le climat et la santé, et accessibles à tous.

Nous travaillons évidemment sur la problématique du transport routier, qui concentre une grande partie des émissions de CO2 liées au transport, mais aussi sur les aspects aérien et maritime.

Notre objectif est de parvenir à opérer ces changements à travers la législation. Nous croyons que cela est réalisable grâce à un cadre politique et juridique ambitieux. Du coup, nous travaillons à la fois sur tout ce qui concerne la législation européenne, puisque c’est à ce niveau que les réglementations sur le transport sont actées, mais aussi au niveau français, surtout sur le volet fiscalité.

En ce qui concerne le transport maritime, quel est la position de Transport et Environnement vis-à-vis de l’usage du GNL comme carburant ?

Le transport maritime, par rapport aux autres modes de transport, a pendant longtemps été assez peu régulé en ce qui concerne ses émissions de gaz à effet de serre. Cela se faisait au niveau international.

Depuis 2023, cette régulation s’est renforcée au niveau européen, avec le Pacte Vert de la Commission Européenne, qui a inclus le transport maritime dans son paquet législatif sur le climat. Cela veut dire que le marché du carbone s’applique désormais au secteur maritime, ainsi que les normes sur les carburants durables par exemple.

Le transport maritime a longtemps utilisé des carburants fossiles extrêmement polluants, ayant un impact non seulement sur le climat mais aussi sur la qualité de l’air. En 2020, une norme internationale sur le taux de soufre a été mise en place pour diminuer ce dernier dans les carburants utilisés par les navires.

Cela a eu pour conséquence d’obliger la flotte mondiale à utiliser des carburants davantage raffinés, ce qui fait baisser leur taux de soufre. Une autre solution pour les armateurs consiste à installer à bord des navires des systèmes de filtres (scrubbers). Une troisième possibilité est d’opter pour des carburants moins soufrés, comme le GNL.

Cette norme sur la qualité de l’air a donc participé,  entre autres, à démocratiser l’usage du GNL dans le transport maritime, ou en tout cas à en faire une solution alternative pour propulser les navires.

Quelles sont les conséquences de l’usage du GNL pour le transport maritime ?

L’usage du GNL dans les navires limite les émissions de CO2 en comparaison des carburants conventionnels, comme le fioul ou le gasoil et, comme je l’ai dit, il est moins soufré. Ce double avantage sur les autres carburants conventionnels, à la fois en termes de santé publique et au niveau climatique, fait du GNL un candidat à priori idéal pour améliorer les impacts écologiques et sur la santé du transport maritime.

Cependant, en y regardant de plus près, les bienfaits liés à l’usage du GNL ne sont pas si évidents. En effet, le GNL est majoritairement constitué de méthane, qui a un pouvoir réchauffant beaucoup plus important que celui du CO2. Ainsi, bien qu’il émette moins de CO2 à la combustion, son impact sur le climat quand il est émis tel quel dans l’atmosphère provoque un impact très important. Hors, il y a des fuites de méthane tout au long de la chaîne de production du GNL, lors de son extraction, de sa distribution, et aussi de sa combustion dans les moteurs. Ces fuites, même minimes, aboutissent à un impact climatique équivalent, voire pire que celui des carburants classiques.

Quelle est la position des acteurs industriels du secteur maritime par rapport à l’utilisation du GNL ?

Le bilan du GNL en tant que GES et sur la qualité de l’air, les industriels le connaissent. C’est pour cette raison qu’ils évoquent souvent le GNL comme étant une solution de transition. Cela pose selon nous deux problèmes majeurs : d’abord, le GNL reste aujourd’hui compatible avec les trajectoires de décarbonation mondiales et européennes, qui ne sont pas assez ambitieuses. Dès lors, l’usage du GNL n’est plus une solution de transition, à partir du moment où son usage permet d’atteindre les objectifs de décarbonation à moyen terme.

Aujourd’hui, il est plus profitable, pour les armateurs, d’investir sur le GNL plutôt que sur d’autres sources d’énergies plus vertueuses, tout en restant dans les clous des réglementations européennes. C’est en ce sens que les réglementations actuelles ne nous paraissent pas assez ambitieuses.

Le second point sur lequel nous alertons est le risque d’actifs échoués. En effet, si le GNL constitue une solution transitoire, le risque est grand de voir des acteurs du maritime investir largement dans les technologies GNL, pour in fine se retrouver dans l’impossibilité de s’en passer par la suite quitte à payer de lourdes pénalités, où tout simplement ne plus pouvoir utiliser certains navires.

L’avènement du bio-GNL et du e-GNL pourrait-il changer la donne ?

Il y a beaucoup de tensions prévisibles à l’avenir sur la biomasse, pour décarboner de nombreux secteurs économiques. Nous pensons que les futurs bio-GNL et e-GNL (GNL de synthèse) ne doivent pas servir au transport maritime, car d’autres carburants sont plus adaptés pour cela. Le bio-gaz ou le gaz de synthèse sont plus adaptés pour d’autres usages, comme le chauffage ou l’industrie par exemple.

Ainsi, quand nous voyons des bateaux de croisière communiquer sur le fait qu’ils ont fait une croisière entièrement propulsée au bio-GNL, cela s’apparente pour nous à du greenwashing, dans le sens où rien ne dit que ces secteurs d’activités pourront utiliser massivement le GNL issu de la biomasse ou de synthèse à l’avenir. Enfin, même si cela était le cas, cela ne résout en rien les problèmes de fuites de méthane : même si les industriels travaillent sur des moteurs innovants pour limiter les fuites, il apparaît très compliqué de les éliminer totalement. Notamment en ce qui concerne les bateaux de croisière.

Quelles sont les propositions de Transport et Environnement pour remplacer ou limiter l’usage du GNL pour le transport maritime ?

Il faut d’abord une législation sur les carburants qui soit la plus ambitieuse possible et qui permette de prioriser les usages, c’est la première chose. Ensuite, il existe également des solutions en ce qui concerne directement la propulsion des navires de petite taille, grâce à la propulsion électrique ou à hydrogène. Les plus gros navires pourront quant à eux utiliser des carburants de synthèse neutres en carbone tels que l’e-méthanol, l’e-ammoniac, l’e-diesel ou encore l’hydrogène liquéfié.
L’électrification des quais des ports représente aussi une solution d’avenir, qui permettra aux navires à quai d’éviter de faire tourner les moteurs pour fournir les services, notamment en ce qui concerne les bateaux de croisière. Cela fait d’ailleurs l’objet d’obligations au niveau européen, qui s’imposeront à partir de 2030.

La réduction de la vitesse de navigation est également une solution : réduire la vitesse de 10% permet de réduire la consommation de carburants de 30%.

La propulsion à la voile est aussi une solution qui permet de consommer moins de carburants.

C’est donc un ensemble de solutions qui doivent être déployées, pour aboutir à une amélioration globale de l’empreinte carbone et sur la santé du transport maritime.

Ce qui est certain selon nous, c’est que tous les carburants produits à partir de biodéchets nous paraissent être une fausse solution, étant donné les tensions à venir sur ce type de ressource.

Propos recueillis par Pierre Thouverez

GNL : la nécessité de hiérarchiser les usages

Le GNL, gaz naturel liquéfié, est constitué à plus de 95% de méthane. Ce dernier, à l’instar du CO2, est un gaz à effet de serre. Molécule pour molécule, le méthane est un GES beaucoup plus puissant que le CO2, de l’ordre de 80 fois. Cependant, la comparaison ne s’arrête pas là. Ainsi, le méthane persiste beaucoup moins longtemps dans l’atmosphère – une dizaine d’années – que le CO2 – plus d’un siècle -. En terme de potentiel de réchauffement global (PRG), le méthane est tout de même, à l’échelle d’un siècle, 25 fois plus puissant que le CO2.

Voilà pour l’impact atmosphérique. Mais ce n’est pas tout, car l’obtention du GNL est également très énergivore et alourdit son cycle de vie. En effet, pour obtenir du GNL, il faut liquéfier le gaz, à pression atmosphérique, jusqu’à -163°C, ce qui nécessite une grande quantité d’énergie. Sous forme liquide, le gaz peut être transporté sur de grandes distances et en grande quantité, puisqu’un mètre cube de GNL contient pas moins de 600 mètres cube de gaz.

Ce coût énergétique de production est à l’origine de controverses récentes, notamment au sujet du transport maritime, qui utilise de plus en plus le GNL pour remplacer le fioul. Ainsi, le navire de croisière Euribia, entièrement propulsé au GNL, affirme que ce type de propulsion (ajouté à d’autres technologies comme par exemple un revêtement innovant enduisant la coque) lui permet de réduire de 20% ses émissions de gaz à effet de serre.

Il est vrai que le GNL émet moins de gaz à effet de serre que le fioul lors de sa combustion. Et aussi moins de gaz polluants, comme les oxydes de soufre, d’azote, et des particules, tous considérés comme dangereux pour la santé.

En ce qui concerne les émissions de CO2, s’il est juste de dire que la combustion de GNL est moins émettrice que celle du fioul, cette affirmation semble ne pas tenir compte du cycle de vie du GNL et de toutes les émissions liées à sa production et son stockage.

Tout d’abord, le GNL est une énergie fossile, il faut donc aller la chercher en profondeur, dans la roche. Aux Etats-Unis, principal fournisseur de l’hexagone, le méthane qui sera liquéfié pour produire du GNL transportable est extrait des roches de schistes par forage et fracturation hydrauliques, deux procédés qui peuvent se révéler extrêmement polluants, notamment car ils entraînent d’importantes fuites de méthane. Pour rappel, la fracturation hydraulique est interdite en France.

Après extraction, la liquéfaction du gaz est également un procédé énergivore. Enfin, l’utilisation du GNL, pour le transport maritime également, n’est pas neutre, même si difficile à quantifier. Concrètement, le GNL utilisé dans les moteurs des navires par exemple n’est pas entièrement brûlé à cause de nombreuses fuites. 

En résumé, les fuites de méthane, lors de son extraction et de sa combustion dans les moteurs, plombent le bilan du GNL. Rendant même ce bilan parfois pire que celui du fioul. Bien sûr, le transport maritime ne concentre pas tous les usages du GNL.

Selon la feuille de route de décarbonation de la filière maritime, publiée en janvier 2023, le GNL pourrait, dans le domaine maritime, permettre de baisser les émissions de 17% au maximum. Selon le type de motorisation et l’origine du GNL, l’efficacité du GNL comparée à celle du fioul irait de 17% de baisse des émissions à 6% de hausse. Une efficacité donc toute relative.

La production de bio-GNL pourrait, à terme, remplacer celle de GNL, avec une empreinte moindre au niveau écologique. Cependant, la compétition pour son utilisation, notamment avec le secteur aérien, laisse penser que la quantité de bio-GNL disponible sera probablement insuffisante au vu des besoins potentiels pour les usages liés à la mobilité.

Le méta-fluide de Harvard : un véritable liquide intelligent ?

Depuis plusieurs années, les métamatériaux ont envahi le domaine de l’ingénierie. Ces matériaux conçus artificiellement sont dotés de propriétés basées sur leur structure plutôt que sur leur composition. En général, ils sont formés de blocs fixés les uns aux autres et donnant un résultat solide. Mais des recherches récentes ont révélé qu’il était tout à fait possible de mélanger des blocs séparés les uns des autres dans un médium fluide. On parle alors de méta-fluide. Or, un méta-fluide a l’avantage de couler et donc de s’adapter à la forme de son contenant. Et c’est loin d’être son seul et unique atout selon le chercheur associé Adil Djellouli et ses collègues de l’université Harvard, à Cambridge (États-Unis). D’après leur travail publié début avril 2024 dans Nature, leur propre version de méta-fluide aurait des propriétés optiques, de compressibilité et de viscosité programmables à loisir…

Un méta-fluide ajustable à la capsule près !

Le mélange proposé par les chercheurs de l’université Harvard repose sur de petites capsules sphériques déformables en élastomère (de 50 à 500 μm) plongées dans une huile de silicone. Ce fluide ayant la particularité d’être incompressible, la pression exercée sur ce dernier est directement transmise aux minuscules sphères qu’il abrite. Au sein de leur laboratoire, Adil Djellouli et ses collègues ont produit plusieurs centaines de milliers de ces capsules remplies d’air. Quand une pression était appliquée au dispositif, les capsules finissaient par s’écraser en demi-sphères, prenant ainsi la forme de lentilles. Mais une fois la pression retirée, les capsules reprenaient immédiatement leur rondeur initiale. Cette transition de morphologie altérait du même coup les propriétés du liquide, comme son opacité ou sa viscosité. Ainsi, quand les capsules sont sphériques, la lumière du fluide se retrouve diffusée (il est opaque) et sa viscosité dépend de la température (il est dit newtonien). À l’inverse, quand les capsules prennent la forme de microlentilles, la lumière du liquide est focalisée (il devient transparent) et sa viscosité dépend de la force de cisaillement (il est dit non-newtonien). Des propriétés ajustables selon le nombre, l’épaisseur et la taille des capsules présentes dans le fluide.

L’équipe d’Adil Djellouli a voulu vérifier la programmabilité de son méta-fluide. Pour cela, elle l’a utilisé pour alimenter une pince robotique hydraulique. Celle-ci devait se saisir de trois objets : une bouteille en verre, un œuf et une myrtille. D’habitude, une telle pince fonctionne grâce à de l’air ou de l’eau, et elle demande un minimum de capteurs ou de contrôle externe pour doser sa prise sur chacun des objets sans le broyer. Mais avec le méta-fluide confectionné par les scientifiques de Harvard, rien de tout cela n’a été nécessaire ! Le liquide s’est automatiquement ajusté à la pression que lui renvoyait chacun des objets présentés. Ce succès laisse présager d’un usage futur dans d’autres actionneurs hydrauliques, voire dans des absorbeurs de choc intelligents (dissipant l’énergie en fonction de l’intensité de l’impact) ou même pour des instruments d’optique pouvant varier entre transparence et opacité. De leur côté, les chercheurs de Harvard souhaitent poursuivre les expérimentations, et prévoient d’ores et déjà de tester les propriétés acoustiques et thermodynamiques de leur invention.

Mieux comprendre le gaz naturel avec notre sélection d’articles ouverts gratuitement

6 articles fondamentaux de Techniques de l’Ingénieur, exceptionnellement ouverts à tous jusqu’au 2 mai 2024, permettent de comprendre les enjeux de l’exploitation de cette ressource :

  • Gaz naturel – Énergie fossile
    Ressource énergétique abondante, le gaz naturel offre des caractéristiques physico-chimiques qui en font un carburant à très fort potentiel pour la diversification énergétique et la réduction des émissions de gaz à effet de serre. Son utilisation sous forme liquide n’en reste pas moins contraignante.
  • Traitement du gaz naturel
    Le gaz naturel est une ressource énergétique de transition, dans l’attente de nouvelles énergies à contenu moindre en carbone. Le traitement des gaz naturels purs a entre autres objectifs d’éliminer l’eau et les composés acides, d’éviter les problèmes de corrosion et de minimiser les rejets atmosphériques.
  • Une nouvelle géopolitique de l’énergie
    Que devient l’équilibre énergétique sous la contrainte climatique ? La transition énergétique et le passage à des énergies décarbonées modifiant sérieusement les enjeux, la géopolitique de l’énergie vit la période la plus mouvementée de son histoire.
  • Captage du CO2 – Technologie pour la transition énergétique
    Intéressez-vous aux trois grandes familles de technologies de captage de CO2, à leurs principes et à leurs descriptions techniques. Quels sont les freins et les leviers d’action pour faire de ces procédés un facteur de succès pour la transition énergétique ?
  • Caractérisation des catalyseurs hétérogènes par réactions modèles
    Les réactions modèles permettent d’étudier les caractéristiques des catalyseurs utilisés dans les grands procédés industriels de raffinage et de pétrochimie : activité, sélectivité et stabilité. Leurs mises en œuvre peuvent s’effectuer dans des conditions environnementales très proches de celles de l’unité industrielle.

 

Image générée par une Intelligence Artificielle Générative

 

Mieux valoriser les protéines contenues dans les tourteaux de colza et de tournesol

Le colza et le tournesol représentent un véritable enjeu pour la France et de l’Europe. Riches en lipides et en protéines, ces deux plantes oléoprotéagineuses permettent de produire de l’huile pour l’alimentation et des biocarburants, mais aussi des protéines afin de limiter la dépendance au soja importé depuis le continent américain. Jusqu’à présent, ces protéines végétales appelées tourteaux, sont valorisées en l’état, sans transformation, et sont destinées à l’alimentation animale. Le groupe Avril et le LRGP (Laboratoire Réactions et Génie des Procédés) développent des procédés de bioraffinage afin de produire de nouvelles matières protéiques issues de ces tourteaux et destinées à l’alimentation humaine, dont les besoins en protéines végétales ont fortement augmenté ces dix dernières années, ainsi qu’à l’alimentation animale.

Les procédés de transformation mis en œuvre ont pour objectif d’extraire les protéines contenues dans ces tourteaux pour améliorer leurs propriétés nutritionnelles et fonctionnelles, notamment tensioactives, qui sont recherchées dans la formulation de produits alimentaires : agent moussant et émulsifiant. En purifiant ces matières protéiques, il est également possible de fabriquer des analogues de viandes et de produits laitiers (yaourts et laits végétaux). Ce raffinage a aussi pour but d’éliminer les molécules antinutritionnelles (acide phytique, composés phénoliques, glucosinolates), responsables de problèmes de goût végétaux.

Les scientifiques du groupe Avril et le LRGP ont travaillé sur deux types de produits protéiques présents dans ces tourteaux. Tout d’abord, les isolats qui sont obtenus grâce à un procédé d’extraction et l’utilisation d’un solvant aqueux, contenant de l’eau, du sel et de l’acide. Une seconde étape de purification à l’aide de procédés membranaires permet ensuite d’éliminer les constituants indésirables pour conserver uniquement la protéine.

« Ces procédés existaient déjà, mais nous les avons adaptés pour qu’ils fonctionnent dans des conditions optimales avec des oléoprotéagineux, explique Romain Kapel, professeur à l’université de Lorraine et chercheur au LRGP. Nous obtenons un isolat contenant au moins 90 % de protéines et des propriétés fonctionnelles intéressantes. Malgré tout, nous sommes parvenus au constat qu’il serait très compliqué d’exploiter industriellement cette voie, car les quantités de sel et d’eau utilisées génèrent des volumes d’effluents liquides extrêmement importants, que nous ne savons pas valoriser. Bien que cette voie permet d’obtenir des produits satisfaisants, son exploitation industrielle est trop complexe. »

Développer un procédé de lavage à faible impact environnemental

Les chercheurs se sont alors orientés vers un autre produit contenu dans les tourteaux : le concentré, moins riche en protéines et plus complexe que l’isolat, mais dont les procédés à mettre en œuvre pour le valoriser sont différents. Au lieu d’extraire les protéines puis de les purifier, la méthode consiste à éliminer les molécules indésirables du solide pour ne conserver que la protéine. Pour cela, un procédé de lavage est employé grâce à un mélange contenant de l’eau et un solvant vert (de l’éthanol) et en jouant sur les conditions d’utilisation. De cette manière, il est possible d’éliminer les molécules antinutritionnelles cibles et d’obtenir un produit pouvant être utilisé en alimentation humaine.

Pour approfondir ces travaux de recherche sur ce concentré, qui pour l’instant est très peu connu, le groupe Avril et le LRGP ont créé un laboratoire commun appelé PROSEED. « Grâce à ce procédé de lavage, nous obtenons un concentré dont la teneur en protéines varie entre 60 et 70 %, avec plafond à 75 %, alors qu’à l’origine, la teneur était de 30 et 35 %, révèle Romain Kapel. Par contre, ce produit contient encore des fibres alimentaires et l’un des enjeux scientifiques de notre travail est de savoir comment piloter le procédé de façon à obtenir des propriétés fonctionnelles satisfaisantes pour l’industrie agroalimentaire. Le procédé de lavage peut être amené à un stade industriel, mais il faudra trouver les bonnes conditions pour obtenir des propriétés fonctionnelles qui sont complexes à maîtriser. »

En parallèle, des travaux de recherche sont menés pour valoriser les effluents liquides issus des lavages. Plusieurs pistes sont étudiées. Pour les glucosinolates, l’une des voies envisagées est de les utiliser pour faire du biocontrôle, une méthode de protection des végétaux utilisant des mécanismes naturels. Ici, l’idée serait par exemple de fabriquer des biopesticides, car les graines de glucosinolates sont déjà utilisées pour éloigner les insectes et les ravageurs. Quant aux composés phénoliques, ces molécules antioxydantes pourraient être utilisées dans le domaine de la chimie biosourcée. « Nous travaillons sur des procédés de capture de ces molécules à partir des effluents de lavage, ajoute Romain Kapel. Ce travail s’inscrit dans une démarche d’évaluation des impacts environnementaux de ces productions avec des notions de recircularité des intrants, c’est-à-dire de l’eau et l’éthanol. »

La France et le GNL, mariage forcé

La France et le GNL, c’est une relation emplie de paradoxes. Alors que le gaz représente aujourd’hui 16% du mix énergétique français, et que l’hexagone est sur le chemin tortueux de la neutralité carbone d’ici à 2050, il est difficile de voir comment cette ressource fossile sera remplacée dans les décennies qui viennent. Très utilisé notamment pour le chauffage des habitations et des entreprises, ainsi que dans l’industrie, le gaz joue un rôle prépondérant dans le mix énergétique français, même si la demande a baissé, notamment depuis le début de la crise entre la Russie et l’Ukraine.

Cette crise géopolitique a permis de constater que si la France était moins dépendante du gaz russe que son voisin allemand par exemple, s’en passer est compliqué. La France, qui a décidé de se tourner vers le GNL pour limiter les importations par pipeline venues de Russie, a dû se résoudre à importer du GNL issu des roches de schistes américaines, mais aussi du GNL venu de Russie. Premiers paradoxes.

En effet, si la consommation de gaz en Europe a atteint en 2023 son plus bas niveau depuis dix ans, la consommation de GNL, notamment en provenance de Russie, est restée à un niveau très élevé. Rappelons que l’embargo contre la Russie concerne le pétrole et non le gaz, même si l’UE mène une politique destinée à réduire voire effacer au plus vite sa dépendance au gaz russe.

Ainsi, si les Européens ont acheté, en 2023, principalement du GNL venu des Etats-Unis, à hauteur de 47% du volume importé, la Russie arrive tout de même en troisième position, avec près de 11% des importations, juste derrière le Qatar (environ 12% du total des importations). Les principaux bénéficiaires de ces importations sont dans l’ordre la France, suivie de l’Espagne et des Pays-Bas.

En ce qui concerne l’hexagone, la Russie se place même en tant que deuxième fournisseur derrière les Etats-Unis, avec une augmentation des importations de GNL venues du géant d’Europe de l’Est de plus de 40% en 2023.

Ainsi, la réalité du mix énergétique européen, et en particulier tricolore, entre ici en contradiction avec les intentions géopolitiques de l’UE, qui cherche à isoler au maximum l’envahisseur russe, et si possible l’affaiblir économiquement, autant que possible. 

Autre situation qui interroge, la volonté française d’augmenter ses capacités d’importation de gaz et notamment de GNL, alors que la consommation et la demande nationales baissent. En 2023, la France s’est dotée d’un cinquième terminal méthanier, au Havre. C’est en l’occurrence un méthanier flottant, le Cape Ann, propriété de TotalEnergies, qui s’est installé dans le port du Havre : ses unités de stockage et de gazéification vont offrir à l’hexagone une plus grande marge de manœuvre pour stocker et distribuer le gaz importé. Mais dans quelle mesure ce cinquième terminal est-il indispensable, alors que la France veut réduire sa consommation de gaz drastiquement, pour être en cohérence avec la trajectoire, toujours d’actualité, de la neutralité carbone en 2050 ?

Le sabotage des gazoducs Nord Stream (1 et 2) qui reliaient la Russie à l’Allemagne, il y a à peine un an, a créé chez certains de nos voisins européens – Allemagne, Espagne, Italie, Pologne – un élan de panique et la mise en place, en toute hâte, de terminaux méthaniers destinés à parer au plus pressé. Il semble bien que l’installation du Cape Ann au Havre obéisse au même élan. Le gouvernement a d’ailleurs annoncé que le méthanier restera au Havre de manière transitoire, jusqu’en 2028. Au maximum

Quoi qu’il en soit, si la crise russe a incarné pendant quelques mois l’occasion pour l’Europe et la France de mettre fin à leur dépendance au gaz, russe en l’occurrence, pour se plonger pleinement dans une transition énergétique contrainte mais souhaitée, la réalité fait aujourd’hui état d’une nouvelle dépendance au GNL, pour la décennie qui vient en tout cas.

 

Des peintures autonettoyantes à la lumière du soleil

Les nanoparticules de TiO2 ont la capacité de s’autonettoyer lorsqu’elles sont irradiées par la lumière UV. En pratique, cette activité photocatalytique n’est cependant pas très efficace pour une utilisation en extérieur, puisqu’elle nécessite une irradiation UV intense.

C’est là le principal objectif des travaux conduits par l’équipe de chercheurs autrichiens (TU Wien) et italiens (Università Politecnica delle Marche) : modifier ces nanoparticules pour qu’elles soient utilisables à la lumière du jour.

Des nanoparticules de TIO2 dopées, produites à partir de déchets !

En catalyse, les dopants les plus couramment utilisés sont généralement des métaux précieux (or, platine, palladium, etc.) dont le coût est susceptible de pénaliser l’industrialisation de peintures autonettoyantes.

À la place, les chercheurs proposent d’utiliser des éléments chimiques non métalliques et très courants, puisqu’il s’agit de phosphore, d’azote et de carbone (dopage PNC). Mais au-delà des dopants utilisés, c’est toute la « philosophie de synthèse » qui est radicalement différente, puisque l’ensemble des matériaux employés sont extraits de déchets !

« Pour obtenir du phosphore, de l’azote et du carbone, nous avons utilisé des feuilles d’olivier séchées, et le titane pour les nanoparticules d’oxyde de titane a été obtenu à partir de déchets métalliques, qui sont normalement jetés », explique Günther Rupprechter, de l’Institute of Materials Chemistry (TU Wien) dans un communiqué de presse.

Une dépollution efficace et qui préserve la peinture

Qu’en est-il de l’efficacité en termes de dépollution ? Dans le papier publié dans ACS Catalysis, les chercheurs démontrent qu’une fois ajoutées à des peintures base polymère, ces nanoparticules dopées au PNC permettent d’éliminer 96 % des polluants adsorbés à la surface, par une simple exposition à la lumière du jour.

Par ailleurs, contrairement à l’utilisation de nanoparticules de TiO2 non dopées, les chercheurs n’ont pas observé de dégradation de la peinture. L’excellente stabilité des peintures additivées par ces nanoparticules issues de déchets, qui a été confirmée par analyse de surface (micro-FTIR), est donc de bon augure et devrait conduire à de nouvelles expérimentations en vue d’une commercialisation.

Cap adaptation à une France à +4°C : quels coûts ?

Plusieurs rapports évaluent les coûts nécessaires pour diminuer les émissions de gaz à effet de serre et donc atténuer les effets du changement climatique. Mais dès lors qu’il s’agit d’adaptation, les informations demeurent plus diffuses. Pour y voir plus clair, l’Institut de l’économie pour le climat (I4CE) dévoile son rapport Anticiper les effets du réchauffement climatique de +4°C : quels coûts pour l’adaptation ? remis au ministre de la Transition écologique, Christophe Béchu, le 5 avril dernier.

La bonne nouvelle, c’est qu’il existe des « options d’anticipation » connues, prêtes à être déployées. Certaines options offrent suffisamment de co-bénéfices économiques pour être intrinsèquement rentables, mais ce n’est pas le cas de toutes. « Ce constat invite à ouvrir un débat sur l’internalisation du risque climatique dans les modèles économiques et la prise en charge des coûts de l’adaptation », propose I4CE.

Il faudra donc accepter de dépenser plusieurs milliards d’euros par an pour adapter l’ensemble des secteurs économiques à une France à +4°C d’ici la fin du siècle. Le rapport donne « de premiers ordres de grandeur des montants en jeu pour l’ensemble des acteurs de l’économie », mais ne permet pas d’en déduire « un coût unique de l’adaptation en France ». Et pour cause : le coût final dépendra certes du niveau de réchauffement retenu pour l’adaptation, mais aussi « de la manière dont on choisit collectivement de se préparer », prévient I4CE. Le coût de l’adaptation revient ainsi dans le temps à une somme de trois types de coûts : les coûts d’anticipation ou de prévention, les coûts de réaction ou de réparation et les coûts liés aux pertes de recettes et aux conséquences socio-économiques induites par chaque événement climatique.

Des mesures d’adaptation à « quelques » milliards et centaines de millions

Le rapport s’intéresse à l’adaptation de trois secteurs en France hexagonale : le bâtiment, les infrastructures de transport terrestre et les productions agricoles végétales. Pour assurer le confort d’été par exemple, les coûts additionnels s’élèvent entre 1 et 2,5 milliards d’euros par an pour la construction neuve, tous secteurs confondus. Ils représentent en plus « plusieurs milliards d’euros par an » pour le parc existant. Toutefois, renforcer les mesures de prévention des risques inondation et de retrait-gonflement des argiles ne représenterait que « quelques centaines de millions d’euros ».

Pour adapter les réseaux routiers et ferrés, il faudra également dépenser entre « quelques centaines de millions à quelques milliards d’euros par an […] dans les prochaines décennies ». Pour maintenir les rendements agricoles malgré le changement climatique, il faudrait enfin dépenser « de l’ordre de 1,5 milliard d’euros par an », calcule I4CE.

Ne pas mettre en place une politique d’adaptation ambitieuse coûtera encore plus cher à la collectivité. Et sans adaptation structurelle, « ces dépenses subies [liées aux dommages, aux coûts des réparations des infrastructures essentielles ou encore aux aides de crise] ne vont cesser d’augmenter et perdre leur caractère exceptionnel », souligne I4CE. Elles représentent déjà « plusieurs milliards d’euros par an ». C’est sans compter les conséquences socio-économiques induites, comme les impacts sur le système de santé, la productivité du travail, l’efficacité des réseaux de transport et la balance commerciale.