SGEvT : les dépôts sauvages scrutés depuis l’espace

Une « indicathèque ». C’est ce qu’a mis au point – et ne cesse d’enrichir – la Société générale d’évaluation des territoires (SGEvT), entreprise toulousaine née en 2015 sous l’impulsion, notamment, de Nancy Oliveto, avocate, urbaniste et ex-consultante en développement durable. Baptisée TEREvAL, cette bibliothèque d’indicateurs et d’outils d’aide à la décision en regroupe aujourd’hui près de soixante, destinés à guider les collectivités dans leurs projets de développement de territoire. La naissance de ce véritable « tableau de bord » , comme celle de l’entreprise, est étroitement liée au Grenelle de l’environnement. Arnaud André, co-fondateur et Président de la SGEvT revient dessus : « Le Grenelle de l’environnement a fait naître l’obligation, pour les collectivités, de développer des plans de développement durable du territoire[1]. Le nombre de sujets à intégrer dans ces plans a fortement augmenté, pour prendre en compte des aspects tels que l’efficacité énergétique, l’artificialisation des sols… L’autre obligation était aussi, pour ces collectivités territoriales, d’évaluer l’efficacité de leurs plans. La société s’est donc créée sur cette idée de fournir aux collectivités des outils constituant un tableau de bord leur permettant de suivre dans le temps l’impact des projets menés ».

Évolutive, cette plateforme ne cesse de s’enrichir au fil des besoins exprimés par les collectivités clientes de la SGEvT. « Au fur et à mesure des projets sont apparus différents sujets, comme celui de l’enveloppe urbaine, c’est-à-dire les limites de la ville. Nous avons donc créé des algorithmes pour aider à établir cette enveloppe, mais aussi pour vérifier le respect des prescriptions qui sont faites », explique Arnaud André. Il y a peu, c’est aussi à un sujet à l’importance croissante que s’est attaquée la SGEvT : celui des dépôts sauvages.

Repérer, qualifier, mais aussi prévenir les dépôts sauvages

Pilotée par l’Ademe, une enquête menée en 2018 auprès de 2 652 collectivités territoriales a révélé que près de 90 % d’entre elles se trouvaient alors confrontées au problème des dépôts sauvages. Comme le notait toutefois l’Agence dans le rapport publié suite à la réalisation de cette enquête[2], « aucun état des lieux exhaustif de la situation des dépôts sauvages (quantités et nature des dépôts) n’existe à l’échelle nationale ». Un outil développé par la SGEvT pourrait toutefois changer la donne. L’entreprise a en effet mis au point une solution de télédétection visant à repérer, mais aussi à qualifier ces dépôts (étendue, date d’apparition, risques pour l’environnement…) et même à identifier, avant l’apparition de déchets, des zones particulièrement propices aux dépôts sauvages.

Rares sont les collectivités françaises à ne pas être touchées par le problème des dépôts sauvages. Un état des lieux à l’échelle nationale reste toutefois difficile à établir. © SGEvT

« Grâce aux liens que nous avons depuis des années avec le CNES, nous leur avons proposé de monter une offre basée sur les photos satellites Pléiades, croisées avec nos connaissances contextuelles du territoire : relief, occupation des parcelles, réseaux de transport… », dévoile Arnaud André. Initiée fin 2019, la démarche a abouti en 2021 par la mise en service de cet outil de télédétection inédit. « La mise au point a pris du temps. Il faut en effet détecter sur des images satellites des formes qui pourraient être des dépôts sauvages, mais qui peuvent aussi être de simples rochers, ou des cours d’eau par exemple. Les algorithmes ont donc besoin de temps pour apprendre, pour corriger progressivement leurs erreurs », note le président de la SGEvT.

Une solution qui a déjà fait ses preuves sur le terrain

La résolution spatiale des images capturées par les satellites Pléiades permet la détection de dépôts à partir d’une cinquantaine de mètres carrés. © SGEvT

Une fois détecté, chaque dépôt fait l’objet d’une notation réalisée en fonction de critères tels que sa proximité avec un cours d’eau, d’une nappe d’eau souterraine, d’écoles ou d’autres lieux sensibles. « Cet outil que nous avons développé fournit des éléments de priorisation, permettant de répondre à la question “quel dépôt faut-il traiter en premier ?” », souligne Arnaud André. Un intérêt auquel s’ajoute celui de l’identification de zones sensibles, propices à l’apparition de dépôts sauvages. Des zones qui, une fois délimitées, peuvent ainsi faire l’objet d’une surveillance renforcée. « Nous fournissons aussi des outils d’intervention, ajoute le co-fondateur de l’entreprise. Fin 2021, nous avons aidé les forces de l’ordre à mener une campagne d’interventions dans l’Aude, sur plusieurs centaines de km². Nous leur avons produit des fiches mentionnant la taille des dépôts, les conditions d’accès pour les atteindre, etc. Grâce à cela, les gendarmes sont allés sur le terrain, et en une après-midi, ils ont pu réaliser un travail qui leur aurait demandé plusieurs jours, peut-être même plus d’une semaine, sans notre outil. »

Menée fin 2021 par la gendarmerie de l’Aude grâce aux données et indicateurs fournis par la SGEvT, une première campagne d’interventions s’est révélée particulièrement fructueuse. © SGEvT

Côté fiabilité, l’outil proposé par la SGEvT se révèle capable d’atteindre un taux de détection d’au moins 90 % selon le président de l’entreprise, qui le concède toutefois : « Si le dépôt est invisible du satellite, évidemment on ne le détectera pas. C’est le cas par exemple de ce qui est sous couvert végétal. Ceci dit, cela dépend de la saison ». Outre cette limitation, la taille des dépôts a aussi son importance : d’une résolution de 50×50 cm, les images fournies par les satellites Pléiades permettent une détection de dépôts à partir de quelques dizaines de mètres carrés. « Un simple sac plastique rempli de déchets ne sera pas repéré », cite ainsi comme contre-exemple Arnaud André. La future constellation Pléiades Neo, avec sa résolution spatiale de 30 centimètres, promet toutefois de rendre le seuil de détection un peu plus bas encore.

Disponible via la plateforme TEREvAL, l’outil génère notamment des fiches d’intervention permettant de guider les actions menées sur le terrain. © SGEvT

Étoffer son panel d’outils : la raison d’être de la SGEvT

Après la réussite du projet mené dans l’Aude, la SGEvT espère désormais proposer sa solution à de nombreuses autres collectivités. « Il y a beaucoup d’intérêts, et de sujets à l’étude. Pas seulement de la part des collectivités territoriales, mais aussi des industriels de la collecte, qui y voient des opportunités nouvelles », se réjouit Arnaud André.

Moyennant un abonnement de quelques dizaines de milliers d’euros par an – en fonction notamment de la taille du territoire à couvrir –, les fonctionnalités de détection, de notation ou encore de définition des moyens d’accès sont ainsi d’ores et déjà disponibles via la plateforme TEREvAL. « Et il y aura bien sûr matière à compléter ces fonctions avec d’autres idées », prévoit le président de l’entreprise.

Une corde supplémentaire s’ajoute ainsi à l’arc de « l’indicathèque » développée par la SGEvT. Une plateforme qui devrait d’ailleurs s’étoffer encore un peu plus prochainement, avec l’ajout d’autres outils, comme le dévoile finalement Arnaud André : « Nous avons toute une offre en matière de proximité et nous travaillons ainsi, par exemple, sur les contrats locaux de santé[3], qui sont devenus une urgence pour beaucoup de territoires ». Et le dirigeant de conclure : « Fournir aux collectivités une collection d’outils la plus vaste possible est notre raison d’être ».


[1] Plans climat-air-énergie territorial (PCAET), rendus obligatoires par la loi Grenelle 2 pour les collectivités de plus de 50 000 habitants, et désormais obligatoires pour toutes les intercommunalités de plus de 20 000 habitants (seuil abaissé en 2018).

[2] ADEME, ECOGEOS. 2019. Caractérisation de la problématique des déchets sauvages. Rapport. 84 pages.

[3] Outils portés conjointement par les Agences régionales de santé (ARS) et les collectivités territoriales pour réduire les inégalités territoriales et sociales de santé.

Jean-René Lèquepeys : « Avec l’IA, les smartphones vont jouer un rôle majeur dans la santé »

Jean-René Lèquepeys, Directeur des programmes et directeur adjoint du CEA-Leti (DR)

Les télécoms et les circuits intégrés n’ont plus de secrets pour Jean-René Lèquepeys. En 2000, il a obtenu le Grand prix de l’électronique « Général Ferrié » pour ses travaux dans les domaines des télécommunications. Auteur d’une quinzaine de brevets dans ce domaine, il a rejoint le CEA-Leti en 1993, en tant qu’ingénieur R&D, dans le domaine du traitement d’images. Il prend ensuite en charge les projets « Télécoms » de l’institut et devient, en 1999, responsable des programmes « Télécoms, Objets communicants et Carte à Puce ».

En 2010, il a fondé un nouveau département spécialisé en architectures électroniques, conception de circuits intégrés et en logiciel embarqué qui regroupe des compétences clés du CEA-Leti et du CEA-List.

Techniques de l’Ingénieur : L’Intelligence artificielle est de plus en plus exploitée dans les smartphones. À quoi sert-elle ?

Jean-René Lèquepeys : L’IA s’intègre de plus en plus dans les smartphones au travers notamment d’applications liées à l’imagerie, c’est-à-dire à la fois pour la reconnaissance faciale et la prise de photos. Devenant de plus en plus performants, les caméraphones remplacent de plus en plus les appareils photo. Concernant la reconnaissance d’images, il y a différents usages. Le plus connu est bien sûr le déblocage du téléphone. Mais il y a surtout des usages professionnels. Par exemple, les logiciels de radiologie deviennent incontournables, car ils génèrent beaucoup moins d’erreurs dans la détection que les radiologues eux-mêmes. Un système automatisé d’images peut en effet repérer des choses que l’œil humain, même celui avisé d’un expert, ne pourra détecter.

Un des enjeux majeurs est d’aller plus vite dans le traitement, de faire de la reconnaissance à la volée, d’être plus pertinent dans les propositions de filtres pour la prise de vue. Et pour certaines applications de réalité augmentée ou étendue, d’effectuer des traitements plus rapides.

Les smartphones sont également utilisés pour nous fournir des informations sur notre état de santé. Que pensez-vous de ces applications ?

Aujourd’hui, il y a encore beaucoup d’applications et d’appareils « gadget » comme les montres connectées. Ce sont des appareils qui enregistrent, mais qui ne sont pas contraints en termes d’efficacité de la mesure pour être considérés comme des « dispositifs médicaux » avec les agréments nécessaires.

Avec la start-up grenobloise Diabeloop, nous avons mis au point un dispositif pour mesurer le taux de glycémie afin de pouvoir doser la pompe à insuline. Les « systèmes de délivrance automatisée d’insuline » permettent une réelle réduction de la charge mentale quotidienne en toute sécurité. Ainsi le dispositif DBLG1 de Diabeloop régule la délivrance d’insuline en fonction de la mesure continue de glycémie et communique directement avec la pompe via un algorithme hébergé dans un terminal dédié.

L’IA devrait jouer un rôle clé dans la santé, car les dalles des smartphones permettront d’intégrer différents capteurs qui pourront établir des mesures adéquates : rythme cardiaque, saturation en oxygène, taux d’oxygène dans le sang…

Quels sont les autres avantages de l’IA pour la téléphonie mobile ?

Cette technologie va permettre de mieux gérer le signal et le spectre, qui est une denrée rare et pourtant de plus en plus exploitée. Le volume de données que nous produisons ne cesse en effet d’augmenter.

Qualcomm, une entreprise américaine spécialisée notamment dans la technologie mobile, a annoncé que les traitements à base d’IA permettraient d’améliorer les performances des transmissions en allant plus vite tout en étant moins énergivores.

Réduire la consommation des smartphones devient un enjeu majeur ?

Oui. Dans les téléphones, il y a deux composants qui consomment beaucoup d’électricité : l’écran et l’amplificateur de puissance (en particulier lorsqu’on est éloigné d’une antenne). Nous avons travaillé avec la start-up VSORA qui a développé un processeur IA pour les applications pour l’ADAS (véhicules autonomes) et les Télécoms. Aujourd’hui, le machine learning est souvent effectué dans le cloud.

L’objectif est de réduire la consommation en faisant des traitements au plus près de l’utilisateur et via l’Edge computing (informatique en périphérie)*. Il y aura de plus en plus d’applications de localisation avec une précision centimétrique (standard 802.15.4 Z) basée sur l’UWB pour optimiser les connexions.

En intégrant des puces plus performantes et l’IA, les smartphones seront capables de traiter plus de données en « local » ?

Oui. Cependant, dès que la puissance de calcul sera trop importante, le traitement se fera dans le cloud. Mais il faut limiter cet usage, car le traitement du signal génère aussi du CO2 et des ressources abiotiques. Quand nous envoyons 1 Go de données dans le cloud pour traiter une information, nous consommons 1 million de fois plus que si on fait un traitement local. Or, aujourd’hui, le cloud accapare 80 % du traitement des données.

Le gain énergétique pour consommer l’information au plus près de sa source est particulièrement important. Il y a deux ans, le Commissaire européen au Marché intérieur, Thierry Breton, avait déclaré qu’en 2030, 80 % de nos données seraient gérées en local ou en s’appuyant sur l’Edge computing. Ce nouveau paradigme permettra de réduire la latence, la consommation électrique et de renforcer la souveraineté des données en étant moins dépendants des GAFAM.


* Il s’agit d’une méthode d’optimisation employée dans le cloud computing qui consiste à traiter les données près de la source et non pas dans des data centers éloignés. L’Edge computing réplique des fragments d’information dans des réseaux répartis de serveurs web ou de « mini data centers ».

En 2022, Grenoble est la Capitale Verte de l’Union européenne

Guillaume Thieriot est directeur de l’agence Grenoble Capitale Verte de l’Europe 2022 (Crédit : Mathieu Nigay)

L’agence Grenoble Capitale Verte de l’Europe est le Groupement d’Intérêt Public qui rassemble la Ville, la Métropole et le Département et a à sa charge la coordination de la programmation et la communication autour de cette année « Capitale Verte Européenne » 2022.

Techniques de l’ingénieur : Comment est attribué ce titre de Capitale Verte de l’Union européenne ?

Guillaume Thieriot : Ce n’est pas un simple label. Il s’agit bien d’un véritable titre qui vient reconnaître les efforts qui ont déjà été faits en matière de transition écologique, mais aussi les ambitions annoncées lors du dépôt de candidature de la ville.

Grenoble a posé sa candidature en 2020 et ce fut un succès total, d’une part parce que la ville a été choisie dès sa première tentative, ce qui n’est jamais arrivé¹, d’autre part parce que son dossier est arrivé à la première ou deuxième position sur 11 des 12 critères examinés.

Pour Grenoble et son territoire, que représente ce titre ? Avez-vous des engagements à respecter ?

C’est bien entendu une source de fierté, mais il appelle aussi à l’engagement et à la responsabilité. Il signifie que pendant un an, Grenoble est la capitale de l’Europe en matière de transition écologique. Dans le contexte actuel de changement climatique, ce n’est pas rien !

La Commission européenne attend de notre territoire qu’il soit une source d’inspiration pour d’autres villes et agglomérations européennes. Tout au long de cette année, nous recevrons beaucoup de délégations étrangères et plusieurs événements à caractère international seront organisés.

Nous devrons également démontrer que cette année a eu un impact sur la transition écologique du territoire sur le long terme et une deuxième évaluation, permettant d’apprécier cet impact, aura lieu dans cinq ans.

Ce titre permet-il d’accélérer la transition écologique de votre territoire ?

Ce coup de projecteur de la Commission européenne est une opportunité qui a permis d’aller au-delà des divergences politiques, dans un projet commun d’accélération de la transition écologique.

Bien que la candidature initiale concerne uniquement la ville de Grenoble, elle a su ouvrir ce titre à la métropole grenobloise et au département de l’Isère. Le titre d’une ville est ainsi devenu le projet d’un territoire. Cette singularité est une force, car cela a permis d’additionner les moyens, les compétences, pour que cette année soit réellement impactante.

2022 est ainsi pour nous une formidable occasion de susciter l’envie d’agir sur tout le territoire, avec un projet qui se décline autour de 3 piliers : la science, qui éclaire notre conscience, la culture, qui nous aide à imaginer de nouveaux mondes, et finalement la participation citoyenne, car rien ne se fera sans l’engagement de chacune et de chacun.

La dynamique est forte, autour des 12 thématiques proposées cette année, qui recouvrent les enjeux de la transition environnementale, mais aussi sociale, avec des sujets comme la santé ou les inégalités. L’année est organisée selon une logique participative, et non verticale, avec un appel à participation permanent. Chaque acteur peut ainsi participer à la programmation des événements et, témoignage du bel engagement que l’on rencontre ici, nous devrions avoir plus de 600 événements labellisés capitale verte européenne 2022.

Cela dit, pour nous, le but à travers cette programmation est surtout de donner envie aux gens d’agir, à travers les 54 défis que nous leur proposons de relever pour la planète. Cela peut être des actions simples, pour débuter, comme des choses plus ambitieuses. L’important c’est de prendre conscience que chaque action compte. Le leitmotiv, le hashtag de cette année, c’est clairement #doncjagis !

Prolongez votre lecture avec un article de ressources documentaires en accès libre jusqu’au 2 septembre !

« Stockage du carbone dans les sols urbains, bilan et perspectives », par Aurélie CAMBOU, Laure VIDAL-BEAUDET, Patrice CANNAVO, Christophe SCHWARTZ.


¹ Sauf pour le premier titre, attribué à Stockholm en 2010

Atteindre l’autosuffisance en soja en Europe pour limiter la déforestation importée

Le soja ne représente que 1,7 % des surfaces cultivées sur le continent européen. Résultat : 90 % de sa consommation est importée, principalement en provenance du Brésil et l’Argentine. Dans ces pays, les surfaces de cette culture ont beaucoup augmenté ces dernières années, et sont accusées de participer à la déforestation. Des chercheurs d’AgroParisTech, de l’INRAE, des UMR Agronomie et MIA (Mathématiques et Informatique Appliquées), et du NARO (National Agriculture and Food Research Organization − Japon) ont publié dans Nature Food une étude dans laquelle ils se sont intéressés à la capacité du continent européen à devenir autosuffisant en soja.

« Notre travail de recherche a été réalisé à l’échelle du continent européen, incluant notamment des pays comme l’Ukraine et la Russie, explique Nicolas Guilpart, maître de conférences à AgroParisTech. Compte tenu de la situation géopolitique actuelle, un tel périmètre peut surprendre, mais s’explique par le fait que notre modèle numérique prend en compte les changements climatiques et qu’il était important de prendre en compte une aire géographique large, car ces changements se jouent à cette échelle. Ceci dit, un grand nombre des résultats de notre étude peuvent s’appliquer à l’échelle de l’Union européenne. »

Le soja étant très peu cultivé en Europe, les scientifiques ont dans un premier temps cherché à estimer les surfaces susceptibles d’accueillir cette culture avec de bons niveaux de rendement. Pour cela, ils ont utilisé une base de données mondiales dans laquelle sont recueillis les rendements du soja. Et ils l’ont croisée avec les données climatiques actuelles ou passées à l’échelle de la planète. Puisque le soja est cultivé un peu partout dans le monde, les chercheurs ont réussi à identifier plusieurs endroits, principalement situés en Amérique du Nord et en Chine, où le climat s’apparente à celui rencontré en Europe.

À partir de ces données, un modèle algorithmique, basé sur du machine learning, a ensuite été développé afin de prédire le niveau de rendement en fonction du climat. Une fois ajusté, il a été couplé aux scénarios d’évolution climatique du GIEC (Groupe d’experts intergouvernemental sur l’évolution du climat) à l’horizon 2050 et 2090.

Un potentiel de culture estimé à plus de 100 millions d’hectares

D’après le modèle développé, il ressort que compte tenu du climat actuel, le continent européen possède un potentiel de culture du soja très élevé estimé à un peu plus de 100 Mha (millions d’hectares). Ce chiffre correspond à des surfaces dont les rendements sont supérieurs à 2 tonnes par hectare, soit l’équivalent du rendement moyen actuellement observé en Europe.

Autre résultat : malgré l’évolution future du climat, les surfaces potentiellement cultivables en soja restent tout de même très élevées et sont estimées à environ 80 Mha à l’horizon 2050. « Cette culture est capable de s’adapter à des conditions climatiques très diverses, analyse le chercheur. Elle est actuellement cultivée dans des zones très proches de l’équateur, mais aussi au Canada. Pour optimiser les rendements, il est important d’utiliser les bonnes variétés au bon endroit, tout en sachant que la température optimale de croissance du soja est comprise entre 25 à 30 degrés. Au-delà, la température commence à avoir un effet négatif, et lorsqu’elle est supérieure à 40 degrés, la production de graines est stoppée. »

Alors qu’actuellement, le soja en Europe est principalement implanté dans la moitié sud de la France, au nord de l’Italie, en Serbie et en Roumanie, les chercheurs prévoient que le réchauffement climatique devrait provoquer un déplacement des zones de culture. Les plus productives devraient se situer, à l’horizon 2050, dans le nord de la France et de l’Italie, le sud de l’Allemagne, mais aussi la Suisse, l’Autriche, la Hongrie et l’Ukraine.

Au final, cette étude révèle que pour atteindre une autosuffisance en soja de 50 % en Europe, entre 4 et 5 % des terres cultivées devraient être consacrées à cette culture, ce qui représente entre 11 et 14 Mha. Et pour atteindre une autosuffisance de 100 %, le soja devrait représenter entre 9 % et 11 % des surfaces cultivées, soit l’équivalent de 24 à 32 Mha.

Réduire l’usage des engrais azotés grâce à la culture du soja

Mais une très nette augmentation des surfaces en soja en Europe conduirait-elle systématiquement à une réduction de la déforestation importée ? « On peut imaginer que cela contribuerait significativement à réduire cet effet, répond Nicolas Guilpart. Pour atteindre une autosuffisance de 50 % en Europe, il faudrait augmenter les surfaces en soja de 9 Mha. Ce chiffre correspond à 8 millions d’hectares en Argentine, compte tenu d’un rendement moyen supérieur dans ce pays. Cette surface représente environ 40 % de la surface implantée en soja en Argentine. »

Cultiver plus de soja en Europe pourrait aussi permettre de réduire les quantités d’engrais azotés sur ces surfaces. Cette plante, classée dans la catégorie des légumineuses, a en effet la particularité de fixer l’azote atmosphérique, et n’a donc pas ou très peu besoin d’être fertilisée en azote. L’économie en engrais estimé par les chercheurs de cette étude est comprise entre 4 et 7 % pour une autosuffisance de 50 % et entre 13 à 17 % pour une autonomie totale.

Autre effet positif attendu : inclure du soja dans la rotation des cultures pourrait favoriser un meilleur contrôle des bioagresseurs (mauvaises herbes, maladies ou ravageurs), et donc conduire à une réduction des pesticides épandus. En sachant que le soja est déjà l’une des grandes cultures les moins traitées en France.

Guillaume Odriosolo : « Avec la blockchain, nous fournissons de la transparence au vote en ligne »

La blockchain n’a pas de secrets pour Guillaume Odriosolo. Avant de créer V8te en mars 2020, il a été Directeur général du service « Le Vote », un outil numérique de vote consultatif développé par Orange et s’appuyant sur la Blockchain. Durant ses 12 ans passés à l’Innovation au sein d’Orange en tant qu’intrapreneur, il a fondé 5 start-ups internes. Après avoir accompagné des entrepreneurs et la création de start-ups, Guillaume Odriosolo a décidé de lancer, en pleine pandémie Covid, sa propre start-up. Son ambition : construire la plus grande plateforme mondiale de vote en ligne, 100 % libre-service.

Techniques de l’Ingénieur : Quelles sont les différentes solutions de vote en ligne sécurisé ?

Guillaume Odriosolo, cofondateur et directeur de V8te (DR).

Guillaume Odriosolo : il y a deux grandes familles. La première regroupe les solutions de vote en ligne sécurisé. Pour être reconnu comme éditeur de logiciel de vote en ligne sécurisé, il faut passer un audit de sécurité qui est réalisé par des experts indépendants. Ils vont s’assurer que le prestataire respecte les exigences et recommandations de la CNIL. Ces recommandations sont réparties en trois niveaux qui correspondent à différents types de votes. Le premier concerne l’élection d’un président d’une association de quartier, le second concerne une ETI (Entreprise de taille intermédiaire) et enfin le niveau 3 s’adresse potentiellement aux élections de plusieurs millions de personnes dans plusieurs pays.

Une dizaine d’éditeurs sont conformes aux recommandations de la CNIL, mais seule une poignée en France a décroché le niveau 3.

La seconde catégorie regroupe les initiatives de vote en ligne sur la blockchain. Elles sont utilisées notamment pour ce que l’on appelle de la démocratie citoyenne. Pour ce genre de vote, il n’y a aucune exigence. Dès que l’on organise des votes avec des personnes ayant des mandats, il faut respecter le Code électoral.

Notre service fait le pont entre ces deux mondes, c’est-à-dire le respect de la réglementation et la décentralisation de la confiance.

Quelle est la différence entre un vote sécurisé et un vote sur la blockchain ?

Je vais répondre par une analogie. Dans le premier cas, il y a une boîte (une urne opaque). Le processus de vote a été certifié et validé par des experts. Même si ce sont des professionnels très sérieux qui ont fait cet audit, les votants doivent leur faire confiance. C’est le cas pour la banque. Imaginons que je me sois acheté une très belle montre. Pour éviter qu’elle ne soit volée, je décide de la mettre dans un coffre. Le banquier m’assure que tout est sécurisé.

Dans le cas de ma montre, un service reposant sur la blockchain n’affirme pas que son processus est inviolable. Rappelons que le bitcoin est la première technologie de l’histoire informatique qui n’a jamais été piratée depuis son apparition en 2008. Personne ne peut dire que ça ne sera pas le cas un jour. La blockchain repose donc sur une urne « transparente ». Cela signifie qu’à la place de cacher ma montre dans un coffre-fort, je vais la mettre au milieu d’une table autour de laquelle il y a des dizaines de personnes. Chacune d’entre elles peut la voler, mais personne ne le fera, car nous saurions immédiatement qui l’a fait.

Rapportée au vote en ligne, la blockchain assure un niveau élevé de sécurité en mettant en avant la transparence des processus. Si l’on constate que quelque chose s’est mal passé ou que des résultats semblent bizarres, on pourra vérifier par soi-même. Au fur et à mesure du vote, nous publions les empreintes (un fichier « chiffré ») de la blockchain (des bulletins, des personnes qui ont voté et qui étaient inscrites sur la liste…).

La blockchain Ethereum est connue pour être très énergivore ; quelle solution avez-vous mise en place pour réduire cette consommation tout en permettant des votes à grande échelle ?

Pour l’instant, nous utilisons cette technologie qui est une proof of work¹ et qui est en effet particulièrement énergivore. Par ailleurs, sa scalabilité n’est pas très élevée (NDLR : capacité à traiter de nombreuses transactions en peu de temps). C’est la raison pour laquelle, nous avons décidé d’utiliser une plateforme très modulaire et fonctionnelle qui s’appelle Polygon (Layer 2 sur Ethereum). Elle permet de concilier rapidité et sécurité, sans pour autant délaisser la décentralisation.

Néanmoins, nous faisons aussi le pari d’utiliser d’ici fin 2022 la proof of stake² d’Ethereum afin de réduire de 99,99 % la consommation de l’énergie utile pour écrire de l’information. Cela permettra également d’améliorer la scalabilité. Techniquement, il est possible d’organiser des votes à grande échelle dans quelques pays comme la Suisse et l’Estonie qui sont très avancés dans ce domaine. Cependant, en France, si l’on veut procéder à du vote sécurisé sur les grandes élections nationales, la loi n’est pas prête.


  1. Le plus ancien des protocoles de consensus blockchain. Il fait appel à des mineurs pour vérifier les données entrantes sur le registre, valider l’authenticité des transactions et créer de nouveaux blocs.
  2. Plus une personne possédera de jetons d’une cryptomonnaie, plus on considérera que la sécurité du réseau est un enjeu important pour elle. Un algorithme de preuve d’enjeu implique que différents utilisateurs du réseau mettent en dépôt une partie de leurs possessions en cryptomonnaie pour devenir des minters (NDLR, mint désigne le processus de création d’un NFT sur la blockchain).

Le meilleur de la tech #21

L’association magnésium-zinc à la rescousse de l’acier

L’acier est un matériau très robuste. Associé au zinc (Zn), il acquiert l’avantage supplémentaire de résister à la corrosion. Problème : sur la dernière décennie, les réserves de zinc ont largement diminué, poussant les chercheurs à se tourner vers les alliages. C’est le cas notamment du professeur Myeong-Hoon Lee, du Center of Surface Corrosion Control Engineering de la Korea Maritime and Ocean University, et de ses collègues. Leur article, paru le 1er juillet 2022 dans Corrosion Science, présente ainsi un nouveau revêtement multicouche avec ajout de magnésium (Mg) : Zn/Zn-Mg/Zn. Les scientifiques ont cherché par ce moyen à améliorer la résistance à la corrosion via la couche produite par les ions Mg lors de leur altération. Les phases de test consistaient à asperger l’acier enduit d’un spray salé. La couche de magnésium permettait alors l’infiltration des ions chlore (Cl), menant à leur tour à la formation d’une nouvelle phase : Zn5(OH)8Cl2.H2O. Cette dernière a montré une résistance accrue à la corrosion due à une augmentation rapide de l’impédance électrochimique. Deux échantillons contenant respectivement 10 % et 25 % de magnésium ont ainsi tenu 208 et 408 heures, contre 96 à 120 heures pour un revêtement en zinc conventionnel. Un effet protecteur d’intérêt pour les infrastructures et autres constructions en acier.

Une valve pour les contrôler tous

Des chercheurs de l’institut de recherche néerlandais AMOLF ont offert un nouveau pas en avant à la robotique molle. Pour améliorer le comportement adaptatif des robots futurs, ils ont mis au point une valve d’élastomère en silicone un peu particulière… Sa membrane courbée percée de trois encoches rappelle en effet l’ouverture des bouteilles de ketchup ! Si ce n’est qu’ici, la valve permet de contrôler l’activation de divers actionneurs. Soumise à un flux d’air continu, la valve s’ouvre brusquement, une fois un certain seuil de pression atteint. En résultent des pulsations rythmées formant des séquences modifiables par un simple signal physique – le blocage d’une arrivée d’air par exemple. Dans le Matter du 8 juillet 2022, les scientifiques ont démontré la viabilité de leur système avec un robot quadrupède. Ce dernier n’avait besoin de rien d’autre qu’une pompe pour déambuler. Ce travail pourrait aider les machines à franchir des obstacles en modifiant d’elles-mêmes leur démarche…

Comment changer l’énergie solaire en kérosène

Le domaine de l’aéronautique repose sur l’emploi de kérosène comme carburant des avions. Or, celui-ci est majoritairement issu de ressources fossiles et participe donc à l’émission de gaz à effet de serre. Pourtant, il y a d’autres moyens de fabriquer du kérosène… Des chercheurs issus de l’ETH Zürich et de l’institut espagnol d’IMDEA Energy l’ont mis en évidence avec leur tour solaire. Comme ils le rappelaient le 20 juillet 2022 dans Joule, il s’agit de la première démonstration hors du laboratoire d’un tel mécanisme. Un champ de 169 panneaux solaires – chacun d’une surface de 3 m² – encercle ladite tour. À 15 mètres de hauteur, une ouverture d’à peine 16 cm fournit les 50 kW de puissance recueillis par les panneaux à un réacteur solaire. Pendant une session de test de 9 jours, l’installation a atteint une efficacité de 4,1 % lors de la conversion de l’énergie solaire en gaz synthétique (H2O et CO). Lequel est ensuite traité pour obtenir le kérosène tant convoité. Une première étape prometteuse, d’autant que l’équipe travaille déjà sur l’amélioration de leur design afin de passer à une efficacité de 15 % !

Leroux & Lotz ouvre la voie à la valorisation du CO2 émis par l’industrie

Basée sur l’utilisation de contacteurs membranaires, la technologie de captage de CO2 mise au point par Leroux & Lotz fonctionne grâce aux échanges réalisés au niveau de ces membranes entre les fumées et un solvant permettant d’en extraire le CO2. S’ensuit une désorption, destinée à extraire le gaz dissous dans le solvant. Le CO2 peut ainsi finalement être purifié puis comprimé pour de futurs usages.

Grâce à son implication dans le projet Jupiter 1000, l’entreprise s’attelle désormais notamment à la qualification de la durée de vie du solvant ainsi que des membranes qu’elle utilise. De quoi ouvrir la voie au déploiement industriel du procédé. Une perspective que Leroux & Lotz espère voir se concrétiser fin 2023, et ce à destination de divers secteurs tels que la sidérurgie ou la culture sous serre, comme nous le dévoile Sofiane Zalouk, Responsable R&D de Leroux & Lotz Technologies.

Techniques de l’Ingénieur : Pouvez-vous, en quelques mots, nous présenter Leroux et Lotz Technologies ? Depuis quand l’entreprise s’intéresse-t-elle à ce sujet du captage de CO2 ?

Sofiane Zalouk : L’entreprise fait partie du groupe français Altawest, aux côtés de Jeumont Electric, qui travaille essentiellement à la production d’alternateurs, et d’Inova Opérations, qui se consacre à l’exploitation de centrales énergétiques. Leroux et Lotz existe depuis les années 1940 sur le site de Nantes, où se situe son siège. En 2000 a eu lieu l’acquisition d’une agence à Grenoble, spécialisée dans la conception de chaudières industrielles. En 2005, l’entreprise a été rachetée par le groupe Altawest et, en 2010, nous avons fait l’acquisition d’un portefeuille de technologies de combustion et de gazéification, ce qui a permis d’étendre le marché historique de la biomasse à des combustibles un peu plus complexes comme les combustibles solides de récupération (CSR).

Nous sommes vraiment spécialisés dans les installations de valorisation énergétique de déchets et de biomasse. Nous sommes aujourd’hui 90 personnes, avec un chiffre d’affaires de l’ordre de 45 M€.

En ce qui concerne notre positionnement, nous sommes fournisseurs de solutions globales de production d’énergie pour des puissances allant de 10 à 150 mégawatts thermiques (MWth), avec des installations de cogénération, de production de vapeur process, de chauffage urbain, incinération… Nous faisons aussi de l’amélioration des performances via le développement d’une expertise technique qui s’appelle Smart Performance, et qui consiste en des prestations d’amélioration et d’optimisation de procédés. Nous proposons également des solutions de conversion et de modification des installations existantes pour en améliorer les performances, en changer le combustible, en passant par exemple du charbon à la biomasse.

Étant fournisseur de solutions industrielles de valorisation énergétique des combustibles solides, nous intégrons également des systèmes de traitement de fumées, qui permettent d’abaisser les valeurs d’émission. Naturellement, nous nous sommes orientés vers le captage de CO2 pour apporter une brique complémentaire. Cette orientation a été prise dès 2009, avec un premier projet financé par l’Agence Nationale de la Recherche (ANR), il s’agit du projet CO2_EnergiCapt. Nous avons travaillé avec des partenaires tels que l’ENSIC[1] de Nancy, la société Polymem et le laboratoire ICARE[2] situé à Orléans. Nous avons ainsi développé cette première technologie de captage de CO2 par contacteurs membranaires, implantée industriellement sur le site de la Compagnie Parisienne de Chauffage Urbain, la CPCU. Nous avons réalisé les premiers essais en conditions réelles sur des fumées-gaz, qui se sont révélés concluants.

En quoi consiste cette technologie de captage de CO2 ? Comment fonctionne-t-elle ?

Il s’agit d’une technologie dite de « post-combustion ». Il existe en effet trois types de technologies de captage de CO2 : la précombustion, où on produit un syngas et du CO2, l’oxycombustion, qui consiste en une combustion avec de l’oxygène pur et qui permet d’obtenir en sortie du CO2 relativement pur. La nécessité d’apporter de l’oxygène pur lors de la combustion rend toutefois l’oxycombustion compliquée pour du retrofit… Nous nous sommes ainsi positionnés sur une troisième voie, à savoir la post-combustion, avec laquelle on vient directement capter le CO2 au niveau des fumées, sans apporter des modifications au niveau de la chaudière.

En ce qui concerne son fonctionnement concret, il est assuré par des équipements qui sont répartis sur trois skids[3]. Le captage de CO2 s’effectue à une température de l’ordre de 40°C. On a donc une première phase de récupération de l’énergie contenue dans les fumées via un condenseur. Les fumées traversent par la suite des contacteurs membranaires où le CO2 qu’elles contiennent est capté par l’intermédiaire d’un solvant. Cet équipement consiste en une calandre dans laquelle se trouvent des petits tubes poreux, qui permettent d’effectuer l’échange entre le CO2 et le solvant. Le CO2 capté dans ces contacteurs membranaires est séparé du solvant dans une tour de stripage[4]. Ce dioxyde de carbone est ensuite purifié et compressé en fonction des usages souhaités. Une fois séparé, le solvant est quant à lui réutilisé au niveau du dispositif de captage.

L’optimisation des performances énergétiques du procédé de captage est réalisée avec l’intégration de l’ensemble des besoins. Ainsi, le solvant réchauffé à haute température pour les besoins de la séparation du CO2, est refroidi en assurant, à nouveau, le préchauffage du solvant qui a capté le CO2 à basse température. Ce solvant est également préchauffé par le condenseur à tubes de fumées. Tout cela permet de réduire la pénalité énergétique du procédé.

Que sont les contacteurs membranaires que vous évoquez ? Quelles sont leurs propriétés ?

Les contacteurs membranaires sont constitués de fibres creuses poreuses. Une partie est en contact avec les fumées, sous forme gazeuse, et l’autre avec le solvant liquide, une amine. Par affinité chimique entre le CO2 et le solvant, on va avoir un passage du dioxyde de carbone au niveau de cette membrane, qui offre des surfaces d’échange très importantes. L’importance de ces surfaces spécifiques permet d’avoir des installations très compactes. On peut en effet avoir une compacité jusqu’à quatre fois plus importante qu’une tour d’absorption classique.

Quel est le devenir du solvant ? Peut-il être réutilisé ?

Le solvant est en quelque sorte un consommable. L’un des objets du projet Jupiter 1000, que nous menons actuellement à Fos-sur-Mer[5], est justement de qualifier la durée de vie de ce solvant, ainsi que des membranes. Lors du premier projet de R&D, nous avons cumulé un millier d’heures de fonctionnement, pour un taux de captage de 85 à 90 % et une capacité de traitement maximale de 300 normo mètres cubes heure de fumées. Nous n’avons toutefois pas pu qualifier la durée de vie du solvant et des membranes. Il faut en effet des durées de fonctionnement plus importantes pour avoir un retour d’expérience à la fois sur les performances et sur la durée de vie, ainsi que sur les aspects technico-économiques.

En plus du taux de captage et des capacités de traitement que vous évoquez, quels sont les avantages de la technologie que vous proposez ?

Il s’agit tout d’abord d’une technologie brevetée, qui permet une réduction importante de l’impact environnemental : on n’a pas de contact direct entre le solvant et la fumée. On n’a donc pas de pertes de solvant comme cela peut être le cas dans des tours d’absorption classiques. Comme je l’évoquais, un autre aspect important concerne l’optimisation de la compacité. Nous avons également mis en œuvre la conception et la fabrication d’un échangeur thermique à haute résistance à la corrosion. On peut travailler avec du gaz, mais nous envisageons en effet aussi de travailler sur des installations aux combustibles solides de récupération ou d’autres combustibles plus corrosifs.

Il s’agit, de plus, d’une installation modulaire d’une part et, d’autre part, qui se prête bien au power-to-gas[6]. On a en effet une flexibilité de captage, du fait du découplage entre la phase liquide et la phase gazeuse, les fumées. On n’est donc pas limité par la quantité de CO2 capté : on peut la réduire ou l’augmenter en fonction des besoins. Nous avons d’ailleurs été lauréats du Trophée de la transition énergétique en 2017 et du Trophée de la recherche publique énergie environnement climat en 2015.

L’avantage de notre technologie est aussi sa modularité. On peut additionner les skids, pour pouvoir augmenter les capacités de traitement. En matière de maintenance, on peut également isoler chaque contacteur membranaire afin d’intervenir dessus tout en continuant la production au niveau des autres membranes.

Dans le cadre du démonstrateur Jupiter 1000, Leroux & Lotz capte le CO2 émis par Ascometal, entreprise sidérurgique située à Fos-sur-Mer.

Une fois capté, que devient le CO2 ?

Nous avons identifié différentes utilisations industrielles. En échangeant notamment avec GRTgaz, nous avons jugé que le power-to-gas pourrait être une solution pour valoriser ce CO2, d’où notre engagement dans le projet Jupiter 1000. Notre objectif, en intégrant ce projet, est de valider notre technologie de captage dans une configuration de stockage d’énergie sous forme de méthane.

Dans le cadre de ce projet, nous captons le CO2 chez Ascometal, entreprise sidérurgique située à Fos-sur-Mer. Cela implique une étape de captage, puis de séchage et de compression, pour finalement envoyer le CO2 via un pipe d’un kilomètre de longueur environ jusqu’au site où se situent les autres briques technologiques : de l’électricité renouvelable permet d’alimenter un électrolyseur, qui produit de l’hydrogène. Cet hydrogène est alors combiné avec le CO2 que nous captons, afin d’obtenir du méthane de synthèse. La finalité est de pouvoir injecter ce méthane sur le réseau de GRTgaz.

L’objectif est de traiter environ 700 normo mètres cubes heure de fumées, avec un objectif de 50 kg/h de CO2 capté. Le projet a pris un peu de retard, mais nous sommes aujourd’hui en phase de mise en route de notre brique « captage de CO2 », pour une mise en service prévue au deuxième semestre de cette année. Nous finalisons la mise en place des systèmes d’automatisme, et nous réalisons des tests d’étanchéité pour pouvoir commencer à capter le CO2 prochainement.

Outre ce démonstrateur, quand espérerez-vous déployer cette technologie à l’échelle industrielle ? À quels domaines de l’industrie pourrait-elle profiter ?

Nous attendons le retour d’expérience de ce premier démonstrateur, pour lancer l’industrialisation. Ce lancement dépendra de l’évolution du coût du CO2 et des aspects économiques liés, mais devrait avoir lieu aux environs de fin 2023.

Hormis les applications dans la sidérurgie, nous pourrons aussi implanter la technologie au niveau des chaudières utilisées pour chauffer les serres par exemple. Nous ne nous positionnons pas sur les « grosses » installations, comme les centrales thermiques. Nous nous concentrons sur les installations industrielles dont la puissance sera comprise entre 20 et 100 MW.

En vue, notamment, de cette phase d’industrialisation, poursuivez-vous éventuellement des travaux de R&D ?

Nous cherchons effectivement aujourd’hui à optimiser le couplage entre les membranes et le solvant, afin de trouver les membranes les plus robustes et les solvants les moins coûteux en matière de régénération et donc à minimiser les pénalités énergétiques. La régénération du solvant représente en effet l’un des coûts les plus importants.

Nous travaillons aussi à des développements sur la partie stripage, pour en réduire la pénalité énergétique.


  • [1] École nationale supérieure des industries chimiques
  • [2] Institut de Combustion, Aérothermique, Réactivité et Environnement
  • [3] Châssis sur lequel les différents équipements industriels sont montés
  • [4] Procédé d’extraction du gaz dissous dans le solvant
  • [5] Projet innovant de démonstrateur industriel de power-to-gas (conversion d’électricité en gaz) dans le cadre duquel Leroux & Lotz a implanté sa technologie de captage de CO2 sur le site d’Ascometal, à Fos-sur-Mer. Le CO2 capté est destiné à alimenter un process de méthanation : synthèse de méthane à partir de dihydrogène et de CO2.
  • [6] Conversion d’électricité en gaz.

Un mois dans l’espace #31

La tête dans les étoiles

L’été est souvent l’occasion pour les amateurs d’observer les astres qui nous entourent. En effet, le ciel est plus dégagé à cette période. De plus, des applications permettent aujourd’hui de reconnaître facilement les astres visibles. La rédaction vous propose de suivre les événements célestes visibles au mois d’août.

A commencer par un événement rare, qui s’est déroulé dans notre ciel à la fin du mois de juin dernier. En effet, entre le 24 et le 27 juin dernier, ce sont pas moins de six planètes qui étaient alignées dans le ciel, 7 au lever du soleil. Ces planètes – Mercure, Vénus, la Lune, Mars, Jupiter et Saturne, plus le soleil – se trouvent rarement dans cette position, visibles à l’œil nu. La prochaine fois que cet alignement pourra être observé sera en 2124, profitez donc de cette vidéo, si vous avez raté ce spectacle :

Le mois d’août devrait être propice à l’observation de planètes et d’étoiles. En 2022, un phénomène favorise les observations : l’opposition des planètes. Ce phénomène a lieu lorsque la Terre se retrouve alignée entre le soleil et une planète du système solaire. Le 14 août, c’est Saturne qui se retrouvera en opposition et sera donc observable facilement. A noter que Saturne sera visible tout l’été. La période d’opposition est juste celle où la planète est la mieux placée pour être observée depuis la Terre.

Saturne sera la planète à surveiller dans le ciel en ce mois d’août. L’été est la saison propice à l’observation des étoiles filantes. En effet, de fin juillet jusqu’au 25 août, notre planète traverse les Perséides, un essaim de minuscules météores – leur taille varie entre un millimètre et un centimètre – lancés à la vitesse de 58 kilomètres par seconde. Ces météores, communément appelés étoiles filantes, qui s’écrasent sur notre atmosphère sont en réalité des débris issus du passage de la comète Swift-Tuttle : elle croise périodiquement dans notre système solaire, laissant derrière elle des traînées à l’origine des étoiles filantes observables dans l’hémisphère nord pendant l’été. Le dernier passage de la comète dans notre système solaire a eu lieu en 1992. Sa prochaine visite est prévue pour 2126. Cette année, le pic d’observation des étoiles filantes est prévu pour les 12 et 13 août. Plus de 100 météores s’écraseront alors sur notre atmosphère chaque heure.

Pouvant atteindre la vitesse de 250 000 km/h, ces poussières stellaires brûlent à une altitude d’environ 80 kilomètres au-dessus de nos têtes. D’ailleurs, ce phénomène se produit toute l’année, puisqu’une dizaine de météores s’écrasent sur notre atmosphère tous les jours.

Pour ceux qui ne veulent rien manquer, voici tous les événements astronomiques répertoriés pour août 2022. 

Si vous vient l’envie estivale d’ajouter une application permettant de suivre et reconnaître les astres visibles (et invisibles), voici une liste des applications, gratuites dédiées à l’astronomie et affichant des cartes du ciel “augmentées” grâce à la caméra de votre smartphone.

Enfin, chaque année au mois d’août se déroule la “nuit des étoiles”, un événement qui prend place sur tout le territoire. Organisé par l’association française d’astronomie, l’édition 2022 aura lieu les 5,6 et 7 août. Des centaines d’animations autour de l’astronomie sont organisées sur tout le territoire. Retrouvez les animations proposées près de chez vous sur le site de l’AFA.

Par Pierre Thouverez

Image de Une : @Museum Victoria/Stellarium

À Paris, des éoliennes ont tourné sous terre… et sans la moindre rafale de vent !

S’il y a un lieu dans lequel on ne s’attend pas à croiser une éolienne, c’est bien à plusieurs mètres sous terre, dans les couloirs du métro… C’est pourtant dans la station parisienne de Miromesnil qu’un groupe industriel d’origine espagnol spécialiste des énergies renouvelables a choisi d’installer pendant deux jours six prototypes d’éoliennes, d’un genre un peu particulier. Contrairement à celles qui se dressent dans nos plaines et sur nos collines, ces éoliennes souterraines n’étaient en effet pas entraînées par le vent… mais par les usagers du métro eux-mêmes.

Mises en œuvre pendant deux jours en juin dernier dans la station du métro parisien de Miromesnil, les six éoliennes sont venues remplacer les traditionnels «tourniquets» d’accès aux quais. ©Julien Hay

« L’idée est née de la volonté de démontrer que l’énergie se trouve partout autour de nous et que les moyens alternatifs de la générer sont multiples » retrace Reginald Thiebaut, directeur général d’Iberdrola Énergie France, entreprise à l’origine du projet. « L’objectif premier pour Iberdrola était de sensibiliser le grand public à l’importance des énergies renouvelables dans notre mix énergétique à travers une expérience unique : créer de l’énergie grâce à un simple geste du quotidien tel que prendre le métro », ajoute le dirigeant. C’est en effet en remplacement des habituels tourniquets du métro parisien qu’ont été installées ces éoliennes uniques au monde.

De futurs ingénieurs impliqués dans le projet

Pour mener à bien ce projet, l’énergéticien Iberdrola a choisi de faire appel à un groupe d’étudiants de l’école d’ingénieurs lilloise Junia, comme l’explique son directeur général Reginald Thiebaut : « Il nous a semblé tout naturel d’impliquer des étudiants dans ce projet, car ce sont eux qui construisent l’avenir et qui en sont acteurs. Le partenariat s’est fait à plusieurs niveaux avec l’école, faisant intervenir des étudiants pendant un an dans le cadre de leur cursus, mais aussi la Junior-Entreprise de Junia avec un contrat de prestation ».

Une petite quinzaine d’étudiants de l’école lilloise a ainsi contribué au projet. Des étudiants de profils et d’âges variés. « Les cinq premiers étudiants impliqués étaient en cinquième année, d’autres en quatrième année, et j’étais pour ma part en troisième année », témoigne la cheffe de projet Gaëlle Le Borgne, étudiante à Junia HEI.

C’est à l’aide d’un volant d’inertie et d’un système d’engrenages appelé train épicycloïdal que les futurs ingénieurs sont parvenus à transformer en électricité le mouvement généré par les usagers du métro lors de leur passage du tourniquet. ©Julien Hay

Les futurs ingénieurs se sont ainsi répartis, en fonction de leurs spécialités et domaines de compétence, les différents travaux de conception à réaliser : mécanique, électricité, automatisme… « Les étudiants ont élaboré les éoliennes en privilégiant une conception la plus écoresponsable possible », souligne Reginald Thiebaut. « Nous avions une idée précise du design entre le tourniquet de métro et l’éolienne, il a fallu ensuite matérialiser l’objet puis concevoir le mécanisme à l’intérieur capable de récupérer l’énergie du passage des usagers », complète Jean Paoli, Directeur de la stratégie et de la création chez Weber Shandwick, qui a travaillé sur le développement de l’opération avec les étudiants. Un travail de conception qui s’est révélé un véritable défi pour les élèves ingénieurs lillois. Comment, en effet, générer de l’électricité à partir d’un mouvement, celui du tourniquet, limité à quelques fractions de seconde ? Gaëlle Le Borgne détaille la solution adoptée par les étudiants face à cette problématique : « Il a fallu réfléchir à un système permettant de faire tourner plus vite et plus longtemps le moteur générant de l’électricité. Nous avons opté pour un volant d’inertie, un disque épais et lourd, entraîné par la rotation du tourniquet. Il actionne à son tour un système d’engrenages que l’on appelle un train épicycloïdal ». Traditionnellement utilisé comme réducteur, ce dispositif mécanique peut en effet également, à l’inverse, permettre d’augmenter la vitesse de rotation du système auquel il est relié. De quoi ainsi faire tourner suffisamment vite le dispositif destiné à produire l’énergie électrique.

Une réussite tant sur le plan quantitatif que qualitatif

« Nous avons installé six tourniquets, reliés en série à des batteries. L’énergie générée a permis d’alimenter des écrans situés de part et d’autre des tourniquets », détaille Gaëlle Le Borgne. Et si l’énergie générée est loin d’être comparable avec les mégawatts que peuvent produire les éoliennes conventionnelles, le potentiel du dispositif n’en demeure pas moins intéressant. « En deux jours, 27 000 usagers ont permis de produire plus de 2 000 Wh. Cela peut sembler dérisoire, mais avec un déploiement sur l’ensemble du métro, on pourrait produire 150 MWh en un an et alimenter en chauffage électrique un foyer de quatre personnes pendant dix ans », calcule ainsi Reginald Thiebaut.

D’abord réalisées en PLA via un procédé d’impression 3D, les pales des éoliennes souterraines ont ensuite été réalisées en métal pour plus de résistance. ©Julien Hay

Outre les parties mécaniques et électriques, les étudiants lillois se sont consacrés à la partie visible – et sans doute la plus symbolique – du dispositif : ses pales. Des éléments indispensables en effet pour figurer ces « éoliennes » installées à plusieurs mètres sous terre. « Nous avons d’abord assuré toute une phase de modélisation 3D. Ensuite, nous avons réalisé une impression 3D en PLA, une matière plastique à base d’amidon, sauf que cela n’était pas assez résistant pour une utilisation en conditions réelles. Nous avons donc finalement fait fabriquer en métal les pales que nous avions conçues », explique la cheffe de projet Gaëlle Le Borgne.

Au-delà de l’aspect quantitatif de leur production électrique, les dispositifs mis en service pendant deux jours dans le sous-sol parisien ont aussi eu le mérite de susciter l’intérêt des usagers du métro de la Capitale. « D’un point de vue qualitatif, les résultats ont totalement dépassé nos attentes, les usagers étaient ravis de pouvoir participer à la production d’une énergie verte, sans aucun effort et sans rien changer à leur quotidien », assure en effet Reginald Thiebaut. « C’est une innovation intelligente, qui répond à des enjeux actuels majeurs et qui, d’après de nombreux usagers, devrait être déployée partout où cela est envisageable ! », ajoute le dirigeant.

Fabriqués tout spécialement pour cette action éphémère de sensibilisation, ces prototypes ont toutefois été conçus pour être durables et réutilisables, comme le souligne Jean Paoli : « les éléments qui composent le dispositif ont été pensés pour correspondre à des normes d’installation dans le métro, et notamment des contraintes de résistance ».

Suite à l’opération menée dans le métro parisien, Iberdrola n’exclut ainsi pas de réutiliser ces six « tourniquets-éoliennes » lors d’évènements tels que des salons et des festivals axés sur le thème de l’environnement. « Je pense que cette idée, à son niveau de prototype et d’opération événementielle, est aussi une manière de montrer que, partout autour de nous, il y a des énergies perdues. Peut-être qu’une des clés à l’avenir est d’essayer de les repérer et de les exploiter, et pas uniquement pour des raisons marketing. En tout cas, c’est aussi le message de ce projet », conclut Jean Paoli. Un message qui résonne tout particulièrement à l’heure où une véritable crise énergétique frappe l’Europe et le monde.

Contre l’inaction climatique, Joe Biden veut passer en force

Alors que Joe Biden est revenu dans l’accord de Paris sur le climat quitté par son prédécesseur Donald Trump, son action climatique reste difficile. Il a annoncé en avril 2021 que les États-Unis réduiraient leurs émissions de gaz à effet de serre de 50 à 52 % d’ici 2030 par rapport à 2005 et atteindraient la neutralité carbone en 2050. Mais son action reste largement bloquée par le Congrès et limitée par la Cour suprême.

Le 30 juin, les six juges conservateurs de la Cour suprême des États-Unis ont estimé que l’Agence pour la protection de l’environnement (EPA) ne pouvait pas édicter de règles générales pour réguler les émissions des centrales à charbon. La décision, prise contre l’avis de leurs trois collègues progressistes, devrait empêcher de réduire la part du charbon qui produit encore près de 20 % de l’électricité du pays.

Alors qu’environ 100 millions de personnes vivent actuellement dans des zones concernées par des alertes de grande chaleur ou de chaleur excessive aux États-Unis, Joe Biden veut reprendre la main et dépasser l’inaction climatique de la Cour suprême et surtout du Congrès. Ce mercredi 20 juillet, sur le site d’une ancienne centrale à charbon fermée depuis 2017 et en reconversion en un hub de fabrication et de mise en scène des parcs éoliens offshore, Joe Biden a assuré qu’il allait utiliser ses « pouvoirs exécutifs », c’est-à-dire passer en force à coups de décrets présidentiels.

Des décrets pour passer à l’action

En urgence, ses premiers décrets devraient débloquer des fonds fédéraux pour aider les régions à s’adapter au changement climatique. L’agence fédérale chargée de la prise en charge des catastrophes naturelles et autres situations d’urgence, la FEMA, engagera ainsi 2,3 milliards de dollars pour aider les collectivités locales à s’adapter au changement climatique et à ses conséquences, notamment les vagues de chaleur.

Joe Biden souhaite en plus accélérer le déploiement d’éoliennes offshore sur toutes les côtes des États-Unis pour installer 30 gigawatts de puissance offshore à l’horizon 2030. L’administration Biden souhaite notamment permettre l’installation dans le Golfe du Mexique de capacités éoliennes pouvant fournir jusqu’à 3 millions de foyers en électricité. Elle a pour l’instant identifié deux zones nécessitant un examen plus approfondi pour déterminer les emplacements à retenir.

En l’état, les engagements de réduction de gaz à effet de serre pris par les États-Unis au niveau international restent très difficiles à atteindre. Joe Biden pourrait dans les prochaines semaines déclarer « l’état d’urgence climatique ». Selon RFI, cette manœuvre lui permettrait d’utiliser des fonds militaires pour développer les énergies renouvelables et tenter de tenir ses engagements de réduction des gaz à effet de serre.

La deuxième vie du bilan carbone

La France a été une pionnière de la mise en œuvre de la comptabilité carbone. Mesurer ses émissions de gaz à effet de serre (GES), à l’échelle d’un produit, d’un individu, d’une entreprise ou d’une collectivité, est en effet le préalable à tout plan d’action pour réduire les impacts de l’activité humaine sur le climat. Pour y arriver, une méthodologie solide est nécessaire. Celle du bilan carbone a été développée au début des années 2000, notamment par Jean-Marc Jancovici pour le compte de l’Ademe qui l’a proposée publiquement à partir de 2004. La gestion de l’outil a ensuite été confiée en 2011 à l’Association Bilan Carbone (ABC) qui l’a fait évoluer jusqu’à une version logicielle (BC+), et l’a complété par l’animation de clubs techniques, par des offres de sensibilisation, de formation, par des approches internationales, par la création d’un système de management des GES, etc. Une de ses dernières réflexions porte sur l’élargissement de la méthodologie pour vérifier qu’un plan d’action est cohérent avec les orientations de long terme permettant d’arriver à un monde bas carbone. Elle a aussi développé un outil pour que les citoyens puissent évaluer leur empreinte carbone, Nos Gestes Climat.

Étendre le champ d’action

Ces nouvelles pistes étendent le champ d’action de l’ABC qui vient de se rebaptiser Association pour la transition bas carbone. Pour lancer cette deuxième vie, elle redimensionne ses projets futurs, avec l’ambition « de construire collectivement des chemins d’action où chacun prend sa part dans ce pour quoi il est le plus légitime et partage l’effort, les moyens et les objectifs pour viser des objectifs communs avec un agenda partagé » (rapport d’activité 2021). Dans cette nouvelle perspective, elle inclut la mobilisation plus large des citoyens, des territoires, des décideurs publics, des organisations privées, la création de nouveaux partenariats et l’extension du réseau Clim’Foot, du nom d’un projet européen qui visait à développer des bases carbone (cf. encadré) dans d’autres pays européens.

Le nouveau format envisagé par l’ABC fait d’ailleurs écho à un changement législatif tout frais : la publication le 1er juillet du décret relatif aux bilans d’émissions de gaz à effet de serre. La réglementation obligeait déjà entreprises (de plus de 500 salariés) et collectivités (de plus de 50 000 habitants) à faire un bilan GES depuis 2010, et avait été révisée en 2015. Seuls les scopes 1 (émissions directes) et 2 (émissions dues à l’énergie) étaient dans le périmètre de l’obligation. « Avec ce nouveau décret, on n’a plus à se poser la question du périmètre avec les scopes 1, 2 et 3. Il faut désormais – enfin – une comptabilité exhaustive avec une prise en compte des émissions directes et indirectes significatives. L’obligation porte aussi sur la publication d’un vrai plan de transition. Ainsi, la réglementation française rejoint, après plus de 20 ans, les principes méthodologiques du bilan carbone. Il reste encore à massifier, à abaisser le seuil d’éligibilité, à annualiser l’exercice et surtout à assurer le contrôle qualité des bilans qui vont être publiés. Sur ce point, nous sommes à l’œuvre, car il y a encore malheureusement trop de bilans imparfaits » analyse Damien Huet, directeur de l’ABC.

À l’occasion de ses 10 ans, l’ABC a échangé avec plusieurs spécialistes et partenaires lors de tables rondes thématiques. Il a par exemple été rappelé que les stratégies GES des entreprises peuvent être structurées efficacement, par exemple avec l’initiative ACT. En plus des démarches faites à l’international, deux enjeux ont été reconnus par tous. Le premier est la nécessité de diffuser la « métrique carbone » comme un langage commun, spécialement dans la formation des étudiants et dans le monde entrepreneurial, en particulier financier. Le second est le besoin de ne plus se restreindre au seul critère des GES et d’envisager dès maintenant une comptabilité intégrée prenant en compte tous les impacts environnementaux. Le défi est de taille, mais il est endossé par des femmes et des hommes motivés.

Base carbone : définir les facteurs d’émissions

Une base carbone est un référentiel public de données nécessaires à la comptabilité carbone. Elle repose sur des facteurs d’émissions qui caractérisent la quantité de gaz à effet de serre émis par chaque activité humaine, au regard d’une unité de production (par exemple des kgCO2eq par kWh électrique). Dans la base gérée par l’Ademe, il y a 22 sous-catégories comme l’achat de produits et services, les sources fixes de combustion, la consommation d’électricité, les déplacements professionnels, les déchets, etc. Ces facteurs peuvent être actualisés en fonction des évolutions des activités.
Beaucoup de pays ne disposent pas de base carbone adaptée à leur économie. Mais certains ont commencé à en créer, comme la Roumanie qui vient de se lancer avec le soutien des institutions publiques. Le Maroc est très avancé dans la démarche, grâce au travail effectué par la Fondation Mohammed VI pour la protection de l’environnement, en lien avec l’ABC : plus de 200 facteurs d’émissions définis en 2013 viennent d’être actualisés, et une centaine d’autres ont été ajoutés à la base.

Solde positif pour les énergies renouvelables

L’énergie coûte cher en ce moment. Mais, paradoxalement, cela va permettre à l’État de renflouer ses caisses dans le cadre du soutien qu’il apporte aux énergies renouvelables (EnR) depuis 2003. La Commission de régulation de l’énergie (CRE) vient en effet de publier l’évaluation des charges de service public de l’énergie (CSPE) qu’elle effectue tous les ans. Ses estimations font valoir que le soutien financier aux EnR va rapporter de l’argent en 2022 et 2023.

Pour rappel, ces charges sont payées par les contribuables et permettent de compenser les entreprises du secteur de l’électricité et du gaz des surcoûts dus à leurs obligations de service public. Sont ainsi considérés les coûts liés :

  • à la péréquation tarifaire dans les zones non interconnectées au réseau électrique ;
  • aux dispositifs sociaux pour les personnes en précarité (en électricité et en gaz) ;
  • au soutien à l’effacement des consommations électriques ;
  • aux mesures exceptionnelles de protection des consommateurs (gel des tarifs réglementés de gaz et d’électricité) ;
  • au soutien à la cogénération au gaz naturel ;
  • au soutien à l’injection de biométhane dans les réseaux de gaz ;
  • au soutien des énergies renouvelables électriques en métropole continentale (éolien terrestre et en mer, photovoltaïque, bio-énergies, petite hydraulique, géothermie, incinération d’ordures ménagères).

Comprendre le mécanisme de soutien aux EnR

Les CSPE ont augmenté au fil des années, avec la croissance de quasiment tous les coûts pris en compte. Les montants fortement croissants dus aux EnR ont été particulièrement pointés du doigt et ce, en toute logique : dès lors que le parc renouvelable se développe de plus en plus, la quantité d’énergie produite augmente – en particulier l’électricité – et le soutien avec. Mais comment est calculé ce coût et quel rapport aujourd’hui avec la montée des prix sur les marchés de l’électricité ? En fait, le soutien défini par les pouvoirs publics prévoit que chaque électron « renouvelable » injecté sur le réseau soit aidé à hauteur d’un tarif fixé par arrêté dans le cadre d’une obligation d’achat ou d’un mécanisme de complément de rémunération. Le surcoût pris en charge par les finances publiques est donc la différence entre ce tarif et le prix de marché auquel aurait pu être (pour l’obligation) ou est (pour le complément) vendue l’électricité. Le tarif est dimensionné pour que les entreprises obtiennent une « rémunération raisonnable ». Mais comme il est tenu compte de la baisse des coûts des EnR, les niveaux de ces tarifs ont plutôt tendance à baisser. En 2021 ils étaient en moyenne de 137 €/MWh pour l’obligation d’achat et de 81 €/MWh pour le complément de rémunération.

Depuis toujours, ces tarifs étaient supérieurs aux prix de marché de gros de l’électricité (sinon, il n’y aurait pas eu besoin de soutien public et les EnR se seraient développées en vendant uniquement sur les marchés). Mais depuis l’an dernier, les tensions géopolitiques ont fait grimper les marchés tellement haut que la situation s’est inversée. L’écart entre tarifs et prix de marché est devenu négatif, spécialement pour les installations bénéficiant d’un complément de rémunération, puisque le prix de marché de référence retenu par la CRE est de 109,5 €/MWh en 2021 et sa prévision est de 170,3 €/MWh pour 2022 et 207,5 €/MWh en 2023.

Près de 9 milliards d’euros remboursés

En conséquence, les entreprises exploitant des installations renouvelables vont devoir rembourser le trop-perçu. Les montants sont faramineux. Pour 2021, alors que la CRE avait fait une précédente estimation des CSPE à 7,9 milliards d’euros, la hausse des prix de gros de l’électricité au 2e semestre 2021 les a fait baisser à 6,1 Md€. Une première économie de 1,8 Md€ non négligeable, même si les CSPE restent à ce stade une charge pour les contribuables. 2022 voit s’amorcer le changement : la prévision qui s’établissait à 8,8 Md€ pour cette année a été réévaluée à -582 millions d’euros. C’est un gain net pour les finances publiques, certes modeste mais rendu possible par une contribution de l’éolien (-4 Md€), des bioénergies et des autres énergies (-0,8 Md€) tandis que les autres restent des coûts pour la collectivité (voir tableau).

Mise à jour de la prévision des charges de service public de l’énergie au titre de 2022 (source: CRE)

Les charges au titre de 2023 montrent la continuité de ce revirement. Les CSPE sont évaluées à -883 millions d’euros grâce à une économie de 7 Md€ par rapport à la précédente évaluation. La baisse des charges est, comme pour 2022, portée par les énergies renouvelables hors photovoltaïque (dont les charges sont néanmoins en forte baisse, à seulement 336 millions d’euros contre 2,2 Md€ en 2021) et biométhane (dont le développement est actuellement fort et la baisse des coûts difficiles).

Ainsi, sur 2022-2023, les énergies renouvelables électriques en métropole continentale représenteront une recette cumulée de 8,6 Md€ pour le budget de l’Etat. En deux ans, ces filières (principalement éolienne) compenseront donc 20 % de tout ce qui leur a été versé en presque 20 ans (43 Md€ depuis 2003). Même si personne ne peut prévoir comment seront les marchés de gros après 2023, cette nouvelle inflexion montre que le développement des EnR n’est pas toujours qu’un coût pour la collectivité et qu’elles méritent d’être encore plus développées.

L’IPBES invite à dépasser la seule valeur marchande de la nature

La Plateforme intergouvernementale scientifique et politique sur la biodiversité et les services écosystémiques (IPBES) dévoile son nouveau rapport sur les nombreuses valeurs de la nature et les services rendus par les écosystèmes. L’évaluation menée pendant quatre ans par 82 scientifiques et experts couvre plus de 13 000 études scientifiques.

Le rapport l’affirme : les décisions politiques reposent sur la recherche des « profits à court terme » et de « la croissance économique ». En somme, elles reposent sur la seule valeur marchande de la nature. Elles laissent ainsi de côté « les multiples valeurs de la nature » qui reflètent comment, à travers le monde, les populations conçoivent, valorisent et interagissent avec la nature de façon très différente. Dans les faits, les experts estiment que « 74 % des études d’estimation des valeurs se sont centrées sur les valeurs instrumentales, 20 % sur les valeurs intrinsèques et seulement 6 % sur les valeurs relationnelles. »

De quelles valeurs de la nature parle-t-on ?

« Les valeurs de la nature varient considérablement selon les systèmes de connaissances, les langues, les traditions culturelles et les contextes environnementaux », rappelle l’IPBES. Les experts recensent ainsi plus de 50 approches et méthodes d’estimation des valeurs.

L’IPBES souligne que la préservation du vivant passera nécessairement par la prise en compte des différentes valeurs de la nature dans les prises de décision. En ce sens, la plateforme propose une nouvelle typologie innovante et complète des diverses valeurs de la nature. Cette typologie englobe la richesse des relations des gens avec la nature et les valeurs attribuées. En résumé, elle se réfère à la façon dont nous pouvons « vivre de la nature », « vivre avec la nature », « vivre dans la nature » ou encore « vivre comme la nature ».

Prendre en compte toutes les valeurs de la nature

Patricia Balvanera, codirectrice de l’évaluation de l’IPBES explique dans un communiqué : « Un projet de développement peut générer des avantages économiques et des emplois, pour lesquels les valeurs instrumentales de la nature peuvent être évaluées, mais il peut également entraîner la disparition d’espèces, associée aux valeurs intrinsèques de la nature, et la destruction de sites patrimoniaux importants pour l’identité culturelle, affectant ainsi les valeurs relationnelles de la nature. Le rapport fournit des conseils pour combiner ces valeurs très diverses. »

Un nouveau cadre mondial de la biodiversité pour la prochaine décennie doit être mis au point avant la fin de l’année lors de la COP15 sur la biodiversité. « Les informations, les analyses et les outils fournis par cette évaluation représentent des contributions précieuses à cette initiative, à la réalisation des objectifs de développement durable et à la réorientation de toutes les décisions afin qu’elles soient suivies de résultats davantage centrés sur les valeurs et bénéficiant à l’humanité et au reste de la nature », se félicite Ana María Hernández Salgar, présidente de l’IPBES.

L’IPBES veut rendre « durable » l’utilisation des espèces sauvages

La Plateforme intergouvernementale scientifique et politique sur la biodiversité et les services écosystémiques (IPBES) alerte sur l’exploitation non durable des espèces sauvages par les humains. Selon les calculs des 85 experts scientifiques mobilisés pendant quatre ans, l’humanité exploite 50 000 espèces sauvages. Elles servent à l’alimentation, à la production d’énergie, de matériaux ou de médicaments, ou encore pour les loisirs. Mais alors que la crise de la biodiversité menace d’extinction près d’un million d’espèces de plantes et d’animaux, l’IPBES incite à « une utilisation plus durable des espèces sauvages de plantes, d’animaux, de champignons et d’algues dans le monde entier ».

Le monde reste en effet loin d’une exploitation durable des espèces sauvages. L’IPBES met en cause des pratiques telles que la cueillette, l’exploitation forestière ou le prélèvement d’animaux terrestres. Sur la base de l’évaluation de plus de 10 098 espèces de 10 groupes taxonomiques de la liste rouge de l’Union internationale pour la conservation de la nature (UICN), seulement 34 % sont utilisées de « manière durable ». L’IPBES estime aussi que 34 % des stocks mondiaux de poissons sauvages marins sont surexploités et que 66 % sont pêchés à des niveaux biologiquement durables, avec des réalités locales très différentes. Sur terre, plus de 25 % des forêts du monde subissent une exploitation industrielle. Et 12 % des espèces d’arbres sauvages sont menacées par « l’exploitation forestière non durable ».

Pour une relation durable à la nature

L’alimentation humaine repose sur 10 000 espèces sauvages récoltées dans la nature. « Les populations rurales des pays en développement sont les plus susceptibles de recourir à des pratiques non durables, l’absence de solutions de substitution les contraignant souvent à exploiter davantage les espèces sauvages déjà menacées », explique Jean-Marc Fromentin, codirecteur de l’évaluation, via le communiqué.

Il ajoute : « 70 % des populations pauvres de la planète dépendent directement des espèces sauvages. Pour une personne sur cinq, les champignons, les algues et les plantes sauvages constituent des sources d’alimentation et de revenu ; 2,4 milliards de personnes dépendent du bois en tant que combustible pour cuisiner ; environ 90 % des 120 millions de pêcheurs traditionnels travaillent à petite échelle. »

L’utilisation des espèces sauvages constitue une importante source de revenus pour des millions de personnes à travers le monde. Pour remédier aux atteintes à la biodiversité, l’IPBES appuie notamment sur l’importance de lutter contre le commerce illégal, d’appuyer des politiques plus inclusives et d’aligner les politiques internationales aux niveaux national, régional et local. Dans un deuxième rapport publié le 11 juillet, l’IPBES invite à prendre en compte l’ensemble des valeurs de la nature dans les décisions politiques, au-delà de sa seule valeur marchande, pour arriver à mieux préserver le vivant.

Grands fonds marins : privilégier la connaissance avant l’exploitation

Les grands fonds marins contiennent d’importantes ressources minérales : amas sulfurés, nodules polymétalliques, encroûtements cobaltifères… Leur gestion fait aujourd’hui l’objet d’une rude compétition internationale, entre des États dont les priorités peuvent diverger, les plus actifs d’entre eux demeurant largement orientés vers des perspectives d’exploitation. En septembre dernier, lors du congrès mondial de la nature à Marseille, plus de 60 % des États et agences étatiques avaient voté un moratoire sur l’exploitation minière des fonds marins. La France s’était quant à elle abstenue. La Fondation de la Mer vient de publier une étude, dans laquelle elle décrit notamment quelles peuvent être la place et la stratégie de l’Hexagone sur ce sujet.

Le rapport révèle que la France a des atouts incontestables dans ce domaine. C’est en effet le pays qui possède la plus grande surface de fonds marins dans le monde, avec 9,5 millions de km². Rappelons que ces zones sous-marines commencent à partir de 1 000 mètres de profondeur, un seuil en dessous duquel l’environnement change de façon significative. Par ailleurs, l’expertise de la France et les moyens dont disposent ses organismes de recherche en matière d’exploration profonde sont aujourd’hui reconnus. À titre d’exemple, la France est le seul pays européen à disposer d’un sous-marin habité pouvant descendre jusqu’à six mille mètres de profondeur.

À ce jour, la stratégie française, définie dans le cadre du plan « France 2030 », est clairement de privilégier la connaissance, sans pour autant exclure, à terme, l’exploitation. « Mais les connaissances scientifiques actuelles de ce milieu sont encore trop parcellaires pour définir les conditions d’une exploitation responsable et respectueuse de la biodiversité », analysent les auteurs de cette étude. C’est pourquoi quatre missions d’exploration spécifiques vont être lancées par le Comité interministériel de la mer (CIMer), pour un budget alloué de 300 millions d’euros. À cela, va s’ajouter la stratégie du ministère des Armées, qui souhaite développer une base industrielle française, afin de lui aussi participer à une meilleure connaissance de ce milieu, mais aussi dans le but de surveiller et de protéger les infrastructures, notamment les câbles sous-marins, et prévenir d’éventuelles exploitations illégales.

Clarifier des priorités d’investissement et garantir les financements

Le rapport défend la position équilibrée de la France, s’attachant dans un premier temps au développement de la connaissance, tout en veillant également à garantir le contrôle et la maîtrise des grands fonds marins. Plusieurs recommandations sont formulées dans ce document pour y parvenir. Les auteurs conseillent d’associer, suffisamment en amont, la société civile à la définition des grands choix stratégiques et de définir des « sanctuaires des profondeurs » ; ce sont des zones totalement protégées reliées entre elles par des corridors biologiques sous-marins.

Ils soulignent également l’importance d’une « clarification des priorités d’investissement de la France, pour développer des méthodes et des outils d’exploration, de surveillance et de valorisation des grands fonds marins, qui permettent de garder la France dans le peloton de tête des nations. » L’exploration des grands fonds marins étant extrêmement coûteuse, des collaborations public-privé sont également à mettre en place pour garantir les ressources financières, qui peuvent aussi prendre la forme de financements innovants. Notamment, « en encourageant les acteurs à s’engager dans des sociétés à capital mixte, dans des mécanismes de garanties sur des prêts bancaires, dans des avances remboursables ou en faisant appel au public », recommandent les auteurs.

En parallèle de cet intérêt pour les grands fonds marins, la mise en place d’une stratégie ambitieuse de récupération et de recyclage des terres et des métaux rares est essentielle, afin que la France occupe une position de premier plan sur ce marché. D’après l’ONU, 1 % des terres et des métaux rares sont aujourd’hui recyclés sur la planète alors que plus de la moitié des métaux le sont. L’Europe estime que 350 000 emplois pourraient être créés si une politique d’économie circulaire des matières premières sensibles était mise en place. D’ores et déjà, 40 % du zinc ou de l’aluminium et plus de 50 % du cuivre européens sont issus du recyclage, alors que le lithium et le cobalt ne sont quasiment pas recyclés.

Les feux de forêt font exploser les niveaux de particules fines

Les feux de forêt qui sévissent actuellement en Gironde et dans les Landes émettent des quantités importantes de particules fines vers l’atmosphère. Une large partie de la Gironde et des Landes est encore impactée par un épisode de pollution aux particules ce jeudi 21 juillet, partage Atmo Nouvelle-Aquitaine.

Plusieurs communes y subissent un air « extrêmement mauvais ». Pour les particules de moins de 10 micromètres de diamètre, les PM10, le seuil d’alerte est fixé à 80 µg/m³ en moyenne journalière. Le seuil d’information et de recommandation est pour sa part fixé à 50 µg/m³ en moyenne journalière. Avec un air « extrêmement mauvais », les PM10 s’élèvent à plus de 150 µg/m³en moyenne journalière. C’est plus de trois fois le seuil d’information et de recommandation.

Un panache de fumée qui traverse la France

Le panache de fumée a affecté une grande partie du territoire métropolitain entre le mardi 19 et le mercredi 20 juillet, confirme l’Institut national de l’environnement industriel et des risques (Ineris). Des pics ponctuels de pollution aux particules fines ont été constatés dans les mesures des associations agréées de surveillance de la qualité de l’air sur une bande allant de la Normandie, la Bretagne, les Pays de la Loire et la Nouvelle-Aquitaine. Mardi soir, le ciel de la capitale s’est même couvert d’une légère brume. Une odeur de feu, remontant de Gironde, se faisait sentir par beaucoup d’habitants d’Île-de-France.

« La base de données Geod’air a ainsi pu enregistrer 49 valeurs horaires au-dessus de 150 µg/m³ dans la journée du 19 juillet », partage l’Ineris. L’institut veut toutefois rassurer : « Ces extrêmes sont demeurés relativement sporadiques ». Le panache de fumée s’est donc déplacé rapidement. Sur la journée, seules quatre stations, toutes situées en Nouvelle-Aquitaine, enregistraient une moyenne journalière supérieure à 70 µg/m³.

Vers une meilleure prise en compte de l’impact environnemental des TIC

Un extrait de GREEN IT : « mythe ou réalité » par Laurent MOLINARI

Le terme « GreenIT » est la contraction de Green Information Technology. Ce concept est apparu il y a quelques décennies, mais son émergence réelle dans les domaines liés aux technologies de l’information et de la communication est plus récente. La prise de conscience de l’impact environnemental de l’ensemble du secteur se développe désormais partout dans le monde. Ce domaine a vocation à s’intéresser à l’étude des impacts environnementaux des technologies de l’information et de la communication ainsi qu’aux moyens, solutions et méthodes permettant de les mesurer, de les comprendre, de les maîtriser et, enfin, de les réduire. L’une des particularités du concept est qu’il regroupe une vision ambivalente du rôle des TIC vis-à-vis des sociétés. Il est une démonstration des dangers de la société de surconsommation technologique pour les uns, une opportunité de changer le monde par la technologie pour les autres. Cette ambivalence est caractérisée par des terminologies spécifiques. Il est difficile d’en trouver une origine précise, mais le découpage entre les notions de « Green IT » 1.0 et Green IT 2.0 est effectué depuis maintenant quelques années, notamment par les cabinets d’analyste.

Les deux côtés d’une même pièce

Les TIC n’ont pas l’image d’une industrie polluante. Pourtant, l’un des chiffres les plus connus, et largement diffusé, indique que le secteur représenterait 2 % de l’impact des gaz à effet de serre mondiaux, ce qui le positionne au niveau du secteur du transport aérien. En France, les TIC représentaient en 2008 13,5 % de la consommation électrique, soit près de 5 % des émissions françaises de gaz à effet de serre. L’inquiétude repose surtout sur l’évolution en forte hausse de ce secteur. Une tendance mondiale qui révèle une évidence : si l’impact unitaire des systèmes informatiques est relativement modeste, la multiplication des usages (34 millions d’internautes et 15 millions d’utilisateurs de téléphonies mobiles en 2008) fait exploser régulièrement la consommation d’énergie de l’ensemble et accentue la pression sur les matières nécessaires à leurs fabrications. Mais si les TIC, de par l’explosion de leur usage et donc des infrastructures et des équipements associés, constituent un sujet d’inquiétude important pour l’environnement, il apparaît qu’elles constituent aussi une opportunité de transformation de la société et peuvent rejoindre des ambitions liées au développement durable.

La notion de « Green IT 2.0 » regroupe ainsi l’ensemble des concepts où les TIC constituent des leviers de transformation et d’amélioration de l’impact environnemental des activités humaines. Le concept regroupe l’ensemble des méthodes et actions permettant, grâce à la mise en œuvre de solutions innovantes, de réduire l’empreinte environnementale d’un secteur d’activité existant. Par empreinte environnementale, l’indicateur CO2 (émissions de gaz à effet de serre) est souvent le seul indicateur suivi. Parmi les sujets clés et les plus propices à permettre un bénéfice CO2, la dématérialisation des échanges et la communication à distance constituent les exemples les plus importants. Le premier concerne notamment les flux papiers : factures, commandes, procédures administratives… La balance environnementale dépend ici de l’économie attendue sur les moyens physiques de production des supports d’échanges (papier, éditique…) et les moyens de transport de ces supports (courrier postal dans le cas des commandes). Le second repose avant tout sur les systèmes de visioconférence, voire de télé-présence. Dans cette orientation, l’objectif est clairement de développer le travail à distance (le télétravail) afin de jouer sur les émissions CO2 des opérations de transports qui constituent un sujet stratégique dans la lutte contre le réchauffement climatique.

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 4 août 2022 !

GREEN IT : « mythe ou réalité », par Laurent MOLINARI

Les thèses du mois : Quels leviers pour réduire l’impact environnemental des technologies numériques ?

Pour notre dossier de juillet, « Quels leviers pour réduire l’impact environnemental des technologies numériques ? », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

 

Cooling and heat recovery of data centers: optimization and energy management
Ahmad Alamir SBAITY
Thèse de doctorat en Mécanique des fluides, énergétique, thermique, combustion, acoustique, soutenue le 07-01-2022
Laboratoire universitaire des sciences appliquées de Cherbourg

 

Optimisation des alimentations électriques des Data Centers
Nouhaila LAZAAR
Thèse de doctorat en Génie électrique, soutenue le 25-02-2021
Laboratoire universitaire des sciences appliquées de Cherbourg

 

Performance evaluation of green IT networks
Youssef AIT EL MAHJOUB
Thèse de doctorat en Réseaux, information et communications, soutenue le 18-03-2021
Données et algorithmes pour une ville intelligente et durable

 

Évaluation et modélisation de l’impact énergétique des centres de donnée en fonction de l’architecture matérielle/ logicielle et de l’environnement associé
Yewan WANG
Thèse de doctorat en Informatique, soutenue le 09-03-2020
Laboratoire des Sciences du Numérique de Nantes

 

Vers la modélisation de clusters de centres de données vertes
Dimitra POLITAKI
Thèse de doctorat en Informatique, soutenue le 16-07-2019
Institut national de recherche en informatique et en automatique,
Unité de Sophia Antipolis.

 

De la gestion des déchets à l’approvisionnement de matières secondaires : développement d’indicateurs pour la gestion des DEEE – focus sur la filière française
Rachel Horta ARDUIN
Thèse de doctorat en Procédés de fabrication – Génie mécanique, soutenue le 20-12-2019
Institut de mécanique et d’ingénierie de Bordeaux

 

Etude d’un procédé plasma thermique pour l’extraction, la récupération et la valorisation d’éléments stratégiques contenus dans des matériaux types DEEE.
Jonathan CRAMER
Thèse de doctorat en Energétique, génie des procédés, soutenue le 21-11-2018
Institut de recherche de chimie Paris

 

Sustainability and responsibility in the digitalization era: a study of consumer-level 3D printing technology
Josip MARIC
Thèse de doctorat en Sciences de Gestion, soutenue le 02-11-2018
Montpellier Research in Management

 

Valorisation des matériaux issus du traitement des écrans plats (LCD)
Ana Luisa Barrera Almeida
Thèse de doctorat en Chimie des matériaux, soutenue le 07-01-2022
Unité matériaux et transformations

 

Valorisation des systèmes d’éclairage à LED en fin de cycle de vie
Arezki Lotfi BENMAMAS
Thèse de doctorat en Matériaux, Mécanique, Optique et Nanotechnologie, soutenue le 14-12-2021
Interdisciplinary research on Society-Technology-Environment, InSyTE
Lumière- nanomatériaux et nanotechnologies, L2N

Quels matériaux composent nos smartphones ?

Le smartphone est l’appareil numérique symbole d’une évolution majeure, qui a débuté à la fin des années 2000 : l’avènement des outils numériques, devenus indispensables à l’homme, aussi dans sa vie personnelle que professionnelle.

Le smartphone, à l’instar des ordinateurs, appartient aujourd’hui à cette catégorie. On parle même de prothèse numérique, tant sont nombreux ceux qui l’utilisent plusieurs heures chaque jour.

La problématique autour des ressources de matières premières est double, en ce qui concerne la production d’appareils numériques. Il y a comme nous venons de l’évoquer, une réalité en termes de quantité disponible sur Terre. Nous allons le voir, ces quantités sont extrêmement variables selon le matériau concerné. 

Le second aspect de cette problématique réside dans une réalité purement humaine : les conditions d’extraction des matières premières entrant dans la composition des appareils numériques sont parfois critiquables, voire illégales. Généralement, l’extraction de ces matières premières a lieu dans des pays en conflit, en guerre. 

Quelques exemples symboliques de cette situation : L’étain, un métal extrait à partir de cassitérite, est exploité dans de nombreux pays. Ainsi, la Malaisie, l’Indonésie, le Nigéria, la Thaïlande, Myanmar et la République démocratique du Congo possèdent des gisements exploitables, mais ces pays, à divers degrés, sont dans des situations de guerre ou d’instabilité politique très prononcée.

Le tantale, un métal peu corrosif et très conducteur, est indispensable pour fabriquer des téléphones mobiles. Il provient des gisements de coltan, dont les deux tiers des réserves mondiales se situent en République démocratique du Congo, pays qui alterne entre guerre civile, conflits armés avec les voisins directs, et instabilité politique : ces trois éléments étant d’ailleurs – pas toujours – directement liés aux ressources enfouies dans le sous-sol de ce pays d’Afrique.

Ces réalités ont une influence sur les cours de ces matières premières, qui peuvent s’envoler ou plonger à tout moment, selon le contexte spécifique dans certaines parties du monde. La situation actuelle, mêlant une crise sanitaire sans précédent et une guerre sur le sol ukrainien en témoignent, entraînant pour certains secteurs industriels des difficultés d’approvisionnement inextricables, et pour d’autres une envolée du prix des matières premières qui fait exploser leur modèle économique. 

La composition de nos smartphones met en avant cette réalité, et la nécessité de prendre en compte ses composantes temporelles et spatiales, pour anticiper les difficultés autour de tel ou tel matériau, dans les pays où ils sont extraits.

Nos smartphones regorgent de ces matériaux. On en dénombre pas moins de 70 différents dans un modèle standard : plastiques, verre, métaux ferreux, précieux, cobalt, carbone… un véritable casse-tête en termes de recyclage, puisque la petite taille de nos appareils mobiles rend plus ardue les processus de démantèlement et de recyclage. Qui sont pourtant importants pour ces filières, qui produisent de plus en plus d’appareils.

Ainsi, dans le cas d’un smartphone, la composition moyenne fait état de métaux non ferreux comme l’aluminium ou le cuivre, à hauteur de 2,4 %. Viennent ensuite les métaux ferreux – 5,6 % – qui composent en général la structure du téléphone. Les substances réglementées entrent pour 24,3 % dans la composition d’un smartphone. Ces substances, dont certaines sont rares sur Terre, sont utilisées pour fabriquer les batteries : leur usage est extrêmement contrôlé. Enfin, un quart des smartphones est composé de cartes électroniques, elles-mêmes faites de métaux et de plastiques. Le reste des téléphones intelligents va se retrouver sous forme de plastiques, qui constituent environ un tiers de l’appareil.

Ainsi, la problématique des matériaux composant nos smartphones – et plus globalement la majorité des appareils électroniques – est très complexe. 

Les matières premières issues des pays instables interrogent de par leur disponibilité pour le commerce et au-delà, la croissance exponentielle des usages d’appareils électroniques pose la question essentielle du recyclage. Cette dernière question, si elle fait l’objet d’une attention particulière des décideurs, semble aujourd’hui très sous-estimée.

Par Pierre Thouverez

PowerUp, la greentech qui veille sur les batteries au lithium

S’appuyant sur près d’une décennie de recherche et une dizaine de brevets, PowerUp a développé des modèles d’endurance couvrant l’intégralité des technologies de batteries au lithium. Basés sur des algorithmes d’apprentissage (machine Learning), ces modèles permettent notamment d’optimiser la charge des batteries, augmentant ainsi de facto leur durée de vie. Les solutions développées par l’entreprise permettent également de suivre l’état de santé des batteries, de minimiser le risque d’emballement thermique, ou encore de prédire la fin de vie des batteries, permettant ainsi à leur exploitant d’optimiser la maintenance de son parc. Des solutions qui se déclinent sous la forme d’un boîtier intelligent, baptisé Skipper, d’un logiciel embarqué, Skipper Lib, ainsi que d’une plateforme cloud nommée Battery Insight, qui permet la collecte, le traitement et l’interprétation des données d’usage des batteries à distance, comme nous l’explique Abdelkrim Benamar, actuel PDG de PowerUp.

Techniques de l’Ingénieur : Comment PowerUp a-t-elle vu le jour ?

Abdelkrim Benamar, PDG de PowerUp. © PowerUp

Abdelkrim Benamar : L’entreprise est issue d’un essaimage du CEA Liten[1] et résulte de la rencontre de deux structures. Deux des cofondateurs travaillaient au CEA, dont un, Arnaud Delaille, en tant que responsable d’un labo, expert en électrochimie. Il a commencé à monter une structure avec la volonté de valoriser les travaux de recherche du CEA sur la compréhension des mécanismes de vieillissement des batteries au lithium. Il a rencontré un autre entrepreneur, Josselin Priour, mon prédécesseur en tant que président, qui dirigeait une structure qui existe toujours, Lumila, spécialisée dans l’éclairage industriel. Il était confronté à des problématiques de performances de batteries au lithium dans le cadre de son travail. Il a entendu parler des travaux du CEA, a rencontré Arnaud Delaille et ils ont décidé de monter une structure ensemble. C’est ainsi qu’est née PowerUp, en 2017.

Quelles solutions avez-vous développées ? Quelles sont leurs principales caractéristiques et quels sont leurs intérêts majeurs ?

Le fond de notre activité consiste à estimer un certain nombre de paramètres clés sur les batteries au lithium. Nous couvrons l’ensemble des types de chimie de ces batteries : NMC[2], LFP[3]… Nous couvrons l’ensemble du spectre. Plus concrètement, ce que nous faisons consiste à récupérer des données de terrain, liées à l’usage en opération des batteries, par exemple dans le cadre d’installations de stockage liées aux énergies renouvelables, ou aux flottes de véhicules électriques, voire aux data centers. Nous avons besoin, pour chaque module de batterie, d’avoir des remontées d’informations sur le courant, la tension et la température. À partir de là, nous sommes capables avec une algorithmie très particulière et en nous basant sur l’évolution de ces paramètres – nous avons besoin de données sur plusieurs heures ou plusieurs jours – d’identifier des cycles de charge et de décharge. Cela nous permet de calculer un certain nombre de paramètres extrêmement importants.

Nous avons, en plus des données de terrain, des modèles semi-empiriques de comportement de batteries. Nous sommes capables de reproduire en accéléré le processus de vieillissement des batteries, avec un protocole qui est un véritable savoir-faire. Cela nous permet de modéliser le comportement de chaque type de batterie.

À partir de toutes ces données, nous avons développé une technologie basée en grande partie sur la propriété intellectuelle du CEA au moment de la création de PowerUp, mais également de la propriété intellectuelle que nous avons-nous mêmes développée. Cette technologie s’appelle MAP, pour « mesurer, agir, prédire ». Cela permet de mesurer l’état de santé de la batterie avec un niveau de précision extrêmement important. Sa dégradation est en effet très liée à l’usage, et à l’environnement dans lequel cet usage se fait. Il est donc extrêmement important d’avoir une mesure très fine et nous avons un niveau de précision de plus ou moins 2 %. Ce chiffre est comparable avec ce qui est obtenu grâce à des tests capacitifs, ce qui est habituellement réalisé. Les systèmes de gestion des batteries, les BMS[4], n’ont pas un niveau de précision aussi important : ils se situent plutôt autour de 8 à 10 %. Et surtout, cette estimation se dégrade au fil de l’usage.

Nos modèles de vieillissement permettent de prédire le comportement à long terme de la batterie et d’estimer sa durée de vie restante, jusqu’à un seuil de 70 %, considéré comme la limite de première vie d’une batterie.

Au-delà de ces parties « mesurer » et « prédire », nous sommes aussi capables de définir le point de charge optimal pour accroître la durée de vie des batteries, par rapport à l’usage qui en est fait et son état de santé. Il s’agit donc de la partie « agir » de notre technologie MAP.

Nous avons également développé assez récemment un nouvel indicateur, dont nous avons breveté les algorithmes, qui est une sorte de système d’alarme permettant d’identifier les signes avant-coureurs des causes qui aboutissent à l’emballement thermique et donc à l’incendie. C’est ce que l’on appelle l’état de sécurité de la batterie.

Les modèles que nous construisons l’ont été pour les modèles les plus courants, mais évidemment, on peut tout à fait se trouver dans des situations qui impliquent des batteries un peu différentes, ou dont l’usage est un peu différent. Nous partons donc de nos algorithmes en librairie, que nous recalibrons en apprenant au fur et à mesure de l’usage de cette batterie spécifique. C’est là où interviennent des algorithmes d’apprentissage.

À quels marchés ces solutions se destinent-elles ?

Ce type de technologies peut s’adapter à l’ensemble des cas d’usages de batteries au lithium. Et il y en a de plus en plus…

Historiquement, nous nous sommes positionnés sur des problématiques d’alimentation secourue : typiquement ce que l’on trouve dans des systèmes d’alarme, ou dans des télérupteurs présents sur le réseau électrique, qui permettent d’aiguiller le courant en cas de panne d’alimentation. On peut également citer les data centers, où l’on trouve des onduleurs qui comportent forcément des batteries. C’est le cas aussi sur les sites de télécommunication, là où l’on trouve des antennes.

La spécificité de toutes ces configurations réside dans le fait que ces systèmes sont peu sollicités, puisqu’ils ne s’activent qu’en cas de défaillance de fourniture d’énergie. Le cyclage est faible. Nous avons donc une technologie adaptée à ces cas de figure.

Nous nous adressons aussi à d’autres types de marchés, notamment celui des systèmes de stockage d’énergie appelés BESS : battery energy storage system. On les utilise notamment dans le cadre de la production d’énergies renouvelables, mais on les retrouve aussi dans les systèmes de gestion des microgrids[5] et pour le stockage résidentiel. Tous ces usages impliquent des cyclages plus importants : on peut charger et décharger plusieurs fois les batteries sur une courte période.

Le troisième marché que nous visons est celui de la gestion de flottes. Plutôt, dans un premier temps, celui des flottes commerciales et industrielles, mais notre technologie est aussi adaptée à la gestion de parcs de véhicules grand public. Le pôle batterie représente un coût important pour les acteurs de ce marché. Il est donc important pour eux de gérer au mieux cet actif, de façon intelligente, afin d’accroître sa durée de vie et de maintenir sa performance, mais aussi prévenir des cas potentiels d’emballement thermique.

Annoncée en mai dernier, la solution cloud Battery Insight sera commercialisée dès cet été. © PowerUp

Quelle stratégie, quelle trajectoire avez-vous adoptées pour développer votre offre sur ces différents marchés ?

Nous sommes avant tout une entreprise deeptech, dans le domaine de la greentech… Cela implique donc un cycle long d’adaptation de notre force de recherche, qui se trouvait plutôt dans un cadre académique, celui du CEA. Les trois premières années d’existence de l’entreprise ont ainsi été consacrées à des travaux de recherche complémentaires. Nous avons eu une phase exploratoire, voire expérimentale, pour finir, en 2020, par lancer des campagnes de prototypage et de preuves de concept. Nos partenaires dans ces projets sont devenus de facto nos premiers clients, puisque nous sommes désormais en phase de prédéploiement et d’industrialisation sur une partie des technologies.

Notre avons déjà lancé officiellement, en 2021, Skipper : un produit qui embarque nos algorithmes permettant de mesurer l’état de santé et piloter la charge de batteries. Cette solution s’adresse typiquement à des marchés comme le retrofit, notamment le remplacement par des batteries lithium de batteries de backup au plomb destinées à alimenter des télérupteurs en cas de défaillance du réseau. Cela permet d’accroître la durée de vie des installations : 8 à 12 ans pour les batteries lithium contre 3 ans pour leurs devancières au plomb. Skipper a donc été le premier produit que nous avons lancé.

Ensuite, nous nous sommes dit que notre véritable savoir-faire et notre véritable expertise résidaient dans le logiciel embarqué. Pour nos nouvelles générations de solutions, nous avons eu l’idée d’extraire ces logiciels contenant notre algorithmie pour les proposer sous forme de bibliothèques pouvant être portées sur d’autres types d’équipements.

Nous avons également choisi de développer un autre axe, celui de la solution cloud, qui est adaptée à des traitements distants pour des systèmes de stockage d’énergie ou de gestion de flottes par exemple. L’offre cloud permet une mise à l’échelle, avec son côté scalable. Elle nous permet en effet l’accès à des ressources de calcul, de mémoire ou de stockage qui peuvent suivre une croissance importante d’un projet, contrairement à des équipements discrets positionnés en local, dont la puissance de calcul est forcément limitée.

Nous avons annoncé cette plateforme Battery Insight en mai dernier, pour une commercialisation à partir de l’été.

Pour en revenir à la trajectoire de l’entreprise, après nos trois premières années plutôt exploratoires, les années 2021 et début 2022 ont donc été consacrées à du prototypage et des preuves de concept avec des clients comme Enedis, le Crédit Agricole, la SNCF, ou encore la Direction générale de l’armement. Nous commençons à recevoir des commandes de prédéploiement, et nous sommes rentrés dans une phase d’industrialisation. J’ai pour ma part pris la présidence de l’entreprise fin novembre, pour piloter cette phase ainsi que le développement de notre offre cloud, je viens en effet du monde des télécoms et du traitement de données. On pourrait d’ailleurs définir PowerUp en tant que Battery data scientist… Nous avons une vraie expertise d’interprétation des données, une véritable propriété intellectuelle en matière d’algorithmie. Nous combinons cela avec des techniques modernes de traitement de données et d’apprentissage, pour en faire ressortir ce que l’on appelle en anglais les « insights », c’est-à-dire des enseignements, qui deviennent des informations utiles.

La période 2022 – 2023 sera donc consacrée au déploiement de l’ensemble de notre portefeuille, en allant chercher les nouveaux segments de marchés, pour accélérer notre croissance à partir de 2023. L’idée est de dépasser, si tout va bien, les 20 M€ de chiffre d’affaires à l’horizon 2025. Notre objectif est d’aller vite, en nous positionnant d’emblée sur des marchés à l’étranger, notamment pour la partie cloud, pour laquelle nous pouvons tout de suite viser des pays tels que les USA, la Chine, l’Inde et l’Australie, les marchés les plus porteurs selon les analystes. Des acteurs émergent aux États-Unis, en Allemagne ou en Israël, mais nous sommes à ma connaissance la seule entreprise française à faire cela. Nous avons donc un vrai intérêt à nous positionner très vite sur le marché international.

Prévoyez-vous éventuellement, pour atteindre ces objectifs, de renforcer votre capital ?

Nous avons, à l’heure actuelle, levé 7 M€ en deux fois. Un des sujets sur lequel je vais travailler pour la fin de l’année et le début de l’année prochaine est, effectivement, la préparation d’une nouvelle levée de fonds, destinée à alimenter notre capacité à croître rapidement.

En parallèle du développement de son offre commerciale, PowerUp poursuit activement ses travaux de R&D. ©PowerUp

Comptez-vous accorder une place toujours aussi importante à la R&D dans cette phase de croissance ?

Une grande majorité de nos collaborateurs, environ 17 personnes, se consacrent à la R&D. C’est l’ADN de l’entreprise. Dans ce domaine naissant, nous nous devons d’innover continuellement. Cette innovation va passer par des collaborations avec nos partenaires technologiques comme le CEA, dans le but de comprendre de manière encore plus fine les mécanismes de vieillissement ou d’emballement thermique. Le deuxième sujet est celui de l’IA et de l’apprentissage. C’est un axe très fort de notre développement, qui va nous permettre d’être les plus réactifs possible et de nous adapter aux évolutions des technologies de batteries.

On parle beaucoup en ce moment, dans les grandes écoles d’ingénieurs et de commerce, d’une prise de conscience de l’importance de la transition écologique, du caractère fini des ressources… Ce que je peux dire est que l’entreprise, telle qu’elle existe actuellement – certes petite, puisque nous sommes 25 pour l’instant – devrait être valorisée autant que possible auprès des jeunes qui ont envie de combiner des techniques modernes à un projet qui a du sens pour la planète. Nous avons à cœur de contribuer à un cercle vertueux pour la planète, cela fait partie de l’ADN de PowerUp.


[1] Laboratoire d’Innovation pour les Technologies des Énergies Nouvelles et les nanomatériaux (Liten), premier centre de recherche européen entièrement dédié à la transition énergétique.

[2] Nickel Manganèse Cobalt

[3] Lithium Fer Phosphate

[4] Battery management system

[5] Micro-réseau : réseau électrique local pouvant fonctionner « en îlot ».

Le best of presse : au fil de l’actu sci-tech #14

Ici vous trouverez notre récap’ de l’actualité scientifique et technologique qui a bercé ou chamboulé le mois de juillet. 

Quelle chaleur !

Le Monde et le Journal du CNRS ont publié le 8 juillet un reportage sur les îlots de chaleur urbains. Lors des vagues de chaleur, on étouffe en ville en raison de la prédominance des matériaux minéraux. Ils accumulent la chaleur pendant la journée et la restituent la nuit, ce qui empêche la température de baisser. Ce phénomène est difficile à mesurer avec les outils météorologiques classiques. Cet été, des centaines de chercheurs se mobilisent dans le cadre des dix projets scientifiques de l’Initiative Paname 2022, transformant les rues de Paris en laboratoire. Leur mission est d’étudier l’atmosphère, la qualité de l’air et le climat de l’île de France.

La génomique pour tous

On apprend par l’AFP que l’Organisation Mondiale de la Santé (OMS) et notamment son Conseil scientifique, présidé par le professeur Harold Varmus, lauréat du prix Nobel de médecine en 1989, appelle à diffuser plus largement la génomique, c’est-à-dire, l’étude des séquences d’ADN et de la fonction des gènes. Le Conseil a publié un rapport le 12 juillet, et s’appuyant sur les succès de la génomique dans la lutte contre des maladies infectieuses, des cancers et des maladies chroniques, estime que les technologies génomiques pourraient apporter une importante contribution à l’amélioration de la santé humaine.

Dans ce rapport, le Conseil fait une série de recommandations visant à accélérer la mise en place des technologies génomiques et d’en faciliter l’utilisation, tout en évitant les risques de dérapages. Un système de contrôle efficace et le respect des normes internationales sont essentiels pour promouvoir l’utilisation éthique et légale des informations obtenues grâce à la génomique.

Soumya Swaminathan, cheffe scientifique de l’OMS, soutient que « les technologies génomiques sont à l’origine de certaines recherches actuelles parmi les plus révolutionnaires. Les avantages de ces outils ne seront pleinement réalisés que s’ils sont déployés dans le monde entier. » Au regard des bénéfices potentiels, le Conseil estime qu’il n’est pas justifiable, d’un point de vue éthique ou scientifique, que des pays dotés de moins de ressources n’aient accès à ces technologies que longtemps après les pays riches. Le document note que les coûts de ces technologies sont en baisse, et qu’ils pourraient encore être réduits pour les rendre plus accessibles aux pays en développement.

Un télescope top

La Nasa a dévoilé le 12 juillet « l’image infrarouge la plus profonde et la plus claire jamais prise de l’Univers jusqu’ici », prise par le télescope spatial James webb. Les résultats révèlent des galaxies formées peu après le Big Bang, il y a plus de 13 milliards d’années. L’amas de galaxies SMACS 0723 est si massif qu’il distord et amplifie la lumière des objets situés derrière lui. Astrophysicien au CNRS et responsable d’un des programmes d’observation sur ce télescope, Olivier Berné commente dans le Journal du CNRS : « Cela permet soit d’observer, enfin, des objets très lointains comme des galaxies primordiales, soit de mieux voir des objets plus proches de nous mais très faiblement lumineux, comme des étoiles ou planètes en formation. D’autre part, il y a beaucoup plus d’informations dans ces images qui ont une résolution élevée grâce au miroir de 6,5 mètres de diamètre du James Webb. »
Copyright NASA, ESA, CSA, and STScI

L’iAuto, pas de sitôt

Le projet Titan, la voiture autonome sans volant d’Apple a démarré il y a 8 ans. Il n’a pas été annoncé officiellement et n’était connu que par des fuites dans la presse, indique l’AFP. Le 11 juillet, le média spécialisé The Information publiait une enquête sur ce projet. Des entretiens ont été réalisés avec 20 personnes qui ont travaillé sur ce projet, et ont révélé des difficultés. Citons notamment le véhicule d’essai qui roulait à seulement 25 km/h et aurait heurté un joggeur si le conducteur humain présent dans la voiture n’avait pas effectué un freinage d’urgence. Le véhicule en question a d’abord identifié le coureur comme un « objet immobile » avant de le requalifier en « personne immobile », puis en « piéton en mouvement ». Ou encore, l’Apple Car est conçue pour pouvoir fonctionner presque partout dans le monde, sans s’appuyer sur des cartes routières détaillées (coûteuses). Pourtant, les véhicules d’essai ont eu du mal à naviguer dans les rues proches du siège social sans les cartes, heurtant les trottoirs et ayant parfois du mal à rester dans leurs voies en traversant les intersections.

Un cœur qui bat

Une équipe de recherche de l’Université de Toronto, au Canada, a créé un ventricule gauche bioartificiel à partir de cellules cardiaques vivantes et capable de battre assez fort pour pomper du liquide dans un tube. Ce modèle a été réalisé à petite échelle, de la taille d’un ventricule gauche humain âgé de 19 semaines de gestation. Il peut être utilisé pour tester des thérapies ne nécessitant pas de chirurgie invasive et pour étudier les maladies cardiovasculaires, considérées comme un fardeau par l’Organisation Mondiale de la Santé.
Le professeur Milica Radisic, qui a dirigé les chercheurs, relate, dans un communiqué publié le 8 juillet : « Jusqu’à présent, il n’y a eu qu’une poignée de tentatives pour créer un véritable modèle 3D d’un ventricule, par opposition à des feuilles plates de tissu cardiaque. Pratiquement tous ont été fabriqués avec une seule couche de cellules. Mais un vrai cœur a de nombreuses couches et les cellules de chaque couche sont orientées selon des angles différents. Lorsque le cœur bat, non seulement ces couches se contractent, mais elles se tordent également, un peu comme on tord une serviette pour en essorer l’eau. Cela permet au cœur de pomper plus de sang qu’il ne le ferait autrement ».

Crédit image de une : Intissar El Hajj Mohamed//Techniques de l’Ingénieur

« L’essentiel de l’impact numérique a lieu lors de la première étape du cycle de vie »

Cette action pédagogique est aujourd’hui déployée par le biais d’associations, qui œuvrent auprès du grand public, pour sensibiliser sur les impacts de nos activités numériques. Elles mettent en place les bonnes pratiques à adopter pour réduire notre empreinte numérique : réutilisation, recyclage, seconde vie, usage des applications et du web… l’association Point de M.I.R organise des actions, notamment auprès des établissements scolaires, pour sensibiliser les citoyens sur cet aspect du numérique.

Bela Loto Hiffler, fondatrice de Point de M.I.R, a expliqué aux Techniques de l’Ingénieur les actions mises en place par son association, et les enjeux liés aux usages du numérique pour les prochaines générations.

Techniques de l’ingénieur : Présentez-nous l’association Point de M.I.R

Bela Loto Hiffler, fondatrice de l’association Point de M.I.R. ©Point de MIR

Bela Loto Hiffler : Point de M.I.R met la lumière sur les impacts environnements et humains du numérique. Association pionnière en matière de sensibilisation sur le sujet depuis 2014, elle s’adresse au grand public, aux établissements scolaires et aux associations.

 

 

 

Quelles actions mettez-vous en œuvre pour sensibiliser le public sur les impacts environnementaux et humains du numérique ?

Nous organisons des ateliers. Nous privilégions actuellement un public jeune, notamment les élèves du CM1 et CM2, cible privilégiée car se situant avant la bascule du smartphone au collège. Nous avons un atelier phare intitulé : Voyage au cœur de nos smartphones. Point de M.I.R a conçu une mallette « pédagogique anatomique » permettant de révéler ce qui est à l’intérieur de ces « usines à gaz » et quels sont les éléments du tableau périodique des éléments.

Nos smartphones contiennent en effet une cinquantaine d’éléments issus de la table de Mendeleïev qui sont extraits dans de nombreux pays du monde, dans des conditions indécentes et inacceptables.
Nous participons également à de nombreuses tables rondes et donnons des conférences, à l’invitation de diverses institutions. Nous parlons au plus grand nombre et sensibilisons à tous les âges et tous les étages. Nous proposons également toute une série de documentaires qui permettent de voir la face obscure du numérique. Nous avons, en 2019, organisé le premier festival du film « Numérique & environnement » (enquêtes à travers le globe révélant les répercussions environnementales et sanitaires fatales, voyage au cœur des datacenters, découverte des coulisses du plus grand dépotoir d’Europe en Afrique, rencontre avec les perdants de la révolution numérique…

Quels sont aujourd’hui les leviers d’actions pour les usagers du numérique pour limiter leur empreinte personnelle ?

Ce qui est fondamental, c’est de faire comprendre que « le nerf de la paix » est de prolonger la durée de son matériel car l’essentiel des impacts a lieu au moment de la première étape du cycle de vie (extraction-fabrication).

Voici donc 10 actions clés à mettre en œuvre. Cette liste est issue du livre blanc publié par l’Alliance Green IT (AGIT) que l’association Point de M.I.R et moi-même ont eu le plaisir de travailler :

  1. Je prolonge la durée de vie de mes équipements électroniques ;
  2. Je préfère acquérir un équipement d’occasion ou reconditionné ;
  3. J’éteins, je mets en veille, je débranche mes équipements non utilisés (surtout la nuit) : ma box, mon ordi, mon smartphone, mon chargeur, ma TV…
  4. J’ai un usage raisonné de mes équipements et des services numériques (logiciels, sites web) : je limite mon usage de vidéos en streaming, je stocke le moins possible de documents, j’évite les multiples copies dans le cloud, je fais régulièrement le ménage dans mes fichiers, j’évite l’envoi de fichiers volumineux par mail ;
  5. Je n’imprime que si nécessaire, je paramètre mon imprimante (recto verso, mode brouillon noir et blanc), j’utilise du papier recyclé et certifié (FSC, Blue Angel, l’Ecolabel Européen) et des cartouches reconditionnées ;
  6. Je choisis du matériel adapté à mes besoins (taille, performance, fonctionnalités) ;
  7. Je préfère les équipements écolabellisés (EPEAT, TCO, Blue Angel) ;
  8. Je choisis des équipements réparables ;
  9. Je préfère la connexion WiFi à la 4G, ça consomme moins d’énergie et économise ma batterie ;
  10. Je dépose mes déchets électroniques à un point de collecte agréé (déchetteries, magasins, associations, structures de solidarité) pour qu’ils puissent être pris en charge dans les règles de l’art.

Au-delà de l’empreinte numérique, sensibilisez-vous les jeunes sur les dangers des écrans et plus généralement de l’ « abus » des technologies numériques ?

Nous ne le faisons pas en traitant ces questions séparément mais cette dimension est présente dans toutes nos interventions. A titre personnel, je me considère observatrice attentive de l’ébriété numérique et je milite pour une libération. Cela passe par moins de numérique, moins de numérique, toujours moins de numérique. A travers mes interventions, j’invite le public à ralentir et à reconsidérer le monde réel. En d’autres termes, j’invite le public à se « matérialiser » !

Observez-vous des différences dans l’approche des technologies numériques en fonction des générations ?

Oui, très nettement. Une partie des jeunes semblent sensibles à l’écologie et s’engagent mais sont-ils prêts à lâcher un peu leurs prothèses numériques au quotidien ? Rien n’est moins sûr. Par ailleurs, la fracture numérique concerne toutes les générations, toutes les catégories sociales. Le numérique est un outil extraordinaire mais certainement pas le miracle que l’on veut nous faire croire.

Propos recueillis par Pierre Thouverez

 

Carbonloop : le biochar comme accélérateur de la décarbonation de l’industrie

Claire Chastrusse, directrice générale de Carbonloop

Un « nouvel or noir ». C’est ainsi que Claire Chastrusse, directrice générale de Carbonloop, décrit le biochar, un charbon issu de la pyrolyse de biomasse dont la production reste pourtant, aujourd’hui, tout à fait marginale en France. « Le marché français du biochar n’est pas du tout développé. Il reste très peu connu et a pris beaucoup de retard par rapport aux pays voisins comme l’Allemagne. Il n’existe pour l’heure que deux producteurs hexagonaux, qui font de petites quantités. Et en l’absence d’acheteurs, nous n’avons pas de marché à proprement parler », dépeint la DG de Carbonloop.

Créée en 2021, la jeune entreprise ambitionne toutefois de changer radicalement l’échelle de production de ce « charbon » issu de la biomasse. Pour y parvenir, Carbonloop mise sur la technologie développée par Haffner Energy : Hynoca. Breveté, le procédé consiste, en substance, à chauffer de la biomasse sans apport d’oxygène à une température de 500 °C pour en extraire un flux solide – le biochar – mais aussi un flux gazeux. Chauffé à nouveau, cette fois à plus de 1 000 °C, ce flux gazeux permet l’obtention de ce qu’Haffner nomme l’« Hypergaz », un gaz de synthèse précurseur de l’hydrogène. Cet Hypergaz peut ainsi être purifié pour obtenir la précieuse molécule d’H2, produite pour l’heure quasi exclusivement à partir d’énergies fossiles. Ses résidus post-purification peuvent quant à eux être valorisés sous forme de chaleur.

Le biochar, un puits de carbone aux mille vertus

Incorporé dans les sols, le biochar permet notamment d’en augmenter les capacités de rétention d’eau. (« black is new black », by Oregon Department of Forestry is licensed under CC BY-ND 2.0)

« Nous avons opté pour cette technologie puisque aujourd’hui, en France, c’est le seul procédé qui permet de faire à la fois de l’hydrogène et du syngas [gaz de synthèse, NDLR] utilisable pour produire de l’électricité ou de la chaleur, explique Claire Chastrusse. En plus de ces énergies renouvelables, on obtient également le fameux biochar qui, lui, est un puits de carbone. Il permet en effet de séquestrer pour des centaines d’années une bonne partie du carbone capté par la biomasse lors de sa croissance ». Très poreux, le biochar revêt également un important intérêt agronomique : incorporé dans les sols, il permet d’en augmenter les capacités de rétention d’eau et limite par la même occasion le lessivage des fertilisants. Ses microcavités sont également propices au développement de la microbiodiversité, une composante importante de la fertilité des sols.

Même si elles restent discutées par certains, ces vertus ont ainsi conduit le GIEC¹ à accorder une place importante au biochar dans le troisième volet du rapport rédigé dans le cadre de son sixième cycle d’évaluation, rendu public le 4 avril dernier. On peut notamment y lire que « les systèmes produisant le biochar pour un usage dans les sols et pour la production de bioénergies permettent, pour la plupart, une plus grande atténuation [du changement climatique] que les bioénergies seules et les autres usages du biochar ». Ces systèmes sont ainsi reconnus en tant que stratégie d’élimination du dioxyde de carbone, ou « CDR », pour Carbon dioxide removal. Une approche que le GIEC juge « nécessaire » – aux côtés d’une forte réduction de nos émissions – pour atteindre les objectifs de l’Accord de Paris. « Pour la rendre viable à grande échelle plus tard dans le siècle, nous devons y investir aujourd’hui », écrit ainsi dans un tweet posté en avril dernier le climatologue et auteur collaborateur du GIEC Zeke Hausfather. Et c’est bien ce que compte faire Carbonloop avec le biochar, comme le dévoile Claire Chastrusse : « Nous avons l’ambition, pour 2030, de déployer la solution Carbonloop sur 100 sites industriels et 100 stations hydrogène, pour une production respective de 150 000 et de 200 à 250 000 tonnes de biochar ». De quoi, à l’horizon 2030, séquestrer chaque année pas moins d’un million et demi de tonnes d’équivalent CO2 – soit autant que les émissions annuelles d’environ 125 000 Français – mais aussi éviter le rejet annuel de près de 3,5 millions de tonnes d’éq. CO2. Reste toutefois à trouver des débouchés à ce « nouvel or noir ».

En usage agronomique, le biochar est incorporé dans les sols à hauteur de 5 à 10 tonnes par hectare.

Privilégier le développement de circuits locaux

« En usage agronomique, on utilise environ 5 à 10 tonnes de biochar par hectare », explique Claire Chastrusse. Avec près de 157 millions d’hectares de surfaces agricoles à l’échelle européenne², tout risque de saturation du marché semble donc écarté… Carbonloop espère ainsi, pour atteindre ses objectifs, un très large développement du marché ; avec, toutefois, un impératif en tête : l’échelle locale. L’entreprise envisage en effet de créer, à terme, des boucles vertueuses à l’échelle d’un territoire. « Notre objectif est de pouvoir valoriser le biochar au plus près de son site de production », affirme Claire Chastrusse, qui le concède toutefois : « Ce sera sans doute difficile au départ étant donné le manque de notoriété de cette solution. […] Mais quand le marché se sera développé, il devrait être beaucoup plus facile de créer ces boucles vertueuses à l’échelon local avec, au centre, l’industrie cherchant à décarboner ses process et, autour, d’autres acteurs tirant parti du biochar produit, notamment pour des usages agronomiques ».

Une stratégie de développement local dans laquelle Carbonloop envisage également d’inclure les approvisionnements en biomasse nécessaire pour alimenter le process. « Il nous semble cohérent d’éviter de transporter la biomasse sur des kilomètres », note en effet Claire Chastrusse, qui souligne, de plus, la faible consommation des unités qui seront mises en œuvre : environ 3 500 tonnes de biomasse par an. Pas de risque donc, a priori, de tensions d’approvisionnement. Toutes les conditions semblent ainsi réunies pour permettre à Carbonloop d’atteindre les objectifs qu’elle s’est fixés : déployer sa solution sur 100 sites industriels et 100 stations hydrogène d’ici à 2030.

Les premiers pas d’un déploiement industriel

La start-up commence ainsi à signer ses premiers contrats, comme le dévoile sa directrice générale : « Nous sommes en train de finaliser la signature d’un premier projet qui sera situé dans les Yvelines. Il consistera à produire, sur le site, de l’électricité et de la chaleur qui serviront à approvisionner une malterie et des serres. Cette installation devrait être mise en fonctionnement d’ici à peu près un an ».

Côté hydrogène, Carbonloop a noué un partenariat avec une autre jeune pousse, Hyliko, lancée elle aussi en 2021 avec le soutien de Kouros, société d’investissement industriel active dans les domaines de la décarbonation de la mobilité lourde et de la production d’électricité renouvelable qui accompagne également Carbonloop. « Hyliko développe une plateforme de mobilité lourde, c’est-à-dire une offre intégrée comprenant des camions à hydrogène, des stations de distribution d’H2, ainsi que la gestion de ces camions en leasing », décrit Claire Chastrusse. Des entreprises telles que Point P ont déjà manifesté leur intérêt pour cette solution. « C’est le cas également d’un certain nombre de transporteurs », assure la dirigeante. Carbonloop se chargera ainsi de la production de l’hydrogène destiné à alimenter les stations de distribution d’Hyliko. La première d’entre elles devrait d’ailleurs voir le jour en fin d’année prochaine, en région parisienne. « Nous avons d’autres discussions avec Hyliko sur des stations hydrogène aux alentours de Lyon, Valence, et dans le Nord », dévoile finalement la directrice générale de Carbonloop. De multiples projets comme autant de gages pour faire du biochar le « nouvel or noir » décrit par Claire Chastrusse.


¹ Groupe d’experts intergouvernemental sur l’évolution du climat

² Source

Verres métalliques : des capacités de déformation surprenantes

Les verres métalliques ont commencé à être produits suivant les méthodes de melt spinning dans les années 1960. Il faut attendre le début des années 1980 pour qu’ils soient élaborés sous forme massive, c’est-à-dire avec une plus petite dimension supérieure au millimètre, par des techniques de creuset froid. Ces alliages se définissent avant tout par leur absence d’ordre à longue distance, qui leur confère des propriétés mécaniques profondément différentes de celles de leurs homologues cristallins.

Des verres ultra-déformables

En régime homogène, les verres métalliques peuvent subir des déformations extrêmement importantes. Expérimentalement, on a pu atteindre plus de 20 000 % de déformation en traction et, en compression, la seule limite atteinte pour le moment est la force à appliquer, qui devient rédhibitoire lorsque la section de l’éprouvette devient trop grande – on dépasse alors sans aucun problème 100 % de déformation. Notons que la déformation homogène des verres métalliques entraîne également une modification de certaines propriétés de ces matériaux. De façon générale, elle semble avoir un effet opposé au phénomène de relaxation structurale. Ainsi, la déformation homogène est accompagnée d’une légère diminution de la densité, d’un abaissement du module de cisaillement et d’une diminution de la mise en ordre généralement associée à la relaxation structurale. La transition entre le mode homogène et le mode hétérogène, qui se caractérise par une déformation plastique macroscopique faible, voire le plus souvent nulle, est principalement contrôlée par la vitesse de déformation et la température d’essai.

À l’heure actuelle, les verres métalliques sont déjà utilisés pour leurs propriétés mécaniques particulières dans un certain nombre d’applications, telles que des articles de sport (club de golf, raquettes de tennis, battes de baseball) qui exploitent leur aptitude à restituer l’énergie élastique associée à une faible dissipation. De manière plus systématique, Ashby et Greer ont examiné les qualités des verres métalliques envisagés comme éléments de structure. Ils envisagent différentes combinaisons illustrant leurs propriétés uniques. Ils montrent, par exemple, la place unique qu’occupent les verres métalliques en termes de limite élastique. Indice pour lequel ils constituent la classe de matériaux la plus performante, étant la plus proche de la limite élastique théorique. Liées à une très faible dissipation mécanique, ces propriétés font des verres métalliques des candidats pour des applications incluant des pièces vibrantes telles que des gyroscopes, ou des applications nécessitant la transmission d’ondes acoustiques.

Des limites actuelles aux promesses futures

En tout état de cause, les verres métalliques souffrent de deux inconvénients majeurs : d’une part, une ductilité macroscopique presque nulle et, d’autre part, d’un coût de production élevé. Ce qui les condamne pour l’instant à des applications de haute technologie, et/ou comme constituants d’éléments de petites dimensions. Enfin, les verres métalliques peuvent être envisagés comme matériaux de revêtement, notamment en raison de leur résistance à l’usure et à la corrosion. Il a ainsi récemment été montré que les verres métalliques peuvent augmenter significativement la résistance en fatigue du matériau support.

Pour connaître l’origine de la déformation élastique des verres métalliques, leur réponse à la fatigue ou encore leurs cas de rupture, consultez notre article de référence :

Plus d’objet connectés = plus de pollution ?

Un chiffre deux fois supérieur à la population française. Si les smartphones sont aujourd’hui les objets connectés les plus vendus, la croissance exponentielle de l’IoT en général n’en finit plus d’envahir notre quotidien. Aujourd’hui, on trouve des objets connectés pour à peu près tous les usages, dans l’ensemble des domaines d’activités. 

  • Pour la maison : thermostats, assistants vocaux, frigidaires… tous connectés ;
  • Au bureau : badges, caméras, détecteurs de présence… ;
  • Les “wearables” : vêtements intelligents, montres et écouteurs connectés ;
  • Pour l’industrie : Robots, cobots, capteurs pour la maintenance prédictive, la productivité, la traçabilité… ;
  • Pour l’agriculture : Capteurs de données biologiques (température, hygrométrie…), arrosage intelligent, colliers et puces connectées pour les animaux, drônes ;
  • Smart city : Équipements collectifs connectés (feux de signalisation par exemple), caméras, capteurs pour mesurer la qualité de l’air, compteurs communicants.

Ces objets se généralisent aujourd’hui, en grande partie parce leurs coûts sont en baisse continuelle, quitte à devenir des objets fragiles et rapidement remplacés. D’où une quantité de déchets numériques liés à l’internet des objets en forte augmentation depuis quelques années. D’après un rapport de l’Ademe, près de 244 millions d’objets connectés ont été répertoriés en France en 2021. Au niveau mondial, toujours en 2021, ce chiffre atteint la barre des 10 milliards de produits numériques connectés. 

Mais ce n’est pas tout. Le rapport publié par l’Ademe prévoit pour 2025 un marché de l’IoT mondial de l’ordre de 1500 milliards de dollars, soit dix fois la valeur de 2018. La croissance des objets connectés est donc exponentielle, tout comme celle des DEEE (déchets d’équipements électriques et électroniques) qui en résulte. Car outre l’usure et la fragilité de certains objets connectés, deux facteurs importants doivent être pris en compte : la durabilité des batteries. En effet, dans l’immense majorité des cas, les usagers considèrent un objet connecté comme inutilisable dès lors que la batterie ne fonctionne plus. Une idée reçue que le temps et la pédagogie devraient faire disparaître, dans le futur. Le second facteur est la capacité des fabricants à proposer des objets connectés qui puissent faire l’objet de mises à jour logicielles durant l’ensemble de la durée de vie de l’objet en question. Ce n’est pas encore le cas aujourd’hui, même si certains pays, comme la France, légifèrent en ce sens, obligeant les fabricants à proposer des mises à jours pour tous leurs appareils, même ceux qui ne sont plus vendus.

L’avènement des objets connectés est inéluctable, et leur mode de fonctionnement, nécessitant des capteurs, des logiciels, des fermes de réseaux pour collecter et corréler les données entre les différents objets connectés d’un système, génère déjà des DEEE qu’il peut être plus compliqué à recycler, au vu de leur taille et de leur nombre.

L’agence internationale de l’énergie prévoit, au niveau mondial, une quantité astronomique d’objets connectés à l’horizon 2030 : pas moins de 46 milliards de ces produits devraient alors être en circulation. 

Des études en cours tentent d’évaluer quels pourraient être les impacts écologiques relatifs à ces usages, mais il s’agit là d’une tâche extrêmement complexe.

Ainsi, il est toujours incertain, à l’heure actuelle, que les objets connectés destinés à être utilisés pour améliorer la performance énergétique de certains systèmes, aient concrètement un impact positif sur l’environnement, leur fonctionnement consommant plus d’énergie que celle qui est économisée grâce à leur utilisation. 

Pour conclure, il est donc urgent de quantifier le plus précisément possible les impacts environnementaux liés à l’internet des objets, pour mieux évaluer l’intérêt des différentes technologies mises à l’œuvre pour améliorer la performance énergétique des systèmes.

Par Pierre Thouverez

Fissures : le parc nucléaire sous contraintes

Un vent mauvais souffle sur le parc électronucléaire français. De nombreux réacteurs approchant de leurs 20, 30 ou 40 ans, EDF se devait déjà structurellement de planifier plusieurs visites décennales pour les mois et années à venir. Un challenge en soi pour mobiliser l’ingénierie, les prestataires et les équipements nécessaires à ces habituels mais néanmoins gigantesques chantiers de maintenance et de vérification, tout en tenant des plannings serrés pour éviter de priver trop longtemps le parc national de moyens de production d’électricité.

Deux événements conjoncturels ont largement compliqué l’agenda de l’exploitant : tout d’abord la crise sanitaire du Covid a obligé à décaler les visites décennales à cause des confinements successifs. Puis la découverte de fissures dans des circuits de la centrale de Civaux (réacteur n°1) fin 2021 a conduit EDF à arrêter ce réacteur et onze autres par sécurité pour des contrôles (Civaux 2, Chooz B1 et B2, Penly 1, Chinon B3, Bugey 3 et 4, Cattenom 3, Flamanville 1 et 2, Golfech 1).

Quelle est la nature réelle de ces fissures ? Menacent-elles la sûreté des réacteurs nucléaires ? Le défaut est-il générique et donc présent dans tous les réacteurs ? Comment y remédier ? Les questions fusent, et l’éparpillement des informations d’EDF, de l’Autorité de sûreté nucléaire (ASN) et de l’Institut de radioprotection et de sûreté nucléaire (IRSN), ne facilite pas la compréhension, comme a pu le faire remarquer l’association Global Chance dans un rapport présenté mi-juin par ses auteurs, Bernard Laponche, François Papezyk, Jean-Luc Thierry et Jean-Claude Zerbib.

Les deux circuits concernés sont indispensables

Les fissures ont été détectées sur deux types de circuits. Tout d’abord sur le circuit d’injection de sécurité (RIS) qui est prévu pour injecter de l’eau borée dans le circuit primaire principal du réacteur afin de le refroidir. C’est un système de sécurité qui doit être impérativement opérationnel pour refroidir le combustible en cas d’incident sur le circuit primaire. Ensuite sur le circuit de refroidissement à l’arrêt (RRA) qui, comme son nom l’indique, permet la circulation et un niveau d’eau minimal dans le circuit primaire afin d’évacuer la chaleur résiduelle provenant des assemblages combustibles radioactifs lorsque le réacteur est à l’arrêt.

Ces deux circuits sont donc indispensables pour éviter toute surchauffe du cœur du réacteur en cas d’arrêt ou d’incident. La présence des fissures a été confirmée par l’analyse en laboratoire des parties concernées (et découpées) du circuit RIS de Civaux 1. Elles se situent à proximité de soudures, là où la tuyauterie présente plusieurs coudes (cf. schéma). Leurs tailles ne sont pas négligeables puisqu’elles vont de 0,75 à 5,6 mm pour des tuyaux de 30 mm d’épaisseur. Au moins une de ces fissures serait circonférentielle, c’est-à-dire qu’elle s’est formée ou propagée sur tout le tour du tuyau.

Légende : Schéma simplifié de la connexion du RIS au circuit primaire du réacteur nucléaire. Source : Global Chance

L’IRSN a qualifié ce phénomène de « pernicieux » car difficilement détectable à un stade précoce (note d’information du 20/01/2022). Et l’ASN a jugé qu’il « s’agit d’un événement sérieux et inédit dont le traitement complet nécessitera plusieurs années » (présentation de l’ASN le 07/06/2022 au Haut conseil pour la transparence et l’information sur la sécurité nucléaire). En effet, en plus des douze réacteurs déjà arrêtés, EDF a prévu de contrôler les réacteurs du palier 900 MW au fur et à mesure de leur programme de maintenance en 2022 (Tricastin 3, Gravelines 3, Dampierre 2, Blayais 1 et Saint-Laurent B2). Selon l’électricien national, les réacteurs du palier 1 300 MW ne feront l’objet d’un programme de contrôle qu’après avoir tiré les enseignements de l’examen de Penly 1. À ce temps de contrôle succédera le temps des solutions… mais lesquelles ?

Des causes encore à clarifier

Dès le début 2022, EDF puis l’IRSN ont jugé que ces fissures sont dues à un phénomène de corrosion sous contraintes de l’acier inoxydable austénitique 304L et 316L dont sont faits les tuyaux des circuits RIS et RRA. Ces aciers contiennent du fer additionné de chrome (entre 16 et 20 %), de nickel (entre 8 et 14 %), de carbone (moins de 0,03 %), et parfois de molybdène (2-3 %). Plusieurs paramètres jouent sur l’apparition de cette corrosion : la nature des fluides circulant dans le tuyau (pH, composition chimique, etc.), la différence de température entre ces fluides, la méthode de soudures des tuyaux, les phénomènes de stratification thermique dus à la géométrie des circuits. Multifactorielle, dépendante des spécificités de chaque site, la corrosion sous contrainte est donc un terme générique. Les causes sont encore à préciser, même si pour l’instant les autorités se tournent plutôt vers les sollicitations thermiques, la géométrie et les soudures. Global Chance a néanmoins fait remarquer que dans la littérature, deux autres hypothèses sont possibles : les fissurations par liquation (cf. la thèse de Giai Tran Van) et les fissurations à chaud par solidification (cf. la thèse de Nicolas Kerrouault).

Les premières explications d’EDF, de l’ASN et de l’IRSN laissent croire à une situation jamais vécue par le parc nucléaire français. En fait, l’association Global Chance a révélé que cela s’était déjà passé il y a 24 ans (cf. encadré). Si on peut imaginer améliorer la qualité des soudures, et éventuellement limiter les phénomènes thermiques, il semble peu probable de changer la conception des circuits. Dès lors, doit-on considérer que ces corrosions sous contraintes sont inévitables et qu’il faut remplacer ces tuyauteries tous les 20 ans ? Face à la perte de production due à l’arrêt des réacteurs, EDF ne veut pas perdre de temps. Quitte à endosser encore un coût supplémentaire, il semble que le remplacement des portions de circuits affectés soit déjà acté : EDF a déjà « lancé les approvisionnements en tubes et en coudes avec des aciéristes européens » en vue d’avoir « les premières pièces de rechange avant l’été » (Communiqué de presse du 18 mai 2022).

Interrogations sur l’avenir

Pour autant, l’optimisme d’EDF cache une probable inquiétude. Car il est possible que le problème de corrosion sous contraintes existe dans d’autres zones des centrales où de l’acier inoxydable austénitique est présent. À date, les éléments apportés par l’électricien sur des contrôles effectués lors de remplacement de générateurs de vapeur semblent exclure la présence du phénomène dans cette branche primaire principale. Mais il y a bien d’autres endroits et l’ASN a expressément demandé à EDF de le vérifier sur les lignes d’expansion du pressuriseur, sur les lignes auxiliaires de diamètres inférieur ou égal à 6 pouces, et de mettre à jour l’analyse des circuits des réacteurs de 900 MW. L’autorité de sûreté exige à juste titre de pouvoir surveiller tout cela de près et multiplie les demandes de précision à EDF, par exemple sur la stratégie de contrôle, sur les réparations à faire à l’issue de la dépose des tuyauteries et sur la connaissance du phénomène (courrier de l’ASN à EDF du 14 juin 2022).

Enfin, l’interrogation se porte sur l’avenir : la corrosion sous contraintes va-t-elle frapper irrémédiablement les réacteurs de type EPR ? À l’heure où le Gouvernement envisage de construire de nouveaux réacteurs EPR en France, et alors que l’Agence internationale de l’énergie vient de publier un rapport invitant à développer la filière électronucléaire, l’événement des fissures rappelle combien la complexité de l’outil industriel nucléaire le rend fragile, limitant ainsi sa capacité réelle à répondre aux enjeux d’urgence de la transition écologique.

Quand l’histoire se rappelle à nous…

L’association Global Chance a identifié dans son rapport un événement similaire à ce qui se passe actuellement. En 1998, à la suite d’une fuite d’eau importante de 30 m³/h, des fissures avaient été détectées dans le circuit RRA de Civaux 1. La fatigue thermique engendrée par l’écart de température (plus de 80°C) entre l’eau chaude et l’eau froide avait créé ces fissures. Repéré dans d’autres réacteurs, le phénomène avait conduit au remplacement intégral des tronçons concernés du RRA dans toutes les centrales ! Ainsi, 16 réacteurs avaient fait l’objet de travaux en 1999, 35 en 2000 et 3 en 2001. Contacté sur cet « oubli », l’IRSN l’explique en pointant la différence de nature entre fatigue thermique et corrosion sous contraintes. Selon l’Institut, il n’y avait donc pas de raison de mentionner ce retour d’expérience. L’IRSN reconnaît que les causes des « défauts actuels […] ne sont pour l’instant pas totalement élucidées ». Pourtant des corrosions sous contrainte sont connues depuis les années 1970 dans les réacteurs à eau bouillante des États-Unis, ainsi que par une dizaine de cas en France sur les réacteurs à eau pressurisée. Mais, conclut l’IRSN, « ces cas ponctuels ont des causes expliquées (pollution chimique en général incidentelle et/ou situation particulière de tuyauterie en vapeur) et des modifications ont été prévues pour éviter la reproduction de ces cas. Même si l’IRSN continue à investiguer la question du rôle de l’oxygène dans les défauts actuellement observés, ces derniers défauts sont inédits et étaient inattendus. Leur étendue est en particulier inédite. »

Vers une évolution nécessaire des pratiques numériques

Les technologies numériques recouvrent aujourd’hui une réalité matérielle extrêmement vaste : ordinateurs, téléviseurs, téléphones, objets connectés de toutes sortes, véhicules… Les usages de ces technologies sont permanents. Il en découle une empreinte carbone liée au cycle de vie de ces produits en augmentation, malgré les progrès permanents réalisés en termes de performance énergétique.

Alors que l’on avait tendance il y a encore quelques années, faute de données fiables, à évaluer l’impact des technologies numériques uniquement dans leur phase d’utilisation, il est aujourd’hui possible de calculer précisément l’impact global sur l’environnement d’un produit numérique, depuis sa phase de fabrication, qui comprend également l’extraction des matières premières le constituant, jusqu’à son recyclage, lorsque ce dernier est considéré comme un déchet.

A titre d’exemple, l’extraction des 350 kilogrammes de matières premières nécessaires à la fabrication d’un téléviseur équivaut à un aller Paris-Marrakech en avion, en termes d’empreinte carbone. Avant même que ce téléviseur ne se retrouve sur les rayons d’un magasin. 

Autre exemple, il faut 80 fois plus d’énergie pour fabriquer un gramme de smartphone que pour fabriquer un gramme de voiture. 

Trois derniers chiffres, pour visualiser la problématique de manière plus globale : En 2019, le numérique nécessite pour fonctionner 16% de l’électricité produite dans le monde, alors qu’en France, les data centers consomment à eux seuls 10% de l’électricité produite. Enfin, l’activité numérique au niveau mondial est responsable de 4% des émissions de GES sur notre planète.

Les Etats mettent en place des mesures pour lutter contre cette tendance. En France les lois sur les DEEE, l’obligation pour les entreprises de s’impliquer dans le recyclage de leur parc informatique, et l’obligation pour les revendeurs de reprendre les appareils usagers, entre autres, posent les jalons d’une consommation des appareils numériques usuels plus responsable. En ce qui concerne le cycle de vie de ces appareils, après leur production.

C’est précisément là que le bas blesse. En effet, les chiffres cités plus haut, comme par exemple la quantité de GES générée par le numérique, pourrait doubler d’ici 2025. Pour ainsi dire, la production d’appareils numériques, et les usages des technologies numériques n’en finissent plus de croître.

Il s’avère donc nécessaire, pour pouvoir projeter un avenir numérique compatible avec les objectifs – nationaux et mondiaux – de réduction de l’empreinte carbone globale, de prendre en compte de manière actualisée le nombre d’appareils numériques en circulation. Cela s’avère compliqué aujourd’hui, mais une chose est certaine : la diminution relative des impacts du numérique passe par une évolution des pratiques liées à l’utilisation de ces objets, indépendamment de leur cycle de vie.

Selon une étude menée par Green IT en 2019, les smartphones, ordinateurs et téléviseurs représentent sur la planète environ 34 milliards d’appareils et la principale source de pollution liée au numérique.

Il apparaît donc indispensable de développer des pratiques permettant de limiter la consommation énergétique de ces objets pendant leur durée de vie. Prenons deux exemples : les emails et le streaming.

La pollution liée aux emails

Tout a été dit sur la pollution engendrée par l’usage des emails et les données stockées dans notre boîte mail à notre insu, comme les spams par exemple. Avec l’avènement des réseaux sociaux et de leurs messageries instantanées, cette empreinte sur l’environnement est démultipliée. 281 milliards de mails étaient envoyés chaque jour dans le monde en 2018, ce qui équivaut à la génération de 410 millions de tonnes de CO2 atmosphérique. On estime que 80% de ces mails ne sont jamais été ouverts. Même si un mail n’est pas ouvert, son stockage dans un datacenter consomme de l’énergie.

Ainsi, pour les utilisateurs, le développement de nouvelles pratiques peut faire baisser substantiellement cet aspect de la pollution numérique. D’abord, il faut régulièrement nettoyer sa boîte mail, certaines applications gratuites peuvent faciliter ce travail. Aussi, se désabonner des newsletters que l’on ne lit jamais, ainsi qu’éviter au maximum l’envoi inutile de pièces jointes. Ces pratiques simples bien que chronophages sont amenées dans les années à venir à devenir des gestes du quotidien, de manière comparable aux habitudes de recyclage des déchets, qui font désormais partie de notre quotidien.

Le streaming, gouffre énergétique

Second exemple, le streaming. La diffusion de vidéo en ligne et leur lecture sur les tablettes, smartphones ou ordinateurs consomme une énergie très importante. La faute à la taille des fichiers en question, qui sont très volumineux, puisque constitués de milliers d’images, qu’il faut stocker sur des serveurs. D’après EDF, le streaming concentre aujourd’hui près de 60% des usages du numérique. Le think tank The Shift Project a évalué, sur l’année 2019, les émissions liées à l’usage du streaming à 1% des émissions mondiales. Un chiffre en augmentation, surtout depuis le début de la crise sanitaire liée à l’épidémie de Covid.

Les usagers du streaming vont devoir, pour diminuer l’impact global de cette pratique, mettre en place de nouvelles habitudes. En Chine, la maison mère qui gère l’application Tik Tok a limité à 40 minutes par jour l’accès à son application pour les jeunes, l’interdisant totalement pendant la nuit. Une façon de limiter l’impact de cet usage au niveau environnemental, mais également sur les jeunes, qui consomment de plus en plus d’écran quotidiennement, et pour qui l’impact au niveau cérébral de ces pratiques est loin d’être anodin, même s’il est mal connu.

Par Pierre Thouverez

Constellation de satellites : un inquiétant potentiel d’applications militaires

Composé d’environ 2 400 satellites en orbite terrestre basse, le réseau Internet d’Elon Musk est utilisé par les Ukrainiens pour communiquer et coordonner les attaques contre les troupes russes. De son côté, Volodymyr Zelensky, le président du pays, l’utilise également pour poster des messages sur les réseaux sociaux ou organiser des visioconférences.

De quoi agacer les Russes et inquiéter d’autres pays. Tout en fournissant des services commerciaux, ces constellations de satellites pourraient devenir des armes de désinformation massive !

Dans un rapport publié début juin, la Secure World Foundation, une ONG spécialisée dans l’espace, a mis en garde contre le regain d’intérêt, ces dernières années, pour les armes offensives destinées à perturber les services basés dans l’espace.

La Chine, l’Inde, mais aussi la Russie et les États-Unis multiplient les démonstrations. La Russie a réalisé des tests de son système de missiles balistiques Nudol à plusieurs reprises ces dernières années. Il peut être utilisé comme une arme antisatellite et il est capable de détruire des satellites en orbite terrestre basse.

Starlink coopère avec l’US Army

Des scientifiques militaires chinois (deux des quatre auteurs de l’article, Ren Yuanzheng et Jin Sheng, sont affiliés à l’Armée populaire de libération-APL) ont récemment appelé au développement d’une technologie antisatellite (ASAT- Anti-satellite weapons) pour se défendre contre la menace que Starlink fait peser sur la souveraineté nationale.

L’article a été publié dans une revue chinoise, appelée Modern Defense Technology en avril dernier, mais il a rapidement été retiré. Cependant, cet article a été traduit par David Cowhig, un ancien agent du service extérieur du département d’État américain qui a pris sa retraite après dix ans passés à l’ambassade des États-Unis à Pékin en tant que responsable des sciences et des technologies.

Dans cet article, les Chinois rappellent que « Starlink a coopéré avec l’armée américaine à de nombreuses reprises depuis 2019 : connexions chiffrées avec les avions militaires américains, utilisation du haut débit pour transmettre des données sur des réseaux militaires… Les satellites Starlink pourront donc intégrer des dispositifs de reconnaissance, de navigation et de météorologie afin d’améliorer encore la capacité de combat de l’armée américaine dans des domaines tels que la télédétection de reconnaissance, le relais de communication, la navigation et le positionnement, l’attaque et la collision, et l’abri spatial ».

En décembre dernier, des représentants chinois aux Nations unies se sont plaints que les satellites Starlink aient eu « deux rencontres rapprochées avec la station spatiale chinoise » le 1er juillet et le 21 octobre 2021.

Des milliers de débris

Ces scientifiques insistent donc pour que la Chine réponde « activement sous différents aspects, notamment en développant et en construisant des équipements et des systèmes de connaissance de la situation de manière ciblée, et en développant vigoureusement divers nouveaux moyens d’élimination, afin de maintenir et d’obtenir des avantages spatiaux dans le jeu féroce de l’espace ».

Mais le développement de ces armes antisatellites entraînera une prolifération de débris spatiaux.

Depuis 2010, selon la Secure World Foundation, la Chine a effectué au moins sept essais antisatellites. Depuis 2014, la Russie a effectué au moins quatorze essais antisatellites. Et l’Inde a effectué deux essais de ce type en 2019. Environ 3 200 débris de ces tests sont toujours en orbite.

Cinq leviers pour faire de l’économie circulaire un moteur de décarbonation

Les cinq leviers abordés dans cet article sont expliqués en détail dans la partie 3 du rapport[1].

Pour en savoir plus, nous vous invitons également à lire les autres articles de notre dossier consacré à cette riche étude.

Levier 1 : La réglementation, décloisonner les aspects décarbonation et ressources

La lutte contre le changement climatique et l’optimisation des ressources sont le fruit d’une même volonté : celle de réduire l’impact des activités humaines. Néanmoins, si ces deux aspects ne sont pas pris en compte de manière coordonnée, ils peuvent rapidement entrer en contradiction. Par exemple :

  • Une politique d’économie circulaire concentrée uniquement sur les ressources et favorisant le recyclage risque de contribuer à augmenter les émissions de CO2[2] ;
  • Une politique qui prend seulement en considération l’angle « carbone » peut avoir des conséquences graves sur les ressources, la biodiversité, la pollution, etc.

Malheureusement, ces sujets interdépendants et complémentaires sont trop souvent abordés de manière cloisonnée. L’étude précise ainsi que « la prise en compte conjointe des aspects ressources et décarbonation doit se faire dès l’élaboration des prochains travaux législatifs et réglementaires. »

Levier 2 : Financements, favoriser les projets circulaires et prioriser les filières électrification/biomasse/construction

Il est primordial de pousser les investisseurs à se détourner de l’économie linéaire au profit de l’économie circulaire. C’est le but recherché par l’outil de la taxonomie verte, qui figure dans le plan d’action sur la finance durable, élaboré par la Commission européenne en 2018.

En outre, les efforts financiers doivent être concentrés en priorité sur les filières qui joueront un rôle de premier plan dans la décarbonation, c’est-à-dire les trois filières présentées dans l’étude : électrification-biomasses-construction.

Levier 3 : L’écoconception doit devenir la norme

Basée sur une approche multicritères, l’écoconception est une méthode de conception qui prend en compte l’ensemble du cycle de vie d’un produit ou service, depuis l’extraction des ressources jusqu’à la fin de vie.

Comme cette démarche est essentielle à la mise en place massive des leviers évités, Réduire, Réemployer et Recycler, nous devons aller vers une réglementation européenne qui l’impose comme la norme.

Levier 4 : Vers une organisation territoriale de l’économie

Selon Alain Chardon, directeur en charge des nouvelles plates-formes durables chez Capgemini Invent et co-auteur de l’étude, « le COVID a révélé la fragilité des supply chains en cas de crise et la guerre en Ukraine en apporte une seconde confirmation. C’est comme la Formule 1 versus les camions tout terrain. Pendant les vingt dernières années, les entreprises ont réglé leur supply chain comme des Formules 1, avec un pur objectif de performance, sur les pistes parfaitement lisses de la globalisation, avec des ressources peu chères et abondantes. Mais les crises successives vont rendre les pistes plus cahotantes. Le réglage des supply chains va devoir se rééquilibrer en partie vers le mode camion tout terrain, avec plus d’importance donnée à la robustesse et à la résilience. »

Les stratégies d’économie circulaire sont un moyen de construire des chaînes d’approvisionnement résilientes, basées en partie sur une économie du PIB local. Cette transition vers l’économie circulaire implique une mise en mouvement de l’ensemble des acteurs des territoires : collectivités, citoyens consommateurs, filières industrielles et commerciales, etc.

En outre, il faut systématiser l’écologie industrielle et territoriale et chercher des synergies entre acteurs afin du mutualiser les ressources (exemple : récupération de chaleur fatale pour alimenter les réseaux de chaleur).

Levier 5 : S’appuyer sur l’innovation et le digital

L’innovation technologique et la R&D doivent être soutenues activement, en priorité dans les domaines utilisant des ressources critiques. Voici quelques pistes prioritaires :

  • travailler à la recyclabilité du lithium et du graphite ;
  • approfondir les technologies permettant de se passer de ces ressources (panneaux photovoltaïques pérovskite développés en France…) ;
  • intégrer plus de matières recyclées ;
  • soutenir l’écoconception.

Par ailleurs, les technologies digitales et l’intelligence artificielle constituent des outils essentiels pour relier des univers linéaires et mettre en place une économie circulaire (traçabilité des produits et déchets, plates-formes de mise en relation, maintenance prédictive, etc.).

L’innovation technologique ne peut pas, à elle seule, répondre à tous les enjeux de l’économie circulaire. L’innovation doit aussi être d’ordre économique, juridique et fonctionnel.


[1] Pages 89 à 101

[2] Consommation énergétique lors du recyclage, transport, etc.