La sécheresse : première cause de dégâts des logements

Le dérèglement climatique a des impacts bien concrets pour la plupart des Français et les Françaises. Et quand ils sont en plus propriétaires de leur logement, le sujet devient d’autant plus pressant pour leur portefeuille. Face aux risques de dégâts, plus d’un propriétaire de maison sur deux se dit prêt à déménager dans une région moins exposée aux dérèglements climatiques. Et déjà un professionnel sur trois estime que ces dérèglements ont un impact sur son activité en plomberie ou en électricité. Voici les constats clés d’une étude commandée par HomeServe, spécialiste des réparations et de la performance énergétique de la maison, à Opinion Way.

Parmi les événements climatiques qui viennent fragiliser les logements des Français, c’est la sécheresse qui constitue la plus grande source d’inquiétude des Français (64 %). 22 % des répondants se disent même très inquiets. Les inondations arrivent à la deuxième place du podium. Elles sont source de stress pour 49 % des interrogés, devant les conséquences du gel (38 %).

Sécheresse, RGA et fissures

La sécheresse provoque depuis plusieurs années des ravages sur les habitations. Le phénomène le plus prégnant est le retrait-gonflement des argiles (RGA). Un phénomène, « directement lié aux conditions météorologiques et notamment au manque de précipitations », souligne le Bureau de recherches géologiques et minières (BRGM). « Il s’agit d’une variation de volume des terrains, à la suite d’une modification de leur teneur en eau », explique le BRGM. Ils se « rétractent » lors des périodes de sécheresse (phénomène de retrait) et gonflent au retour des pluies (phénomène de gonflement). Ce phénomène crée des fissures et fragilise immeubles et maisons.

Si les fissures sont les dégâts identifiables, certaines conséquences dévastatrices sont invisibles. Selon l’étude d’HomeServe, réalisée auprès d’un échantillon de 1 179 propriétaires de maisons individuelles, représentatif de la population française âgée de 18 ans et plus, 61 % des propriétaires de maison ont constaté au moins un dégât pouvant être lié à la sécheresse sur leur habitation. Parmi eux, 45 % ont relevé des fissures sur leur façade ou un affaissement de leur maison, 34 % des canalisations plus régulièrement bouchées et 31 % des fuites d’eau plus fréquentes. En plus, 42 % des propriétaires concernés rapportent une fragilisation des équipements extérieurs.

Les professionnels confirment une hausse des interventions

En plus des propriétaires de maison, l’étude a interrogé par e-mail un échantillon représentatif de 105 professionnels (plombier et électriciens) du réseau agréé de HomeServe. Plus d’un tiers d’entre eux affirment que l’alternance de périodes d’inondation et de sécheresse a fait évoluer la typologie de leurs interventions en plomberie et en électricité chez les particuliers.

Le phénomène de retrait-gonflement des sols argileux ainsi que les racines d’arbres qui cherchent à se nourrir en eau entraînent des mouvements de terrain et des fuites sur les canalisations enterrées, rappelle l’étude. Ainsi, les professionnels soulignent une hausse de 66 % des dépannages sur des canalisations enterrées privatives et de 14 % sur des pannes électriques. Cela complexifie le travail des professionnels, entraîne une adaptation des outils, rallonge le temps et donc le coût de l’intervention. « 88 % témoignent avoir dû revoir leur fonctionnement pour être en mesure de s’adapter à ces nouveaux enjeux », confirme l’étude.

Face à ces événements, la majorité des Français se sent démunie. Seulement 19 % essayent d’anticiper le problème. 47 % des sondés préfèrent opter pour l’ignorance et s’en occuper seulement en temps voulu. Enfin, 4 % des interrogés disent ne pas croire aux risques de la sécheresse sur leur logement.

Jean-Noël Patillon : « Il faut s’assurer que toutes les données des entreprises françaises ne soient pas exploitées par les États-Unis. »

Afin de proposer une alternative aux Big Tech américains, la France a lancé PEPR Cloud. Co-piloté scientifiquement par le CEA et INRIA, ce Programme et Équipements Prioritaires de Recherche est doté d’une enveloppe budgétaire de 51 millions d’euros sur 7 ans. Il a pour objectif de proposer des avancées significatives sur la performance, la sécurité et la frugalité des infrastructures et services de cloud tout en mettant l’accent sur le transfert des solutions innovantes issues de la recherche vers l’industrie. Explications avec Jean-Noël Patillon, responsable du PEPR pour le CEA.

Jean-Noël Patillon est directeur adjoint de l’institut List du CEA, en charge notamment de la recherche et des programmes. Il co-pilote le PEPR Cloud en compagnie d’Adrien Lebre (INRIA).

Techniques de l’ingénieur : Quel est le principal objectif de ce programme ?

Jean-Noël Patillon : Le volume de données produites par les entreprises ne cesse d’augmenter. Mais de plus en plus de données sont hébergées dans des infrastructures appartenant à des entreprises américaines et il est fondamental de s’assurer que toutes les données des entreprises françaises ne soient pas exploitées par les États-Unis. Pour relever ce défi, il est nécessaire de faire monter en puissance la recherche dans le domaine des clouds et donc aussi les industriels français spécialisé dans ce domaine. Le PEPR vise ainsi au développement d’une alternative souveraine.

Le but ultime du PEPR Cloud est que toute la chaîne du cloud (de la donnée en passant par les technologies de calcul) soit distribuée. Ce serait en quelque sorte un « système d’exploitation distribué » comme Windows, mais disponible et accessible sur chacun des Edge computing qui auront été déployés.

En quoi consiste ce Edge computing ?

Il ne suffit pas de dire que nous sommes « souverains » pour l’être. Les acteurs français ne peuvent pas jouer dans la même cour que les GAFAM. Il faudrait des investissements colossaux pour pouvoir atteindre les masses critiques d’un Amazon par exemple. Aucun industriel français ne dispose de telles capacités. Il est donc nécessaire d’exploiter une autre voie, en l’occurrence la décentralisation des clouds avec cet Edge computing. Les données resteraient dans les entreprises, ce qui permettrait de garantir la souveraineté des données. Des informations pourraient être partagées, mais elles seraient anonymisées au préalable.

Au-delà de la problématique de la souveraineté des données, cette solution permettrait de réduire l’impact du cloud sur l’environnement.

Oui, l’empreinte carbone de ce type de cloud distribué serait réduite, car il y aurait moins de données qui transiteraient dans ces clouds de proximité. De façon générale, il s’agirait de réduire les coûts sur l’ensemble de la chaîne grâce à un cloud décentralisé. Une étude publiée par le MIT a démontré que sur la partie transport des données, on peut gagner un facteur 1 000 entre le recours à un cloud centralisé comme celui d’Amazon et une solution complètement distribuée.

Le PEPR cloud n’est pas la seule initiative allant dans ce sens. Manufacturing X (le « X » signifiant « Exchange » et symbolise l’échange de données) est une initiative européenne (soutenue en particulier par le gouvernement fédéral allemand) qui consiste à avoir du Edge computing dans les entreprises, donc au plus près des données, et que ces mini datacenters soient fédérés au sein d’un cloud.

Enfin, cette volonté de réduire l’impact énergétique est aussi partagée par un autre programme. Le PEPR Intelligence artificielle, s’attaque aux problèmes mathématiques pour concevoir des algorithmes qui soient moins énergivores que la genAI actuelle. Cela passerait notamment par un « transport » des données qui soit le plus frugal possible et des architectures de calcul permettant d’optimiser ces intelligences artificielles.

Le PEPR Cloud prévoit la mise en œuvre d’un banc d’essai sous forme d’une infrastructure expérimentale distribuée. Quel sera le rôle de cette plateforme ?

Elle jouera un rôle essentiel en fournissant les premiers éléments du nœud français de l’initiative européenne SLICES (Scientific Large-Scale Infrastructure for Computing/Communication Experimental Studies). La brique française, appelée SLICESFR, est construite à partir d’un projet PEPR cloud dénommé SILEX. Ce dernier s’appuie sur des infrastructures existantes de calcul et d’internet des objets. Ces deux infrastructures vont être renforcées par des équipements complémentaires.

Bientôt de premières usines de recyclage de batteries en France

Le 2 juillet, Hydrovolt, une entreprise de recyclage de batteries créée en 2020, a annoncé la construction d’une usine de recyclage de batteries lithium-ion, à Hordain, au cœur de la « Vallée de la batterie » du nord de la France. La région est aujourd’hui « un centre croissant pour la chaîne de valeur des batteries », prévient l’entreprise. « Le site choisi à Hordain dispose déjà d’une configuration adaptée aux opérations de recyclage sur environ 3 000 mètres carrés », partage l’entreprise qui est une joint-venture entre le géant industriel norvégien Hydro et le fabricant de batteries suédois Northvolt.

Le site devrait démarrer ses opérations mi-2025, après l’obtention de ses permis d’exploitation. Il permettra de démonter et recycler jusqu’à 95 % des métaux stratégiques présents dans les batteries, notamment le lithium, le cobalt et le nickel. Les matériaux recyclés permettront de produire de nouvelles batteries. L’enjeu est important, puisque les batteries représentent environ 40 % du coût total d’un véhicule électrique. « C’est une étape importante pour Hydrovolt, et l’entrée sur le marché français nous aidera à maintenir notre position de leader européen du recyclage des batteries lithium-ion », a déclaré Ole-Christen Enger, PDG d’Hydrovolt,

Un projet à Dunkerque par Eramet et Suez

Un autre projet porté par le groupe minier Eramet, en collaboration avec SUEZ, prévoit la construction de deux usines à Dunkerque. L’objectif : recycler les batteries en fin de vie et les rebuts de production des gigafactories pour produire de nouvelles batteries. La première usine sera pilotée par SUEZ et devrait voir le jour dès 2025. Elle permettra de démanteler, broyer et séparer les différents constituants des batteries jusqu’à la production de la black mass, une poudre noire contenant les métaux stratégiques nickel, cobalt et lithium. Elle pourra traiter jusqu’à 50 000 tonnes de modules de batteries par an, soit l’équivalent de 200 000 batteries.

La deuxième usine d’hydrométallurgie portée par Eramet extraira et raffinera les métaux stratégiques contenus dans la black mass. Elle permettra ainsi de produire 5 000 tonnes de nickel, 1 000 tonnes de cobalt et 4 000 tonnes de lithium par an, sous forme de sels métalliques « de qualité de batterie ». Eramet a lancé une usine pilote à Trappes en novembre 2023 pour tester et optimiser ce procédé. Il s’agit d’une réplique au 1/1000ème de l’usine prévue à Dunkerque. La décision finale d’investissement est prévue d’ici fin 2024 pour un démarrage en 2027.

Une autre usine de recyclage près d’Arras

La start-up française Battri a annoncé pour sa part l’ouverture à l’été 2024 de sa première usine de recyclage de batteries lithium-ion à Saint-Laurent-Blangy, près d’Arras (Pas-de-Calais). L’usine assurera les premières étapes du processus de recyclage – celles dites de prétraitement – jusqu’à l’obtention de la black mass. L’usine devrait pouvoir recycler plus de 30 000 tonnes de batteries lithium-ion par an, selon un communiqué de l’entreprise.

Ces usines doivent répondre aux objectifs prévus par la réglementation européenne pour abaisser la pression minière. En juin 2023, le Parlement européen et les États membres de l’Union européenne se sont mis d’accord sur des objectifs de récupération de matières et de réutilisation dans le secteur de la batterie. 50 % du lithium devra être récupéré d’ici à 2027 et 80 % d’ici à 2031. Le cobalt, le cuivre, le plomb et le nickel devront atteindre des taux de récupération de 90 % d’ici à 2027 et de 95 % d’ici à 2031.

Nouveau gisement photovoltaïque avec les panneaux de CréaWatt

L’engouement pour le solaire photovoltaïque est de plus en plus grand dans le monde grâce à la facilité d’installation des panneaux sur différentes surfaces, et à des prix en baisse à cause de la surproduction chinoise. En France, plus de 3 GW avaient été installés en 2023, et un gigawatt l’a déjà été au premier trimestre 2024. Ce rythme doit encore accélérer – à environ 5 GW par an – pour atteindre l’objectif 2028 le plus ambitieux de la programmation pluriannuelle de l’énergie.

Néanmoins, de nombreux bâtiments industriels ou commerciaux ont des toitures dont la structure ne peut pas supporter le poids des panneaux solaires, qui est d’environ 20 kg/m2. Pour cette raison, on estime que 100 millions de m2 ne sont pas exploitables dans l’Hexagone. Afin d’y remédier, la société CréaWatt Group a développé un type de panneaux beaucoup plus légers, de 3,5 kg/m2, qu’elle a nommé Luxsiol. Une aventure technique, mais aussi entrepreneuriale.

Enjeu d’industrialisation

L’histoire commence avec Jean-Noël Gaine, installateur photovoltaïque, qui a l’idée d’utiliser les petits panneaux photovoltaïques utilisés sur les caravanes en les fixant avec des adhésifs autogrippants. Pour les adapter aux bâtiments à grande échelle, trois défis doivent être relevés : fabriquer des panneaux plus grands et de préférence en France, disposer d’autogrippants capables de tenir longtemps en toutes conditions, et confectionner des colles adaptées tant aux panneaux qu’aux toitures.

En partenariat avec le fabricant chinois Sunman, le premier défi a été relevé. Les panneaux sont sans verre et sans cadre en aluminium puisque les cellules photovoltaïques sont soudées entre elles, avant d’être encapsulées entre des couches de fibre de verre et de résine polyester. Flexible, léger, le panneau Luxsiol fait désormais une taille de 2×1 m pour une puissance unitaire de 430 Wc. « Nous suivons de près les évolutions technologiques avec notre partenaire Sunman, et nous allons prochainement passer à un panneau de 520 Wc. Surtout, nous avons acté avec lui la possibilité d’assembler les panneaux en France : notre usine à Amilly, dans le Loiret, va monter en puissance sur trois ans pour atteindre une production annuelle de 500 MWc » détaille Laurent Mimaud, directeur général de CréaWatt Group.

Les deux autres défis ont aussi été résolus. Le système de fixation breveté EasyGrip a été conçu en partenariat avec Velcro, le spécialiste des bandes autogrippantes. Et CréaWatt a breveté des colles qu’il a spécialement élaborées : certaines servent directement en usine pour fixer la base de la bande Velcro sous le panneau, et les autres pour coller le grip sur la toiture (terrasse en bitume, PVC, bac acier, tôle ondulée). Exit, donc, les fixations par perçage/vissage, et pas besoin de mise à la terre non plus. Avec la facilité de manutention due à la légèreté des panneaux, ce système de fixation réduit le temps d’installation de 40 % par rapport à une solution classique.

CréaWatt, panneaux photovoltaïques
Installation des panneaux PV de CréaWatt. Crédits CréaWatt

Des projets de plus en plus grands

Après la création de l’entreprise en mars 2020, des certifications commencent à être concrétisées et les premiers grands chantiers se font en 2021. De mieux en mieux référencés auprès des distributeurs mi-2022, les produits de CréaWatt sont de plus en plus utilisés. Le marché visé est celui des grandes toitures ne pouvant pas supporter de trop fortes charges. Ainsi, 60 000 panneaux ont déjà été installés sur 200 bâtiments comme des supermarchés, des surfaces commerciales, des entrepôts logistiques, ainsi que des bâtiments industriels ou des gymnases. Dans beaucoup de cas, l’électricité photovoltaïque est autoconsommée et le surplus revendu. Parmi les projets majeurs, on compte l’installation d’un projet pilote sur le Pavillon de la marée au MIN de Rungis. Cet ensemble de bâtiments représente un fort potentiel photovoltaïque près de 150 MWc. Également à l’étude, la couverture de la rocade bordelaise par des ombrières sur 50 km.

« L’enjeu des certifications est crucial dans le secteur du bâtiment. Luxsiol répond à plusieurs certificats et normes, notamment la tenue au feu et la résistance à des vents de 280 km/h. Mais les produits évoluent tout le temps et la durée d’obtention des certifications est longue. Pour pouvoir déployer plus rapidement les chantiers de notre carnet de commandes, nous avons conclu un partenariat stratégique avec Generali France fin 2023 » ajoute Laurend Mimaud. L’assureur, après expertise de CréaWatt, a en effet décidé d’accorder sa confiance à la jeune pousse afin de couvrir la responsabilité civile du produit, l’assurance bâtiment et la garantie du productible, et surtout la garantie décennale, sésame indispensable dans le secteur.

L’entreprise assume aussi ses responsabilités environnementales et sociales. Elle cherche à utiliser un maximum de produits fabriqués en France ou en Europe, elle a obtenu la certification carbone Certisolis en 2022 et adhère à Soren pour élaborer le futur recyclage de ses panneaux. Côté social, elle privilégie notamment l’insertion en employant 6 salariés en situation de handicap dans son équipe de 48 collaborateurs ; et elle emploie 50 détenus de la prison d’Orléans dont certains ont été embauchés après leur peine.

Enfin, parmi les nouveautés de l’entreprise, on note la création d’un panneau Luxsiol dédié aux toitures en zinc. Soutenu par les Architectes des bâtiments de France, ce panneau recevra le trophée Innovation d’argent lors du salon Batimat fin septembre.

Trois leviers de décarbonation pour l’industrie agroalimentaire

L’alimentation en France représente un quart des émissions de gaz à effet de serre du pays. L’industrie agroalimentaire, premier acteur économique hexagonal avec plus de 15 000 entreprises et plus de 430 000 emplois, joue un rôle important pour arriver à décarboner ce secteur. Ce dernier, comme l’Ademe le dit, doit évoluer vers un modèle alimentaire plus durable et plus responsable. Non seulement il faut nourrir les populations, mais il faut le faire en produisant une alimentation saine, en préservant l’environnement, en réduisant le gaspillage alimentaire, en améliorant la gestion des déchets.

La décarbonation de l’industrie agroalimentaire (IAA) passe inexorablement par des changements sur les consommations d’énergie. Une étude récente d’Allice, alliance pour la décarbonation de l’industrie, analyse plus finement les potentiels sur certains procédés.

Focus sur les énergies thermiques

L’étude a été menée avec le Centre technique de la conservation des produits agricoles (CTCPA), le Centre d’études et de recherches économiques sur l’énergie (Ceren) et RMT Ecofluides. « Réalisée en une année, notre étude vient donner un appui technique aux entreprises du secteur des IAA qui doivent créer des feuilles de route de décarbonation, en respect de la loi Climat et résilience du 22 août 2021 » avance Lucille Payet, responsable scientifique d’Allice.

Un état des lieux a d’abord permis de montrer que le secteur des IAA représente 13 % de la consommation d’énergie de l’industrie en France. Il émet 80 % de ses gaz à effet de serre de manière indirecte (scope 3), à cause de la production agricole et des matières premières. L’étude s’est occupée des 20 % d’émissions restantes qui sont les émissions directes liées aux activités de transformation (scope 1) et les émissions indirectes dues aux énergies utilisées dans les procédés (scope 2).

« Certains sous-secteurs comme ceux du sucre et de l’amidon ayant déjà travaillé leurs feuilles de route de décarbonation, nous nous sommes concentrés sur l’industrie laitière et sur les autres IAA » précise Ilyas Gain-Nachi, ingénieur coordinateur de projets d’Allice. Dans ces deux sous-secteurs, appelés respectivement NCE 12 et NCE 14 dans la nomenclature, la consommation d’énergie finale est de l’électricité pour 35 % et 45 %. L’énergie thermique compte une faible part d’énergies renouvelables (4 %), un peu de vapeur achetée (6 % à 8 %), et surtout des énergies fossiles, principalement du gaz (38 % à 50 %).

L’électricité française étant largement décarbonée, l’étude a privilégié l’examen des consommations d’énergie thermique et particulièrement de la chaleur. « En regardant plus finement, on se rend compte que la majorité des consommations d’énergie thermique de ces deux sous-secteurs vient des procédés de transformation, principalement le séchage, la cuisson et le chauffage des liquides » ajoute Ilyas Gain-Nachi. Les experts d’Allice et leurs partenaires se sont donc focalisés sur des cas d’étude de ces procédés présentant un fort enjeu de décarbonation.

Trois leviers de décarbonation

Ainsi, ont été analysés des exemples de stérilisation/pasteurisation (différents types de traitements thermiques et conditionnements sur une chaîne de production de yaourt et dans une conserverie de légumes industrielle), de fours de cuisson en boulangerie industrielle, et de séchage de fruit avec utilisation de solaire thermique. Le nettoyage des cuves contenant des produits alimentaires a également été traité, car fort consommateur d’eau et d’énergie.

Trois leviers de décarbonation ont été chiffrés. Tout d’abord les gains d’efficacité énergétique par le lancement ou la poursuite d’actions sur les procédés (optimisation des pilotages de consommation, régulation avancée, récupération de chaleur, calorifugeage des réseaux, etc.). En appliquant plus ou moins les meilleures technologies disponibles, 3 % à 7 % des consommations d’électricité pourraient être économisés (soit 30 à 80 GWh nationalement) et 6 % à 17 % des consommations de combustibles (soit 360 à 1 130 GWh). L’efficacité énergétique pourrait ainsi éviter l’émission de 490 à 990 ktCO2/an des procédés des IAA (hors sucre et amidon). Même si le potentiel paraît peu élevé, ces actions constituent une première marche vers la décarbonation.

L’électrification est ensuite une solution pertinente quand elle vient en substitution de technologies utilisant des énergies fossiles. Il s’agit principalement de recourir à des pompes à chaleur, dont les niveaux de température (90-100°C) sont adaptés aux process agroalimentaires, ainsi qu’à des systèmes de recompression mécanique de vapeur. En déployant de telles technologies, ce sont un peu plus de 2 MtCO2/an qui pourraient être évitées.

Enfin, l’utilisation d’énergies renouvelables thermiques offre des possibilités réelles de décarbonation. L’étude d’Allice a considéré la biomasse solide, la méthanisation, le solaire thermique, la géothermie très basse énergie et l’hydrogène vert. Si cette dernière option est encore très dépendante de l’évolution de la filière H2, les autres solutions techniques sont plus matures. La méthanisation, notamment, a le plus fort potentiel, car bien des IAA disposent de déchets organiques à valoriser en biogaz. Le solaire thermique est aussi adapté à la production d’eau chaude ou de vapeur. Ces deux seules technologies permettraient de ne pas rejeter 1,5 MtCO2/an. Pour les autres solutions, des travaux supplémentaires sont nécessaires (R&D industrielle et démonstrateurs).

« Les procédés étudiés sont présents quasiment partout dans l’industrie agroalimentaire. Si certains grands groupes ont déjà lancé des actions de décarbonation, les plus petites entreprises s’interrogent encore fortement sur la façon d’agir. Notre étude, via des acteurs comme le CTCPA, leur apportera des pistes techniques à développer », conclut Lucille Payet.

Qista, une start-up française contre les moustiques

L’été est souvent synonyme de piqûres de moustiques. Saviez-vous que seuls les moustiques femelles piquent, après l’accouplement, pour porter leurs œufs à maturation ? Et pour repérer l’être humain, elles suivent un mélange olfactif, composé du CO2 qu’il rejette et de l’odeur caractéristique de sa peau. La start-up française Qista[1], qui propose à la vente des bornes d’aspiration de moustiques, explique : « C’est ce que va reproduire par biomimétisme la borne Qista. Elle vient dans un premier temps expulser du CO2 pour reproduire l’expiration de l’être humain et grâce à un leurre olfactif, elle vient reproduire l’odeur corporelle de l’être humain. La femelle moustique va repérer ce mélange de molécules, s’approcher de la borne, être aspirée par la machine et se retrouver piégée dans un filet. »

Une borne sans pesticide pour moins d’impact

L’entreprise a été créée en 2014 pour proposer une solution de lutte efficace contre le moustique, qui ne repose pas sur des pesticides ou phéromones, afin d’impacter au minimum la biodiversité. Selon des tests menés pendant deux ans par la Tour du Valat, un institut de recherche pour la conservation des zones humides méditerranéennes, la borne permettrait de réduire de 88 % les nuisances sur les humains. « Toutes les 10 minutes, on passait de 15 à 1 piqûre en pleine Camargue », assure Qista.

L’entreprise réalise une étude d’implantation, gratuite et sans engagement, pour définir l’emplacement idéal de la borne sur un terrain et définir les moustiques à cibler. « Il existe deux types de leurre : un qui est principalement destiné au moustique tigre, et un autre destiné aux autres moustiques », explique Qista. Le leurre se présente sous la forme de petites billes biosourcées, à recharger tous les mois. Les tests ont mis en avant un taux de sélectivité qui dépasse les 90 %, selon l’entreprise. Il y aura toutefois bien quelques insectes non ciblés qui se font aspirer en passant à côté de la borne.

Deux produits pour deux portefeuilles

Son produit phare, actuellement en vente pour les particuliers et les professionnels du tourisme, est le modèle Visio+, un piège connecté lancé en 2023. Pilotable à distance à partir d’une application, il remonte des données de capture, à partir de 1338,90 euros. « Ce nouveau modèle permet de réduire la consommation de CO2 : une bouteille de 10 kg permet désormais une autonomie de deux mois, contre un mois auparavant, ce qui est plus économique pour le client », partage Qista. Le système utilise du CO2 recyclé, issu d’un procédé de méthanisation.

En mai 2024, l’entreprise a sorti un nouveau produit non connecté, plus accessible pour le grand public. À partir de 780 euros, il ne remonte pas de données de captures. Les deux bornes sont majoritairement constituées de polypropylène recyclé. Et 80 % de la structure et des pièces électroniques sont sourcées en France, avance l’entreprise.

Cartographier la présence du moustique

Différentes utilisations peuvent être faites avec les données récoltées par la borne Visio+. L’utilisateur aura notamment accès aux taux de capture des moustiques. En collaboration avec des collectivités et des gouvernements, les données permettent aussi de cartographier la présence du moustique dans une ville, ou un quartier, et d’évaluer les évolutions d’émergence du moustique.

La ville d’Hyères, sur la côte méditerranéenne, est la plus belle vitrine de l’entreprise, avec un parc de 400 machines. Qista explique : « Nous allons ainsi être en capacité de dire qu’une évolution est anormale, qu’un gîte larvaire s’est créé et il sera ainsi possible de le traiter de façon mécanique et efficace. C’est un moyen de prévention dans les villes. »

L’entreprise est présente sur 36 territoires, dont l’Espagne, le Portugal, l’Italie, le Sénégal et les Émirats arabes unis. 13 000 bornes sont installées dans le monde dont 80 % en France. « Notre objectif d’ici 4 ans est de conquérir l’international pour avoir plutôt 80 % des bornes à l’étranger et 20 % en France », partage Qista.


[1] La start-up française Qista

Des micromachines propulsées par les algues

Les micro-organismes comme certaines algues possèdent des capacités motrices remarquables. Il n’en fallait pas davantage pour que des chercheurs croient en leur potentiel pour propulser des micromachines, bien utiles pour la recherche biologique ou environnementale. C’est tout particulièrement le cas de l’équipe de recherche menée par Haruka Oda, de l’université de Tokyo (Japon). Le scientifique et ses collègues se sont focalisés sur l’algue verte mobile Chlamydomonas reinhardtii. Leur idée était de l’utiliser comme un moteur pour micromachine dont la force propulsive serait captée à l’aide de minuscules pièges, à la manière d’un traîneau tiré par des chiens ou d’une charrue tractée par des bœufs. Les chercheurs se sont donc attelés à développer de tels micro-pièges, à évaluer leur efficacité, et à étudier la dynamique du mouvement des machines bio-hybrides. Le résultat de leurs efforts est paru le 7 juillet 2024 dans le journal Small.

Des pièges à algues en forme de paniers

La première étape du travail mené par l’équipe de Haruka Oda tenait à créer des microstructures 3D capables de piéger les algues tout en contrôlant leur direction. Et ce, sans abîmer leurs moyens de propulsion, soit deux flagelles situés à l’avant du micro-organisme. Les expériences initiales ont montré que les algues vertes Chlamydomonas reinhardtii ne pouvaient pas traverser un anneau avec un diamètre inférieur à 7 μm. La suite du projet a consisté à former des genres de paniers constitués de plusieurs anneaux de différents diamètres, permettant de piéger le micro-organisme sans gêner son mouvement vers l’avant. Quatre structures ont ainsi été testées, et la meilleure s’est révélée être la configuration 7-10-13 avec un taux de capture de 80 % contre à peine 30 % pour les trois autres. Le premier anneau de 13 μm sert à guider l’algue à l’intérieur de la structure. Le second, de 10 μm de diamètre, restreint ses possibilités de mouvement afin de l’empêcher de s’enfuir. Enfin, celui de 7 μm de diamètre sert de point d’appui pour la propulsion à proprement parler.

micromachines, Scooter, Rotator
Images du Scooter (gauche) et du Rotator (droite) obtenus par microscopie à balayage électronique. Barre d’échelle : 10 μm. Crédits : 2024 The Shoji Takeuchi Research Group at the University of Tokyo.

Une fois le piège conçu, les scientifiques ont mis au point deux types de micromachines : le Scooter et le Rotator. Toutes deux ont été fabriquées par la technique d’impression 3D connue sous le nom de stéréolithographie à deux photons. Celle-ci use de la lumière afin de façonner des microstructures à partir de blocs de plastique. Le Scooter est pourvu de deux pièges éloignés de 40 μm l’un de l’autre. Le Rotator, quant à lui, en compte quatre séparés à chaque fois de 90°. Une fois alimenté par deux spécimens de Chlamydomonas reinhardtii, le Scooter a présenté des mouvements complexes et aléatoires tels des embardées et des roulis à une vitesse moyenne de 21,2 μm/s. Le Rotator et ses quatre algues, en revanche, ont suivi une rotation contrôlée avec une vitesse moyenne angulaire de 1,43 rad/s, soit quelque 34 μm/s. Pour continuer leurs recherches, Haruka Oda et ses collègues ont déjà prévu d’améliorer encore la rotation du Rotator et de créer de nouveaux designs de machines plus complexes.

Produire des briques de régolithe lunaire à l’aide des micro-ondes

Le programme Artemis de la NASA (National Aeronautics and Space Administration), en plus d’envoyer de nouveaux astronautes sur la Lune, vise également à y établir une base pérenne d’ici à 2028. Cela signifierait la construction de multiples infrastructures comme des murs anti-souffle, des routes, des aires de lancement/alunissage, et bien sûr des habitats. Or, transporter les matériaux nécessaires à ce chantier pharaonique depuis la Terre serait une ruine. En effet, chaque kilogramme transféré coûterait près de 1,1 million d’euros ! La meilleure solution serait donc de parvenir à exploiter les ressources sur place. Une idée que Hyunwoo Jin, du Korea Institute of Civil Engineering and Building Technology (KICT) de Goyang (Corée du Sud), et son équipe de recherche ont exploré dans un article publié le 1er juillet 2024 dans le Journal of Building Engineering.

Préchauffer : le secret de l’homogénéité des briques

Pour bâtir, il faut des briques. Mais en quel matériau ? Sur notre satellite naturel, on trouve principalement du régolithe – un condensé de poussières et de roches lunaires – qui devrait faire l’affaire. Reste à savoir comment apprendre à le façonner alors que cette manne se situe à plus de 380 000 kilomètres de la Terre… Heureusement, les missions Apollo qui ont eu lieu en 1969 et 1972 ont permis le rapatriement de quelque 382 kg d’échantillons de surface lunaire. À partir des informations fournies par ces échantillons, plusieurs simulants de régolithe ont été mis au point. Celui fabriqué par le KICT porte le nom de KLS-1 (pour Korea Lunar Simulant). C’est ce matériau conçu pour imiter une majorité de propriétés du régolithe lunaire que l’équipe de Hyunwoo Jin s’est évertuée à modeler. Son objectif : parvenir à une brique de KLS-1 parfaitement homogène.

Pour réaliser ce tour de force, les scientifiques ont cherché un moyen de chauffer leur imitation de régolithe lunaire de manière totalement uniforme. Ils se sont donc tournés vers la technique du frittage par micro-ondes. Celle-ci consiste à chauffer une pièce compactée – ici la brique de 10*10*5 cm de KLS-1 – à une température inférieure au point de fusion du matériau. Les premiers résultats étaient prometteurs, mais un souci persistait. En effet, des fissures internes à la brique apparaissaient au moment du dégazage. Finalement, Hyunwoo Jin et ses collègues ont découvert que préchauffer la brique dans un four sous vide à 250° C prévenait la formation des fissures. Pour s’assurer de la bonne homogénéité de leur brique, les chercheurs ont effectué des carottes qu’ils ont soumises à différentes mesures : densité, porosité et force de compression. Les résultats de 2,11 g/cm3, 29,23 % et 13,66 MPa ne déviaient des valeurs standards que de 0,03, 1,01 et 1,76 respectivement. Cette première validation de la technologie mise en œuvre devrait bientôt être suivie d’une autre, cette fois en environnement spatial.

Ariane 6 : Eumetsat fait volte-face et lui préfère SpaceX

L’opérateur des satellites météorologiques européens, Eumetstat a annoncé, le 27 juin dernier, qu’il confiera le lancement de son satellite Meteosat MTG-S1[1] à la fusée Falcon 9 de SpaceX. Pourtant, le contrat entre Eumetsat et Arianespace avait été officialisé en mars 2021 et devait aboutir à la mise sur orbite du sondeur MTG-S1 pour le troisième vol d’Ariane 6 début 2025.

Les raisons de ce revirement, dévoilé par Le Monde, ne sont pas précisées. Un jour après l’annonce, le directeur général d’Eumestat, Phil Evans, a seulement affirmé que « des circonstances exceptionnelles » ont motivé cette décision sans détailler lesquelles. Le contrat de départ comprenant quatre lancements par la fusée Ariane 6, ce désistement fait planer une incertitude concernant le devenir des trois autres satellites.

Selon Le Monde, ce serait le comité exécutif d’Eumetsat qui aurait demandé au conseil d’administration, représentant les 30 États membres, d’annuler le contrat signé avec Arianespace pour choisir la fusée Falcon 9 de SpaceX.

Ce désistement intervient alors qu’Ariane 6 s’apprêtait à réaliser son vol inaugural depuis le Centre spatial guyanais à Kourou. Annoncé à moins de deux semaines de ce lancement déterminant pour le groupe Arianespace, ce choix pourrait révéler un manque de confiance vis-à-vis des performances futures de cette fusée. Les quatre années de retard accumulées par le groupe pourraient expliquer cette méfiance. Cependant, le président d’Arianespace avait souligné, quelques mois plus tôt, que les 30 vols affichés sur le carnet de commandes étaient une marque de confiance de la part des clients : « Nous avons trente missions à réaliser, c’est sans précédent pour un lanceur qui n’a pas encore volé », selon des propos rapportés par Le Monde.

Absence de préférence européenne

Le choix de l’agence européenne Eumetsat fait resurgir une problématique cruciale aux enjeux stratégiques capitaux : l’absence de préférence européenne dans le domaine spatial. En effet, alors qu’aux États-Unis une préférence existe pour les lanceurs nationaux, en Europe règne une absence de cadre réglementaire qui pénalise les fusées européennes sur le marché.

Les répercussions sont aussi politiques puisque c’est l’Allemagne qui aurait manœuvré pour imposer le choix de SpaceX au détriment de la société européenne Arianespace et malgré l’opposition de la France. La pression viendrait de l’action conjointe de Berlin et du fabricant de satellites allemand, le groupe OHB.

Cette désunion met en lumière le manque de stratégie commune au sein de l’Union européenne. Le président du CNES[2], Philippe Baptiste, s’est montré critique vis-à-vis de cette décision et appelle la Commission européenne à prendre « les mesures nécessaires pour que tous les satellites institutionnels européens soient lancés sur de petits et grands lanceurs européens ».

Un retour à l’accès souverain de l’Europe à l’espace ?

Ce changement de cap démontre que l’industrie spatiale européenne est confrontée à un défi majeur : reconquérir son autonomie dans le domaine spatial.

L’Europe nourrit l’espoir de retrouver cet accès indépendant à l’espace grâce à la réussite, le mardi 9 juillet dernier, du vol inaugural d’Ariane 6 avec le déploiement sur orbite d’une dizaine de micro-satellites. À la suite de ce lancement, le président d’Arianegroup a fait savoir qu’il souhaitait favoriser l’usage des fusées européennes pour lancer les satellites publics européens ; il a exhorté les états européens à faire preuve « de bon sens ».

Alors que la fin de l’année 2022 a été marquée par l’échec du premier vol commercial de la nouvelle fusée italienne Vega-C et que l’Europe n’a effectué que trois tirs en 2023 comprenant les deux dernières Ariane 5 et une fusée Vega, les États-Unis ont une nouvelle fois dominé le marché mondial des lanceurs spatiaux en réalisant 107 vols orbitaux en 2023. Une performance qui doit beaucoup à la firme d’Elon Musk qui comptabilise, à elle seule, 96 lancements au cours de l’année, soit deux par semaine.


[1] Meteosat Troisième Génération

[2] Centre national d’études spatiales

Les thèses du mois : « Quels sont les leviers pour améliorer la compétitivité économique des déchets ? »

Pour notre dossier de janvier, « Quels sont les leviers pour améliorer la compétitivité économique des déchets ? », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

Ressources, déchets et climat : essais sur l’économie du recyclage
Etienne Lorang
Thèse de Doctorat en Sciences économiques, soutenue le 18/03/2022
Bureau d’économie théorique et appliquée

L’autorégulation en tant que stratégie hors marché. Une étude exploratoire sur les mécanismes transformant l’environnement hors marché des entreprises.
Agnieszka Majewska
Thèse de doctorat en gestion, soutenue le 14/02/2023
Dauphine Recherches en management

La gestion des ressources naturelles et son contrôle dans un monde globalisé
Marine Bastiège
Thèse de doctorat en Sciences de Gestion, soutenue le 17/11/2022
Centre de recherche en Gestion (CEREGE)

Le sacrifice perçu pour l’environnement : conceptualisation, antécédents et impacts sur l’adoption des pratiques de zéro-déchet et de déconsommation
Inès Kolli
Thèse de doctorat en Sciences de gestion et du management, soutenue e 16/03/2022
Montpellier Research in Management

Économie circulaire pour les composites à fibres de carbone : du déchet aéronautique vers les composites carbone+ thermoplastiques recyclés
Yang Shi
Thèse de doctorat en mécanique, soutenue le 21/04/2022
Institut de mécanique et d’ingénierie de Bordeaux

La responsabilité élargie des producteurs, un instrument à usage unique ? : l »institutionnalisation d’un mode de financement de la gestion des déchets ménagers
Vincent Jourdain
Thèse de doctorat en sociologie, soutenue le 27/03/2023
Pacte, laboratoire de sciences sociales

Analyse du lien économie-activité industrielle-déchets industriels dangereux en Corée du Sud par des approches multi-niveaux
Daye Lee
Thèse de doctorat en Systèmes Socio Techniques, soutenue le 14/12/2021
Interdisciplinary research on Society-Technology-Environment / InSyTE

Développement méthodologique de l’Analyse du Cycle de Vie conséquentielle appliquée au secteur de la construction civile
Denise Tavares lima de almeida
Thèse de doctorat en Procédés de fabrication – Génie mécanique, soutenue le 11/10/2022
Institut de mécanique et d’ingénierie de Bordeaux

Des vies en fripes : une anthropologie des circulations du vêtement usagé (bâleh) au Liban
Emmanuelle Durand
Thèse de doctorat en Anthropologie sociale et ethnologie, soutenue le 4/12/2022
EHESS

Économie circulaire dans le BTP : l’Analyse du Cycle de Vie multicritère au service de la valorisation des déchets de construction
Maher Hodroj
Projet de thèse en Génie Civil depuis le 01/10/2021
Laboratoire Matériaux et Durabilité des Constructions de Toulouse

Valoriser ses déchets pour mieux protéger l’environnement, un défi de l’économie circulaire

Un extrait de « Principes de gestion opérationnelle des déchets d’activités économiques », par Catherine VIALE

Les contraintes écologiques (diminution des ressources disponibles), économiques (moindre coût de production) et réglementaires (sanctions des mauvaises pratiques) ont bouleversé la place du déchet dans le business model des entreprises, notamment dans l’industrie et le BTP.

Par ailleurs, le déploiement de la responsabilité élargie du producteur (REP) et la généralisation des démarches d’écologie industrielle territoriale (EIT) devraient encourager à terme la transition effective vers le modèle d’économie circulaire qui veut que le déchet de l’un soit forcément une ressource pour l’autre.

Pour l’entreprise, le déchet devient ainsi une variable d’ajustement des postes de dépense et un facteur d’innovation à ne pas négliger. Dès lors, il lui faudra analyser les bénéfices à attendre d’une démarche de prévention qui lui permettra de réviser ses pratiques d’approvisionnement et de production, au regard des répercussions financières de la fin de l’accès aux centres d’enfouissement et de l’augmentation inéluctable des coûts de valorisation.

Une indispensable conversion vers l’économie circulaire

Actuellement, 85 milliards de tonnes de matières premières sont extraites chaque année, contre 22 milliards en 1970. Par ailleurs, 180 milliards de tonnes par an seraient nécessaires en 2050 pour satisfaire la demande mondiale si l’on ne change pas nos modes de consommation et de production.

Cependant, l’épuisement inéluctable des ressources naturelles par le modèle de développement linéaire actuel (extraire, fabriquer, jeter) a permis de faire émerger le concept d’« économie circulaire » qui veut que les déchets des uns puissent servir de matière première ou de combustible aux autres, en substitution aux ressources non renouvelables. Des techniques de reconnaissance et de tri permettent notamment désormais d’offrir une « seconde vie » à de nombreux produits,

Le déploiement d’une nouvelle économie sociale et solidaire intervient donc en parallèle ou en interaction avec celle de la gestion des déchets.

L’intégration d’une exigence écologique dans les trois domaines que sont la conception/production (mieux produire), l’utilisation (mieux consommer) et bien sûr la gestion de la fin de vie (mieux gérer nos déchets) de ces produits se traduisent de fait par des concepts de réutilisation, recyclage et valorisation des déchets.

Par quoi se caractérisent les déchets ?

Les sources de déchets sont multiples et doivent être définies pour mieux les gérer.

Le déchet peut notamment être caractérisé par son origine (déchet ménager ou relevant d’une activité économique), par le risque auquel il expose, s’il entraîne un danger ou pas.

Parallèlement, le recyclage ou la transformation du déchet donne à ce dernier une valeur économique qui ne doit pas être négligée. C’est le cas par exemple des déchets issus des emballages, des biodéchets, ou encore des combustibles solides de récupération composés de déchets dont a été extraite la fraction valorisable.

Un déchet sera dit « ultime » dès lors qu’au regard des techniques actuelles, il ne pourra être ni réutilisé ni valorisé.

Le tri des déchets, quelle que soit leur origine, est tout autant indispensable. En effet, un déchet dangereux au contact d’un non dangereux fera forcément de ce dernier un déchet dangereux.

La politique déchets

L’économie circulaire est fondée sur la préservation, la réutilisation et le recyclage des ressources.

L’Europe a institué un certain nombre d’exigences environnementales, la première se traduisant par le fait de ne plus considérer le déchet comme une substance dont on se défait, mais comme une ressource.

De même, le principe du pollueur-payeur a été étendu aux producteurs de biens pour le traitement de leurs produits une fois usagés.

Une hiérarchie des modes de traitement des déchets a par ailleurs été décidée afin de lutter contre le changement climatique par la mise en œuvre des meilleures technologies disponibles et l’optimisation des filières de traitement. Enfin, le développement des énergies renouvelables doit être favorisé par la valorisation de la partie biogénique des déchets.

La gestion des déchets en pratique

Une étude des meilleurs moyens techniques et économiques acceptable permettra à l’entreprise de tendre vers un niveau de gestion maximale de ses déchets en interne. Les solutions tiendront compte du tri et de la collecte et du déchet, puis de son stockage temporaire, en prévoyant des zones déchets spécifiques à chaque type de déchet. Enfin, le transport des déchets jusqu’au point de recyclage ou d’élimination devra tenir compte, lui aussi, des caractéristiques propres à chaque déchet, en fonction de sa nature.

Dans tous les cas, quelle que soit la destination finale des déchets, ils devront être pris en charge par des entreprises dûment autorisées et habilitées pour les opérations de valorisation ou d’élimination.

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 8 août 2024 !

Principes de gestion opérationnelle des déchets d’activités économiques, par Catherine VIALE

Les Français attendent plus d’engagements des entreprises

Les Français attendent des entreprises qu’elles changent en profondeur leur modèle économique. Selon le Baromètre 2024 de la consommation responsable, élaboré par GreenFlex et l’ADEME, seulement 36 % d’entre eux déclarent aujourd’hui faire confiance aux grandes entreprises, contre 58 % il y a 20 ans. 79 % des consommateurs estiment qu’elles ne doivent pas chercher la croissance économique à tout prix. Et ils sont 65 %, à estimer que cela passera par le fait de produire moins et non pas simplement autrement.

Des attentes fortes des entreprises

Selon l’enquête menée en ligne par le CSA du 28 février au 5 mars 2024, auprès d’un échantillon de 1 006 personnes représentatif de la population nationale française âgée de 18 ans et plus, les citoyens n’hésitent plus à dénoncer les mauvaises pratiques des entreprises. 28 % des sondés déclarent ainsi signer systématiquement ou régulièrement les pétitions en ligne qui dénoncent les entreprises ou les marques irrespectueuses de l’environnement, des droits humains ou encore de la santé des consommateurs, contre seulement 10 % en 2017. Et ils restent majoritairement convaincus (85 %) que les entreprises et les marques poussent à la surconsommation.

« Nous constatons, année après année dans ce baromètre, que les consommateurs somment les marques de se transformer : transformer leurs modèles d’affaires pour ne pas être uniquement dans la recherche de profit, transformer leur offre pour intégrer des critères de durabilité sur l’ensemble de leur chaîne de valeur, transformer leur communication pour ne pas sans cesse promouvoir la surconsommation », déclare Laure Blondel, directrice Conseil Marques, Produits et Consommation Responsables de Greenflex, en introduction de l’étude.

Les Français ont toutefois conscience que les choses ne changeront pas sur la base du simple volontariat. 82 % des consommateurs estiment donc que le gouvernement devrait contraindre davantage les entreprises à produire dans le respect de l’environnement et des travailleurs. Et cela pourrait passer par l’interdiction par l’État de la publicité pour les produits les plus polluants et néfastes pour la santé. 75 % des Français se prononcent en faveur de celle-ci. « Aujourd’hui, les citoyens déclarent faire le lien entre leurs achats et la préservation de l’environnement, se félicite Valérie Martin, cheffe du service mobilisation citoyenne et médias de l’ADEME, via communiqué. Pour autant, ils le disent clairement, ils ont besoin d’être accompagnés et c’est le rôle non seulement des pouvoirs publics, mais aussi des entreprises d’accompagner de manière pédagogique l’évolution des citoyens vers une consommation plus responsable. »

Le sentiment que les choses changent trop lentement

En 2014, 61 % des consommateurs pensaient que le respect de la nature allait s’améliorer dans les dix prochaines années. Mais ce délai étant écoulé, seulement 42 % estiment qu’il s’est effectivement amélioré. En plus, 77 % Français s’accordent à dire que « si on ne fait rien pour la planète, l’humanité va disparaître ». Et ils sont tout autant à juger que la solidarité s’est dégradée ces dix dernières années.

Mais tout n’est pas à jeter. 80 % des Français voient un renforcement des offres de seconde main, de location ou d’occasion. Selon eux, ce n’est pas un effet de mode, mais bien une pratique qui va perdurer et attendent que cette économie circulaire perdure dans le temps. « C’est aussi tout un modèle économique des organisations qui est à repenser, et ce, afin de dépasser un modèle linéaire fondé sur la vente en volume et la possession de produits, pour faire advenir un modèle circulaire fondé sur l’usage et le service. », prévient Valérie Martin.

« Il faut parvenir à créer un marché des matières premières de recyclage qui soit décorrélé des matières vierges »

Cinq d’entre eux regroupent des opérateurs de la gestion des déchets ; un autre des bureaux d’études spécialisés dans l’énergie et la gestion des déchets ; la FAMAD est un syndicat qui regroupe des fabricants de matériels de collecte, et enfin le dernier syndicat regroupe des constructeurs d’usines de traitement de déchets.

Cela représente au total 257 adhérents et près de 45 000 salariés.

Ainsi, la FNADE représente l’ensemble de la chaîne de valeur de la gestion des déchets, de la collecte à la valorisation – qu’elle soit organique ou énergétique – en passant par le tri et le recyclage. Sans oublier le stockage des déchets, dangereux ou non dangereux.

Muriel Olivier, Déléguée générale de la FNADE, a expliqué à Techniques de l’Ingénieur comment les acteurs des filières du déchet pouvaient s’appuyer sur la fédération pour plus de visibilité stratégique. En s’appuyant notamment sur les études menées par la FNADE, comme l’analyse prospective de la gestion des déchets à l’horizon 2050, l’étude sur l’impact de l’inclusion des UVE dans le système EU ETS, ou encore l’étude sur le modèle économique de la filière CSR.

Comment se structure le modèle économique des filières de gestion des déchets ?

Muriel Olivier : Le modèle économique de la filière de gestion des déchets se matérialise à travers les services réalisés pour le compte de producteurs de déchets, que ce soient des collectivités ou des entreprises. Il s’agit là des services de collecte et de traitement.

Muriel Olivier, Déléguée générale de la FNADE
Muriel Olivier, Déléguée générale de la FNADE.

D’autre part, nos adhérents ont un rôle de producteurs de matières premières de recyclage (papier, plastiques, etc …), de producteurs de fertilisants à partir de déchets organiques et producteurs d’énergie à partir de déchets résiduels.

L’équation économique des activités est donc à la fois liée à une activité de service auprès de producteurs de déchets, mais aussi une activité de vente de matière ou d’énergie, pour des consommateurs industriels ou agricoles ou des collectivités locales. L’économie de la filière dépend donc de l’équilibre qui est trouvé entre les charges liées à la collecte et au traitement des déchets, et les recettes générées par la vente de matières ou d’énergie.

Quels sont les principaux axes d’amélioration de la valeur économique des déchets ?

Le premier axe d’amélioration est lié à la production de matières ou de fertilisants : il faut parvenir à produire plus, produire mieux, et optimiser les recettes dans le cadre de la revente de ce que l’on produit.

A partir d’un déchet, on va donc chercher à améliorer la quantité et la qualité de ce que l’on produit, pour optimiser les recettes financières, qui contribuent à l’équilibre économique et au coût des prestations de collecte et de traitement des déchets.

Reprenons l’exemple des fertilisants. Comment sont-ils produits à partir de déchets ?

Il y a plusieurs sources de déchets qui permettent de produire des fertilisants. Aujourd’hui ces derniers sont produits principalement à partir de biodéchets, de boues, ce qui va permettre de vendre des fertilisants, et également de l’énergie, s’il y a eu méthanisation.

La vente de ces fertilisants a un coût très variable en fonction du besoin local en fertilisants. Et du contexte géopolitique : aujourd’hui, les engrais importés sont essentiellement produits à partir de gaz. Avec le conflit en Ukraine, leur prix a beaucoup augmenté suite à la hausse des prix du gaz, et cela a entraîné une très forte croissance de la demande en fertilisants issus de déchets, qui sont une véritable alternative pour les sols et les productions agricoles.

Cet exemple peut s’appliquer à d’autres matières premières de recyclage, pour lesquelles le marché est assez volatile : la valeur des matières produites à partir de déchets va dépendre de la disponibilité et du prix des matières auxquelles elles se substituent.

Revenons à la valeur économique des déchets. Quels sont les autres axes d’amélioration ?

Sur les matières premières de recyclage, un des axes d’amélioration est de parvenir à créer un marché qui soit décorrélé du prix des matières vierges. C’est notamment vrai pour les plastiques. Quand le marché des matières vierges chute, en lien avec la baisse du prix du baril de pétrole, le prix des matières premières de recyclage devient inférieur à leur coût de production. Tout l’enjeu consiste donc à avoir un marché des matières premières de recyclage qui soit décorrélé des matières vierges.

Par exemple, nous prônons des incitations à l’incorporation de matières recyclées dans les produits, voire même à une obligation à l’échelle européenne. Cela permettrait de créer une demande et un marché différencié de celui des matières vierges.

La directive plastiques à usage unique, qui oblige les producteurs de matières plastiques à incorporer de la matière première issue du recyclage dans leurs produits, qui entrera en vigueur en 2025, a d’ores et déjà entraîné l’apparition d’un marché, qui s’est créé de manière anticipée. Cela prouve l’efficacité de ce type de mesures.

Sur l’énergie, nous avons des recettes énergétiques, puisque nous vendons de la chaleur et de l’électricité. La chaleur va permettre d’alimenter des réseaux de chaleur urbains.

Quand nous livrons de la chaleur à des réseaux de chaleur urbains, l’énergie est vendue à un prix très compétitif, défini contractuellement et décorrélé du prix de l’énergie. Ce qui constitue un avantage compétitif quand le prix de l’énergie explose, comme on a pu le constater depuis le début de la guerre en Ukraine. Le prix de l’énergie que nous sommes en mesure de fournir, lui, ne varie presque pas, puisqu’il est lié uniquement à la chaîne de valeur de la gestion du déchet. Ce prix de chaleur intéressant bénéficie aux usagers et à la collectivité.

In fine, cette équation permet donc de diminuer le prix de la collecte et du traitement des déchets, et d’offrir un prix compétitif de l’énergie.

La performance se situe-t-elle toujours aujourd’hui sur les tonnages collectés ?

C’est le troisième axe d’amélioration, qui concerne les modalités contractuelles : nous avons des contrats de performance pour la collecte des déchets entre collectivités et opérateurs. La rémunération n’est donc aujourd’hui plus systématiquement liée au tonnage, puisque le but est de faire baisser ce dernier. Le rôle de nos entreprises adhérentes va donc de plus en plus consister à accompagner les collectivités locales, sur l’amont de la chaîne de valeur du déchet : la sensibilisation de l’habitant à la réduction, l’incitation au tri à la source, la collecte.

La FNADE a mené plusieurs études, dont une analyse prospective sur la gestion des déchets à l’horizon 2030. Quels en sont les enseignements ?

Nous avons fait une étude prospective d’orientation des flux de déchets, à horizon 2030 et 2050, en partant en partie des objectifs fixés par la loi AGEC et la LTECV. Ces objectifs, concernant la prévention et le recyclage, sont traduits dans les cahiers des charges des éco-organismes, et par la mise en place de nouvelles filières REP. Nous avons essayé, en nous appuyant également sur les retours d’expériences de l’ADEME sur la filière biodéchets, d’évaluer les flux supplémentaires orientés vers le recyclage en 2030.

Cette étude montre une orientation des flux, en 2010, de 30% vers l’élimination de déchets, à 10% en 2030 et à moins de 5% en 2050. Cela confirme la forte diminution d’activité des filières de stockage de déchets non dangereux.

On voit une augmentation de 3 millions de tonnes supplémentaires de déchets orientés vers la valorisation organique d’ici 2030. Sur les 100 kg de déchets organiques dans la poubelle d’ordures ménagères à l’heure actuelle, on va pouvoir d’ici 2030 détourner 40 kg vers le recyclage organique. On voit également une augmentation du recyclage avec des matières recyclées en substitution de matières vierges, soit 5,7 millions de tonnes supplémentaires d’ici 2050.

D’autre part, ce qui est montré dans cette étude est la production d’énergie renouvelable et de récupération en substitution d’énergies fossiles : à horizon 2030, ce sont plus de 30 TWh d’énergie thermique et de gaz qui pourront être produits à partir de déchets non recyclables, soit plus du double de ce qui est produit aujourd’hui. Il nous faut conserver nos capacités de valorisation énergétique, jusqu’en 2030, puis celle-ci va baisser par la suite, car le recyclage augmentera.

Les autres études que nous avons menées découlent de celle ci.

Quels sont les constats de l’étude que vous avez menée sur le modèle économique de la filière CSR ?

Il s’agit d’une étude que nous avons effectuée en 2015 et que nous avons mise à jour en 2023, en prenant en compte l’évolution du contexte économique. En effet, en fonction du prix de vente des énergies, nous n’obtenons pas du tout les mêmes résultats dans notre équation économique entre ce qui est facturé au client producteur de déchets pour collecter, produire du CSR puis produire de l’énergie à partir du CSR, et la chaleur ou l’électricité qui peut être vendue en sortie. En 2023, les prix de vente de l’énergie issue des déchets étaient plus compétitifs qu’en 2015. Mais le conflit en Ukraine a aussi entraîné une augmentation du coût des investissements, des réactifs pour traiter les fumées, entre autres… Il fallait donc remettre à jour ce modèle économique.

En amont, le coût de collecte et de traitement doit être compétitif par rapport au prix de marché de gestion des déchets. En aval, il faut que la chaleur produite soit compétitive avec celle produite à partir d’énergies fossiles comme le gaz. La question est donc de savoir dans quelle mesure, pour atteindre l’équilibre économique entre les recettes amont et aval, il est nécessaire de soutenir la filière. On a un prix de marché en amont, un prix de vente de la chaleur en aval que l’on ne peut pas dépasser. On peut ainsi en déduire le besoin de soutien pour que la filière puisse émerger et être viable économiquement.

Ce que l’on constate, c’est que les conditions pour la filière CSR sont plus favorables en 2023 qu’en 2015. En effet, la conclusion de l’étude en 2015 faisait état de la nécessité, pour la production de chaleur et d’électricité, de tarifs d’obligations d’achat sur l’électricité pour développer la cogénération sur la filière CSR. Lors de la mise à jour de l’étude en 2023, nous avons mis en évidence qu’uniquement avec des soutiens à l’investissement, il était possible de développer de la cogénération. C’est donc une situation beaucoup plus favorable qu’en 2015, qui laisse à penser que le pari de faire de la cogénération sur la filière CSR est un levier pertinent.

Enfin, pouvez-vous nous expliquer les enseignements tirés de l’étude concernant la potentielle inclusion de l’incinération dans le système d’échange de quotas carbone européen ?

Nous avons réalisé une étude d’impact sur l’inclusion d’unités de valorisation énergétique dans le système d’échange de quotas de CO2, un peu en anticipation d’une étude européenne dont le rapport sera rendu le 31 juillet 2026..

Nous voulions avoir une démarche objective sur l’impact de cette inclusion, d’un point de vue économique, mais également en termes d’émissions. Si on fait entrer les usines dans ce système de quotas CO2, c’est avant tout pour diminuer les émissions, il est donc pertinent d’évaluer l’efficacité de ces mesures.

Cette étude comprend deux volets : un volet benchmark sur les pays européens – La Suède et le Danemark – qui ont déjà leurs usines incluses dans le système d’échange de quotas de CO2. Quand on regarde ce qui se passe dans ces deux pays qui ont mis en place ces systèmes d’échanges depuis 2013, la première chose que l’on remarque est qu’ils ont toujours autant recours à l’incinération qu’en 2013. Concernant leur taux de recyclage, il n’y a pas d’évolution notable. Les faibles évolutions du recyclage sont, comme c’est le cas aussi en France avec la loi AGEC, liées à d’autres mesures.

Finalement, on se rend compte que la mise en place des systèmes d’échanges de quotas de CO2 n’a pas beaucoup d’impact sur l’orientation des flux de déchets dans ces pays.

Au-delà du peu d’impact sur l’orientation du flux de déchets, on remarque que cela crée des difficultés dans les contrats entre les collectivités et les opérateurs parce qu’il y a une très forte volatilité du prix du CO2, notamment depuis trois à quatre ans. Du coup la répercussion du prix des quotas dans les marchés est très difficile à anticiper.

Finalement, notre étude conclut que le système d’échange de quotas de CO2 est une solution disproportionnée et inadaptée pour réduire les émissions de CO2 fossile issues de ces unités de valorisation énergétique, qui ont deux fonctionnalités, ne l’oublions pas : la première étant celle de traiter du déchet. La seconde, c’est la production d’énergie mais contrairement à l’industrie, la filière déchet ne peut pas changer ses choix de combustibles, puisque son combustible est par définition le déchet qu’elle reçoit. C’est pour cela que nous estimons que ce système n’est pas adapté pour nos filières.

Ainsi, la FNADE propose le maintien des UVE dans le système de partage de l’effort et propose de réformer le mécanisme fiscal français (TGAP) pour intégrer une composante carbone dans la taxation des OMR (Ordures Ménagères Résiduelles), car elle constitue une évolution logique et souhaitable pour faire de la fiscalité un outil incitatif à la transition écologique.

Propos recueillis par Pierre Thouverez

Les déchets de maïs s’invitent dans les revêtements muraux

La Commission européenne prévoit une croissance régulière de l’utilisation de matériaux biosourcés dans toutes les industries. Dans cette perspective, CornWall est un nouveau revêtement mural intérieur destiné aux bureaux, commerces et hôtellerie. Il se présente comme une alternative au revêtement mural en céramique ou à d’autres matériaux composites tels que les panneaux stratifiés haute pression.

Fabriqué à partir de rafles de maïs, les épis dépouillés de leurs grains, il est imaginé par deux startups néerlandaises : FRONT (anciennement StoneCycling) et Circular Matters. Ces déchets organiques sont largement disponibles et généralement destinés à la combustion pour obtenir de la chaleur, la digestion en biogaz, ou la transformation en litière.

Un produit biosourcé à 99 % et à faible impact carbone

FRONT l’assure dans la déclaration de durabilité du produit : « Presque toutes les autres matières premières sont également fabriquées à partir de biomasse à croissance rapide. Seules de petites quantités de pigments et d’ingrédients de revêtement ne sont pas biosourcées. C’est ainsi que nous obtenons un pourcentage biosourcé supérieur à 99 %. Dès que nos fournisseurs de pigments et de revêtements disposeront de produits 100 % biosourcés, nous changerons immédiatement. »

L’intérêt réside aussi dans le faible impact carbone du produit. Pour avoir des chiffres précis, il faudra toutefois attendre sa déclaration environnementale de produit (EPD), que l’entreprise espère obtenir au troisième trimestre de cette année. Ce document réglementaire fournit des données sur l’impact environnemental des matériaux de construction.

Une production en Belgique avec des épis européens

CornWall est produit par Circular Matters dans un atelier à Anvers, en Belgique, grâce à un procédé de pressage. « En chauffant la matière organique jusqu’à 150°C, les polymères de la biomasse s’activent et forment des liaisons fortes, ce qui donne un produit final solide et stable, explique FRONT sur son site Internet. Ce processus de chauffage est électrique, alimenté par une énergie durable, principalement provenant de panneaux solaires situés sur le toit de l’installation de production. » Le toit de la ligne de production comprend ainsi 2 106 panneaux solaires générant environ 600 000 kWh d’électricité.

CornWall peut être fixé au mur sans colle. Ces systèmes de fixation démontables permettent aux clients de le réutiliser. « À l’avenir, nous envisageons de mettre en place un système de recyclage permettant le retour des produits en fin de vie, avance FRONT. Ces carreaux peuvent ensuite être meulés et transformés à 100 % en un nouveau produit ». La collection de base CornWall se prépare sous la direction créative et stratégique du Studio Nina van Bart. Elle comprendra une texture, huit couleurs et deux tailles (600*600*4 mm et 300*600*4 mm). D’autres textures haut de gamme suivront.

« Collecter des gisements diffus exige de pouvoir massifier les flux avant de les revaloriser »

Créée en 2005, Cèdre – Création d’Emplois Durables dans le Recyclage et l’Environnement – a développé des activités de tri sélectif, de collecte et de valorisation des déchets tertiaires pour les entreprises et les établissements publics et privés. L’entreprise est aujourd’hui leader en Ile de France de la collecte et du tri des déchets des entreprises et des administrations et revalorise jusqu’à 27 sortes de déchets de bureau différents valorisés dans leur filière.

Depuis le démarrage de son activité, Cèdre porte une double mission. A un objectif écologique de préservation des ressources naturelles, s’allie une mission sociale : permettre et favoriser l’accès à l’emploi de personnes en situation de handicap ou en difficulté sociale et les accompagner au long de leur parcours professionnel. Les effectifs comptent aujourd’hui 220 collaborateurs dont 58 % en situation de handicap.

Sarah Boissier, Directrice des programmes chez Cèdre, a expliqué à Techniques de l’Ingénieur comment l’entreprise opère pour valoriser au mieux les différents types de déchets collectés et traités.

Techniques de l’Ingénieur : Quelle est la particularité de travailler sur des gisements diffus de déchets ?

Sarah Boissier : Notre métier est d’abord un métier de planification et de gestion de tournées de collecte, dans un métier fortement réglementé, avec les enjeux inhérents. Il nous faut rouler le moins possible et faire adopter les gestes d’éco-conduite à nos chauffeurs. Nous utilisons un outil d’optimisation de tournées et tous nos véhicules sont géolocalisés.

Par ailleurs nous avons trois sites en Ile de France qui nous permettent de mailler efficacement le territoire et de collecter toujours à moins de 30 km d’un de nos centres de tri. L’ouverture d’un quatrième site est en ce moment à l’étude.

Ensuite, nous monitorons de près notre empreinte carbone, et celle-ci est fortement liée aux émissions de notre flotte. Nous avons passé l’année dernière l’intégralité de notre flotte poids lourds au bio-carburant (B100), les véhicules légers roulent au GNV ou en électrique. L’ensemble de ces actions nous ont permis de baisser de moitié nos émissions et de contraindre nos coûts d’exploitation.

En outre, nous portons les aspects réglementaires auprès de nos clients, notamment en ce qui concerne la traçabilité des déchets. Chez Cèdre nous reposons sur une collecte totalement digitalisée via le scan de QR codes présents sur nos bacs ou nos sacs.

Enfin, collecter des gisements diffus exige de pouvoir massifier les flux avant de les revaloriser, car in fine tout est une affaire de volume.

Quel est le modèle d’affaires ?

Historiquement, nous avons deux sources principales de revenus : nous facturons la collecte à nos clients sur un principe forfaitaire basé sur le nombre de passages et le nombre de déchets collectés.

Ensuite, pour certains flux (papier, D3E, métal…), la matière nous est rachetée. Le prix est basé sur des cours matières et varie selon plusieurs paramètres. En tant que collecteur trieur, nous avons la main sur certains de ces paramètres : qualité du tri et donc pureté du flux (nous trions le papier blanc par exemple qui est racheté plus cher), profondeur du tri (un équipement D3E comporte plusieurs matériaux, plus celui-ci est démantelé et trié, plus il est possible d’en retirer de la valeur).

Mais sur d’autres, nous subissons les sursauts du marché, ce qui rend le modèle parfois fragile. D’autant plus que les tonnages de papier collectés – qui représente le déchet historique – baissent d’année en année.

Nous avons entrepris depuis plusieurs années une démarche de diversification et avons lancé de nouvelles activités, complémentaires et génératrices de nouvelles marges : par exemple, une cellule conseil pour accompagner nos clients dans la réduction des déchets non recyclés, la mise en place de collaborateurs Cèdre « in situ » chez nos clients ou bien des opérations ponctuelles d’évacuation d’encombrants et de déchets de chantiers, ou encore le recyclage des EPI et du textile via notre filiale Triethic.

Quels sont les enjeux qui sous-tendent ce modèle ?

En tout premier lieu, nous devons avoir les moyens de massifier nos flux, ce qui implique de l’espace et des investissements importants dans le compactage. Il est également essentiel d’être constamment en veille sur les nouvelles filières de recyclage qui émergent : nous sommes toujours très vigilants sur le choix de nos exutoires. Collecter un nouveau déchet n’a d’intérêt que si son recyclage effectif est assuré.

Ensuite, le tri à la source effectué par nos clients est un axe fort et historique chez Cèdre. Nous souhaitons que la responsabilité du tri repose sur la personne qui génère le déchet. C’est important en termes de pédagogie et cela nous permet de concentrer nos collaborateurs sur des tâches à plus forte valeur ajoutée. Nous investissons beaucoup dans ce domaine car la mise en œuvre d’une économie circulaire n’est possible que si tous les acteurs de la chaîne de valeur sont impliqués. Sur ce point, nos clients ont besoin d’être accompagnés. C’est également une demande forte de la part des collaborateurs, un environnement de travail sain et durable est un des axes des stratégies RSE.

Concrètement, nous avons développé et breveté la Fresque des déchets tertiaires – un atelier délivré en présentiel – et plus récemment un programme digital de sensibilisation et d’auto-formation comprenant des vidéos, des quiz et de nombreux jeux interactifs co-développés avec LaFaBriQ’, centre de formation certifié Qualiopi, créateur d’expériences d’apprentissages interactives et personnalisées sur des thématiques liées à la RSE en lien avec les Objectifs de Développement Durable.

Aussi, il nous faut aller vers une gestion de plus en plus fine de la matière : entreprendre du démantèlement fin, notamment sur les déchets D3E, ou même aller jusqu’au broyage de certaines matières, ce que nous faisons déjà avec le papier confidentiel, les disques durs et les casques de chantier.

Enfin, et c’est fondamental, il y a un enjeu majeur lié à la nécessité de promouvoir une économie plus circulaire, et donc de favoriser les boucles de réemploi avant la boucle de recyclage. C’est un vrai changement de paradigme dans notre métier. Nous nous y engageons, bien sûr et nous considérons que c’est une grande opportunité pour notre modèle social car c’est une activité créatrice d’emploi.

Les filières se créent, portées notamment par l’émergence de plateformes de réemploi, dans les matériels informatiques ou le mobilier. Ces startups de la tech attirent des fonds, c’est tant mieux pour le secteur ! Cependant les modèles économiques sont encore fragiles sur les activités de réparation, de reconditionnement et les investissements manquent encore pour asseoir la filière dans le temps.

Propos recueillis par Pierre Thouverez

La Mecanic Vallée s’empare du sujet de la décarbonation

Selon Damien Poyard, président de Mecanic Vallée, la décarbonation est le sujet le plus abordé lors des réunions mensuelles du cluster, avec les problématiques de recrutement : « Près de 30 % des industriels de la Mecanic Vallée se sont déjà engagés dans la réalisation d’un bilan carbone ».

Le rôle de la Mecanic Vallée

La Mecanic Vallée représente plus de 12 000 emplois, répartis dans trois secteurs d’activité en mécanique : l’aéronautique, l’équipement automobile et le secteur de la machine-outil.

En tant que Système Productif Local (SPL) labellisé par l’administration française¹, la Mecanic vallée a pour objectif de promouvoir l’industrie mécanique locale et d’assurer la compétitivité des entreprises des territoires concernés.

Elle constitue par ailleurs un lieu d’échanges et d’animation et favorise la coopération entre industriels de la mécanique, par la mise en commun de moyens, le développement de synergies, de nouvelles compétences et la recherche de marchés.

La Mecanic Vallée accompagne les industriels du sud-Ouest dans leur décarbonation

Véritable porte d’entrée pour les entreprises du territoire qui veulent s’engager dans la décarbonation, la Mecanic Vallée met en relation les acteurs publics et privés autour de ces questions.

La Mecanic Vallée intervient par ailleurs dans le cadre des appels à projets du plan France 2030, en aidant les entreprises dans le montage des dossiers de financement et sur la partie ingénierie.

Concrètement, le cluster accompagne ces acteurs locaux sur de multiples thématiques de décarbonation, comme le montage de stations à hydrogène permettant de faire circuler les futurs poids lourds à hydrogène ou la pose d’ombrières photovoltaïques.

Les acteurs locaux du domaine de l’aéronautique sont par ailleurs très actifs sur les questions de décarbonation. Par exemple, le spécialiste des aérostructures et pièces métalliques Figeac Aéro compte prochainement se doter d’une solution SaaS permettant de « monitorer le carbone de toutes ses usines ».

Ratier Figeac, autre grand nom de la Mecanic Vallée et premier fabricant mondial d’hélices pour avions de transport civils et militaires, travaille de son côté à la valorisation des déchets, notamment d’acier et d’aluminium, mais aussi à la performance énergétique de ses bâtiments (isolation, toitures, chaudières, etc.).

La décarbonation est en marche dans l’industrie mécanique, à tous les niveaux

Mecanic Vallée intervient également au niveau territorial. Lors de l’édition 2023 du salon des partenaires de l’industrie du grand sud (SIANE), Minoï Marchand, chargée de mission territoire d’industrie pour la Mecanic Vallée, déclarait ainsi : « L’écologie industrielle territoriale est en train de se démocratiser. On peut y intégrer la thématique de la décarbonation et le fait de mettre en réseau tous les acteurs de la décarbonation au sein d’une collectivité, afin d’échanger les bons procédés, les bonnes méthodes et les bons outillages. »

Enfin, au niveau national, les choses évoluent aussi et la Mecanic Vallée n’est pas le seul acteur du secteur à s’engager pour la décarbonation de l’industrie mécanique. Lors du salon Global Industrie 2024, Mecallians, la bannière commune de l’industrie mécanique française², créée en 2023, a ainsi publié un guide de la décarbonation qui s’adresse à l’ensemble des industries manufacturières.

Basé sur une démarche en cinq étapes, celui-ci propose des conseils pragmatiques et opérationnels, sous forme de fiches destinées à être enrichies avec le temps.


¹ Labellisé en 1999 par la DATAR, un organisme depuis remplacé par l’ANCT (Agence Nationale de la Cohésion des Territoires)

² Mecallians réunit la FIM (Fédération des Industries Mécaniques), le CETIM et l’UNM (Union de Normalisation de la Mécanique)

Valorisation des déchets : 50 ans d’histoire

La responsabilisation des industriels quant à la gestion des déchets inhérents à leurs activités, en France, est jalonnée par de nombreuses lois, dont la première, fondamentale, est mise en place en 1975. En effet, la directive-cadre européenne du 15 juillet 1975 a donné naissance à la première loi française sur la gestion des déchets. Celle-ci définit le déchet comme un « résidu d’un processus de production, de transformation ou d’utilisation, toute substance, matériau, produit ou plus généralement tout bien meuble abandonné ou que son détenteur destine à l’abandon ». Cette nomenclature va devenir une boussole pour la mise en place de toutes les lois sur le traitement des déchets qui vont voir le jour par la suite. 

Suite à l’adoption de cette loi, les collectivités locales ont la responsabilité de la prise en charge de la collecte, du transport et du traitement des déchets ménagers. Aussi, cette loi précise que « toute personne qui produit ou détient des déchets (…) est tenu d’en assurer ou d’en faire assurer l’élimination (…) », en assurant notamment « la collecte, le stockage, le tri, et les traitement nécessaires à la récupération des éléments et matériaux réutilisables ou de l’énergie ». Ce qui constitue concrètement l’apparition de la notion de pollueur-payeur.

Près de 17 ans plus tard, la loi du 13 juillet 1992, dite loi Royal, instaure pour de bon le principe du pollueur-payeur, et marque un virage décisif dans les modes de gestion des déchets. D’abord en renforçant les principes édictés par la loi de 1975, mais surtout parce qu’elle oblige les entreprises à recycler leurs déchets. A partir de là, seuls les déchets ultimes sont autorisés à entrer en décharge, selon des règles de plus en plus contraignantes, et les transports de matière sont limités en distance et en volume, avec pour but de contraindre les entreprises à limiter par elles-mêmes leur production de déchets. La loi du 13 juillet 1992 instaure aussi pour la première fois le principe de responsabilité élargie des producteurs, qui donnera naissance dans les décennies suivantes à de nombreuses filières REP dans différents secteurs industriels. Avec l’obligation, pour chaque entreprise, d’assumer la gestion des déchets qu’elle produit, même dans le cas où ces derniers sont traités par un tiers. 

Lors du Grenelle de l’environnement, les lois dites Grenelle 1 et 2 vont renforcer les dispositions des lois précédentes, tout en fixant de nouveaux objectifs, sur trois points : 

  • Le renforcement de la réduction à la source des déchets par des actions de prévention ; 
  • Améliorer le recyclage de la matière et des déchets organiques ;
  • Réduction de la quantité de déchets partant incinérés ou stockés.

Ce volontarisme fait alors l’objet d’objectifs chiffrés : réduction de 7% de la production d’ordures ménagères avant 2014, diminution de 15% des quantités incinérées, et, entre autres, arriver à 75% de recyclage des emballages ménagers et des déchets des entreprises d’ici à 2012.

La loi 2 du Grenelle ajoute à ces ambitions de nouveaux objectifs, propres à toutes les industries émettrices. Celui de la construction, secteur de loin le plus émetteur, voit la mise en place du diagnostic “déchets de démolition ou réhabilitation” et le renforcement des obligations relatives à la collecte, à la valorisation et à la mise en place d’installations de stockage des déchets inertes. 

Enfin, plus près de nous, la loi AGEC est venue renforcer le principe des filières REP et en créer de nouvelles, pour le traitement des véhicules hors d’usage par exemple, avec la mise en place d’éco-organismes ou de structures individuelles. La majorité des filières REP font appel à des éco-organismes, auxquels elles versent des cotisations financières ayant pour finalité la mise en place de la collecte, du tri et de recyclage de leurs produits en fin de vie. 

Ainsi, la loi a, depuis près de cinquante ans, amené les entreprises à se responsabiliser quant au cycle de vie de leurs produits, en adaptant la législation, au fur et à mesure, aux spécificités de chaque produit, au regard de sa recyclabilité et de son impact sur l’environnement. 

Recyc’Elit : le recyclage textile à l’aube d’une nouvelle ère

Alors qu’elle s’apprête à franchir le stade pilote, et a déjà noué des partenariats avec de grands noms de l’industrie textile tels que Decathlon, la jeune pousse vise désormais l’échelle industrielle, qu’elle espère atteindre au plus tard en 2028. Après avoir recruté il y a peu son directeur industriel, Recyc’Elit[1] cherche ainsi à attirer d’autres nouveaux talents, en tête desquels des techniciens de production et des ingénieurs procédés. Forte d’une équipe composée pour l’heure d’une douzaine de personnes, l’entreprise incubée par Pulsalys depuis 2022 ambitionne en effet de porter ses effectifs à une vingtaine de salariés d’ici la fin de l’année, avant de multiplier encore ce chiffre par deux, voire trois, à l’occasion du lancement de sa phase d’industrialisation. Rencontre avec son D.G. et co-fondateur, Raouf Medimagh, qui revient pour Techniques de l’Ingénieur sur la genèse de Recyc’Elit, et sur ses ambitions.

Recyc’Elit
Les frères Medimagh sont à l’origine de la création de Recyc’Elit. © Recyc’Elit

Techniques de l’Ingénieur : Vous avez co-fondé Recyc’Elit il y a quatre ans environ avec votre frère Karim. Qu’est-ce qui vous a amenés à vous lancer dans ce projet ?

Raouf Medimagh : J’étais, au départ, professeur des universités en Tunisie, où je travaillais sur des sujets tout à fait différents de celui du recyclage chimique. Mon frère était quant à lui entrepreneur en région lyonnaise. Le premier élément déclencheur de notre prise de conscience et de notre réflexion sur ce sujet du recyclage chimique a été l’interdiction par la Chine de l’import de déchets plastiques sur son territoire à la fin de l’année 2017. Dans le cadre de ses activités entrepreneuriales, Karim était d’autre part un membre actif d’Axelera, le pôle de compétitivité français de référence dans le domaine de la chimie, des industries de procédé et de l’environnement. Moteur sur de nombreux sujets, ce pôle avait ainsi organisé une journée technique au cours de laquelle a été dressé un état des lieux du recyclage de plastiques en Europe suite à ce ban des importations par la Chine. Si des solutions existaient pour le recyclage des bouteilles, des problèmes s’annonçaient pour les plastiques composites ou colorés… Une issue était alors envisagée : le recyclage chimique. C’est à ce moment-là que mon frère a attiré mon attention sur le sujet. Nous avions en effet depuis longtemps l’envie de mener un projet ensemble, qui puisse contribuer à la protection de l’environnement.

Je me suis donc penché sur les solutions disponibles à l’époque en matière de recyclage chimique des plastiques, et j’ai constaté que la plupart d’entre elles étaient basées sur des approches à haute température et haute pression. La question de l’énergie n’était certes, à l’époque, pas encore aussi prégnante qu’aujourd’hui, mais je me suis malgré cela lancé dans le développement d’un procédé plus « doux », moins énergivore, plus éco-responsable, en travaillant sur une approche à plus faible température et à plus basse pression.

Ce travail a abouti au dépôt d’un premier brevet en 2019, qui posait alors les bases du futur procédé que met aujourd’hui en œuvre Recyc’Elit : un procédé dit de « méthanolyse », faisant appel à une formulation bien particulière, associant un jeu de bases en quantité catalytique par rapport au PET et au méthanol. Il s’agissait alors du premier procédé au monde de recyclage chimique fonctionnant à température ambiante et pression atmosphérique.

J’ai, pour ma part, officiellement rejoint l’entreprise en 2020, au moment de l’arrivée du COVID… L’année suivante, 2021, a par ailleurs été l’occasion d’une série d’annonces de projets d’usines de recyclage chimique en France. Nous avons donc commencé à nous poser des questions quant à notre compétitivité potentielle face à des géants tels qu’Eastman et son usine qui s’annonce comme la plus grande au monde… Nous avons alors pris parti d’évaluer l’efficacité de notre technologie sur des gisements de déchets que les autres acteurs n’étaient pas en mesure de traiter. C’est ainsi que, début 2022, nous nous sommes tournés vers le gisement des déchets textiles complexes. Beaucoup d’entre eux sont en effet en partie composés de la même matière que la plupart des bouteilles : le PET[2], ou polyester.

Nous avions déjà des contacts avec certains retailers, qui nous avaient justement demandé de tester notre procédé sur des textiles. Pour être tout à fait honnête, lorsque j’ai mené mes premiers tests sur un mélange polyester-élasthanne, je ne m’attendais pas du tout aux résultats que nous obtenons aujourd’hui… Je pensais en effet que notre procédé aboutirait à une dépolymérisation du polyester et de l’élasthanne. Or, ce ne fut pas le cas ! Contre toute attente, notre procédé s’est révélé sélectif, en n’entraînant la dépolymérisation que du polyester, et en permettant ainsi la récupération de l’élasthanne[3] sous forme tissée. Comme souvent en sciences, la découverte a vraiment été le fruit du hasard !

Recyc’Elit
La technologie mise au point par Recyc’Elit se révèle sélective. Elle permet ainsi de cibler spécifiquement le PET, et de créer une boucle fermée « textile-to-textile ». © Recyc’Elit

À partir de là, nous avons commencé à expérimenter sur d’autres compositions textiles : polyester-nylon, polyester-coton… Le monde du textile est un univers très vaste, plus encore que celui des plastiques au sens strict. C’est ce qui nous a amenés à mettre finalement en œuvre un pivot stratégique vers ce marché du recyclage de déchets textiles complexes. Cela nous semblait en effet répondre à deux besoins essentiels, à commencer par celui des fabricants de textiles, qui font face à une pression sociétale et réglementaire grandissante pour trouver des solutions de traitement de leurs produits en fin de vie. En permettant de récupérer cet élasthanne intact, en plus du polyester dépolymérisé, notre solution nous est aussi apparue comme un moyen de créer un nouveau modèle économique autour de la valorisation de cette autre matière, ce qui n’est pas le cas des technologies concurrentes : même quand il n’est pas totalement décomposé, l’élasthanne ressort de ces procédés conventionnels avec des propriétés mécaniques dégradées, qui ne permettent pas sa revalorisation. La matière devient donc un déchet ; et qui dit déchet, dit impact environnemental et pertes économiques…

Nous avons, quant à nous, prouvé à l’échelle du laboratoire que la revalorisation de l’élasthanne récupéré via notre procédé est possible. C’est un sujet sur lequel nous poursuivons nos travaux de R&D, parallèlement au travail de montée en échelle que nous menons autour de notre procédé de recyclage chimique à proprement parler.

Quel est justement, à l’heure où l’on se parle, le niveau de maturité de votre procédé de recyclage chimique ?

Cela fait quatre ans que Recyc’Elit est active, ce qui, dans l’absolu, reste assez peu dans la vie d’une start-up. Nous avons malgré tout beaucoup avancé sur le développement de notre procédé, que nous nous apprêtons aujourd’hui à faire monter en échelle. Nous avons pour cela recruté il y a peu un directeur industriel, ancien responsable de site d’une grande entreprise de la chimie. Nous prévoyons tout d’abord le lancement d’un démonstrateur, début 2025.

Nous avons aussi identifié le besoin de certains de nos partenaires d’aller encore plus vite, et de commencer à produire dès maintenant. C’est pour cela que nous investissons également dans un pilote intermédiaire sur skid, d’une capacité de cent litres environ, qui sera opérationnel d’ici quelques mois. Cet équipement va nous permettre d’entamer notre scale-up, avec une capacité annuelle lissée d’environ une tonne. Cela va aussi nous permettre d’acquérir de l’expérience avant l’arrivée du démonstrateur que j’évoquais, en 2025. Ce deuxième outil industriel va quant à lui nous permettre deux choses : d’une part commencer à produire des quantités industrielles – de l’ordre de quelques tonnes – d’une matière première recyclée qui sera alors traitée par nos partenaires re-polymérisateurs ; et d’autre part nous permettre ainsi de fournir à nos partenaires industriels du textile des échantillons représentatifs qui leur permettront la réalisation de collections capsules. Ces collections, limitées dans le temps et en quantités, seront un moyen pour eux de tester le marché, et de faire des benchmarks. Sur la base de tout ce travail de R&D, de production et de tests, nous devrions ainsi avoir une idée précise de notre future usine, que nous comptons faire sortir de terre à l’horizon 2028.

Vous évoquiez la présence d’industriels du textile parmi vos partenaires… Vous avez justement rendu publique le 15 mai dernier la signature d’un accord avec l’une des figures de proue du secteur, Decathlon. Quelles sont les origines de ce partenariat ?

Nous nous sommes rencontrés à plusieurs reprises lors d’évènements organisés ces derniers mois, notamment par Refashion[4]. Nos échanges ont ainsi commencé il y a un an et demi environ. Decathlon avait déjà défini en interne sa feuille de route en matière de durabilité, qui prévoit notamment un sourcing de matières premières plus responsable et décarboné. Nos visions se sont donc naturellement alignées. D’autant plus que les bouteilles utilisées jusque-là comme matière première secondaire pour la fabrication de textiles polyesters, se destinent aujourd’hui de plus en plus à un recyclage en boucle fermée, bottle-to-bottle… Decathlon comme les autres acteurs du secteur n’auront donc, demain, plus qu’une source possible de matière première secondaire : le textile. L’entreprise a ainsi décidé de s’engager dans cette logique textile-to-textile. Notre solution de recyclage chimique leur est apparue d’autant plus pertinente que leurs produits sportswear sont principalement faits de textiles complexes composés de polyester associé à de l’élasthanne notamment, ou encore à du polyamide et à du coton.

Decathlon nous a ainsi d’abord challengés sur un premier projet-test, avant de confirmer son engagement dans ce partenariat que nous avons annoncé à la mi-mai. Nous en sommes très heureux car nos valeurs s’alignent également sur le plan humain.

Qu’implique, très concrètement, la signature de ce partenariat ?

Ce partenariat comprend une entrée de Decathlon au capital de Recyc’Elit, ainsi qu’un contrat commercial d’une durée de trois ans, qui pourrait être étendu lorsque nous nous approcherons de la phase d’industrialisation que j’évoquais. Decathlon va ainsi en quelque sorte « catalyser » notre feuille de route. De notre côté, nous lui apportons une solution de traitement de textiles complexes, tout en lui donnant accès à ces matières premières recyclées. Il s’agit d’un vrai travail d’équipe, en adéquation finalement avec les valeurs sportives portées par notre partenaire.

Decathlon pourrait-il éventuellement aussi constituer pour vous une source d’approvisionnement en textiles complexes en fin de vie ?

L’entreprise s’est effectivement engagée dans la voie du take-back, c’est-à-dire de la reprise de textiles usagés en magasin. Il s’agit d’ailleurs d’un modèle testé par de nombreux acteurs du secteur. Ceci étant dit, on ne peut pour l’instant pas garantir que ce modèle s’imposera. Il est trop tôt pour en juger. Decathlon a en tout cas été précurseur dans ce domaine, avec des tests déjà menés dans certains de ses magasins en Belgique par exemple, où la marque avait d’ailleurs inversé son nom pour l’occasion ! Malgré tout, les choses ne pourront se mettre en place durablement que grâce aux consommateurs eux-mêmes.

Pour assurer notre approvisionnement, nous comptons ainsi d’abord et avant tout nous rapprocher des usines de tri de textiles post-consommation, à l’image de la ligne pilote lancée il y peu par Nouvelles Fibres Textiles, ou d’autres encore en Europe. Nous avons tout intérêt à travailler main dans la main avec ces acteurs-là, car ce sont eux qui, demain, fourniront l’essentiel de la matière traitée par Recyc’Elit. Nous serons également, en retour, un exutoire indispensable pour eux, qui permettra d’éviter l’export de ces matières, vers l’Afrique par exemple, comme c’est le cas aujourd’hui.

Les textiles complexes sans solution de recyclage représentent aujourd’hui un gisement de plusieurs millions de tonnes à l’échelle de l’Europe. Nous aurons donc fort à faire dans les années à venir !

La tendance est aussi à l’interdiction d’un nombre croissant de substances, telles que les PFAS, aujourd’hui largement utilisés dans le secteur textile… Notre technologie de recyclage chimique sera ainsi également synonyme de sécurité sur ce plan, en fournissant une matière première recyclée vierge de tout additif.

Recyc’Elit, une start-up engagée dans de nombreux projets innovants

Après avoir contribué aux projets AURAreFIL et SOFTDEPET, aujourd’hui achevés, Recyc’Elit s’est récemment engagée dans le projet CASTTOR. Co-financé par l’État dans le cadre de France 2030 et par l’UE, ce projet opéré par l’Ademe et porté par Recyc’Elit vise le développement du démonstrateur de la jeune pousse. « Nous menons ce projet avec un budget global de plus de 3 M€ et avec l’appui de plusieurs partenaires : De Dietrich Process Systems, Axel’One et l’Institut français du textile et de l’habillement (IFTH), qui vont ainsi nous aider à lever les derniers verrous », dévoile Raouf Medimagh. En parallèle, la start-up lyonnaise s’est également lancée il y a quelques semaines dans le projet européen SOLSTICE, porté par Axel’One. « Le projet regroupe plus d’une vingtaine de partenaires. Ensemble, nous visons ainsi le développement de chaînes de valeurs complémentaires de recyclage de différents polymères, en les amenant jusqu’à la phase de démonstrateur à grande échelle », explique Raouf Medimagh. De quoi préfigurer une véritable filière toute entière dédiée au recyclage des déchets textiles complexes, du tri optique au recyclage chimique.


[1] Recyc’Elit

[2] Polytéréphtalate d’éthylène

[3] Élasthanne qui s’avère un perturbateur pour les procédés conventionnels de recyclage mécanique, n.d.l.r., voir en page 16 de ce rapport pour plus d’explications.

[4] Éco-organisme de la filière textile.

Bilan CHOOSE France 2024 : la liste des 56 projets

Nous vous en parlions déjà dans un précédent article : cette 7e édition du sommet Choose France a été un succès, puisqu’elle a engendré des investissements étrangers records.

Nouvelles technologies et IA

La France a la volonté de s’affirmer comme un leader de l’IA dans le monde. Depuis 2018, de nombreux grands noms ont d’ailleurs choisi la France pour implanter ou renforcer leurs laboratoires sur l’IA : Alphabet, Cisco, Fujitsu, IBM, Intel, Meta, etc.

Sept nouveaux projets viennent d’être annoncés, avec des montants parfois très importants, dont :

  • 4 milliards du côté de Microsoft, notamment pour « l’extension de son infrastructure cloud et IA en France avec l’expansion de ses sites à Paris et Marseille qui doteront le pays d’une capacité allant jusqu’à 25 000 GPU » ;
  • 1,2 milliard pour Amazon et 3 000 emplois en CDI, qui permettront de « soutenir le développement des capacités françaises en matière d’intelligence artificielle et d’informatique en nuage » ;
  • 1 milliard pour Telehouse, le leader mondial des data centers à forte connectivité, dans le but de « construire et d’opérer trois nouveaux data centers écoresponsables en régions sud et Île-de-France avec la création potentielle de 100 emplois » ;
  • 630 millions d’euros pour Equinix, qui compte poursuivre les investissements déjà annoncés à Choose France 2022 et ouvrir son 11e data center français en 2024.

Sur les 15 milliards prévus, la moitié sera ainsi consacrée aux datacenters, au cloud, à l’informatique quantique et au développement de l’IA, des briques essentielles à l’essor de l’industrie 4.0.

Environnement et décarbonation

La France est l’un des leaders en matière de décarbonation. Cette année, onze entreprises ont décidé d’investir en France sur des sujets liés. La liste comporte aussi bien des opérateurs, producteurs et fournisseurs d’énergie (ACCIONA ENERGIA, EnBW, Nature Energy), que des industriels, notamment :

  • IVECO – production de bus électriques à hydrogène ;
  • HOLCIM – multiples actions en faveur de la décarbonation (capture du CO2, valorisation des déchets du BTP, etc.) ;
  • RIVA – électrification des process de recyclage des aciers.

Par ailleurs, SOLVAY a annoncé vouloir lancer prochainement la première phase d’une unité de production à grande échelle d’oxydes de terres rares pour la production d’aimants permanents dès 2025, sur son site de La Rochelle.

Mobilité verte

La France souhaite intégrer un maximum de composants de la chaîne de valeur de la mobilité verte, tous transports confondus : automobile, aéronautique, maritime et ferroviaire. Dans le domaine maritime, le danois DFDS compte ainsi investir un milliard d’euros dans l’électrification de ses ferries.

Plusieurs projets concernent d’ailleurs la production de batteries :

  • ENCHEM – production d’électrolytes sur le port de Dunkerque ;
  • HUNAN CHANGYUAN LICO – production de matériaux actifs de cathode ;
  • KL1 AG – projet EMME, dédié à la conversion du nickel et du cobalt ;
  • NIDEC et SKELETON TECHNOLOGIES – production de systèmes de stockage par batteries, essentiels à l’intégration des ENR et à la recharge des véhicules.

Plusieurs acteurs aéronautiques comptent aussi investir en France dans le domaine aéronautique :

  • LILIUM – discussions concernant l’ouverture de sites de production d’avions à décollage et atterrissage vertical entièrement électrique (eVTOL) ;
  • LEONARDO – poursuite de l’étude du concept d’avion hybride électrique ATR EVO dont l’entrée en service est prévue pour 2030.

Autres domaines

Des investissements ont aussi été annoncés dans des secteurs divers, dont neuf dans le domaine de la santé, afin de moderniser notre industrie et assurer une production française de médicaments.

Difficile de citer l’ensemble des investisseurs tant ils sont nombreux ! Si vous souhaitez une vue d’ensemble, le dossier de presse contenant la liste complète des 56 projets est disponible sur le site de l’Élysée.

Changement climatique : l’impact des HCFC diminue, celui des protoxydes d’azote augmente

Le terme « gaz à effet de serre » fait immédiatement penser au CO2, ce gaz étant considéré comme responsable des deux tiers de l’effet de serre provoqué par l’homme. Mais, des gaz à effet de serre, il en existe bien d’autres.

En seconde position vient le méthane (CH4) émis principalement par l’élevage et les processus de fermentation. La troisième position revient au N2O, ou protoxyde d’azote, un composé directement lié à l’agriculture (engrais azotés et effluents d’élevage) et dont les émissions sont en hausse depuis 1980.

Enfin, cette grande famille comporte également d’autres gaz, tout aussi « dangereux », mais émis en plus faibles quantités, en particulier les gaz chlorés et fluorés (HCFC, HFC, CFC, etc.).

La bonne nouvelle : la disparition progressive des HCFC porte ses fruits

Les HCFC ont commencé à être utilisés dans les systèmes de réfrigération et de climatisation à partir des années 1970, en remplacement des CFC, suite à la découverte[1] de l’effet destructeur de ces derniers sur la couche d’ozone.

Cependant, si les HCFC ont moins d’impact sur la concentration d’ozone stratosphérique, ils ont un effet destructeur important. Le protocole de Montréal, signé en 1987, a ainsi acté l’élimination progressive de ces substances. Pour les pays développés, celle-ci a commencé en 1996, avec une élimination totale prévue en 2030. Pour les pays en voie de développement, cette échéance est prévue d’ici 2040.

De ce point de vue, le papier qui vient d’être publié dans la revue Nature Climate Change apporte un éclairage positif sur cette interdiction. En effet, le forçage radiatif des HCFC, c’est-à-dire leur contribution au réchauffement climatique, semble bien avoir amorcé sa diminution dès 2021, avec 5 ans d’avance par rapport aux prévisions !

S’il faut encore 40 ans pour que la couche d’ozone retrouve son niveau d’avant 1980, cela reste néanmoins un signal positif.

La mauvaise nouvelle : les émissions de N2O toujours en hausse

Selon une autre étude, conduite par 58 chercheurs internationaux et publiée dans Earth System Science Data, ce gaz à effet de serre 300 fois plus puissant que le CO2 serait responsable de 6,4 % du forçage radiatif, depuis l’ère préindustrielle.

Avec des milliers de mesures à l’appui, l’étude démontre surtout que les émissions de N2O liées aux activités humaines ont explosé depuis 1980 (+ 40 %), avec un record d’émission avoisinant les 40 millions de tonnes en 2020.

Ces chiffres sont d’autant plus problématiques qu’il faudrait faire l’inverse : diminuer les rejets d’au moins 20 % d’ici 2050 si nous voulons respecter les 1,5 °C de l’accord de Paris !

L’agriculture pointée du doigt : quelles actions mettre en place ?

Ce n’est pas une surprise, la principale source d’émission anthropique de protoxyde d’azote est l’agriculture et notamment l’utilisation massive de produits azotés : engrais chimiques, lisier, fumier.

Mais au-delà du simple constat, est-il possible de réduire les émissions agricoles de N2O et aussi de CH4, sans réduire la productivité ? Des pistes existent en tout cas : des propositions d’action ont d’ailleurs été formulées dès 2013, dans un rapport réalisé par l’INRA.

Les cinq propositions suivantes ont un impact direct sur les émissions de N2O :

  • réduire la consommation d’engrais minéraux de synthèse et mieux valoriser les ressources organiques ;
  • accroître la part de légumineuses en grande culture et dans les prairies temporaires ;
  • introduire davantage de cultures intermédiaires, de cultures intercalaires et de bandes enherbées ;
  • optimiser la gestion des prairies ;
  • réduire les apports protéiques dans les rations animales pour limiter les teneurs en azote des effluents et les émissions de N2O.

Quels enseignements peut-on tirer de ces deux constats ?

D’après WWF, 99 % des substances qui détruisent l’ozone ont été éliminées, grâce à un engagement collectif et contraignant pour les États. Ce succès prouve donc qu’il est possible d’agir, mais aussi de gagner.

La lutte contre le changement climatique concerne l’ensemble des activités humaines et repose sur des actions qui doivent être mises en place au niveau mondial, pour être efficaces. La production agricole ne peut y échapper, surtout qu’elle est la première concernée par les effets du changement climatique.


[1] En 1974, par Rowland et Molina, deux chimistes de l’Université de Californie à Irvine. Ils ont reçu le prix Nobel de Chimie pour cela !

L’émergence d’une économie du déchet compétitive

Les déchets s’accumulent tout au long du cycle de vie d’un produit. L’extraction de matières, leur utilisation pour la production de produits et de services, la consommation des produits, puis la fin de vie de ces derniers. Toutes ces étapes sont sujettes à la production de déchets, en quantité plus ou moins importantes.

Les critères qui vont pour faire varier la quantité de déchets produits lors du cycle de vie d’un même produit vont donc être multiples : choix des matières premières, conception, production, utilisation, recyclage… Finalement, l’entreprise qui fabrique le produit, et l’utilisateur qui le consomme ont tous les deux une responsabilité quant aux déchets produits lors de ce cycle de vie.

Tous secteurs confondus, la production de déchets en France est estimée à 310 millions de tonnes (chiffre pour 2020). Le secteur de la construction est le plus émetteur, avec 213 millions de tonnes. Suivent les activités économiques (64 millions de tonnes), puis les ménages avec 34 millions de tonnes.

La problématique de la gestion de ces déchets a émergé depuis plusieurs décennies, pour plusieurs raisons. D’abord, la nécessité de gérer ces quantités implique une captation géographique de plus en plus importante. Se pose après la question du traitement de ces déchets. Incinération et enfouissement sont pratiqués depuis des années et concernent encore aujourd’hui 75% de leur destination finale. Avec des conséquences importantes au niveau écologique pour l’incinération, et sanitaires, car les déchets peuvent être constitués de matières dont la toxicité pose problème. Tout cela fait aujourd’hui l’objet de réglementations draconiennes.

La raréfaction de certaines matières premières a également poussé l’industrie à réfléchir à des méthodes pour les récupérer, à la fin du cycle de vie des produits, où les économiser à travers des méthodes innovantes de conception. Pour toutes ces raisons, l’émergence des pratiques telles que le recyclage, le réemploi, la réutilisation et l’upcycling se sont développées, et apportent des réponses concrètes en termes de quantités de déchets produits, et de matières premières consommées par l’ensemble des secteurs industriels. 

Le compostage, et les valorisations énergétiques et chimiques se sont également développés comme des méthodes pour gérer certains types de déchets, quand leur recyclage s’avère impossible.

Mais tout ceci a un prix, plus élevé que les pratiques liées à l’économie linéaire, qui explique à lui seul l’émergence tardive de l’industrialisation des filières de recyclage.

La prise de conscience, à la fin des années 80, de l’impact écologique de nos modes de vie et de l’aspect non renouvelable de la plupart des matières premières a suscité une prise de conscience au niveau des populations, et des pouvoirs publics.

Dans les années 90, l’OCDE a fait émerger le concept de filières REP, la responsabilité élargie du producteur, afin d’obliger les industriels à s’impliquer dans la gestion des déchets produits à travers l’ensemble de leurs activités.

Ainsi, les déchets plastiques, électroniques et électroménagers, automobiles, les pneus, les piles et batteries, les textiles, les produits chimiques, entre autres, ont tous fait l’objet de la création de filières REP, qui obligent les producteurs à assumer le devenir des produits sur tout leur cycle de vie, et pas simplement sur la gestion des produits en fin de vie. C’est de cette façon que l’industrie a développé une réflexion globale autour de ses méthodes de production.

Plus récemment, de nombreuses réglementations, sectorielles, incitent ou obligent les industriels à réincorporer dans leurs produits neufs une part de matière recyclée. Cette pratique, ingrédient indispensable à la mise en place d’une économie circulaire, favorise la valorisation des déchets de production et de consommation, en même temps qu’elle participe à donner aux déchets une valeur marchande, nécessaire à l’émergence sur le long terme d’une véritable économie du déchet.

La neutralité carbone reste un défi majeur pour Google

Google est en surchauffe. Dans son rapport annuel sur l’environnement, publié le 2 juillet, sa maison mère Alphabet Inc. a indiqué que ses émissions de gaz à effet de serre ont augmenté de 48 % par rapport à la base de référence de 2019, pour un total de 14,3 millions de tonnes de dioxyde de carbone.  Avec une hausse de 13 % en 2023 par rapport à 2022, ses émissions n’ont ainsi fait que progresser, alors que le géant américain s’était fixé un objectif climatique « ambitieux » de réduction.

Plus précisément, le rapport indique qu’en 2023, « les centres de données de Google ont consommé 24 TWh d’électricité, soit 7 à 10 % des 240-340 TWh estimés consommés par les centres de données dans le monde, et moins de 0,1 % des 25 000 TWh estimés de l’électricité mondiale totale ».

Google n’est pas le seul à voir ses émissions de GES exploser. Dans un rapport sur le développement durable publié en mai dernier, Microsoft Corp a indiqué que ses émissions ont augmenté de 29 % par rapport à la base de référence de 2020.

Des gloutons en énergie

Ce rapport intervient alors que l’Agence internationale de l’énergie (AIE) a prévu que la demande d’électricité pourrait doubler d’ici 2026 en raison de la croissance exponentielle de la charge des datacenters.

L’Administration américaine d’information sur l’énergie, qui a lancé un projet pilote de suivi des centres de données en 2018, a montré que les datacenters utilisent 10 à 40 fois plus d’énergie par mètre carré que l’immeuble de bureaux typique et représentent près de 2 % de la consommation d’électricité aux États-Unis.

De façon globale, l’AIE estime que la consommation mondiale d’électricité des centres de données est de 240 à 340 TWh, soit environ 1 à 1,3 % de la demande finale mondiale d’électricité (environ 25 000 TWh).

L’augmentation des émissions a mis en évidence « le défi de réduire les émissions alors que l’intensité de calcul augmente et que nous augmentons nos investissements dans l’infrastructure technique pour soutenir cette transition de l’IA », peut-on lire dans le rapport d’Alphabet Inc.

Pour illustrer à quel point les modèles d’IA sont plus exigeants que les systèmes informatiques traditionnels, l’AIE estime qu’une recherche sur Google nécessite en moyenne 0,3 wattheure d’électricité, alors qu’une requête sur ChatGPT consomme généralement environ 2,9 wattheures.

Explosion du trafic Internet

Selon une étude publiée en octobre dernier par le chercheur néerlandais Alex de Vries (fondateur de Digiconomist et doctorant à la Vrije Universiteit Amsterdam), les systèmes d’IA de Google pourraient, dans le pire des cas, consommer chaque année autant d’électricité que l’Irlande, dans l’hypothèse d’une adoption à grande échelle de l’IA dans leur matériel et leurs systèmes informatiques actuels.

Or la situation ne semble pas aller vers une amélioration. D’après les dernières analyses du conseil international en immobilier Savills, la puissance installée des datacenters européens devrait atteindre les 13 100 MW en 2027, soit une hausse de 21 % par rapport à la puissance actuelle.

Le trafic Internet en Europe devrait connaître un taux de croissance annuel cumulé de 31 % d’ici 2030. Le marché européen de l’IA devrait connaître une croissance rapide de 15,9 % par an et jouer un rôle moteur dans la hausse de la demande en datacenters.

Comment répondre à cette explosion des usages (dont l’efficacité reste encore à prouver) et limiter considérablement les émissions de GES ? Pour l’instant, les géants de la tech sont focalisés sur la réponse à cette demande.

« Pour Google, la réduction de la consommation de ses datacenters n’est pas sa priorité. Il n’investit pas dans ce domaine, car il a d’autres priorités et parce qu’aucune législation ne freine son expansion en interdisant la construction d’un datacenter consommant tant ou tant d’énergie », explique Ophélie Coelho, chercheuse indépendante, spécialiste en géopolitique du numérique.

Une nouvelle directive pour encourager le développement durable des entreprises

L’initiative vient de l’Union européenne et de son Pacte vert (Green Deal). Depuis le début de l’année, une nouvelle directive, appelée CSRD pour Corporate Sustainability Reporting Directive, s’impose à certaines entreprises. Elles ont l’obligation de publier les informations relatives à leurs performances ESG (environnementales, sociales et de gouvernance) de l’année 2024 en 2025. Objectif : évaluer l’impact de leurs activités sur leur environnement et identifier celles qui sont les plus disciplinées en la matière.

La CSRD succède à la directive NFRD (Non-Financial Reporting Directive) qui imposait déjà depuis 2018 un reporting extra-financier aux entreprises de plus de 500 employés et dépassant certains seuils financiers. Mais son entrée en vigueur va progressivement être élargie, puisque l’année prochaine, elle s’appliquera également aux entreprises de plus de 250 salariés, dont le chiffre d’affaires est supérieur à 50 millions d’euros et le total du bilan dépasse 25 millions d’euros. Et au 1er janvier 2026, elle concernera aussi les PME cotées en bourse. À terme, ce sont environ 50 000 sociétés en Europe qui seront concernées, dont 7 000 en France.

Cette nouvelle directive reprend tous les éléments de la NFRD et vient les enrichir de 12 normes désignées sous le terme des ESRS (European Sustainability Reporting Standards). Toutes les données doivent désormais faire l’objet d’une publication dans un rapport de durabilité intégré au rapport de gestion des organisations. Les informations communiquées par l’entreprise doivent être certifiées par un commissaire aux comptes ou par un organisme tiers indépendant accrédité.

Concrètement, le reporting extra-financier porte sur des facteurs environnementaux tels que l’atténuation et l’adaptation au changement climatique, la biodiversité, l’utilisation des ressources… Des facteurs sociaux sont également pris en compte comme l’égalité des chances, les conditions de travail, le respect des droits de l’homme et des libertés fondamentales… Et enfin, des facteurs de gouvernance doivent aussi être renseignés : rôle des organes d’administration, activités de lobbying, gestion des relations avec les partenaires commerciaux…

Un accueil hostile des milieux patronaux traditionnels

Cette nouvelle obligation vient harmoniser le reporting extra-financier de certains critères. Par exemple, s’agissant des émissions de gaz à effet de serre, les entreprises avaient des pratiques jusque-là très hétérogènes puisque certaines d’entre elles omettaient la prise en compte des émissions de leurs fournisseurs ou de leurs clients. À présent, elles auront l’obligation de comptabiliser l’ensemble des émissions, qu’elles soient directes comme indirectes, afin de permettre des comparaisons sectorielles des performances dans ce domaine.

L’accueil de la CSRD par le monde des affaires en France et plus globalement en Europe a fait l’objet de critiques. Si les dirigeants déjà sensibilisés à la responsabilité des entreprises l’ont acceptée positivement, les milieux patronaux traditionnels lui ont été hostiles. Le Medef par exemple pointe du doigt la complexité de cette démarche administrative et met en garde contre toute tentative de réglementation à outrance de la vie économique des entreprises sans en étudier les impacts.

Alors que plus de 2000 données étaient dans un premier temps envisagées dans le champ des informations à communiquer, leur nombre a finalement été limité à 1 198. Les PME ne sont pas directement concernées par la CSRD, toutefois elles peuvent l’être lorsqu’elles appartiennent à des chaînes de valeur. Selon un rapport d’information du Sénat, 87 % des dirigeants de PME et 92 % des dirigeants de TPE ne la connaissent pas. L’institution émet une série de recommandations pour réussir la mise en œuvre de cette directive. Elle préconise par exemple de « traduire les éléments clés de la directive CSRD et les ESRS en un langage clair, accessible et compréhensible par les dirigeants d’entreprises de toutes catégories, diffusé à travers les réseaux consulaires et par les organisations représentatives d’employeurs. »

Véhicules électriques chinois : quels sont ces nouveaux droits de douane ?

Le 4 octobre 2023, la Commission européenne ouvrait officiellement une enquête antisubventions d’office concernant les importations de véhicules électriques à batterie fabriqués en Chine. Neuf mois plus tard, le 4 juillet, elle a conclu que « la chaîne de valeur des VEB en Chine bénéficiait de subventions déloyales ». Pour protéger les producteurs européens ainsi malmenés, elle a instauré, dès le 5 juillet, des droits de douane provisoires sur les importations de véhicules électriques à batterie fabriqués en Chine, qu’il s’agisse de marques chinoises ou de constructeurs étrangers. Ils s’appliqueront pour une durée maximale de 4 mois. Les véhicules hybrides et hybrides rechargeables ne sont pas concernés.

Ces droits sont couverts par une garantie, déterminée par les douanes de chaque État membre, et ne pourront être perçus que si des droits définitifs sont décidés. Si ceux-ci venaient à être votés par les États membres de l’UE, ils s’appliqueraient pour une période de 5 ans. Ces droits de douane s’échelonnant de 17,4 % à 37,6 %, selon les montants de subventions publiques perçues par les entreprises chinoises, s’ajoutent aux 10 % de taxes déjà appliquées par l’Union européenne.

Des droits de douane de 17,4 % à 37,6 %

Ainsi, des droits de 17,4 % s’appliquent à BYD, de 19,9 % à Geely. Et ils montent 37,6 % pour SAIC (qui détient la marque MG). Les autres constructeurs qui ont coopéré seront soumis à un droit moyen pondéré de 20,8 %, contre 37,6 % pour ceux qui n’ont pas coopéré. La Commission a donné aux constructeurs concernés par la majoration des taxes jusqu’au 18 juillet pour faire part de leurs remarques. Selon le recensement effectué par Auto-infos, une trentaine de modèles de seize marques sont concernés.

« Les véhicules électriques venant de Chine représentent près de 22 % du marché européen, contre près de 3 % il y a trois ans, selon les estimations du secteur. Les marques chinoises comptent pour 8 % des véhicules électriques vendus dans l’UE [contre 1 % en 2019] », souligne La Croix. Les responsables européens ne veulent pas reproduire les mêmes erreurs qu’il y a dix ans, avec les panneaux solaires qui ont fait disparaître la concurrence européenne.

Un débat intense en Europe

Tous les pays européens ne voient pas ce droit douanier d’un bon œil. Si la France, l’Italie et l’Espagne sont favorables, ce n’est pas le cas de l’Allemagne, de la Suède et de la Hongrie. Et pour cause, « les constructeurs automobiles allemands Audi, BMW, Mercedes et Volkswagen réalisent près de 40 % de leurs ventes mondiales en Chine », rappelle France 24. « Les effets négatifs de cette décision l’emportent sur les avantages possibles », a déploré Volkswagen dans un communiqué daté du 4 juillet.

Un vote des États membres de l’Union européenne est prévu ce lundi. L’Allemagne devrait s’abstenir, ont déclaré des sources à Reuters vendredi. Ce premier vote n’est pas contraignant. Il sera suivi d’un vote final à l’issue duquel la proposition tarifaire de la Commission européenne sera adoptée, à moins qu’une majorité qualifiée ne s’y oppose, indique Reuters.

Vers des représailles chinoises ?

Cette décision est particulièrement rude pour la Chine. En effet, près de 40 % des exportations de véhicules électriques chinois font route vers l’Union européenne. Mi-juin, Pékin a donc menacé l’UE de représailles sur les importations de porc européen, d’eaux-de-vie, de vins, des produits laitiers et des berlines et SUV thermiques de plus de 2,5 litres. En plus, le ministère chinois du Commerce se donne au moins jusqu’à janvier prochain pour enquêter sur des obstacles placés par l’UE contre les investissements et le commerce d’entreprises chinoises, a-t-il indiqué dans un communiqué publié mercredi 10 juillet.

Avec un stock de 5 000 voitures électriques importées avant la hausse des droits de douane, MG France a indiqué que le prix de ses voitures électriques produites en Chine n’augmenterait pas jusqu’au 30 septembre 2024. En revanche Tesla a indiqué le mardi 9 juillet augmenter le prix de la Model 3 de 1 500 €. Et Mini, la marque britannique de BMW, présente ses arguments à l’Union européenne pour tenter d’éviter une majoration des droits de douane portés à 37,6 % sur ses modèles électriques assemblés en Chine.

La projection de résine : un bon tuyau pour prolonger la durée de vie des canalisations d’eau potable

1972. Telle est, selon un rapport publié au début des années 2000, l’année médiane de pose des canalisations d’eau potable françaises. Si cette estimation a pu évoluer depuis, une chose reste sûre : à l’échelle nationale, les réseaux de distribution d’eau vieillissent… et fuient ! En 2021, la part d’eau perdue par fuite, au travers des quelque 875 000 km de canalisations qui constituent les réseaux français, était en effet estimée à 18,5 %. « Pour 5 litres d’eau mis en distribution, 1 litre [environ] revient au milieu naturel sans passer par le consommateur » illustre ainsi le service public d’information sur l’eau et les milieux aquatiques, Eaufrance. Des fuites parfois liées à des mouvements de sol, ou à des phénomènes de surpression, mais donc aussi – et surtout – à la vétusté des canalisations.

Pour y remédier, leur renouvellement apparaît ainsi comme un impératif, et une priorité. « Il faudrait, au minimum, passer à un taux de renouvellement de 1 % à 1,2 % », confiait ainsi en mars 2023 à nos confrères de France Bleu Natacha Angeletou, consultante chez Altereo[1]. Force est toutefois de constater que l’on est encore loin du compte… « Le taux de renouvellement annuel du réseau d’eau potable en France est de 0,67 %[2], soit, en moyenne, un renouvellement tous les 160 ans, alors que la durée de vie d’une canalisation est bien inférieure, de l’ordre de 80 ans » indiquaient en effet dans un communiqué de presse publié en septembre 2022 « Les Canalisateurs », organisation professionnelle qui fédère quelque 330 entreprises françaises spécialisées dans la pose et la réhabilitation de canalisations. « Il y a urgence à investir pour les territoires en matière de réseaux de manière curative et préventive », plaidait ainsi l’organisation dans ce même communiqué. Une urgence face à laquelle le remplacement pur et simple des conduites vieillissantes semble couler de source…

À cause, notamment, de la réalisation de tranchées qu’elle implique, la solution se révèle toutefois coûteuse et contraignante. Des freins qu’une autre approche permet justement de lever : la réhabilitation sans tranchée par projection de résine.

Une technique éprouvée et avantageuse

Étrennée au Royaume-Uni dans les années 70, la méthode est aujourd’hui mise en œuvre en France par un acteur qui assure être, à l’heure actuelle, le seul sur ce créneau au niveau hexagonal : A.R.T. Europe[3]. Née en 2006, l’entreprise basée à Bruz[4], en Bretagne, compte aujourd’hui une centaine de clients, et a déjà à son actif près de 400 km de canalisations réhabilitées grâce à cette méthode aux multiples avantages : rapidité d’exécution, coût relativement modéré, ou encore amélioration de la qualité de l’eau.

400 km auxquels 80 mètres se sont ajoutés en mai dernier, à l’occasion d’un chantier mené par l’entreprise bretonne dans le Nord, à Douai, pour le compte de Douaisis Agglo et de son délégataire de service public, la Société des Eaux de Douai (SED), filiale de Veolia. Une opération à laquelle nous avons pu assister dans le cadre d’une visite technique organisée en marge du salon Cycl’Eau Hauts-de-France.

Un chantier à impact minimal

Cycl’Eau, fouilles, A.R.T. Europe
L’opération ne nécessite que le creusement de deux fouilles de part et d’autre de la portion à réhabiliter. © Benoît Crépin

Après quelques minutes de route depuis le Parc des expositions de Douai, nous arrivons aux abords du chantier, Boulevard Paul-Hayez. Une voie urbaine très passante, pourtant très peu perturbée par l’opération en cours. Et pour cause : seules deux fouilles ont été ménagées au niveau du trottoir, de part et d’autre de la portion de canalisation en question. Un tuyau de fonte grise d’un diamètre nominal (DN) de 150 mm, posé en 1969, comme l’explique le vice-président de l’agglomération en charge du cycle de l’eau, le bien nommé Jean-Paul Fontaine. « Certaines canalisations se dégradent plus vite que d’autres… Il s’avère que celle-ci se situe à un niveau de corrosion qui nous permet de prolonger son utilisation, à condition toutefois de la conforter grâce à cette technique de projection de résine proposée par A.R.T. Europe », poursuit le représentant de Douaisis Agglo. Un procédé certes éprouvé, mais mis en œuvre pour la toute première fois par la collectivité nordiste. Revendiquant un rendement de près de 90 %, l’agglomération se révèle particulièrement attentive à l’entretien de son réseau, et reste ainsi toujours en quête d’innovations en la matière… « Nous avons donc naturellement saisi l’occasion de tester cette méthode beaucoup moins onéreuse, et surtout extrêmement rapide à mettre en œuvre » justifie Jean-Paul Fontaine.

Trajan Ciupka, A.R.T. Europe
Avant l’application de résine, A.R.T. Europe procède à un tringlage de la canalisation, suivi d’une inspection vidéo, comme l’explique le directeur commercial de l’entreprise Trajan Ciupka. © Benoît Crépin Cycl’Eau,

Avant de réaliser l’opération, l’entreprise bretonne – par ailleurs lauréate 2021 du trophée des éco-entreprises innovantes dans la catégorie Gestion durable – a tout d’abord mené une phase de diagnostic. Objectif : définir précisément l’état de dégradation de la conduite, et adapter ainsi les paramètres d’application de la résine. « On fait en quelque sorte une “biopsie” du réseau, un prélèvement que l’on envoie ensuite à un laboratoire indépendant afin d’estimer la durée de vie restante. En fonction du résultat, nous définissons l’épaisseur de résine nécessaire pour conférer jusqu’à 70 % de durée de vie supplémentaire à la canalisation », explique Trajan Ciupka, directeur commercial de l’entreprise. « Ensuite, le chantier à proprement parler débute par un tringlage mécanique, c’est-à-dire un grattage de la canalisation – préalablement isolée du réseau via un pontage – qui permet d’en éliminer les concrétions de rouille et de calcite. Après rinçage et séchage, nous passons une caméra pour garantir la qualité du travail », poursuit le responsable. C’est alors qu’entre en piste l’élément central du procédé : la projection de résine.

Un procédé largement automatisé

Cycl’Eau, projection, A.R.T. Europe
La résine est appliquée par brumisation à une pression de 150 bars, grâce à ce cône de projection. © Benoît Crépin

Tout commence par le mélange, directement sur place, de deux substances – une base et un durcisseur – préchauffées à une trentaine de degrés. Des réactifs produits en Europe, comme le précise Trajan Ciupka. L’opération permet ainsi de donner vie à la résine polyuréthane de qualité alimentaire qu’A.R.T. Europe projette sur la paroi interne de la canalisation grâce à un cône de brumisation travaillant à haute pression (150 bars). Un élément réutilisable et relié, via un tuyau, à un automate chargé de gérer, mais aussi d’enregistrer en temps réel les paramètres d’application (température, pression…) afin de garantir la traçabilité de l’opération. « L’opérateur n’a qu’à entrer le DN et la longueur de la canalisation, ainsi que l’épaisseur de résine requise, et c’est la machine qui pilote tout le process », décrit le directeur commercial.

Cycl’Eau, résine, A.R.T. Europe
La résine se solidifie en quelques minutes seulement. © Benoît Crépin

L’application en tant que telle est ainsi réalisée en l’espace de quelques dizaines de minutes seulement, pour une remise en eau possible dans l’heure qui suit, après désinfection et rinçage de la canalisation réhabilitée. « En tout, ce chantier aura nécessité quatre jours de préparation et une journée de réalisation, c’est-à-dire cinq fois moins de temps qu’un chantier conventionnel de remplacement », fait valoir Trajan Ciupka, qui chiffre ainsi à 60 % la réduction de l’empreinte carbone de l’opération.

Une approche qui se révèle en outre adaptée à tous types de conduites (à l’exception des tuyaux en PEHD[5]), et ce jusqu’à un DN de 2 000 mm… « La méthode est aussi applicable en cas de présence de branchements sur la conduite », précise Trajan Ciupka. « Si le diamètre de ces branchements est supérieur à 10 mm, il n’y a aucun risque qu’ils se bouchent. En deçà, nous mettons en œuvre une technique de débouchage », ajoute-t-il.

Une polyvalence qui s’ajoute ainsi à la liste déjà longue des avantages d’un procédé se révélant, en outre, une réponse pertinente face au phénomène récurrent dans de nombreuses régions françaises de coloration de l’eau potable. « La seule limite à l’utilisation de la méthode reste la présence trop importante de coudes ou de vannes qui empêcheraient nos outils de passer », concède finalement Trajan Ciupka. Pas tout à fait une panacée, la solution n’en demeure pas moins un sacrément bon tuyau pour offrir à un réseau vieillissant une véritable cure de jouvence.


[1] Société d’ingénierie, de conseil et d’édition de solutions digitales pour l’eau, la ville et les territoires.

[2] Un indicateur qui reste toutefois à interpréter avec précaution, comme l’explique l’Observatoire des services publics d’eau et d’assainissement (Sispea) dans son Panorama des services et de leur performance en 2020 : « Cette approche n’a aucune signification à une échelle agglomérée (particulièrement à l’échelle “France entière”) dans la mesure où le rythme optimal de renouvellement d’un réseau dépend en grande partie de la pyramide des âges des tronçons qui le constituent. »

[3] Audit, réhabilitation, travaux.

[4] Une agence devrait ouvrir très prochainement dans les Hauts-de-France.

[5] Polyéthylène haute densité.

Les premiers effets positifs du programme d’investissement France 2030

Lancé en octobre 2021 à la sortie de la crise de la Covid-19, France 2030 est un plan d’investissement qui vise à rattraper le retard industriel français, à la création de nouvelles filières industrielles et technologiques et au soutien à la transition écologique. Des secteurs stratégiques sont ciblés, allant du spatial à l’énergie en passant par l’agriculture, le numérique ou la culture. Le secrétariat général pour l’investissement (SGPI) vient de publier un rapport sur l’état d’avancement de ce programme. À la fin de l’année 2023, il apparaît que sur les 54 milliards de crédits alloués, 29,9 milliards d’euros ont déjà été engagés.

Dans le détail, 3 650 projets ont été financés et ont bénéficié à près de 6 000 lauréats. Les PME et les ETI se répartissent plus de la moitié des aides (56 %), suivis des organismes de recherche, des collectivités et des établissements publics (19 %), des grands groupes (16 %), et enfin des personnes physiques et des associations (9 %). Le rapport fait état de plus de 82 000 emplois directs prévisionnels créés ou maintenus ainsi que de plus de 4 500 brevets déposés ou en cours de dépôts.

Pour connaître quels sont les premiers impacts de ce vaste plan stratégique, il faut se reporter au dernier rapport du Comité de surveillance des investissements d’avenir (CSIA) publié en juin 2023. Chargé d’évaluer de manière indépendante ce programme d’investissement, le CSIA estime que la mise en mouvement de certaines filières industrielles est déjà manifeste. Ainsi, dans le secteur automobile, la chaîne de valeur prend rapidement le virage du véhicule électrique, avec notamment quatre projets d’usines de batteries dont la production prévisionnelle est alignée avec l’objectif de produire 2 millions de véhicules par an en 2030. Dans le domaine de l’hydrogène, « la capacité d’électrolyse devrait atteindre 2,5 GW en 2027, soit 40 % de l’objectif national fixé pour la fin de la décennie », écrivent les experts du CSIA. Et en matière d’électronique, « la nouvelle usine de composants semi-conducteurs de Crolles a débuté sa production en juin 2023 et sa montée en charge contribuera à atténuer les tensions d’approvisionnement. »

Le rapport mentionne aussi l’émergence de nouveaux acteurs innovants dans certains écosystèmes en mutation. C’est le cas par exemple dans le domaine quantique, puisqu’une demi-douzaine de start-ups se sont lancées dans la course internationale à l’ordinateur quantique. Quant au domaine spatial, il s’est enrichi d’une vingtaine de projets très innovants de minis et micro-lanceurs, de systèmes pour les services en orbite ou pour la surveillance de l’environnement orbital. Enfin, en matière de santé, un nouveau tissu d’acteurs est sur le point d’émerger dans le secteur des biothérapies et de la bioprodution.

Des créations d’emplois estimées entre 288 000 et 600 000 à l’horizon 2030

Lors de sa création, le plan France 2030 s’est aussi donné pour objectif transversal de consacrer 50 % de ses dépenses à la décarbonation de l’économie. À ce titre, le CSIA estime que 46 % des moyens alloués ont un impact potentiel favorable sur la décarbonation de l’économie. Plus précisément, 21 % ont un impact favorable, direct et pérenne tandis que 25 % ont un impact favorable, indirect ou controversé.

D’une manière plus globale, le CSIA conclut à « un potentiel d’impacts exceptionnel de France 2030 qui devrait augmenter le PIB de 40 milliards à 80 milliards d’euros et créer 288 000 à 600 000 emplois à l’horizon 2030. » En générant de la croissance et de l’emploi, les experts considèrent que les 54 milliards dépensés devraient être entièrement compensés par des gains en recettes publiques à moyen terme. Ils mettent aussi en avant la démarche territoriale de ce plan, avec la prise en compte des équilibres géographiques dans les investissements et la mobilisation des écosystèmes locaux, des collectivités territoriales et des services déconcentrés de l’État.

Pour que ce plan d’investissement soit encore plus pertinent, le Comité de surveillance formule plusieurs recommandations. Il propose notamment de cibler davantage les investissements et d’accentuer la personnalisation de l’accompagnement. Le montant médian des investissements, de l’ordre d’un million d’euros, pourrait par exemple être rehaussé, voire triplé. Alors que la France a l’ambition de participer à la compétition internationale dans le domaine de l’intelligence artificielle (IA), les experts du CSIA préconisent d’investir de manière plus importante dans l’IA générative. Dans le secteur de l’agriculture et de l’alimentation, ils conseillent de réorienter et de concentrer les actions vers un changement structurel de modèle. Par exemple, en fléchant un milliard d’euros vers des coopératives qui s’engageraient à un changement structurel des modes de production et des modèles économiques.

Gaëlle Lissorgues : « Connecter le vivant à son environnement biotechnologique grâce aux capteurs électroniques »

Techniques de l’Ingénieur : Pouvez-vous revenir sur votre parcours professionnel ?

Gaëlle Lissorgues : Après le bac, j’ai suivi une prépa scientifique parce que, si je n’étais pas sûre de ce que je voulais faire, mon souhait était néanmoins de m’orienter vers les sciences, et particulièrement la physique.
À la suite, en 1990, j’ai entamé un cursus de quatre ans à l’ENS Cachan[1], en spécialité physique appliquée[2]. La troisième année de ce cursus, en 1993, j’ai passé l’agrégation de physique, option physique appliquée. L’année suivante, je me suis engagée dans un DEA[3] que j’ai poursuivi à Jussieu[4]. J’ai continué avec trois ans de thèse, de 1994 à 1997, à l’ENS Cachan, sur la télémétrie laser appliquée en robotique, avec de l’optique et de l’électronique embarquée. Dotée de plusieurs compétences, j’ai eu la chance, à la fin de ma thèse, d’obtenir directement en septembre 1997 un poste à l’ESIEE Paris[5], l’école d’ingénieur où je suis encore aujourd’hui, et où j’ai occupé différentes fonctions.

Ma thèse étant fortement orientée électronique pour des applications robotiques, et la formation en physique appliquée comportant un tiers d’électronique. J’ai poursuivi ma carrière en physique appliquée et électronique, dans les domaines des capteurs et de l’instrumentation ainsi que de leurs variantes. Mon parcours peut paraître assez linéaire entre prépa, école, thèse puis un poste équivalent à maître de conférences. Enfin, en 2006, j’ai passé mon HDR[6], ce qui m’a menée à un poste de professeur, toujours dans la même école.

Comment vous êtes-vous spécialisée dans l’électronique ?

En intégrant Cachan, j’ignorais que la physique appliquée englobait la partie électronique, l’électrotechnique, l’induction, la motorisation, et la partie automatique avec le traitement du signal. Très vite pendant mes études, j’ai vraiment aimé la partie électronique. C’était un aspect de la physique qui m’était inconnu, que je n’avais pas encore abordé.

L’électronique m’intéressait parce qu’elle réunissait de la physique fondamentale, comme la physique des matériaux et celle des semi-conducteurs qui sont assez pointues, avec de grands domaines techniques. Cela correspondait à mon projet de faire de la recherche, avec un fort ancrage applicatif pouvant mener à des débouchés industriels. Il s’agissait par exemple de savoir si un certain prototype aurait une utilité dans un futur assez proche.

J’ai moins de disposition pour des problématiques très fondamentales, très utiles par ailleurs. J’étais plus attirée par le développement d’activités autour de solutions permettant de répondre concrètement à moyen terme à des défis scientifiques. L’électronique s’y prêtait bien. Bien sûr, l’électronique existait déjà dans les années 1990[7] et cette discipline offrait de nombreuses possibilités d’évolution. Il m’a donc semblé intéressant de l’étudier. La révolution internet ne s’était pas encore produite, la miniaturisation des composants était encore en devenir. En 1997, très vite après mon arrivée à l’ESIEE, j’ai été invitée à orienter mes activités de recherches sur les MEMS (micro-electro-mechanical systems), c’est-à-dire les microsystèmes électromécaniques, que l’on trouve dans de nombreux objets du quotidien (comme les accéléromètres des airbags de voiture). Ces recherches, somme toute assez récentes, s’appuient sur ce qu’on appelle des microtechnologies. La fabrication doit s’effectuer dans un environnement spécifique : une «salle blanche ». Cette infrastructure est lourde et peu de laboratoires en France en disposent[8]. L’ESIEE disposait de salles blanches lorsque j’y suis arrivée. J’ai pu ainsi mettre en place mon activité de recherche autour des MEMS et des technologies innovantes de microfabrication.

L’électronique se trouve partout. Cet univers conceptuel, pour les aspects concernant la physique, peut être compliqué à expliquer et à comprendre. En revanche, il est simple d’utiliser l’électronique, laquelle est largement présente dans notre quotidien à travers notre téléphone, la voiture et bien d’autres de nos appareils. Aussi d’un point de vue pédagogique, le domaine est concret et facile à illustrer, ce qui m’a probablement conduite à le choisir aux dépens du traitement du signal, plus abstrait, plus théorique.

Pouvez-vous nous parler de votre rôle dans le département Santé, énergie et environnement de l’ESIEE Paris ?

Historiquement, l’école, qui s’appelait à sa création l’école Bréguet, existe depuis 1904. Située rue Falguière, à Paris, c’était l’école de la Chambre de commerce et d’industrie de Paris, Île-de-France. Elle s’est déplacée sur le campus de Champs-sur-Marne en 1987. Autour de 2010, une formation Ingénierie et management[9] alliant des aspects gestion de projets et technique a rejoint le campus ; ce n’était néanmoins pas encore une formation d’ingénieur. Puis en 2012, le directeur, Dominique Perrin, a souhaité une seule école intégrant cette partie Management et sciences humaines dans le cursus des ingénieurs. Ainsi, ESIEE management et ESIEE engineering ont été réunis sous le seul nom de ESIEE Paris.

Dans le cadre d’une refonte globale de l’organisation de l’école, le directeur a souhaité créer un nouveau département, en Santé, énergie et environnement. Des échanges nous ont permis d’imaginer un avenir solide pour ces thématiques, en s’appuyant sur deux filières d’enseignement, présentes du côté management, et qui abordaient le développement durable, l’environnement et la biotechnologie. Cette expérience antérieure allait nous permettre de créer des filières d’ingénieurs. Ce nouveau département et le regroupement d’autres ont incité quelques collègues de l’enseignement en management impliqués dans la protection de l’environnement et la santé à nous rejoindre, ainsi que des collègues de physique puisque les questions liées à l’énergie incluent cette science. Nous avons également été rejoints par des collègues qui faisaient de la recherche sur les micro- et nanotechnologies, notamment les microcapteurs. Ceux-ci sont développés par exemple pour la détection de polluants, pour la qualité de l’eau ou de l’air, pour des dispositifs implantés ou implantables. Ces domaines se retrouvaient donc tout naturellement dans les thèmes santé, environnement, énergie.

Pendant neuf ans, jusqu’en 2021, j’ai suivi et accompagné l’activité de ce département qui, de deux filières d’ingénieurs en 2012 – en énergie, énergies renouvelables, efficacité énergétique d’une part, biotechnologie et santé d’autre part –, a bien grandi ensuite.

Actuellement, une troisième filière, en alternance, est proposée sur tout ce qui est autour de la transition énergétique[10]. Le département continue à se développer. Les activités de recherche sont principalement orientées MEMS, avec les microsystèmes pour la santé, l’environnement ou l’énergie.

Lors de la construction du département, nous avons demandé à nos collègues susceptibles d’être intéressés par les thématiques Santé, Énergie, Environnement s’ils voulaient l’intégrer. Quelques-uns ont préféré rejoindre celui de l’électronique ou de l’informatique, mais d’autres que l’on n’attendait pas a priori ont souhaité cette intégration, à l’instar d’un collègue travaillant sur les mathématiques, lesquelles englobant les biostatistiques.

Le département s’est construit ainsi de façon à la fois collégiale, itérative et rapide. L’objectif étant d’accueillir des élèves et de leur proposer un programme de formation dès la rentrée 2012. Pour la première filière, le programme a évolué depuis sa création, passant des biotechnologies et l’e-santé à la santé numérique. La biotechnologie est moins présente dans la mesure où dans l’industrie, les besoins portent particulièrement sur la télémédecine, la téléconsultation, mais également l’aide à la décision en médecine, l’apport de l’intelligence artificielle dans le diagnostic ou le traitement d’images.

Les deux autres filières colorées « énergies », quant à elles, se focalisent vraiment sur les énergies renouvelables et la transition énergétique. Un réel focus s’effectue sur tout ce qui a trait aux villes durables, aux bâtiments intelligents, au concept de smart city, c’est-à-dire à l’efficacité énergétique multi-échelles[11]. Les étudiants abordent ainsi toute la chaîne d’un point de vue gestion de l’énergie, mais également tous les types d’énergies dites renouvelables[12]. Ils bénéficient ainsi d’une double compétence, celle des calculs d’efficacité énergétique et celle du secteur renouvelable, pour le domaine du bâtiment et d’autres.

Quels ont été vos principaux sujets de recherche ?

En arrivant à ESIEE, je me suis formée aux microtechnologies, en vue de la microfabrication pour les capteurs. La fin des années 1990 et le début des années 2000 ont été marqués par le grand boom des télécoms (GSM, téléphonies mobiles). J’ai alors orienté mes recherches vers les MEMS dits RF, c’est-à-dire les microcapteurs pour les applications radiofréquence. Ce secteur commençait seulement à émerger. Il visait à remplacer tout ou partie de certaines fonctions électroniques standard – avec des composants, des diodes, des transistors – par d’autres types de composants, les composants micromécaniques.

Ces composants intègrent une partie vibrante, comparable à une poutre mise en résonance. Une contre-électrode placée dessous fait varier une grandeur physique – la capacité, par exemple. Ainsi, une capacité variable intégrée dans un circuit électronique plus complexe aboutit à une fonctionnalité d’accordabilité en fréquence. Il est alors possible de faire varier la fréquence du système électronique grâce à l’ajout de ce petit élément micromécanique. Différentes fonctions permettent ainsi de créer des relais ou switches. Le signal peut être coupé, ou bien il y a continuité même si tel élément est déplacé. Il y a comme cela un certain nombre de fonctions qui peuvent s’appuyer sur des objets mécaniques, mais qu’on miniaturise, pour pouvoir aller vers des très hautes fréquences. Je travaillais plutôt entre 1 et 20 gigahertz en fréquence. Au tout début de ma recherche, j’ai travaillé sur de nombreuses applications télécoms, RF, et ce en coopération avec des partenaires industriels comme Thalès. Ils nous ont sollicités au milieu des années 2000 pour nous demander des fonctionnalités de radars particuliers de défense, des déphaseurs, des antennes intelligentes, accordables, par exemple. Ces activités-là ont été financées par des réponses à des appels à projets européens ou nationaux.

J’ai aussi travaillé avec la DGA[13], sur des composants spéciaux. Le besoin consistait à voir si ces technologies dites MEMS RF pouvaient améliorer certaines fonctionnalités. Je m’y suis consacrée durant la première partie de ma carrière. J’ai ensuite passé mon habilitation à diriger des recherches en 2006.

J’ai souhaité alors réfléchir à mon avenir. Je n’étais pas certaine de vouloir continuer dans les MEMS RF. L’époque nous incitait à miniaturiser encore plus, à nous diriger vers des nanodispositifs, aux dépens des microdispositifs. Nos salles blanches ne nous le permettaient pas puisque nous ne disposions pas des équipements adéquats. Les térahertz constituaient également un domaine novateur. Je me suis finalement rapprochée d’autres collègues qui se consacraient aux microcapteurs, et ai commencé à m’intéresser spécifiquement à leurs applications en biologie et santé.

Petit à petit, mes activités ont glissé des MEMS RF vers les bioMEMS, c’est-à-dire les MEMS pour la biologie et la santé. Durant les deux décennies écoulées, mon engouement pour les MEMS pour la bio et la santé s’est confirmé, au détriment des MEMS pour les télécoms et le militaire. Une petite équipe a alors commencé à se former sur ces domaines d’application en particulier autour des neurosciences. Je l’ai rejointe progressivement jusqu’à travailler complètement sur les biocapteurs.

Je travaille depuis longtemps sur l’application en neurosciences. Ce thème est complexe et beaucoup de découvertes restent à faire. Nous fabriquons ainsi des matrices de microélectrodes, de tout petits plots métalliques, de toutes petites électrodes de quelques dizaines de microns de diamètre, c’est-à-dire à l’échelle des noyaux cellulaires des neurones. Nous pouvons dès lors enregistrer in vitro l’activité neuronale, par exemple en plaçant des cultures de neurones sur nos petites électrodes. Nous connaissons ainsi les pics d’activité électrique de ces neurones. Il est également possible d’injecter des courants sur ces électrodes pour stimuler l’activité des neurones à tel ou tel endroit.

Par ces applications, avec les biologistes et les cliniciens, nous tentons de mieux comprendre le fonctionnement des réseaux de neurones vivants et de déterminer la manière dont ils se mettent en place au stade embryonnaire, par exemple si c’est la locomotion en premier. Les matrices de microélectrodes fabriquées de façon spécifique (adaptées aux tissus, etc.) par nos soins sont des outils qui permettent aux biologistes d’expliquer ces processus.

Progressivement, celles-ci ont évolué vers des projets relatifs aux implants, en particulier les implants rétiniens. En 2010, j’ai travaillé durant un an avec l’institut de la vision à Paris, afin d’appréhender davantage ce domaine de la bio et des implants, et d’en comprendre tous les enjeux à la fois éthiques, réglementaires, techniques, scientifiques et biologiques.

Depuis, une grande partie de notre travail est consacrée à différentes générations d’implants. Les implants rétiniens sont destinés à être placés sous la rétine. Nous intervenons sur la partie technique. Nous nous limitons à des applications et des validations in vivo[14].

Les matériaux aussi ont évolué, passant des matrices de microélectrodes aux implants in vivo destinés à la réhabilitation fonctionnelle neurologique, donc passant aussi de substrats rigides à des substrats souples. Beaucoup de nos projets sont financés par l’ANR[15], afin de déterminer si une reconnexion par un système externe est possible après une lésion de la moelle épinière. Pour les implants rétiniens, dans certaines pathologies de la rétine, l’objectif est de remplacer des photorécepteurs abîmés et qui ne sont plus capables de réagir aux stimuli lumineux. L’implant remplacerait ces photorécepteurs dégénérés pour redonner une stimulation artificielle à des neurones et, simultanément, un certain type de vision. Artificielle, elle serait différente de la nôtre et nécessiterait pour le patient de suivre une rééducation.

Nous ne sommes qu’une partie de ces gros projets pluridisciplinaires. La technologie des implants corticaux a évolué avec l’apport de nouveaux matériaux. Depuis plusieurs années, nous travaillons ainsi sur le diamant de synthèse. Nous générons ce diamant polycristallin de synthèse en le faisant croître dans nos salles blanches, à partir d’un mélange de méthane et d’hydrogène. On fabrique aussi de petites électrodes, non plus en or ou en platine, mais en diamant dopé.

Depuis près d’une quinzaine d’années, je consacre une grande partie de mon travail de recherche aux applications médicales. La première contrainte des implants sur ou sous la peau est liée au matériel et aux matériaux utilisés, qui doivent impérativement être biocompatibles.

Le silicium n’est pas biocompatible, or il est le matériau phare de l’électronique. C’est une difficulté. Nous fabriquons donc des capteurs en essayant de n’avoir à utiliser le silicium que comme support mécanique pour s’en s’affranchir par la suite. Une autre solution est de l’encapsuler dans un étui biocompatible.

Ces sujets de recherche portant sur les applications en santé et sur la réhabilitation fonctionnelle, les neurosciences, sont passionnants. Ce ne sont que de petites briques d’un projet vaste et ambitieux. C’est fantastique de se dire que, peut-être un jour, on pourrait aider des patients. Certains sont d’ailleurs déjà implantés avec d’autres capteurs que les nôtres. Toutefois, des problèmes sont observés, notamment la dégradation des matériaux, leur tenue à long terme. L’apprentissage neuronal peut également être compliqué, car tous les patients ne sont pas à même de bien apprendre la nouvelle façon de « voir » pour l’exemple des implants rétiniens[16].

Notre savoir-faire évolue donc et les neuroprothèses font partie des bio-interfaces au sens large. Cette technique consiste à interfacer un système électronique via une électrode à systèmes vivants, comme un semi-conducteur ou un métal et un tissu vivant, par exemple des cultures cellulaires, ou le liquide interstitiel sous la peau, de la salive, de l’urine, du sang… À partir de ce milieu biologique, nous essayons d’optimiser les biointerfaces. Cette part importante de notre travail porte à la fois sur des aspects de modélisation et de fabrication conceptuelle. Nous sommes ainsi parvenus aux dispositifs physiologiques connectés sur la personne. En 2016, notre conception et notre fabrication d’un capteur souple de mesure d’onde de pouls ont été un très beau succès. Ce capteur posé sur un doigtier permet de remonter à l’onde de pouls et à d’autres paramètres cardiaques (grâce à un matériau piézoélectrique encapsulé dans un polymère). Un prototype de ce dispositif a été retenu et envoyé dans la station spatiale internationale, l’année où Thomas Pesquet est parti, afin d’être utilisé pour faire une mesure de rigidité artérielle dans la station. Pour des raisons de confidentialité, les résultats sont restés dans l’équipe des médecins référents. Cependant, c’est une grande fierté pour l’équipe « capteurs pour la santé » d’avoir participé à ce projet. Et ce, d’autant plus que cette réussite nous a permis d’en élaborer d’autres.

Le bâtiment appelé « salles blanches » est la structure dédiée à la microfabrication. Pour y travailler, il faut revêtir une combinaison afin de limiter la pollution extérieure, de nos plaquettes par exemple. J’aime particulièrement mener le travail de recherche depuis le début, quelle que soit l’application. On part du besoin exprimé par un industriel ou un chercheur, clinicien, biologiste. En même temps qu’on imagine le capteur, on le dessine, puis on le fabrique en salle blanche. Les différents matériaux sont empilés couche par couche puis gravés sélectivement, et les dispositifs testés. Nous suivons ainsi toute la chaîne, de l’idée jusqu’à l’applicatif, grâce à l’outil de fabrication in situ.

Qu’est-ce qui vous a amenée à travailler sur les capteurs physiologiques connectés ?

J’ai rejoint des collègues qui commençaient à travailler dessus et nous avons formé une équipe. Nos premiers résultats étaient très encourageants. Pour la partie biomédicale, nous nous sommes associés ensuite avec des hôpitaux, des médecins, des biologistes, des neuroscientifiques, notre objectif étant d’apporter des solutions à leurs questions techniques, ainsi qu’une bibliographie poussée si nécessaire afin d’estimer le potentiel des recherches.

L’avis de personnes référentes est très important. Cette proximité et cette collaboration avec des médecins et des biologistes permettent d’interagir régulièrement entre plusieurs disciplines. Enfin, en matière de financement, nous répondons régulièrement à des appels à projets, lesquels ont souvent gravité autour de la santé ces dernières années.

Nous sommes une petite équipe. Toute cette activité de recherche, qui fait d’ailleurs partie du département Santé, énergie et environnement de l’ESIEE Paris, s’effectue dans le laboratoire ESYCOM (électronique, systèmes de communication et microsystèmes). Ce laboratoire, passé UMR du CNRS récemment, intervient sur trois grands thèmes. Le premier est plutôt orienté électromagnétisme, antenne, et RFID, mon sujet d’intervention en début de carrière. Le second est celui des microcapteurs pour l’humain, la santé et l’environnement. Des collègues sont vivement intéressés par tout ce qui concerne la qualité de l’eau et de l’air, impacts médicaux compris. Cela rejoint notre spécialité en microcapteurs pour l’humain, soit au niveau moléculaire, soit au niveau macro avec des capteurs physiologiques.

Enfin, le troisième thème est celui de la microénergie, la gestion de l’énergie à des échelles micro et la récupération d’énergie sous toutes ses formes, qu’il s’agisse d’énergie vibratoire, lumineuse, ambiante ou thermique.

Sur la partie biocapteur nous sommes un groupe très actif de quatre ou cinq personnes, professeurs ou chercheurs actifs permanents, auxquels s’ajoutent des étudiants et étudiantes en thèse, post-doctorants et de nombreux stagiaires.

Mon collègue Lionel Rousseau a commencé à travailler sur les biocapteurs dès 2003 et je l’ai rejoint vers 2006. En parallèle, je menais des projets sur les puces RF. Ceux-ci achevés, je me suis investie à plein temps dans celui des biocapteurs. Mon expérience en radiofréquence et communication y est pertinente, notamment l’aspect connectivité, puisque nous intervenons sur les capteurs physiologiques connectés à distance. J’ai aussi des compétences sur la conception d’une antenne biocompatible. L’interaction avec l’équipe chargée de la partie propagation et électromagnétisme du laboratoire nous permet de répondre aux problématiques d’antennes placées sur ou dans le corps humain, par exemple.

Quelles sont les principales applications de ces capteurs ?

À l’application visuelle déjà évoquée, s’ajoute le grand champ des implants neuronaux. Les capteurs physiologiques, étudiés notamment avec Thomas Pesquet, ont des applications possibles en cardiologie, cardiopathie, mesures ECG, onde de pouls, oxymétrie, des domaines que je connais bien. Il est possible de fabriquer des dispositifs assez facilement en assemblant astucieusement des composants accessibles dans le commerce. Ce n’est pas de la recherche pure, mais c’est intéressant d’un point de vue projet, en particulier pour nos étudiants et étudiantes, car très appliqué.

J’ai suivi aussi des projets différents de ceux sur les capteurs physiologiques, ou neurologiques, avec des applications pour l’environnement. Nous nous sommes par exemple intéressés au nez électronique et à la façon de capter des composés organiques volatils de toutes sortes sur nos capteurs micromécaniques. Ainsi, si on parvient à fonctionnaliser correctement la surface d’une micropoutre, il est possible d’absorber certaines molécules cibles sur la surface de la poutre, de déterminer la quantité de molécules absorbée et éventuellement aussi d’identifier lesquelles. Il devient possible de faire de la détection d’odeur ou d’autres paramètres. Nous avons géré des projets européens sur ces sujets, ou encore plus récemment un projet sur la détection de phéromones d’insectes pour des applications en agriculture raisonnée. Nos applications peuvent donc être assez larges. Le capteur que l’on fabrique permet différents usages. À nous d’être inventifs pour voir à quoi il peut servir.

Concernant l’environnement, certains collègues travaillent sur des bio-interfaces, des électrodes entre un milieu vivant et une partie électronique. Un projet porte par exemple sur les plantes et l’évaluation de leur stress hydrique. Ces différents projets fonctionnent selon la même brique technologique utilisant des micro-électrodes, mais la géométrie, l’électronique de conditionnement, etc. sont différentes. Les bandes de fréquences ne sont pas forcément les mêmes non plus.

Il est intéressant quand on fait du monitoring avec un capteur physiologique sur le vivant, sur les personnes, d’avoir accès à une information continue pour obtenir une image en temps quasi réel de l’état de santé d’un patient. À l’hôpital, les mesures ne sont pas continues, sauf en réanimation. L’objectif peut donc être d’ajouter un suivi et des résultats en continu, comme avec une montre connectée qui mesure un certain nombre d’éléments. Cette indication est cependant plus ou moins juste et plus ou moins médicale selon la montre qu’on met au poignet. C’est tout l’intérêt de l’article comparatif sur les wearables, paru en décembre 2023. Nous l’avons coécrit pour Techniques de l’Ingénieur avec ma collègue, post-doctorante, Alice Lemarquand. Pour sa rédaction, nous avons sélectionné et comparé différents objets connectés. Nous avons trié ce qui relève du domaine de la recherche – objet parfois commercial, mais non agréé en tant que dispositif médical, plutôt orienté bien-être pour le grand public – et du dispositif médical, qui devra avoir passé toutes les étapes de certifications et de normalisation réglementaire.

Pouvez-vous nous parler des nouveaux matériaux développés en lien avec ces capteurs ?

Pour toutes ces applications de capteurs ou d’interface pour le vivant, la première condition est que les matériaux soient biocompatibles, pour ne pas générer ou en tout cas pour limiter une réaction cutanée (dans le cas d’un patch sur la peau), ni de réactions inflammatoires si le dispositif est implanté. Ensuite, nous privilégions des matériaux durables, particulièrement pour ce qui est implanté, en profondeur ou en sous-cutané.

L’implant doit durer une dizaine d’années. C’est une contrainte liée à son application qui impose des choix sur les matériaux. Parmi les métaux, on utilise des métaux nobles, comme l’or, le platine, le titane. Concernant les matériaux polymères, il faut s’assurer qu’ils soient effectivement biocompatibles. Depuis quelques années, avec mes coéquipiers, nous avons développé une activité autour des neurosciences, des implants neuronaux pour lesquels nous utilisons le diamant de synthèse. Son intérêt est d’être un matériau carboné, une forme noble du carbone. Le carbone constitue aussi la matière vivante et des études en amont ont permis de démontrer qu’il était biocompatible. Nous avons donc développé ces interfaces bioélectroniques en diamant de synthèse. Les nanoparticules de carbone (le diamant) sont ainsi déposées dans un réacteur plasma puis mises en croissance progressivement pour obtenir de fines couches de diamant synthétique. Ce procédé est aussi utilisé en joaillerie. Dans ce cas, le processus de croissance des diamants artificiels est plus long, de l’ordre d’une vingtaine de jours. Il faut ensuite tailler ces diamants artificiels bruts pour obtenir des bijoux.

Pour nous c’est différent. Nous avons besoin de quelques centaines de nanomètres, de très faibles couches qui entrent directement en contact avec des cellules vivantes. Ces couches doivent être fonctionnalisables. Le diamant étant une terminaison carbone, on peut accrocher d’autres molécules à celles de carbone. Ce matériau est donc adéquat pour réaliser les biocapteurs, comme l’ont montré quelques-unes de nos études. Il y a eu des travaux sur le graphène, qui est aussi du carbone sous une forme monocouche, mais plus fragile à manipuler, moins stable dans le temps et donc plus difficile à utiliser dans l’implantable. Nous avons toujours des activités en partenariat pour des projets avec le graphène. Nous préférons néanmoins le diamant de synthèse en raison des longues durées d’implantation requises.

Nous sélectionnons aussi d’autres matériaux, comme des polymères biodégradables qui, lorsqu’ils sont dans le corps humain, finissent par se dissoudre et disparaître. On ne travaille pas spécifiquement là-dessus, mais on peut s’associer à des laboratoires plus spécialisés en sciences des matériaux, qui nous offrent de bons conseils pour choisir les matériaux adaptés. En salle blanche, nous pouvons étudier comment fabriquer ces couches de matériaux pour créer nos capteurs. Du point de vue des matériaux, il faut retenir que les applications in vivo comportent des contraintes spécifiques, pour l’adéquation avec la partie biologie.

Que pouvez-vous nous dire sur le développement et le fonctionnement des MEMS ?

MEMS est l’acronyme de « Micro Electro-Mechanical Systems », ou microsystème électromécanique en français, souvent désigné par le terme microsystème. Il s’agit d’un élément de capteur dans lequel la partie actionneur génère une action ou un mouvement. Ou, au contraire, c’est un capteur qui traduit une variation d’un paramètre physique ou chimique, physico-chimique ou biochimique, en une grandeur mécanique, puis électrique. L’intérêt est que la conversion est double, c’est-à-dire mécanique et électrique. La grandeur de sortie du MEMS est un signal électrique, un courant, une tension, idéalement un signal proportionnel et relié à une grandeur physique d’intérêt, qui peut être elle-même dépendante d’une grandeur mécanique. Comme déjà vu, les MEMS peuvent avoir différentes structures. Prenons l’exemple d’une poutre, envisagée à une échelle micrométrique. Elle mesure quelques microns de large sur 100 ou 200 microns de long et moins d’un micron d’épaisseur. On la met en vibration. Et si on accroche des molécules par-dessus, elle vibre moins vite, parce qu’elle se charge. On détecte ce qui s’est mis sur ou autour de la poutre, en mesurant par exemple sa fréquence de résonance mécanique avec des appareils de laboratoire optiques.

On peut aussi ajouter une jauge de contrainte à la position appelée l’ancrage, l’endroit où ça bouge. C’est une partie sensible qui permet de mesurer électriquement la déformation. On peut ensuite être de plus en plus sophistiqué. Un exemple de MEMS très connu se trouve dans les airbags des voitures, les accéléromètres. Ce système est basé sur des formes de peignes, c’est-à-dire plusieurs séries de micro-poutres alternées. Quand il est à l’équilibre, il ne se passe rien et avec l’accélération, ces peignes bougent et se rapprochent ou s’éloignent les uns des autres. On a donc une variation de la capacité entre les doigts du peigne, qui correspond à l’accélération. Il y a des MEMS dans les téléphones portables, comme des accéléromètres, des gyromètres. On en trouve aussi dans les vidéoprojecteurs, sous forme de micro-miroirs mesurant quelques centaines de microns, pouvant donc être intégrés dans les têtes optiques de ces vidéoprojecteurs. À l’intérieur, il y a un système de plaques qui s’orientent mécaniquement pour dévier le faisceau lumineux d’une façon ou d’une autre. Les applications industrielles des MEMS sont très nombreuses : l’automobile, les systèmes automatisés de production robotisée, utilisation en communication radiofréquence, en micro-mécanique de précision comme dans les microactionneurs, les microrobots, les microengrenages.

Dans la partie biologie, santé, c’est un peu plus compliqué, parce qu’en général le MEMS est une grandeur physique à laquelle il faut adjoindre soit de la chimie, soit de la biochimie, soit de la biologie. Cela ajoute des contraintes spécifiques, liées particulièrement au matériau « roi » du MEMS : le silicium. Très utilisé pour les circuits microélectroniques, il n’est cependant pas biocompatible. Les cellules meurent rapidement à son contact. Il faut donc trouver des astuces pour l’encapsuler dans des couches d’autres matériaux, ou trouver des alternatives avec d’autres matériaux. En santé, la technologie MEMS n’est pas directement transposée de ce qui se pratique pour l’automobile. Par exemple, le diamant de synthèse peut entrer dans la conception de MEMS. Il a été utilisé pour développer des équivalents de ce qui se fait en silicium, ce qui permet d’avoir la partie biocompatible et aussi une très grande rigidité mécanique. N’étant pas produit à l’échelle industrielle, son utilisation en MEMS est plus de l’ordre de la recherche et à l’usage des laboratoires.

Quelles compétences, qualités sont selon vous indispensables, plus particulièrement sur vos domaines d’expertise ?

En général, la curiosité et l’ouverture d’esprit me paraissent indispensables pour faire de la recherche scientifique. Il faut sans cesse toujours avoir envie d’apprendre. Pour ce qui est de la science, la rigueur compte, car on est amené à développer de nouvelles théories, démontrer de nouvelles solutions. Il ne suffit pas qu’un dispositif fonctionne une fois et vérifier qu’il est étayé par des modèles. Pour la partie expérimentale, il faut suivre des protocoles qui soient reproductibles.

Ensuite, je pense que le chercheur doit avoir envie de travailler en équipe. Je vois la recherche comme un travail d’équipe, collaboratif, surtout pas isolé. Les bonnes idées jaillissent à plusieurs. En général, c’est en en discutant, en échangeant, en confrontant nos points de vue qu’on trouve la meilleure solution. Ensuite les compétences techniques et scientifiques permettent de gagner en autonomie dans ses recherches. La rigueur scientifique et l’honnêteté intellectuelle comptent aussi. Il est important de savoir mettre en valeur le travail des autres et pas uniquement le sien, d’avoir une pensée pour celui de l’équipe de maintenance des équipements, sans laquelle nous ne pourrions rien faire en salle blanche. Nous sommes dans la recherche très appliquée, nécessitant un environnement spécifique.

Quels sont vos projets, actuels et futurs ?

En recherche, je reste sur la thématique des capteurs pour la santé, l’interface avec le vivant. Je pense poursuivre là-dessus. Le vivant, c’est d’abord l’humain, avec les aspects santé, médicaux. Il englobe davantage que la personne, il concerne aussi l’environnement, et sa gestion, les plantes, l’alimentation, l’agriculture. L’environnement du campus nous laisse entrevoir de nouveaux domaines, de nouvelles opportunités. On parle beaucoup d’écologie.

C’est bien de développer des technologies de pointe, mais il faut aussi se poser aussi les questions de l’investissement financier, des objectifs, des enjeux sociétaux et du développement. Si je devais faire des choix, j’opterais pour des projets avec un vrai impact sociétal, soit avec des applications médicales avérées, soit un impact au regard de l’environnement, pour aller vers une amélioration par rapport à la gestion du risque climatique. On parle beaucoup de cette tendance et nous avons la chance de disposer de technologies qui permettent de fabriquer toutes sortes de capteurs. Il est nécessaire d’essayer de les mettre au service de ces applications.

Quels conseils adressez-vous à un chercheur ou un ingénieur qui arrive sur le marché du travail ?

Je suis à la fois en contact avec des étudiantes et étudiants qui sortent de cursus ingénieur et des jeunes docteurs qui viennent de passer leur thèse. Il est important – ce dont ils et elles n’ont pas toujours conscience – de choisir quelque chose qui leur plaît, qu’il s’agisse de l’entreprise dans laquelle ils ou elles travailleront, du sujet ou du projet sur lequel avancer. Ils ou elles doivent être motivés. Le temps passé au travail est important, il faut y trouver un intérêt propre, surtout quand on a un niveau d’étude suffisant pour pouvoir se permettre de choisir.

Côté savoir-être, être ingénieur.e ou docteur.e signifie savoir faire preuve d’autonomie, savoir prendre des initiatives sous peine de se voir confier des choses moins intéressantes, un peu répétitives. Le monde actuel bouge beaucoup, les technologies évoluent vite et cela demande une capacité à s’adapter à des changements de configuration. La génération actuelle a ces qualités, bien plus que les générations précédentes, mais il est important d’en être conscient. Il serait dommage d’hésiter devant une opportunité à l’international, lorsqu’on n’a pas encore de charge personnelle. Certains ne souhaitent pas aller à l’étranger, mais veulent essayer différents types de postes et multiplier les expériences. D’autres veulent partir sur quelque chose d’immédiatement technique et spécialisé. Il faut donc réfléchir à ce que l’on a envie de faire, au domaine qui semble attirant, à ce qui compte.

La partie recherche et développement dans l’industrie ou dans un grand groupe n’est pas très différente de celle menée par un ingénieur classique, avec une spécialisation plus poussée. Si c’est une carrière plus orientée vers la recherche dans des milieux académiques, à l’université ou dans des grands laboratoires de recherche, le milieu sera très compétitif et la concurrence importante, même au niveau international, rendant donc les carrières difficiles. Ce milieu est élitiste et pas le plus rémunérateur, mais ouvre une grande liberté. C’est donc un choix.

Que vous apporte la collaboration avec Techniques de l’Ingénieur en tant qu’autrice et conseillère scientifique ?

J’avais déjà écrit ou coécrit des articles en 2002 (autour des filtres) avant d’être sollicitée pour collaborer en tant que conseillère scientifique TI.

Techniques de l’Ingénieur dispose d’un bon rayonnement. C’est une revue que je conseille toujours à mes étudiants parce qu’elle a l’avantage d’être en français et de bonne qualité scientifique. Elle brasse de nombreux domaines en sciences et techniques, c’est très large. On accède facilement à des articles en lien avec le sujet d’intérêt, très bien pour réaliser une première bibliographie, un état de l’art.

J’ai accepté d’écrire des articles pour ces raisons. Je ne l’aurais pas fait pour n’importe quelle publication. En tant que conseillère auprès de Techniques de I’Ingénieur, je sollicite des collègues pour qu’ils rédigent ou actualisent des articles dans la ressource documentaire Électronique, en particulier la rubrique Électronique analogique. Le travail sur certaines actualisations est aussi une façon de se remettre à jour soi-même. Il est intéressant de faire des recherches sur ce qui a évolué. Mettre à jour un article permet d’actualiser ses propres connaissances, d’établir un état de l’art sur un sujet donné à un moment précis. L’organisation, consistant à mobiliser des collègues pour essayer de réviser d’autres articles, est intéressante puisqu’elle met en relation différentes personnes, est l’occasion d’interagir avec celles avec lesquelles on n’a peut-être pas beaucoup de contact habituellement.

Les contributions de Gaëlle Lissorgues aux Techniques de l’Ingénieur

Spécialiste des MEMS, des implants connectés « wearables » et de l’électronique, Gaëlle Lissorgues contribue avec les Techniques de l’Ingénieur en tant que conseillère scientifique et autrice.

Offre

Électronique

Rubrique en tant que conseillère :

Électronique analogique

Articles en tant qu’ autrice ou coautrice :

L’actualisation, en préparation, de l’article sur les microsystèmes paraîtra au premier semestre 2025 :

– Microsystèmes – Applications et mise en œuvre [E3090v2]

 

[1] À présent l’école normale supérieure de Paris-Saclay

[2] Cette spécialité n’existe plus aujourd’hui

[3] L’équivalent d’un Master 2 de recherches

[4] À l’époque l’UPMC ou Université Pierre et Marie Curie, à présent Sorbonne Université

[5] ESIEE : École supérieure d’ingénieurs en électrotechnique et électronique

[6] HDR : habilitation à diriger des recherches

[7] avec comme point de départ le transistor dans les années 1960

[8] Les grandes universités qui ont des salles blanches, Saclay avec le C2N, Toulouse avec le LAAS, le Leti/LMT de Grenoble, l’IEMN à Lille, FEMTO-ST à Besançon, et Renatech, le réseau académique Français de nanofabrication

[9] À l’époque ISTM, Institut Supérieur de Technologie du Management

[10] en collaboration avec Paris Cité

[11] Efficacité énergétique multi-échelles, d’une pompe à chaleur, d’un bâtiment, d’un quartier, voire d’une ville

[12], comme l’éolien, le solaire thermique, le solaire photovoltaïque, l’hydraulique, la biomasse, la géothermie

[13] DGA, la direction générale de l’armement

[14] sur des petits animaux, rats ou souris, dans le respect des réglementations

[15] ANR, l’agence nationale de la recherche

[16] La start-up Pixium Vision met à disposition des vidéos proposant des solutions pour pallier quelques-unes des difficultés évoquées.

Pasqal, le champion français du quantique

Faut-il opter pour une technologie à court terme, mais qui sera limitée ou sur une autre solution plus efficace, mais qui est à plus long terme ? Tous les acteurs de l’informatique quantique se posent certainement cette question. Actuellement, Google et IBM ont choisi la première option avec les supraconducteurs.

Fondée en 2019, Pasqal a choisi une piste plus prometteuse, mais qui « pourrait prendre des dizaines d’années » a déclaré Georges-Olivier Reymond, PDG de cette start-up.

Le rêve de voir un ordinateur décupler la puissance de calcul des machines classiques est poursuivi par des scientifiques depuis plus de trente ans. Mais il se heurte à d’importants obstacles technologiques. L’un des principaux défis est de continuer à augmenter le nombre de qubits tout en améliorant la qualité.

Pour l’instant, les ordinateurs quantiques ne peuvent pas faire grand-chose : les taux d’erreur élevés et la taille limitée des processeurs quantiques limitent considérablement leur puissance.

Pasqal ambitionne de relever ce défi en annonçant avoir réussi à charger plus de 1 000 atomes en une seule opération. Dans un environnement cryogénique à une température de 6 K (- 267 °C), la startup a réussi à contrôler des atomes refroidis à l’aide de champs électromagnétiques.

Talonner IBM

« Le piégeage réussi d’atomes de rubidium dans de vastes réseaux de pinces optiques, comprenant jusqu’à 2 088 sites, dans un environnement cryogénique à une température de 6 K représente l’un des derniers exploits de Pasqal dans le domaine de l’informatique quantique. C’est une première mondiale dans l’industrie. En mettant fortement l’accent sur l’ingénierie, Pasqal sort la technologie de l’atome neutre des laboratoires » a déclaré Loïc Henriet, Co-CEO de Pasqal, dans un communiqué.

Les atomes neutres présentent l’avantage d’être naturellement identiques (d’où l’absence de problèmes d’incohérence au niveau de la fabrication), d’avoir de longs temps de cohérence et de pouvoir être hébergés dans des environnements moins exotiques (à température ambiante). Autre intérêt majeur, ces atomes froids peuvent être utilisés pour créer des qubits pour ordinateurs quantiques à portes quantiques universelles ou des simulateurs quantiques analogiques.

L’approche suivie par Pasqal lui permet ainsi d’augmenter continuellement les performances de ses machines et d’apporter des solutions stables et efficaces à ses utilisateurs. Cette étape s’aligne sur la feuille de route stratégique de la start-up, qui met l’accent sur le développement d’ordinateurs quantiques de plus de 1 000 qubits, progressant vers 10 000 qubits à l’horizon 2026-2027. Le but est de générer une utilité industrielle dans des cas d’utilisation réels.

La start-up fait partie du groupe très restreint d’entreprises (la start-up française Quandela, la société britannique Quantinuum, la société finlandaise IQM, la société américaine Atom Computing) capables de construire et de vendre des processeurs quantiques à des clients.

Pasqal en a vendu notamment à des centres de calcul à haute performance soutenus par l’Union européenne en France et en Allemagne.

De quoi talonner sérieusement IBM qui commercialise actuellement un processeur de 127 qubits. En décembre dernier, le groupe a dévoilé son prototype de processeur à 1 121 qubits, baptisé Condor, lors de l’IBM Quantum Summit 2023.

Pasqal n’est pas la seule entreprise à travailler avec des atomes neutres. Aux États-Unis, la société californienne Atom Computing produit des processeurs de 100 qubits et développe actuellement un dispositif de plus de 1 000 qubits. La société QuEra, basée à Boston, propose déjà un processeur quantique de 256 qubits et vise 10 000 qubits en 2026.

L’ADOPTA : un réseau national unique dédié à la gestion durable des eaux pluviales

Née à Douai, dans le Nord, cette association a, petit à petit, étendu son rayonnement au niveau départemental, puis régional, pour finalement devenir une véritable référence nationale en matière de développement opérationnel et de promotion des techniques alternatives de gestion des eaux pluviales.

Dans le cadre de l’édition douaisienne du salon Cycl’Eau, organisée les 29 et 30 mai derniers à Gayant Expo, nous avons eu le plaisir d’échanger avec Jean-Jacques Hérin, qui est notamment revenu pour nous sur la genèse de l’association qu’il préside depuis sa création en 1997. Il nous en a également décrit la structure et les actions, avant de nous dévoiler quelques-unes des pistes que l’ADOPTA compte désormais explorer pour poursuivre son développement.

Techniques de l’Ingénieur : Pour quelles raisons, et dans quel contexte l’ADOPTA est-elle née ?

Jean-Jacques Herin, Adopta
Jean-Jacques Hérin est président de l’ADOPTA depuis sa création en 1997. © ADOPTA

Jean-Jacques Hérin : Au début des années 90, la région de Douai a connu une série de cinq orages décennaux, qui ont à chaque reprise provoqué l’inondation d’un même quartier. La cinquième de ces inondations est véritablement apparue comme insupportable, d’autant que des travaux avaient entretemps été entrepris dans l’espoir de juguler le problème.

Les élus et moi-même – j’étais à l’époque directeur du syndicat d’assainissement[1] local – en avons ainsi conclu que nous n’avions plus la capacité de gérer l’eau à son arrivée dans le réseau… Il nous est donc apparu indispensable de parvenir à la gérer en amont, avant qu’elle n’arrive jusqu’aux tuyaux. Autrement dit, de décentraliser la gestion de cette eau pluviale.

Dès 1992, les élus ont ainsi décidé de changer radicalement de politique en la matière, en adoptant une gestion à la source, et ce, sur l’ensemble du territoire, pas uniquement là où les inondations se manifestaient. Amener tout le monde à contribuer à cet effort a été pour nous un aspect très important. Cette approche impliquant la mise en place de solutions de gestion par chacun – et non plus par un service centralisé –, rapidement, les élus se sont trouvés confrontés à une problématique : comment mettre en place un outil de communication et d’accompagnement qui permettrait à cette politique d’être correctement appliquée, et par tout le monde ? L’approche associative leur est alors apparue comme la plus pertinente, et ils m’ont donc chargé de créer une association, l’ADOPTA, qui a vu le jour en 1997.

Adopta
Créée à Douai en 1997, l’ADOPTA rayonne aujourd’hui au niveau national. © ADOPTA

À l’origine, cet acronyme signifiait « Association Douaisienne pour la Promotion des Techniques Alternatives en matière d’eaux pluviales ». Les élus imaginaient en effet, à l’époque, que chaque territoire adoptant une telle politique décentralisée créerait sa propre structure associative d’accompagnement. Dans les faits, ça n’est pas du tout ce qu’il s’est passé !

Des élus d’autres territoires sont en effet venus de plus en plus nombreux à Douai pour constater les effets de cette politique. Notre territoire d’investigation s’est ainsi naturellement élargi, à un point tel qu’à un moment donné, nous avons changé la signification d’ADOPTA, tout en conservant ce même acronyme. Notre structure est devenue « l’Association pour le Développement Opérationnel et la Promotion des Techniques Alternatives en matière d’eaux pluviales ».

Et cela n’est pas qu’un vain mot : cette notion de « développement opérationnel » est réellement dans notre ADN. Nous sommes les seuls en France à véritablement nous pencher sur le côté opérationnel des choses, en apportant notamment des retours d’expérience du terrain.

En 2008, notre association s’est professionnalisée, puis a connu un second virage important en 2017 avec la fusion des régions. Nous avons en effet été amenés à étendre notre action au-delà des frontières de l’ex-région Nord-Pas-de-Calais, et à travailler ainsi sur les cinq départements des Hauts-de-France. Cette évolution préfigurait alors l’élargissement de notre travail à l’échelle nationale : tout le monde connaît en effet aujourd’hui – ou connaîtra demain – cette problématique inondation. La prise de conscience est forte. Reste toutefois à apporter aux élus des réponses à de nombreuses questions : quelle politique déployer, quels moyens mettre en œuvre, comment s’organiser… ? Pour ce faire, dix personnes composent aujourd’hui l’équipe de l’ADOPTA. Une équipe que nous prévoyons d’ailleurs de renforcer dans un avenir proche, une fois notre nouveau directeur installé (propos recueillis le 29/05/2024, n.d.l.r.) afin de pouvoir répondre à davantage de sollicitations encore.

Très concrètement, quels types d’actions menez-vous ?

Nous menons aujourd’hui principalement deux types d’actions. Des actions d’animation locale tout d’abord, notamment en Hauts-de-France, mais pas uniquement. Depuis quatre ans, nous agissons en effet aussi de cette façon sur le territoire de l’Agence de l’eau Rhin-Meuse, dans le cadre d’un marché public. Au 1er janvier 2024, nous avons par ailleurs ouvert, à leur demande, une antenne[2] couvrant les départements de la Mayenne et du Maine-et-Loire, toujours dans cet objectif d’animation. En parallèle d’autres actions d’animation que nous menons à l’échelle nationale, nous avons aussi noué un partenariat avec le pôle de compétitivité Aquanova, pour lequel nous assurons en quelque sorte un rôle de pilotage.

Le deuxième pan de notre action concerne quant à lui l’accompagnement technique et la formation. Nous proposons deux types d’offres en la matière : des modules organisés dans nos locaux de Douai, et d’autres, réalisés à leur demande chez nos clients – collectivités, élus, entreprises de TP et de maîtrise d’œuvre… – et conçus sur mesure. Nous proposons également des services d’accompagnement technique de projets, sans aller jusqu’à endosser nous-mêmes le rôle de maître d’œuvre. C’est un aspect qui se développe de plus en plus. L’objectif ultime serait ainsi que tout le monde soit formé, et que l’ADOPTA disparaisse… Cela fait toutefois déjà presque 27 ans maintenant que nous existons, et nous avons, à mon avis, encore un bon bout de chemin à faire !

Une association, ce sont aussi des adhérents… Qui et combien sont-ils ? Quels rôles jouent-ils au sein de l’ADOPTA ?

J’ai pour habitude de dire qu’en matière de gestion des eaux pluviales, il ne faut désormais plus de tuyaux, mais du réseau ! Un « réseau » entendu au sens de « réseautage » bien sûr. Par le biais de ce réseau d’adhérents que nous développons de plus en plus, nous avons ainsi établi des points d’appui dans l’ensemble du territoire où nous menons des actions d’animation, avec des acteurs capables d’assurer un certain nombre d’opérations « courantes ». Cela nous permet ainsi de n’avoir à apporter notre soutien direct qu’aux projets les plus complexes.

Nous cherchons aussi, d’autre part, à faire réseauter nos adhérents entre eux, afin qu’ils puissent partager des retours d’expériences, et réfléchir ensemble autour de problématiques particulières. C’est vraiment quelque chose de très important à nos yeux, que nous comptons ainsi amplifier à l’avenir.

Nous avons aujourd’hui franchi le cap des 200 adhérents, répartis en deux collèges : collectivités et autres établissements publics d’une part ; et acteurs de l’économie d’autre part : maîtrise d’œuvre et d’ouvrage privée, entreprises, architectes, paysagistes… Notre objectif étant de faire se rencontrer ces deux univers.

Nous avons pour cela notamment mis en place des showrooms, qui nous permettent de présenter les solutions proposées par les acteurs du monde économique aux collectivités, mais pas uniquement. Les apporteurs de solutions sont en effet également de plus en plus nombreux à vouloir découvrir toute la palette de solutions disponible sur le marché. Ceci, dans le but d’être les plus précis possible dans leurs prescriptions techniques, en allant jusqu’à indiquer à un client, le cas échéant, que leur produit n’est pas le plus adapté à son besoin. L’objectif n’est plus le profit à tout va, la démarche est de plus en plus responsable. Le business devient plus intelligent, et durable.

Outre les différents axes de travail actuels que vous nous décriviez, quelles autres pistes comptez-vous éventuellement explorer à l’avenir pour poursuivre le développement de l’ADOPTA ?

Jusqu’à présent, notre action s’est essentiellement concentrée autour des eaux pluviales en ville : la GEPU, pour « Gestion des eaux pluviales urbaines ». Or, l’eau pluviale n’a évidemment pas de frontières… Se pose ainsi toute la problématique des bassins versants présents en amont des villes. Il s’agit en général plutôt de territoires « ruraux », ou, plus précisément, d’« espaces naturels, agricoles et forestiers » (ENAF). Des espaces sur lesquels on constate un ruissellement de plus en plus important. Cette problématique entre de plus en plus dans les consciences, et ce, sous l’influence de trois phénomènes principaux : les coulées de boue, qui peuvent en effet affecter les milieux urbains et la sécurité des populations ; l’appauvrissement de la ressource en eau potable, toute eau ruisselante n’alimentant pas les aquifères ; et enfin l’augmentation des besoins d’irrigation agricole, sous l’effet là aussi de la diminution de l’humidité des sols. Ces trois éléments se conjuguent dans le mauvais sens du terme et forment ainsi un véritable cercle vicieux. Il nous faut donc renverser la vapeur, en travaillant par exemple sur les pratiques agricoles et l’enrichissement des sols en matière organique notamment, qui présente en effet de multiples intérêts, tels que l’augmentation de la résistance des sols à l’érosion et à la battance. Cela constitue également un formidable puits de carbone[3], et met ainsi en lumière la nécessité de décloisonner nos organisations et nos politiques, de façon à converger tous ensemble vers un même objectif, sans affrontement. C’est cette philosophie qui va en grande partie guider nos actions à venir.


[1] Syndicat Intercommunal d’Assainissement de la région de Douai (SIADO).

[2] ADOPTA compte aujourd’hui quatre antennes au niveau national : à Douai, Clairoix (près de Compiègne), Metz et Laval-Angers.

[3] Voir aussi le décryptage de l’IFPEN