CLEVER prône la sobriété en Europe

Après des travaux franco-français fin 2021 (RTE, négaWatt) et début 2022 (Ademe), le temps des scénarios est revenu, mais cette fois-ci à l’échelle européenne. Avant qu’Engie présente bientôt sa vision de la transition énergétique en Europe, 26 organisations de 20 pays viennent de publier une étude inédite sur le chemin que peut prendre le Vieux Continent pour atteindre la neutralité carbone. Mené par l’association française négaWatt, le projet nommé CLEVER (pour Collaborative Low Energy Vision for the European Region) regroupe notamment AirClim (Suède), Inforse-Europe (Danemark), Politecnico di Milano (Italie), Energie-Suffizienz (Allemagne), EcoServeis (Espagne) et l’Observatoire national d’Athènes (Grèce).

Le travail réalisé par ce consortium pendant quatre ans a permis de modéliser l’évolution des consommations et productions d’énergie jusqu’en 2050 pour 30 pays : l’Union européenne des 27, la Suisse, la Norvège et le Royaume-Uni. En partant des besoins en énergie finale des différents secteurs d’activité, ils ont appliqué des hypothèses de sobriété et d’efficacité, pour ensuite évaluer les moyens de production d’énergie primaire nécessaires. Conformément aux principes du scénario négaWatt, seules les énergies renouvelables sont prises en considération.

L’Europe partant d’une situation actuelle où les énergies fossiles représentent encore une forte part de la production, ce choix s’avère audacieux. Mais le projet CLEVER montre que cela est possible, avec en conséquence une forte réduction des émissions de gaz à effet de serre (-65 % dès 2030 par rapport à 1990) pour arriver à la neutralité carbone en 2045, sans recours à la capture et au stockage de carbone. Ce scénario européen est ainsi compatible avec une trajectoire mondiale limitant le réchauffement climatique à +1,5°C.

Définition de corridors de sobriété

Tout d’abord, l’action doit être engagée le plus vite possible et sans aucun frein les 25 prochaines années. En ce sens, les membres du projet ont listé une série de recommandations pour que les politiques énergétiques européennes soient adaptées. Il s’agit par exemple que la directive sur la performance des bâtiments en cours de révision mette très fortement l’accent sur la rénovation performante du parc résidentiel et tertiaire.

La baisse des consommations d’énergie finale est estimée à 55 % en 2050 par apport à 2019 : elle conditionne tous les résultats du scénario. Les secteurs du bâtiment et du transport représentent les deux tiers de cette baisse. Pour y arriver, le taux annuel de rénovation performante doit dépasser les 2 % vers 2030 dans tous les pays, alors qu’actuellement la moyenne est à 0,2 %. Les modes de chauffage passent majoritairement à l’électricité (principalement des pompes à chaleur), à la biomasse solide et aux réseaux de chaleur, tandis qu’énergies fossiles et vecteur gazeux ne sont plus utilisés. Dans le transport, le développement des véhicules électriques et au bioGNV, ainsi que le développement des transports en commun et des mobilités douces, sont un des moyens de réduire la consommation d’énergie de ce secteur de 39 % dès 2030.

Clever conso énergie finale
Consommation d’énergie finale (FEC) en Europe dans le scénario CLEVER, selon les différents secteurs, en 2019 et 2050. Source : CLEVER

Surtout, les porteurs du projet CLEVER insistent sur le fait que la sobriété est un axe crucial de la baisse des consommations. En France, en Allemagne et au Royaume-Uni, elle compte pour 20 à 30 % des économies d’énergie. La sobriété, dans la lignée de ce qu’a proposé le GIEC, est définie comme la redéfinition collective et individuelle des infrastructures et des pratiques pour minimiser la consommation d’énergie, de matériaux, de terres, d’eau et autres ressources naturelles tout en assurant le bien-être humain sans dépasser les limites planétaires. Elle se traduit donc certes dans des comportements individuels, mais ne trouvera sa pleine expression que si des politiques publiques lui sont dédiées. Elles doivent ainsi permettre la réduction des vitesses sur autoroute (110 km/h), l’augmentation du taux de remplissage des véhicules (covoiturage/autopartage), la réduction de la taille des véhicules et de la taille des logements, de moindres achats de biens de consommation, etc.

L’originalité de l’approche de CLEVER est de considérer que la sobriété va être source d’équité entre pays. En effet, l’étude prévoit des corridors de sobriété pour différents critères : selon la situation actuelle des pays, l’évolution sera à la hausse ou à la baisse pour que tous convergent. Par exemple, le nombre de kilomètres parcourus chaque année est compris entre 11 000 et 15 000 km par personne en 2050 (voir graphe), ce qui oblige certains pays à baisser leur moyenne tandis que d’autres pourront l’augmenter. Une analyse similaire est faite dans le bâtiment, pour que la moyenne par personne converge vers 32-40 m2 de logement, 18-25 litres d’eau chaude par jour et 500-700 kWh par an pour les usages électriques.

Clever corridor kilometres
Évolution du nombre de kilomètres par an et par personne dans le scénario CLEVER, en cohérence avec un corridor de sobriété. Source : CLEVER

Beaucoup plus de renouvelables

Le scénario CLEVER établit ensuite une trajectoire pour les productions d’énergie : fossiles et nucléaire sont progressivement réduits à zéro, tandis que la part des renouvelables augmente pour atteindre 100 % en Europe en 2050. La croissance des usages de la biomasse jusqu’à 2250 TWh en 2050 (surtout du biogaz et du bois-énergie non issu de la forêt) reste dans les limites des estimations les plus basses faites au niveau européen. Pour l’électricité, un fort développement du solaire photovoltaïque, de l’éolien terrestre et de l’éolien en mer permet de satisfaire tous les besoins. En 2050, ces trois technologies disposent respectivement de capacités installées égales à 1 366 GW, 546 GW et 328 GW. Les objectifs intermédiaires à 2030 sont en phase avec les ambitions européennes de REPowerEU.

L’électrification des usages, tant promue dans d’autres scénarios, est contenue dans CLEVER par l’efficacité et la sobriété énergétiques. Un certain équilibre entre vecteurs énergétiques (gaz, carburants liquides, hydrogène, biomasse solide, réseau de chaleur, électricité) est recherché pour tenir compte des contraintes sectorielles, de l’approvisionnement en matières premières, des niveaux de maturité technologique et des coûts. Ainsi, les vecteurs gazeux jouent un rôle particulier, portés par deux types de conversion :

  • l’électrolyse de l’eau qui permet de produire de l’hydrogène à hauteur de 1 030 TWh en 2050 pour l’UE27 ;
  • la pyrogazéification de biomasse, permettant à terme de produire 214 TWh de méthane de synthèse.

On notera que les objectifs de CLEVER pour l’hydrogène en 2030 (140 TWh) sont bien inférieurs à ceux de REPowerEU (plus de 600 TWh), ce qui permet au scénario alternatif de ne pas recourir du tout à des importations, sauf 25 TWh entre l’UE27 et la Norvège à l’horizon 2050. La montée en puissance de l’hydrogène après 2035 permet de satisfaire les nouveaux besoins dans l’industrie, dans le transport maritime international de marchandises (power-to-gas et power-to-liquid), dans la production d’électricité et de chaleur, et dans le transport domestique.

Avec tous ces éléments d’analyse, les auteurs du scénario CLEVER espèrent apporter de nouveaux arguments aux instances européennes afin que des objectifs ambitieux et cohérents avec cette approche sobriété-efficacité-renouvelables soient définis pour 2040.

Clever prod energie primaire
Évolution de la production d’énergie primaire entre 2020 et 2050, et part des énergies renouvelables, dans le scénario CLEVER. Source : CLEVER

U-Space : la gestion numérique du trafic aérien des drones se met progressivement en place

Selon l’EASA, le terme U-Space désigne « un ensemble de services numériques et automatiques fournis à l’intérieur de certaines parties de l’espace aérien ». L’U-Space a pour vocation « d’aider l’intégration en toute sécurité des drones avec l’aviation habitée partout en Europe dès 2023. »

U-Space : un système complexe pour voler en toute sécurité

Le concept U-Space est un système complexe, qui s’appuie sur un écosystème complet :

  • des espaces U-Space, des espaces aériens désignés par l’État ;
  • des services U-Space, reposant des services numériques et l’automatisation de fonctions ;
  • des services d’informations communes, pour la gestion du trafic ;
  • des prestataires de services certifiés ;
  • les exploitants de drones UAS ;
  • les autorités concernées[1].

Rassurez-vous, si les contours du concept U-Space peuvent sembler flous, c’est parce que son déploiement vient à peine de commencer.

Selon Paul Cassé, PDG et fondateur de la start-up CAPS, « l’U-Space est actuellement en cours de mise en place. Les discussions actuelles concernent principalement le choix des protocoles de communication, les technologies qui seront utilisées, les zones de vol autorisées, les conditions, etc. »

À quoi sert un espace U-Space ?

Un espace aérien U-Space est une zone désignée comme telle par les autorités, notamment la DGAC en France.

Cette zone peut-être, un petit couloir de vol, pour un trajet fixe automatisé, ou une zone plus grande avec des vols fréquents (par exemple pour la cartographie des forêts ou la gestion des exploitations agricoles).

Un drone destiné à voler dans un espace U-Space sera donc soumis à un certain nombre de règles, notamment de gestion de conflits, l’envoi de notifications de vol, etc.

Dans un espace U-Space, il y a ainsi, pour les exploitants de drones et les télépilotes, un recours obligatoire à une liste de services numériques pensés pour la sécurité des vols et aussi pour l’aviation habitée.

Quels seront les services U-Space ?

Les prestataires de services U-Space (USSP) auront l’obligation de fournir quatre services numériques indispensables pour voler en toute sécurité.

  • Identification du réseau : identifie les drones et les exploitants, leur localisation et diffuse les informations aux autres utilisateurs.
  • Géovigilance : informe les exploitants des règles à suivre dans l’U-Space.
  • Autorisation de vol UAS : accorde ou non les autorisations de vol, selon les zones et contraintes.
  • Informations sur la circulation : fournit les informations concernant le trafic aérien dans l’U-Space.

Par ailleurs, d’autres services facultatifs pourront être proposés, notamment les informations météorologiques et le contrôle de la conformité réglementaire.

Enfin, si elle est loin d’être d’actualité, l’automatisation complète du trafic fait bien partie des finalités du U-Space. Lors de l’interview qu’il nous a accordée, David Miret, fondateur de la plateforme de gestion de drone Clearance, nous a ainsi expliqué que « dans sa version complètement aboutie, l’U-Space sera entièrement automatisé et composé d’équipements qui communiquent tous entre eux de manière autonome : drones, avions, aéroports, etc. Chaque décollage de drone déclenchera une notification de vol et les avions signaleront leur présence, obligeant les drones à se poser. »

Si vous souhaitez mieux comprendre ce qu’est l’U-Space, vous pouvez aussi consulter ce document synthétique proposé par l’EASA et la DGAC ainsi que la page officielle proposée par le gouvernement.


[1] Contrôle

Des objets connectés fonctionnant sans pile

Les dispositifs de captage de l’énergie solaire sont équipés de cellules photovoltaïques capables de convertir les longueurs d’onde de la lumière du soleil en énergie électrique utilisable. Mais l’alimentation des capteurs IoT domestiques est beaucoup plus délicate.

L’exploitation de la lumière artificielle est en effet moins efficace que l’exploitation de la lumière du soleil. Mais Dracula Technology affirme avoir réussi à relever ce défi. Baptisée LAYER (Light As Your Energetic Response), sa technologie photovoltaïque organique a été conçue pour capter l’électricité de la lumière ambiante avec des intensités de 5 à 1 000 lux.

À partir de ces intensités lumineuses intérieures, une seule cellule LAYER de 64 mmx69 mm peut produire 3 V, 210 µA et 609 µW. Sa solution peut donc alimenter des appareils de faible puissance, même dans des conditions de faible luminosité allant jusqu’à 50 lux.

Autre atout majeur, les modules photovoltaïques à base de carbone de Dracula étant imprimés, ils sont exempts des terres rares et des métaux lourds que l’on trouve dans les modules photovoltaïques organiques à base de silicium.

Moins de maintenance

Dracula affirme également que sa solution est quatre fois plus économique que les batteries, avec une stabilité à long terme de 10 ans en utilisation intérieure. Son secret ? Les matériaux utilisés dans LAYER sont encapsulés dans des films barrières flexibles qui les protègent de l’humidité, de la pollution extérieure et des rayons ultraviolets. En termes de durabilité, la technologie LAYER résisterait également à des pressions atmosphériques de 550 à 1000 hPa et à des températures de -30 °C à 40 °C.

De quoi ouvrir de belles perspectives de développement pour cette entreprise qui a été créée en 2011 après avoir collaboré avec le CEA. En mars dernier, l’espagnol Atmosic Technologies, spécialisé dans le domaine des plates-formes sans fil de récupération d’énergie pour l’IoT, et Dracula Technologies ont annoncé leur collaboration sur un design de référence pour la commande à distance.

Outre les avantages environnementaux liés à l’absence de piles, les utilisateurs finaux peuvent économiser le temps et les coûts de maintenance nécessaires au remplacement des piles de différents appareils connectés, des balises aux télécommandes en passant par des capteurs industriels.

Au CES 2023 à Las Vegas, Dracula Technologies a présenté un enregistreur de température autonome (cruciale pour la logistique et le transport) et un capteur de CO2.

Avec les 5,8 millions de dollars levés par Dracula, elle pourrait passer en phase d’industrialisation. Actuellement, l’entreprise a une capacité de production d’environ 15 000 modules par semaine. Son nouveau capital lui permettra de produire 10 millions de modules par an d’ici la fin de l’année 2023.

La start-up CAPS veut révolutionner le transport urbain grâce à ses drones

Nous avons demandé à Paul Cassé, l’un de ses fondateurs de nous présenter ce système de transport urbain futuriste annoncé comme quatre fois plus rapide que les solutions actuelles.

Paul Cassé - CAPS
Paul Cassé, PDG de CAPS (Crédit : CAPS)

Physicien de formation, Paul Cassé est fondateur et PDG de CAPS, une start-up créée en 2019, dont la philosophie est de faire du vol urbain par drone une routine quotidienne.

Après une période d’incubation d’un an au sein de l’incubateur X-Novation de l’école Polytechnique, CAPS a présenté au Salon Vivatech en 2021 un premier prototype de drone de transport à l’échelle réelle.

Techniques de l’ingénieur : Bientôt des drones de transport des passagers ! La révolution du drone civil est-elle en cours ?

Paul Cassé : Le boom des drones est arrivé il y a un petit moment déjà. Si ses effets sont moins visibles en France et en Europe, ils le sont beaucoup plus en Asie et aux États-Unis. Par exemple, en 2022, on comptait déjà plus de 200 000 livraisons commerciales par drone, ce qui est faramineux.

Prototype CAPS
Le 1er prototype de CAPS présenté en 2021 au salon Vivatech (Crédit : CAPS)

Cette révolution du drone au niveau mondial est poussée par deux facteurs. D’une part, la technologie drone a atteint la maturité nécessaire au développement d’applications intéressantes. D’autre part, le contexte réglementaire se met en place petit à petit afin de favoriser les entrées commerciales et la mise sur le marché de ces nouvelles solutions.

Au niveau européen, l’Europe a ainsi décidé de créer un espace aérien dédié, pour permettre le déploiement du drone civil : l’U-Space, dont la limite haute se situe à 300 m d’altitude, c’est-à-dire en dessous des autres aéronefs.

CAPS veut réinventer la mobilité urbaine en utilisant des drones. De quelle manière ?

Aujourd’hui, toutes les grandes villes du monde souffrent de problèmes de congestion, si bien que les personnes qui habitent dans les grandes métropoles passent chaque année entre trois semaines et un mois dans les transports, uniquement pour les trajets domicile-travail. En plus d’être une perte de temps considérable, c’est une source de fatigue, de stress, mais aussi de pollution.

C’est un problème qui ne va faire que s’aggraver, puisque l’ONU estime qu’en 2050, les deux tiers de la population mondiale vivront en ville. Face à ce constat, les villes sont démunies, car la moitié de leur espace au sol est déjà utilisé pour la mobilité.

Par ailleurs, les modes de transport actuels sont une source d’inégalité sociale. Plus on est riche, plus on peut vivre à proximité des centres-villes et accéder aux transports urbains (vélo, tramway, métro) donc réduire son temps de trajet. Moins on est riche, plus on s’éloigne du centre et moins on a accès à ces services de transport. Cela pousse la population à utiliser la voiture, ce qui augmente considérablement les temps de trajet, mais aussi les coûts de transport. Aujourd’hui, 70 % des trajets domicile-travail sont effectués en voiture. Comme la voiture est un mode de transport flexible synonyme de liberté, le covoiturage est peu utilisé [1], ce qui n’arrange pas les choses.

L’idée derrière la création de CAPS est donc simple : libérer la 3e dimension pour les transports urbains. Depuis longtemps, les villes se développent à la verticale et se densifient, mais les réseaux de transport sont restés en deux dimensions. Il y a donc un problème d’échelle.

L’objectif de CAPS est de développer un service de transport urbain volant autonome monopassager, avec une conviction : faire des voitures volantes discrètes et abordables pour un usage en ville. Ces véhicules doivent donc être légers et autonomes. Enfin, au niveau économique, nous sommes positionnés sur le tarif d’une course en taxi.

Pourquoi l’automatisation est-elle cruciale ?

L’automatisation est l’une de nos priorités, car elle permet à la fois de réduire les coûts et de simplifier l’aspect réglementaire, en travaillant sur des couloirs aériens connus et bien identifiés une fois la ligne certifiée.

Notre système de transport urbain de passagers fonctionne sur la base d’une infrastructure d’atterrissage constitué d’un réseau de bornes. Ces « pods d’atterrissage » dédiés à nos aéronefs sont installables en moins d’une heure, car ce ne sont pas des bornes de recharge nécessitant un raccordement électrique de haute puissance extrêmement coûteux.

La flexibilité est un aspect très important du projet, car nous ne voyons pas la mobilité urbaine comme quelque chose de figé. Chaque pod est ainsi équipé d’une puce GPS de haute précision, ce qui veut dire qu’il peut être déplacé aisément tout en restant localisable par le drone. Ce réseau intelligent de dessertes est donc conçu pour évoluer avec la ville, au fur et à mesure de son extension et de l’organisation d’événements culturels ou sportifs.

Ce système de transport à l’avantage d’être rapide et pratique. Nous avons calculé qu’avec seulement 90 bornes, il était possible de relier chaque point de Paris intra-muros en cinq minutes. Pour l’utilisateur, c’est très simple : il utilise son application mobile pour commander une CAPS. L’aéronef s’envole de la station centrale, vole jusqu’au passager, l’envoie à sa destination, puis revient à la station centrale.

Cette station centrale à l’avantage de centraliser la commande, la recharge et la maintenance. Cela nous permet de réduire les coûts, de ne pas laisser d’aéronef dans l’espace urbain (ce qui évite les dégradations) et surtout d’optimiser la recharge énergétique, en nous inscrivant dans le réseau smart grid de la ville et en faisant de l’échange de batterie plutôt que de la recharge en direct [2].

Le battery swapping à plusieurs avantages. En plus de réduire le temps d’immobilisation des aéronefs, cela nous permet de recharger les batteries tout doucement, avec un ampérage maîtrisé, car il faut savoir que si la recharge rapide est pratique, elle réduit la durée de vie des batteries et peut provoquer un emballement thermique.

Pour quand la commercialisation de ce réseau de transport est-elle prévue ?

Nous espérons un déploiement de cette solution entre 2028 et 2032, selon les pays et l’avancée du cadre réglementaire [3]. En attendant de pouvoir lancer la commercialisation de notre service de mobilité, nous développons d’autres applications à partir du plateau rotor de notre drone. Cela nous permettra de financer le long et coûteux processus de certification du transport de passagers, mais aussi de collecter un solide retour d’expérience et de cumuler des dizaines de milliers d’heures de vol qui prouveront la fiabilité de notre technologie.

Dès 2025, nous lancerons ainsi une solution dédiée à la supply chain industrielle qui permettra de fluidifier et accélérer les échanges, sur des ports industriels et des sites d’assemblage de plusieurs hectares. En parallèle, nous sommes en train de lever des fonds dans le but de fournir nos premiers clients industriels.

Nous imaginons aussi des solutions pour assurer des liaisons rapides avec des zones insulaires ou dont l’accès est compliqué, ainsi qu’une multitude d’applications diverses : agriculture de précision, remplacement des grues de levage en construction, etc.


[1] Le taux de remplissage des véhicules est de seulement 1,1 !

[2] Battery Swapping

[3] Il n’existe pas pour le moment de cadre réglementaire pour le transport de passagers par drone

 

AI Act : L’Europe montre la voie vers un contrôle plus strict

ChatGPT : en quelques mois, les professionnels et les particuliers ont intégré cette intelligence artificielle dite « générative » lancée en novembre dernier par la start-up américaine OpenAI.

Juristes, développeurs de logiciels, médecins… Toutes les professions qui ne sont pas manuelles l’utilisent pour rédiger des rapports, des diagnostics ou encore des campagnes marketing. Même les collégiens et étudiants font appel à ses services pour leurs devoirs. Si le résultat d’une dissertation peut parfois surprendre par ses erreurs ou approximations, le recours à cette IA peut avoir des impacts forts sur les personnes et les entreprises.

D’où la législation proposée par l’UE. Son Artificial Intelligence (AI) Act se concentre principalement sur le renforcement des règles relatives à la qualité des données, à la transparence, à la surveillance humaine et à la responsabilité. Elle vise également à répondre aux questions éthiques et aux difficultés de mise en œuvre dans divers secteurs, allant des soins de santé et de l’éducation à la finance et à l’énergie.

Une définition encore trop large

« L’intelligence artificielle existe depuis des décennies, mais elle a atteint de nouvelles capacités grâce à la puissance de calcul », a déclaré Thierry Breton, commissaire européen chargé du marché intérieur, dans un communiqué. La loi sur l’intelligence artificielle vise à « renforcer la position de l’Europe en tant que pôle mondial d’excellence en matière d’IA, du laboratoire au marché, à garantir que l’IA en Europe respecte nos valeurs et nos règles, et à exploiter le potentiel de l’IA à des fins industrielles ».

Fin novembre 2022, le Conseil de l’UE a approuvé une version de compromis de la proposition de cette loi. Son texte considère désormais comme des pratiques d’IA interdites son utilisation à des fins d’évaluation sociale par des acteurs privés. De même, les systèmes d’IA qui exploitent les vulnérabilités d’un groupe spécifique de personnes, y compris les personnes vulnérables en raison de leur situation sociale ou économique.

Concrètement, les systèmes de notation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits. Quant aux applications de balayage de CV, qui classe les candidats à l’emploi, elles sont soumises à des exigences légales spécifiques.

Les règles relatives à l’IA générative contenues dans le projet de législation constituent un pas dans la bonne direction. Mais la définition de l’IA elle-même semble encore trop large. Pour l’instant, elle inclut en effet tout « système basé sur une machine qui est conçu pour fonctionner avec des niveaux variables d’autonomie » capable de « générer des résultats tels que des prédictions, des recommandations ou des décisions qui influencent les environnements physiques ou virtuels ».

La « règle ChatGPT », connue sous le nom d’art. 28b(4) AI Act EP Version, suscite également des interrogations. Ses obligations de transparence vont dans le bon sens, notamment en obligeant les fournisseurs de services d’IA à faire comprendre clairement aux utilisateurs qu’ils ont affaire à un système d’IA.

Cependant cette législation devrait également imposer certaines obligations à ceux qui génèrent du contenu d’IA en ligne, notamment pour aider à lutter contre la diffusion de fausses nouvelles et d’autres informations erronées.

Clearance : une plateforme pour aider les pilotes de drone professionnels à préparer leurs missions

Pour en savoir plus, nous avons interrogé David Miret, fondateur de Clearance, l’une de ces plateformes dont l’utilisation devient de plus en plus indispensable pour être certain de voler dans les règles !

david miret-clearance
David MIRET, CTO et fondateur de Clearance. (crédit : Clearance)

 Clearance est une plateforme de préparation de missions drone et de sécurisation de l’espace aérien. Elle est aussi bien destinée aux télépilotes indépendants qu’aux entreprises et aux aéroports.

David Miret est le CTO[1] de cette société qui estime que faire voler un drone dans un contexte professionnel devrait être simple et que c‘est la simplicité qui amènera l’efficacité et la sécurité.

Techniques de l’ingénieur : Clearance est une plateforme de drone. En quoi cela consiste-t-il ?

David Miret : Chez Clearance, notre mission est de faciliter l’insertion des drones dans l’espace aérien. Nous aidons les exploitants de drone à obtenir les autorisations leur permettant de voler dans les zones souhaitées par leurs clients.

Il faut savoir que la réglementation drone est particulièrement complexe et qu’il est difficile pour un exploitant de savoir quelle règle suivre, à qui s’adresser et sous quel format demander l’autorisation de voler.

Suivant les zones concernées, les organismes à contacter sont différents. Par exemple, en France, faire une demande en préfecture est obligatoire pour faire voler un drone en agglomération, alors que faire voler un drone près d’un aéroport nécessite l’autorisation de ce dernier. Les choses se compliquent encore, lorsqu’il s’agit de zones particulières : espaces naturels, zones militaires, sites nucléaires, etc.

Pour un exploitant de drone, les risques d’erreurs sont nombreux, car encore faut-il savoir que ces zones existent. Avec la plateforme Clearance, les exploitants n’ont plus qu’à cliquer, ce qui leur fait gagner du temps. Nous prenons en charge cet aspect administratif à leur place, ce qui leur évite d’avoir à éplucher des cartes aéronautiques et de chercher les bons contacts.

De la même manière que Doctolib met en relation les patients avec leurs praticiens, nous mettons en contact les exploitants de drone avec les organismes habilités à délivrer les autorisations de voler. À l’instar des autres plateformes, Clearance possède donc deux interfaces, une interface « exploitant » et une interface dédiée aux gestionnaires des espaces aériens, en particulier les aéroports.

Pour sécuriser les espaces aériens, les gestionnaires ont en effet besoin de savoir si un drone est susceptible de voler à proximité des zones sous leur responsabilité. Clearance leur fournit ces informations sous format numérique, ce qui leur permet d’accepter ou de refuser la demande d’autorisation.

La France fait-elle figure de cas particulier ou un cadre réglementaire européen existe-t-il ?

L’Europe est en train de créer un marché commun du drone avec des règles harmonisées[2]. En revanche, cette harmonisation prend du temps et certaines règles nationales resteront encore en vigueur quelques années. Par exemple, la réglementation européenne permet de continuer à voler selon des scénarios standards nationaux jusqu’au 1er janvier 2026.

Comme c’est le cas dans d’autres pays, des contraintes spécifiques à la France (par exemple la demande d’autorisation en préfecture) viennent aussi s’ajouter à la réglementation européenne.

Enfin, malgré les nombreux scénarios de vols européens proposés, il restera toujours des cas particuliers qui nécessiteront une demande d’autorisation et la connaissance de ces zones spécifiques.

La gestion numérique du trafic aérien des drones est-elle déjà une réalité ?

La législation européenne évolue dans ce sens. En effet, le 26 janvier 2023 est entré en vigueur le cadre réglementaire U-Space, un acronyme désignant un système de gestion numérique du trafic aérien des aéronefs sans équipage à bord (UAS).

Dans sa version complètement aboutie, l’U-Space sera entièrement automatisé et composé d’équipements qui communiquent tous entre eux de manière autonome : drones, avions, aéroports, etc. Chaque décollage de drone déclenchera une notification de vol et les avions signaleront leur présence, obligeant les drones à se poser.

Différents niveaux d’intégration sont prévus par la réglementation, en fonction du niveau d’automatisation. Là encore, si cela fait plusieurs années que l’on entend parler de U-Space, il faudra du temps avant de voir apparaître les premiers espaces U-Space entièrement automatisés. Pour l’entreprise qui désire développer un tel système, il y a déjà toute une partie technique à mettre en place. Ensuite, cette entreprise devra suivre un processus de certification l’autorisant à gérer cet espace.


[1] Règlements (UE) 2019/947 et (UE) 2019/945

[2] En français, le Directeur technique

L’avion à hydrogène compétitif d’ici 2035 ?

La question de la taxation du kérosène s’invite dans le début sur l’avion à hydrogène. Dans une nouvelle étude, l’ONG Transport & Environnement souligne en ce sens l’utilité de taxer le kérosène fossile à hauteur de 0,37 euro par litre, conformément à la proposition de directive de la Commission européenne. Avec une telle taxe, faire voler un avion à hydrogène sur des vols intra-européens coûterait 2 % de moins que les avions à kérosène fossile en 2035. Au contraire, en l’absence de cette taxe, l’avion à hydrogène entraînerait un surcoût de 8 %.

En Europe, l’avion à hydrogène est développé par Airbus via l’un de ses concepts « ZEROe ». Et il est prévu pour 2035. « La construction de ces avions est économiquement possible, mais si nous voulons qu’Airbus tienne ses promesses, nous devons créer un marché pour les avions à zéro émission, en taxant le carburant fossile et en imposant progressivement les avions à zéro émission à l’avenir » réagit Jérôme du Boucher, responsable aviation à T&E France, via communiqué.

Un déploiement de l’hydrogène qui coûtera très cher

L’étude de Transport & Environnement estime à 299 milliards d’euros les coûts nécessaires pour produire et distribuer l’hydrogène destiné à l’aviation européenne jusqu’en 2050. Si le développement des avions à hydrogène ne représente que 5 % de ce coût, la production d’hydrogène par électrolyse de l’eau fait monter la facture.

L’étude prévoit que l’ensemble de cet hydrogène soit produit via des sources renouvelables, majoritairement de l’éolien et du solaire photovoltaïque. Cette production représente 54 % de la note, soit 161 milliards d’euros. Dans ce scénario, 6,7 millions de tonnes d’hydrogène par an seraient nécessaires pour propulser les avions à hydrogène en 2050. Par ailleurs, 23 % de la facture se rapporte à la liquéfaction de l’hydrogène, 12 % au développement de l’infrastructure dans les aéroports, et 6 % à sa distribution.

Il serait possible de faire 100 milliards d’euros d’économies tout en réduisant les émissions, avance Transport & Environnement. Cette autre projection repose sur une diminution de moitié du trafic lié aux voyages d’affaires par rapport à 2019, et un trafic lié aux loisirs qui ne dépasse pas le niveau pré-Covid. Ici, la demande d’hydrogène serait de 4 millions de tonnes par an en 2050. « Il n’existe pas de solution miracle pour décarboner l’aviation, rappelle Jérôme du Boucher. Les carburants durables, la réduction de la demande et l’hydrogène joueront tous un rôle. »

Valoriser de nouvelles matières grâce au traitement par calcination flash

Le traitement par calcination flash est un procédé inventé en 1992 et initialement utilisé pour transformer des argiles kaolin en métakaolin, c’est-à-dire en un matériau chimiquement actif et présentant des propriétés pouzzolaniques. En clair, ce matériau peut se comporter comme un liant dans une matrice cimentaire pour en améliorer ses performances. Argeco est le seul industriel en France à utiliser ce procédé sur son site de Fumel en Nouvelle-Aquitaine. Persuadé du potentiel de cette technologie, l’IMT Nord Europe a construit un démonstrateur semi-industriel dans le but de transformer de nouvelles matières, notamment des sédiments de dragage.

« Pour fabriquer un matériau pouzzolanique, la méthode conventionnelle consiste à chauffer le produit pendant au moins une heure, à une température qui dépend du produit et qui varie entre 900 degrés et peut aller jusqu’à 1450 degrés dans le cas d’un ciment, explique Mouhamadou Amar, enseignant-chercheur à l’IMT Nord Europe. L’avantage de la calcination flash est que l’on chauffe moins d’une seconde, à une température comprise entre 600 et 800 degrés. La rapidité du procédé et le fait que l’on chauffe moins permet un gain énergétique, qui se traduit au final par un gain économique et environnemental. »

Le procédé se divise en quatre étapes. Les sédiments sont d’abord séchés puis broyés jusqu’à obtenir des particules d’un diamètre inférieur à 40 micromètres. Elles sont ensuite introduites dans le doseur de l’unité de calcination, puis transportées grâce à une vis sans fin jusqu’à l’entrée de la chambre de combustion où elles sont propulsées à l’intérieur grâce à de l’air comprimé. Les particules sont alors soumises à un flux de chaleur qui assure la calcination à la température ciblée pendant moins d’une seconde.

Ces particules tombent ensuite dans une colonne de calcination, où a lieu la déstructuration du matériau grâce à une déshydroxylation. Toutes les liaisons OH vont en quelque sorte être coupées et devenir des sites potentiellement réactifs. Le matériau devient chimiquement actif et pouzzolanique. La dernière étape consiste à récupérer le produit dans une unité cyclone dans laquelle environ 95 % du matériau traité est récupérable, et le reste est filtré afin de s’assurer que les micros et nanoparticules ne s’échappent pas dans l’environnement.

Réduire l’empreinte carbone des bétons grâce à la calcination flash

Le matériau obtenu s’appelle une addition minérale et est apte à réagir avec de la portlandite, un composé produit par le ciment lorsque celui-ci est hydraté. « Le mélange de ces deux produits apporte une plus grande résistance à une matrice cimentaire, améliore sa porosité, sa durabilité et ses performances à long terme, complète l’enseignant-chercheur. Les additions minérales sont couramment utilisées dans la construction et peuvent être fabriquées à partir du kaolin. Ce qui nous distingue, c’est de valoriser un matériau de départ différent, à savoir des sédiments de dragage ou des terres, et ensuite d’utiliser la technologie de calcination flash pour les fabriquer. Depuis trois à quatre ans, les cimentiers s’intéressent à ce procédé, car ils doivent trouver des solutions pour réduire leur empreinte carbone. L’un des moyens est d’utiliser moins de ciment et de le substituer en partie par une addition minérale, qui a moins d’impact environnemental, en particulier celle produite par calcination flash. »

L’autre avantage de cette technologie est qu’elle peut s’utiliser sur une large gamme de matériaux. L’IMT Nord Europe l’a testée avec succès sur des sédiments de dragage et explore la possibilité de valoriser des terres excavées (remblais) ainsi que des fines de lavage issues du traitement de déblais et de matériaux de déconstruction. « Aujourd’hui, tous ces matériaux sont considérés comme des déchets et nous étudions comment les valoriser pour les considérer comme une ressource en leur apportant de la valeur », ajoute Mouhamadou Amar.

Les scientifiques explorent également une autre piste de valorisation du procédé de calcination flash en développant une nouvelle catégorie de matériaux, à savoir des géopolymères. Contrairement à une addition minérale, l’objectif ici est qu’ils se substituent à 100 % à du ciment portland, et qu’ils servent à la fabrication d’ouvrages en béton, avec le même niveau de performance que les constructions fabriquées en béton ordinaire. Ces travaux de recherche sont actuellement en cours.

Des limites « sûres » et « justes » définies pour la planète

L’accord de Paris vise à limiter le réchauffement climatique à 2 °C, voire 1,5 °C d’ici la fin du siècle par rapport à l’ère préindustrielle. Mais selon une étude menée par un collectif international de plus de quarante chercheurs et parue ce 31 mai dans la revue Nature, il faudrait limiter le réchauffement à 1 °C pour respecter une limite climatique sûre et juste. Le monde ayant dépassé cette limite avec un réchauffement actuel de 1,2 °C, des dizaines de millions de personnes souffrent déjà d’impacts.

Les chercheurs rappellent qu’au-delà du réchauffement climatique, la science montre qu’il faut préserver les autres processus et systèmes biophysiques qui déterminent l’habitabilité de la planète, régulent la stabilité et la résilience du système terrestre. Le collectif de chercheurs a quantifié, au niveau local et global, pour 5 des 9 limites planétaires, des limites « sûres » qui « garantissent des conditions stables et résilientes sur Terre » et des limites « justes » qui « minimisent l’exposition humaine à des dommages importants ». Elles concernent le changement climatique, l’érosion de la biodiversité, le cycle de l’eau douce, la perturbation du cycle du phosphore et de l’azote, et l’augmentation des aérosols dans l’atmosphère.

Des limites déjà dépassées

Sur les huit limites assurant la stabilité et la bonne santé du système Terre, sept dépassent les niveaux désignés comme « sûr » et « juste ». « Cela signifie que si une transformation rapide ne se produit pas, il est très probable que des points de bascule irréversibles et des impacts généralisés sur le bien-être humain seront inévitables », explique Johan Rockström, auteur principal de l’article.

Les scientifiques estiment ainsi que pour respecter une limite sûre et juste, il faudrait préserver entre 50 et 60 % de l’écosystème naturel mondial, contre moins de 50 % actuellement. Il faudrait également que chaque kilomètre carré d’écosystème modifié par l’Homme comprenne tout de même au moins 20 à 25 % d’écosystèmes naturels. Cette limite n’est pas respectée dans deux tiers de la superficie terrestre dominée par l’Homme, relèvent les auteurs.

Les scientifiques définissent la limite sûre et juste à ne pas dépasser au niveau local pour les aérosols à 15 μg/m³ d’exposition annuelle moyenne aux PM2,5. L’étude estime aussi qu’il ne faudrait pas modifier plus de 20 % du débit mensuel des eaux de surface. Cette limite serait pourtant dépassée pour 34 % de ces eaux. Concernant les eaux souterraines, la limite est simple : il faut des prélèvements annuels inférieurs à la recharge. Cette limite n’est pourtant pas respectée dans 47 % des cas.

Enfin, pour ne pas détraquer les cycles naturels des nutriments, le surplus au niveau mondial ne devrait pas dépasser 57 téragrammes d’azote par an (TgN/an), contre 119 TgN/an actuellement. Et il faudrait ajouter au maximum entre 4,5 et 9 téragrammes de phosphore par an (TgP/an), contre 10 TgP/an actuellement.

Amélioration de la sécurité aérienne : l’exemple du vol AF447 Rio Paris

Le 1er juin 2009, le vol AF447 disparaît au-dessus de l’océan Atlantique, faisant 228 victimes. Il s’agit de l’accident le plus meurtrier de l’histoire d’Air France.

Que s’est-il passé ? Aujourd’hui, le BEA (bureau d’enquête et d’analyse) a reconstitué l’accident presque minute par minute.

Nous savons par exemple que le commandant de bord est allé faire une sieste quelques minutes avant le crash. Remplacé par le copilote de renfort, ce dernier se trouve alors en compagnie du copilote, qui devient le responsable du vol, en l’absence du commandant de bord. 

L’avion, sous pilotage automatique, entre dans la zone de convergence intertropicale, une zone connue pour abriter des cumulonimbus s’élevant jusqu’à 15 kilomètres d’altitude. Pour éviter les turbulences, les pilotes choisissent de contourner le système de perturbations, en modifiant légèrement la trajectoire vers la gauche. Quelques minutes plus tard, le pilote automatique se désengage, suite au gel de trois sondes Pitot. Ces sondes situées sur l’avant de l’avion servent à mesurer la pression dynamique, c’est-à-dire la pression que l’air exerce sur l’avion pendant son vol. Le gel a rendu les sondes inopérantes, fournissant aux pilotes des informations erronées quant à la vitesse réelle de l’avion. L’avion commence alors à décrocher, sans que les pilotes ne s’en rendent compte. Ces derniers cabrent l’appareil, en vain. La situation dure près de quatre minutes, avant que l’appareil ne chute puis s’écrase en mer.

L’avion se brise au contact de l’océan, à près de 280 kilomètres par heure. Tous les passagers meurent sur le coup, et la plupart des gros morceaux de l’avion coulent rapidement, à plus de 3000 mètres de profondeur.

L’enquête, confiée au BEA du Bourget va durer des années, pendant lesquelles les enquêteurs vont reconstituer le vol dans ses moindres détails. Le procès qui vient de se terminer est surtout l’occasion d’observer comment cet accident tragique a permis à la sécurité aérienne de se renforcer, et de tirer des leçons de ce drame.

Ainsi, le givrage des sondes Pitot n’est aujourd’hui plus un problème. En effet, ces sondes, qui ont toujours une tendance à givrer lors de certaines phases du vol, sont depuis quelques années accompagnées par un capteur indépendant, situé dans le flux d’air des moteurs Rolls-Royce. Ainsi positionné, ce capteur ne risque en aucun cas de geler, et permet au pilote de connaître la vitesse de l’avion par rapport au sol, le temps que les sondes Pitot redeviennent opérationnelles. 

Autre évolution notable, l’automatisation de certaines manœuvres de secours, pour relayer l’équipage en cas de problème. Alors que les pilotes du vol AF447 n’ont pas pu identifier le décrochage en cours de l’appareil, le forçant inutilement à cabrer et entraînant finalement sa chute, le rapport d’enquête établit clairement que ces erreurs, humaines, ont été décisives. Peu de temps après l’accident, Boeing a estimé que 80% des accidents aériens étaient causés par des erreurs humaines. D’où le développement de logiciels d’aide au pilotage, qui permettent au pilote d’être secondé dans certaines situations en vol. 

Des systèmes automatisés de descente rapide de l’avion ont également vu le jour, encore une fois pour pallier un défaut de réponse de l’équipage lors par exemple d’une dépressurisation. L’avion descend alors, en pilote automatique, jusqu’à une altitude de 4000 mètres, à laquelle les passagers n’ont plus besoin du masque pour respirer.

Plus généralement, la récolte de données de vols et l’usage de ces données permet aujourd’hui de mettre au point des logiciels pouvant s’adapter aux conditions de vols, avec une grande précision, au vu de la masse de données traitées par ces simulateurs.

Les boîtes noires, qui sont les véritables coffres forts emmagasinant les données d’un vol, transmettent désormais, pour les avions survolant des zones maritimes, les données du vol en direct, afin de permettre, si quelque chose ne fonctionne pas, de pouvoir en déterminer l’origine le plus rapidement possible. Ces boîtes noires sont également aujourd’hui éjectables. Pour rappel, le BEA avait mis 2 ans à retrouver la boîte noire du vol AF447. 

La convention annuelle NextMove sur la mobilité durable, à ne pas manquer le 22 Juin !

Le rassemblement annuel du pôle de compétitivité NextMove revient cette année pour oxygéner vos idées et fédérer les principaux acteurs de la mobilité et de l’industrie automobile française afin de relever les défis technologiques pour une mobilité innovante et responsable. Cet événement aura lieu le 22 juin dans les Yvelines à l’Oxygène Factory, situé aux Mureaux.

START 2023 est le carrefour pour tisser des liens, partager des expériences, échanger et créer des opportunités avec 300 experts et dirigeants du secteur autour de la mobilité décarbonée, inclusive et créatrice d’emploi.

A cette occasion, START vous propose un programme ambitieux autour :

  • d’une conférence inspirante avec des interventions dynamiques sur des thèmes d’actualité, qui seront rythmées par des success stories des membres du pôle et la remises de trophées,
  • de visites de sites industriels d’ArianeGroup – Les Mureaux, le site de Renault Flins et de Stellantis Poissy,
  • d’une convention d’affaires, pour booster votre développement et rencontrer les entreprises phares du territoire lors de rendez-vous qualifiés, préprogrammés.

Vous aurez également la possibilité d’assister à une présentation de 2 démonstrateurs collaboratifs – navette autonome Navetty et NextCar. Vous pourrez aussi rencontrer les lauréats des Awards de la Mobilité 2023 et également découvrir la nouvelle édition du Book des Success stories NextMove.

 

 

 

PROGRAMME & HORAIRES

  • Visites de sites : 9h-12h
  • Déjeuner : 12h-13h
  • Convention d’affaire – RDV B2B : 13h-15h
  • Assemblée Générale : 15h-16h
  • Networking informel : 16h-16h30
  • Conférence prospective : 16h30-18h45
  • Networking informel : 19h-20h

NextMove, en quelques mots

Le pôle de compétitivité, créé en juin 2006 et implanté sur les Régions Normandie et Île-de-France, tisse et anime les liens entre grands industriels, PME, startups, académiques, centres de recherche et territoires dans un réseau dynamique capable pour renforcer leur compétitivité et accompagner les transitions. Il compte plus de 600 membres et accompagne plus de 600 projets labellisés (dont plus de 320 financés). C’est le plus grand réseau français d’excellence scientifique et technique où se développent des collaborations durables entre les différents acteurs de l’écosystème Automobile et Mobilités.

Plus d’informations sur la convention en cliquant ici.

Pollution plastique : un traité mondial en discussion à Paris

Aboutira-t-on à un traité international contre la pollution plastique qui soit juridiquement contraignant et qui couvre l’ensemble du cycle de vie des plastiques ? C’est en tout cas l’objectif poursuivi par la deuxième session de négociations qui s’est ouverte au siège de l’Unesco à Paris, le 29 mai et qui se tient jusqu’au 2 juin 2023.

Mais les négociations patinent déjà. Les 175 pays réunis à Paris n’avaient pas réussi à entamer mardi soir les négociations sur le fond du sujet. En cause : un premier blocage sur les règles d’adoption finales du texte. L’Arabie saoudite et plusieurs pays du Golfe, ainsi que la Russie, la Chine, l’Inde ou encore le Brésil, refusent que le futur traité soit approuvé par un vote à la majorité des deux tiers si aucun consensus n’était trouvé. Ils s’opposent ainsi à une majorité de pays qui défendent un tel vote comme recours contre un éventuel désaccord final, afin d’éviter une minorité de blocage.

Pour un traité international juridiquement contraignant

Pour rappel, ce projet de traité a été décidé en mars 2022 par une résolution historique lors de la cinquième Assemblée des Nations Unies pour l’environnement. Après une première session de négociations en Uruguay à la fin de l’année, les enjeux de ce deuxième volet de négociation sont importants. Il doit en effet proposer une première ébauche de texte qui doit être la plus ambitieuse possible pour servir de base solide aux prochaines discussions. Trois autres sessions de négociations sont prévues d’ici fin 2024 avant la conférence diplomatique d’adoption du traité en 2025.

Tout le champ d’application est à construire. Les mesures pourront aller jusqu’à encadrer la production et la consommation ou interdire certains plastiques. Le traité devra prévoir des moyens financiers et les transferts de technologie suffisants pour parvenir à cette ambition. Il s’agira enfin de s’accorder sur les définitions appartenant au champ lexical de la lutte contre la pollution plastique.

« L’océan ne peut plus attendre, il faut que les États s’accordent sur un lexique commun, notamment la définition du plastique, fixent des objectifs de réduction de la production plastique, avec l’interdiction des résines les plus dangereuses, et adoptent des mesures contraignantes pour les atteindre », juge Diane Beaumenay-Joannet, responsable plaidoyer déchets chez Surfrider Foundation Europe via communiqué.

La haute ambition pour mettre fin à la pollution plastique

Parmi les 175 pays, la Coalition de la Haute Ambition pour mettre fin à la pollution plastique (HACEPP) comprend un groupe de plus de 50 pays. Conduite par le Rwanda et la Norvège, elle défend l’obtention d’un traité à l’ambition maximale, notamment pour mettre fin à la pollution plastique d’ici 2040. La coalition défend la nécessité de disposer d’un texte incluant des mesures contraignantes, reposant sur les principes de précaution, du pollueur-payeur ou encore de hiérarchisation des déchets.

Elle souhaite remplir trois objectifs : limiter la consommation et la production de plastiques à des niveaux durables, promouvoir une économie circulaire des plastiques qui protège l’environnement et la santé humaine et, enfin, assurer une collecte, une gestion et un recyclage efficaces des déchets de plastique.

L’agriculture intensive, première pression des oiseaux en Europe

En 37 ans, de 1980 à 2016, le nombre d’oiseaux a baissé de 25 % sur le continent européen, calcule une nouvelle étude parue dans la revue PNAS (Proceedings of the National Academy of Sciences). Les chiffres sont vertigineux : chaque année, 20 millions d’oiseaux disparaissent d’une année sur l’autre. Cette étude, menée par l’Université de Montpellier et ayant impliqué une large collaboration scientifique européenne, souligne néanmoins une certaine variabilité selon les écosystèmes. Si la chute ne touche que 18 % des oiseaux forestiers, elle atteint 28 % des oiseaux urbains, mais 57 % pour les espèces des milieux agricoles.

Grâce à un vaste jeu de données portant sur 20 000 sites de suivi écologique dans 28 pays européens, pour 170 espèces d’oiseaux différentes, les chercheurs ont pu hiérarchiser les grandes pressions menant à ces disparitions. Résultat : l’agriculture intensive est l’élément principal menant à cette disparition. « Nous trouvons que l’intensification de l’agriculture, en particulier l’utilisation des pesticides et des engrais, constitue la pression principale pour le déclin de la plupart des populations d’oiseaux, en particulier ceux qui se nourrissent d’invertébrés », soulignent les auteurs dans cette étude. Ils pointent ainsi la raréfaction des insectes due à l’utilisation de la chimie de synthèse.

Des pressions variables selon les espèces

Pour les autres pressions, les réponses aux changements varient plus spécifiquement selon les espèces. « Le couvert forestier est associé à un effet positif et l’urbanisation croissante à un effet négatif sur la dynamique des populations, tandis que le changement de température a un effet sur la dynamique d’un grand nombre de populations d’oiseaux, dont l’ampleur et la direction dépendent des préférences thermiques des espèces », précisent les auteurs. En particulier, l’augmentation globale des températures est responsable de 40 % du déclin des espèces préférant les températures froides, mais aussi de 18 % des espèces préférant le chaud.

En France spécifiquement, le nombre d’oiseaux agricoles et forestiers a respectivement diminué de 43 % et 19 % alors que le nombre d’oiseaux nichant en milieu urbain a, lui, augmenté de 9 %. Des espèces sont particulièrement impactées par ces évolutions. Les populations de moineau friquet, de tarier des prés et de pipit farlouse ont par exemple baissé d’environ 75 %.

Alors que les oiseaux sont impliqués dans des interactions fondamentales, leur disparition met en péril l’ensemble des écosystèmes. Leur rôle est en effet primordial dans la prédation et la régulation d’autres espèces, la dissémination des graines, mais aussi les ressources pour d’autres espèces prédatrices, rappelle l’étude.

Webinar : les bonnes pratiques de mesure pour l’analyse de l’eau en milieu naturel et dans les eaux résiduaires

Le Collège Français de Métrologie s’associe avec Techniques de l’Ingénieur pour vous proposer un webinar gratuit sur l’analyse de l’eau en milieu naturel.

 

INSCRIPTION

 

Objectifs

Les intervenants vous feront découvrir et mieux comprendre la Directive Cadre sur l’Eau et les analyses physico-chimiques pour l’analyse de l’eau en milieu naturel.

Programme

  • Lauriane Gréaud-Hoveman, directrice du programme AQUAREF chez INERIS, interviendra sur les notions d’enjeux et de contexte réglementaire.
  • Jean-Philippe Ghestem d’AQUAREF/BRGM et Azziz Assoumani d’AQUAREF/INERIS présenteront les opérations d’échantillonnage et les analyses physico-chimiques dans le cadre de la Directive Cadre sur l’Eau.

Animé par :

Lauriane Gréaud-Hoveman est chargée de mission biodiversité et directrice du programme AQUAREF, au sein de l’Institut national de l’environnement industriel et des risques (INERIS).

Jean-Philippe Ghestem est chef de Projet au service géologique national (BRGM), et intervenant AQUAREF.

Azziz Assoumani est ingénieur Etudes et Recherche en qualité de l’eau chez INERIS et intervenant AQUAREF.

Un webinar en partenariat avec 

 


 

Crédit image de une : Freepik – freepic.diller

Une personne paraplégique marche grâce à une interface cerveau-moelle épinière

Une lésion au niveau de la moelle épinière peut endommager les circuits descendants. Or, c’est par eux que transitent les commandes motrices envoyées aux neurones impliqués dans la marche. Le résultat peut aller jusqu’à la paralysie des jambes du sujet. Lors de précédents travaux, des chercheurs de l’École Polytechnique Fédérale de Lausanne (EPFL) avaient mis au point un logiciel capable de programmer l’envoi d’une stimulation électrique ciblée pour chaque activité motrice. Le dispositif nécessitait de nombreux capteurs de mouvement afin de déterminer les intentions de l’individu. Finalement, le sujet pouvait marcher de manière peu naturelle, et jamais sur un terrain difficile d’accès. Mais désormais, un partenariat franco-suisse entre des neuroscientifiques et des neurochirurgiens de l’EPFL/CHUV/UNIL et du CEA/CHUGA/UGA est parvenu à restaurer la communication entre le cerveau et la moelle épinière…

Un pont digital soutenu par deux implants

L’interface cerveau-moelle épinière mise au point par l’équipe de recherche internationale fonctionne comme un pont digital. Il est constitué de deux implants, l’un placé au niveau du crâne et l’autre sur la colonne vertébrale. Le premier est tiré de la technologie WIMAGINE. Il s’agit d’un boîtier circulaire en titane de 50 mm de diamètre, contenant 64 électrodes et situé à la surface du cortex cérébral moteur. Il enregistre l’activité corticale avant de la transmettre par communication sans fil à deux antennes externes fixées dans un casque personnalisé pour le patient, Gert-Jan, 40 ans et paraplégique des suites d’un accident de vélo il y a 10 ans. Les signaux corticaux sont ensuite transférés à une unité de traitement qui génère des prédictions d’intentions de mouvements. Une fois converties en stimulations, ces intentions parviennent au logiciel développé par l’EPFL. C’est alors que le deuxième implant entre en jeu. Ce neurostimulateur, ACTIVA RC, reçoit les informations reçues des antennes et les transmet au champ d’électrodes auquel il est connecté. Les électrodes délivrent une stimulation électrique dans la zone de la colonne vertébrale appelée espace épidural, en ciblant les racines nerveuses spécialisées dans le mouvement des jambes.

Gert-Jan
Gert-Jan, paraplégique, a retrouvé le contrôle naturel de ses jambes et peut marcher en actionnant leur mouvement uniquement par la pensée. Crédits : Jimmy Ravier/CEA.

Et le « miracle » se produit ! Gert-Jan parvient à se tenir debout, à monter des escaliers et à marcher sur tout type de terrain. Il obtient de nouveau un contrôle volontaire et adaptatif sur l’amplitude et le rythme de ses pas. Autre point positif décrit par l’équipe de recherche dans Nature le 24 mai 2023, il semblerait que la neuroréhabilitation ait aidé à la récupération neurologique du patient. En effet, celui-ci est capable de marcher avec des béquilles alors même que l’interface est désactivée. Il est donc possible que de nouvelles connexions nerveuses se soient formées… Cette formidable avancée technologique ouvre une nouvelle ère dans le traitement d’autres déficits moteurs (bras, mains) dus à différents troubles neurologiques (AVC). Le projet se poursuit désormais en lien avec la compagnie ONWARD Medical. La collaboration a déjà reçu le soutien du Conseil Européen de l’Innovation en vue du développement d’une version commerciale du pont digital. L’objectif final étant de mettre cette technologie à la disposition du plus grand nombre.

Geoflex en passe de démocratiser « l’hypergéolocalisation »

Officiellement née en 2012, Geoflex a tout d’abord connu une phase de maturation, qui s’est poursuivie jusqu’en 2016, année de la signature d’un contrat de partenariat avec le CNES. Le Centre national d’études spatiales est en effet à l’origine, après plus de douze ans d’efforts, de la technologie « PPP » (Positionnement Ponctuel Précis) à laquelle fait appel Geoflex pour développer son offre de services. L’entreprise ambitionne en effet de se positionner en tant qu’opérateur d’augmentation GNSS : elle compte commercialiser, sous forme d’abonnement, un service de correction d’erreurs visant à augmenter drastiquement la précision de systèmes de navigation satellite conventionnels tels que le GPS ou Galileo. Romain Legros, PDG de Geoflex, nous en dit plus sur l’entreprise qu’il a cofondée, et nous détaille le fonctionnement de la technologie qu’elle met en œuvre, ainsi que ses applications.

Techniques de l’Ingénieur : Comment résumeriez-vous, en quelques points clés, la genèse de Geoflex ?

Romain Legros - Geoflex
Romain Legros, cofondateur et PDG de Geoflex. ©Arnaud Caillou

Romain Legros : L’aventure a pris naissance à partir d’un démonstrateur scientifique de la technologie, qui a été mise au point par le Centre national d’études spatiales (CNES). Les fondateurs de Geoflex, dont je fais partie, étaient déjà impliqués dans l’amélioration de la précision de la localisation par GNSS[1] depuis quelques années. En 2014, nous avons vu arriver ce démonstrateur technologique du CNES comme une véritable innovation de rupture.

J’avais, pour ma part, à l’issue de mes études, créé le 4e opérateur mondial du secteur, qui s’appuie sur une technologie – le RTK[2] – nécessitant de nombreuses infrastructures au sol, en l’occurrence 200 stations permanentes, rien qu’en France. Ces installations sont en effet indispensables à la prise en compte, sur tout le territoire métropolitain, des erreurs affectant les mesures GNSS.

Le démonstrateur CNES, quant à lui, se basait sur une technologie permettant une précision équivalente, mais avec seulement une centaine de stations à l’échelle non pas française, mais mondiale ! Nous nous sommes donc penchés sur cette innovation et avons fabriqué les premiers récepteurs capables de fonctionner de concert avec ce démonstrateur.

Nous avons ensuite mis en place une feuille de route de développement technique et commercial, et nous sommes allés à la rencontre du CNES, pour leur montrer les résultats que nous avions obtenus. Cela nous a amenés à signer, en 2016, un contrat de partenariat, qui a fait de nous l’opérateur de cette technologie du CNES.

L’aventure Geoflex a dans un premier temps maturé, puis a connu un véritable départ en 2016 avec la signature de ce contrat.

Cent stations terrestres dans le monde, contre deux cents auparavant rien qu’en France, pour le même niveau de précision… Quels sont les « secrets » de cette technologie CNES sur laquelle vous avez bâti Geoflex ?

La technologie logicielle de géopositionnement
La technologie logicielle utilisée par Geoflex permet notamment de corriger les erreurs liées à la propagation des ondes électromagnétiques dans l’atmosphère terrestre © Geoflex

Avec les technologies qui existaient auparavant, on ne pouvait pas expliquer toutes les erreurs qui affectaient les mesures GNSS. On ne faisait que des interpolations en réseau : on prenait en compte les erreurs mesurées par ce réseau de deux cents stations, et on interpolait en fonction de la distance pour définir l’erreur affectant chaque utilisateur. On savait voir, mais pas expliquer.

Le CNES est arrivé avec de l’explicabilité : il a décomposé toutes les sources d’erreurs affectant les mesures de positionnement satellite. Il en existe en effet deux grandes familles : des erreurs globales, liées aux satellites, et des erreurs locales, liées aux récepteurs et à la traversée de l’atmosphère par les signaux. Le CNES est parvenu à distinguer les deux.

On peut modéliser les erreurs globales à partir d’un réseau d’une centaine de stations seulement au niveau mondial. Ces stations permettent notamment de modéliser les erreurs d’orbite des satellites. Reste ensuite à mesurer la distance entre satellite et récepteur. Cette mesure de distance se déduit à partir de la mesure du temps de parcours. Il faut donc également modéliser les erreurs d’horloge des satellites pour avoir une mesure correcte du délai de propagation du signal. De notre côté, nous collectons toutes ces données sur nos datacenters, où notre intelligence logicielle nous permet de modéliser toutes les erreurs liées aux satellites : erreurs d’orbite, d’horloge… mais aussi des erreurs induites par des phénomènes tels que la dilatation thermique des câbles au sein même du satellite, qui affecte, elle aussi, la propagation du signal.

Nous diffusons ensuite ces corrections d’erreurs satellites dépendantes vers les utilisateurs dans un format standardisé. Ces utilisateurs sont, par exemple, des intégrateurs fabricants de récepteurs GNSS. Ils n’ont ensuite plus qu’à synchroniser ces corrections aux mesures de leurs récepteurs, pour en améliorer la précision. Cela est réalisé par la brique logicielle dont ils sont dotés, le « moteur de positionnement », qui permet aussi de corriger les erreurs d’horloge du récepteur lui-même ainsi que les effets de la propagation atmosphérique du signal électromagnétique provenant des satellites.

Toutes ces modélisations et corrections très fines permettent ainsi d’atteindre, in fine, une précision de localisation de quelques centimètres. Tout cela a nécessité plus de 12 ans de recherche pour le CNES.

Quelles sont les applications offertes par cette technologie ? A-t-elle éventuellement d’autres intérêts encore que ceux de la précision et de la faible contrainte en matière de stations au sol ?

L’étendue de ces applications est quasiment infinie. Dans le domaine professionnel, cela permet, globalement, de mieux conduire des opérations de terrain, qu’il s’agisse d’agriculture, de BTP… Cela peut également se révéler utile pour les systèmes d’aide à la conduite de véhicules, comme l’assistance au maintien dans la voie. Ce type de fonction est en effet, pour l’heure, assuré principalement par des technologies optiques, des caméras qui détectent le marquage au sol. Or, si ce marquage est effacé, peu visible, les systèmes de vision sont inopérants. Ce type de fonction n’est donc disponible – en moyenne – que 40 % du temps de trajet. Si on y ajoute une brique technologique GNSS augmentée telle que la nôtre, on atteint en revanche quasiment les 100 %… Cela pourrait ainsi contribuer, à terme, à faire émerger les véhicules 100 % autonomes. Nous avons d’ailleurs remporté en 2021 les championnats du monde du véhicule autonome de Dubaï.

Toujours dans le domaine automobile, un grand nombre de services géolocalisés pourraient aussi bénéficier de la technologie : dématérialisation du péage et du paiement des parkings, prime d’assurance personnalisée…

Au niveau des intérêts de la technologie, un autre grand avantage qu’elle offre, par rapport, par exemple, au RTK, est qu’elle fonctionne certes sur terre, mais aussi en mer et dans les airs, jusqu’à 25 000 km d’altitude, là où orbitent les satellites GNSS. La technologie peut donc être utile à d’autres satellites, tels que ceux utilisés pour les télécommunications ou l’imagerie…

La technologie d’augmentation GNSS mise en œuvre par Geoflex
Fonctionnant avec les services GPS, GLONASS, BEIDOU ou encore GALILEO, la technologie d’augmentation GNSS mise en œuvre par Geoflex ne nécessite qu’une petite centaine de stations au sol © Geoflex

Quel est le niveau de maturité de la technologie à laquelle vous faites appel ? Quelles pistes explorez-vous prioritairement en matière d’applications ?

Après la signature de notre accord avec le CNES en 2016, nous avons abouti à une première version industrielle de notre service. De 2018 à 2022, nous avons réalisé des démonstrations pré-opérationnelles auprès d’un certain nombre d’intégrateurs. Nous avons notamment rencontré des intégrateurs-métier tels que la SNCF, pour voir ce que notre technologie pourrait apporter au secteur ferroviaire. Nous avons ainsi lancé un programme de 3 ans avec la SNCF pour tenter d’intégrer la technologie dans ce domaine. Ce programme a été un franc succès ! Il ouvre ainsi la voie à la suppression de tous les équipements permettant de détecter le passage des trains, situés pour l’heure en bord de réseau. L’économie potentielle sur les coûts d’investissement et de maintenance des lignes se situe aux alentours de 40 %. C’est considérable. La localisation précise des trains pourrait aussi permettre de les rapprocher et donc d’augmenter leur fréquence de passage. Les enjeux globaux sont eux aussi considérables : on parle-là de plusieurs millions d’euros au kilomètre.

Nous avons par ailleurs réalisé des démarches similaires dans six autres domaines applicatifs, notamment le maritime, l’agriculture, l’automobile, la construction… Tout cela nous a permis de faire croître la robustesse de notre technologie et de prouver aux intégrateurs qu’elle fonctionne.

Forts de ce parcours, nous entrons désormais dans une ère industrielle. Nous allons véritablement pouvoir développer notre métier d’opérateur de service. Nous avons pour cela reçu le soutien de trois nouveaux actionnaires : trois grands groupes du CAC 40 – Bouygues, Stellantis et Thales – qui ont investi pas moins de 6 millions d’euros et qui sont eux-mêmes candidats à l’utilisation de notre technologie. Nous finalisons par ailleurs des contrats d’intégration avec trois grands fabricants de récepteurs, qui vont graver notre technologie logicielle directement dans le silicium de leurs chipsets[3] GNSS.

Si je prends l’exemple du domaine automobile, on pourrait ainsi voir les premiers véhicules bénéficiant de notre technologie arriver sur le marché d’ici 3 ans, et même dès 2024 en réalisant une opération de rétrofit sur des véhicules existants, pour leur apporter de nouveaux services.

Pour quel modèle économique comptez-vous opter ?

Plusieurs schémas de go to market sont possibles. On peut imaginer packager le coût de l’abonnement à nos services avec le prix d’achat du récepteur. Cela nous semble pertinent pour le marché de masse. Pour des applications à forte valeur ajoutée, nous envisageons de proposer des services plus élaborés, avec des contrats de support, sous forme d’abonnement.

Plus globalement, notre objectif est véritablement de nous positionner en tant qu’opérateur, sans vendre aux utilisateurs finaux, mais en passant par des intégrateurs, afin de massifier le déploiement de notre technologie.


[1] Global Navigation Satellites Systems : GPS américain, GLONASS russe, BEIDOU chinois et GALILEO européen.

[2] Real Time Kinematic

[3] Jeu de puces

Une technologie de séchage du bois dans une atmosphère saturée en CO2

Depuis des décennies, le bois de chauffage ou celui destiné au secteur de la construction et de l’ameublement est séché à l’extérieur ou dans de grands hangars dans lesquels l’air est chauffé puis déshumidifié afin de retirer l’eau de l’enceinte. Créée en 2015, la start-up Ways a développé une technologie innovante de séchage du bois dans une atmosphère saturée en CO2. Ce procédé permet de sécher plus rapidement le bois, améliore ses qualités, et est un moyen de stockage du CO2. Aujourd’hui, l’entreprise est entrée dans une phase d’industrialisation, puisqu’elle projette de construire un premier démonstrateur cet été. Entretien avec Olivier Pistiaux, le directeur du développement de la société et associé de Ways.

Techniques de l’Ingénieur : Pouvez-vous présenter la technologie développée par Ways ?

Olivier Pistiaux, directeur du développement et associé de Ways. Crédit : Ways
Olivier Pistiaux, directeur du développement et associé de Ways. Crédit : Ways

Olivier Pistiaux : Le séchage du bois a connu très peu d’innovations ces dernières années, mis à part le séchage sous vide, un procédé qui n’est pas adapté à traiter de grands volumes et se révèle relativement coûteux. Notre entreprise apporte une vraie rupture, puisque nous séchons le bois dans une atmosphère saturée en C02. Notre procédé fonctionne comme le séchage traditionnel à la différence que les besoins en chauffage sont moins importants, car le CO2 est plus fluide et caloporteur que l’air. La cellule doit tout de même être étanche pour être saturée en CO2, mais fonctionne à pression atmosphérique. L’efficacité énergétique est optimisée grâce à un système de pompe à chaleur. En permanence, on déshumidifie l’enceinte et l’on réinjecte du CO2 en fonction de la quantité absorbée par le bois. Pour des raisons de secret industriel, je ne peux pas vous dévoiler plus de détails sur notre technologie.

Quels sont les avantages de votre procédé ?

Le séchage est beaucoup plus rapide. Par exemple, le temps de séchage du chêne est réalisé en 3 à 4 jours, alors qu’il prend entre 2 à 3 semaines dans des séchoirs traditionnels, et ce, pour une même qualité de séchage. Le taux d’humidité varie en fonction des applications et s’élève à environ 15 % pour le bois destiné à la construction, et entre 8 et 10 % pour l’ameublement.

Ensuite, le séchage sous atmosphère CO2 améliore la qualité du bois grâce aux transformations chimiques qui se déroulent pendant le process. Par exemple, la dureté en surface se trouve améliorée et les nœuds se durcissent, alors qu’ils ont tendance à sauter lors du séchage traditionnel. Cette qualité intéresse notamment les fabricants de parquets.

Enfin, le séchage se produit de manière beaucoup plus harmonieuse et sans déformation, alors que dans le cas du séchage à l’air, le bois a tendance à se rétracter, et l’on voit apparaître des déformations et des fentes, ce qui nécessite de sacrifier une partie de ce bois sur les côtés. Grâce au séchage sous atmosphère CO2, il n’y a quasiment pas de perte.

Et qu’en est-il du stockage du CO2 dans le bois ?

Le démonstrateur semi-industriel de séchage du bois sous atmosphère CO2 installé à Rodez. Crédit : Ways
Le démonstrateur semi-industriel de séchage du bois sous atmosphère CO2 installé à Rodez. Crédit : Ways

Plusieurs kilogrammes de CO2 sont stockés par m3 de bois, mais nous ne connaissons pas précisément le chiffre. Des travaux de recherche sont en cours pour évaluer la quantité exacte, notamment avec le BIA (Biopolymères Interactions Assemblages), un laboratoire de l’Inrae. Nous avons également fait appel au CEA qui procède à des analyses grâce à une méthode faisant appel à la résonance magnétique nucléaire. Le but de ces travaux est plus global et doit nous permettre de comprendre en détail quelles sont les transformations structurelles qui s’opèrent dans le bois pendant le procédé et pourquoi sa qualité se trouve améliorée. Même si nous ne comprenons pas encore exactement tous ces phénomènes, notre procédé est totalement maîtrisé et a été breveté dans 42 pays.

À quel stade se trouve le projet de Ways ?

Nous avons deux prototypes en fonctionnement. Le premier est installé dans un laboratoire d’un centre de recherche d’Air Liquide en région parisienne, qui abrite une pépinière de start-up appelée Accelair. Le second, situé dans nos locaux à Rodez, est de type semi-industriel et mesure 7 mètres de long. Il est installé depuis deux ans et nous a permis de maîtriser totalement notre process.

En ce moment, nous rentrons dans une phase industrielle, puisque GRDF nous a commandé un premier démonstrateur à l’échelle 1 en région parisienne. Il sera installé cet été à côté d’une unité de méthanisation qui produit à la fois du biométhane, ainsi que du CO2 biogénique, qui était jusqu’ici rejeté dans l’air. Nous allons nous connecter à ce méthaniseur et se servir du CO2 pour sécher le bois.

Sur le plan de la R&D, nous adaptons notre technologie pour valoriser le CO2 issu de fumées industrielles. Contrairement au CO2 issu d’un méthaniseur, des ajustements sont à réaliser puisque sa concentration peut varier et d’autres gaz sont souvent présents.

En amont, d’autres pistes de recherche sont en cours. L’une d’elles porte sur la réduction du traitement du bois. Nous avons de bonnes raisons de penser que notre procédé apporte une meilleure résistance du bois face aux agressions extérieures et est moins facilement attaquable par des insectes et des champignons. Nous étudions de quelle manière notre technologie permet de diminuer les quantités de biocides utilisées lors de l’opération de post traitement du bois.

Une autre piste de recherche concerne les applications potentielles liées à la capacité de notre procédé à atteindre très facilement un taux d’humidité de 0 % alors que ce niveau est très compliqué voire impossible à atteindre avec le séchage conventionnel. Nous travaillons avec des professionnels de la construction pour fabriquer du béton-bois. Cette technique consiste à injecter du bois dans du béton pour réduire l’empreinte carbone du béton.

___________________________________________________________________________

Suite à une intervention du FCBA (Forêt Cellulose Bois-construction Ameublement), la dernière phrase de la deuxième question dans laquelle cet institut technologique est cité a été supprimée.

Les thèses du mois : « Le manque d’eau : une nouvelle réalité pour l’industrie française »

Pour notre dossier de mai, « Le manque d’eau : une nouvelle réalité pour l’industrie française », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

 

Optimization of industrial water networks. Development of generic design tools and application in a real industrial site
Keivan Nemati-Amirkolaii
Thèse de doctorat en Génie des procédés, soutenue le 31-08-2021
Paris-Saclay Food and Bioproduct Engineering

 

Integrated management of water scarcity : from conventional to smart approaches
Tariq Jude
Thèse de doctorat en Génie civil, soutenue le 02-09-2022
LGCgE – Laboratoire de Génie Civil et géo-Environnement

 

Contribution of modelling and control approaches to improve the flexibility of treatment systems for REUSE of wastewater treated in agriculture
Farouk Aichouche
Thèse de doctorat en Génie des procédés, soutenue le 02-03-2021
INRAE – LBE Laboratoire de Biotechnologie de l’Environnement

 

Assimilation de données pour améliorer les modèles de qualité de l’eau : vers un indicateur de pression azotée
Samy Chelil
Thèse de doctorat en Hydrologie, soutenue le 09-12-2022
Hydrosystèmes continentaux anthropisés – ressources, risques, restauration

 

Outils d’aide à la décision pour la répartition de la ressource en eau en région Pays de la Loire
Pauline Pedehour
Thèse de doctorat en Sciences économiques, soutenue le 06-07-2022
Laboratoire d’Économie et de Management de Nantes-Atlantique

 

Intégration du changement climatique dans la gestion de la ressource en eau : exemple du bassin rennais
Ronan Abhervé
Thèse de doctorat en Sciences de la terre et de l’environnement, soutenue le 12-12-2022
Géosciences Rennes

 

Approche économique des performances à long terme des services d’alimentation en eau potable par les préférences des usagers
Houngbedji Assouan
Thèse de doctorat en Sciences économiques, soutenue le 22-03-2022
Bordeaux sciences économiques

 

Acceptabilité sociale et communication participative : le cas de la réutilisation des eaux usées traitées dans le Luberon
Benjamin Noury
Thèse de doctorat en Sciences de l’information et de la communication, soutenue le 12-07-2021
Institut Méditerranéen des Sciences de l’Information et de la Communication

 

Economie de la soutenabilité et protection des eaux souterraines
Cécile Herivaux
Thèse de doctorat en Sciences économiques, soutenue le 16-12-202
UMR Gestion de l’Eau, Acteurs, Usages

 

« Où sont passées les économies d’eau ? » Paradigmes, instruments et territorialisations des politiques d’économie et réallocation d’eau dans le bassin de la Durance (France)
Martin Laurenceau
Thèse de doctorat en Sciences de l’environnement, soutenue le 14-12-2021
UMR Gestion de l’Eau, Acteurs, Usages

Comment les industriels optimisent la gestion de l’eau ?

Un extrait de « Les grandes catégories d’usages de l’eau dans l’industrie », par Sarah CHERET

En termes d’usage de l’eau en industrie, on peut distinguer trois grandes catégories. D’abord, l’eau en tant qu’utilité. Elle participe de façon indirecte à la production en tant que fluide thermique (production de vapeur, eau chaude, eau de refroidissement, eau glacée…). Pour cet usage, l’eau véhicule et échange la chaleur et le froid au sein d’un site industriel. On va aussi retrouver dans les utilités l’eau pour les réseaux incendie des grands sites industriels. Ensuite, l’eau en amont du processus de fabrication, que ce soit dans les opérations de lavage ou de transport des matières premières. Enfin, l’eau dans le processus même de fabrication. Elle est utilisée au sein des procédés industriels comme solvant, matière première, agent de fabrication ou fluide de nettoyage des équipements ou du produit fabriqué. En tant que fluide de nettoyage des équipements, l’eau permet de préparer et de véhiculer les solutions de nettoyage (lessives ou produits désinfectants), d’effectuer les rinçages et d’évacuer les salissures.

Recyclage et réutilisation de l’eau en microélectronique

Certaines entreprises allouent jusqu’à 10 % de l’ensemble de leurs charges d’exploitation au traitement de l’eau sur leur site. Pour optimiser la gestion de leurs ressources et diminuer les consommations en eau, les industriels mettent en place des recyclages (l’eau est utilisée après traitement pour le même usage) ou des réutilisations (l’eau provenant d’un atelier est de qualité suffisante pour d’autres usages sur le site). La diminution de la consommation en eau entraîne une économie directe liée à l’économie faite sur son coût et son traitement. On peut aussi prendre en compte les économies indirectes, liées aux recyclages : réduction des rejets, diminution des pertes de produits véhiculés par l’eau (produits de nettoyage ou matières premières), et récupération des calories transférées par l’eau. L’industrie de la microélectronique, par exemple, doit faire face à une consommation d’eau toujours plus importante, avec un coût du m³ d’eau de plus en plus élevé. C’est pourquoi une gestion rigoureuse de l’eau y est fondamentale pour envisager la pérennité des sites de production.

Côté recyclage, les eaux de rinçage de la fabrication des semi-conducteurs contiennent des produits organiques et inorganiques tels que des acides, des bases, des oxydants, des solvants et des tensioactifs. Pour pouvoir traiter et réutiliser ces eaux, il faut avoir une connaissance parfaite de leur composition et pouvoir séparer les flux les plus concentrés. Le taux de recyclage va dépendre des flux que l’on accepte de traiter, sachant que plus ils sont pollués et plus le coût du traitement à mettre en œuvre sera élevé. Côté réutilisation cette fois, différentes manières peuvent être envisagées en microélectronique. Il y a ainsi le cas des eaux d’atelier des CMP (Chemical Mechanical Planarization), qui contiennent des particules de silice et divers types d’additifs. Un traitement par ultrafiltration permet de concentrer les particules solides jusqu’à 95 %. Une étape d’osmose inverse ou d’échange d’ions peut être ajoutée en fonction de la composition des eaux. L’autre cas est celui des eaux issues des traitements d’eau ultrapure. Les flux d’eau générés par les traitements ont parfois une meilleure qualité que l’eau brute qui entre sur le site. Ces eaux peuvent être réutilisées sans traitement complémentaire pour certains usages.

Valorisation et réutilisation de l’eau : l’exemple de Cristal Union à Bazancourt

Le groupe Cristal Union transforme chaque année les 13 millions de tonnes de betterave de ses coopérateurs en sucre, alcool et bioéthanol à destination de l’industrie et de la grande distribution. Les process industriels permettant d’extraire le sucre des betteraves sont très gourmands en eau. En effet, au cours de la production, deux étapes du procédé sucrier sont en effet extrêmement consommatrices d’eau : le lavage des betteraves en entrée d’usine et l’extraction du sucre des betteraves.

Pour limiter les prélèvements en eau nécessaires à ces procédés, le groupe sucrier, avec BWT France, a mis en place une solution consistant à réutiliser l’eau naturellement présente dans les betteraves en grande quantité (une betterave contient environ 70% d’eau). Et ainsi prélever de moins en moins d’eau dans le milieu naturel.

Concrètement, Cristal Union a mis en place des osmoseurs fabriqués et installés par BWT : deux osmoseurs avec préfiltration et un osmoseur de recyclage.

L’eau ainsi récupérée lors des procédés de concentration et de cristallisation des jus sucrés est donc récupérée et valorisée après avoir été traitée. Ces procédés permettent de récupérer l’eau continuellement et de la traiter pour en faire de l’eau distillée, propre à un usage agricole par exemple.

Cette vidéo de présentation permet de bien comprendre les différentes étapes de récupération et de valorisation de l’eau extraite des betteraves, ainsi que les différents outils mis en place pour récupérer et traiter l’eau issue des procédés sucriers : 

La réutilisation de cette eau récupérée est consacrée au lavage des betteraves et à l’extraction du sucre. 

Depuis 2011, ce sont près de 400 000 mètres cubes qui sont ainsi traités chaque année sur le site de Bazancourt, soit plus de 4 millions de mètres cubes d’eau recyclée au total. Sur l’ensemble des sites Cristal Union, depuis la mise en place du partenariat avec BWT en 2009, le groupe a réduit ses prélèvements d’eau du milieu naturel de près de 57 %. 

Un exemple probant d’une stratégie de réduction des prélèvements d’eau, sans réduction de la production. Le groupe sucrier mène de front plusieurs projets pour poursuivre l’amélioration de son empreinte carbone dans son ensemble. 

L’entreprise a modifié ses outils pour réutiliser, chaque jour, 100% de l’eau contenue dans les betteraves traitées. En fin de campagne betteravière, l’eau en excès est stockée dans des bassins et utilisée pour irriguer des parcelles agricoles aux alentours. Ce qui permet d’accompagner localement les agriculteurs en période de pénurie d’eau.

Localement toujours, la démarche mise en place par Cristal Union avec l’aide de BWT permet à l’écosystème industriel local de limiter ces prélèvements d’eau dans le milieu naturel. Une économie d’eau estimée à un million de mètres cubes par an. 

Cet exemple de démarche d’amélioration de la gestion de l’eau utilisée par l’industrie s’inscrit sur le long terme. Et sur des investissements. Cristal Union a d’ailleurs annoncé de nouveaux investissements, à hauteur de 100 millions d’euros, pour mieux stocker les excédents d’eau, et les épandre pendant les périodes de déficit hydrique, quand la terre en a le plus besoin.

« Il y a une prise de conscience globale des industriels sur la ressource eau »

Le Groupe BWT (Best Water Technology), qui emploie plus de 6 000 salariés à travers le monde, est spécialisée dans la fabrication de produits et de prestations attenantes au traitement de l’eau. Fort de 10 sites de production, BWT accompagne ses clients (particuliers, professionnels des bâtiments collectifs/tertiaires, des hôtels et des restaurants, industries), et parmi eux de nombreux industriels en France, souhaitant améliorer leur gestion de l’eau, dans le but d’en limiter la consommation et d’en favoriser la réutilisation.

Il est vrai qu’en France comme dans de nombreuses zones du globe, la disponibilité en eau douce devient de plus en plus problématique. En France par exemple, l’hiver très sec et le printemps laissent entrevoir de nombreuses nappes phréatiques dont le niveau est en-dessous de la normale, et un été tendu en termes de ressource eau.

Laurent Daisne, Directeur commercial Industrie chez BWT France, a expliqué aux Techniques de l’Ingénieur la prise de conscience des entreprises industrielles quant à l’importance de mettre en place des stratégies de traitement d’eau visant à réduire les prélèvements dans les ressources pour économiser et traiter l’eau. Mais aussi les freins qui persistent en France, pour l’instant, quant au cadre réglementaire dans lequel l’eau peut être réutilisée par l’industrie.

Techniques de l’Ingénieur : Quel est le cœur d’activité de BWT ?

Laurent Daisne : BWT France et plus particulièrement la Division Industrie est un acteur majeur du traitement des eaux industrielles, en France et à l’international. Nous proposons des solutions techniques innovantes pour répondre aux besoins de nos clients mais aussi pour limiter leur impact environnemental en réduisant la consommation d’eau douce grâce au traitement des eaux usées. Pour cela, BWT France base son action sur trois grands piliers : préserver la ressource eau, réduire les consommations énergétiques et protéger l’environnement. Concernant l’activité REUSE et REUT (réutilisation des eaux usées traitées), par exemple, il ne s’agit donc pas uniquement de traiter l’eau qui sort d’une station d’épuration, mais de la remettre en amont pour la réutiliser.

Laurent Daisne, Directeur commercial Industrie chez BWT France.

Aujourd’hui, la France est un peu en retard sur la réutilisation de l’eau dans l’industrie. Cela concerne 1% des cas dans l’hexagone, alors que ce chiffre atteint environ 15% pour des pays comme l’Italie ou l’Espagne. En effet, les décrets n’autorisent en France la réutilisation de l’eau que pour des fins d’utilités. Il n’est pas possible d’utiliser cette eau comme une eau ingrédient par exemple, ou une eau qui serait amenée à entrer en contact avec des aliments, dans le cas de l’industrie agroalimentaire, pour des questions d’hygiène.

Cela limite notre champ d’action, et nous espérons que les nouveaux décrets vont nous permettre de démontrer qu’il est possible d’élargir les possibilités de réutilisation de l’eau par l’industrie, dans un cadre réglementaire strict.

Il est également capital de développer des technologies qui permettent d’économiser l’eau en tant que ressource, c’est aussi une partie importante du premier pilier de notre action. A notre niveau, en tant que fabricant de matériel, nous voulons utiliser des machines qui sont les moins consommatrices possibles, en eau mais aussi en énergie, c’est le second pilier.

Le dernier pilier, la protection de l’environnement, s’illustre par le lancement, par BWT France, d’une gamme de 3 produits chimiques 100% biodégradables. Il s’agit aujourd’hui d’une gamme peu élargie, mais qui est amenée à se développer, notamment sur l’aspect biosourcé des produits.

Quels sont les secteurs industriels les plus impactés par les pénuries d’eau ?

Tous. Aujourd’hui il n’est plus question de se demander quelles sont les industries les plus consommatrices d’eau. L’urgence consiste aujourd’hui à la gestion de la ressource eau sur les territoires. Cette ressource “eau” vient à manquer, 75% des nappes phréatiques étaient en-dessous du niveau bas au 1er avril. Les médias parlent même désormais de sécheresses hivernales. C’est en cela que les industriels sont aujourd’hui obligés de mettre en place des stratégies de réutilisation des eaux. Ils n’ont plus le choix, quel que soit le secteur industriel concerné. Comme je l’ai dit, la réglementation française limite aujourd’hui le cadre de réutilisation de l’eau traitée par les industriels, ce qui freine l’essor de ces pratiques pour l’instant. Les acteurs de l’industrie travaillent intensément depuis deux ans sur des solutions de réutilisation de l’eau, dans le cadre réglementaire, mais avec un champ d’action réduit.

Il faut 1 000 litres d’eau pour produire un verre de lait, 35 000 litres pour produire une voiture. Pour produire, on a besoin d’eau. Evidemment le secteur agroalimentaire est très touché par la pénurie d’eau, par exemple. De même que le marché automobile, la chimie, la sidérurgie…

Comment les industriels s’adaptent-ils à cette pénurie ?

Les acteurs industriels sont moteurs dans les démarches d’amélioration de la gestion de l’eau : ils sont tout à fait conscients que l’eau est aujourd’hui une ressource rare, et que développer des procédés qui consomment moins d’eau, traiter et réutiliser cette eau est un moyen d’assurer une capacité à produire sur du long terme. D’ailleurs, les industriels qui achètent nos produits sont aussi très exigeants sur la durée de vie des produits, ce qui démontre leur volonté d’intégrer l’amélioration de la gestion de l’eau sur le long terme. Il y a une prise de conscience globale des industriels sur la ressource eau.

Au-delà du cadre réglementaire, qu’est-ce qui freine les entreprises dans leurs investissements pour mieux gérer leurs eaux ?

La mise en place de stratégies ambitieuses de traitement et de réutilisation de l’eau dans une entreprise est également liée à la capacité à investir. Un secteur comme l’industrie cosmétique a par exemple pris de l’avance sur le traitement de l’eau utilisée pour les différents procédés. Dans l’agroalimentaire, au cas par cas, les entreprises évaluent les possibilités d’amélioration du traitement de leurs eaux, en fonction de ce qui leur est possible, financièrement notamment, de mettre en œuvre. Sur ce sujet, le Président de la République a évoqué une tarification progressive de l’eau. Cela pourrait constituer, pour les industriels, une raison supplémentaire d’entreprendre des investissements importants afin de mieux gérer leur consommation d’eau.

Les territoires les plus touchés par la sécheresse dans l’hexagone sont-ils toujours les mêmes ?

Pas forcément. Un des territoires les plus touchés par la pénurie d’eau est aujourd’hui la Bretagne. Le Sud-est aussi, même si c’est moins inhabituel. Le problème, c’est que les zones de sécheresse progressent. Les industriels s’attendent à un été compliqué.

C’est aussi pour cela que nous constatons que de plus en plus d’industriels de tous secteurs réfléchissent à des solutions innovantes et parfois collectives, sur lesquelles nous travaillons avec eux, pour appréhender au mieux le manque d’eau sur le long terme. Le développement de solutions collectives et locales, avec des technologies innovantes, permet de travailler sur des échelles intéressantes en termes de volumes d’eau traités.

Peut-on imaginer un impact réel du manque d’eau sur la production industrielle dès cet été ?

Ce qui arrive parfois, c’est que des usines arrêtent leurs productions temporairement à cause d’une pénurie d’eau. Ce sont des situations rares, mais que nous vivrons cet été à coup sûr, quand on voit l’état actuel de la ressource eau. Les industriels s’y préparent, pour cet été et les suivants.

Quel rôle peut jouer l’évolution du prix de l’eau, actuellement relativement bas ?

Il me semble aujourd’hui important de se pencher sur le prix réel de l’eau. Nous avons l’habitude, en tant que consommateurs, industriels, d’avoir un accès à l’eau peu cher. Si les prix sont aujourd’hui toujours bas, la ressource est de moins en moins disponible. A l’heure actuelle, un industriel peut se demander quel est son intérêt d’investir des sommes importantes dans des dispositifs qui vont lui permettre de réutiliser de l’eau, alors qu’il a de l’eau neuve peu chère déjà à disposition. Dans quelques années, cette question ne se posera plus, le prix de l’eau neuve augmentera et rendra extrêmement compétitif celui de l’eau traitée et recyclée. Il s’agit pour les industriels d’anticiper autant que possible cette évolution.

Propose recueillis par Pierre Thouverez

La géo-ingénierie solaire ne peut s’envisager comme une mesure temporaire

La géo-ingénierie solaire regroupe l’ensemble des technologies qui visent à baisser artificiellement la température moyenne globale de l’air en renvoyant une plus grande partie de l’énergie du soleil dans l’espace. Face à la difficulté à respecter l’accord de Paris qui fixe l’objectif de limiter le réchauffement climatique à 1,5 degré d’ici à la fin du siècle, de plus en plus de publications étudient la modification du rayonnement solaire, également appelée SRM pour Solar radiation modification. Par contre, elles se concentrent essentiellement sur leurs potentiels ainsi que sur leurs effets secondaires, mais accordent peu d’attention aux délais nécessaires à leur déploiement. Une étude, publiée dans Earth System Dynamics et impliquant un laboratoire du CNRS-INSU, s’est précisément penchée sur ce point.

Rappelons que trois techniques font principalement l’objet de discussions dans la littérature scientifique. La première, nommée injection d’aérosols stratosphériques (ou SAI pour Stratospheric aerosol injection) consiste à augmenter le nombre de petites particules réfléchissantes dans la stratosphère pour dévier et renvoyer plus de rayons du soleil dans l’espace. L’éclaircissement des nuages marins (ou MCB pour Marine cloud brightening) est une technique qui repose sur la diffusion de particules dans la basse atmosphère au-dessus des océans pour rendre les nuages plus lumineux, ce qui augmenterait la quantité de lumière solaire renvoyée. Et enfin, la technique d’amincissement des cirrus (ou CCT pour Cirrus cloud thinning) consiste à modifier les propriétés des nuages de glace à haute altitude pour augmenter la transparence de l’atmosphère au rayonnement thermique.

Toutes ces méthodes pourraient en théorie stopper l’augmentation de la température mondiale très rapidement, à condition qu’elles soient activement soutenues. Elles ne s’attaquent pas à la cause du réchauffement, mais sont présentées comme pouvant être utilisées temporairement, le temps que les émissions de gaz à effet de serre se réduisent, et que des méthodes d’élimination et de stockage du CO2, encore appelée CDR pour Carbon Dioxide Removal, deviennent suffisamment efficientes pour qu’il ne soit plus nécessaire de recourir à la géo-ingénierie solaire.

Une durée allant de 150 à 300 ans pour limiter le réchauffement à 1,5 degré

Dans cette étude, les chercheurs ont analysé quelle serait la durée de déploiement des techniques de SRM pour limiter le réchauffement à 1,5 degré. Pour cela, ils ont examiné 355 trajectoires d’émissions de gaz à effet de serre tirées du dernier rapport du GIEC à l’horizon 2030, et ils les ont extrapolées jusqu’en 2500. L’étude ne fait pas la distinction entre les différentes approches technologiques de SMR existantes. Elle n’aborde pas non plus les questions de faisabilité ou d’effets secondaires environnementaux de ces techniques, qui sont nombreux, ni ne propose de stratégies et de conceptions de mise en œuvre potentielle. Elle vise plutôt à fournir un cadre conceptuel pour explorer la durée de déploiement des techniques SRM dans un contexte où elles seraient utilisées comme une mesure temporaire.

Résultat, les scientifiques constatent qu’il existe un large éventail de durées potentielles de déploiement allant de zéro à plus de 470 années, et que dans la plupart des scénarios, ce déploiement devrait durer entre 150 et 300 ans. Ils réfutent donc l’idée que les technologies SRM sont une mesure de courte durée et montrent que leur déploiement risque d’être un engagement sur plusieurs siècles, avec des coûts, des risques et des effets secondaires associés. « Étant donné que leurs effets seront pour la plupart incertains au moment de l’initialisation du SRM, une prédiction de la durée du déploiement semble peu probable, avec des possibilités allant de décennies à plusieurs siècles. Il s’agit d’une lacune dans les connaissances qui doit être prise en compte avant que toute proposition de SRM ne soit sérieusement envisagée », écrivent les auteurs de cette étude.

« Pour l’industrie, réduire les prélèvements d’eau ne suffit pas »

La Fenarive est une association créée en 1952, à l’initiative d’industriels installés dans l’Est de l’hexagone. Suite à la loi sur l’eau de 1964, l’association a étendu son activité sur l’ensemble des six bassins hydrographiques métropolitains. Des industriels de tous secteurs via des associations locales ainsi que des syndicats professionnels ont rejoint l’association au fur et à mesure, ainsi que des grandes entreprises comme EDF, la SNCF ou TOTAL.

Christian Lecussan, Président de la Fenarive, est également vice-président du comité de bassin Seine Normandie, membre du conseil d’administration de l’Agence de l’Eau Seine Normandie et vice-président du comité national de l’EAU. Il a expliqué aux Techniques de l’Ingénieur les missions de la Fenarive, notamment pour soutenir les industriels dans leurs démarches de traitements de leurs eaux usées et de diminution de leurs prélèvements d’eau.

Techniques de l’Ingénieur : Quelles sont les missions de la Fenarive ?

Christian Lecussan : Nous nous focalisons, avec tout le panel industriel que nous représentons, sur les problématiques liées à l’eau, avec une approche essentiellement technique, en essayant d’être un interlocuteur privilégié du Ministère de l’Ecologie, pour faire au mieux le lien entre les différents acteurs sur l’amélioration de la gestion de l’eau utilisée par l’industrie.

Le plan eau présenté par le Président de la République à Savines-le-Lac au mois de mars dernier a fait remonter la problématique “eau” au tout premier plan, et depuis nous sommes très sollicités de toutes parts, notamment par les pouvoirs publics, ce qui montre que les enjeux autour de la ressource eau sont aujourd’hui au cœur des préoccupations, ce qui est une bonne chose.

De quand date la prise de conscience des industriels quant aux enjeux liés aux prélèvements et au traitement de leurs eaux usées ?

Je dirai qu’une prise de conscience s’est opérée chez les industriels depuis une vingtaine d’années, au minimum.

Christian Lecussan, Président de la Fenarive
Christian Lecussan est Président de la Fenarive, vice-président du comité de bassin Seine Normandie, membre du conseil d’administration de l’Agence de l’Eau Seine Normandie et vice-président du comité national de l’EAU.

La mise en place des Agences de l’Eau, suite à la loi de 1964, a bénéficié en tout premier lieu aux industriels, même si à l’époque l’enjeu était surtout de limiter la pollution de l’eau plutôt que la consommation. Par la suite, quand on regarde les chiffres, on constate que depuis le début des années 2000, les prélèvements d’eau par les industriels ont fortement baissé, ce qui démontre que le secteur dans son ensemble s’est saisi de cette problématique depuis un moment déjà. Les événements – inondations, sécheresses… – survenus ces dernières années ont bien sûr donné une dimension plus immédiate au problème de disponibilité de la ressource eau, et montré à tous les secteurs qu’il faut continuer d’œuvrer pour limiter la pollution et la consommation d’eau par l’industrie.

Comment les industriels opèrent-ils aujourd’hui pour réduire leurs prélèvements d’eau et traiter leurs eaux usées ?

Tout d’abord, le prélèvement n’est que la résultante de la consommation, et il faut bien séparer les deux termes. Le paramètre consommation par unité produite est l’indicateur a à prendre en compte si on ne veut pas restreindre le développement industriel. Il faut bien comprendre que pour l’industrie, réduire les prélèvements d’eau ne suffit pas. Il est également nécessaire de réduire la pollution de l’eau à la sortie des process, pour être en cohérence avec la directive cadre sur l’Eau de 2000. Il faut donc traiter ces deux aspects de la problématique eau, pollution et consommation, ensemble. Cela passe par une amélioration des procédés utilisés par les différentes industries, donc par de l’innovation. Il me paraît indispensable, si l’on veut réduire les prélèvements d’eau et la pollution de l’eau utilisée par les industriels, de développer en France de manière plus soutenue la recherche fondamentale, que ce soit en chimie, en biologie, en physique… Ce sont ces sciences-là qui doivent améliorer les connaissances et les savoirs qui permettront l’avènement de technologies innovantes sur la gestion de l’eau.

Comment expliquer la très faible réutilisation des eaux usées après traitement en France ?

Le cadre réglementaire en France autour de la réutilisation de l’eau par l’industrie est très contraignant, et très mal perçu par l’ensemble des secteurs industriels. Il y a un blocage, au niveau du Ministère de la Santé, qui empêche les industriels français de réutiliser leurs eaux, comme cela se fait dans d’autres pays européens, par exemple. Des pays comme l’Espagne ou l’Italie ont un taux de réutilisation des eaux usées approchant les 10%, quand nous ne dépassons pas, en France, 1%. Nous nous battons pour obtenir des avancées sur la réutilisation de l’eau par les industriels, qui développent des procédés intéressants de collecte, de traitement et de réutilisation de leurs eaux malgré une rentabilité à moyen ou long terme, mais dont la mise en place est bloquée par les pouvoirs publics, pour le moment.

Pouvez-vous nous donner un exemple ?

Nous avons dans nos membres un abattoir, en Bretagne, qui utilise de l’eau potable, et qui a mis au point un procédé de traitement de ses eaux usées, afin de les décontaminer pour pouvoir les réutiliser pour laver les sols. Le procédé qu’ils utilisent est un procédé d’osmose inverse, le même que celui utilisé pour potabiliser l’eau en Ile-de-France. Cet abattoir s’est vu refusé par les pouvoirs publics la mise en place effective de ce procédé, pour des questions d’hygiène. Pourtant l’eau traitée par cet abattoir obéit aux normes de qualités en vigueur pour ce type d’utilisation. Nous avons le même blocage dans deux blanchisseries industrielles sur Seine Normandie.

Pensez-vous que ce cadre va évoluer sur le court terme ?

Je ne vois pas comment le cadre réglementaire français pourrait rester tel quel. Il faut qu’il évolue, la question est plutôt de savoir jusqu’où on peut aller en termes de réutilisation. C’est en tout cas un passage nécessaire pour permettre aux industriels de mettre en place des stratégies ambitieuses de gestion de leurs eaux.

Quel est le rôle de la Fenarive dans la mise en place de solutions communes entre les différents acteurs industriels ?

Nous voulons trouver des liens entre toutes les activités que nous défendons. L’ambition est de trouver un cadre pour développer une politique commune de l’eau. Cela passe par la généralisation des bonnes pratiques au sein de chaque activité, mais aussi par la coopération entre secteurs industriels pour développer des solutions communes dans la gestion de leurs eaux, localement. La gestion de l’eau est avant tout une gestion locale. En France, l’empilement des structures de gestion complique la tâche des industriels, qui ne savent pas toujours à qui s’adresser. Il y a aussi des améliorations à apporter à ce niveau, mais il est sûr que très localement, au niveau d’une zone industrielle par exemple, les acteurs doivent mettre des solutions en commun pour limiter leurs prélèvements.

Propos recueillis par Pierre Thouverez

Une méthode plus précise pour mesurer l’activité électrique cérébrale

Pour mesurer l’activité électrique cérébrale, la principale technique consiste à poser des électrodes sur la tête des patients pour réaliser un électroencéphalogramme (EEG). Sauf que le crâne bloque une partie du signal, ce qui rend difficile sa reconstruction. Il est possible d’implanter les électrodes sous le crâne ou dans le cortex cérébral, et ainsi obtenir une meilleure imagerie de l’activité, mais l’information recueillie est principalement localisée à un endroit du cerveau. Et surtout, cette méthode est invasive, car elle nécessite la trépanation du crâne du patient. Baptisé Cerebro, un projet de recherche européen a débuté dans le but de développer une autre approche pour s’affranchir de toutes ces contraintes et améliorer la qualité du résultat.

Le concept repose sur l’injection dans le sang du patient d’un produit de contraste de nature électromagnétique qui va permettre d’obtenir un signal électrique différent lors de l’EEG. Ce signal portera toujours la même information, mais permettra qu’elle se propage plus facilement dans le cerveau, sans nécessité d’ouvrir la boîte crânienne. Par analogie, cette nouvelle technique fonctionnera selon le même principe que l’utilisation de traceurs radioactifs pour réaliser de l’imagerie médicale. « Ce produit est l’élément-clé de notre projet, révèle Adrien Merlini, enseignant-chercheur au sein du département micro-ondes à l’IMT Atlantique. Nous ne pouvons pas dévoiler sa composition pour des raisons de confidentialité, mais d’ici un à deux ans, nous devrions rédiger de premières publications scientifiques sur lui. Le terme produit de contraste signifie qu’il permettra de mieux voir l’information recueillie du cerveau, mais n’est pas totalement exact, car il n’y a pas de notion de contraste en électromagnétisme. »

Actuellement, les techniques les plus avancées de reconstruction du signal ne sont pas totalement efficientes. Même en tentant d’en développer de meilleures, ce type d’approche ne peut pas mener vers des résultats plus précis, car une partie du signal EEG n’est pas propagée et est définitivement perdue. Le produit de contraste devrait permettre d’extraire les informations manquantes pour parvenir à une reconstruction plus précise du signal. Quant au traitement du signal, les scientifiques ne vont pas pouvoir utiliser les algorithmes standard actuellement utilisés en EEG, car l’information recueillie sera de nature différente et également plus riche. Dans le cadre de ce projet, une nouvelle approche d’analyse des données va être développée, à partir d’algorithmes employés notamment en océanographie, et le recours à des techniques d’apprentissage profond.

Des tests réalisés sur des fantômes artificiels de tissus cérébraux

« Nous sommes en ce moment dans une phase de design du produit de contraste et de détermination de ses propriétés exactes, confie le chercheur. Ce projet est financé par le programme européen EIC Pathfinder Open, piloté par le Conseil européen de l’innovation, et nous avons pour objectif de parvenir à une phase de validation préliminaire de ce nouveau concept. D’ici 2 à 3 ans, nous pensons fabriquer les premiers prototypes pour valider notre produit sur des fantômes artificiels de tissus cérébraux. À l’issue de ce projet, nous pensons déposer un autre projet qui permettra de passer à l’étape de validation clinique. »

Le projet Cerebro est coordonné par l’École polytechnique de Turin, qui est également chargée d’élaborer le produit de contraste. Il regroupe un consortium de partenaires, parmi lesquels l’IMT Atlantique, qui s’occupe notamment du traitement du signal et de sa modélisation. G.Tech, une PME autrichienne spécialisée en fabrication d’EEG standard, a pour rôle d’aider à la fabrication d’un nouvel appareil de mesure des signaux. Quant à l’École polytechnique fédérale de Lausanne (EPFL), experte en biocompatibilité, elle a pour mission de s’assurer que les produits de contraste ne vont pas nuire à la santé des patients. Le CHU de Brest interviendra pour veiller à ce que ce projet reste pertinent pour une application médicale finale. L’Université de Bretagne Occidentale (UBO) est également associée à ce projet.

L’application la plus courante de la mesure de l’activité électrique cérébrale sur des patients concerne ceux qui sont atteints d’épilepsie. Pour les chirurgiens, localiser avec précision l’endroit du cerveau qui génère un signal électrique pathologique est important, car cela leur ouvre la voie à de meilleures solutions de traitement individualisé.

De la lumière pour ralentir la maladie de Parkinson

Plus de 8 millions de personnes sont atteintes de la maladie de Parkinson dans le monde. Et ce chiffre augmente chaque année. En 2020, selon Santé Publique France, ce sont 26 000 nouveaux cas qui ont été diagnostiqués en France. Aujourd’hui, seuls les symptômes sont traités. En d’autres termes, la maladie continue de progresser chez les personnes atteintes jusqu’à leur faire perdre peu à peu leurs fonctions motrices.

Pour faire ralentir la progression de la maladie, une équipe du CEA a mis au point un implant qui consiste à illuminer les neurones afin de ralentir leur dégénérescence. Un essai clinique, mené avec le professeur Stephan Chabardès du CHU de Grenoble, est en cours. Le projet est accompagné par plusieurs financeurs, dont le Fonds de dotation Clinatec et l’entreprise Boston Scientific. Pour comprendre comment il fonctionne et les résultats espérés, nous avons interrogé Cécile Moro, directrice de recherche au CEA et cheffe du projet NIR, pour « near infra-red », de traitement de la maladie de Parkinson.

Techniques de l’ingénieur : D’où vous est venue l’idée de traiter Parkinson par la lumière ?

 

Cécile Moro, CEA
Cécile Moro – Crédit CEA

Cécile Moro : La lumière a une interaction avec les tissus biologiques. Nous le savons depuis 1967, lorsque le chercheur André Mester s’est rendu compte que des rats opérés du cancer cicatrisaient plus vite lorsqu’il illuminait la région opérée. C’était la première observation. Ensuite, John Mitrofanis, de l’Université de Sydney, spécialiste de la photobiomodulation, s’est intéressé à ces questions. Ce chercheur est une connaissance du Pr Alim-Louis Benabid, co-fondateur de Clinatec et inventeur de la simulation cérébrale profonde (DBS), un traitement de certains malades de Parkinson.

Ils se sont dit : pourquoi ne pas tester la lumière dans le cerveau ? Le problème : si la lumière est émise à l’extérieur du crâne, il y a une telle absorption par les tissus que la lumière n’arrive pas à atteindre sa cible, située à peu près au milieu du cerveau. En 2010, John Mitrofanis a fait une première étude sur un modèle de souris parkinsoniennes. Et en 2011, nous avons reproduit les résultats sur d’autres modèles. Nous voulions que les neurones qui dégénèrent dans la maladie de Parkinson le fassent moins vite, voire arrêtent complètement. Ce qui serait le Graal…

C’est votre objectif ?

Notre objectif est de ralentir la perte des neurones dopaminergiques afin de retarder le développement de la maladie et de ses symptômes. En fait, Parkinson est une maladie qui arrive majoritairement dans la seconde moitié de vie d’une personne. La maladie de Parkinson, si je simplifie, est un problème de perte de neurones dopaminergiques qui produisent de la dopamine, un neurotransmetteur d’intérêt. Quand on n’a plus ces neurones, on n’a plus de dopamine et c’est là que le fonctionnement normal du cerveau ne se fait plus correctement.

Quand la maladie est détectée, elle est déjà là depuis de nombreuses années et les personnes ont déjà perdu 60 à 70 % des neurones concernés. Ce qui signifie que les 30 % suffisent pour que notre corps fonctionne correctement. Il y a quelques effets (tremblements, etc.) gênants, mais pas bloquants pour continuer de vivre. Mais lorsque la maladie continue d’évoluer jusqu’à la quasi-disparition des neurones dopaminergiques, il y a des symptômes moteurs qui gênent les personnes pour travailler. C’est aussi très lourd pour leur entourage, car les personnes touchées ont besoin de beaucoup d’aide. Si on ralentit cette maladie, on peut imaginer les gens arriver en fin de vie avec des symptômes moteurs modérés. Et donc poursuivre leur vie dans de meilleures conditions.

Et donc vous faites cela avec un implant qui envoie de la lumière… pouvez-vous nous en dire plus ?

CLINATEC - implant - batterie
L’implant est composé d’une batterie / simulateur, d’un module optique et d’une fibre optique. © P. Jayet/CEA

Oui, c’est un dispositif composé de trois parties : une batterie/simulateur, un module optique qui convertit l’énergie électrique en lumière, et une fibre optique qui va descendre à l’intérieur du cerveau, à proximité des substances noires qui sont des régions cérébrales où les neurones dopaminergiques meurent dans la maladie de Parkinson. Le CEA a fait toute l’intégration des trois briques technologiques pour obtenir un objet fonctionnel et qualifié.

C’est une technologie invasive, mais qui nécessite une intervention moyennement invasive pour un neurochirurgien. La partie batterie/simulateur se situe sous la clavicule. Les câbles sont également passés sous la peau. On réalise une trépanation pour mettre à la place de l’os le boîtier optique, d’où sort une fibre optique introduite dans le cerveau. La fibre optique va principalement descendre dans les ventricules du cerveau, sans léser de tissus. On arrive à quelques millimètres de la zone à protéger. On est dans un couloir naturel, donc c’est bien moins invasif que traverser uniquement du tissu cérébral.

Et donc la lumière maintient les neurones ?

Le mécanisme d’action n’est pas complètement connu, loin de là. Ce que l’on sait, c’est que la lumière stimule les mitochondries, des petits organites dans les cellules qui fournissent de l’énergie. La molécule d’énergie des cellules s’appelle de l’ATP. Et la lumière booste le fonctionnement du cytochrome C oxydase, un ensemble de protéines situé au niveau de la mitochondrie qui fabrique de l’ATP. Il y a probablement d’autres mécanismes qui sont en jeu, mais on ne les connaît pas encore. Des équipes travaillent dessus. On pense qu’en apportant de l’énergie aux cellules, elles résistent mieux au stress, donc meurent moins. Et comme elles meurent moins, la maladie évolue moins vite.

Est-ce que vous êtes les seuls dans le monde à travailler là-dessus ?

Il y a plusieurs équipes dans le monde qui travaillent en photobiomodulation, l’effet de la lumière sur les tissus. Par contre, à notre connaissance, nous sommes les seuls à le faire à l’aide d’un dispositif implanté.

Vous avez un essai clinique en cours, quels sont les objectifs ?

L’essai clinique a débuté en 2021. À ce jour, nous avons trois patients implantés sur les sept à terme. L’objectif de l’essai clinique est de vérifier la faisabilité et la sécurité de cette approche thérapeutique. Mais nous aurons aussi une première évaluation de l’efficacité de notre approche « traitement par la lumière ». Nous suivons nos patients pendant quatre ans pour voir comment évolue la maladie et notamment les neurones dopaminergiques. On est capable par des techniques d’imagerie de les quantifier, de regarder comment ces neurones évoluent.

implant - CEA
Une équipe du CEA a développé un implant pour ralentir les symptômes de la maladie de Parkinson. © CEA

Le premier patient a deux ans de recul à ce jour et pour l’instant ça va bien. On ne s’engage pas sur les résultats thérapeutiques, mais d’un point de vue faisabilité, on y arrive très bien et le patient n’a pas d’effet secondaire pour le moment. Nous aurons le résultat de l’ensemble de l’essai clinique quatre ans après l’implantation du dernier patient, soit vers 2028. Si les résultats sont bons et qu’il y a bien une protection des neurones concernés, il serait souhaitable d’aller vers un essai plus large. Et dans 10 ou 15 ans, on peut espérer que le dispositif sera disponible pour les patients.

Avant la création de l’implant, quelles étaient les étapes ?

On a fait de la simulation pour regarder comment se propage la lumière, comment elle est absorbée par les différentes structures du cerveau pour avoir une estimation de la dose de lumière reçue pour les tissus modèles parkinsoniens. Nous avons réalisé des tests techniques de fonctionnement de l’implant (en vérifiant par exemple qu’il n’y ait pas d’échauffement au niveau des tissus illuminés), ainsi que des tests réglementaires.

En termes de fonctionnement, est-ce qu’il est programmé ou contrôlé à distance ?

L’implant est contrôlé par le stimulateur. Nous choisissons le profil d’illumination lorsque nous nous connectons à l’implant via une antenne adéquate lors de la chirurgie et à chaque visite de contrôle. Ensuite, le patient doit recharger régulièrement sa batterie, avec un chargeur par induction au niveau de la clavicule.

Faites-vous des tests différents selon les patients ?

Nous savons ce que nous voulons envoyer en termes de lumière et fréquence. À chaque visite du patient, on interroge le boîtier du patient et on est capable de voir comment le boîtier a fonctionné sur les mois passés : est-ce que l’illumination est bien faite, est-ce que la quantité est bonne, comment le patient s’est rechargé, etc. Car s’il ne recharge pas par exemple, il n’y a pas de traitement. Et quand nos patients viennent sur place, on réalise des tests plus spécifiques pour s’assurer que l’implant fonctionne bien.

Et pour voir si ça fonctionne sur les neurones ?

Nous faisons des tests neurologiques, pour évaluer la maladie. Nous ajoutons des tests de marche et de mobilité plus fines au niveau des mains, des pieds. Cela nous donne les symptômes, mais pas le ralentissement de la maladie. Pour voir si la maladie ralentit, on leur fait un PET-SCAN, de l’imagerie dopaminergique, une fois par an.

Pour pouvoir avancer dans vos recherches et réaliser cet implant, vous avez reçu des financements…

Oui, et c’est très important pour des projets de rupture et pionniers d’avoir des financeurs qui nous font confiance afin d’aller chercher d’autres fonds ensuite. Car il y a 12 ans, au commencement, peu de gens y croyaient ! Nous avons eu la chance d’être soutenus par le CEA et d’autres financements. Grâce à cela, nous avons pu réaliser une preuve de concept qui nous a permis d’aller chercher d’autres fonds auprès de fondations et de mécènes. Puis un industriel, en voyant nos résultats avancés, a osé y croire.

Le stockage solide d’hydrogène bientôt primé ?

L’Office européen des brevets décerne chaque année le Prix de l’inventeur. Pour l’édition 2023, douze finalistes ont été présélectionnés, dont deux équipes françaises : une sur les fermes d’insectes (cf. encadré), l’autre sur le stockage d’hydrogène.

L’équipe française sur ce second sujet est constituée autour de Daniel Fruchart, ancien directeur de recherche au CNRS pour des travaux qu’il avait commencés il y a plus de 20 ans et qui avaient mené à un transfert de technologie pour lancer le stockage massif de l’hydrogène dans l’hydrure de magnésium. Sa collègue Patricia de Rango, directrice de recherche à l’Institut Néel à Grenoble et un de ses doctorants de l’époque, Albin Chaise ont amélioré cette solution, également avec la contribution de Nataliya Skryabina venue dans le cadre de projets européens. En parallèle, Michel Jehan, industriel du magnésium, a validé la solution à large échelle. Leur technologie autorise la nouvelle molécule star de la transition énergétique à être utilisée quand on en a besoin, et pas uniquement au moment où elle est produite par électrolyse de l’eau. L’avantage majeur du stockage de l’hydrogène sous forme solide est sa plus grande densité (102 kg/m³) que sous les formes liquide (72 kg/m³) et gazeuse (42 kg/m³) qui se traduit par une forte densité énergétique : 1 kg d’hydrure de magnésium stocke 33 kWh alors qu’une batterie électrochimique Li-ion du même poids avoisine les 0,3 kWh. On ouvre ainsi la porte à un stockage massif de l’hydrogène.

Stockage H2 - Prix de l’inventeur européen
De gauche à droite, l’équipe qui a réalisée le stockage d’hydrogène dans des disques solides : Albin Chaise, Patricia de Rango, Michel Jehan, Nataliya Skryabina et Daniel Fruchart (crédits Nanda Gonzague).

Densité et stabilité

Évidemment, la recherche a été assez complexe. Il a fallu d’abord trouver le métal présentant la meilleure capacité de sorption de l’hydrogène, tout en permettant la réversibilité de la réaction. Le magnésium, peu cher, très léger et abondant par rapport à d’autres comme au vanadium, au zirconium etc., s’est avéré le meilleur candidat. Sa formulation sous forme de poudres nanostructurées et sa compaction avec du graphite expansé permet d’avoir à disposition un matériau facile à utiliser. Cet additif répond à l’autre défi qui a été de gérer la chaleur de la réaction, très exothermique lors de l’hydruration (autour de 300°C). Un réservoir isolé avec un matériau à changement de phase permet de conserver cette chaleur pendant 6 à 8 heures et de la restituer au moment du déstockage de l’hydrogène qui est une réaction endothermique. Au-delà, il y a 20 % de pertes de chaleur irrémédiables qui sont compensées par l’ajout de systèmes chauffants. Avant stockage, l’hydrogène peut être récupéré directement à la sortie des électrolyseurs, à 15 bar, sans besoin de compression, puis il est restitué sous 2 bar pour un usage direct, ou recompressé si besoin.

Densité et stabilité dans le temps confèrent au stockage d’hydrogène sous forme solide la possibilité d’un transport plus facile et plus sécuritaire que sous forme liquide ou gazeuse, et en plus grandes quantités. Ce pourrait également être une alternative au développement de réseaux de transport dédiés à cette molécule. Mais pour Daniel Fruchart, la priorité est de l’utiliser directement chez les industriels qui choisiront de réaliser l’électrolyse sur leur site pour leur usage propre, à partir d’électricité renouvelable, et auront ainsi la capacité de créer des réserves tampons d’hydrogène en fonction de leurs besoins.

Les résultats probants des prototypes avaient conduit Michel Jehan et Daniel Fruchart à la création de la société McPhy en 2008, désormais recentrée sur la production d’électrolyseurs et de stations à hydrogène. La technologie de stockage sous forme solide a été mise en « stand-by » quelques années, car le marché n’était pas assez mûr pour y recourir. Mais l’engouement pour l’hydrogène depuis trois ans a relancé son intérêt et elle est désormais reprise par l’entreprise Jomi-Leman fondée par Michel Jehan. Plusieurs projets sont en cours d’étude au Maroc (stockage de masse pour une usine d’ammoniac), en Norvège (mobilité maritime), et des discussions sont en cours au Canada et en Australie.

Si le Prix de l’inventeur européen est remis à cette équipe sur le stockage solide de l’hydrogène, ce sera une reconnaissance de son travail scientifique, qui tombera à point nommé pour appuyer son développement commercial à forte incidence environnementale. Le jury du Prix annoncera les lauréats le 4 juillet à Valence en Espagne. Un prix du public sera également remis : il est possible de voter pour les équipes françaises sur le site de l’Office européen des brevets.

Ynsect : pour une alimentation plus durable

Dans la catégorie « PME » du Prix de l’inventeur européen, on trouve le biochimiste Antoine Hubert et sa société Ynsect, dont l’objectif est de produire des éléments nutritifs en élevant deux sortes de scarabées. Une ferme verticale, en train d’être terminée à Amiens, produira à terme 200 000 tonnes d’ingrédients par an pouvant servir à la nutrition animale, à des engrais pour les plantes, ou à des apports nutritifs en alimentation humaine. Utilisant 30 fois moins de surface au sol et émettant 40 fois moins d’émissions de CO2 que l’élevage bovin, et consommant 40 fois moins d’eau que l’élevage porcin par kg, cette solution s’appuie sur plus de 380 brevets.


Crédit image de une : Nanda Gonzague

Et les gagnantes de l’édition 2023 d’Ingénieuses sont…

La 13ème édition d’Ingénieuses de la CDEFI, a été lancée le 16 janvier dernier, avec l’ouverture des candidatures au concours, et a duré jusqu’au 11 mai avec la remise des prix. Cette cérémonie à réuni plus de 150 personnes autour d’interventions et de vidéos mettant en avant les projets et les portraits des finalistes. C’est Bruno Le Maire, le ministre de l’Économie, des finances et de la souveraineté industrielle qui a ouvert cette évènement avec un discours sur les ingénieurs nécessaires à la réindustrialisation du pays.

Puis, Philippe Dépincé, président de la commission Formation et société de la CDEFI et directeur de Polytech Nantes, a pris la suite pour révéler les lauréates :

Cinq écoles d’ingénieur·e·s ont été récompensées : 

  • Toulouse INP – ENSEEIHT, lauréate du prix lycéen pour son projet « WomeN7 » décerné par un jury spécifique composé de 26 lycéennes et lycéens du lycée Camille Claudel de Pontault-Combault (77) ; 
  • l’UTC, lauréate du prix de l’école la plus mobilisée pour son projet « Mois de l’égalité » ; 
  • Grenoble INP – Ense3, lauréate du prix de l’engagement étudiant pour son projet « Épopées de femmes » ; 
  • Mines Saint-Étienne, lauréate du prix du projet le plus original pour son projet « Sciences en tous genres » ; 
  • l’INSA Hauts-de-France, lauréate du prix spécial du jury pour son projet « Filles, osez les sciences ».

Deux élèves-ingénieures et deux femmes ingénieures ont été primées pour leurs parcours et leurs engagements particulièrement inspirants  : 

Félicitations aux lauréates de cette année et rendez-vous l’année prochaine pour une nouvelle édition !

Plus d’informations sur l’opération Ingénieuses en cliquant ici.

Un algorithme qui rend impossible la détection d’échanges de données sensibles

L’information sensible doit rester confidentielle pour préserver sa valeur. Pour assurer la confidentialité de ce type de données, les entreprises ont recours à des solutions qui « chiffrent » (le grand public connaissant plutôt le terme – inapproprié – de « crypter ») le contenu transmis par email ou stocké dans le cloud.

Mais l’information chiffrée est repérable, son passage est visible sur le réseau. Toutefois, une clé est nécessaire pour la déchiffrer. Selon les algorithmes utilisés, un certain temps et certaines ressources de calcul sont indispensables pour retrouver la clé.

L’idéal est donc d’être suffisamment discret pour que l’on ne devine pas la présence des informations que nous voulons protéger. C’est ce que propose « la stéganographie », une technique qui existait déjà au moyen âge.

Plus d’informations cachées

Très peu utilisée par les entreprises, elle reste encore cantonnée à la recherche. Et dans ce domaine, des chercheurs de l’Université d’Oxford et l’Université Carnegie Mellon affirment avoir mis au point un algorithme très efficace.

Bien qu’elles soient étudiées depuis plus de 25 ans, les méthodes de stéganographie existantes présentent généralement une sécurité imparfaite, ce qui signifie que les personnes qui les utilisent risquent d’être détectées. En effet, les algorithmes de stéganographie précédents modifient quelque peu le contenu inoffensif utilisé (un son, des images ou des vidéos).

Pour y remédier, l’équipe de recherche a utilisé des avancées récentes en théorie de l’information, en particulier le couplage à entropie minimale, qui permet d’associer deux distributions de données de manière à maximiser leur information mutuelle, tout en préservant les distributions individuelles.

Par conséquent, avec le nouvel algorithme, il n’y a pas de différence entre la distribution du contenu inoffensif et la distribution du contenu qui encode des informations sensibles.

En plus d’être parfaitement sûr, le nouvel algorithme a montré une efficacité d’encodage jusqu’à 40 % supérieure à celle des méthodes de stéganographie précédentes dans une variété d’applications, ce qui permet de dissimuler plus d’informations dans un seul fichier anodin.

L’équipe de recherche a déposé une demande de brevet pour l’algorithme. Mais il sera sous une licence gratuite pour une utilisation responsable non commerciale, par exemple pour de la recherche universitaire et humanitaire.

Un système de protection incendie pour protéger les entrepôts de stockage des batteries lithium-ion

Le risque d’incendie associé au stockage des batteries lithium-ion est un problème très actuel. Ainsi, le 16 janvier 2023, un énorme incendie s’est déclaré dans un hangar de Grand-Couronne en Seine-Maritime ou étaient stockés environ 12 250 batteries ou éléments de batteries au lithium.

Selon l’exploitant, l’entreprise Bolloré Logistics, une batterie au lithium aurait pris feu, causant un incendie qui se serait ensuite propagé à une zone attenante où étaient entreposés 70 000 pneus.

Cet exemple n’est malheureusement pas un cas isolé[1], car la dangerosité des batteries au lithium est connue.

  • Risque d’emballement thermique : la libération d’oxygène par le matériau de la cathode utilisé dans la batterie peut déclencher un processus d’auto-renforcement.
  • Réaction en chaîne : l’incendie d’une cellule de batterie peut rapidement entraîner une réaction en chaîne avec les cellules voisines.
  • Stockage : l’énergie libérée lors de l’emballement thermique enflamme les matériaux adjacents et le feu peut alors se propager.
  • Risque chimique : en cas d’explosion, des substances corrosives et toxiques peuvent être libérées[2].

La multiplication des usages (perceuses, ordinateurs portables, stockage d’énergies renouvelables, etc.) et la généralisation des batteries au lithium à la mobilité électrique, notamment les trottinettes, vélos et voitures électriques, entraînent ainsi de façon logique un accroissement des risques d’incendie et d’explosion !

Ces dernières années, les batteries au lithium sont même devenues la bête noire des centres de tri des déchets. Bien qu’elles fassent partie des DEEE, les erreurs de tri sont malheureusement fréquentes et toute batterie qui se retrouve dans la poubelle jaune est susceptible d’exploser et de provoquer un départ de feu en cas de choc mécanique.

Selon une étude, les batteries au lithium seraient ainsi responsables d’une augmentation des incendies de 25 % dans les centres de tri (aux États-Unis et au Canada), ce qui est colossal !

Enfin, en plus d’être une cause majeure d’incendie, ces batteries présentent des risques importants pour les professionnels qui les manipulent, ce qui pousse l’INRS à multiplier les actions de prévention.

Wagner propose une solution dédiée à la protection des entrepôts logistiques à haut rayonnage

Entreposer des milliers de batteries au lithium dans un même endroit multiplie les risques d’emballement thermique et donc d’incendie, ce qui nécessite la mise en place de mesures spécifiquement adaptées. En tant que spécialiste de la protection incendie, le groupe allemand Wagner a donc cherché à développer une solution adaptée à la sécurisation du stockage dans les entrepôts à haut rayonnage automatisés.

Selon Wagner, l’automatisation des entrepôts à haut rayonnage augmente statistiquement le risque d’incendie, du fait de la multiplication d’équipements susceptibles de surchauffer ou d’entrer en court-circuit. Compte tenu du caractère instable des batteries lithium-ion, le moindre départ de feu doit être détecté et pris en charge dès son apparition afin d’éviter la catastrophe !

Le système développé par Wagner repose ainsi sur la prévention active des incendies, plutôt que sur le contrôle des dommages, l’extinction d’un incendie de batteries étant particulièrement difficile à éteindre. Le principe est simple : lorsqu’un départ de feu est détecté, le système injecte de l’azote dans la zone concernée, ce qui crée une atmosphère protectrice et chasse l’oxygène nécessaire à sa propagation. La solution repose également sur un système de détection précoce d’incendie, capable de détecter la source d’un incendie 2 000 fois plus tôt que les systèmes conventionnels en cas d’emballement thermique.

Cette solution, récompensée par le média allemand materialfluss, a ainsi été mise en place avec succès dans un entrepôt de la société KETTLER Alu-Rad GmbH, capable d’accueillir 50 000 vélos électriques.

Entrepôt à hauts rayonnages- KETTLER
Entrepôt à hauts rayonnages de la société KETTLER Alu-Rad, où jusqu’à 50 000 vélos électriques peuvent être emballés et stockés avec des batteries installées (Crédit : Wagner Group GmbH)

Le risque d’incendie et d’explosion des batteries lithium : un défi pour les assureurs comme pour les pompiers !

En 2022, le navire Felicity Ace transportant 4 000 voitures de luxe, dont certaines électriques, a sombré, suite à un incendie causé très probablement par des batteries lithium-ion. Compte tenu des conséquences désastreuses, tant sur le plan économique[3] que de l’environnement, et de la difficulté extrême d’éteindre et contenir ce type d’incendie, une compagnie maritime norvégienne à même pris une décision radicale : bannir le transport des véhicules électriques !

Par ailleurs, la dangerosité de ces batteries est également bien connue de l’industrie aéronautique, le transport de cargaisons de batteries lithium-ion ayant causé plusieurs incidents graves par le passé[4]. Enfin, rappelons que les millions de batteries au lithium transportées « involontairement » par les avions de ligne chaque année via les appareils électroniques des passagers représentent aussi un risque majeur.


[1] Une liste d’événements impliquant les batteries au lithium est disponible ici.

[2] Composés chlorés et fluorés, acides, formaldéhyde, benzène, styrène, etc.

[3] Dans le cas du Felicity Ace, la facture s’élève à près de 500 millions de dollars pour les assurances des constructeurs.

[4] L’avion malaisien MH370, disparu le 8 mars 2014, transportait un lot de batteries Li-ion et l’incendie de la soute fait partie des hypothèses ayant obligé le capitaine à changer de cap vers l’ouest