Les températures dans le Pacifique tropical ne cessent de progresser

Le Pacifique tropical, qui s’étend de l’Australie au continent américain, est une zone clé dans la compréhension du système climatique mondial. Les variations de température observées dans cette région sont actuellement bien étudiées à l’échelle interannuelle, c’est-à-dire d’une année à l’autre. On sait par exemple que le phénomène climatique El Niño va provoquer une augmentation des températures dans le monde entier l’année où il se produit. Une équipe de 35 scientifiques internationaux s’est formée afin d’étudier les fluctuations climatiques lentes dans le Pacifique tropical à l’échelle décennale, également connues sous le nom de « TPDV » pour Tropical Pacific decadal variability. Ces travaux de recherche, réalisés principalement grâce à une synthèse d’articles scientifiques, viennent d’être publiés dans la revue Science.

Il apparaît que deux mécanismes sont responsables des variations de température lentes dans le Pacifique tropical. Le premier, nommé variabilité interne, est lié aux phénomènes El Niño et La Niña qui se déroulent dans cette région. Ainsi, les décennies où l’on observe une fréquence plus élevée d’El Niño que de La Niña sont celles les plus chaudes dans le monde. Le deuxième, appelé variabilité forcée, provient des contraintes extérieures que subit le Pacifique tropical telles que les concentrations en gaz à effet de serre, le « black carbon » émis lors des réactions de combustion ainsi que les éruptions volcaniques projetant des particules dans la stratosphère.

« Nous avons mis en évidence que le changement climatique dans cette région est particulièrement prégnant dans l’ouest du Pacifique tropical, décrit Matthieu Lengaigne, climatologue à l’IRD (Institut de recherche pour le développement) et l’un des chercheurs ayant codirigé cette étude. Depuis 1900, on voit clairement une augmentation d’environ 0,5 degré des températures liée à l’augmentation des gaz à effet de serre dans l’atmosphère. Et toutes les années depuis 1990 sont plus chaudes que la moyenne des températures des années 70. Dans le Pacifique est, nous avons plus de difficultés à évaluer quelle est la part du forçage anthropique dans l’augmentation des températures à cause des phénomènes E Niño et La Niña. Ces derniers entraînent en effet des variations de température de l’ordre de 3 à 5 degrés, et dans ces conditions il est plus difficile de détecter une variation de 0,5 degré. »

Une disparition des récifs coralliens dans 50 ans

Cette augmentation lente des températures dans le Pacifique tropical a de multiples répercussions. Alors que les populations de thons ont tendance à se déplacer du Pacifique ouest vers le Pacifique central est afin de suivre les eaux chaudes lors du phénomène El Niño, ce mouvement se répète durant les décennies les plus chaudes. Les récifs coralliens ne sont pas épargnés non plus puisque le réchauffement provoque un blanchissement des coraux et à terme leur mort. « On prévoit une disparition de l’ensemble des coraux à l’échelle des tropiques dans 50 ans, alerte le chercheur. Ces récifs coralliens ne sont pas uniquement là pour faire joli. Ils soutiennent des écosystèmes particulièrement riches. À certains endroits, on observe par exemple des reproductions de poissons qu’on ne retrouve nulle part ailleurs, cela signifie donc que l’on va perdre en biodiversité. »

Le réchauffement du Pacifique tropical a aussi un impact sur le niveau des précipitations, la fréquence et l’intensité des sécheresses ainsi que les feux de forêt associés, et ce, particulièrement dans le Pacifique ouest. Au-delà de cette région, les chercheurs ont également mis en évidence des liens entre cette variabilité décennale des températures dans le Pacifique tropical et la couverture de glace dans les pôles. Les décennies chaudes du Pacifique tropical sont celles où l’on observe une plus importante diminution de la surface de glace dans les régions polaires.

Les scientifiques vont poursuivre ce travail de recherche, notamment dans le but de réaliser des projections sur l’évolution lente des températures de cette région du monde. Ils sont actuellement limités par l’historique des données disponibles, comme le souligne Matthieu Lengaigne : « Nous avons des données d’observations pertinentes à partir des années 1950 et très peu avant. Mais il est possible de reconstruire l’évolution des températures du Pacifique tropical sur plusieurs siècles en arrière grâce à l’étude des isotopes de l’oxygène dans les coraux, et même si ceux-ci sont déjà morts ». De nouveaux modèles climatiques de prédiction vont devoir être développés, car ceux actuellement utilisés ont des biais et ne reproduisent pas suffisamment bien la composante interne de la variabilité des scénarios du Pacifique tropical.

Quel climat pour la France en 2050 ?

C’est maintenant une certitude : le réchauffement climatique actuel est sans précédent depuis 2001 et il est sans retour. Nous entrons dans un nouveau monde dans lequel il y aura un impact très fort avec des vagues de chaleur, des pluies diluviennes, des sécheresses et une élévation du niveau de la mer. « Nous avons constaté un réchauffement de l’océan jusque 4 000 m de profondeur, entraînant la fonte des calottes glaciaires et une hausse du niveau de la mer estimée à 1 mètre en 2100 si on continue à ce rythme », explique Jean-Baptiste Sallée, océanographe au CNRS et « auteur principal » du dernier rapport du Giec.

Le réchauffement est plus rapide dans les zones tempérées

En France, l’augmentation de la température moyenne a atteint 2,3°C en 2020 contre 1,2°C au niveau mondial : « le réchauffement climatique n’est pas homogène sur la planète : la France et les régions tempérées sont bien au-dessus de la moyenne mondiale avec plus de 2°C, alors que les zones tropicales sont en dessous de la moyenne, environ 0,5°C », précise Joël Guiot, paléoclimatologue au CNRS et co-président du Groupe régional d’experts sur le climat de la région Sud.

Canicules, incendies de forêt et épisodes méditerranéens

Le sud de la France, et plus généralement tout le pourtour méditerranéen, est déjà impacté par la baisse des précipitations et des vagues de chaleur importantes : en 2019, la région PACA a connu des pics de températures inédits jusque 46°C, entraînant des feux de forêt et un indice de feu élevé. À l’avenir, les sécheresses seront plus intenses encore l’été, renforçant le risque de mégafeux semblables à ceux d’Australie et de Californie. En 2100, la végétation méditerranéenne s’étendra jusqu’au nord de Bordeaux.

Les épisodes de pluie intense ou « épisodes méditerranéens » seront plus fréquents et plus extrêmes : en 2020, la région a subi deux événements historiques avec des cumuls de précipitations exceptionnels de plus de 500 mm (soit 500 litres par mètre carré) en 24 heures. Ces pluies diluviennes sous forme de « lames d’eau » entraînent des crues dévastatrices et des glissements de terrain.

Les villes en surchauffe et les zones côtières sous la menace d’érosion et de submersion

Le climat des villes sera bouleversé, avec des épisodes de canicules accentués par le phénomène d’îlots de chaleur. « Les structures urbaines et l’occupation des sols impactent fortement les premières couches atmosphériques et créent un microclimat local, avec des conséquences importantes au niveau sanitaire et sur la surconsommation d’énergie », décrit Julia Hidalgo chargée de recherche au CNRS en climatologie urbaine. En 2050, Paris aura le climat proche de celui d’Istanbul aujourd’hui.

L’élévation du niveau de la mer, estimée à 1 mètre à l’horizon 2100, associée aux tempêtes ou grandes marées entraînera des phénomènes de submersions marines et des risques d’inondations plus importants dans les villes côtières. L’érosion des côtes sera très variable selon les profils géologiques : les falaises de la Manche voient déjà leur trait de côte reculer, tandis que les côtes sableuses de l’Ouest connaissent d’importants mouvements d’avancée ou de recul du littoral selon les zones.

Conséquences pour la France : carte des impacts observés ou à venir d’ici 2050 (ONERC)

Ne rien faire coûtera plus cher que d’agir pour le climat

Les aléas climatiques sont en nette augmentation sur l’ensemble du territoire : depuis 2001, 2 068 événements naturels dommageables ont été dénombrés en France (métropole et DOM), causant 30 875 morts et plus de 55 milliards d’euros rien qu’en dommages assurés (chiffres I4CE). Les inondations sont les événements les plus extrêmes les plus coûteux en vie humaine et en dégâts.

Dans les zones urbaines, différentes mesures sont possibles pour adapter l’urbanisme et le bâti : réintroduire des espaces d’eau et de végétation, réduire les surfaces artificielles, développer les techniques d’ombrage et la ventilation naturelle, utiliser des matériaux isolants, limiter les rejets de chaleur dus aux bâtiments, au trafic routier et à l’industrie.

Les outils de diagnostics, le partage de l’information et l’accès aux données climatiques seront indispensables pour mettre en place des aménagements adaptés. « C’est à l’échelle régionale que les effets du réchauffement climatique se font le plus ressentir et c’est à cette échelle qu’on peut créer des solutions innovantes d’adaptation et d’atténuation », explique Bruno Castelle, chercheur au CNRS.

Ces mesures pour limiter le changement climatique peuvent également générer des bénéfices sanitaires à court terme (réduction de la pollution atmosphérique, bruit…). Il sera essentiel de les expliquer afin d’impliquer très tôt les citoyens et pour une meilleure acceptabilité.

Les prochaines décennies auront une influence décisive sur la stabilisation du climat à venir. « Nous pouvons encore agir pour atténuer les impacts du réchauffement climatique en réduisant les émissions de gaz à effet de serre », martèlent les scientifiques. C’est tout l’enjeu de la prochaine COP26 à Glasgow.

Pour aller plus loin :

Le best of presse : au fil de l’actu sci-tech #7

Ici vous trouverez notre récap’ de l’actualité scientifique et technologique qui a bercé ou chamboulé le mois d’octobre. Et une info bonus en bas de l’article, pour vous aider à épater votre entourage !

Les Vikings étaient premiers en Amérique

Christophe Colomb y était bel et bien parvenu en 1492… Cependant, ce sont les Vikings qui furent les premiers Européens à fouler les terres d’Amérique ! Et cela bien avant l’explorateur italien : en 1021, au moins. Il s’agit là de la conclusion de datations récentes réalisées sur des objets en bois trouvés au site archéologique de L’Anse aux Meadows, dans la province canadienne de Newfoundland.

Les chercheurs ont compté les cernes (anneaux de croissance) sur ces objets en bois, afin de savoir quand l’arbre (à partir duquel ces reliques ont été fabriquées) a été abattu. Et c’est ainsi qu’ils sont remontés jusqu’à l’an 1021. On suspectait déjà les Vikings d’avoir séjourné, il y a environ 1000 ans, sur ce site canadien. Mais les études précédentes n’avaient pas pu identifier une année en particulier. C’est désormais chose faite ! L’étude en question a été publiée le 20 octobre dans la revue Nature. Attention, 1021 n’est pas forcément l’année pendant laquelle les Vikings avaient pour la première fois mis pied à terre en Amérique. Cette date reste à découvrir !

Une Lune au passé explosif…

Grâce à l’analyse d’échantillons lunaires rapportés par la mission chinoise Chang’e 5, révèlent une activité volcanique qui aurait animé notre satellite pendant très longtemps, bien plus qu’on ne le croyait. En fait, pendant un milliard d’années de plus ! En effet, ces échantillons contiennent de la lave solidifiée « jeune », résultat d’éruptions volcaniques relativement récentes. Bien que la Lune soit aujourd’hui épargnée des rivières bouillonnantes de magma qui devaient la sillonner par le passé, Nature précise que cette ancienne activité volcanique devrait remonter  à aussi loin que 4 milliards.

Un long-métrage de l’espace

Une actrice et un réalisateur russes ont tourné des scènes de film dans l’espace. Pour ce faire, ils sont restés pas moins de 12 jours à bord de la Station spatiale internationale (ISS). Baptisée « The Challenge », cette fiction raconte l’histoire d’une chirurgienne envoyée en urgence dans l’espace pour sauver la vie d’un cosmonaute malade. Yulia Peresild, l’actrice qui joue la chirurgienne, et Klim Shipenko, le réalisateur, sont rentrés sur Terre dimanche 17 octobre, selon le New York Times. Le quotidien américain rappelle que l’acteur américain Tom Cruise devrait lui aussi (mais on ne sait quand) filmer dans l’espace, et qu’une émission de télé-réalité sur la chaîne Discovery (« Qui veut devenir un astronaute ? ») y est aussi prévue. Quant à nous, nous vous parlions récemment du lancement prochain de satellites publicitaires.

Une voiture volante pour 79 000 €

La start-up suédoise Jetson Aero commercialise, depuis le 21 octobre, le Jetson One, un eVTOL personnel, annonce Le Parisien. eVTOL signifie « avion électrique à décollage et atterrissage verticaux ». Ce multicoptère à huit hélices, capable d’aller jusqu’à 102 km/h, se conduit avec un joystick.

Pour se l’offrir, il faut débourser 79 000 €… Et les acheteurs sont nombreux ! En effet, le journal français note que le stock est déjà épuisé pour 2022, et que les nouvelles livraisons devront attendre 2023.

Bonus : Un tricératops cher payé

« Big John », le plus grand squelette de tricératops connu à ce jour (8 mètres de long), vient de battre un nouveau record : son prix de vente. Le squelette, complet à 60 %, a en effet été adjugé pour 6,6 millions d’euros lors d’une vente aux enchères à Paris, rapporte Le Monde. Son heureux (et vraisemblablement très riche) propriétaire est désormais un particulier américain.

Crédit image de une : Intissar El Hajj Mohamed // Techniques de l’Ingénieur

Les thèses du mois : Capteurs pour les véhicules autonomes, des défis toujours plus complexes à relever

Pour notre dossier d’octobre, « Capteurs pour les véhicules autonomes : des défis toujours plus complexes à relever », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

Precise self-localization of autonomous vehicles using lidar sensors and highly accurate digital maps on highway roads
Farouk Ghallabi
Doctorat en Informatique temps réel, robotique, automatique, 30-06-2020
Centre de robotique

Youla-Kucera based multi-objective controllers : Application to autonomous vehicles
Imane Mahtout
Doctorat en Informatique temps réel, robotique, automatique, 30-06-2020
Centre de robotique

New hardware platform-based deep learning co-design methodology for CPS prototyping : Objects recognition in autonomous vehicle case-study
Quentin Cabanes
Doctorat en informatique, 07-06-2021
Laboratoire d’Ingénierie des Systèmes de Versailles

Évaluation de systèmes d’aide à la conduite. Génération automatique de vérité terrain augmentée à partir d’un capteur haute résolution et d’une cartographie sémantique et 3D ; évaluation de fonctions de perception tierces
Remi Defraiteur
Doctorat en Robotique, 15-06-2021
Systèmes et applications des technologies de l’information et de l’énergie

Navigation autonome d’un robot agricole
Dimitri Leca
Doctorat en Robotique, 07-04-2021
Laboratoire d’Analyse et d’Architecture des Systèmes

Distribution géographique de données dans l’Internet des Véhicules : une approche logicielle et sécurisée utilisant les réseaux cellulaires
Leo Mendiboure
Doctorat en Informatique, 25-09-2020
Laboratoire bordelais de recherche en informatique

Exploration of reinforcement learning algorithms for autonomous vehicle visual perception and control
Florence Carton
Doctorat en Informatique, données, IA/ 31-05-2021
Unité d’Informatique et d’Ingénierie des Systèmes (ENSTA)

Novel off-board decision-making strategy for connected and autonomous vehicles: Use case highway on-ramp merging
Zine El Abidine Kherroubi
Doctorat en Informatique, 16-12-2020
Laboratoire d’Informatique en Images et Systèmes d’information

Localisation autonome par apprentissage des dynamiques de déplacement en transport multimodal
Johan Perul
Doctorat en Automatique, productique et robotique, 21-10-2020
Geoloc

Algorithmes de lissage pour la navigation, la localisation et la cartographie, basés sur des capteurs inertiels haute qualité
Paul Chauchat
Doctorat en Informatique temps réel, robotique, automatique, 26-02-2020
Centre de robotique

Les capteurs, technologies clés du véhicule autonome

Un extrait de Véhicule autonome et connecté – Technologies, enjeux et déploiement, par Jacques EHRLICH

Localiser, positionner le véhicule est une fonction qui peut se décliner selon deux niveaux que l’on pourrait qualifier de macroscopique et microscopique. Au niveau macroscopique, on est conduit à combiner le positionnement GNSS (qui délivre une position toutes les secondes environ) avec des techniques de navigation à l’estime, permettant de déduire la position du véhicule à partir de la dernière position obtenue par GNSS. Pour ce faire, deux capteurs proprioceptifs du véhicule sont utilisés, l’odomètre (mesure de distance parcourue) et le gyromètre (mesure de la vitesse de lacet) qui, après intégration, fournit une indication de cap. Au niveau microscopique, sur les chaussées dites structurées, on utilise principalement les marquages routiers (bandes de peinture continues ou discontinues délimitant les voies). En l’absence de marquages sur route ou sur pistes (routes dites non structurées), ce sont les changements de textures entre la surface de roulement et le bord de route qui sont exploités. Dans tous les cas, les techniques employées sont fondées sur le traitement d’images. Une caméra placée derrière le pare-brise du véhicule (généralement à côté du rétroviseur) observe la voie sur une distance de quelques mètres à quelques dizaines de mètres en avant du véhicule. L’extraction des marquages se fait par une analyse des contrastes (détection de contours ou méthodes de gradients). Une fois l’extraction faite, les marquages sont appariés à un modèle de courbure de route.

Détection d’obstacles proches et lointains

La détection des obstacles nécessite d’accéder à la structure tridimensionnelle de la scène routière, ce que permettent difficilement les techniques fondées sur l’utilisation d’une seule caméra, car elles reposent sur l’hypothèse dite du « monde plan ». On a donc recours à des méthodes par stéréovision, faisant usage de deux caméras éloignées de quelques dizaines de centimètres l’une de l’autre et placées derrière le pare-brise du véhicule, à proximité du rétroviseur. Le but de la stéréovision est de calculer la position spatiale de points à partir des coordonnées de leurs images dans deux vues différentes, afin d’effectuer des mesures ou de reconstruire la structure tridimensionnelle de la scène. Les caméras doivent être parfaitement synchronisées et intégrées dans un support rigide qui garantit d’obtenir des images de la même scène. L’efficacité des systèmes de détection d’obstacles par stéréovision peut être renforcée par la fusion de données avec un télémètre laser à balayage (lidar). Celui-ci permet de détecter le contour englobant des obstacles et ainsi d’isoler dans la scène des zones d’intérêt, ce qui permet de concentrer le traitement d’image sur ces zones et améliorer le temps de traitement.

Au-delà d’une trentaine de mètres, la détection d’obstacles repose essentiellement sur les lidars et les radars, avec pour ce dernier une supériorité qui est son insensibilité aux conditions météorologiques dégradées (pluie, neige ou brouillard). Ces deux capteurs ont l’avantage de délivrer directement une information de distance aux cibles qu’ils détectent. Ils sont dotés de fonctions de suivi de cible, voire même d’anticipation de leur trajectoire. Enfin, grâce à leur grand angle d’ouverture, il est possible, en fusionnant les données de deux ou quatre lidars correctement disposés, de construire une cartographie des obstacles sur 360°. Le coût de ces capteurs est encore très élevé. Par la richesse des informations que les caméras apportent, on est naturellement tenté d’utiliser ce capteur à faible coût pour de multiples applications. La plus emblématique et utile pour le véhicule autonome est l‘estimation de la distance de visibilité liée à la géométrie de la route ou aux conditions météorologiques (brouillard).

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 11 novembre 2021 !

Véhicule autonome et connecté – Technologies, enjeux et déploiement, par Jacques EHRLICH

« Valeo a un leadership important sur les capteurs LiDAR »

Clément Nouvel est responsable LiDAR chez Valeo. Il a expliqué à Techniques de l’Ingénieur la stratégie du groupe français autour de la technologie LiDAR. Une stratégie qui a vu Valeo développer des capteurs LiDAR depuis plus de dix ans, pour atteindre aujourd’hui un statut de leader mondial sur cette technologie.

Une avance qui permet au groupe de se projeter avec confiance sur les prochaines étapes du développement du véhicule autonome, alors que les premiers véhicules de niveau 3 arrivent sur le marché.

Techniques de l’Ingénieur : Valeo est un acteur historique sur le marché des capteurs pour l’automobile. Pouvez-vous revenir sur cette histoire ?

Clément Nouvel : Le développement industriel de capteurs d’assistance à la conduite pour équiper les véhicules a commencé dans les années 90, et Valeo était déjà leader sur ce marché à cette époque, avec le développement de capteurs à ultrasons, dont la finalité était un rôle d’avertissement du conducteur pour les manœuvres de stationnement.

Clément Nouvel est responsable LiDAR chez Valeo ©Valeo

Aujourd’hui nous avons produit plus d’un milliard de ces capteurs, qui permettent au conducteur d’être averti lorsque son véhicule suit une trajectoire se rapprochant dangereusement d’un obstacle.

Depuis, d’autres types de capteurs sont venus progressivement enrichir notre portefeuille de technologies pour une compréhension toujours plus complète de l’environnement du véhicule, comprenant capteurs ultrasons, caméras, radars et LiDARS, et améliorer toujours plus la sécurité.

Valeo a été le premier à proposer, grâce à ses capteurs, des systèmes d’alerte de de franchissement de ligne et systèmes de détection d’angle mort. Ces technologies sont venues s’ajouter au fur et à mesure pour s’intégrer de manière sûre au fonctionnement du véhicule, avec l’objectif d’informer et d’assister le conducteur dans sa tâche. Tout cela s’est fait de manière très progressive. Aujourd’hui, ces systèmes réglementés sont capables de prendre la main sur le véhicule dans certains cas spécifiques pour intervenir. C’est le cas pour le freinage d’urgence par exemple.

Pourquoi ces technologies sont-elles complémentaires ?

Chaque technologie de capteurs a ses avantages. Le capteur à ultrasons est par exemple bien adapté pour la courte portée. Il est, de plus, petit et peu cher. Il est donc possible d’en installer un peu partout sur le véhicule, pour apporter une aide au parking par exemple.

La caméra a une bonne résolution, peut voir en couleur, et est également peu chère, donc facile à installer dans les véhicules. D’ailleurs, peu de gens le savent, mais dès l’année prochaine quasiment tous les nouveaux véhicules auront une caméra frontale.

Le radar, via l’effet Doppler, permet de capter des informations à travers du brouillard, ou quand les conditions de luminosité sont très mauvaises. Ces technologies sont donc toutes complémentaires, et le LiDAR vient ajouter des avantages supplémentaires par sa portée et sa capacité à capter l’environnement en 3D avec une grande précision de jour comme de nuit, avec une capacité à voir les détails sans équivalent chez les autres types de capteurs.

Pour arriver au véhicule autonome, il faudra utiliser l’ensemble de ces technologies, qui offrent également une redondance de l’information, ce qui permet d’assurer un niveau de sécurité optimal.

Le LiDAR est-il aujourd’hui un outil technologique pour le développement des véhicules autonomes ?

Le LiDAR est une technologie indispensable pour atteindre le niveau 3 d’autonomie et présente également des avantages à des niveaux d’autonomie inférieurs, en particulier le niveau 2. Quand on importe une technologie venant d’un autre secteur industriel, il y a un temps de maturation, de convergence pour développer des applications technologiques robustes, performantes, et les moins chères possible.

Sur ce point, Valeo est en position de leadership, puisque nous avons entamé cette réflexion autour de la maturation du LiDAR pour les véhicules il y a plus de dix ans. La question qui peut se poser aujourd’hui est plutôt de savoir quand le LiDAR sera à un niveau de prix et de performance optimums. Sur ce dernier point, Valeo se place également en leader, puisqu’en produisant de gros volumes, nous développons aujourd’hui les Lidars les moins chers et les plus compétitifs du marché. C’est un domaine sur lequel nous avons un leadership important.

Ce leadership vous place-t-il dans une situation favorable dans la course au véhicule autonome ?

Oui, il est évident que cela constitue un avantage. Mais cette position de leader se reflète déjà aujourd’hui à travers la sortie du premier modèle – développé par Honda – de véhicule autonome de niveau 3, qui est équipé de cinq SCALA 1, nos capteurs LiDARs première génération. Le second modèle de niveau 3, présenté il y a quelques semaines à l’IAA de Munich, est le Classe S de Mercedes : il est équipé des capteurs LiDARs Valeo deuxième génération. A travers ces réussites s’est révélée une capacité, acquise progressivement, à adapter nos technologies aux différents cas d’usages liés au niveau 3 d’autonomie. Nous avons aujourd’hui cette capacité de présenter à nos clients des produits très compétitifs, et qui sont également développés et utilisés depuis dix ans par d’autres constructeurs. Toute cette expérience acquise et ce savoir-faire sont des atouts fondamentaux. Aujourd’hui, nous sommes par exemple en mesure de fournir des informations extrêmement précises sur le comportement de nos capteurs sur les routes de différents pays, grâce à l’expérience que nous avons accumulée. Cela a une valeur importante auprès de nos potentiels clients.

A la fin de l’année, notre seconde génération de LiDAR sera montée en série sur les modèles Classe S de Mercedes. Nous sommes les seuls acteurs dans ce cas.

Comment est appréhendé le développement des véhicules autonomes de niveau 4 ?

La marche pour passer du niveau 3 au niveau 4 est très haute. Nous avons pris de l’avance sur le niveau 3. Il faut savoir qu’aujourd’hui, le niveau 3 tel qu’il existe par exemple au Japon et tel qu’il sera bientôt implémenté dans d’autres pays, correspond pour les véhicules à une vitesse d’embouteillage. Pour passer au niveau 4, il va falloir augmenter le nombre de LiDARs dans chaque véhicule. En termes de complexité, c’est exponentiel entre les niveaux 3 et 4, mais il est certain que notre expertise du niveau 3 nous servira beaucoup pour les prochaines étapes.

Les véhicules de niveau 3 qui sortent sur le marché cette année sont dotés des trois types de capteurs que nous avons évoqués, mais également d’une connectivité et d’une cartographie qui vont s’ajouter progressivement à l’infrastructure du véhicule autonome.

Il est évident qu’il faudra au fur et à mesure mettre en place une standardisation de tous ces systèmes. Pour autant, le déploiement massif dans les véhicules de technologies utilisant les capteurs, la cartographie et la connectivité est d’ores et déjà en cours, avec l’utilisation par exemple de cartes HD pour la cartographie qui vont communiquer avec les capteurs. D’ailleurs, nous avons présenté à l’IAA de Munich cette année, un modèle Drive4U ayant un niveau 4 d’autonomie, tout en étant équipé intégralement de capteurs de série déjà sur le marché. Il y a donc une marge de manœuvre très large en termes d’innovations, même au-delà de la connectivité et de la cartographie.

Aussi, la production de capteurs à grande échelle va bien sûr favoriser le développement des véhicules autonomes pour tous les acteurs de ce secteur.

Pouvez-vous nous parler de l’usine de Wemding en Allemagne, dans laquelle ont été développés les processus de production de vos capteurs LiDAR ?

L’usine de Wemding est l’usine mère des capteurs d’assistance à la conduite chez Valeo. Elle produit des LiDARs, des caméras, des radars, des capteurs à ultrasons… cette usine est importante car c’est elle qui nous permet de produire des capteurs à grande échelle et donc à un coût réduit. C’est aussi une usine extrêmement avancée en termes d’automatisation.

Ensuite, pour en revenir au LiDAR, il s’agit d’une technologie complexe : pour produire des LiDARs en série, il faut parvenir à simplifier et à maîtriser des process et des technologies au maximum. C’est ce que nous sommes parvenus à faire sur notre site de Wemding, progressivement. Ce savoir-faire développé à Wemding est ensuite exporté vers nos autres usines de production. C’est un avantage concurrentiel très important, puisque nous sommes les seuls fournisseurs sur le marché à avoir intégré la production de Lidars en série. Nous en sommes à la seconde génération, alors qu’aucun de nos concurrents n’a mis sa première en production de série pour le moment.

Propos recueillis par Pierre Thouverez

Image du Une : Capteur produit à l’usine de Wemding ©Valeo

« Nous voulons faciliter l’intégration et l’utilisation des données LiDAR »

Les informations fournies à partir des données LiDAR par la start-up Outsight correspondent aux exigences spécifiques du véhicule autonome.

Raul Bravo, président et fondateur d’Outsight, a expliqué à Techniques de l’Ingénieur en quoi tout le potentiel autour du LiDAR ne serait pas totalement exploité aujourd’hui.

Techniques de l’Ingénieur : Pourriez-vous revenir sur la genèse de la start-up Outsight ?

Raul Bravo : Outsight est issu d’une société, Dibotics, qui à l’époque de l’émergence des capteurs LiDAR était en pointe en matière de traitement des données en temps réel, notamment pour les navettes autonomes. Dibotics produisait alors des algorithmes pour traiter ce type de données. Outsight a intégré Dibotics pour “productiser” ces algorithmes [en faire un produit commercial acceptable, NDLR.] et en faire des outils facilement utilisables.

Outsight a donc pour mission de faire en sorte que le traitement des données LiDAR en temps réel de Dibotics soit facilement utilisable et intégrable, pour être installé dans n’importe quel produit, que ce soit un véhicule autonome, un robot ou une machine industrielle…

Ce n’est pas encore le cas aujourd’hui ?

Non, ce n’est pas le cas. Les données transmises par un capteur LiDAR sont très différentes de celles que l’on obtient en utilisant une caméra. En effet, une caméra est un capteur passif, c’est-à-dire qu’elle fonctionne avec la lumière qu’elle reçoit. Nous disposons aujourd’hui de capteurs ayant une résolution très importante, ils sont d’ailleurs présents dans tous nos smartphones.

Le LiDAR est lui un capteur actif, il génère de la lumière. C’est ce qui l’empêche de proposer une résolution aussi importante que les caméras.

Par contre le LiDAR apporte quelque chose qui le rend intéressant et que la caméra ne propose pas : la 3D. La 3D va permettre de voir des volumes, de distinguer des objets, ce qui est fondamental, par exemple dans le cas du développement des véhicules autonomes. Prenons un exemple : une caméra va pouvoir repérer un individu situé autour d’un véhicule, mais ne pourra pas donner d’information précise sur son emplacement exact. Or, la précision de ce type d’information est une des clés pour développer des véhicules autonomes fiables et sûrs.

Cet aspect spatial des données est crucial, pour le véhicule autonome mais également dans beaucoup d’autres domaines. C’est ce qui rend le LiDAR si intéressant.

Comment traitez-vous ces données LiDAR ?

Ce sont des données extrêmement complexes à traiter. C’est la mission d’Outsight de travailler sur ces données pour les rendre plus accessibles. Elles sont par nature éparses, il nous faut donc développer des moyens d’en tirer tout le potentiel, et en extraire l’information dont on a besoin : S’il y a un individu en amont du véhicule : est-il sur le trottoir, sur la route, faut-il freiner, changer de trajectoire… nous devons être en mesure de fournir de manière fiable les données menant à ces actions.

Et Outsight est-il en mesure de fournir ces informations à l’heure actuelle ?

Nous avons mené des tests de détection d’objets. Sur l’image ci-dessous, on voit à gauche les informations que fournit le LiDAR, et à droite l’exploitation que nous en faisons en temps-réel. Le but est de distinguer un pneu se situant une centaine de mètres devant le véhicule.

Comparaison entre les données LiDAR récoltées et l’image obtenue par Outsight ©Outsight

Sur l’image de gauche, il est impossible de distinguer le pneu. Sa présence au-dessus de la flèche bleue est caractérisée par une petite rupture d’onde.

Il est par contre clairement identifié sur l’image de droite, devant la voiture, en trois dimensions.

C’est une illustration des travaux que nous menons. Sous les images, on voit deux graphes indiquant combien de fois le LiDAR touche l’obstacle au fur et à mesure qu’il s’approche du pneu. En générant une “super résolution”, nous arrivons à cumuler l’information dont nous disposons, un peu comme le fait un humain avec ses yeux en se rappelant de ce qu’il a vu quelques instants auparavant, mais pas une caméra, qui elle ne fournit que des images instantanées.

Concrètement, la caméra ne propose ni plus ni moins qu’une succession de photos s’enchaînant rapidement. Ainsi, les logiciels de traitement de vidéos traitent en fait chaque image de la vidéo, l’une après l’autre. Les données transmises par le LiDAR étant d’une résolution limitée, de nombreux acteurs du marché ont abandonné l’idée de traiter les données LiDAR comme on traiterait une vidéo, arguant que le LiDAR est trop cher et pas assez performant. Nous pensons chez Outsight que les informations fournies par le LiDAR permettent aujourd’hui d’obtenir des résultats et une résolution suffisantes pour les besoins du véhicule autonome. L’idée est d’exploiter au maximum toutes les données que nous fournissent le LiDAR.

La technologie LiDAR n’est donc pas exploitée aujourd’hui au maximum ?

En effet. Disons qu’il ne faut pas écarter une technologie tant qu’on ne l’a pas exploitée au maximum. Nous entendons autour de nous que le LiDAR est une technologie qui n’est pas encore mûre… nous ne sommes pas d’accord et nous pensons qu’aujourd’hui le LiDAR n’est pas exploité comme il pourrait l’être.

Sur le véhicule autonome, y a-t-il un intérêt à combiner les spécificités des différents capteurs pour obtenir un résultat le plus fiable possible ?

Il y a deux raisons principales pour lesquelles on peut chercher à combiner différents capteurs. D’abord, on peut combiner des capteurs parce que chaque capteur a des imperfections. Par exemple, les caméras ne fonctionnent pas quand il n’y a pas de lumière, il faut donc un capteur complémentaire pour étendre l’aspect “vision” du véhicule en conditions nocturnes.

Ensuite, il y a l’épineuse question de la sécurité : si un capteur nous dit qu’il n’y a pas d’obstacle devant lui, il faut un second capteur qui confirme l’analyse du premier. C’est un principe de redondance, qui est même parfois étendu à trois capteurs, dans le cas où les deux premiers capteurs ne sont pas d’accord. Ces trois capteurs sont en général un LiDAR, un radar et une caméra, qui sont trois technologies très complémentaires les unes par rapport aux autres, puisqu’elles perçoivent toutes trois leur environnement de manière différente.

La problématique est donc de développer une complémentarité entre les technologies pour rendre le véhicule autonome fiable ?

Dans l’absolu oui, mais ce n’est malheureusement pas aussi simple que cela. Avant de parler de complémentarité des capteurs, il faut d’abord résoudre d’autres problématiques. Par exemple, quand on se penche sur le repérage d’objets qui se situeraient sur la trajectoire de la voiture, il faut être certain que les différents capteurs repèrent et se réfèrent bien aux mêmes objets. Sans quoi la complémentarité n’existe pas. Il faut donc des référentiels spatiaux et temporels communs. C’est ce que nous proposons avec notre logiciel via l’analyse en temps réel des informations. Cela permet de mettre en place un référentiel commun, pour favoriser le développement de cette complémentarité dans un cadre précis.

Quand-est ce que vous pensez voir un véhicule autonome évoluer librement en ville ?

Je peux vous dire précisément quand le véhicule autonome sera prêt, je peux vous dire dans quel environnement évoluera ce véhicule, mais je suis aujourd’hui incapable de vous donner ces deux informations en même temps ! Aujourd’hui il reste encore de nombreuses problématiques d’une extrême complexité, des infrastructures et une régulation efficace à mettre en place… cela va prendre un certain temps.

Propos recueillis par Pierre Thouverez

Image de une : Image obtenue grâce aux données LiDAR ©Outsight

Regards de dirigeants #15 : Arnaud Pieton, Technip Energies

Arnaud Pieton, le CEO de Technip Energies, a expliqué à Techniques de l’Ingénieur la genèse de la société et les défis actuels et futurs qui attendent une société leader sur son domaine d’activité et présente sur tous les continents.

Techniques de l’Ingénieur : Pourriez-vous nous présenter la genèse de Technip Energies, la société que vous dirigez aujourd’hui ?

Arnaud Pieton : Technip Energies est une entreprise d’ingénierie et de technologies au service de la transition énergétique. Nous sommes une entreprise jeune, créée le 16 février dernier, mais qui s’appuie sur plus de 60 ans d’expérience ! Depuis cette date, Technip Energies est cotée sur Euronext Paris, et a attiré des investisseurs variés, aux premiers rangs desquels la BPI et une société d’investissement hollandaise, Hal Investments, qui a la réputation d’investir sur le long terme dans le domaine de l’énergie.

Comment sont découpées les activités de Technip Energies ?

Notre activité est organisée selon deux segments : la gestion de projets et les TPS (TPS pour Technologies, Produits et Services). Notre chiffre d’affaires 2020 est de 6 milliards d’euros, dont 5 milliards dans l’activité de gestion de projet. Nous sommes les architectes des infrastructures énergétiques de nos clients. Les projets sur lesquels nous sommes impliqués sont de tailles extrêmement variées, de quelques dizaines de millions d’euros à plusieurs milliards pour les plus importants : du projet de construction d’installation de production de biocarburants pour Neste aux Pays-Bas, aux installations GNL pour le projet North Field East au Qatar, le spectre d’activité est très large.

Arnaud Pieton, le CEO de Technip Energies ©TechnipEnergies

La plupart des projets sur lesquels nous sommes impliqués sont des projets stratégiques. Quand ils sont lancés, ils ne s’arrêtent pas facilement, parce qu’ils sont échafaudés sur du long terme. C’est une opportunité, pour nos 450 chefs de projets, qui ont des séniorités différentes, de travailler sur des missions variées, en termes d’échelle notamment, et de monter rapidement en compétences.

La seconde activité de l’entreprise, qui rapporte environ un milliard d’euros de chiffre d’affaires, concerne les TPS. Il s’agit de nos brevets, de nos équipements et de nos technologies propriétaires. C’est là aussi que l’on va retrouver l’activité de licencing, où nos technologies sont mises en œuvre par d’autres au sein de leurs ensembles énergétiques.

Cette seconde activité est-elle amenée à prendre une dimension plus importante dans le futur ?

Oui, c’est certain. La technologie est un vecteur de grands projets : les engagements avec nos clients démarrent souvent par une conversation technologique.

C’est d’ailleurs cette deuxième activité, plus petite en apparence, qui nourrit la première. Il est certain que nous n’aurions pas le même taux de réussite sur nos activités de projets si nous n’avions pas ces conversations très en amont avec nos clients, à partir des technologies que nous portons. L’activité TPS nous permet de développer ces technologies et de les valoriser.

La genèse des idées vient-elle de besoins que vous identifiez, ou alors ce sont plutôt les clients qui vont venir vers vous avec des besoins précis ?

Un peu des deux. Certains clients viennent nous voir avec des idées très claires sur le projet qu’ils veulent mettre en place. D’autres ont une vision plus vague et c’est notre rôle de les accompagner pour leur proposer des technologies en adéquation avec leurs besoins. Il s’agit avant tout d’un échange, pour trouver la meilleure solution pour nos clients. Ce type de demande est en augmentation : des entreprises viennent nous consulter autour de projets touchant à la décarbonation de leurs activités. Il s’agit de projets très larges, avec des scénarios d’actions très diversifiés. Le travail en amont est très important pour développer une vision macroscopique des solutions possibles : c’est quelque chose que nous faisons de plus en plus.

L’activité de Technip Energies ne se situe donc pas uniquement sur un plan technologique ?

Tout à fait. Nous avons une compétence de monétisation chez Technip Energies sur l’ensemble des chaînes énergétiques, ce qui nous permet de réaliser des simulations et études économiques d’infrastructures et de proposer des solutions pour améliorer l’ensemble des process de nos clients. Aujourd’hui, il y a dans tous les projets une dimension technique et une dimension économique ; négliger l’un ou l’autre serait une erreur.

La transition énergétique génère-t-elle un plus grand nombre de demandes de vos clients ?

Pour Technip Energies, il y a deux sujets d’actualité autour de la transition énergétique. D’abord, l’intégration en cours entre les chaînes énergétiques traditionnelles et les chaînes énergétiques futures nous amène naturellement à discuter de projets “adjacents”. C’est notamment le cas avec le gaz naturel aujourd’hui, qui génère de nombreux projets corrélés à cette ressource.

Le deuxième sujet concerne l’hydrogène : 30% des infrastructures de production d’hydrogène à travers le monde ont été installées par Technip Energies. C’est donc une expertise forte. Au-delà, les sujets autour de l’hydrogène et de la capture de carbone nécessitent de considérer ensemble plusieurs technologies. C’est aussi pour cette raison que les clients s’intéressent à nos services, et à notre capacité à appréhender une chaîne d’activité de façon globale, en intégrant différentes technologies dans les solutions que nous proposons.

Est-ce que vous travaillez sur les technologies d’énergies de synthèse ?

Nous nous y intéressons évidemment, car certains projets futurs sur lesquels nous travaillons intègrent des énergies vertes. L’incertitude pour le moment, c’est de savoir si ces énergies vertes vont se développer de façon globale ou locale. Il est probable que l’aspect local et la simplification des technologies seront deux facteurs très importants pour développer les bons produits au bon endroit. Cette vision locale, nécessaire aujourd’hui, est d’ailleurs relativement récente.

Comment appréhendez-vous la problématique de la transmission des savoirs au sein de votre société et de l’accueil des jeunes ingénieurs ?

Nous entrons à mon sens dans un âge d’or pour les ingénieurs : la remise au goût du jour de technologies anciennes, délaissées pour des raisons commerciales mais qui prennent du sens aujourd’hui, et le bouillonnement actuel autour des technologies innovantes sont des opportunités formidables. Pour Technip Energies, le challenge est important, et pour les futurs ingénieurs, il y a là la possibilité de participer à des projets ayant un impact réel sur notre avenir énergétique.

En ce qui concerne la transmission, c’est quelque chose qui habite les collaborateurs presque naturellement, au vu de nos métiers. Et aussi à travers les activités de projets qui nécessitent de transmettre. Il n’y a pas mieux en termes d’apprentissage et de transmission de compétences que de travailler concrètement sur des projets en équipe.

Nous avons également un réseau d’experts riche de plusieurs centaines de personnes, qui sont référents, et reconnus au-delà de la sphère Technip Energies. Ce réseau d’experts nous permet également de développer une veille technologique et sur l’innovation au niveau mondial, au vu de la dimension internationale du groupe.

Enfin, l’activité de Technip, qui touche entre autres à la construction, reste très masculine. Comment faire évoluer les choses ?

Il est vrai que sur certains métiers, les femmes restent sous représentées chez Technip Energies et dans notre industrie dans son ensemble. Depuis cette année, j’ai d’ailleurs rendu obligatoire le recrutement de 50% de femmes parmi les nouveaux diplômés qui nous rejoignent.

Dans notre secteur d’activité cela n’est pas évident, mais il est selon moi nécessaire aujourd’hui d’aller dans ce sens, et cela est inscrit sur la feuille de route de la société pour les années à venir. C’est souhaitable pour Technip Energies, et nous allons le faire.

Propos recueillis par Yves Valentin, directeur général de Techniques de l’Ingénieur, et Pierre Thouverez, journaliste

Image de une : Unité flottante de production offshore ©TechnipEnergies

De multiples enjeux autour des données générées par les capteurs du véhicule autonome

Personne ne peut aujourd’hui affirmer quand et dans quelles conditions sera mis sur le marché un véhicule autonome de niveau 5. Ce qui est certain, c’est que ces véhicules seront sur le marché dans les décennies à venir. La généralisation de ce mode de transport entrainera avec elle la nécessité de collecter les données relatives au fonctionnement des véhicules autonomes. En incluant en plus les données directement liées aux utilisateurs.

Les défis autour de la génération de ce volume de données extrêmement important sont de différentes natures.

La collecte et l’interprétation

Les caméras, radars, LiDARSs et même sonars sont utilisés pour permettre au véhicule d’appréhender au mieux son environnement, afin d’assister le conducteur dans sa tâche, et à terme de l’en décharger complètement.

Ces capteurs génèrent des données qui sont collectées, analysées et interprétées pour développer des algorithmes capables de traduire la perception du capteur en action au niveau du véhicule. Les innovations technologiques autour des capteurs permettent d’obtenir des données de plus en plus nombreuses et précises. Il y a donc un enjeu fondamental pour les équipes informatiques qui travaillent sur le développement des véhicules autonomes, celui de produire des algorithmes permettant d’exploiter au mieux ces données. Cela est nécessaire pour arriver à produire un véhicule autonome fiable.

En termes de collecte, l’enjeu est également de taille. Et probablement encore sous-estimé à l’heure actuelle, tant la technologie évolue vite. Ainsi, Intel, qui prévoyait un taux de collecte moyen de 4 To (tera octet) par véhicule et par jour en 2017, a revu sa copie, et projette aujourd’hui un volume de 20 To par véhicule et par heure !

Enfin, et il s’agit là également d’un véritable défi technologique, le véhicule autonome doit utiliser, en temps réel, les informations de différents capteurs pour parvenir à générer des informations fiables. Ces données, qui sont parfois de natures différentes, doivent donc être fusionnées et intégrées, en temps réel. Toutes ces problématiques reviennent sur la table à chaque niveau d’autonomie supplémentaire, car les marches technologiques entre chaque palier d’autonomie sont très importantes.

La composante stockage relève également du casse-tête: Tesla l’a appris à ses dépens, en sous-estimant le poids du firmware qui équipe plusieurs de ses modèles. Ce dernier, qui pesait 300 Mo dans sa première version, dépasse aujourd’hui 1 Go. Cela a obligé le constructeur à rappeler toute une série de véhicules pour changer leur carte MCU (Media Control Unit), avec au passage 3 000 dollars de frais pour les propriétaires concernés.

La monétisation et les services associés

On l’a dit, la masse des données générées par le véhicule autonome sera très importante. Ainsi, les constructeurs vont devoir évoluer et développer des compétences pour la gestion de ces données. La gestion technologique, on vient de l’évoquer, mais aussi la gestion économique, qui va devenir un enjeu capital.

Le sujet de la monétisation des données générées par le véhicule autonome, via le développement par exemple de services associés, est vital pour développer un modèle économique viable autour de ce mode de transport.

A l’heure actuelle, les constructeurs mettent en place des partenariats avec des acteurs du cloud, du numérique, et de l’IoT pour construire des offres de services directement liées à l’utilisation de ce nouveau service de mobilité, et aussi une bibliothèque de services et d’applications diverses, que le passager pourra « consommer » durant son trajet.

Dans un premier temps, il s’agit pour les constructeurs d’imaginer des écosystèmes compatibles avec les outils existants, principalement les smartphones et le cloud. Actuellement, les constructeurs imaginent développer des interfaces compatibles avec les smartphones actuels, pour que le passager connecte son smartphone au véhicule pour profiter de différents services. Le smartphone jouerait alors le rôle d’interface.

Le développement d’un cloud extrêmement performant sera également nécessaire pour donner au véhicule autonome la capacité de proposer un éventail d’applications le plus large possible.

Au final, le développement du véhicule autonome va probablement bouleverser de nombreuses industries et activités, grâce à l’exploitation de toutes les données collectées : par exemple, le suivi de l’usure des pièces mécaniques du véhicule va changer la manière d’en imaginer la maintenance. Les assurances également vont devoir réviser leurs modèles, puisque les véhicules autonomes sont amenés à devenir de plus en plus fiables. De manière transversale, ce sont donc toute une panoplie d’acteurs qui évoluent dans la sphère d’activité autour du véhicule autonome qui vont devoir s’adapter à ce nouveau paradigme progressivement.

Par Pierre Thouverez

La filière plasturgie recrute à tour de bras

Pierre-Jean Leduc est président de Polyvia Formation. Crédit : Polyvia

Pierre-Jean Leduc est président du groupe DEMGY (ex-Dedienne Multiplasturgy® Group). Il est également président de Polyvia Formation, l’organisme de formation professionnelle de la branche plasturgie et composites. Présent sur l’ensemble du territoire français, Polyvia Formation est le fruit de la fusion, en janvier 2021, de 4 grands organismes de formation du secteur de la plasturgie et des composites : le CFP, le Cirfap, l’ISPA et le Pôle Formation Composites d’IPC.

Polyvia Formation forme chaque année 650 jeunes talents en apprentissage et plus de 4 200 salariés en formation continue sur une trentaine de sites en France.

Techniques de l’Ingénieur : La filière plasturgie devrait recruter 18 000 personnes dans les 12 mois qui viennent. La filière semble bien se porter ! Les industriels ont-ils des difficultés de recrutement ?

Pierre-Jean Leduc : En effet, la filière plasturgie et composites se porte bien. Comme la plupart des professions liées à l’industrie ou aux services, nous sommes donc à la recherche de talents à recruter.

Je ne pense pas que nous ayons plus de difficultés à recruter que d’autres filières comme la métallurgie ou l’industrie du bois. Selon moi, c’est un phénomène général, lié au manque d’attractivité de l’industrie et qui est renforcé par la forte reprise économique actuelle.

Par ailleurs, le « papy-boom » est toujours d’actualité et dans nos industries, beaucoup d’employés sont en fin de carrière. Nous avons donc un besoin urgent de sang neuf pour redynamiser le secteur.

Quelle est la réponse du secteur de la plasturgie face à ces difficultés ?

Afin de relever les défis actuels en termes d’attractivité, de représentativité ou d’économie circulaire, les syndicats interrégionaux du secteur de la plasturgie et des composites se sont regroupés pour former Polyvia en 2020. C’est également dans une optique d’homogénéité territoriale que les principaux organismes de formation français en plasturgie ont donné naissance à Polyvia Formation en 2021.

Nous avons collectivement décidé de prendre les choses en main en misant sur la formation. Nous mettons ainsi en place des formations initiales et continues pour pallier le manque de candidats disponibles sur le marché.

Comment Polyvia formation intègre-t-il l’économie circulaire dans ses formations ?

À l’ISPA, nous avions créé  un master spécialisé en recyclage. Cette formation en 9 à 12 mois, reprise par Polyvia Formation, propose aux ingénieurs non plasturgistes d’acquérir ainsi un diplôme en recyclage, et notamment en recyclage des matières plastiques.

Nous sommes également en train de créer un bachelor (BAC+3) dédié à la filière plasturgie. Celui-ci permettra ainsi aux plasturgistes d’intégrer directement des techniciens déjà formés au recyclage.

Il est question de former une « nouvelle génération de plasturgistes ». Pensez-vous que le « plastic bashing » a un impact sur le fait d’attirer les jeunes ?

Justement non, nous n’avons pas vraiment de problèmes à attirer les jeunes vers ces nouvelles formations, qui vont de l’équivalent BAC pro jusqu’au diplôme d’ingénieur et au BAC+6. Même si cette année, ça a été un peu plus dur au niveau des BTS, les jeunes qui intègrent notre filière sont convaincus que le plastique est une solution à la problématique environnementale et au réchauffement climatique.

En effet, il faut garder à l’esprit que produire 1 kg de matière plastique est bien moins énergivore que produire 1 kg de verre, d’acier ou d’aluminium. En termes d’impact environnemental, le plastique s’en sort donc très bien, à partir du moment où on le recycle. L’un des principaux enjeux de la filière plasturgie est la mise en place de moyens de recyclage de la matière plastique, efficaces et suffisamment dimensionnés, car il est clairement anormal de retrouver des bouteilles plastiques et des masques jetables dans les océans. Si l’on veut raisonner de manière objective, le cœur du problème est cependant bien plus de l’ordre du comportement et de responsabilité citoyenne que d’ordre technique.

Pour les personnes formées, quels seront les débouchés ?

Le métier de plasturgiste est un métier transversal qui touche tous les secteurs d’activité. La plasturgie française est une constellation d’entreprises qui sont pour la plupart des PME et qui travaillent en sous-traitance pour d’autres secteurs.

Si, à l’heure actuelle, le niveau d’activité global de la filière plasturgie/composites est plutôt bon, le nombre d’offres d’embauche n’est pas homogène, car il y a de fortes disparités entre secteurs d’activité. L’activité économique de l’aéronautique et de l’automobile étant plutôt en ralentissement, les plasturgistes qui travaillent avec ces secteurs offriront probablement moins de débouchés que des secteurs qui se portent actuellement très bien, comme le médical, l’emballage ou le bâtiment.

Avec 1Water, 1Spatial investit le secteur de l’eau

Avec un taux de fuite d’environ 20 %, le réseau d’eau potable français est loin d’être le moins performant d’Europe. Le chiffre grimpe en effet à 27 % chez nos voisins Belges, ou encore à 38 % en Italie, comme le souligne la 7ème édition du rapport BIPE (Bureau d’informations et de prévisions économiques) – FP2E (Fédération Professionnelle des Entreprises de l’Eau). Il n’en demeure pas moins qu’après une phase d’amélioration dans les années 2000, ce taux stagne depuis une dizaine d’années. « La gestion patrimoniale n’a donc pas permis de réduire significativement les fuites durant cette période », pointent ainsi les auteurs de ce même rapport.

Des outils informatiques pourraient toutefois changer la donne en facilitant et en optimisant cette gestion patrimoniale des réseaux d’eau enterrés. C’est le cas de 1Water, une solution SIG (Système d’information géographique) lancée en septembre dernier par 1Spatial, éditeur de logiciels de gestion de données géospatiales, déjà à l’origine de plusieurs autres solutions SIG, telles que 1Telecomms. Destinée cette fois aux gestionnaires de réseaux d’eau – collectivités territoriales, syndicats intercommunaux ou encore opérateurs privés –, 1Water propose des outils d’inventaire, de gestion des anomalies ou encore de contrôle des équipements (pompes, régulateurs, débitmètres), mais également des outils d’aide à la recherche de fuites.

Prédire les fuites sur le réseau d’eau potable

« Le logiciel offre des fonctionnalités qui vont permettre de bien gérer le réseau d’eau potable, de l’entretenir au mieux, d’assurer son efficacité et d’augmenter son rendement en luttant contre les fuites », résume Roland Mousset, Directeur de la production des logiciels chez 1Spatial France. Une lutte contre les fuites qui peut, concrètement, passer par des outils basés sur une approche statistique, mais également par des outils exploitant les données issues de loggers acoustiques installés sur le réseau, comme l’explique le responsable : « Ces appareils posés sur le réseau écoutent le bruit de l’eau qui se déplace et vont nous permettre, en combinaison avec nos outils, de préciser la position potentielle d’une fuite, afin de la réparer au bout du compte ». Et l’intérêt de 1Water ne s’arrête pas là. Basée sur la célèbre plateforme ArcGIS d’ESRI, la solution SIG de 1Spatial couvre en effet tout le cycle de l’eau, jusqu’à ses dernières étapes, celles de l’assainissement.

Éviter les pertes également dans le réseau d’assainissement

1Water propose notamment des outils permettant d’optimiser les opérations de curage à réaliser sur les réseaux d’assainissement.

« Le grand objectif pour nous est aussi d’éviter les pertes sur le trajet jusqu’aux stations de traitement, liées à des défauts d’étanchéité ou à des trop-pleins, dans le cas d’un orage par exemple », souligne Roland Mousset. 1Water dispose donc d’un ensemble de fonctionnalités dédiées au réseau d’eaux usées. « Les principaux problèmes sont liés à l’encrassement, on a donc des outils pour gérer ça et pour optimiser les curages. Ils permettent notamment de prédire les endroits encrassés et donc d’organiser les opérations sur le terrain », décrit le Directeur de la production. Un outil permet également de gérer les résultats d’inspections du réseau par caméra ; opérations qui permettent de vérifier l’état des collecteurs afin, notamment, de prévenir les risques de pollution des sols par les eaux usées.

Une solution de terrain

Utile aux dessinateurs comme aux exploitants des réseaux ou encore aux experts en bureau d’études, 1Water s’adresse également aux opérateurs de terrain et se décline donc en version full web accessible depuis un navigateur sur tablette ou smartphone. « Cela va leur permettre d’optimiser leur travail, de les guider dans les opérations à réaliser : quand ils se rendent sur le terrain pour réparer une fuite ou procéder à un curage, ils savent exactement ce qu’ils doivent faire », fait valoir Roland Mousset.

Une solution encore en gestation

Encore en phase de construction, 1Water devrait sortir en version finale au 1er trimestre 2022. 1Spatial prévoit également de faire évoluer sa solution en lui adjoignant régulièrement de nouvelles fonctionnalités, comme le dévoile Roland Mousset : « Nous souhaitons aussi optimiser l’organisation des interventions sur le terrain. Nous allons donc interfacer 1Water avec un de nos outils de gestion d’interventions, ce qui va permettre d’optimiser les interventions en fonction de leur proximité géographique et de leur typologie ». Une fonction prévue pour la mi-2022 et qui devrait alors permettre de limiter les déplacements et donc les émissions de CO2.

Enfin, 1Spatial ne compte pas passer à côté d’une tendance de fond : le BIM (Building information modeling), comme le dévoile finalement son Directeur de la production : « Même si cela n’est pas encore complètement opérationnel, nous avons commencé à travailler sur les aspects liés aux données 3D et au BIM dans 1Water. Nos clients souhaitent en effet pouvoir relier leurs réseaux 2D avec leurs données BIM et leurs maquettes 3D d’usines de traitement par exemple ». De quoi améliorer et faciliter un peu plus encore la gestion patrimoniale des réseaux d’eau.

Les sénateurs plaident pour un développement maîtrisé de la méthanisation

Le Sénat a récemment publié un rapport d’information intitulé « La méthanisation dans le mix énergétique : enjeux et impacts » et qui préconise la nécessité d’encourager un développement maîtrisé de ces installations. Ce document est le fruit de rencontres avec plus d’une centaine de personnes représentant l’ensemble des points de vue de ce secteur.

C’est une très forte croissance de la production de biogaz qu’a connue la France ces dernières années, note le rapport. Elle est en effet passée d’environ 1 TWh (térawattheures) en 2007 à près de 7 TWh en 2019. Cette année-là, le biogaz représentait 3,4 % de la consommation d’énergie renouvelable. Et fin 2020, 1 075 méthaniseurs sont dénombrés dans l’hexagone, dont 861 produisent de l’électricité à partir du biogaz et 214 l’injectent dans les réseaux de gaz naturel.

Depuis 20 ans, le développement de cette filière s’est réalisé grâce à la politique française de soutien à la méthanisation. Celle-ci s’est formalisée à travers plusieurs grandes lois emblématiques telles que la loi Grenelle I et II de 2009 et 2010, la loi relative à la transition énergétique de 2015, celle sur l’Énergie-Climat en 2019 et enfin la dernière, nommée Climat et Résilience, cette année.

Une forte accélération des nouvelles installations

Ce cadre de soutien a permis d’obtenir des résultats probants, mais les sénateurs pointent du doigt plusieurs difficultés. Ainsi, les dispositions législatives n’ont pas reçu une parfaite transcription réglementaire. De plus, une forte accélération des projets de nouvelles installations est actuellement observée : 1 164 en injection et 164 en électricité. Pour la CRE (Comission de régulation de l’énergie), « la dynamique actuelle semble montrer que les objectifs de la PPE (Programmation pluriannuelle de l’énergie) seront rapidement dépassés » tandis que pour l’Ademe, « les objectifs sont clairement inférieurs au potentiel de développement ». Les critiques de la méthanisation considèrent a contrario que l’on assiste à un emballement de la filière.

Le coût de production de ces installations semble également élevé : entre 90 et 100 €/MWh contre 25 €/MWh pour le gaz naturel. Mais cette comparaison mérite d’être considérée avec précaution et appréhendée dans le cadre d’une approche globale, puisque les externalités sont estimées entre 40 et 70 €/MWh. Au total, l’effort public en faveur de la méthanisation apparaît significatif et en évolution. D’ici à 2028, la PPE a prévu un effort de 9,7 milliards d’euros pour les « tarifs d’achat » sur l’injection et de 6,5 milliards d’euros pour ceux sur la production d’électricité à partir du biogaz.

Le rapport souligne les nombreuses externalités positives induites par la méthanisation sur différents plans : énergétiques, climatiques, environnementales, agronomiques, économiques, tout en mettant en garde sur les risques environnementaux associés à ces installations. C’est par exemple le cas des fuites de méthane et des émissions de protoxyde d’azote que peuvent occasionner les méthaniseurs. Le document pose également la question de l’épandage du digestat dans les champs et son impact sur les eaux et les sols. Le risque d’accaparement de surface agricole, utile pour alimenter ces unités est aussi souligné, même si celui-ci semble toutefois pour l’instant limité.

Des recommandations afin de mieux encadrer ce secteur

Au final, la mission d’information du Sénat plaide en faveur d’un « modèle français de la méthanisation, fondé sur un développement maîtrisé, cohérent avec les territoires et leurs capacités propres, respectueux de l’environnement et utile aux agriculteurs ». Pour y parvenir, elle formule des propositions et des recommandations selon cinq axes.

Le premier concerne la clarification des politiques publiques, notamment à travers la loi quinquennale sur l’énergie de 2023. Le second porte sur la structuration de la filière afin d’améliorer les pratiques, grâce par exemple à l’attribution de labels pour consolider la démarche de qualité. En complément de la méthanisation, le développement de différentes formes de production de biogaz, telles que la pyrogazéification ou la gazéification hydrothermale, est aussi encouragé par les sénateurs.

Ces derniers mettent aussi en avant l’importance de territorialiser les projets à travers par exemple la mise en place d’une gouvernance locale articulée autour de comités régionaux de pilotage. La création d’un guichet unique pourrait aussi aider les porteurs de projets de méthanisation. Un quatrième axe se penche sur la nécessité de renforcer les externalités positives de la méthanisation. Le rapport recommande que de nouvelles études sur l’impact agronomique de l’épandage du digestat soient réalisées. Enfin, un dernier axe concerne la prévention des risques ; il est question notamment d’évaluer l’impact du nouveau régime des ICPE (Installations classées pour la protection de l’environnement).

Forum Innovation : connecter les industriels mécaniciens et les startups

Pour les PME/ETI, il s’agit d’identifier des start-up porteuses de solutions innovantes leur permettant de poursuivre leur entrée dans l’Industrie du Futur. Pour les start-up, c’est l’occasion de rencontrer des acteurs dynamiques de l’industrie mécanique française, de valoriser leurs savoir-faire et de présenter leurs innovations. Le 30 novembre 2021, le Cetim organise sa seconde édition du Forum Innovation qui met en relation PME/ETI mécaniciennes et start-up.

« Assurer l’intermédiation entre ces jeunes pousses et les PME/ETI mécaniciennes »

« Les partenariats avec les start-up constituent une autre voie pour que les entreprises s’approprient les technologies de l’Industrie du Futur. Avec le Forum Innovation, nous créons un modèle de transfert de connaissances plus intriqué vers les écosystèmes associant entreprises et start-up. C’est notre rôle d’accompagner l’innovation et d’assurer l’intermédiation entre ces jeunes pousses et les PME/ETI mécaniciennes », indique Philippe Lubineau, Directeur de la Recherche et des Programmes au Cetim. Pour ce faire, le Cetim s’appuie sur les autres acteurs de l’innovation comme Iterra, l’UTC, Unilasalle, le réseau des instituts Carnot, les Satt, ainsi que les organisations professionnelles de la FIM à l’image d’Artema. BPI France apporte également son soutien.

« Un espace ludique et professionnel »

En 2018, le forum a rassemblé une soixantaine de start-up et plus de 150 industriels. Le Cetim attend davantage de participants pour cette édition 100 % digitale. « L’événement a été imaginé comme un espace ludique et professionnel. Les visiteurs pourront se déplacer librement dans le monde virtuel : réception, hall d’exposition, salles de réunion, balcon… L’idée est vraiment de faciliter la rencontre, de créer des connexions, de l’échange, de l’effervescence et de provoquer la transformation grâce à l’innovation ».

La plateforme virtuelle interactive est accessible gratuitement à tous les professionnels du secteur sur simple inscription. Avec un avatar à leur image et à leur nom de société, ils évolueront au sein des halls d’exposition et pourront se rencontrer, interagir et discuter de vive voix. Des conseillers dédiés accueilleront chaque visiteur pour les guider dans leurs premiers pas. Des espaces privés seront également disponibles pour les échanges confidentiels.

Récompenser l’innovation

Le Forum est également l’occasion de récompenser l’innovation avec la seconde édition des Challenges Innovation. Initié par Poclain Hydraulics, groupe industriel indépendant spécialisé dans les transmissions hydrostatiques, et accompagné cette année de Techné et Agco, la remise des prix sera diffusée lors de la clôture de l’événement. En 2018, les lauréats avaient été sélectionnés sur la base d’un certain nombre de critères : potentiel d’innovation, adéquation au besoin, viabilité économique du projet, qualité et complémentarité de l’équipe, etc.  Poclain Hydraulics poursuit toujours des activités de recherche avec deux lauréats issus de cette rencontre.

Inscriptions ouvertes sur www.cetim.fr/forum-innovation/

Capteurs pour les véhicules autonomes : entre complémentarité et redondance

Les constructeurs automobiles développant des véhicules autonomes ont un but commun : atteindre le niveau 5 d’autonomie, qui correspond à l’autonomie complète. Le conducteur devient alors passager, et n’a plus aucun rôle dans la conduite du véhicule. Nous en sommes encore loin.

Aujourd’hui, les véhicules autonomes de niveau 3 (le niveau 3 correspond à une conduite conditionnellement automatisée) arrivent tout juste sur le marché. Le niveau 4 représente un palier très important pour les constructeurs, car le niveau de complexité devient exponentiel par rapport au niveau 3. Concrètement qu’est-ce que cela signifie ? Cela veut dire que le véhicule de niveau 4 doit pouvoir gérer tellement de situations diverses que les flux d’informations à générer et à intégrer deviennent de véritables casse-têtes. Cependant, comme pour les niveaux 2 et 3, la R et D relève ces challenges, et au final la question n’est pas de savoir si les véhicules de niveau 4 puis 5 verront un jour le jour, mais plutôt quand.

Les défis sont nombreux : connectivité du véhicule avec son environnement, services, performances des capteurs… cette dernière problématique illustre parfaitement les challenges à relever pour continuer de s’approcher de l’autonomie complète.

Aujourd’hui, trois types de capteurs sont utilisés dans les véhicules autonomes. La plupart de ces capteurs équipent aussi les véhicules classiques d’aujourd’hui, en série, et ont été initialement développés pour l’assistance au freinage ou au parking. Pour se rapprocher de plus en plus du véhicule autonome de niveau 5, les constructeurs doivent continuer à améliorer les performances de ces capteurs, et parvenir à les faire fonctionner ensemble, avec deux mots d’ordre : la complémentarité et la redondance.

Caméras, radars et LiDARs

Les caméras, radars et LiDARs constituent les trois familles de capteurs utilisés pour permettre au véhicule de percevoir le plus fidèlement possible son environnement et prendre les décisions adaptées en termes de conduite et surtout de sécurité. 

Les capteurs caméras, déjà utilisés depuis longtemps pour l’assistance au parking par exemple, ont vu leurs performances exploser ces dernières années. Leur résolution en hausse constante, et leur prix en baisse constante en font aujourd’hui un outil précieux pour développer une « vision » de l’ensemble de l’environnement du véhicule. Pour autant, les caméras actuelles présentent des limites, en particulier en ce qui concerne l’évaluation des distances. Si deux caméras fournissent les informations suffisantes pour évaluer une distance, le niveau de précision nécessaire pour les exigences liées à la conduite autonome ne sont pas réunies, comme l’explique Guillaume Bresson, directeur du domaine véhicule autonome et connecté à l’institut Vedecom : « La vision stéréoscopique permet de mesurer l’éloignement des obstacles, au moins des plus proches, mais il lui faut des textures, elle est mise en défaut par les surfaces uniformes, comme une chaussée bien propre. »

Pour pallier ces limites, les constructeurs ont dû développer l’utilisation d’autres capteurs, dont les performances, complémentaires à celles des caméras, permettent d’obtenir les résultats désirés en termes de précision et de fiabilité de l’information. Ainsi, les capteurs LiDARS, développés depuis plus d’une décennie, et basés sur l’émission de faisceaux lasers, donc de lumière, permettent d’obtenir des résultats probants en deux dimensions, et de plus en plus en trois dimensions, grâce à leurs multiplications sur les véhicules. Le principal inconvénient pendant de longues années du LiDAR était son prix. Aujourd’hui, les performances du LiDAR se sont très nettement améliorées, et son prix baisse, ce qui permet à ce type de capteur de se faire une place de plus en plus importante au sein du véhicule autonome. Cela dit, comme nous venons de le voir pour les caméras, les liDARs, même boostés par l’innovation, présentent des limites en termes de performances, ce qui oblige les constructeurs à les associer à d’autres capteurs pour obtenir une information fiable. Par exemple, le LiDAR va présenter des lacunes pour ce qui concerne la captation d’informations par temps de pluie, de neige ou de brouillard. On touche ici du doigt l’importance de la complémentarité entre les technologies, qui permet de combler les faiblesses de l’une d’entre elles, dans des cas spécifiques.

La redondance de l’information permet d’assurer la fiabilité de l’information

Le troisième type de capteur utilisé dans le véhicule autonome est le radar, une technologie ancienne et aujourd’hui très bien exploitée. Il va, pour revenir sur les lacunes du LiDAR, être opérationnel et pleinement efficace par temps de pluie ou de brouillard. Par contre, le radar aura une résolution bien inférieure au LiDAR.

LiDARS, caméras et radars sont donc indispensables au développement d’un véhicule autonome fiable de par leur complémentarité… mais également parce qu’ils apportent une redondance à l’information. En effet, et il s’agit là d’une problématique majeure dans le développement du véhicule autonome, il est indispensable, en cas de panne ou de dysfonctionnement d’un capteur, que le système opérant le véhicule puisse continuer à fonctionner normalement. Aussi, et c’est là l’objet principal de la redondance de l’information, il arrive que des capteurs ne soient pas d’accord : sur l’identification d’un objet par exemple. Dans ce cas, le fait d’avoir plusieurs capteurs permet de mettre en place un système où, dans le cas où deux capteurs sont en désaccord, un troisième vient trancher la décision. Si ces systèmes sont toujours en développement, on imagine facilement la difficulté, en termes de sécurité, de mettre en place ces systèmes de prise de décision mêlant plusieurs capteurs, et fournissant une quantité astronomique de données à intégrer et à interpréter par le système de navigation du véhicule. C’est tout l’enjeu derrière le développement du niveau 4 d’autonomie du véhicule autonome.

Par Pierre Thouverez

Mathieu Bineau : « Notre technologie rend le système électrique plus efficace »

Le secteur de l’électricité est sous tension. Dernier symptôme en date : la prévision par l’exécutif d’une flambée de près de 12 % du tarif bleu d’EDF d’ici février ; perspective face à laquelle le Premier ministre Jean Castex a promis un « bouclier tarifaire » qui devrait permettre de limiter la hausse à 4%. Reste que sur la période 2007 – 2021, la hausse aura été de 74 %… De quoi inciter les ménages à diminuer leur consommation d’électricité. Pour ne pas grever leur budget, certes, mais également pour alléger le poids de leur empreinte carbone. Un aspect auquel contribue par ailleurs le développement des énergies renouvelables telles que l’éolien ou le solaire. Caractérisés par leur intermittence, ces types de production ne vont toutefois pas sans poser de problèmes en matière de gestion du réseau.

Maîtrise du budget, diminution des émissions de CO2 et sécurité du réseau, c’est justement à ces trois enjeux que permet de répondre une technologie développée par l’entreprise Voltalis, premier opérateur européen de pilotage de la flexibilité électrique. Basée sur un boitier installé chez les particuliers, elle permet en effet de couper certains équipements électriques aux moments les plus opportuns. Directeur d’exploitation de Voltalis de 2010 à 2015 et désormais Directeur général de l’entreprise, Mathieu Bineau nous en dévoile le fonctionnement et revient sur le partenariat conclu cet été avec la communauté d’agglomération Dieppe Maritime.

Techniques de l’Ingénieur : Pouvez-vous, en quelques mots, présenter Voltalis ?

Mathieu Bineau, directeur général de Voltalis. ©Voltalis

Mathieu Bineau : Nous sommes spécialistes de la gestion de la consommation d’électricité et de son optimisation au niveau du consommateur. Notre technologie permet de générer des économies aux moments les plus utiles au réseau et apporte ainsi un service au système électrique en le rendant globalement plus efficace. L’entreprise existe depuis 15 ans et nous avons déjà déployé notre solution chez 100 000 clients. Elle est donc déjà éprouvée et nous nous apprêtons à la déployer encore plus massivement, car elle est très encouragée par les pouvoirs publics.

Comment cette solution s’articule-t-elle sur le plan technologique ?

Elle repose sur un petit boîtier installé au domicile des particuliers qui permet de piloter leur chauffage électrique et leur ballon d’eau chaude. Ce sont des équipements à la fois très flexibles et très énergivores, puisqu’ils représentent à eux seuls environ 80 % de la facture des ménages qui se chauffent à l’électricité, soit 8 millions de Français. Notre produit s’installe donc sur ces équipements, vient mesurer très finement leur consommation et nous permet d’agir à distance en coupant par exemple la consommation d’un radiateur au moment où le système en a besoin, en cas de pic de consommation ou d’aléa sur la production. Nous faisons cela sur des durées très courtes à l’échelle de chaque logement pour ne pas altérer le confort des occupants, en comptant sur l’inertie thermique des bâtiments. Nous centralisons les données sur notre plateforme, qui remontent via un module communiquant en 3G/4G. Notre data center est situé à côté de Paris et les données ne sont communiquées qu’à RTE [Réseau de transport d’électricité, gestionnaire de réseau de transport français, NDLR] pour démontrer les effets de notre action.

Quels sont les principaux intérêts de cette solution ?

Dix minutes de coupure sur un logement n’ont qu’un impact imperceptible sur la température, de l’ordre d’un dixième de degré. Mais cela multiplié et coordonné à très grande échelle peut avoir un impact sur la consommation de l’ordre de dizaines, voire de centaines de mégawatts au niveau national. On évite ainsi le démarrage ou la hausse de production de centrales thermiques. Un logement équipé permet donc d’éviter 70 % des émissions de CO2 d’un logement au chauffage électrique classique. On apporte également au consommateur une solution de domotique, une sorte de thermostat connecté, qui lui permet de piloter à distance et de programmer ses radiateurs, en plus d’outils de pilotage de budget et d’alertes qui lui permettent d’optimiser ses dépenses. Tout cela totalement gratuitement, puisque matériel comme installation sont financés par le système électrique pour les services qu’on lui rend.

Voltalis propose des outils en ligne de pilotage de budget et d’alertes pour le consommateur. ©Voltalis

Vous avez déployé votre solution le 20 septembre dernier à Dieppe et le déploiement se poursuivra dans les mois qui viennent dans les autres communes de la communauté d’agglomération Dieppe Maritime. Comment ce partenariat est-il né et avec quels objectifs ?

Notre solution aidant fortement le système électrique, il y a une volonté des pouvoirs publics à la développer. Elle fait partie des filières de la Programmation pluriannuelle de l’énergie (PPE), avec un objectif qui équivaudrait à équiper 3 millions de personnes dans les années à venir. Elle est donc encouragée au niveau national, mais aussi relayée au niveau local, et cela s’inscrit directement dans les Plans climat air énergie territoriaux (PCAET) des collectivités locales, qui trouvent un intérêt à faire connaître cette solution gratuite au service de leur bilan carbone. Nous sommes donc fortement encouragés par des collectivités locales comme celle de Dieppe.

Nous sommes entrés en contact avec l’agglomération fin 2020. Les élus concernés ont délibéré favorablement sur un partenariat avec nous en juin dernier, puis signé une convention avant l’été afin d’organiser le déploiement à la rentrée. L’agglomération compte 6 000 logements au chauffage électrique et nous espérons pouvoir en équiper de l’ordre d’un millier d’ici la fin de l’année. L’agglomération nous aide à faire connaître la solution et chacun est libre de s’équiper, sans frais d’abonnement ou de résiliation.

Quelles perspectives entrevoyez-vous à court ou moyen terme ?

Nous sommes aujourd’hui le seul opérateur en France et au niveau européen à avoir cette activité et à la déployer à grande échelle. Il nous reste donc à nous faire connaître et à massifier le déploiement. Nous travaillons également, pour les années à venir, à des technologies de pilotage de pompes à chaleur, de climatisation ou encore de véhicules électriques, avec l’objectif d’apporter un élément de flexibilité face à la montée en puissance du solaire et de l’éolien, caractérisés par leur intermittence. Tout cela sans que ce soit au détriment du consommateur sur sa facture.

Propos recueillis par Benoît Crépin

Réchauffement climatique : Total savait depuis 1971 mais a fabriqué le doute

Voici une nouvelle révélation embarrassante pour TotalEnergies. Dans un article paru dans la revue Global Environmental Change, trois historiens analysent les réponses de Total et Elf au réchauffement climatique entre 1971 et 2021. L’étude dévoile que « le personnel de Total avait reçu des avertissements sur le potentiel de réchauffement climatique catastrophique de ses produits dès 1971 ». Total s’est ensuite engagé dans un déni manifeste de la science du climat jusqu’en 1996. Au long de ces années, l’entreprise a sciemment déployé différentes stratégies de fabrique du doute autour de l’urgence climatique, estiment les chercheurs. L’étude se base sur les archives du groupe et des interviews d’anciens salariés.

Les chercheurs relèvent aussi qu’à partir des années 1980, le géant américain Exxon, par l’intermédiaire de l’Association environnementale de l’industrie pétrolière (IPIECA), coordonne une campagne internationale pour « contester la science climatique et affaiblir les contrôles sur les énergies fossiles ».

Reconnaissance publique et minimisation de l’urgence climatique

Total a finalement décidé d’accepter publiquement la science du climat tout en retardant les politiques de contrôle des combustibles fossiles suite au premier rapport du Giec, à l’adoption de la Convention-cadre des Nations unies sur les changements climatiques (CCNUCC) et à l’adoption du protocole de Kyoto en 1997. « On s’aperçoit que nos champions pétroliers français ont participé à ce phénomène au moins entre 1987 et 1994 », explique à l’AFP Christophe Bonneuil, directeur de recherche au CNRS et auteur principal de l’étude.

En 1999, Total acquiert Elf. En 2006, le groupe Total accueille une conférence sur le changement climatique. Thierry Desmaret, le PDG de l’époque, reconnaît alors la réalité du changement climatique et les conclusions du Giec. Mais le groupe « commence à promouvoir une division des rôles entre la science et les affaires, où la science décrit le changement climatique et les entreprises prétendent le résoudre », prévient l’étude. Le groupe Total prétend désormais agir contre le changement climatique grâce à sa politique de « transition énergétique ».

Dans une réponse transmise à l’AFP avant la publication de l’article scientifique, le groupe déclare : « La connaissance qu’avait TotalEnergies du risque climatique n’était en rien différente de la connaissance émanant de publications scientifiques de l’époque (les années 70 : NDLR) ».

Face à ces révélations, les associations Notre Affaire à Tous et 350.org lancent une campagne de mobilisation. Elles « exigent des décideurs publics de tenir la multinationale responsable et des institutions financières de cesser de la financer ».

Vers un recyclage plus vertueux des fibres de carbone de matériaux composites

40 tonnes. C’est, d’après l’ADEME, la quantité de CO2 émise par la production d’une tonne de fibre de carbone vierge. Un matériau synthétique à la base de composites – les polymères renforcés de fibres de carbone, ou PRFC – très appréciés des secteurs aéronautique, automobile ou encore éolien pour leur légèreté et leur résistance mécanique. Si bien que la demande mondiale de fibres ne cesse de croître : passant de 33 à 95,5 kilotonnes par an entre 2010 et 2020, elle devrait atteindre un pic estimé à 117 kilotonnes en 2022, selon l’étude de marché publiée chaque année par la Fédération allemande des plastiques renforcés (AVK). La demande de PRFC devrait ainsi suivre la même tendance et culminer à 199 kilotonnes l’an prochain.

Outre l’empreinte carbone liée à la production de ces matériaux composites, la question de leur recyclabilité se pose ainsi. On estime en effet à 20 kilotonnes la quantité de déchets issus de PRFC qui sera produite chaque année à l’horizon 2025. « Il existe des voies de recyclages de ces composites : la pyrolyse notamment, ou encore une technique adaptée aux thermoplastiques qui consiste, schématiquement, à les broyer puis à les refondre », expose ainsi Frédéric Goettmann, co-fondateur et Président d’Extracthive, PME française créée en 2015 et spécialisée dans le recyclage de déchets industriels. Des approches qui ne sont cependant pas exemptes de défauts : empreinte carbone élevée, coût, ou encore dégradation des fibres au cours du processus de recyclage. Grâce à une autre approche, basée sur la solvolyse, Extracthive entend toutefois pallier ces inconvénients.

PHYre®, un procédé de recyclage plus propre et qui ne dégrade pas les fibres

Baptisée PHYre®, cette technologie développée depuis 2016 et aujourd’hui brevetée repose sur un principe de base comparable à celui… d’un autocuiseur ! « On met les composites à recycler dans un panier, on place un mélange de solvants et de catalyseurs en dessous, et ce sont les vapeurs de ces substances portées à 175°C qui font le travail », décrit Frédéric Goettmann.

Le principe de base de la technologie PHYre® est comparable à celui d’un autocuiseur. ©Extracthive

Le procédé permet ainsi de récupérer des fibres de carbone dont les propriétés mécaniques sont équivalentes à celles de fibres vierges, comme le souligne le co-fondateur de la PME : « PHYre® permet de conserver des fibres les plus longues possibles, ce qui autorise des mises en œuvre dans des applications de niche, à haute valeur ajoutée. Et, d’autre part, cela permet d’abîmer le moins possible la surface de la fibre, parce que l’on sait que cette surface est déterminante dans les propriétés mécaniques de la fibre et donc du composite ».

Permettant de travailler à des températures moins élevées que des techniques comme la pyrolyse ou la vapo-thermolyse, la solvolyse se révèle d’autant plus avantageuse que les solvants sont réutilisés tout au long de la réaction : leurs vapeurs sont recondensées, et le liquide formé coule de nouveau sur le composite à dégrader, emportant avec lui les résines. « Cela permet, en plus d’une meilleure efficacité du procédé, de limiter les quantités de solvants mis en œuvre. Notre objectif est de dépasser les 90 % de réutilisation de solvants », explique Frédéric Goettmann. « Cela fonctionne en laboratoire, mais il reste à le vérifier à grande échelle », ajoute le Président d’Extracthive, qui indique également travailler à des solutions de recyclage des résidus de résines éliminées.

Un démonstrateur industriel en préparation

Alors qu’elle vient de finaliser une levée de fonds de 4,6 M€, l’entreprise a désormais pour objectif de construire et de mettre en service d’ici début 2023 un démonstrateur industriel d’une capacité de 500 à 700 kg de composite par essai, contre une cinquantaine de kilos pour le dispositif pilote dont elle dispose pour l’heure. « Si l’on parvenait à faire tourner cette unité en continu, on pourrait aller jusqu’à traiter 450 tonnes de composites par an », estime Frédéric Goettmann.

À terme, l’entreprise prévoit de doubler cette capacité en créant des unités industrielles composées de deux réacteurs identiques partageant une « colonne vertébrale » commune dédiée à la réception des acides, aux équipements de sécurité et à la régénération des solvants. « L’idée serait d’avoir une unité de référence qui traiterait environ 900 tonnes de composites par an, et de multiplier ensuite ce type d’unité à différents endroits en Europe et dans le monde », entrevoit Frédéric Goettmann. Une approche qui permettrait en effet de traiter les composites localement, réduisant ainsi les coûts et les conséquences environnementales du transport de ces matières peu denses. « Nous avons déjà des lettres d’intention de la part d’entreprises concernant le recyclage de 1 600 tonnes par an de chutes de fabrication », dévoile finalement le Président d’Extracthive. Une perspective tout à fait concrète pour l’entreprise, qui envisage également de se lancer dans le recyclage de déchets industriels contenant du lithium – projet pour lequel Extracthive a déjà développé un pilote – ou encore du zinc, grâce à un procédé dont le brevet est en cours. « On n’a pas un profil de start-up classique, au sens “une société – une techno”. Nous voulons rester assez “couteau suisse” », conclut le co-fondateur d’Extracthive.

Benoît Crépin

La Banque Postale abandonne les énergies fossiles d’ici 2030

La Banque Postale abandonnera tous ses investissements dans les énergies fossiles conventionnelles et non conventionnelles d’ici 2030, a-t-elle annoncé le 14 octobre. Elle devient ainsi la première banque au monde à s’engager pour une sortie totale des secteurs du pétrole et du gaz d’ici 2030, partage-t-elle dans un communiqué. Il s’agit aussi de la première banque européenne et de l’une des trois premières institutions financières au monde, aux côtés de KB Financial Group et d’EQT, à faire valider sa trajectoire de décarbonation par la Science Based Targets initatitive (SBTi). Cet organisme piloté par quatre organisations internationales – Carbone Discolure Project, World Resources Institute, Pacte mondial des nations Unies et WWF – fait référence dans l’évaluation scientifique des objectifs de réduction de gaz à effet de serre des entreprises et leur compatibilité avec l’Accord de Paris.

La SBTi a reconnu cette trajectoire « compatible avec l’objectif de limiter le réchauffement bien en deçà de 2°C fixé par l’Accord de Paris ». Elle comprend aussi bien les activités directes de la Banque Postale que ses investissements et financements auprès de ses clients. « Nous sommes aujourd’hui la première banque européenne et parmi les premières institutions financières au monde à avoir une stratégie de décarbonation conforme aux Accords de Paris validée selon une méthode scientifique de référence », se félicite Philippe Heim, président du directoire de La Banque Postale.

Enclencher la transition au plus vite

« Nous avons besoin que les gestionnaires d’actifs, les banques, les assureurs et les autres acteurs alignent leurs objectifs climatiques sur les objectifs climatiques mondiaux de manière solide et transparente, prévient Alberto Carrillo Pineda, directeur général de la SBTi. Nous sommes très heureux d’annoncer le premier lot d’institutions financières ayant des objectifs climatiques fondés sur la science, y compris La Banque Postale, et nous pensons que cet élan encouragera d’autres institutions à rejoindre ce mouvement croissant. »

La Banque Postale s’engage ainsi à ne pas financer de projet énergétique basé sur le pétrole et le gaz, conventionnel et non conventionnel. Elle suspendra dès maintenant ses services financiers aux entreprises qui développent de nouveaux projets d’exploration, d’extraction et d’infrastructures liées à ces secteurs et se désinvestira progressivement de ces secteurs jusqu’en 2030. Elle s’appuiera sur la Global Oil and Gas Exit List développée par l’ONG Urgewald et qui sera publiée le 4 novembre prochain à l’occasion de la COP26. Cette liste compte 900 entreprises actives dans le pétrole et le gaz.

Enfin, la Banque Postale s’engage à ne pas soutenir les entreprises activement impliquées dans le lobbying en faveur du pétrole ou du gaz, ou celles ralentissant ou bloquant les efforts pour sortir de ces secteurs d’ici 2040.

Cette trajectoire est en ligne avec la vision de l’Agence Internationale de l’Energie (AIE) publiée en juin dernier. Dans ce rapport, l’agence insiste sur la nécessité d’arrêter tout projet et financement aux nouveaux projets d’énergies fossiles pour espérer atteindre la neutralité carbone mondiale. Pas de nouvelles centrales au charbon, et « pas besoin de nouveaux gisements de pétrole et de gaz naturel dans la feuille de route vers le net zéro », insiste-t-elle.

En route pour le Climate Finance Day

« Cette nouvelle politique crée le précédent à suivre immédiatement pour tout investisseur, assureur ou banque un tant soit peu sérieux sur son ambition “Net Zéro” ou son engagement à respecter l’Accord de Paris », réagit Alix Mazounie, chargée de campagne à l’ONG Reclaim Finance, spécialisée dans la prise en compte du climat par le monde de la finance.

Les ONG Reclaim Finance, les Amis de la Terre France et Oxfam France saluent dans un communiqué commun cet engagement et « appellent le reste de la Place financière à faire de même dès le Climate Finance Day et la COP26 ».

BNP Paribas, Crédit Agricole, Société Générale, Axa France et la BPCE sont particulièrement dans le collimateur de ces ONG. Le 26 octobre se tient le Climate Finance Day à Paris. Les ONG espèrent un large engagement de la place de Paris dans le combat climatique.

Faire voler des mini-drones, bientôt une réalité ?

Jusqu’à quel point peut-on miniaturiser des drones ? Et comment les faire se déplacer quand ils atteignent un poids très faible ? Une équipe de chercheurs chinois, coréens et américains s’est penchée sur cette question en s’inspirant des graines dispersées par le vent.

Les plantes répandent en effet leurs graines grâce à une grande variété de stratégies passives. Et certaines d’entre elles utilisent le vent pour faciliter le transport sur de grandes distances. Parmi les stratégies les plus connues, on retrouve les parachutistes comme le pissenlit, ou les hélicoptères comme l’érable. C’est d’ailleurs à ce dernier type de graine que les chercheurs se sont intéressés.

Ils ont étudié l’aérodynamisme des graines de Tristellateia australasiae, une liane d’ornement dont les graines en forme d’étoile ont des sortes d’ailes qui leur permettent de tomber selon une rotation lente et contrôlée. Pour identifier la structure la plus idéale, les scientifiques ont réalisé une modélisation informatique à grande échelle de la circulation de l’air. Sur la base de cette modélisation, ils ont ensuite construit et testé des structures en laboratoire, en utilisant des méthodes avancées d’imagerie et de quantification des modèles d’écoulement.

« Nous avons pu construire des structures qui tombent avec des trajectoires plus stables et à des vitesses terminales plus lentes que les graines équivalentes que vous verriez tomber des plantes ou des arbres », estime John Rogers, l’un des chercheurs qui a participé à l’étude, sur le site de Northwestern University.

Des mini-puces volantes

Les appareils conçus ne volent donc pas à proprement parler, mais leur design leur permet de tomber très doucement tout en avançant le plus loin possible. De la taille d’un grain de sable, ils sont constitués de composants électroniques de très petites tailles et d’ailes. L’équipe de recherche utilise d’ailleurs le terme de mini-puces volantes plutôt que mini-drones.

Ils ont réalisé des tests avec des capteurs, une source d’alimentation qui peut récupérer l’énergie ambiante, un stockage de mémoire et une antenne qui peut transférer sans fil des données vers un téléphone intelligent, une tablette ou un ordinateur.

Applications potentielles

En laboratoire, les scientifiques ont équipé un appareil de tous ces éléments pour détecter les particules dans l’air. Dans un autre exemple, ils ont incorporé des capteurs de pH qui pourraient être utilisés pour surveiller la qualité de l’eau et des photodétecteurs pour mesurer l’exposition au soleil à différentes longueurs d’onde.

Mais les chercheurs imaginent d’autres applications. De vastes essaims pourraient par exemple être largués d’un avion ou d’un bâtiment et largement dispersés pour surveiller les efforts d’assainissement de l’environnement après un déversement de produits chimiques ou pour suivre les niveaux de pollution de l’air à différentes altitudes.

Des composants biodégradables

« Nous reconnaissons que la récupération de grandes quantités de micropuces pourrait être difficile », admet le chercheur américain. Pour répondre à cette préoccupation, ils utilisent des composants particuliers développés dans le même laboratoire que celui qui a développé ces mini-drones. Ces composants électroniques transitoires seraient capables de se dissoudre sans danger dans l’eau une fois qu’ils ne sont plus nécessaires. « Nous fabriquons de tels systèmes électroniques physiquement transitoires à l’aide de polymères dégradables, de conducteurs compostables et de puces de circuits intégrés solubles qui disparaissent naturellement en produits finaux respectueux de l’environnement lorsqu’ils sont exposés à l’eau », explique John Rogers.

Image de une : l’image choisie ne représente pas des mini-drones, mais des drones de taille ordinaire. Cette image vise seulement à illustrer la thématique traitée dans cet article. Les mini-drones en question ont déjà fait l’objet d’un dessin que nous avons publié sur notre site

Des panneaux publicitaires dans l’espace

La start-up canadienne Geometric Energy Corporation (GEC) a annoncé cet été, dans un entretien donné au Business Insider,  s’être associée à SpaceX pour mettre en orbite un satellite publicitaire, dont l’achat des pixels est ouvert à tous. La mission, baptisée DOGE-1, va lancer un petit satellite (un CubeSat) en covoiturage vers la Lune l’année prochaine.

Cette annonce a très rapidement suscité la controverse, notamment sur les réseaux sociaux, obligeant la société GEC à répondre aux critiques. La pollution lumineuse du ciel est devenue un sujet sensible depuis le déploiement de constellations de satellites ces dernières années comme Starlink, une constellation déployée par SpaceX et très visible depuis la Terre. Et cette course à l’espace ne semble pas prête de s’arrêter, faisant craindre aux scientifiques et astronomes amateurs une pollution lumineuse toujours accrue. Pas étonnant donc que des projets de publicité spatiale soulèvent les passions. Mais, contrairement à d’autres projets de publicité spatiale, eux intrusifs, comme celui porté par la société russe StartRocket (qui souhaite mettre en place des publicités dans l’espace, visibles depuis la Terre sans télescope ou jumelles), les publicités émises par le satellite de GEC ne seront pas visibles depuis le sol. « L’invisibilité de tout ce que Geometric fait dans l’espace est une priorité à 100 % […] ! C’est la raison pour laquelle ce projet repose sur des publicités spatiales disruptives et non intrusives » explique dans un tweet Samuel Reid, co-fondateur et directeur général de GEC.

Une publicité dans l’espace retransmise sur YouTube et Twitch

Si les publicités ne seront pas visibles depuis le sol, comment ça marche ? Le satellite mis en orbite comportera un écran d’affichage pixelisé et une perche à selfie avec une caméra qui enregistrera la vidéo diffusée, permettant de retransmettre en direct les images sur YouTube ou Twitch. Les clients pourront louer du temps sur le petit écran pour diffuser les logos de leur entreprise ou des annonces commerciales. Des artistes pourront également louer l’espace pour promouvoir leur art numérique.

Ouvert à tous, l’achat des pixels se fera en cryptomonnaie. Si l’entreprise a annoncé que les paiements pourront se faire via l’Ethereum, la deuxième plus importante monnaie cryptographique décentralisée après le Bitcoin, elle espère pouvoir accepter dans le futur les paiements en Dogecoin, une cryptomonnaie créée au départ comme une blague et aujourd’hui plébiscitée, notamment par Elon Musk. Cinq jetons seront nécessaires pour faire apparaître des publicités sur le CubeSat : Beta, Rho, Gamma, Kappa, XI. Le jeton Beta détermine la coordonnée X (l’abscisse, tel qu’affiché sur l’écran) et Rhoe la coordonnée Y (l’ordonnée), Gamma détermine la luminosité de l’écran, Kappa la couleur, et Xi détermine le temps d’affichage de la publicité. Le GEC n’a pour l’instant pas communiqué la fourchette de prix de cet encart de publicité spatial.

Une flamme propre à base d’hydrogène afin de décarboner la combustion

Créée en 2009, la start-up Bulane est issue des incubateurs technologiques de la région Occitanie. Elle a développé une technologie permettant de produire une flamme à très haute température sans dégagement de CO2 à destination de l’industrie. Le procédé fonctionne grâce à la combustion de l’hydrogène, à partir de l’électrolyse de l’eau, et a été mis au point avec deux laboratoires de recherche : l’ICGM (Institut Charles Gerhardt Montpellier) et l’IMFT (Institut de Mécanique des Fluides de Toulouse). Aujourd’hui, l’entreprise souhaite étendre sa technologie afin de décarboner les chaudières dans les bâtiments. Entretien avec Nicolas Jerez, le président et fondateur de Bulane.

Représentation imagée d’une flamme hydrogène produite par électrolyse de l’eau. Crédits : Bulane

Techniques de l’Ingénieur : Quelle a été votre motivation au départ, avant de créer votre entreprise ?

Nicolas Jerez, président et fondateur de Bulane. Crédit : Bulane

Nicolas Jerez : Nous sommes partis du constat qu’environ 80 % des émissions de CO2 proviennent de la combustion de combustibles fossiles. Cette consommation se retrouve dans trois grands domaines : les transports, le bâtiment et l’industrie. Dans ce dernier secteur, les besoins en combustibles sont présents dans de nombreux procédés industriels : le soudage, le brasage, la finition des métaux, la fabrication de verre, la chauffe dans diverses entreprises agroalimentaires… Les principaux gaz de chauffe utilisés sont le butane, le propane, l’acétylène et le gaz naturel. Or, ces gaz rejettent tous du CO2. Nous avons donc souhaité offrir une alternative aux industriels et développé une flamme propre à base d’hydrogène afin de décarboner la combustion.

Comment fonctionne votre technologie ?

Nous avons développé une technologie d’électrolyse de l’eau qui la particularité d’être destinée à alimenter des combustions. Comparée à des électrolyseurs standard, cette spécificité nous a obligés à innover. Le point le plus important de notre cahier des charges a été l’aspect sécuritaire de l’appareil. Sur le plan de la mécanique et de la fluidique, notre système a été conçu pour éviter tout retour de flamme. Ensuite, un électrolyseur est à la base un équipement plutôt encombrant et lourd. Nous avons réalisé de gros efforts pour miniaturiser le nôtre.

Le plus petit électrolyseur de la gamme Dyomix développe une puissance de 2400 W. Crédit : Bulane

Le plus petit de notre gamme Dyomix ne pèse qu’une trentaine de kg pour une puissance de 2 400 W et se déplace sur des roulettes. Cette compacité nous a demandé de repousser les limites technologiques dans différents domaines que sont les matériaux, la fluidique et la thermodynamique afin de faire passer beaucoup de puissance dans peu d’encombrement. Enfin, un dernier élément porte sur le rendement de notre technologie qui peut dépasser 90 % selon l’usage, alors qu’il est plutôt situé autour de 70 % généralement pour un électrolyseur standard. Cette performance a pu être atteinte grâce à la mise au point d’une cogénération thermique à l’intérieur de l’appareil. Cette chaleur récupérée peut ainsi être mise à disposition de nos clients et représente jusqu’à 20 % du rendement global.

À qui commercialisez-vous vos appareils ?

Depuis 2015, nous commercialisons une première gamme d’appareils dans le domaine du chalumeau pour des applications industrielles de soudage. Nous avons vendu plus de 1 200 électrolyseurs pour une puissance totale électrique installée d’environ 4 MW. Ce volume représente plusieurs dizaines de milliers de tonnes de CO2 économisés. Depuis un an, nous étendons notre technologie à d’autres procédés industriels. Par exemple, nous travaillons avec certains industriels pour remplacer les gaz de chauffe utilisés en distillation par de l’hydrogène. Les applications potentielles de notre technologie sont très importantes. Tous les jours, des milliers de brûleurs consomment des énergies fossiles et l’hydrogène peut être efficace pour les décarboner.

Certes, la combustion de l’hydrogène n’émet pas de CO2, mais cela implique également que l’électricité soit décarbonée.

Évidemment, nous travaillons avec des offres électriques vertes de façon à garantir une combustion finale décarbonée. D’une manière plus globale, nous ciblons uniquement des procédés de production qui ne sont pas électrifiables, c’est-à-dire là où on ne peut pas remplacer la flamme par une résistance électrique. L’hydrogène est le seul gaz qui, lorsqu’il brûle, ne dégage pas de CO2. L’avantage de notre technologie est que ce gaz est produit localement, sans stockage et sans transport. On peut dire qu’avec notre technologie, nous procédons à une électrification du procédé de combustion. Il faut savoir que la combustion de l’hydrogène est très performante, et permet d’atteindre des températures supérieures à 2 800 degrés.

Votre technologie peut-elle avoir d’autres applications ?

Depuis plus d’un an, nous travaillons également à la décarbonation de l’énergie de chauffage dans les bâtiments. Nous souhaitons connecter nos électrolyseurs miniaturisés à des chaudières afin d’intégrer l’hydrogène dans la combustion finale. Ce projet s’appelle LP2H pour Local Power to Heat et nous avons déjà fait la démonstration de notre concept sur le plan expérimental. Il est lauréat du concours d’innovations i-Nov 2020 du SGPI (Secrétariat général pour l’investissement) et de l’Ademe et nous a permis d’obtenir un soutien financé du Programme d’Investissements d’Avenir (PIA). Là encore, le marché potentiel est très important et l’hydrogène peut jouer un rôle majeur pour décarboner massivement les bâtiments.

Crédit photo Une : Bulane

Affaire du siècle : un « préjudice écologique » à réparer d’ici fin 2022

Le 3 février 2021, le tribunal administratif de Paris reconnaissait que l’État avait manqué à ses engagements climatiques. Et il prononçait l’existence d’un préjudice écologique. Dans son jugement du 14 octobre 2021, le tribunal administratif de Paris « enjoint » le Premier ministre et les ministres compétents « de prendre toutes les mesures utiles de nature à réparer le préjudice écologique et prévenir l’aggravation des dommages à hauteur de la part non compensée d’émissions de gaz à effet de serre au titre du premier budget carbone ».

Le tribunal ajoute que « le contenu de ces mesures relève de la libre appréciation du gouvernement à laquelle il ne lui appartient pas de se substituer ». Ainsi, l’État devra compenser d’ici au « 31 décembre 2022, au plus tard » un préjudice écologique de 15 millions de tonnes de gaz à effet de serre émis. L’État versera en plus 2 000 euros à chacune des associations requérantes. Le tribunal rejette toutefois « à ce stade » la demande des ONG d’une astreinte financière de 78,5 millions d’euros par semestre de retard, en cas d’absence de nouvelles mesures suffisantes pour réparer le préjudice écologique et pour faire cesser à l’avenir son aggravation.

Trois ans d’action pour réparer le « préjudice écologique »

En mars 2019, quatre ONG – Oxfam, Greenpeace, Notre Affaire à Tous et la Fondation Nicolas Hulot – portaient plainte contre l’État devant le tribunal administratif de Paris. Soutenues par une pétition de plus de 2,3 millions de signatures, elles dénonçaient le non-respect des budgets carbone de la France dans le cadre de sa première Stratégie nationale bas-carbone sur la période 2015-2018.

La France avait en effet dépassé ses propres objectifs en matière de réduction d’émissions de gaz à effet de serre de 62 millions de tonnes équivalent CO2 sur cette période. Le tribunal rappelle que l’évaluation du préjudice se fait à la date du jugement. Avec une « réduction substantielle des émissions de gaz à effet de serre en 2020 » bien que due « de façon prépondérante aux effets de la crise sanitaire de la covid-19 et non à une action spécifique de l’État », il retient « que le préjudice perdure à hauteur de 15 millions de tonnes équivalent CO2 ».

Le respect de cette feuille de route doit permettre à la France de respecter ses engagements de réduction d’émissions de gaz à effet de serre. En l’occurrence, réduire ses émissions de 40 % d’ici 2030 et atteindre la neutralité carbone en 2050.

L’État essaie de défendre son action

Lors d’une audience le 30 septembre 2021, la représentante de l’État avait essayé de défendre l’action du gouvernement en mettant notamment en avant le vote récent de la loi Climat et Résilience. Selon elle, la France allait ainsi prochainement se retrouver sur la bonne trajectoire de réduction des émissions. « Ce qui compte, c’est le résultat effectif », avait-elle déclaré.

Alors que le tribunal administratif de Paris n’a pas retenu cet argument, le gouvernement a « pris acte » de la décision. Il se dit « pleinement conscient de ses obligations et de la nécessité de toujours accélérer l’effort climatique », en rappelant à nouveau les différentes actions entreprises, ainsi que l’accélération du rythme de la baisse des émissions depuis le début du quinquennat.

Une présidentielle pour l’action climatique

Les quatre ONG appellent désormais les candidats et candidates à l’élection présidentielle à démontrer, « chiffres à l’appui », comment ils comptent respecter les objectifs climatiques. Elles évalueront ces feuilles de route « avant l’élection présidentielle », promettent-elles.

Cette injonction s’oriente dans la même voie que la décision du Conseil d’État, exprimée en juillet dernier. La plus haute juridiction administrative avait alors ordonné au Premier ministre de prendre d’ici au 31 mars 2021, soit avant l’élection présidentielle, des mesures permettant de respecter ses engagements de baisse des émissions de gaz à effet de serre. La magistrate n’avait pas non plus proposé de mesures spécifiques, estimant qu’il ne revient pas au tribunal de se « substituer à l’exécutif » pour choisir parmi « la multiplicité des réparations possibles ».

3 évènements à ne pas manquer: Smart City, Journée du Génie écologique et SIANE

Smart City, carrefour des projets de la Relance, le 20 et 21 octobre à Paris – Porte de Versailles

Techniques de l’Ingénieur est fier de participer au salon Smart City + Smart Grid à Paris, Porte de Versailles, au niveau du Hall 5.1. Retrouvez-nous au stand D38 pour échanger sur le sujet de la ville intelligente.

Depuis 2013, Smart City + Smart Grid a pour mission de favoriser la rencontre entre les entreprises, les décideurs locaux et territoriaux et les porteurs de projets sur des thématiques telles que le « smart city » et la transition énergétique. 

Ces thèmes seront également abordés lors des nombreuses conférences et ateliers. Retrouver le programme ici.  

Journée de conférences sur le génie écologique du sol au service d’une société durable, le 21 octobre à l’espace Chaptal, Paris 9ème 

A l’occasion de la nouvelle offre « Génie écologique », Techniques de l’Ingénieur vous invite à une journée de conférences autour des solutions apportées par le génie écologique pour la préservation des sols. 

Venez à la rencontre des intervenants issus de la recherche et d’organismes publics et privés pour échanger sur leurs travaux. Cliquez ici pour avoir le programme de la journée.

Inscrivez-vous vite en présentiel ou à distance, le nombre de places est limité !

SIANE, les 19, 20 et 21 octobre à Toulouse – au MEETT

Techniques de l’Ingénieur est partenaire du salon SIANE, au nouveau Parc des expositions de Toulouse, le MEETT.

SIANE est le salon où industrie et innovation se rejoignent. Un lieu de veille, de rencontres et d’échanges idéal pour faire émerger de nouvelles perspectives, opportunités et développer des relations. 

Cette édition 2021 mettra en avant :

  • une véritable usine de production du futur avec près de 150 machines-outils, robots, équipements et innovations exceptionnelles à travers des animations, démonstrations, conférences et plateaux TV.
  • des sous-traitants dans les secteurs des équipements de production, du travail des métaux, des fournitures industrielles, de la transformation des matières, de l’électricité et de l’électronique, des services à l’industrie…

Des rendez-vous d’affaires ciblés et qualifiés avec les exposants peuvent être organisés pour un gain de temps et une efficacité maximale.

Le programme de conférences techniques est disponible ici.

Il s’agit d’une belle vitrine de 3 jours pour les industriels et sous-traitants qui offre la possibilité de mettre en valeur l’industrie du futur! 

N’attendez plus pour imprimer gratuitement votre badge visiteur.

Information supplémentaire

Techniques de l’Ingénieur soutient la 6ème édition de Biomim’expo qui se tiendra le 19 octobre 2021 à la Cité des sciences (Paris). Voici le programme de la journée.

Biomim’expo : la vitrine du biomimétisme, soutenue par Techniques de l’Ingénieur

A l’heure où les entreprises doivent investir et s’investir dans la transition écologique, le biomimétisme apparaît comme une piste à investiguer. Cette idée qui parait simple et disruptive est surtout fort intéressante : ce champ de recherche est aujourd’hui le plus grand open lab du monde, éprouvé par 3,8 milliards d’année de R&D et d’optimisation continue. Il touche des domaines aussi larges que la gestion et production de l’énergie, la fabrication de matériaux, la chimie verte, le recyclage, l’ergonomie, les écosystèmes…

L’excellence française

La recherche française, académique ou appliquée, est très présente dans ce domaine. Plus de 200 équipes travaillent sur des procédés bio-inspirés ; la « Biomim Deeptech » française a déjà levé 500 millions d’euros à  travers des entreprises telles que Corwave, pompe cardiaque à ondulation ; Tissium, colle chirurgicale sans suture ; Prophesee, nouveau capteur d’images inspiré de la rétine humaine ; M2i, alternative aux pesticides par confusion sexuelle des insectes… Des cursus et masters se mettent en place, de Polytechnique à Ensci Les Ateliers en passant par Sup’biotech ou l’Université de Pau et bien d’autres.

Biomom’expo : une journée riche d’expériences

Le 19 octobre, la journée commencera dès 9h30, introduite par Kalina Raskin, directrice générale du Ceebios et Alain Renaudin, fondateur de Biomim’expo et président de NewCorp Conseil.

S’en suivront une série de conférences et tables rondes sur des sujets aussi variés que la ville et l’architecture, les matériaux, l’inspiration venue de l’espace ou des océans, la cosmétique et le soin, ainsi qu’ un point sur l’excellence et le rayonnement de la France. Annick Girardin, ministre de la Mer est également attendue.

A côté des conférences, des exposants vous présenteront leurs innovations ; des ateliers vous permettront des expériences participatives ; vous pourrez vivre  « l’overview effect » ou assister à la finale du Biomim’Challenge.

Consultez le programme complet ici.

Des ions dans les neurones artificiels

À l’image des neurones biologiques, une équipe du laboratoire de physique de l’École normale supérieure a conçu théoriquement un neurone artificiel avec des ions comme vecteur d’information. Ce prototype est constitué de fentes en graphène extrêmement fines – comme les pores nanométriques des neurones biologiques appelés canaux ioniques – dans lesquelles est confinée une seule couche de molécules d’eau. Sous l’effet d’un champ électrique, les ions de cette couche s’assemblent en grappes allongées et reproduisent le mécanisme physique de l’émission des potentiels d’action : la transmission d’informations.

Prototype de neurone ionique artificiel. Copyright : Paul Robin

Pour comprendre l’intérêt et l’apport de ces neurones ioniques pour les mémoires électroniques, et les prochaines étapes de ces neurones ioniques artificiels, nous avons échangé avec l’un des auteurs de la publication publiée dans Science en octobre 2021 : Paul Robin, doctorant à l’ENS-PSL.

Techniques de l’Ingénieur : vous avez théorisé un neurone ionique artificiel ; pouvez-vous nous expliquer en quoi cela consiste ?

Paul Robin : Dans notre laboratoire de nanofluidique – l’étude de l’eau à l’échelle nanométrique –, nous avons essayé de reproduire le fonctionnement d’un neurone avec des canaux artificiels. En observant comment des ions se comportent dans un système confiné où l’eau forme une seule couche moléculaire, nous nous sommes rendu compte qu’il était possible de décrire ces systèmes identiques aux canaux ioniques qui sont des petits pores dans la membrane de cellules. Ces canaux permettent d’échanger des ions de manière sélective et précise avec le milieu qui les entoure. Ils interviennent dans beaucoup de processus biologiques, notamment dans l’émission de potentiels d’action qui permettent aux neurones de communiquer entre eux.

Votre neurone est donc inspiré de la nature…

En effet, il existe dans la nature des exemples de processus qui consistent à faire passer de l’eau dans des trous, comme c’est le cas des reins, extrêmement efficaces car ils ne laissent passer aucune impureté et sont très rapides à le faire. De plus, ils ont des trous « subtils », « intelligents ». Et pour être subtils au niveau de l’eau, nous devons nous mettre à leur échelle. Car si on prend un gros tuyau dont la dimension est plus grande que la molécule d’eau, on n’arrivera pas à agir spécifiquement sur la molécule. C’est pour cela qu’on essaie de s’inspirer des systèmes biologiques.

Une technique développée dans votre laboratoire ?

Non, le système a été inventé il y a environ 5 ans par l’équipe d’André Geim, inventeur du graphène et prix Nobel de physique en 2010. Lui et son équipe de l’université de Manchester ont réalisé quelque chose de révolutionnaire : une fente tellement fine que lorsque l’eau passe à l’intérieur, elle crée une seule couche. Et donc, il n’y a pas la place de mettre deux molécules l’une sur l’autre à travers la fente. Nous avons réussi à collaborer avec eux pour apprendre à fabriquer ces mêmes systèmes. Mais il manquait un bagage théorique pour comprendre comment, à l’échelle moléculaire, l’eau se comporte à l’intérieur.

Comment avez-vous eu l’idée de ces neurones artificiels pour les mémoires électroniques ?

Nous sommes partis d’un constat. Aujourd’hui, nous sommes entourés d’ordinateurs pour réaliser de nombreuses tâches, comme la conduite autonome. Ces tâches demandent beaucoup d’énergie. Or, un ordinateur capable de challenger le cerveau humain (qui ne consomme que 20 watts) demande 50 000 fois plus d’énergie. Nous avons essayé de trouver une solution pour consommer moins d’énergie. De nombreuses personnes essaient de copier l’architecture du cerveau, du neurone, car celui-ci n’est pas du tout organisé comme un ordinateur. Dans un ordinateur, il y a la mémoire qui stocke l’information et un processeur qui la traite. Alors que dans le cerveau, la mémoire et le processeur, c’est la même chose. Ce sont les neurones qui stockent et traitent l’information. De nombreuses recherches consistent à essayer de créer de nouvelles manières de faire des calculs en s’inspirant des neurones et du cerveau de manière générale.

On pense notamment au memristor, un composant électronique qui imite le fonctionnement d’une synapse…

Effectivement, dans le memristor et dans d’autres processus électroniques qui copient le cerveau, les neurones stockent et processent l’information. Le memristor est une résistance électrique qui a un état interne pouvant coder l’information. Il peut avoir deux états : la haute résistance qu’on appelle 1, et la basse résistance 0. Cela fonctionne comme les bits d’informations et on peut les programmer. En fonction de son histoire, on peut mettre le memristor dans un des deux états et il va s’en souvenir. Et si on le laisse tranquille, il va garder l’état. Avec ça, on va réussir à construire des systèmes qui traitent l’information comme dans le cerveau, c’est-à-dire directement dans la mémoire, sans avoir besoin de l’extraire et de l’envoyer à un processeur.

Et vous utilisez des ions plutôt que des électrons…

Notre conviction, c’est que l’utilisation des ions a des intérêts. Dans l’ordinateur, nous avons des électrons qui se déplacent dans un métal. Dans le cerveau, c’est un échange d’ions de part et d’autre d’une membrane. Il existe différents types d’ions : sulfate, sodium, chlorure, lithium, potassium. Alors qu’il n’existe qu’un seul type d’électron. Nous pensons qu’il y a plus de flexibilité avec les ions.

Quelle est la prochaine étape ?

Notre projet publié est numérique et théorique. La prochaine étape est de confirmer nos prédictions. En collaboration avec l’équipe de Manchester, nous essayons de trouver les effets de mémoire dans ces systèmes expérimentaux. Nous avons des signes très encourageants même s’il reste de nombreuses choses à clarifier et élucider.

Existe-t-il d’autres applications expérimentales de cette technique ?

Au départ, cette technique n’a pas du tout été développée pour les mémoires. L’idée était de sonder la matière à l’échelle de la molécule. Des systèmes similaires sont par exemple utilisés pour la filtration ou créer ce que l’on appelle de l’énergie bleue. Dans ce dernier cas, ils ont des limites en termes de rendements, que les travaux actuels en nanofluidique cherchent à améliorer.

Avec votre technique, peut-on faire des systèmes économes en énergie ?

Nous n’avons pas de résultats sur ce point. Il faut construire l’objet avant de pouvoir faire des mesures. Tout ce qui concerne la consommation d’énergie va dépendre de la façon dont on fabrique le système. Aujourd’hui, nous ne sommes pas du tout à l’échelle d’un ordinateur qui a des bits de mémoire. Nous sommes à un niveau fondamental. Nous essayons de comprendre des processus physicochimiques pour voir si nous pouvons tirer des lois de type dissipation d’énergie ou mémoire. Nous ne sommes pas à des échelles industrielles, donc on ne peut pas comparer ces systèmes fondamentaux aux réseaux de neurones. Nous n’en sommes pas encore là.

Les failles de cybersécurité dites « 0-day » ne connaissent pas la crise

Il y a un mois, l’Assistance Publique – Hôpitaux de Paris (AP-HP) annonçait avoir porté plainte après avoir constaté un vol de fichiers concernant des données sensibles de 1,4 million de personnes testées mi-mai 2020. Ces informations avaient été mises en ligne sur un site de téléchargement basé en Nouvelle-Zélande.

Un mois plus tard, les services de la BL2C (Brigade de lutte contre la cybercriminalité) ont interpellé un étudiant en informatique de 22 ans. Originaire du Var, il a justifié son action en expliquant qu’il souhaitait mettre en lumière les défaillances de sécurité du système informatique de santé, selon France Info.

Une faille pas repérée par les antivirus

Pour infiltrer le réseau d’AP-HP et récupérer cette base de données, cet étudiant a profité d’une faille dite « 0-day » dans un logiciel commercialisé par la société Hitachi Vantara. Ce type d’attaque consiste à exploiter une vulnérabilité dans un logiciel ou un automate avant qu’un correctif ne soit disponible ou largement déployé par l’éditeur de ce programme ou le fabricant de la machine.

Ces attaques peuvent être particulièrement dommageables, car les stratégies de cyberdéfense traditionnelles (comme les antivirus) sont inefficaces pour s’en protéger. Résultat, leur nombre ne cesse d’augmenter. Rappelons que la principale méthode de détection des antivirus repose sur leur base de signatures virales (l’autre solution étant l’analyse comportementale qui n’est pas toujours bien maîtrisée) qui ne peut pas être exhaustive et intégrer des virus ou des failles inconnus.

En permettant d’infiltrer un réseau informatique ou d’accéder au contenu d’un smartphone sans être repéré, les failles « 0-Day » font l’objet de surenchères. Tout le monde se les arrache et en particulier les grandes agences de renseignement du monde entier. Les « 0-day » impactent tous les systèmes d’exploitation, dont Windows, mais aussi les navigateurs et les OS mobiles. Selon différentes bases de données telles que « 0-day tracking project », près de 60 « 0-day » ont été découverts cette année, soit près du double du total par rapport à l’an passé.

2 500 000 dollars pour une faille « 0-day » !

Un vrai business avec des tarifs qui atteignent des sommets. Ceux proposés par exemple par l’entreprise Zerodium montrent une augmentation de 1 150 % des prix au cours des trois dernières années.

Se présentant comme un broker de failles critiques, Zerodium verse de grosses primes aux chercheurs en sécurité afin d’acquérir leurs « 0-day ». « Alors que la majorité des programmes de bug bounty existants acceptent presque tous les types de vulnérabilités et de PoCs, mais ne paient que très peu, chez Zerodium nous nous concentrons sur les vulnérabilités à haut risque avec des exploits entièrement fonctionnels et nous payons les récompenses les plus élevées du marché (jusqu’à 2 500 000 dollars par soumission) », affirme l’entreprise qui a reçu plus de 10 000 soumissions de la part de 1 500 experts en cybersécurité. Zerodium est né des cendres de Vupen Security, une entreprise montpelliéraine créée par de talentueux experts français partis s’exiler aux États-Unis.

Technique de l’Ingénieur présent au salon Smart City + Smart Grid et IBS 2021

Le Carrefour des projets de la relance

Smart City + Smart Grid revient dans le calendrier des salons à ne pas manquer pour une 7ème édition et ce, après des reports de dates imposés par l’évolution de la crise sanitaire.

Cette période de latence forcée aura, en tout cas, servi à prendre un peu de recul et à consolider quelques évidences. L’impact de l’activité humaine sur l’environnement nous revient comme un boomerang sous forme d’événements climatiques extrêmes et de pandémies. Le temps qu’il nous reste afin d’inverser la tendance ou du moins de limiter les dégâts un maximum,  nous sert à trouver de nouvelles solutions quant à notre façon de vivre. La transition énergétique – fer de lance de la lutte contre le réchauffement climatique est au centre de cet événement auquel Techniques de l’Ingénieur participe le 20 et 21 octobre, Porte de Versailles.

En parfaite corrélation, ce salon se joindra à la 11ème édition d’IBS 2021 en 100% physique.

La liaison de 2 salons au cœur des problématiques actuelles

Le salon Smart City + Smart Grid et IBS 2021  seront 2 grands rendez-vous attendus à l’automne orientés sur les objectifs ambitieux de la transition énergétique en termes de consommations, d’empreinte carbone et de nouveaux usages associés.

Avec près de 150 exposants et plus de 7 500 visiteurs attendus sur 2 jours, ces 2 events devraient permettre de valider par des échanges, enfin présentiels, les projections de croissance du secteur.

A propos du salon Smart City + Smart Grid

Depuis sa création en 2013, Smart City + Smart Grid a pour vocation d’être un catalyseur et un facilitateur de rencontres pour les porteurs de projets « smart city » . Il accompagne les entreprises, les décideurs locaux et territoriaux à mieux appréhender et identifier les nouvelles technologies et solutions « smart cities » disponibles sur le marché pour des bâtiments, des villes et des territoires durables, intelligents et connectés…

En parallèle un cycle de conférences-débats et d’ateliers orientés cas pratiques, retours d’expériences et les usages des smart cities s’organise avec le témoignage d’utilisateurs, d’élus, de praticiens pour décrypter les dernières tendances qui se dessinent dans la Smart City.

Retrouvez le programme des conférences et ateliers sur le site internet du salon.

Soyez les acteurs de demain !

Plus que jamais, Smart Cities/Smart Grids sera le carrefour où porteurs de projets et apporteurs de solutions trouveront un lieu d’échange et de partage. Rendez-vous à Paris les 20 et 21 octobre prochains.

Venez nous rencontrer sur le stand D38 pour discuter ensemble de ces nouveaux enjeux majeurs et passer un bon moment en notre compagnie !

Le Royaume-Uni, entre transition énergétique et flambée des prix du gaz

Grâce aux sources d’énergies renouvelables, à la capture et au stockage du carbone, et à l’hydrogène, « nous pensons que nous pouvons parvenir à une production d’énergie totalement propre d’ici 2035 », a déclaré lundi 4 octobre aux télévisions britanniques Boris Johnson. L’annonce est faite à un peu moins d’un mois de l’ouverture de la COP26 sur le climat à Glasgow, en Écosse.

Cette décision est notamment motivée par la volonté de s’affranchir « des aléas des prix des hydrocarbures » et pour « maintenir des coûts bas », a ajouté Boris Johnson. « La volatilité des prix du gaz signifie que nous devons redoubler d’efforts pour protéger les consommateurs à long terme, confirme le Secrétaire d’État britannique aux Affaires, à l’Énergie et à la Stratégie industrielle Kwasi Kwarteng. La seule façon de renforcer la sécurité énergétique de la Grande-Bretagne est l’électricité zéro carbone, produite dans ce pays. »

Se passer des énergies fossiles, charbon en tête

En 2020, les énergies fossiles ont assuré 41 % de la production électrique britannique, selon le think tank Ember. Le gaz arrive largement en tête, assurant 37 % de la production. Le charbon n’assure plus que 2 % de la production d’électricité contre 30 % en 2014. La part du nucléaire dans la production a atteint de son côté 17 % et les pouvoirs publics entendent bien la maintenir à ce niveau, pour atteindre une électricité décarbonée en 2035. L’éolien, le solaire, la biomasse et l’énergie hydraulique ont quant à eux généré 42 % de l’électricité en 2020.

Fin septembre, 14 grandes entreprises britanniques appelaient dans une lettre au gouvernement à accélérer l’abandon des énergies fossiles dans la production d’électricité. Avec 37 % d’électricité produite à partir de gaz, le pays est particulièrement affecté par la flambée des prix en Europe.

Un contexte énergétique très difficile

La flambée des prix du gaz (+ 218 % depuis le début de l’année) entraîne l’utilisation accrue depuis quelques semaines des centrales à charbon pour assurer l’approvisionnement du pays en électricité. Cela pourrait compliquer l’engagement du gouvernement britannique de renoncer complètement au charbon d’ici octobre 2024.
S’il y a bien eu « une augmentation de l’utilisation de l’électricité issue du charbon ce mois-ci, l’utilisation du combustible reste limitée dans le pays », relativise Tony Syme, expert de l’école de commerce de l’Université de Salford auprès de l’AFP. Il n’y a « que trois centrales au charbon pour le moment et il n’en restera qu’une à la fin de l’année prochaine, selon les plans actuels ».

Les prix du gaz ont atteint mi-septembre un record historique dans le pays, alors qu’un incendie sur un poste électrique a obligé à couper pour un mois l’interconnexion France-Angleterre. À l’approche de l’hiver, cette situation fait craindre de fortes hausses de prix pour les consommateurs et a déjà provoqué la faillite de plusieurs petits fournisseurs d’énergie ces dernières semaines.

Stocker l’hydrogène par voie chimique grâce au procédé LOHC

L’hydrogène est un gaz extrêmement léger qui possède une très faible densité volumique à la pression atmosphérique. Deux techniques sont principalement utilisées pour réduire son volume et le stocker efficacement. La première, la plus courante, consiste à le comprimer à 700 bar, et la seconde à le transformer en liquide en le refroidissant à très basse température (-252,87°C). Depuis quelques années, une autre méthode, par voie chimique, connaît un regain d’intérêt et consiste à héberger le gaz au milieu de molécules de liquides organiques porteurs d’hydrogène. D’abord appelé Organic Liquid Hybrides, ce procédé est à présent plus connu sous le nom de LOHC pour Liquid Organic Hydrogen Carrier.

Avec Valérie Meille, sa collègue de IRCELYON (Institut de recherches sur la catalyse de Lyon), Isabelle Pitault, chercheuse au LAGEPP (Laboratoire d’automatique, de génie des procédés et de génie pharmaceutique) travaille sur cette technologie depuis une quinzaine d’années. « Le stockage de l’hydrogène sous pression ou liquide nécessite de fabriquer des réservoirs spéciaux, très coûteux et qui ne sont pas encore complètement fiables aujourd’hui, analyse la chercheuse. Les molécules d’hydrogène ont la particularité de se diffuser dans tous les matériaux et on n’a pas encore réussi à concevoir des matériaux totalement étanches. À long terme, il peut se produire des pertes si on laisse de l’hydrogène sous pression ou liquide dans un réservoir. L’avantage du procédé LOHC est qu’il est possible d’utiliser toutes les infrastructures pétrolières déjà existantes pour le stockage, car les molécules porteuses de l’hydrogène ont les mêmes propriétés que le pétrole. »

Une réaction d’hydrogénation pour stocker l’hydrogène

Le couple de molécules toluène/méthylcyclohexane a longtemps été utilisé pour mettre en œuvre ce procédé. Concrètement, le toluène est la molécule de départ, que l’on associe à de l’hydrogène grâce à une réaction d’hydrogénation, dans des conditions que l’on peut qualifier de douces puisque l’hydrogène est comprimé à 30 bar, à des températures comprises entre 90 et 150 degrés. Cette réaction donne naissance à une molécule de stockage appelée méthylcyclohexane et a la particularité d’être exothermique. L’énergie libérée peut ainsi être valorisée en couplant cette première étape avec par exemple un réseau de chaleur. Pour « déstocker » l’hydrogène emprisonné, une réaction chimique de déshydrogénation est nécessaire. Celle-ci se déroule à pression atmosphérique, mais nécessite une température très élevée de 320 degrés.

« Il faut beaucoup d’énergie pour libérer l’hydrogène, c’est pour cela que ce procédé ne s’est pas développé, explique Isabelle Pitault. Si vous avez de l’énergie disponible à proximité avec la présence d’une aciérie ou d’un cimentier, cette contrainte peut être levée. Sinon, il est nécessaire de brûler une partie de l’hydrogène, ce qui représente une consommation de 25 % de ce gaz. Mais si l’on compare ce besoin énergétique avec les deux autres méthodes, cette consommation est presque équivalente puisque la compression de l’hydrogène nécessite 20 % de l’énergie interne mobilisée et celle pour fabriquer de l’hydrogène liquide 30 %. Une différence se situe au niveau de l’étape durant laquelle ce besoin énergétique est nécessaire. Pour l’hydrogène sous pression ou liquide, ce besoin se situe au moment du stockage tandis que pour le LOHC, c’est au déstockage. »

Pendant de nombreuses années, ce procédé a fait l’objet de critiques, car les molécules utilisées sont dérivées du pétrole. Aujourd’hui, ces critiques n’ont plus lieu puisque plusieurs études démontrent qu’il est possible de synthétiser le toluène à partir de la biomasse, notamment la lignine. Par ailleurs, les molécules utilisées ne sont pas détruites à chaque stockage/déstockage, car elles servent uniquement de réservoirs pour accueillir l’hydrogène. « On peut prendre l’image d’une batterie ; vous n’allez pas la jeter après la première décharge, s’exclame la chercheuse. Certes, certaines molécules utilisées ont tendance à se dégrader au fur et à mesure des cycles, mais il est possible de les resynthétiser en usine sans avoir besoin de s’approvisionner à nouveau. Le cycle peut donc être vertueux. » 

Des usines en construction en Allemagne et aux Pays-Bas

À partir du début des années 2000, un autre couple de molécules est fréquemment utilisé, notamment par l’entreprise allemande Hydrogenious : le dibenzyltoluene/perhydrodibenzyltoluene. Ces molécules sont fabriquées par de grands groupes chimiques tels que Sasol et Arkema et sont issues du toluène. Elles servent à fabriquer des fluides caloporteurs capables d’assurer des échanges de chaleur, mais peuvent aussi être utilisées pour le procédé LOHC. Le couple toluène/méthylcyclohexane présente l’inconvénient de devoir réaliser une réaction en phase gazeuse lors de l’étape de déshydrogénation, puis la mise en œuvre d’un système de séparation et de purification de l’hydrogène, qui se révèle gourmand en énergie. L’intérêt du couple dibenzyltoluene/perhydrodibenzyltoluene réside dans le fait que l’étape de déshydrogénation n’est pas confrontée à cette problématique puisque la molécule conserve en permanence son état liquide.

Depuis le début des années 2010, le procédé LOHC connaît un nouvel essor en Europe, surtout à travers la société Hydrogenious. L’entreprise construit en ce moment des usines à Hambourg et aux Pays-Bas dans le port de Rotterdam afin de stocker de l’hydrogène saisonnier issu d’énergies intermittentes (photovoltaïque, éolien). En Asie, la société japonaise Chiyoda se sert de ce système depuis plusieurs années pour transporter de l’hydrogène entre le Japon et Brunei. En Chine, la société Hynertech dépose de multiples brevets et a pour ambition d’alimenter des voitures équipées de piles à combustible. « Le point négatif de leur projet est que l’étape d’hydrogénation est réalisée dans une usine et celle de déshydrogénation dans des stations-service, ajoute Isabelle Pitault. Ceci nécessite de nombreux transports en camion entre les différents sites. »

La chercheuse considère que le procédé LOHC a de l’avenir pour le stockage stationnaire de l’hydrogène et la mobilité de type camion. S’agissant des voitures, les constructeurs se sont déjà engagés sur la voie des moteurs électriques et le stockage en batterie. « Selon moi, il est plus avantageux d’installer un électrolyseur dans une station-service pour produire de l’hydrogène puis de réaliser la réaction d’hydrogénation sur place. La chaleur dégagée lors de cette première étape peut alors servir à alimenter un quartier en chauffage. La réaction de déshydrogénation est ensuite réalisée dans le véhicule. Il convient alors de l’équiper de deux réservoirs, l’un accueillant les molécules chargées en hydrogène et l’autre permettant de les récupérer après le déstockage. Si le véhicule est équipé d’un moteur thermique à hydrogène, la chaleur nécessaire lors de la déshydrogénation peut provenir du moteur. Un tiers de la chaleur produite par ce dernier suffit à cette réaction. Par contre, si le véhicule est équipé de piles à combustible, il est alors nécessaire de brûler environ 25 % de l’hydrogène pour réaliser la réaction de déshydrogénation. »