Un robot médical inspiré directement du pangolin

Les robots mous miniatures pourraient représenter le futur de nombreuses procédures médicales. En effet, leur capacité à atteindre des régions du corps humain difficiles d’accès permettrait aux soignants d’agir de la manière la moins invasive possible. Malheureusement, avec les atouts viennent bien souvent les limitations. Ainsi, un robot mou n’est pas censé accueillir de matériaux métalliques solides dans sa composition. Résultat : ses fonctionnalités sont forcément réduites. Comment donc parvenir à une robotique à la fois molle et solide ? La réponse pourrait se trouver du côté d’un animal devenu tristement célèbre ces dernières années : le pangolin…

Un robot-pangolin pour livrer et chauffer

Le pangolin est le seul mammifère à être entièrement recouvert d’écailles – à l’exception de son museau, de son ventre et de l’intérieur de ses pattes. Ses écailles sont en kératine, tout comme nos cheveux et nos ongles. Une matière bien plus dure et rigide que les tissus sous-jacents. En cas de danger, cette pomme de pin sur pattes se roule en boule en un éclair ! Pour garder une telle liberté de mouvement associée à une grande flexibilité, l’animal peut compter sur l’organisation particulière de ses écailles. Contrairement aux tatous, crocodiles et autres lézards, celles du pangolin possèdent une structure superposée. Autrement dit, elles se chevauchent les unes les autres. Ce chevauchement se traduit par la longueur d’écaille exposée par rapport à sa longueur totale, et il varie entre 50 et 80 % chez les différentes espèces de pangolin.

Pangolin robot
L’inspiration du pangolin a mené des chercheurs à concevoir un robot à la structure superposée. Crédits : MPI for Intelligent Systems.

Dans leur article publié dans Nature Communications le 20 juin 2023, Ren Hao Soon et ses collègues du Max Planck Institute for Intelligent Systems de Stuttgart (Allemagne) se sont inspirés de ce surprenant animal pour concevoir leur propre robot médical. Celui-ci ne dépasse pas 2 cm – 20 mm*10 mm*0,2 mm – et se décompose en deux couches distinctes. D’abord, une partie en aluminium – 2,5 mm*10 mm*50 µm – équivalent à des « écailles chauffantes ». Puis un polymère organo-minéral (carbone et silicium), le PDMS (Polydiméthylsiloxane), piqueté de particules magnétiques. Ce sont ces dernières qui vont permettre aux chercheurs d’interagir avec leur robot sans connexion directe. En présence d’un champ magnétique à basse fréquence, le robot va prendre la forme d’une sphère. Une configuration optimale pour le transport de médicaments en des endroits ciblés. En revanche, dans un champ magnétique à haute fréquence, les écailles en aluminium vont se mettre à produire de la chaleur : plus de 70°C en moins de 30 secondes ! Or, le traitement thermique est utilisé dans des cas de thrombose ou pour limiter voire arrêter des saignements.

Pour le moment, les tests se sont limités à des tissus porcins ex vivo. Mais à l’avenir, des robots-pangolins médicaux pourraient parcourir le corps de multiples patients…

Les thèses du mois : « Les matériaux composites boostent la fabrication additive »

Pour notre dossier du mois de juin, « Les matériaux composites boostent la fabrication additive », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

Anisotropic concrete : 3D printing of concrete reinforced by long fibers, process, characterisation et modélisation.
Nicolas Ducoulombier
Thèse de doctorat en Structures et Matériaux, soutenue le 01-12-2020
Laboratoire Navier

Fabrication additive assistée laser de matériaux composites 3D et revêtement diamant par CVD
Loïc Constantin
Thèse de doctorat en Physico-Chimie de la Matière Condensée, soutenue le 01-07-2020
Institut de chimie de la matière condensée de Bordeaux

Élaboration d’aciers ODS (Oxide Dispersion Strengthened) par fabrication additive laser et cold spray : compréhension des relations procédés – microstructures
Lucas Autones
Thèse de doctorat en Milieux denses, matériaux et composants, soutenue le 02-03-2022
UMET – Unité Matériaux et Transformations

Etude du comportement dynamique de matériaux architecturés issus de fabrication additive
Alexandre Riot
Thèse de doctorat en Mécanique-matériaux, soutenue le 19-12-2022
Institut de mécanique et d’ingénierie de Bordeaux

Modélisation prédictive pour la Fabrication Additive métallique : Caractéristiques clés et applications à la caractérisation de la porosité.
Yahya Ismail Al-Meslemi
Thèse de doctorat en Génie mécanique, soutenue le 06-01-2021
Laboratoire universitaire de recherche en production automatisée

Conception et fabrication de pièces métalliques intelligentes par procédé WAAM
Pascal Robert
Thèse de doctorat en Génie Industriel conception et production, soutenue le 01-07-2022
Laboratoire des Sciences pour la Conception, l’Optimisation et la Production de Grenoble

 

Microstructure, texture et propagation des ondes ultrasonores dans un superalliage à base de nickel fait par fabrication additive
Amal Khabouchi
Thèse de doctorat en Science des matériaux, soutenue le 18-11-2021
Laboratoire d’Etude des Microstructures et de Mécanique des Matériaux (LEM3)

 

Bio-composites à fibres longues pour la fabrication additive : développement et optimisation
Xikun Wu
Projet de thèse en Matériaux, mécanique, structures – depuis le 06-12-2021
Institut de Thermique, Mécanique, Matériaux

Elaboration de matériaux composites cuivre/diamant par fabrication additive SLM
Emmanuel Loubère
Projet de thèse en Physico-Chimie de la Matière Condensée, depuis le 01-02-2022.
Institut de chimie de la matière condensée de Bordeaux

Conception pilotée par simulation pour la fabrication additive de composites
Valentin Marchal
Projet de thèse en Mécanique, depuis le 01-10-2020
Carnot de Bourgogne (équipe Conception, Optimisation & Modélisation en Mécanique)

Relocaliser et réparer grâce à l’impression 3D

Un extrait de « L’impression 3D dans une perspective de développement durable » par Laurent Molinari

L’économie actuelle est construite sur un modèle globalisé où les processus de production des biens sont éclatés tout autour de la planète. Cette « mondialisation » repose sur la recherche constante des plus bas coûts de production, ce qui amène des industries à délocaliser. Côté émissions de GES, les énergies utilisées dans les systèmes de production des pays à bas coûts ont, en général, une intensité carbone plus élevée, car comptant sur les énergies fossiles (charbons, pétroles…). Par ailleurs, les réglementations environnementales, et notamment les contraintes relatives à la gestion des déchets, y sont moins fortes. Enfin, la mondialisation de l’économie s’est construite autour d’une réalité d’un transport de marchandises performant et peu cher. Les émissions de CO2 de la supply chain des produits (transports et logistiques) constituent ainsi un élément important de son impact global.

Le raccourcissement de la durée de vie des biens de grande consommation, nommé « obsolescence programmée », correspond, lui, à une démarche volontaire de l’entreprise afin d’accélérer le taux de remplacement des produits. D’une part, il est quasi impossible de réparer les objets ou les biens qui sont diffusés, par manque de compétences et/ou des pièces nécessaires. D’autre part, se pose le problème de l’absence de rentabilité économique au maintien en vie des équipements, le coût de fabrication et de disponibilité de pièces détachées constituant un coût trop important pour les entreprises productrices. Les conséquences environnementales se retrouvent au niveau de la consommation d’énergie et de ressource, ainsi que sur la quantité de déchets à gérer.

L’impression 3D contre la délocalisation et l’obsolescence

Concernant la relocalisation, la diffusion de capacités de production de biens à un niveau individuel ou communautaire peut permettre de réduire la pression sur l’environnement. Si la production s’effectue dans le contexte local de l’utilisateur, celui-ci sera plus enclin à suivre et à développer les réglementations environnementales que dans un contexte où l’industriel pollue en grande partie « en dehors de chez lui ». La relocalisation de la supply chain promet également de réduire les grands flux d’échange de produits finis ou semi-finis. Enfin, les transports liés à la distribution dans un même pays peuvent être simplifiés, et donc économisés, puisque des produits peuvent être imprimés au plus près du lieu de vente/mise à disposition.

Les apports de l’impression 3D pourraient aussi être de rendre possible la production de petites séries de pièces, grâce à l’agilité et à la souplesse des systèmes de production. La production de pièces de remplacement (mécaniques, électroniques…) pourrait être rentable et donc permettre soit aux entreprises productrices, soit à des tiers (consommateurs autonomes ou entreprises spécialisées) de produire les pièces nécessaires à la réparation d’objets courants. Même s’ils sont encore balbutiants, et pour l’instant encore l’œuvre d’acteurs plutôt engagés dans le combat pour la défense de l’environnement, des exemples existent. Qu’il s’agisse de la réparation d’une bonde d’évier, d’une petite pièce en plastique permettant de faire fonctionner une imprimante, d’un verrou de baie vitrée…, le train de la réparation des objets semble bien parti. Signalons qu’au-delà de l’aspect environnemental, le maintien en condition de vie des objets peut aussi répondre à une contrainte financière, ce qui en fait un levier de développement très important.

« Différents secteurs industriels se mettent petit à petit à la fabrication additive »

ADDIMADOUR est une plateforme dédiée à la fabrication additive métallique grande dimension créée en 2017, utilisant les deux technologies fil et poudre. La plateforme Addimadour est un des services de l’ESTIA – l’Ecole Supérieure des Technologies Industrielles Avancées -, Il est hébergé au sein de la plateforme COMPOSITADOUR, qui regroupe les procédés avancés tels que les composites, la robotique et la fabrication additive.

Située au Pays Basque, ADDIMADOUR permet aux entreprises d’être accompagnées dans leurs projets de fabrication additive métallique, que ce soit en termes d’accompagnement technique, technologique ou de formation.

Pierre Michaud, Docteur en sciences des matériaux et responsable du pôle fabrication additive d’ADDIMADOUR, a expliqué aux Techniques de l’Ingénieur le fonctionnement de la plateforme ADDIMADOUR dédiée à la fabrication additive

Techniques de l’Ingénieur : Quels sont les objectifs d’ADDIMADOUR, la plateforme de l’ESTIA dédiée à la fabrication additive ?

Le rôle de la plateforme Addimadour est de faire du transfert de technologies, du développement de connaissances ou de lancer des programmes de recherche, français et européens. Les étudiants de l’ESTIA, et les professionnels ayant besoin d’être formés profitent également de la plateforme pour développer leurs connaissances et leurs compétences.

Nous coopérons avec l’écosystème industriel local, qui était très orienté sur le secteur aéronautique lors de la genèse d’Addimadour. Aujourd’hui, nos activités se sont diversifiées, sur les secteurs des transports, de l’énergie, de l’outillage, même si notre cœur d’activité reste l’aéronautique.

Qu’est-ce qui attire aujourd’hui les industriels vers la mise en place de procédés de fabrication additive ?

Les différents secteurs viennent petit à petit vers la fabrication additive, notamment car la technologie est aujourd’hui plus mature.

Aussi, le coût de fabrication d’une pièce en petite ou moyenne série – coût de stockage des matières premières, coût logistique – et surtout les temps de réponse que peuvent apporter l’impression 3D permettent à de nombreuses entreprises de gagner en compétitivité. Et aussi à des PME d’investir dans ces technologies d’impression : En effet, les technologies d’impression 3D comme le WAAM par exemple, que nous utilisons, deviennent aujourd’hui abordables, en termes d’investissement matériel.

Quelles sont aujourd’hui les problématiques rencontrées par les industriels désireux de monter en compétence sur la fabrication additive ?

Le gros effort va se situer sur la croisée des métiers, c’est-à-dire la nécessité de maîtriser les différentes technologies associées à la fabrication additive. C’est d’ailleurs dans ce sens que nous développons des formations spécifiques pour former des ingénieurs de profils très différents à la fabrication robotisée par exemple. Auparavant, on trouvait des ingénieurs spécialisés soit en matériaux, en robotique, en procédés… Aujourd’hui, il est nécessaire que les ingénieurs qui utilisent les technologies d’impression 3D développent également des compétences périphériques en soudage, en robotique, en programmation… sans forcément devenir spécialiste dans tous ces domaines.

Il s’agit d’un vrai besoin aujourd’hui, pour les entreprises qui voudraient se lancer dans la fabrication additive. Cette montée en compétences, notamment sur le triptyque “matériaux, robotique et procédés” est quelque chose que nous constatons parmi les entités industrielles avec lesquelles nous collaborons. Le fait d’avoir chez eux des ingénieurs pluri compétents sur les spécialités que nous venons d’évoquer permet aux entreprises d’intégrer des procédés de fabrication additive beaucoup plus efficacement dans un environnement déjà existant.

Est-ce que la fabrication additive destinée à la réparation de produits industriels est quelque chose qui se développe de plus en plus ?

On voit effectivement beaucoup d’entreprises, notamment dans les secteurs de l’énergie et de l’automobile se tourner vers la fabrication additive pour produire des pièces détachées, ou des pièces qui ne sont plus produites en série par le fabricant.

Cet aspect réparation est quelque chose que l’on voit de plus en plus, en raison notamment des préoccupations de plus en plus importantes des entreprises vis-à-vis de leur empreinte carbone.

ADDIMADOUR est accolé à COMPOSITADOUR, une plateforme spécialisée notamment en matériaux composites. En quoi ces derniers viennent améliorer les performances des pièces produites par fabrication additive ?

L’avantage des matériaux composites par rapport aux thermoplastiques est que leurs propriétés mécaniques sont supérieures.

Ces matériaux composites sont aujourd’hui composés de thermoplastiques associés à des fibres courtes, la plupart du temps en carbone ou en fibres de verre.

La problématique actuelle est de développer des fibres longues implémentées dans la matière première. Cela pose des problèmes de mise en œuvre, notamment au niveau de la cohésion fibre/matrice. Après, il s’agit d’un axe de développement très important, puisque l’impression 3D de fibres longues permettra de renforcer une pièce à imprimer en fonction de sa géométrie, et ainsi de produire des pièces aux propriétés mécaniques plus importantes.

Propos recueillis par Pierre Thouverez

Entrée en vigueur du diagnostic PEMD pour les déchets du bâtiment

En France, le secteur du bâtiment émet chaque année près de 42 millions de tonnes de déchets. Selon l’ADEME, ce volume est composé à 75 % d’inertes, 23 % de déchets non dangereux et 2 % de déchets dangereux. Le bâtiment, premier poste en termes de consommation de ressources et d’énergie, est particulièrement impacté par les évolutions réglementaires de ces dernières années : LTECV, PNPD, FREC, engagements pour la croissance verte et bien entendu la loi AGEC[1].

Les impacts de la loi AGEC sur le secteur de la construction

Pour la construction, la loi AGEC a au moins quatre conséquences majeures.

  • REP PMCB[2] : La filière REP dédiée aux déchets du bâtiment est entrée en vigueur au 1er janvier 2023.
  • Tri 7 flux : Tri des fractions minérales et du plâtre, en plus des cinq autres flux déjà obligatoires (papier, métal, plastique, bois, verre).
  • Diagnostic PEMD[3] : Remplace le diagnostic déchets avant démolition et s’étend aussi aux opérations de rénovation significative du bâtiment.
  • Devis et bordereau de dépôt des déchets : Concerne les chantiers qui ne sont pas soumis à l’obligation de diagnostic PEMD.

Les quatre éco-organismes agréés pour la collecte et le traitement des déchets dans le cadre de la REP PMCB sont ainsi actuellement en train de mettre en place le maillage territorial des points de collecte.

L’arrivée en parallèle d’un diagnostic PEMD étendu à la rénovation et qui prend en compte le réemploi va donc permettre une gestion cohérente de la REP PMCB, dans un contexte de transition vers une économie circulaire.

Pourquoi un nouveau diagnostic déchets ?

L’article 51 de la loi AGEC prévoyait l’obligation d’un diagnostic relatif à la gestion des produits, équipements, matériaux et déchets issus des travaux de démolition, mais aussi de rénovation profonde. La prise en compte de la rénovation est loin d’être anodine, car il faut savoir que si la moitié des déchets du bâtiment est générée lors de la démolition, 38 % proviennent des travaux de réhabilitation, la construction neuve représentant à peine 13 % de ce flux selon les sources officielles.

Les contours du diagnostic PEMD ont été fixés par plusieurs textes et notamment par le décret N°2021-821 qui détaille à la fois le contenu du diagnostic et sa forme. La véritable « révolution » de la PEMD est la reconnaissance officielle du réemploi des déchets de chantier et de la nécessité d’identifier ce qui peut être réemployé, en amont d’une déconstruction ou d’une réhabilitation lourde.

Dans le contexte de l’économie circulaire, le déploiement du PEMD permet donc de dynamiser les filières de réemploi, par l’identification systématique des potentiels de réemploi.

Concrètement, en quoi consiste ce diagnostic PEMD ?

Dans un premier temps, le diagnostic consiste à identifier la nature et les quantités de déchets du chantier, en donnant la priorité au réemploi, en accord avec la loi AGEC.

Ce qui est identifié comme potentiellement réemployable est alors localisé et l’état de conservation est évalué, de même que les modalités de stockage, de transport et de dépose.

Les possibilités de réemploi et les filières de traitement sont ensuite envisagées. Il s’agit aussi bien de solutions de réemploi sur site que de solution hors site : plateformes digitales, plateformes physiques, fourniture à des acteurs de l’économie solidaire, etc.

Ce qui ne peut être réemployé est alors considéré comme déchet et des solutions de réutilisation[4] sont alors recherchées.

Pour ce qui n’est pas réemployable ou réutilisable, des solutions de valorisation matière ou de valorisation énergétique sont alors envisagées, l’élimination n’intervenant qu’en dernier recours.

Concrètement, ce diagnostic donne lieu à l’établissement d’un rapport et d’un formulaire CERFA qui sont transmis par le maître d’ouvrage au CSTB[5], l’organisme en charge de récoler les résultats.

Qui est concerné par le diagnostic PEMD ?

Le diagnostic PEMD va impliquer les maîtres d’ouvrage, les maîtres d’œuvre, ainsi que les constructeurs, les promoteurs et les entreprises du bâtiment et de travaux.

En démolition ou rénovation significative[6], les chantiers concernés sont ceux dont la surface cumulée de plancher (pour l’ensemble des bâtiments de la parcelle) est supérieure à 1 000 m². Néanmoins, lorsque la parcelle inclut des bâtiments ayant accueilli une activité agricole, commerciale ou industrielle ayant utilisé des déchets dangereux, la notion de surface minimale disparaît et le diagnostic PEMD devient dans tous les cas obligatoire.

Le diagnostic PEMD vous concerne-t-il ? Pour en savoir plus au sujet du cadre réglementaire « déchets du bâtiment », nous vous invitons à consulter le centre de ressources économie circulaire et déchets OPTIGEDE de l’ADEME ainsi que la plateforme DEMOCLES consacrée au diagnostic déchets.


[1]

  • LTECV : Loi de transition énergétique pour la croissance verte de 2015
  • PNPD : programme national de prévention des déchets
  • FREC : Feuille de route économie circulaire
  • AGEC : Loi Anti-gaspillage pour une économie circulaire

[2] REP PMCB : Responsabilité Élargie du Producteur, pour la filière Produits et Matériaux de Construction du Bâtiment

[3] Diagnostic PEMD : diagnostic Produit Équipement Matériaux Déchet

[5] La réutilisation se distingue du réemploi par un changement d’usage. Exemple : une porte peut être transformée en table. En réemploi, le produit en fin de vie n’est pas considéré comme un déchet et garde le même usage. Exemple : une porte est à nouveau utilisée comme porte.

[6] Centre Scientifique et Technique du Bâtiment

[7] C’est-à-dire si les travaux de rénovation portent sur deux éléments de second œuvre

« Valoriser la liberté de conception offerte par la fabrication additive »

Hexagon est leader sur le marché des solutions de réalité numérique pour les entreprises. La société suédoise offre ainsi la possibilité à ses clients d’exploiter au mieux toutes les données générées par leurs activités, dans le but d’améliorer les process, l’efficacité, la productivité, la qualité.

Mathieu Perennou, Directeur stratégie et développement d’activité fabrication additive chez Hexagon, a expliqué aux Techniques de l’Ingénieur les solutions développées par l’entreprise dans le cadre de la fabrication additive de matériaux composites pour l’aéronautique, notamment dans le cadre du développement des eVTOL.

Techniques de l’Ingénieur : Pouvez-vous nous présenter les technologies développées par Hexagon en relation avec le développement de l’eVTOL, en ce qui concerne le comportement des matériaux composites utilisés pour cet aéronef ?

Mathieu Perennou : Le processus de certification des nouveaux avions est un domaine dans lequel Hexagon est impliqué depuis des décennies. Le développement d’un nouvel avion s’accompagne très souvent du développement d’une technologie nouvelle et sophistiquée qui doit être testée et certifiée. Ainsi, de nombreuses « premières fois » ont franchi nos portes au cours des 50 dernières années : le premier avion à réaction, le premier avion de chasse à aile delta, le premier avion supersonique et le premier jumbo jet quadrimoteur à deux étages… Tous ont été certifiés à l’aide de nos solutions logicielles. L’industrie émergente de l’eVTOL ne fait pas exception à la règle. La plupart de ces nouvelles compagnies d’avions eVTOL envisagent de toutes nouvelles combinaisons de rotors basculants, d’ailes basculantes, de fuselages entièrement composites, de systèmes de commande de vol électriques et de systèmes de batteries électriques rechargeables, ainsi que de nouvelles méthodes de fabrication qui n’ont jamais été vus auparavant dans le monde de l’aviation. En conséquence, les ingénieurs ont besoin de s’appuyer toujours plus sur les outils de simulations pour modéliser, tester et valider ces nouvelles solutions technologiques tant au niveau des designs qu’au niveau des matériaux et des procédés de fabrication, afin de porter ces nouvelles technologies aux niveaux nécessaires à la généralisation de l’industrie de l’eVTOL.

Plus spécifiquement, l’aérospatiale (et les nouveaux avions eVTOL) constitue l’une des industries qui repoussent les limites de l’innovation en matière de matériaux pour un transport plus écologique.

Au niveau de la validation du comportement des structures des nouveaux avions eVTOL, Hexagon répond à un intérêt croissant par sa nouvelle version de MSC Nastran implicite non linéaire (SOL400) dans le cadre de la conception de composites et de structures aéronautiques plus légères. Un autre défi résolu par cette version pour les concepteurs de moteurs et les eVTOL est la possibilité de définir des vitesses de rotation individuelles pour plusieurs rotors et de référencer n’importe quel rotor. Cela rend MSC Nastran Rotor Dynamics plus précis car chaque moteur peut avoir ses propres vitesses et caractéristiques, ce qui permet de mieux réaliser les études de sensibilité.

Au niveau des matériaux composites eux-mêmes, nous avons mis au point une solution logicielle (Digimat) qui permet de modéliser ces nouveaux matériaux, ainsi que de la tester et qualifier virtuellement, afin d’une part de réduire les délai de développement de nouveaux matériaux, et d’autre part d’obtenir des modèles numériques et des cartes matériaux pertinents qui seront utilisés comme données d’entrée pour les calculs de structure ainsi que la simulation des procédés de fabrication.

Quels sont aujourd’hui les freins liés à la fabrication additive de matériaux destinés à équiper les avions de demain ?

Un des freins au développement de la fabrication additive dans le domaine des avions de demain est le besoin en matériaux qui répondent aux critères aéronautiques suivants : plus économique, à tenue au feu suffisante et de plus haute performances mécanique et thermique.

Inévitablement, pour une industrie avec des contraintes de régulation fortes comme peut l’être l’aéronautique, le développement de nouveaux matériaux et la validation du comportement de ces matériaux et le besoin de certification des pièces à plus haute criticité ainsi que de l’ensemble design/procédé/matériau/imprimante freinent l’adoption de nouveaux matériaux des nouveaux procédés de fabrication qui leurs sont liées.

Un autre point intimement lié à la certification des pièces reste le sujet de l’évaluation et l’assurance de la qualité des pièces et de la matière produites. Le manque d’expérience sur la qualité matière des pièces obtenues en FA, cette inconnue générant un risque sur la performance réelle (et non pas théorique) des pièces fabriquées, génère forcément des défis de qualification et donc d’adoption.

Côté conception produit, le relatif manque de maturité des procédés de fabrication additive reste prégnant encore aujourd’hui, de même que le manque de connaissances spécifiques en conception pour la fabrication additive (FA), ce qu’on appelle couramment le « Design for Additive Manufacturing » (DfAM).

Le manque d’une gamme complète de fabrication, depuis les règles de conception (DfAM), en passant par la répétabilité du procédé de fabrication et la chaîne numérique jusqu’aux contrôles des pièces limite aujourd’hui le développement de ces nouvelles solutions dans le cadre d’une approche Industrie 4.0.

Un dernier point est le relatif manque de maturité des machines en termes de fiabilité, qui génère un besoin systématique de contrôle qualité des pièces fabriquées (contrôle dimensionnel et qualité matière) en cours de production.

Que change l’impression 3D de matériaux dans la conception des avions de demain ? Quels sont les avantages ?

En tout premier lieu la réduction de la masse des pièces. Cette réduction de masse s’opère à 3 niveaux :

  • La liberté de conception offerte par la FA permet la fabrication de formes optimisées en remplaçant des pièces en métal par du composite ou un assemblage de plusieurs pièces par une pièce unique.
  • Le remplacement de pièces métal par des pièces polymères/composites.
  • La diminution de matière gaspillée de par l’approche additive du procédé de fabrication qui offre des ratios « Buy2Fly » inégalés.

Ensuite, l’impression 3D permet de réduire les coûts, en particulier pour les pièces de petites et moyennes séries dont la structure de coût est actuellement largement impactée par les outillages. La réduction de temps de cycle (par exemple en passant à une fabrication directe sans outillage) et un apport de flexibilité dans les chaînes d’approvisionnement (avec une production à la demande) constituent quant à eux des avantages certains pour les industriels. 

La liberté de conception et l’aspect sans outillage du procédé permet également La personnalisation/customisation de pièces sans limite ainsi que l’ajout de fonctionnalités.

Enfin, plus spécifiquement au niveau des matériaux composites, la possibilité d’optimiser la performance de la pièce en jouant sur l’orientation des fibres pour les matériaux chargés, contrôlée par les stratégies de déposition utilisées, offre aux industriels des possibilités nouvelles sur la conception des produits.

Quels sont les matériaux principaux utilisés en fabrication additive en aéronautique aujourd’hui ?

En termes de matériaux polymère et composites, les matériaux suivant répondent tous aux contraintes de tenue au feu et sont régulièrement sollicités par la fabrication additive en aéronautique :

  • l’Ultem 9085 qui offre une excellente résistance à la chaleur et aux produits chimiques en plus d’être tolérant au feu, à la fumée et à la toxicité et a finalement bénéficié d’une campagne de qualification avec le NCAMP.
  • Certains polyamides comme le PA2241FR en lit de poudre (polyamide 12 économique, ignifuge et à haut taux de recyclage) ou l’utilisation de plus en plus fréquentes de matériaux de la famille des PAEK comme le PEEK ou PEKK, connus pour leur faible inflammabilité et leur excellente résistance mécanique, chimique et à l’usure.

Propos recueillis par Pierre Thouverez

Les articles de référence en libre accès

Je suis Amza, le petit nouveau de l’équipe Marketing de Techniques de l’Ingénieur. Cette année, c’est à moi de faire la sélection de l’été !

Je vous propose d’explorer de différents horizons pour nourrir votre curiosité. Ces articles sont ouverts gratuitement, une manière pour moi de partager mes découvertes pendant cette période estivale.

Profitez de cette opportunité pour élargir vos connaissances. Que vous soyez passionnés par l’ingénierie, l’électronique, la transition énergétique ou l’intelligence artificielle, ces articles en libre accès vous permettront d’en savoir davantage sur ces sujets.

Voici les articles à découvrir :

 

Pour aller plus loin


Bonne lecture !

Un guide de l’ADEME pour réduire l’impact des centrales solaires sur les sols et la biodiversité

En 2022, les éoliennes et les panneaux photovoltaïques ont généré plus d’électricité que le gaz ou le charbon en Europe. Si cela est incontestablement positif vis-à-vis des émissions de gaz à effet de serre, la nécessaire multiplication des moyens de production d’ENR ne doit pas se faire au détriment de la biodiversité, la crise de la biodiversité étant intimement liée à celle du climat !

La crise de la biodiversité : l’autre défi du siècle

En 150 ans, les activités humaines ont causé la perte de 83 % de la biomasse animale sauvage et 42 % de la biomasse végétale. 1 million d’espèces seraient ainsi menacées d’extinction selon un rapport de l’IPBES[1]. Pour les scientifiques, nous sommes même en train de vivre la 6e extinction de masse de la planète, la 5e étant la fin des dinosaures.

Ces chiffres donnent le vertige et montrent qu’au-delà de la crise climatique, la crise de la biodiversité est au moins tout aussi grave. Les activités humaines étant la cause de ces deux crises, elles sont de fait intimement liées. Il en va de même pour certaines actions d’atténuation et de préservation à mettre en place, car il est tout aussi urgent de décarboner l’économie que de recarboner nos écosystèmes naturels.

Accélérer le développement des ENR sans aggraver l’érosion de la biodiversité : un enjeu de taille !

La loi de transition énergétique pour la croissance verte (LTECV) de 2015 prévoit d’atteindre 40 % de production d’électricité d’origine renouvelable dès 2030 et la loi énergie-climat de 2019 a inscrit l’objectif de neutralité carbone pour 2050.

D’après les scénarios de RTE, de l’ADEME et de NégaWatt, en 2050, les EnR devront assurer entre 50 et 100 % de la production d’électricité, selon les évolutions concernant la part du nucléaire.

Un développement massif des EnR est donc annoncé : en 30 ans, nous devrons multiplier au moins par sept la puissance solaire photovoltaïque installée et multiplier par quatre la puissance éolienne !

S’il est nécessaire, ce « boom » aura indéniablement une incidence sur les sols, les paysages et la biodiversité terrestre comme marine. Le Code de l’environnement prévoit heureusement des garde-fous et notamment la mise en place d’un système de protection stricte des espèces de faune et de flore sauvages. La destruction, la dégradation et l’altération des habitats des espèces figurant sur les listes fixées par arrêté ministériel peuvent ainsi être interdites par la réglementation.

L’objectif est non seulement de maintenir ces espèces dans un état de conservation favorable, mais aussi de rétablir certaines espèces menacées. Lorsque les atteintes à la biodiversité sont inévitables, des mesures de compensation sont alors prévues par la loi, dans une optique de zéro perte nette de biodiversité.

Par ailleurs, dans les années à venir, la réglementation visant à protéger la biodiversité va encore se renforcer. La stratégie nationale pour les aires protégées (SNAP) 2030 prévoit ainsi de déployer des aires protégées sur 30 % du territoire national. 10 % de ces zones seront même classées en protection forte !

Les centrales solaires : quel impact sur les sols et la biodiversité ?

Comme tout projet « artificiel », l’implantation, le démantèlement et le renouvellement de centrales solaires sont susceptibles d’impacter l’environnement. Voici quelques incidences recensées par l’ADEME et l’OFB dans le rapport intitulé « PHOTOVOLTAÏQUE, SOL ET BIODIVERSITÉ – Enjeux et bonnes pratiques ».

Pression sur les sols et la biodiversité

  • Phase de construction : défrichement, terrassement
  • Phase d’exploitation : espaces clos, microclimat, maintenance
  • Phase de démantèlement

Incidences sur le microclimat

  • Sous les panneaux : réduction de la lumière, modification de la température et de l’hygrométrie
  • Au-dessus des panneaux : effet « îlot de chaleur»

Incidences sur les sols

  • Imperméabilisation localisée
  • Modification de la porosité et de l’humidité
  • Modification de l’écoulement
  • Réduction des cycles biologiques (carbone, azote)

Incidences sur la flore

  • Fort impact sur la biodiversité végétale en phase de construction
  • Conditions défavorables sous les panneaux pour les plantes pollinisées par les insectes

Incidences sur la faune sauvage

  • Habitats détruits ou altérés
  • Corridors écologiques fragmentés
  • Déplacement des grands mammifères perturbé à cause des clôtures
  • Ombrage défavorable aux insectes pollinisateurs

Les centrales au sol et les panneaux en toiture sont deux solutions incontournables

En comparaison, les installations sur toiture ne présentent pas les mêmes inconvénients. Puisqu’elles utilisent des surfaces déjà artificialisées, elles présentent des impacts environnementaux bien plus limités et sont donc à privilégier.

En revanche, au regard des objectifs ambitieux fixés par la PPE[2] en matière de production photovoltaïque, le solaire au sol et en toiture sont deux leviers nécessaires pour atteindre la neutralité carbone, d’après les scénarios « Transitions 2050 » S1 et S3 imaginés par l’ADEME.

La construction de centrales au sol est donc nécessaire et les incidences sur l’environnement seront toujours présentes ; c’est pourquoi la loi prévoit la mise en place de mesures d’évitement, de réduction et de compensation des impacts.

Pour éviter les impacts, l’ADEME recommande ainsi de privilégier les sites déjà artificialisés ou dégradés et d’éviter les milieux naturels à fort enjeu de conservation.

Lorsque l’évitement est impossible, les impacts négatifs devront être réduits au maximum, par exemple en contournant les corridors de déplacement de la faune, en réduisant l’ombre portée, en limitant le défrichement, etc.

Enfin, les incidences négatives du projet qui ne peuvent être évitées devront être compensées, notamment en restaurant, réhabilitant ou en créant de nouveaux milieux naturels.

Il existe heureusement des retours d’expérience positifs en matière d’intégration réussie. L’ADEME détaille certains de ces projets à la fin du rapport.

Des projets d’agrivoltaïsme sont également en cours et semblent donner des résultats encourageants, notamment en associant production d’énergie et adaptation des cultures au changement climatique.

Pour approfondir le sujet, nous vous invitons à lire le rapport dans son intégralité.

Une synthèse en vidéo est également disponible.


[1] La Plateforme intergouvernementale scientifique et politique sur la biodiversité et les services écosystémiques est une organisation internationale qui vise à fournir des évaluations scientifiques sur l’état de la biodiversité de la planète et des écosystèmes, dans le but d’informer les décideurs politiques.

[2] Ces objectifs risquent de ne pas pouvoir être atteints, selon le baromètre Observ’ER 2022, pour diverses raisons

ChatGPT et les biais discriminatoires : peut mieux faire !

ChatGPT reconnaît qu’il n’est pas parfait ! Depuis son lancement en novembre 2022, le chatbot de l’entreprise américaine OpenAI est utilisé par de nombreuses entreprises pour différents usages : rédaction de campagnes marketing, d’email, de rapports… mais aussi de développement de logiciels ou de codes malveillants !

Cette solution présente pourtant des limites qu’il convient de connaître : elle n’indique pas ses sources, elle produit des contenus peu personnalisés, les informations ne sont pas toujours fiables…

Mais surtout, ChatGPT et ces modèles d’intelligence artificielle générative (ou GenAI en anglais) ne parviennent pas à représenter avec précision les nuances et les variations des opinions humaines. D’ailleurs, ChatGPT le reconnaît lui-même lorsque nous lui posons cette question :

Questions ChatGPT

 

 

Pour mesurer dans quelle mesure ces modèles reflètent les opinions de divers segments démographiques, OpinionQA (un groupe d’étude menée par Shibani Santurkar, ancien chercheur postdoctoral à Stanford) compare leurs propensions à celles relevées dans les sondages d’opinion.

L’équipe de l’étude s’est notamment appuyée sur les « American Trends Panels » (ATP) de Pew, un sondage d’opinion approfondi qui couvre un large éventail de questions. Or, ces outils de GenAI favorisent encore trop les biais discriminatoires, selon cette étude.

Premièrement, les modèles mis à jour ont été améliorés grâce aux informations recueillies par les entreprises à partir de commentaires humains. Ces personnes classent les compléments de modèle comme « bons » ou « mauvais », ce qui peut entraîner un biais, car leurs jugements, voire ceux de leurs employeurs, peuvent affecter les modèles.

Deuxièmement, les modèles d’IA, élaborés principalement à partir de données en ligne, présentent souvent des biais en faveur des points de vue conservateurs, des classes inférieures ou des personnes moins éduquées. Par contre, les modèles plus récents, qui ont été améliorés grâce à la curation des commentaires humains, présentent souvent des biais en faveur des profils dits « libéraux », bien éduqués et riches.

Enfin, ces chercheurs ont également découvert que les données d’entraînement présentaient une sous-représentation de plusieurs groupes, notamment les mormons, les veuves et les personnes âgées de plus de 65 ans.

« Il y a de nombreuses façons de biaiser un algorithme. Elles sont moins d’ordre informatique ou algorithmique, que statistique. Disposer d’un échantillon représentatif d’une population que l’on veut adresser par un dispositif est très compliqué. Il y a, premièrement, la reproduction de décisions humaines discriminatoires. Le second risque est la sous-représentation de groupes dans une base d’apprentissage », explique Philippe Besse, Professeur à l’INSA (Institut national des sciences appliquées), au Département de Génie Mathématique et Modélisation.

Shibani Santurkar a précisé que l’étude ne catégorisait pas chaque biais comme intrinsèquement bon ou mauvais, mais qu’elle tentait plutôt de sensibiliser les développeurs et les utilisateurs à la présence de ces biais.

« La fabrication additive sert sur plusieurs étapes des projets »

Le programme ReFactory lancé par Renault Group veut faire de l’usine de Flins une usine d’économie circulaire consacrée à la mobilité. Une évolution cohérente avec les ambitions écologiques de la marque au losange, qui veut atteindre la neutralité carbone sur tous ses sites industriels d’ici à 2040.

Younesse Khalil, Responsable du centre d’impression 3D de la ReFactory de Flins, a expliqué aux Techniques de l’Ingénieur en quoi le programme Refactory doit permettre à Renault de développer des projets d’économie circulaire, à travers 4 activités : le prolongement de la durée de vie des véhicules, la production et le stockage des énergies vertes, l’optimisation de la gestion des ressources, et des innovations accessibles plus largement. C’est sur le prolongement de la durée de vie des véhicules que la fabrication additive joue un rôle majeur.

Techniques de l’Ingénieur : Le site de Flins dispose d’outils de fabrication additive. Quelle est leur utilité, pour quelle partie du projet utilise-t-on l’impression 3D ?

Younesse Khalil : Le site de Flins est ouvert pour les différentes entités de Renault Group, des clients et sociétés extérieurs, et tout particulièrement ceux souhaitant imprimer des pièces via la plateforme 3Dexperience. Les outils de fabrication additive disponibles à Flins peuvent servir sur plusieurs étapes des projets.

Sur la phase d’avant-projet, par exemple pour l’impression des pièces prototypes qui serviront à la validation de la géométrie du véhicule, la montabilité sur le véhicule, ou encore le design.

Durant le projet, certaines pièces du véhicule fabriquées en injection plastique nécessitent plusieurs modifications avant la validation finale, et pour éviter des dépenses sur les modifications des moules, les différentes petites séries de pièces tests sont fabriquées en impression 3D, jusqu’à la validation finale. Ensuite, nous lançons la fabrication en injection plastique. Ce type de pièce peut être également une pièce ajoutée au véhicule, non prévue au départ, et qui résout un problème qualité. Cela permet d’être réactif pour satisfaire les clients en attendant la fabrication du moule d’injection.

Par exemple, le service d’impression 3D de Flins fabrique depuis un an un clip de verrouillage de la poignée du Trafic, en attendant le moule d’injection.

Enfin, sur tout ce qui concerne la phase d’après projet, nous travaillons avec le service après-vente pour l’impression de plusieurs pièces différentes (pièces série ou accessoires).

Quels sont les matériaux qui vont être utilisés pour l’impression 3D ? Pour quelles raisons ?

En impression dépôt de fil fondu, nous utilisons différents types de plastiques : PLA, ABS, TPU, ASA, ULTEM, PETG…

En impression frittage de poudre, nous utilisons la poudre de Nylon PA12 (Flins est le seul site qui dispose de la machine HP 5210c qui imprime avec des produits certifiés non CMR).

Ces matériaux sont consommés pour différents usages, selon leurs propriétés. Par exemple, l’ULTEM est un matériau utilisé pour une commande de commutateur pour un client extérieur, car il respecte les normes du ferroviaire et résiste à une température de 173°C.

Le Nylon PA12, lui, est utilisé dans la plupart des pièces d’aspect car il est facile à teinter ou peindre et très solide (une pièce d’aspect de la Alpine A110R est fabriquée à Flins avec ce matériau).

Enfin, le TPU, qui possède des propriétés de flexibilité et utilisé généralement dans les pièces 3D qui servent à protéger les outils de serrage, de rivetage et de montage sur les véhicules pour éviter les dégradations.

Quel est le principal avantage de l’impression 3D ?

L’avantage le plus évident est en termes de gain de temps et de coût de réalisation des pièces. 

L’utilisation de la fabrication additive dans la maintenance des anciens véhicules et la fabrication des nouveaux véhicules va-t-elle se généraliser dans les années à venir ?

Oui effectivement, beaucoup de projets sont en cours sur les accessoires véhicules personnalisables et les pièces de série en 3D.

Protéger les herbiers de posidonies de l’ancrage des bateaux

Les herbiers marins présentent un intérêt certain en termes de stockage du carbone et de développement de la biodiversité. Dans le monde, ils représentent 2 % de la surface totale des océans, mais abriteraient de 4 à 18 % des espèces marines. Ils stockeraient aussi de 3 à 5 fois plus de carbone qu’une forêt tropicale et jusqu’à 7 fois plus qu’une forêt française de feuillus, selon EcoAct, filiale d’Atos, spécialisée en stratégie de décarbonation. Mais « on a perdu environ 10 % de leur surface dans le bassin méditerranéen ces 100 dernières années », partage Jeanne Barreyre, experte des sujets biodiversité chez EcoAct au sein de l’équipe « recherche et innovation ». Et le taux de régression moyen des herbiers de posidonies en France est estimé à 0,29 % par an en moyenne, majoritairement à cause des ancrages de bateaux.

Pour mieux protéger cette espèce, EcoAct s’est associé à Digital Realty, Schneider Electric France et le Parc national des Calanques en mars 2021 pour élaborer la première méthodologie de préservation des herbiers de posidonies en Méditerranée française. Approuvée par la Direction générale de l’Énergie et du Climat (DGEC) du ministère de la Transition écologique et solidaire (MTES) en avril 2023, cette méthodologie permettra la certification de projets en France via le label bas carbone. Et il y a de quoi faire : la Méditerranée française compte 80 000 hectares d’herbiers, réparties dans les régions Sud Provence-Alpes-Côte d’Azur, Occitanie et Corse.

Une réduction jusqu’à 700 000 tonnes d’équivalent CO2 sur 30 ans

« Ce que l’on appelle herbier de posidonies est en fait constitué de deux parties : la plante, elle-même constituée de tiges – ou rhizomes –, de faisceaux, de feuilles et de racines, et la matte, constituée de rhizomes morts, de racines et sédiments », explique Jeanne Barreyre. Les plantes stockent peu de carbone. « C’est cette matte qui stocke le plus de carbone et qu’il faut donc protéger de l’ancrage des bateaux pour assurer la séquestration », poursuit-elle.

Par défaut, EcoAct évalue les stocks de carbone à protéger à 327 tonnes par hectare d’herbiers de posidonies. Pour évaluer le potentiel de réduction associée aux futurs projets, « on a estimé la dégradation due à l’ancrage des bateaux qui a deux effets mécaniques : la régression en surface en arrachant les faisceaux, et la décomposition en profondeur de la matte à force d’ancrer au même endroit », avance Jeanne Barreyre. EcoAct évalue ainsi le potentiel de réduction des émissions carbone sur l’ensemble de la zone méditerranéenne française, grâce à la protection des herbiers face aux ancrages, à 24 000 tonnes équivalent CO2 par an. Cela offre un potentiel global d’environ 700 000 tonnes sur 30 ans, durée des projets à venir.

Un premier projet pour le Parc national des Calanques

La finalisation du premier projet issu de cette méthodologie avec le parc national des Calanques est en cours pour un lancement prévu d’ici 2025. « Nous sommes en train de définir les actions à mettre en place pour protéger les 100 hectares d’herbiers répartis sur les 700 hectares du projet, et définir les coûts de suivi associés sur 30 ans », partage Jeanne Barreyre.

Si les prix habituels de la tonne de carbone associés aux projets du label bas carbone se situent en moyenne à 40 euros la tonne de carbone, il faudra encore attendre un peu pour connaître le prix de la tonne de carbone évitée des futurs projets associés à cette méthodologie. « Le coût dépendra ici fortement de la surface des herbiers à protéger et du coût des actions mises en place pour chaque projet », explique Jeanne Barreyre.

Concrètement, quelle forme prend la protection des herbiers ? La méthodologie propose une liste de projets éligibles. Ces projets comprennent « toute activité qui va limiter l’ancrage, réguler le nombre de bateaux ou leur emplacement », résume Jeanne Barreyre. « Cela peut être l’interdiction d’ancrer, la mise en place de bouées auxquelles s’accrochent les bateaux plutôt que de jeter leurs ancres dans les fonds marins, la mise en place de zones de mouillage et d’équipements légers, ou encore le financement de la surveillance des zones de mouillage. »

Les ambitions du secteur aérien, entre croissance et neutralité carbone

C’est un nouveau record annoncé lors de l’édition 2023 du salon du Bourget. L’avionneur européen Airbus vient d’enregistrer une commande de 500 avions monocouloir A320. Le tout pour un montant de plus de 55 milliards d’euros, record absolu pour une compagnie aérienne. Ces avions, qui doivent être livrés d’ici 2035, viennent illustrer le rebond massif du trafic aérien, après la crise sans précédent due à l’épidémie mondiale de coronavirus.

Ainsi, selon l’organisation européenne pour la sécurité de la navigation aérienne, EUROCONTROL, le trafic aérien européen revient à 83 % de son niveau d’avant COVID en 2022, ce qui constitue une solide reprise, au regard de la faiblesse de la reprise économique, et du conflit actuel entre la Russie et l’Ukraine. Cette croissance profite tout particulièrement aux compagnies low cost, dont le rebond est plus important que pour les compagnies classiques.

Si cette mégacommande concerne des avions volant au kérosène, l’édition 2023 du salon du Bourget, de retour après quatre ans d’absence, fait la part belle à la décarbonation de l’aviation, secteur qui s’est fixé pour ambition la neutralité carbone d’ici à 2050. Airbus, et les avionneurs du monde entier doivent donc mener une montée en cadence des productions d’avions classiques, pour assurer leur croissance économique et l’augmentation prévue du nombre de voyageurs dans les années à venir. Cette augmentation obligera Airbus et Boeing, les deux géants mondiaux, à multiplier par deux leur flotte d’avions dans les dix ans à venir. A côté de cette montée en cadence, il est impératif pour les acteurs du secteur aérien de développer des solutions techniques et technologiques pour limiter l’empreinte de l’aviation – qui représente moins de 3 % des émissions de GES au niveau mondial -, et la rendre nulle pour 2050.

L’hydrogène a moins la cote

Une piste, dont les experts parlent beaucoup à l’occasion du salon du Bourget est la possibilité d’équiper les avions d’une assistance électrique, pour permettre aux appareils d’économiser du carburant, notamment lorsqu’ils sont sur la piste, en attente pour décoller. Cette attente a augmenté, notamment depuis la fin de la crise sanitaire, et les retards obligent les avions à stationner plus longtemps sur les pistes, moteurs en marche. Ces perturbations sont d’ailleurs une source d’inquiétude, car ils pourraient limiter la croissance du trafic dans les années à venir. La cause principale de ces retards à répétition est le manque de personnel dans les aéroports.

Le taxiage électrique, c’est le nom de cette technologie, permettrait d’économiser jusqu’à 5 % de carburant. 

Pour atteindre la neutralité carbone d’ici à 2050, il faudra faire bien plus. Au salon du Bourget, les constructeurs ont présenté de nombreuses innovations qui doivent participer à cette évolution : avion électrique, avion à hydrogène, biocarburants… s’il est compliqué d’imaginer aujourd’hui quelles sont les solutions technologiques qui seront effectivement mises en place à grande échelle pour atteindre la neutralité carbone, il est à noter que l’hydrogène semble moins séduire les avionneurs aujourd’hui. En effet, les contraintes que l’utilisation de cette molécule représente, notamment en termes de capacité des réservoirs, et de stockage à basse température, oblige à repenser totalement les avions actuels. Les avions électriques possèdent de nombreux avantages, mais leur capacité en termes de passagers est réduite. Tout cela conduit vers les biocarburants. Ces derniers ont l’avantage de pouvoir être utilisés sans modifier les avions, s’ils ne dépassent pas 50 % du carburant. Aujourd’hui, l’Europe oblige les avions à voler avec au minimum 1 % de biocarburant dans leurs réservoirs. Ce chiffre devrait passer à 6 % en 2030. Il coûte aussi quatre fois plus cher que le kérosène pour le moment. Une incitation relativement faible donc, pour une technologie qui semble être la seule réellement crédible aujourd’hui, au vu du timing que s’est imposé le secteur aérien pour atteindre la neutralité carbone. Cette solution aurait également le mérite de permettre aux géants de l’aviation de reconvertir l’immense flotte mondiale qu’ils sont en train de constituer. 

Réforme du système financier mondial : un sommet aux enjeux techniques

Les accords de Bretton Woods ont dessiné en 1944 les grandes lignes du système financier international de l’après-Seconde Guerre mondiale. Mais ces accords sont de plus en plus contestés sur leur capacité à s’adapter, notamment au changement climatique, à la fragmentation géopolitique, à la crise de la dette et à l’atteinte des Objectifs de Développement Durable (ODD).

Dans ce contexte, Emmanuel Macron a lancé en novembre 2022, lors de la COP27 en Égypte, une initiative avec la Première ministre de la Barbade Mia Mottley, afin de réformer le système financier mondial. Les 22 et 23 juin à Paris, un premier « Sommet pour un nouveau pacte financier mondial » réunira une centaine de pays, dont une cinquantaine de chefs d’État ou de gouvernement, en dehors des processus formels du G7 ou G20. L’objectif est de parvenir à « construire un nouveau consensus pour un système financier international plus solidaire », indique le programme de l’événement.

Pour un système financier international plus solidaire

Réforme des institutions, restructuration de la dette, affectation de droits de tirage spéciaux, mobilisation accrue du secteur privé, taxes internationales, évolution du modèle des banques multilatérales de développement… Des sujets hautement techniques sont au menu de ce sommet de deux jours au Palais Brongniart.

Friederike Roder, vice-présidente du plaidoyer sur la finance de développement et le climat chez Global Citizen, explique : « Ce sommet est le début d’un processus qui va permettre d’avoir des progrès dans les 18 mois à venir. On espère voir vendredi [23 juin, ndlr] une feuille de route concrète autour de quelques engagements qui permettent d’enclencher cette réforme en profondeur du système, avec des coalitions claires et surtout des échéances pour la mise en œuvre de ces engagements. »

Le minimum : assumer les engagements passés

Les pays développés n’ont toujours pas tenu leur promesse faite en 2009 de mobiliser 100 milliards de dollars chaque année à partir de 2020 pour aider les pays pauvres face au réchauffement climatique. Alors que cette promesse devrait se concrétiser cette année, le rapport Stern – Songwe, présenté à la COP27, a montré que les pays en développement – hors Chine – devront dépenser 2 400 milliards de dollars chaque année pour lutter contre le changement climatique d’ici 2030. Il souligne la nécessité de mobiliser 1 000 milliards de dollars chaque année via des investisseurs extérieurs, en provenance des pays développés et d’institutions multilatérales. Ce sommet devra aboutir à une nouvelle feuille de route pour la finance climatique afin de mobiliser des investissements extérieurs à la hauteur de ces enjeux.

Par ailleurs, en août 2021, le Fonds monétaire international (FMI) a alloué environ 590 milliards d’euros de droits de tirages spéciaux (DTS), pour aider les gouvernements à faire face aux conséquences économiques de la pandémie de Covid-19. Alors que ces DTS ont été distribués de manière disproportionnée aux pays les plus riches, les pays du G20 se sont engagés à « réallouer » l’équivalent de 100 milliards de dollars en DTS aux pays les plus vulnérables. La mobilisation de ces DTS nécessite de passer par deux fonds du FMI. Mais ceux-ci restent sous-dimensionnés pour gérer les besoins. « Il faut des solutions techniques pour que les banques multilatérales de développement puissent aussi réallouer », défend Martin Kessler, directeur exécutif du Finance for Development Lab de la Paris School of Economics.

Assumer davantage le risque financier

Afin de trouver de nouveaux financements, plusieurs pistes sont sur la table. Alors que le système financier reste asservi au risque, la première piste concrète vise à réformer les banques multilatérales de développement. Ce sommet doit permettre de « transformer le rôle des banques de développement en cadre de garantie pour attirer le capital privé », partage Laurence Tubiana, directrice générale de la Fondation Européenne pour le Climat. C’est tout le système qui doit « accepter collectivement de supporter plus de risques », souligne-t-elle.

« Il faut que toutes les banques multilatérales contribuent à ce processus et se donnent un objectif financier, estime pour sa part Friederike Roder. En retour, les pays comme les États-Unis, la France, l’Allemagne et le Japon devraient leur assurer de les recapitaliser, donc leur donner des financements additionnels. »

Faire face aux multiples crises et à la dette

Suite à la pandémie de Covid-19, la dette publique pèse de plus en plus sur les budgets des pays en développement. Un tiers des pays en développement et deux tiers des pays à faible revenu présentent désormais un risque élevé de surendettement. En même temps, les pays les plus pauvres ont de plus en plus besoin de financer l’adaptation au changement climatique. « Les pays en développement se trouvent confrontés à un problème d’assèchement de leur capacité d’emprunt international avec des taux d’intérêt qui augmentent, partage Laurence Tubiana. Au moins 53 sont en risque de défaut de paiement de leur dette. »

En conséquence, les pays épuisent leurs sources de flexibilité. « Puiser dans les réserves de change, emprunter dans le marché domestique, emprunter à la banque centrale, se tourner vers le FMI », voici un panorama d’outils à leur disposition, énumère Martin Kessler. Le sommet devra trouver des solutions pour permettre de nouveaux financements avec des taux d’intérêt plus faibles, par exemple auprès de la Banque mondiale.

Pour que la dette ne soit pas un frein à la résilience, l’idée de suspendre le paiement de la dette en cas de catastrophe naturelle fait aussi son chemin. « En cas d’un ouragan ou d’une nouvelle pandémie, les pays pourraient suspendre les paiements de dette pendant deux ans pour avoir un peu plus de liquidités pour répondre aux chocs externes à la crise », résume Friederike Roder. Une mesure très concrète qui pourrait être reprise par la Banque mondiale.

Une question de taxe internationale

Enfin, la question des taxes internationales solidaires revient à la table des négociations. En particulier, une taxe internationale sur les émissions de carbone de l’industrie du transport maritime pourrait enfin voir le jour. « Il faut une impulsion politique d’un grand nombre de leaders en faveur de cette taxe, et pour qu’une grande partie des recettes de cette taxe aille vers les pays vulnérables », prévient Friederike Roder. Œuvrant sur les eaux internationales, ce secteur reste exempt de taxation sur ses émissions, mais aussi sur ses revenus. « Beaucoup de ces entreprises sont installées dans des paradis fiscaux », relève en effet Laurence Tubiana.

Quels matériaux pour l’impression composite 3D ?

La définition des matériaux composites – un mélange d’au moins deux éléments – est très large et offre toute une panoplie de matériaux à usage industriel, développés depuis des dizaines d’années. Longtemps, trois matériaux plastiques aux propriétés différentes ont été utilisés, en fonction des modèles d’imprimantes 3D développées : La résine, le polyamide et l’ABS (acrylonitrile butadiène styrène).

Aujourd’hui, de plus en plus, des matières plastiques sont mélangées à des fibres, afin d’obtenir des matériaux composites possédant, entre autres, des propriétés de résistance, si besoin localisées sur certaines parties de la pièce à fabriquer. 

Les fibres aujourd’hui utilisées pour mettre au point ces matériaux composites sont les fibres de carbone, les plus populaires, et les fibres de verre ou de Kevlar. L’utilisation de fibres courtes, s’intégrant dans l’ensemble de la pièce à fabriquer, est aujourd’hui la plus répandue. Principalement parce que ce type de matériau est compatible avec de nombreuses imprimantes 3D. L’usage des fibres longues a son avantage : en effet, ces dernières sont placées sur la pièce pendant le processus d’impression, et il est donc possible de les répartir de manière hétérogène, pour renforcer en particulier certaines parties de la pièce. Les plus sensibles aux chocs.

L’usage massif de la fibre de carbone pour les plastiques composites résulte aussi de son coût de fabrication relativement faible, et de ses propriétés de rigidité, de résistance à la traction et de résistance chimique. 

La fibre de verre permet de fabriquer des matériaux composites à la fois moins rigides et moins cassants que les composites en fibre de carbone. Ils sont également moins chers. La fibre de verre est également un bon isolant électrique. Elle se caractérise par une faible conductivité thermique, et possède des propriétés mécaniques. Il est de plus en plus répandu, dans de nombreux domaines, celui de la construction en tête.

Le kevlar va de son côté offrir au matériau composite une forte résistance aux vibrations et à l’abrasion. Il est cinq fois plus résistant que l’acier tout en étant plus léger. La fibre de kevlar va trouver des applications dans de nombreux domaines industriels, en tout premier lieu de celui de l’automobile. 

Cet alliage entre plastiques et fibres permet d’apporter une réponse à ce qui était jusqu’alors le point faible des thermoplastiques utilisés pour l’impression 3D, à savoir un point de fusion bas et une faible résistance. 

Il est également possible d’obtenir des matériaux composites sans fibre, en utilisant une matrice chargée de particules. Les matrices correspondantes peuvent alors être à base de métal ou de plastique, par exemple. Le béton est un matériau composite à base de granulats, assimilables à des particules.

Les matrices plastiques utilisées pour fabriquer les matériaux composites voient par ce procédé leur résistance s’améliorer et leur poids diminuer.

Le PLA, le PETG, le nylon, l’ABS ou bien le polycarbonate sont aujourd’hui utilisés en majorité. Le PLA, de par sa compatibilité avec un grand nombre de gammes d’imprimantes 3D, est très utilisé par les industriels. 

Enfin, des matériaux composites innovants sont développés, à base de particules ou de fibres jusqu’alors peu ou pas utilisées avec des imprimantes 3D. Ces nouveaux composites permettent aux industriels, notamment, de proposer des finitions esthétiques variées, et des gammes de produits imprimés en 3D plus diversifiés et à plus haute valeur ajoutée. 

La matrice plastique peut ainsi être chargée en fibres ou particules de bois, par exemple, pour l’aspect esthétique. Il en va de même avec les charges de particules phosphorescentes, qui donnent à la pièce fabriquée un aspect lumineux dans le noir.

On le voit, la diversité des matériaux composites développés pour l’impression 3D permet aux industriels de disposer de toute une gamme de matériaux, dont la solidité et la légèreté peut varier, selon les matrices choisies, en fonction de la pièce à fabriquer. 

Un capteur de covoiturage qui compte plus précisément les personnes

Le développement de voies réservées au covoiturage conduit à la nécessité de connaître le nombre de covoitureurs présents dans les véhicules afin de crédibiliser ce type d’aménagement routier. Or, les outils de mesure actuellement développés pour compter ces occupants manquent de précision. Le taux de fausses détections, que l’on appelle communément les faux positifs et qui correspond aux cas où le système sous compte le nombre de personnes dans l’habitacle est en effet trop élevé et se chiffre entre 1 et 5 %. Ces appareils ne peuvent donc pas être utilisés pour procéder à du contrôle automatique, tout en veillant à limiter le nombre de recours des automobilistes, injustement verbalisés. Le Cerema a testé un nouveau système qui semble surmonter cette difficulté.

Il s’agit d’un capteur développé par l’entreprise Invision AI, basée au Canada, en partenariat avec la société Equans. Il fonctionne à l’aide d’une caméra et de deux flashs qui délivrent une lumière dans le spectre de l’infrarouge proche, chacun de ces équipements étant déclenché grâce à un Lidar. Le système a fait l’objet d’une première expérimentation sur la rocade Est de Lyon en novembre et décembre 2022, où le trafic est estimé à 100 000 véhicules par jour. La méthodologie mise en œuvre par le Cerema a consisté à comparer les résultats de ce nouveau système, avec l’analyse des images prises par ce même appareil et réalisée par deux opérateurs de cet établissement public, qui comptent les occupants présents dans l’habitacle.

Le capteur de covoiturage testé sur la rocade Est de Lyon
Le capteur de covoiturage testé sur la rocade Est de Lyon. Crédit : Cerema/Invision AI/Equans

« Le taux de visibilité, qui représente le nombre d’occupants que l’on peut compter avec certitude, a nettement augmenté avec ce nouveau capteur puisqu’il s’élève à 83 %, alors que les précédents outils que nous avons testés avaient des taux compris entre 70 et 75 %, révèle Alexis Bacelar, chef de projet au Cerema et en charge de cette expérimentation. Mais le résultat le plus important est celui des faux positifs qui se limitent ici à 0,4 %. Ce chiffre correspond aux véhicules classés comme autosolistes alors qu’ils étaient en réalité des covoitureurs. Normalement, pour homologuer un outil utilisé pour procéder à du contrôle, les faux positifs doivent tendre vers zéro, ou en tout cas être inférieurs à 1 %. Pour information, le taux de faux négatif, qui correspond aux véhicules classés covoitureurs, alors qu’ils sont en réalité autosolistes, s’élève quant à lui à 1,7 %. »

Des algorithmes d’IA spécifiques développés pour lire les images

Pour atteindre ce niveau de performance, Invision AI a procédé à plusieurs innovations. Alors que la plupart des autres systèmes fonctionnent avec deux caméras, la première pour compter les personnes sur les sièges avant, et la seconde, sur ceux situés à arrière, l’entreprise a fait le choix de ne conserver qu’une seule caméra pour simplifier son système. Ensuite, elle a testé plusieurs caméras et en a sélectionné une, puis a demandé au fabricant de procéder à des modifications des paramètres de son appareil. La société a procédé à la même méthodologie concernant les deux flashs lumineux utilisés. L’entreprise a breveté son système, mais ne souhaite pas dévoiler les noms des fabricants qu’elle a sélectionnés pour des raisons de secret industriel.

«En plus de l’aspect matériel, ce qui nous distingue, c’est que nous sommes experts en intelligence artificielle, explique Karim Ali, fondateur et CEO de Invision AI. Nous développons nos propres algorithmes, grâce à la présence de plusieurs docteurs de l’EPFL (École polytechnique fédérale de Lausanne). Nous avons réalisé beaucoup d’itération pour connaître notamment quelle est la puissance du flash à envoyer, le temps d’exposition, la géométrie du système, l’angle de la caméra… Le problème est complexe, car il y a un très grand nombre de variables à évaluer, et elles sont toutes entremêlées les unes avec les autres. Nous avons développé un outil de simulation numérique pour les tester, avant de procéder à des essais sur le terrain. Notre système fonctionne avec un réseau de neurones et peut réaliser de la fusion d’information. Par exemple, il est capable de sélectionner 5 à 10 images et évaluer que sur la sixième, il voit mieux les passagers sur le siège arrière d’une voiture. »

Ce nouveau système a fait l’objet d’une seconde période d’expérimentation au printemps. Cette fois-ci, le taux de faux positifs s’est un peu dégradé et tend vers 1 %. « Les résultats sont en cours d’analyse, mais il se pourrait que ce soit lié au soleil qui tape dans les vitres et qui rend difficile la lecture des images », confie Alexis Bacelar. « Avec les vitres teintées, le soleil est la principale contrainte qui complique le comptage du nombre de personnes dans les voitures. Grâce à l’expérimentation du Cerema, nous allons continuer à améliorer notre système », déclare Karim Ali.

OSO-AI : Une «oreille augmentée» pour alléger la charge mentale des soignants

Mise au point aux côtés de Claude Berrou – membre de l’Académie des sciences et inventeur, notamment, des turbocodes – par trois ingénieurs amis d’enfance, l’Oreille Augmentée des Soignants d’OSO-AI permet d’alerter en temps réel les personnels soignants d’une situation d’urgence vécue par l’un de leurs patients, et ce simplement grâce à l’analyse de l’ambiance sonore de sa chambre. Capable de déceler de manière intelligente des évènements ponctuels tels que des cris, des gémissements ou encore des vomissements, la solution permet aussi de suivre des situations inscrites dans un temps plus long, telles que le sommeil. De quoi alléger le travail de rondes systématiques auquel sont contraints les soignants, et d’accroître ainsi le temps de soin passé auprès de chaque patient, comme nous l’explique Philippe Roguedas, co-fondateur et directeur des opérations d’OSO-AI.

Techniques de l’Ingénieur : Qu’est-ce qui vous a conduit à co-fonder OSO-AI ? Quelles ont été les principales étapes franchies depuis sa création ?

Philippe ROGUEDAS-OSO AI
Directeur des opérations d’OSO-AI, Philippe Roguedas a co-fondé l’entreprise avec deux amis d’enfance, Gilles Debunne et Olivier Menut, tous trois accompagnés du chercheur Claude Berrou. © OSO-AI

Philippe Roguedas : OSO-AI a été co-fondée par quatre associés, parmi lesquels trois vieux copains d’école : Gilles Debunne, Olivier Menut et moi-même. Nous nous connaissions depuis une trentaine d’années, et nous avions pour autre point commun d’avoir été expatriés un temps aux États-Unis dans le cadre de nos emplois respectifs. Cela a certainement contribué à nous donner l’envie de devenir entrepreneurs. Ce désir s’est finalement cristallisé autour du dialogue que nous avons engagé avec un enseignant-chercheur à l’IMT Atlantique : Monsieur Claude Berrou, une sommité brestoise ! Membre de l’Académie des sciences, il est l’inventeur des turbocodes, lauréat du Prix Marconi… et il a consacré ces dix dernières années à des travaux de recherche sur l’intelligence artificielle, notamment la reconnaissance intelligente des sons.

Ensemble, nous avons pris conscience de l’immensité des informations véhiculées par le son. Nous avons donc imaginé créer une entreprise autour de ce constat de base.

Rapidement, nous sommes arrivés à la conclusion que l’analyse des bruits était au centre des pratiques d’une catégorie de professionnels en particulier : les soignants. Dans les établissements sanitaires ou médico-sociaux, ces professionnels déclenchent bien souvent leurs interventions parce qu’ils ont entendu un bruit suspect dans une chambre. C’est donc ce point de départ qui a motivé la création d’OSO-AI fin 2018.

Début 2019, nous avons commencé à expérimenter dans des EHPAD ce que pourrait être le service que nous envisagions de rendre. L’objectif était tout d’abord de parvenir à comprendre les sons utiles à l’accompagnement, la prise en charge des personnes. Il nous fallait aussi trouver le bon moyen de transmettre cette information en temps réel aux soignants. Nous avons ainsi développé un petit boîtier, que nous avons baptisé « l’Oreille augmentée des soignants ».

En 2020, nous avons levé quatre millions d’euros grâce à trois fonds d’investissement, dont le fonds de co-investissement de la Région Bretagne. En 2021, nous avons commencé à déployer notre solution dans des structures d’accueil de personnes en situation de handicap : maisons d’accueil spécialisé (MAS) et foyers d’accueil médicalisé (FAM). Ces établissements sont en effet souvent confrontés aux mêmes problématiques que les EHPAD, notamment une insuffisance du nombre de soignants à même de détecter les situations de détresse : chutes, cris, gémissements, vomissements, étouffement, intrusions… Toutes ces situations génèrent du bruit, nous avons donc appris au cours de cette période d’expérimentation à les reconnaître pour fournir des alertes très qualifiées aux soignants. Nous avons aussi développé des capacités de compréhension de certains mots-clés, qui seront complétées à terme par l’analyse de ce qui n’est pas verbalisé, tel que le stress dans la voix.

Plus récemment, en 2022, nous avons obtenu plusieurs reconnaissances. Nous sommes par exemple cités dans le Plan antichute du ministère de la Santé. Nous avons également été lauréats d’appels à projets nationaux, qui nous ont permis de mettre en place des études d’impacts visant notamment à démontrer les bénéfices de notre solution pour les soignants.

Soignante smartphone OSO
Une fois analysée, l’information est transmise aux soignants sur un smartphone, sous forme de SMS en cas d’alerte ponctuelle, ou d’icône pérenne, pour le suivi de situations au long cours, telles que le sommeil. © OSO-AI

Quels sont justement les intérêts majeurs de votre solution ?

L’hypervigilance est une cause importante de la charge mentale de ces professionnels du soin, qui doivent en permanence tendre l’oreille. Le dispositif que nous avons mis au point fournit une information automatiquement mise à leur disposition, au contraire de « l’appel-malade » traditionnel, qui requiert quant à lui un appui sur un bouton. Cela est bien souvent impossible, notamment en EHPAD, avec des personnes souffrant de difficultés cognitives ou physiques. Les soignants sont donc contraints à des rondes aléatoires et systématiques, qui vampirisent une grande partie de leur temps. Nous sommes ainsi venus inverser cette situation, en proposant une information beaucoup plus automatique et systématique, qui permet de libérer du temps de soin. Nous fournissons également des informations en lien avec les activités des résidents, en particulier sur le sommeil. Cela représente un gros enjeu.

Très concrètement, ces informations sont fournies d’une façon très spécifique : les soignants se voient remettre un smartphone, qui va leur permettre de recevoir l’information en continu. Pour le sommeil, par exemple, cette information est fournie sous forme d’icône. En cas d’incident, le soignant reçoit cette fois une alerte au format SMS, message qui se veut descriptif : il indique s’il s’agit de cris, de gémissements, d’étouffement… Le soignant peut ainsi, d’un simple coup d’œil et à distance, évaluer ce qui se passe. C’est une différence majeure par rapport à l’appel-malade traditionnel.

Nous permettons également au soignant d’écouter un petit segment de son en cas de situation d’urgence. Ce type d’alerte est le seul moment ou un extrait sonore est enregistré et transmis à l’extérieur de la chambre. Le son fourni à ce moment-là permet aux soignants de bien cerner l’ampleur et le degré d’urgence de la situation. Il s’agit d’un vrai game-changer dans le travail du soignant. Cela lui permet en effet de réagir de manière proportionnée face au besoin exprimé.

Comment êtes-vous parvenus à mettre au point cette solution ?

Nous sommes partis du constat très simple que nous avions besoin de data pour nourrir nos algorithmes d’intelligence artificielle. Nous avons donc mis en place les expérimentations que j’évoquais, avec le soutien de la Région Bretagne et de Bpifrance, notamment, et celui du CHU de Brest, qui nous a ouvert les portes de quatre établissements. Nous avons ainsi pu y constituer notre base de données unique au monde portant sur l’environnement sonore de personnes fragiles. Le temps passé dans ces établissements nous a aussi permis de bien comprendre chacune des situations qui peuvent se présenter, et de les « étiqueter » : nous avons constitué une équipe interne de data-labeler, des gens – beaucoup d’anciens soignants – dont le métier consiste à mettre des étiquettes sur chacun des sons d’intérêt permettant de nourrir nos algorithmes.

Nous avons par ailleurs constitué une infrastructure robuste à plusieurs titres : au niveau de la sécurité, mais aussi dans sa capacité à déployer facilement des mises à jour. Nous savons en effet que les capacités de reconnaissance de notre dispositif sont vouées à s’améliorer en continu.

Très concrètement, comment déployez-vous cette solution au sein des établissements de soins ?

detecteur chute oso-ai
Simplement collé au mur de la chambre d’un patient, le boîtier compact sur lequel repose la solution d’OSO-AI ne nécessite qu’un branchement à une prise électrique et une connexion wifi pour entrer en action. © OSO-AI

L’infrastructure est extrêmement légère : elle est basée sur un boîtier à peine plus grand qu’un paquet de cigarettes. Installé dans chacune des chambres, il est simplement collé sur le mur, branché sur une prise électrique et connecté au wifi. L’information est en effet essentiellement traitée à distance, sur nos serveurs, puis envoyée après traitement sur les smartphones remis aux soignants. Notre objectif, depuis nos débuts, était de développer un dispositif facile à déployer et sans aucun réglage pour les soignants.

Nous avons par ailleurs construit des algorithmes d’IA capables de s’adapter à la vie de chaque patient et à son environnement : l’un des enjeux est de rester parcimonieux dans le nombre d’alertes envoyées ; il faut éviter les faux positifs.

Outre les établissements de soins collectifs, votre solution peut-elle être déployée directement au domicile d’un patient ?

Tout à fait. Nous sommes présents dans les domiciles depuis 2021 et il s’agit de l’une des directions que nous poursuivons aujourd’hui. Nous travaillons notamment avec des dispositifs appelés « EHPAD hors les murs ». Il existe de plus en plus de structures de ce type. Un vrai maillage du territoire est en train de se développer.

Quelle importance la protection de la vie privée et des données personnelles revêt-elle pour vous ?

Il s’agit d’un sujet majeur, que nous traitons avec toute l’attention qu’il mérite. Un des premiers garde-fous que nous avons mis en place repose ainsi sur un principe simple : nous n’avons jamais accès au nom des personnes. L’information est d’autre part traitée de manière entièrement automatique, à la volée, sans enregistrement, sauf dans les situations d’urgence que j’évoquais, où seul un petit fragment est transmis aux soignants.

À quelle échelle votre solution est-elle actuellement déployée ?

Nous avons équipé, pour l’heure, un millier de chambres environ. Nous comptons tripler ce chiffre au cours de l’année. Nous commençons vraiment à faire parler de nous. Nous avons ainsi annoncé récemment une levée de fonds de 10 M€. Cela va nous permettre d’étoffer notre équipe – nous sommes une trentaine et souhaitons doubler nos effectifs d’ici 12 mois –, mais aussi d’étendre notre développement à d’autres univers, tels que le domicile, que j’évoquais, ou encore à la pédiatrie, la pneumologie et la psychiatrie, des univers dans lesquels les bruits sont particulièrement riches en informations, y compris en termes de suivi de l’évolution dans le temps. Nous ne nous concentrons pas que sur l’analyse de bruits ponctuels.

Pour tout cela, nous pouvons compter sur des partenaires fidèles : nous continuons à entretenir des liens privilégiés avec l’IMT Atlantique – où OSO-AI a été incubée et où Claude Berrou a fait sa carrière – mais aussi d’autres partenaires régionaux – la Région Bretagne, le CHU de Brest… –, des acteurs tels que le groupe VYV, mais aussi Bpifrance qui nous a apporté de précieux financements.

Lineup Ocean : la résilience côtière, inspirée par la nature

À l’échelle mondiale, près de 25 % des plages sableuses se révèlent menacées par le risque d’érosion côtière, alors que 50 % des côtes sont par ailleurs soumises au risque de submersion marine, menaçant ainsi directement plus de 600 millions de personnes. L’heure est donc à l’installation de dispositifs de protection : épis, digues, brise-lames, atténuateur de houle. Une tendance qui ne va toutefois pas sans causer de dommages collatéraux sur les écosystèmes côtiers… Et lorsqu’il n’est pas correctement conçu ou dimensionné, le remède peut même se révéler pire que le mal, en accentuant les phénomènes de dégradation du littoral qu’il est censé contrer.

Pour y remédier, l’ingénieur en océanographie, écologie et gestion de la biodiversité Robin Alauze s’est attelé depuis 2017 au développement d’une solution plus vertueuse, basée sur la nature, avec l’appui académique de l’Université de Montpellier et de son label I-Site Muse.

Pour permettre à cette volonté de se concrétiser, ce passionné de surf a ainsi fondé l’an dernier Lineup Ocean. Actuel président et chef de projets R&D de la jeune entreprise, Robin Alauze nous en retrace la genèse, revient sur les principales étapes déjà franchies, et nous décrit le travail restant à accomplir avant d’aboutir à un déploiement à grande échelle de cette solution.

Techniques de l’Ingénieur : Comment votre parcours vous a-t-il mené à la création de Lineup Ocean ?

lineup © Thierry Montech
Ingénieur en océanographie, écologie et gestion de la biodiversité, Robin Alauze est fondateur, président et chef de projets R&D de la jeune pousse montpelliéraine Lineup Ocean. © Thierry Montech

Robin Alauze : La genèse de l’entreprise est en effet en grande partie liée à mon parcours universitaire : je suis, au départ, océanographe en physique du littoral. Je m’intéresse donc depuis longtemps aux risques qui y sont associés : l’érosion côtière, la submersion marine… J’ai eu l’occasion de réaliser des travaux de recherche fondamentale sur les processus qui sont impliqués dans ces phénomènes et leurs impacts. À la sortie de mon master est née en moi une volonté de développer des solutions durables d’aménagement du trait de côte, avec, en plus, une dimension écologique. Des solutions existaient en effet depuis des décennies – digues, épis, brise-lames, atténuateurs en géotextile… – mais leur efficacité se heurtait à des limites en matière écologique et océanographique. Certaines d’entre elles pouvaient même être à l’origine d’une aggravation des risques à certains endroits. En cas de sous- ou de surdimensionnement par exemple, ces ouvrages peuvent en effet bloquer les flux hydro-sédimentaires, et donc conduire à une dégradation de la plage.

Je me suis par la suite formé dans le domaine de l’écologie marine, en me lançant dans un second parcours universitaire. J’ai aussi entamé une formation en entrepreneuriat. Je suis sorti de ces années de cursus complémentaire avec une idée d’entreprise très précise, mais aussi et surtout avec une solution scientifique qui, sur le papier, méritait d’être creusée.

Après plusieurs années de travail, j’ai fini par me tourner de nouveau vers les laboratoires de recherche que je connaissais, qui travaillaient sur le sujet des NBS, les « nature based solutions », ou « solutions basées sur la nature ». Il existe plusieurs niveaux dans ce type de solution. Celle que nous développons se situe au niveau le plus élevé. Nous avons en effet cherché à recréer un écosystème tout en délivrant des services écosystémiques ciblés et donc maximisés en termes d’efficacité.

Grâce à ces liens noués avec le milieu universitaire, nous avons tout d’abord pu monter un dossier de candidature pour un appel à projets porté par l’Université de Montpellier dans le cadre du label I-Site MUSE (Montpellier Université d’Excellence). Lineup Ocean en a été lauréat et cela nous a véritablement permis de faire un bond : nous sommes passés d’un TRL[1] 3 à 5. Nous avons ainsi abouti, aujourd’hui, à des prototypes de solutions qui sont en cours de caractérisation en mer.

Nous avons par ailleurs été lauréats, en 2022, d’un autre appel à projets – « Avenir littoral » – lancé dans le cadre du Plan Littoral 21. Notre projet baptisé Surfreef a ainsi pu voir le jour grâce au cofinancement de l’État et de la Région Occitanie, avec, en outre, une labellisation par le Pôle Mer Méditerranée, un gage de sa qualité méthodologique. Nous avons par ailleurs en partie auto-financé Surfreef pour parvenir à un total de près de 310 000 €… Cette somme nous a ainsi permis de réaliser les étapes d’études et de recherche industrielle visant à concevoir à l’échelle industrielle un dispositif écologique d’atténuation de la houle, qui verra très prochainement le jour à Palavas-les-Flots.

Nous n’avons qu’une année d’existence, mais nous générons déjà du CA grâce à la réalisation d’études. Nous adoptons pour cela une méthodologie très précise, basée sur différents outils d’analyse innovants – drones, caméras haute-fréquence, modélisation océanographique… – qui nous permettent de caractériser nos sites d’étude. Nous comptons mettre à profit cette expertise également après le déploiement de nos premiers modules, afin de caractériser les performances de nos futurs sites. Il est aussi essentiel de pouvoir mettre en place des plans de gestion assurant la pérennité des projets, en partenariat avec tous les acteurs locaux.

La structure des modules imaginés par Lineup Ocean permet, outre l’atténuation des risques côtiers, le développement d’une vie marine riche.
La structure des modules imaginés par Lineup Ocean permet, outre l’atténuation des risques côtiers, le développement d’une vie marine riche. © Lineup Ocean

Comment, très concrètement, ce « dispositif écologique d’atténuation de la houle » se présente-t-il ? Et comment prévoyez-vous de le fabriquer ?

Ce dispositif est composé d’un assemblage de modules unitaires. Ces modules sont comparables à ce que l’on appelait auparavant des récifs artificiels. Ils reposent sur le même principe de base, mais sont de nouvelle génération. Ils bénéficient en effet d’un haut degré d’écoconception et sont bioinspirés. Nous avons puisé notre inspiration de petits fonds côtiers naturels qui rendent, tout aussi naturellement, des services écosystémiques et de régulation des risques côtiers. De par leur architecture, ces structures permettent d’atténuer l’énergie des vagues tout en servant d’habitat pour des espèces marines. Nous avons créé une forme hybride, qui s’inspire de l’enchevêtrement des racines de palétuviers (mangroves), des herbiers marins… mais aussi de la rugosité des platiers rocheux. Cette forme hybride peut par ailleurs être fabriquée par impression 3D. Elle est déjà optimisée topologiquement, mais pourra être améliorée par itérations, suite aux retours d’expérience que nous aurons in situ.

Nous menons une démarche d’optimisation continue, qui porte à la fois sur le maillage 3D des modules, et sur la manière dont on assemble ces modules entre eux, sur leur forme macroscopique et sur leur positionnement par rapport à la plage. Cela nous permet d’imaginer des systèmes à grande échelle dont la forme macroscopique serait elle-même inspirée d’écosystèmes plus conséquents, tels que des barrières coralliennes ou des bancs de sable. Nous parlons donc de bio-inspiration multi-échelles : cela va de la maille du module jusqu’à l’échelle macroscopique du dispositif et permet d’atteindre une forme efficiente tant pour l’atténuation des risques que pour le développement de la vie marine ou des pratiques liées aux vagues et aux écosystèmes marins. Nos dispositifs servent en effet aussi de supports à des activités éco-touristiques comme la plongée, le snorkeling ou le surf.

En ce qui concerne la fabrication et les matériaux, nous formulons nous-mêmes notre propre matériau : un béton à ultra-hautes performances, ou « BUHP ». Nous sommes encore en phase de développement sur cet aspect, mais ce béton devrait être extrêmement « marinisé » ; il aura des capacités biogéniques importantes et sera très intégré à son environnement. Il sera, d’autre part, adapté à l’impression 3D à grande échelle. Nos modules seront en effet fabriqués via cette approche d’impression tridimensionnelle, à l’aide de techniques matures, mais aussi, pourquoi pas, de solutions innovantes qui nous permettraient de renforcer un peu plus encore notre parti pris biomimétique.

Vous évoquiez votre projet de déploiement d’un dispositif pilote à Palavas-les-Flots, « Surfreef »… Pouvez-vous nous en dire plus sur ce projet : les étapes déjà franchies, celles qui restent à accomplir, et les résultats que vous espérez obtenir ?

La fin de la première phase de ce projet, qui porte sur la conception du dispositif, est prévue pour avril 2024. La production et la mise à l’eau devraient donc se faire à l’horizon 2024-2025.

Avec ce projet, nous cherchons à obtenir un réensablement direct de la plage, tout en limitant les niveaux de submersion marine et en améliorant l’état écologique du site. Nous espérons également améliorer le potentiel du site en matière de pratique du surf.

SURFREEF
La fabrication et l’immersion du dispositif-pilote en cours de conception dans le cadre du projet Surfreef devraient avoir lieu à l’horizon 2024 – 2025. (Vue d’artiste) © Lineup Ocean

Au-delà de ce projet en particulier, quelles sont vos ambitions en matière de développement commercial et de déploiement de votre solution ?

Nous développons nos modules avant tout à des fins de protection côtière, avec une approche très systémique, mais nous visons également d’autres applications, telles que la création de sentiers sous-marins ou d’écomusées subaquatiques, ou encore la protection d’infrastructures côtières, portuaires et offshore. Nous développons, pour ces marchés connexes, d’autres types de modules, basés sur la même approche bio-inspirée, éco-conçue et optimisée. Nous avons donc un prévisionnel de ventes assez réjouissant pour la fin d’année et pour l’année prochaine.

lineup ocean
Lineup Ocean peut aujourd’hui notamment compter sur l’expertise de huit ingénieurs et espère recruter cinq autres personnes d’ici l’année prochaine. © Thierry Montech

Nous avons déjà plusieurs projets en cours, en plus de projets de R&D interne. Le marché est de taille mondiale, avec des dizaines de collectivités confrontées aux enjeux auxquels nos dispositifs permettent de répondre. Le potentiel est très important. Cela est de bon augure : cela montre que l’écoconception prend petit à petit une place prédominante dans les projets liés aux infrastructures côtières, maritimes et portuaires. L’avenir semble s’orienter vers le rétablissement d’une harmonie avec la nature.

Nous avons par ailleurs le double statut de Jeune entreprise innovante, et de Société à mission. Nous avons ainsi intégré des engagements forts dans nos statuts juridiques et nous nous efforçons de les respecter au travers de notre travail et de nos projets. Cela passe par exemple par des approvisionnements en matières premières et une production de proximité, par une transparence sur les résultats obtenus, ou encore par des messages de sensibilisation aux enjeux côtiers. Nous sommes convaincus qu’il est nécessaire de sensibiliser la population pour appuyer les politiques publiques. Nos dispositifs ne sont pas des solutions miracles, mais devraient apporter leur pierre à l’édifice qu’est la construction d’une société littorale plus résiliente.


[1] Technology readiness level, niveau de maturité technologique.

Hystories balise les capacités du stockage souterrain d’hydrogène

Le futur rôle de l’hydrogène dans le système énergétique européen est encore à écrire, tant les défis sont nombreux pour assurer sa production décarbonée à grande échelle. Sa compétitivité économique, son transport, son usage et son stockage sécurisés posent tout autant de questions. Sur ce dernier point, un aspect mérite des études approfondies : le stockage souterrain qui sera probablement incontournable pour gérer de très grandes quantités d’hydrogène. Plusieurs programmes de recherche ont été lancés à ce sujet comme Hystories, dont la conférence finale s’est tenue fin mai à Paris. Ce projet ouvre la voie à une meilleure compréhension technique des phénomènes en jeu, ainsi que des conditions réglementaires, sociales et environnementales dans lesquelles le stockage souterrain d’hydrogène en milieu poreux serait possible.

Le potentiel des roches poreuses estimé pour la première fois

Hystories est un projet de recherche européen démarré début 2021, coordonné par Geostock. Il a réuni un consortium de 7 partenaires dont le réseau GeoNet qui regroupe à lui seul 17 instituts de recherche ou services géologiques. Un conseil consultatif regroupant 13 entreprises comme Vallourec, Téréga, Uniper, Storengy ou Fluxys, a permis de corréler les travaux aux contraintes industrielles, et de récupérer des échantillons pour analyses.

« Le stockage souterrain d’hydrogène n’est pas totalement inconnu, car il existe déjà 6 sites de stockage en cavités salines et d’autres pilotes sont en cours dans ce genre de formations géologiques. Mais il n’y aura pas la possibilité de réaliser ce type de cavités partout. Hystories s’est donc penché sur les milieux souterrains poreux que sont les zones aquifères et les gisements d’énergies fossiles épuisés, afin d’en déterminer le potentiel et les réalités d’exploitation » résume Arnaud Réveillère, responsable du programme Net-Zero Solutions chez Geostock.

hystories-zones-stockage-H2
Potentiel de stockage d’hydrogène (en TWh) estimé par Hystories dans les champs gaziers épuisés (bleu marine), dans les cavités salines (bleu ciel), dans les site de stockage souterrain de gaz (gris) et dans les champs pétroliers épuisés (vert). Crédit: Hystories

Les roches poreuses sont des formations géologiques qui présentent des pièges naturels (traps en anglais) dans lesquelles on stocke déjà du méthane d’origine fossile. Au milieu du XXe siècle, elles avaient été utilisées pour stocker du gaz de ville constitué parfois à moitié d’hydrogène. Un des premiers objectifs d’Hystories a été de constituer une base de données sur les sites potentiels en Europe. Le recensement est encore loin d’être total et devra être complété, mais il a permis d’identifier plus de 900 « pièges » pouvant possiblement être convertis en sites de stockage dans 311 formations. « Ce travail inédit se traduit par l’estimation d’une capacité de stockage d’hydrogène de 6 900 TWh en milieux poreux onshore, bien au-delà des quantités qui devront être stockées pour la transition énergétique et que nous avons évaluées entre 280 et 325 TWh en 2050. Ce stockage représenterait alors 15 à 18 % de la production totale d’hydrogène en Europe » complète Arnaud Réveillère.

Se prémunir de l’activité microbiologique

Le potentiel géologique doit ensuite être modulé par la réalité des conditions techniques et économiques d’exploitation. Sur ce point, Hystories a aussi clarifié plusieurs aspects essentiels. D’un point de vue technique, le premier est celui de la résistance des aciers dans un milieu riche en hydrogène. Plusieurs essais ont été menés en faisant varier certains paramètres : pression, température, présence ou non de CO2 et d’H2S, à sec ou en solution dans un électrolyte avec peu ou beaucoup de NaCl. Les résultats sont clairs : si certains aciers sont à éviter (comme le Duplex steel), plusieurs autres tout à fait classiques sont adaptés.

Un second aspect important est celui de l’activité microbiologique existante dans le réservoir de stockage. En effet, l’hydrogène est « mangé » par des réactions de réduction de sulfate, de méthanogénèse, d’acétogénèse ou de réduction de fer. Phénomènes qui sont loin d’être anodins : l’exemple du site de stockage de gaz de ville de Lobodice en République tchèque a montré que le taux d’hydrogène est passé de 54 % à 37 % en 7 mois tandis que le taux de méthane, lui, augmentait. Même si ce site a des différences essentielles avec un stockage pur d’hydrogène, il montre bien la dynamique de perte. D’autres risques sont associés à ces transformations : baisse de la qualité du gaz avec l’apparition de sulfure d’hydrogène, corrosion, dégradation de l’intégrité du puits à cause du sulfure de fer. Une analyse a confirmé la présence des micro-organismes se nourrissant d’hydrogène dans les échantillons de saumure de 7 sites. Des tests et simulations ont évalué les possibilités de limiter ces phénomènes (utilisation de biocide, augmentation du pH ou de la température, effet de la salinité) et doivent être complétés par des études plus larges.

Anticiper le déploiement de projets industriels

D’un point de vue économique, Hystories a évalué le coût¹ du stockage souterrain : il varie entre 1,1 et 2,6 € par kg d’hydrogène stocké en milieu poreux et de 2 à 2,3 € par kg stocké en cavités salines. Qu’est-ce que cela représentait pour le système énergétique ? « À l’horizon 2050, l’hydrogène produit à partir de sources renouvelables intermittentes, ou vert, est espéré à 2 €/kg. Mais il n’est pas nécessairement disponible lorsque les usagers en ont besoin. En ajoutant cette brique stockage, sachant que nous stockerons aux alentours de 15 % de la consommation globale d’hydrogène, cela ne représente finalement qu’un cout supplémentaire de 0,16 €/kg à 0,34 €/kg d’hydrogène, soit 7 % à 15 % du coût d’un hydrogène vert et disponible à la demande. Au regard des services importants qu’il fournira en tant que vecteur énergétique et pour réguler les productions d’électricité renouvelables, l’investissement en vaut la peine selon les études économiques globales ; c’est la solution technique la moins chère pour avoir de l’hydrogène vert et disponible lorsque les usagers en ont besoin. En revanche, comme il faut au moins 10 ans de développement, il faudrait commencer à monter de tels projets industriels sans tarder », analyse Arnaud Réveillère.

Enfin, Hystories a évalué les impacts environnementaux du stockage souterrain d’hydrogène. Ce type de stockage en profondeur (de 550 à 2 500 m) présente déjà des qualités intrinsèques de sécurité, puisque loin de toute activité humaine et de présence d’oxygène, ce qui élimine le risque d’explosion. L’analyse du cycle de vie sur 30 ans a aussi montré que le principal impact environnemental est celui de la consommation d’électricité nécessaire aux compresseurs pour mettre l’hydrogène sous pression.

D’autres projets de recherche (tel Underground Sun Storage, HyUnder, Hypster et HyUSPRe) vont compléter les travaux de Hystories. Le stockage souterrain d’hydrogène pourrait donc bien trouver sa place dans le paysage énergétique d’ici 10-15 ans…


¹ LCOS : coût actualisé qui intègre les nombreux cycles réalisés par le stockage sur le long terme

Des capteurs connectés alimentés en énergie grâce à la thermoélectricité

Créée en 2020, la start-up MOÏZ est issue de dix années de travaux de recherche au sein de l’Institut Néel, un laboratoire du CNRS situé à Grenoble. Cette deep-tech conçoit des technologies capables de récupérer l’énergie thermique présente dans l’environnement afin de rendre autonomes des capteurs connectés. Après avoir été maître de conférences à l’Université Grenoble Alpes (UGA) et à l’Institut Néel, Dimitri Taïnoff a cofondé cette entreprise et en est aujourd’hui le CEO. Il nous parle des nouvelles technologies développées par MOÏZ, et notamment de l’une d’elles, qui rentre dans une phase d’industrialisation.

Techniques de l’Ingénieur : Sur quel principe reposent les technologies développées par MOÏZ ?

Dimitri Taïnoff, cofondateur et CEO de MOÏZ. Crédit : F. Ardito
Dimitri Taïnoff, cofondateur et CEO de MOÏZ. Crédit : F. Ardito

Dimitri Taïnoff : Nous utilisons l’effet thermoélectrique, un phénomène physique qui consiste à produire de l’électricité grâce au flux de chaleur qui traverse les matériaux. À partir de ce principe, nous utilisons et développons des modules thermoélectriques capables de produire une tension à partir d’un déséquilibre de température dans l’environnement, même de quelques degrés. Cette tension produite n’est pas valorisable en l’état, car dans le meilleur des cas, elle atteint seulement quelques centaines de millivolts, un niveau bien en-dessous des standards de l’électronique. Nous possédons ensuite un savoir-faire pour redresser de très petites tensions afin de les rendre exploitables par des microcontrôleurs.

Quel type de modules thermoélectriques concevez-vous ?

Nous avons eu l’idée d’utiliser la thermoélectricité pour rendre autonome des capteurs qui consomment assez peu d’énergie. Nous avons commencé à développer un premier module appelé Nano-TEG et destiné notamment au marché des bâtiments intelligents, de la smart city, ainsi que du secteur tertiaire.

En attendant que ce procédé soit mature, nous avons conçu ce que l’on appelle un MVP (Minimum Viable Product) de cette technologie. En clair, nous avons fabriqué un autre module à partir de composants qui existaient déjà sur le marché et que nous avons intégrés avec une architecture innovante. Ce module de mesure autonome s’appelle Harvestree et est notamment destiné à l’industrie lourde. Il peut intégrer jusqu’à 4 capteurs différents (température, pression, vibration, CO2…) et est donc alimenté en énergie par un module thermoélectrique. Cet appareil se pose sur une surface chaude ou froide et si la différence de températures est supérieure à 10 degrés, il est capable de transmettre les données de mesure toutes les 5 minutes grâce à la technologie de communication radio LoRaWAN (Long Range Wide Area Network). Ce nouveau produit a tellement bien fonctionné que nous avons décidé de le breveter puis de le commercialiser.

Quelle puissance peut délivrer cet appareil et quels sont ses avantages ?

La puissance s’élève à quelques milliwatts et dépend de l’écart de température dans l’environnement. Notre module est robuste et étanche et se révèle particulièrement bien adapté à l’industrie lourde, où il n’est pas rare de rencontrer des différences de température de plusieurs dizaines de degrés. Dans ce cas, notre capteur produit l’équivalent de 20 piles pendant 10 ans, ce qui correspond à sa durée de vie. Cela signifie que pour atteindre la même performance avec un capteur sur batterie, il faudrait remplacer 20 fois la pile.

Étant donné que notre module récupère tout le temps de l’énergie, il est aussi capable de faire plus de choses. Par exemple, un capteur de température sur batterie en LoRa envoie un message par heure pendant 5 ans. Au-delà, il faut changer la pile. Le nôtre peut envoyer un message toutes les 1 à 2 minutes pendant 10 ans et peut aussi faire du micro edge computing, c’est-à-dire embarquer de l’intelligence afin de procéder à du traitement et éviter d’envoyer toutes les données brutes.

Notre appareil est aussi une alternative aux capteurs branchés sur secteur qui nécessitent de poser parfois plusieurs dizaines de mètres de câble, surtout dans les usines où il n’y a pas forcément de prises de courant à proximité de l’endroit où ils doivent être installés. Le câblage des capteurs coûte très cher et nous amenons une solution bon marché face à ce problème.

Pouvez-vous nous donner des exemples d’applications ?

Notre plus gros client s’appelle Rio Tinto, un grand groupe dont une des spécialités est l’électrolyse de l’aluminium et qui a besoin de surveiller ses process à l’aide de capteurs. Nous avons également des capteurs installés sur un barrage hydroélectrique et qui mesurent la température de distribution du courant grâce à la chaleur qui se dissipe.

Un coupon de rail de chemin de fer dont la température est monitorée de manière complètement autonome grâce à un module de mesure Harvestree. Crédit : MOÏZ
Un coupon de rail de chemin de fer dont la température est monitorée de manière complètement autonome grâce à un module de mesure Harvestree. Crédit : MOÏZ

Nous travaillons aussi avec la SNCF pour l’aider à surveiller les caténaires au-dessus des voies ferrées. Ici, l’idée est de récupérer la chaleur du soleil qui illumine le module et d’alimenter ainsi en énergie plusieurs capteurs. Les cellules photovoltaïques ne sont pas adaptées à cet environnement, car elles s’encrassent. Le coût de la maintenance pour les nettoyer ou alors pour remplacer une pile est trop élevé, car il faut intervenir à 5 mètres du sol sur une ligne à haute tension. Notre module est capable de mesurer la température du câble sous tension ainsi que plusieurs paramètres météos afin de détecter la présence de givre et empêcher l’endommagement des pantographes.

À quel stade se trouve le projet de votre entreprise ?

Une centaine de prototypes ont été fabriqués et sont installés chez une douzaine d’industriels. Nous avons lancé une campagne de levée de fonds d’un montant de 3 millions d’euros pour industrialiser notre technologie. La fabrication de ce module sera sous-traitée à un partenaire industriel et devrait débuter en fin d’année 2024. Nous en auditons actuellement plusieurs pour faire notre choix et ils sont tous situés en France.

La levée de fonds va aussi nous permettre de poursuivre le développement du premier module appelé Nano-TEG. Le principe technologique est le même que celui d’Harvestree, mais son format est plus compact et son prix moins élevé. La puissance récupérée sera comprise entre 50 et 100 microwatts ce qui, intégré sur plusieurs années, permettra de délivrer autant d’énergie que celle contenue dans une pile standard. La technologie sort du laboratoire et le principal défi est d’utiliser des composants de modules thermoélectriques, qui sont habituellement assemblés de manière tridimensionnelle, afin de reproduire cette architecture dans un dispositif planaire. La commercialisation de ce produit est programmée d’ici 2 à 3 ans.

Circul’egg donne une nouvelle vie aux coquilles d’œufs

En 2020, Yacine Kabeche, encore étudiant d’AgroParisTech se lance un défi : donner une seconde vie aux coquilles d’œuf en créant sa start-up, baptisée Circul’egg. L’objectif : extraire de ces déchets de casseries, qui récupèrent les blancs et les jaunes d’œufs pour les revendre à l’industrie agroalimentaire, des molécules d’intérêt. Et la ressource ne risque pas de manquer : chaque année en France, ce sont 40 000 tonnes de coquilles, pour 15 milliards d’œufs produits, qui finissent épandues, ou la majorité du temps incinérées. Afin de collecter au mieux cette ressource, Circul’egg est partenaire de 80 % des 53 casseries françaises, dont la plupart sont situées entre la Bretagne et la Normandie.

Extraire des molécules d’intérêt

Une fois collectées, les coquilles subissent un traitement mécanique sans produits chimiques afin d’en séparer la membrane qui en recouvre l’intérieur. La start-up récupère environ 97 % de coquille, 3 % de membrane et une infime partie de « jus de coquille », c’est-à-dire des résidus de blanc d’œuf. Les deux fractions principales sont ensuite réduites en une fine poudre.

Les coquilles sont composées à 96 % de carbonate de calcium, extrait habituellement des carrières de calcium. Circul’egg le revend aux industries de l’alimentation humaine et animale comme source de calcium dans les compléments alimentaires, mais également à la cosmétique et au secteur du bâtiment. Le carbonate de calcium y sert d’agent de charge fonctionnelle dans les peintures, les meubles ou encore les sols.

Quant à la membrane, elle est particulièrement riche en protéine, comme le collagène, mais aussi en chondroïtine sulfate et en acide hyaluronique. Ces molécules sont utilisées par l’industrie des compléments alimentaires, pour humains et animaux, et de la cosmétique.

Dans un contexte propice aux démarches d’économie circulaire, les produits de Circul’egg, recyclés et biosourcés sont très convoités, car ils améliorent l’empreinte environnementale des industriels. En effet, ces matières premières sont habituellement synthétisées à partir de carcasses d’animaux, parfois importées de l’autre bout du monde.

Une start-up en pleine croissance

C’est en 2021 que le brevet de séparation de Circul’egg est publié. Depuis, la start-up n’a cessé de croître. En 2022, elle réalise une levée de fonds d’environ un million d’euros afin de développer une unité pilote à Clichy, d’une capacité de traitement de 250 kg par jour de coquilles. L’objectif : fabriquer et donner des échantillons de produits aux différents clients pour les tester. Après des retours plus que positifs et de nombreuses commandes, Circul’egg lance une nouvelle levée de fond en 2023 pour la construction d’une usine de taille industrielle. Elle se situera à proximité de 80 % des casseries dans le quart nord-ouest français, à Janzé près de Rennes, et sera capable de traiter une tonne par heure de coquille.

Sans se contenter de la construction de sa nouvelle unité, Circul’egg explore également d’autres pistes. L’équipe dirigeante, constituée de Yacine Kabeche, Justine Lecallier, Samuel Olivier et Kristen Donnart, travaille actuellement à l’implantation d’usines à l’intérieur même des casseries. En outre, l’entreprise souhaiterait installer une deuxième unité industrielle proche des 20 % des casseries restantes, c’est-à-dire dans la région Nord-Pas-de-Calais.

Enfin, Circul’egg envisage de revaloriser d’autres coproduits, tels que les peaux de fruits, les coquilles d’huîtres ou les restes de brasseries par exemple. L’expérience accumulée dans le traitement des œufs lui permet de connaître les attentes du marché, la réglementation et la partie recherche et développement. La start-up désire ainsi faire bénéficier de son expertise au plus grand nombre.

Morpho : un drone polymorphe aux capacités inédites

Elythor - fondateurs
Elythor a été cofondée par Nathan Müller, ingénieur en robotique (à gauche) et Harry Vourtsis, docteur en robotique aérienne. © EPFL mediacom _ Elythor

Spin-off du Laboratoire des Systèmes Intelligents de l’École polytechnique fédérale de Lausanne (EPFL), Elythor a vu le jour grâce, notamment, au travail mené dans le cadre de sa thèse de doctorat par Harry Vourtsis, fondateur de la jeune entreprise aux côtés de l’ingénieur en robotique Nathan Müller. En début d’année, les deux hommes ont publié une preuve de concept préfigurant une version commerciale de leur aéronef novateur : doté de deux ailes et d’un fuselage plat, il se révèle capable de bouger ses ailes de façon symétrique ou asymétrique, et ce dynamiquement, en fonction, par exemple, des conditions de vent. Ces capacités de morphing lui confèrent ainsi des avantages substantiels.

Après plusieurs levées de fonds et forte d’un important soutien institutionnel, Elythor vise désormais le développement d’un « produit minimum viable » d’ici à la fin de l’année, avant de lancer des projets pilotes, comme nous l’explique Nathan Müller, co-fondateur et directeur technique d’Elythor.

Techniques de l’Ingénieur : Quelles ont été les étapes clés de la création d’Elythor et de la mise au point de votre drone ?

Nathan Müller : Le fondateur d’Elythor, Harry Vourtsis, a travaillé durant son travail de thèse à l’EPFL sur le sujet des drones, avec un accent tout particulier mis sur le principe de « morphing », de changement de forme. Sa volonté était en effet de mettre à profit ce principe pour concevoir des drones capables de s’adapter à leurs conditions environnementales, mais aussi au cahier des charges des missions auxquelles ils se destinent. Au cours de son parcours de thèse, il a développé de nombreuses plateformes basées sur cette approche. Durant la dernière phase de ce travail, qui l’a mené il y a peu à l’obtention de son doctorat, il a commencé à explorer plus spécifiquement comment ce principe pouvait être mis au service d’un drone « industriel », dont les applications iraient au-delà des usages purement académiques.

Il a donc réalisé un important travail de recherche pour trouver le meilleur compromis : les structures capables de changer de forme impliquent de trouver un juste milieu entre complexité mécanique et accroissement des capacités conférées à la plateforme. Il a finalement abouti à ce concept de VTOL[1] ou ADAV en français – un avion à décollage et atterrissage vertical –, susceptible de changer sa configuration en bougeant ses ailes.

Quand il a commencé à travailler sur cette plateforme, j’étais pour ma part encore étudiant à l’EPFL. Nous avons ainsi commencé à collaborer dans le cadre d’un projet étudiant mené au cours de mon master en robotique. À la fin de mes études, je l’ai rejoint pour travailler à temps plein sur ce projet, à partir de juin 2022.

L’écosystème de l’EPFL nous a offert des infrastructures très propices à un développement rapide de notre solution. Nous avons par ailleurs eu la chance d’accueillir chaque semestre des étudiants brillants, qui ont été à l’origine d’apports concrets sur le plan matériel et logiciel.

Cet écosystème nous a aussi permis de lever des fonds, que nous avons mis à profit pour agrandir l’équipe – nous sommes aujourd’hui six personnes – et pour investir dans le matériel.

Nous comptons poursuivre ces levées de fonds dans l’écosystème EPFL, mais aussi au-delà, auprès de fonds d’investissement. Nous avons d’ailleurs contacté une dizaine de fonds de capital-risque, qui semblent séduits.

Nous avons également approché plus d’une dizaine de clients potentiels – plusieurs discussions pour des projets pilotes sont en cours – et poursuivons une phase active de prospection. Nous sommes aussi en discussions pour nouer des partenariats industriels. Tout cela a beaucoup d’importance pour nous.

En début d’année 2023, nous avons ainsi finalisé une publication portant sur la première version de ce drone, dont l’objectif était avant tout de démontrer le principe de base ; il s’agit d’une preuve de concept. Le drone est finalement assez simple : il est doté de deux ailes et d’une plaque plate qui fait office de fuselage. Le morphing, qui se traduit par une capacité du drone à bouger ses ailes de façon symétrique ou asymétrique, lui apporte toutefois de grands bénéfices : réduction de consommation d’énergie, manœuvrabilité et donc stabilité de la trajectoire accrues…

team Elythor
Grâce à une série de levées de fonds, Elythor a notamment pu faire croître ses effectifs, et dispose désormais d’une équipe de six personnes. © EPFL mediacom _ Elythor

Quels sont les chiffres clés qui caractérisent le drone que vous avez conçu, Morpho ?

Pour le moment, nous sommes à la première version de notre POC[2]. Notre objectif est d’aboutir à un produit minimum viable d’ici à la fin de l’année, afin de lancer des projets pilotes. Le drone que nous avons actuellement pèse donc 3,5 kg, et possède une envergure d’un mètre soixante lorsque ses ailes sont entièrement déployées. En mode de vol horizontal, ou mode « avion », il est d’ores et déjà capable d’atteindre des vitesses de 80 km/h, pour une durée de vol de 25 minutes. Notre objectif est d’atteindre une capacité de vol de 40 minutes pour le produit minimum viable.

La charge utile de la version actuelle est de 500-600 grammes environ. Le produit minimum viable devrait quant à lui grimper à une charge utile située aux alentours d’un kilo.

Qu’est-ce qui régit le mouvement et donc la configuration des ailes de votre drone ?

Elythor landing
Qualifié de « tail-sitter », Morpho peut décoller, mais aussi atterrir à la verticale, en adaptant en outre la configuration de ses ailes à la topographie du terrain. © EPFL mediacom _

Tout est entièrement automatique. Nous avons défini différents modes d’utilisation des ailes, qui sont eux-mêmes fonction des modes de vol. Le premier mode concerne l’atterrissage : le drone atterrit sur ses propres ailes en adaptant leur configuration au terrain. Cela fait de lui, à notre connaissance, le premier « tail-sitter[3] » capable d’atterrir sur n’importe quelle surface. Nous développons d’ailleurs actuellement des algorithmes qui lui permettront de choisir lui-même la zone d’atterrissage la plus favorable.

Outre ce mode d’atterrissage, nous avons défini un mode de vol vertical, ou hovering, durant lequel le drone vol comme un hélicoptère, avec les ailes fermées par défaut. Il peut ensuite les bouger en fonction de différents critères : le type d’environnement – selon qu’il est confiné ou ouvert, les ailes ne vont pas s’ouvrir avec la même amplitude –, la trajectoire à suivre, mais aussi les conditions de vent. Le drone peut en effet bouger les ailes de manière symétrique ou asymétrique afin de contrer les perturbations dues au vent, ou au contraire exploiter ce vent pour avancer ou tourner. Nous travaillons aussi actuellement sur la capacité du drone à utiliser ses ailes pour éviter les collisions avec les infrastructures.

En ce qui concerne le vol horizontal, la transition se fait de manière automatique : les ailes se déploient sans intervention de l’opérateur. Dans ce mode horizontal, le drone peut mettre à profit ses ailes pour générer différents effets aérodynamiques et donc réduire sa consommation d’énergie ou stabiliser sa trajectoire.

Enfin, la « back-transition » – le retour du mode avion au mode vertical – consiste en une fermeture des ailes optimisée pour permettre au drone de revenir de manière stable et progressive à son mode de hovering. Si les mouvements d’ailes sont entièrement automatiques, nous avons toutefois développé une option permettant à l’opérateur de les contrôler à l’aide de la télécommande.

Elythor morphing
Doté de capacités de « morphing », le drone d’Elythor se révèle capable de bouger ses ailes de façon symétrique ou asymétrique. © EPFL mediacom _ Elythor

Pour la réalisation de missions en tant que telles, nous proposons un mode manuel, dans lequel le pilote au sol appuie sur un bouton pour passer du mode avion au mode vertical et inversement.

Il est également possible de réaliser des vols semi-autonomes. Le drone suit des points de passage définis au préalable sur une carte, et respecte par la même occasion des instructions elles aussi prédéfinies en matière de mode de vol : en mode avion d’un point A à un point B, puis en mode hélicoptère du point B au point C, etc. Notre objectif, à terme, serait aussi de permettre à la machine de décider par elle-même…

Vous évoquiez, outre la stabilité, un autre grand intérêt de votre approche : celui de la diminution de consommation énergétique. L’avez-vous quantifiée ?

Nous avons effectivement quantifié ces bénéfices. Ces chiffres sont présentés dans notre publication : la consommation d’énergie normalisée est réduite de 85 %, et la vitesse du « yaw » (le « lacet »), c’est-à-dire la capacité du drone à pivoter sur lui-même, est quant à elle accrue de 200 % grâce aux ailes. La rotation ultra-rapide du drone sur lui-même n’est pas en but en soi, mais elle lui permet de réagir très rapidement aux changements de vent.

À quelles applications votre drone se destine-t-il prioritairement ?

Le premier marché que nous allons cibler est celui de l’inspection des infrastructures énergétiques : lignes haute-tension, éoliennes, plateformes pétrolières… Ces infrastructures ont en effet besoin, à la fois, d’être inspectées sur de longues distances, mais aussi de façon rapprochée, ce qu’un avion ne peut pas faire. Notre ambition est donc de positionner notre drone comme la première solution permettant une inspection d’infrastructure efficace dans les deux modes de vol, vertical et horizontal, ce qui, à notre connaissance, n’existe pas encore : les ADAV actuels n’exploitent leurs capacités de vol vertical que pour décoller et atterrir.

Elythor hovering
Destiné en premier lieu à des applications d’inspection, Morpho se révèle particulièrement adapté à des missions menées sur des lignes de transport d’électricité. © EPFL mediacom _ Elythor

Les capacités de notre drone à maintenir son mode de vol vertical même lorsque le vent est fort, grâce au mouvement de ses ailes, ouvrent également des pistes pour de nombreuses autres applications.

Nous sommes ainsi en contact actif avec des acteurs de l’industrie énergétique. Cela va nous permettre de définir très précisément leurs besoins, et donc de voir quels capteurs intégrer à notre plateforme : caméras standards, infrarouges, capteurs lidars, stéréocaméras… Nous n’excluons aucune possibilité. Nous avons d’ailleurs déjà intégré une stéréocaméra, qui a permis au drone de naviguer de façon autonome, sans pilote, dans des espaces confinés, sans GPS. Nous réalisons un travail continu d’intégration de nouveaux capteurs. Nous envisageons ainsi de commercialiser, à terme, notre plateforme accompagnée de « packages » comprenant différents capteurs.

Nous avons aujourd’hui plusieurs projets pilotes en discussion, principalement avec des acteurs privés. Ils devraient se concrétiser d’ici la fin de l’année. L’objectif est double : démontrer les bénéfices de notre drone, et obtenir des retours d’expérience, de terrain, afin de faire évoluer une nouvelle fois notre plateforme. Nous espérons ainsi, en début d’année prochaine, débuter la commercialisation de notre solution.

À moyen terme, nous envisageons aussi de créer une gamme composée de plateformes de taille différente, et donc au temps de vol et aux charges utiles tout aussi variées.


[1] Vertical take-off and landing.

[2] Proof of concept, preuve de concept.

[3] Drone capable de se poser sur sa queue, à la verticale.

Avec OWE, Damsia tire une épine du pied au monde maritime

« Un caillou dans la chaussure. » C’est ainsi que Jean-François Douard décrit une problématique bien connue des marins, celle de la gestion des eaux de cales. Il faut dire que l’homme en a été le témoin privilégié : riche d’un long parcours dans la marine marchande débuté dans les années 1990, il fut notamment chef mécanicien, superintendant, et directeur technique d’une société de gestion de navires… Une expérience qui l’a ainsi amené à se confronter au problème à de multiples reprises ; un sujet « systématiquement compliqué », comme il le décrit. « Tel le gravillon dans la chaussure, cela ne fait pas très mal, mais on y pense tout le temps ! », confie Jean-François Douard.

D’origines diverses – systèmes de purification des combustibles, combustibles eux-mêmes, condensats produits au contact de l’air sur les parois froides, opérations de maintenance et de nettoyage, ou encore fuites… –, les eaux de cales peuvent en effet s’y accumuler à raison de 200 à 20 000 litres par jour. « Un navire est étanche par nature… Toutes les eaux, d’où qu’elles viennent, vont donc s’accumuler au fond de la coque, sans possibilité de s’échapper », justifie M. Douard. « Il est donc indispensable, fatalement, d’éliminer ces eaux », souligne l’ex-professionnel de la marine marchande. Pour ce faire, deux options s’offrent aux marins : décharger ces eaux à terre, une fois le navire à quai – à des coûts prohibitifs – ou, tout simplement, les rejeter à la mer à moindres frais au cours du trajet.

Depuis les années 1970, la convention Marpol[1] interdit toutefois les rejets d’eaux contenant plus de 15 mg/L d’hydrocarbures. « Les moyens pour contrôler ces teneurs en hydrocarbure ont rapidement émergé, mais nous n’avions pas de systèmes efficaces pour nettoyer ces eaux », se remémore Jean-François Douard. D’autant que les hydrocarbures sont loin d’être les seuls contaminants susceptibles d’être présents dans les eaux de cales. À ces molécules organiques s’ajoutent en effet potentiellement des éléments tels que les oxydes de fer, la silice, ou d’autres poussières. « Tout cela forme une sorte de “lait” brunâtre qui trompe les capteurs : ils considèrent que si une eau n’est pas cristalline, elle contient de fait des hydrocarbures et se retrouve donc interdite de rejet », explique M. Douard. Face à ce constat, le marin a ainsi décidé de se lancer dans une aventure au long cours, sur la terre ferme cette fois… Au tournant du millénaire, l’ex-chef mécanicien s’est en effet attelé au développement d’une solution qui permettrait de gérer ces eaux de cales de façon vertueuse.

Un travail de longue haleine

« Je suis parvenu à faire émerger un embryon de solution. Il a ensuite été travaillé par mon camarade et homologue contre-bordier Pierre-Yves Morin », se remémore Jean-François Douard. Un temps séparés professionnellement, les deux amis restent en contact… En 2015, Pierre-Yves Morin informe ainsi Jean-François Douard qu’il vient de recevoir la validation d’une demande de brevet déposée quelque temps auparavant pour protéger l’invention. « Je me suis donc de nouveau intéressé au sujet et j’ai finalement décidé, en 2017, de faire l’acquisition de ce brevet », dévoile M. Douard. C’est ainsi que naît, la même année, l’entreprise Damsia.

L’objectif que vise alors son dirigeant est celui de mettre au point une machine fonctionnelle autour du concept de base développé quelques années auparavant. Une ambition qu’il poursuit dans un premier temps parallèlement à une autre activité de direction d’entreprise, et qui aboutit finalement, en 2019, à une première levée de fonds pour Damsia. « Nous avons donc commencé, de façon effective, les activités de l’entreprise en novembre 2019 », retrace Jean-François Douard. S’ensuit alors la création d’un prototype, qui donnera naissance, quelques mois plus tard – en avril 2021 – à une machine répondant aux exigences de la règlementation internationale. « Dans ce domaine, on n’a pas le droit de commercialiser si l’on n’est pas certifié », souligne en effet M. Douard.

eau de cale transformée en eau cristalline
OWE permet de transformer à moindre coût énergétique une eau de cale chargée en polluants en une eau cristalline.

Un principe inédit

Là où d’autres systèmes apparus sur le marché au fil des ans fonctionnent sur la base de principes assez classiques d’épuration de l’eau – filtration, centrifugation, floculation… –, le dispositif mis au point par Damsia repose quant à lui sur une approche tout à fait inédite, du moins à bord d’un navire : la distillation sous vide. « Faire bouillir de l’eau en diminuant la pression n’est pas une innovation en soi, mais cela n’a jamais été mis en œuvre sur un navire : aucun système à distillation sous vide n’a en tout cas été certifié », assure Jean-François Douard, qui décrit ainsi plus en détail le fonctionnement de la machine, baptisée « OWE[2] » : « Il y a plusieurs solutions réunies au sein de notre séparateur, mais la principale reste la distillation sous vide. On commence ainsi par une décantation : en chauffant légèrement l’eau polluée, on favorise la séparation des phases aqueuse et hydrocarburée. Un peu comme dans l’eau de vaisselle, la couche grasse, d’hydrocarbures, va flotter à la surface. On va donc l’évacuer de façon assez basique : un détecteur d’interface déclenche l’ouverture de deux vannes. On récupère ainsi l’eau laiteuse, marron, qui est quant à elle une émulsion assez stable. C’est cette eau que l’on va distiller sous vide ». En abaissant la pression du milieu, OWE parvient à porter le fluide à ébullition à une température de seulement 45 °C. « Cela permet d’utiliser la chaleur issue du refroidissement des moteurs et évite par la même occasion de vaporiser les polluants eux-mêmes, qui s’évaporent en effet à beaucoup plus haute température », justifie M. Douard. La vapeur d’eau ainsi générée est ensuite condensée, pour former finalement une eau « cristalline », telle que la décrit le cofondateur de Damsia ; eau qui peut ensuite être rejetée en mer sans risque pour l’environnement[3].

Des performances inégalées, qui semblent d’ores et déjà séduire les armateurs

« Nous avons passé une certification fixant une teneur limite en polluants à 5 mg/L, trois fois inférieure au seuil fixé par la règlementation internationale… Durant ces tests, nous n’avons jamais franchi la barre des 2,4 mg/L, et nous sommes même parvenus à atteindre les 0 mg/L d’hydrocarbures pendant 98 % du temps des essais », met en avant Jean-François Douard.

Une performance qui se conjugue en outre à des capacités de traitement importantes : un seul OWE se révèle capable de traiter quotidiennement jusqu’à cinq tonnes d’eau polluée. « Avec ce système, nous sommes à même de répondre aux besoins de 80 % de la flotte de navires de 80 à 300 mètres », se félicite le PDG de l’entreprise brestoise. Des bateaux nouvellement construits, certes, mais aussi de bâtiments existants, auxquels le système peut être greffé par le biais d’une opération de rétrofit relativement aisée. « Il s’agit simplement de travaux de tuyauterie, bien maîtrisés. Les chantiers navals en évaluent le coût à 20-30 000 € environ », note Jean-François Douard, qui promet ainsi un temps de retour sur investissement de l’ordre d’une douzaine de mois seulement.

Machine à bord du Vigilance
Louis Dreyfus Armateurs a déjà doté une partie de sa flotte de navires câbliers du dispositif conçu par Damsia, comme ici, à bord du Vigilance.

Le système de séparation mis au point par Damsia a ainsi déjà séduit un premier client, Louis Dreyfus Armateurs, qui en a en effet doté une partie de sa flotte de navires câbliers. Le début d’une aventure commerciale qui apparaît prometteuse, sur le rétrofit autant que sur le neuf, comme le révèle finalement Jean-François Douard : « Ce type de système est désormais obligatoire sur les navires hauturiers de plus de 24 mètres. Avec près de 3 000 navires de ce type produits chaque année, le marché du neuf est donc significatif et nous intéresse ! Les multiples avantages de notre solution devraient naturellement séduire les clients… Nous sommes aussi d’ores et déjà en discussion sur le rétrofit d’une vingtaine de systèmes, principalement en Europe de l’Ouest : nos premiers clients potentiels sont français, anglais, norvégiens, mais aussi belges pour une partie d’entre eux. Nous sommes donc plutôt optimistes quant à notre carnet de commandes des prochains mois ! ». Le « caillou dans la chaussure » du monde maritime semble bel et bien en passe de quitter le navire.


[1] Convention internationale pour la prévention de la pollution par les navires, acronyme anglais de marine pollution.

[2] Oily Water Evaporator : distillateur d’eaux mazouteuses

[3] Les résidus de polluants sont quant à eux récupérés et peuvent par exemple être éliminés à bord, par incinération. Concentrés dans un faible volume d’eau, les polluants peuvent aussi être déchargés à quai, pour un traitement postérieur à terre.

Datacenters : leur point faible reste toujours le risque d’incendie

Tout le monde a encore en mémoire les images de l’incendie d’un datacenter d’OVHcloud à Strasbourg en mars 2021. Le français OVHcloud, leader européen du cloud, n’est pas le seul à être victime d’un incendie. En avril dernier, le datacenter de Global Switch situé à Paris a paralysé les activités de Google Cloud.

Ces deux exemples montrent que les datacenters ne sont pas à l’abri d’un sinistre. Dans la plupart des cas, il s’agit d’un incendie. Réalisée par Dgtl Infra (une entreprise spécialisée dans la fourniture d’infrastructures numériques aux entreprises), une étude a analysé 19 incendies majeurs.

À la différence d’Uptime Institute (un consortium d’entreprises créé en 1993 dont l’objectif est de maximiser l’efficacité des centres de traitement de données) qui limite son analyse à 6 ans, celle de Dgtl Infra court de 2014 à 2023. Ces incidents majeurs ont impliqué des poids lourds parmi lesquels Comcast, Google, OVHcloud, BT Group, Apple et Samsung.

Un centre de données utilise des systèmes avancés de protection contre les incendies et met en œuvre des stratégies complètes de prévention, de détection et d’extinction pour atténuer les risques d’incendie.

Surchauffe des batteries lithium-ion

Les pannes électriques sont la cause la plus fréquente des incendies de centres de données. Ces défaillances peuvent provenir de circuits surchargés, d’un mauvais fonctionnement de l’équipement ou d’un câblage défectueux, tous capables de générer suffisamment de chaleur pour déclencher un incendie lorsqu’ils sont à proximité de matériaux combustibles. La surchauffe des batteries lithium-ion (cas d’un grave incendie dans un datacenter en Corée), une maintenance inadéquate et l’erreur humaine sont également source d’un tel sinistre.

Malgré ces mesures, les incendies représentent une menace importante à ne pas négliger, car ces bâtiments sont devenus essentiels à l’activité de nombreuses entreprises, collectivités, administrations…

L’impact des incendies va au-delà des dommages physiques immédiats causés à l’installation et à l’équipement. Il se traduit souvent par des temps d’arrêt considérables pour rétablir les opérations. Dans le cas de l’incendie touchant les services de Google, le feu n’a duré que quelques heures. Mais il a impacté durant plusieurs jours des services comme le montre la page de statut de Google Cloud Platform.

Ces interruptions supposent que les serveurs et autres équipements informatiques critiques ne soient pas irrémédiablement endommagés par le feu, la chaleur, la suie ou l’eau (l’incendie du datacenter impactant Google serait dû à une fuite d’eau se propageant à un local de batteries) et la fumée (comprenant des gaz corrosifs comme le cyanure d’hydrogène et le chlorure d’hydrogène), ce qui peut encore retarder le rétablissement.

500 000 dollars par… heure d’interruption

D’un point de vue commercial, ces incidents peuvent coûter aux opérateurs de datacenters entre 250 000 et plus de 500 000 dollars par… heure d’interruption, ce qui souligne l’impact économique considérable des incendies dans ces installations.

Deux ans plus tard, le tribunal de Commerce de Lille Métropole vient de condamner OVH à verser à Bati Courtage plus de 100 000 €. Ce spécialiste dans le courtage de travaux avait perdu ses données alors qu’il avait souscrit à un service de sauvegarde qui, sans le savoir, se trouvait dans ce bâtiment qui a brûlé.

Pour éviter de telles conséquences, les opérateurs de datacenters font tout pour limiter les risques. « Aucun datacenter ne peut garantir le risque zéro. Nos équipements électriques et la climatisation sont redondés plusieurs fois pour assurer une continuité de service. Nous avons un système d’incendie à poudre que l’on envoie sur l’ensemble des équipements pour permettre un redémarrage très rapide, car il n’y a pas d’aspect corrosif ni d’infiltration d’eau. Nous avons tout mis en place pour qu’un incendie n’atteigne qu’une partie du système et de notre datacenter », nous précise Yohann Berhouc, Directeur général de Cyrès qui a un datacenter à Tours.

IBM veut développer un « supercalculateur quantique »

Toujours plus ! Fin mai 2023, IBM a annoncé un objectif très ambitieux en partenariat avec les universités de Tokyo et de Chicago : la création d’une machine de 100 000 qubits. Pour IBM, il s’agit d’un « supercalculateur quantique ».

Pour l’instant, IBM respecte à peu près sa roadmap présentée il y a trois ans. Ce n’est pas le cas de tout le monde. En matière d’informatique quantique, il y a beaucoup d’effets d’annonce. Prenons l’exemple de PsiQuantum qui a levé 665 millions de dollars.

Il y a trois ans, cette start-up américaine a annoncé qu’en 2030 elle atteindrait le million de qubits à base de photons. Mais pour l’instant, elle n’a rien détaillé ni présenté ses étapes intermédiaires. En France, Quandela qui a levé 15 millions d’euros en 2021 joue plus la transparence en dévoilant les étapes intermédiaires de son projet d’ordinateur quantique photonique.

Défis technologiques

IBM n’est donc pas le seul acteur dans cette course aux qubits. Microsoft et Google ont aussi des projets. Google a déclaré qu’il visait un million de qubits d’ici la fin de la décennie.

Tous ces projets visent à faire entrer l’informatique quantique dans le domaine de l’exploitation à grande échelle. Le quantique pourrait potentiellement s’attaquer à des problèmes majeurs qu’aucun superordinateur standard ne peut résoudre.

Mais nous en sommes encore très loin malgré ce que l’on peut lire dans la presse ou dans les communiqués de presse de start-ups. La preuve, la machine de 433 qubits d’IBM ne sert quasiment à rien, car chaque opération sur les qubits génère 2 % d’erreurs alors que les algorithmes utiles en nécessitent des milliers !

« Les défis technologiques sont immenses. Il y en a au niveau des logiciels, des algorithmes, de la cryogénie, de la consommation d’énergie et bien évidemment, de la physique des qubits. L’informatique quantique n’est toujours pas une réalité pratique pour les entreprises, mais plutôt un champ exploratoire ! En moyenne, les experts prédisent l’avènement d’ordinateurs quantiques utiles, mettant en œuvre de la tolérance de pannes, d’ici 15 ans. La nouvelle roadmap d’IBM détaille leur chemin pour y parvenir », insiste Olivier Ezratty, auteur spécialisé en technologies quantiques et qui connaît bien le dossier IBM.

Ce spécialiste complète en indiquant « qu’IBM a précisé un grand nombre de ses choix technologiques comme sur la manière de relier entre eux plusieurs processeurs quantiques ».

Le malentendu sur les avancées de l’informatique quantique réside en partie sur le fait que l’on pense qu’il suffit d’aligner les qubits pour augmenter la puissance de calcul. Comme pour l’informatique traditionnelle. Or, il faut dissocier les qubits bruités ou physiques, qui ont des taux d’erreur assez élevés, et les qubits logiques ou corrigés qui nécessitent au minimum 1 000 qubits physiques pour créer un qubit corrigé selon la profondeur de l’algorithme retenu.

Trop d’erreurs

La machine de 100 000 qubits (bruités) annoncée par IBM représente 100 qubits corrigés. C’est une étape importante à partir de laquelle on peut potentiellement obtenir un avantage quantique calculatoire.

« C’est le paradoxe du quantique : plus les qubits sont nombreux, moins ils sont efficaces. Le défi pour tout le monde est donc d’arriver à augmenter le nombre de qubits tout en améliorant leur qualité, c’est-à-dire en réduisant les erreurs qui interviennent à chaque opération. C’est extrêmement difficile », souligne Olivier Ezratty.

À la fin de cette année, nous aurons une idée un peu plus précise du niveau de performance d’IBM. L’entreprise devrait sortir un processeur de 133 qubits baptisé Heron qui pourrait afficher une très bonne qualité, avec un taux d’erreur inférieur à 0,1 % par opération alors qu’aujourd’hui il est situé autour de 1 %.

« Si c’est le cas, cela signifiera qu’IBM est sur la bonne voie. Mais de nombreuses technologies sont actuellement testées en plus des qubits supraconducteurs, les photons (PsiQuantum, Quandela), les atomes neutres (Pasqal), les ions piégés (IonQ, Quantinuum), le silicium (Intel, Siquance)… Nous ne savons pas encore prévoir celles qui fonctionneront le mieux pour créer des machines pratiquement utilisables », déclare Olivier Ezratty,

Décarbonation : Engie se positionne

On ne pourra pas dire que l’on manque d’options pour réaliser la transition énergétique. Les différents scénarios mis sur la table depuis quelques années ont ouvert en grand le champ des possibles. Le dernier en date est celui du groupe Engie, qui fait ainsi part de son analyse sur la base de son expérience d’énergéticien mondial. D’aucuns pourront juger la démarche courageuse, vu que les acteurs économiques ont plus souvent l’habitude de porter leurs plaidoyers dans l’ombre des cabinets.

Mais la situation exige de prendre position dans le débat public : en Europe comme en France, on commence à brandir une possible interdiction des chaudières à gaz. Sous couvert de la bonne intention de supprimer l’usage des énergies fossiles, cette interdiction obligerait à un passage massif à l’électricité, si tant est que cela soit possible. Étant un acteur gazier de premier rang, il est logique qu’Engie apporte son expertise en la matière pour présenter une alternative.

Avec le scénario CLEVER publié la semaine dernière, celui d’Engie est un des premiers à modéliser la transition à l’échelle de l’Europe. Le choix a été fait de se concentrer sur 15 pays représentant 80 % des émissions de CO2 du Vieux Continent (Allemagne, Autriche, Belgique, Espagne, France, Irlande, Italie, Luxembourg, Pays-Bas, Pologne, Portugal, République tchèque, Royaume-Uni, Slovaquie et Suisse).

Forte électrification, mais moindre consommation d’énergie

Le scénario d’Engie, présenté par sa PDG Catherine McGregor, son directeur de la stratégie Nicolas Lefevre-Marton et son Chef économiste Pierre-Laurent Lucille, se veut avant tout pragmatique : les technologies sont choisies matures ou en cours de démonstration, et une optimisation des coûts est recherchée. Il est en phase avec l’atteinte de la neutralité carbone d’ici 2050 en mesurant l’effort que cela représente, c’est-à-dire une baisse annuelle des émissions de gaz à effet de serre de plus de 4 % alors qu’elle a été de moins de 1 % depuis 1990. Pour la France, même si les options retenues sont différentes de celles du gouvernement, les émissions atteindraient un niveau similaire de 270 MtCO2eq en 2030, contre 434 en 2019. Message sous-jacent : il est possible d’atteindre les objectifs climatiques en utilisant tout de même du gaz, mais décarboné bien sûr !

Engie émissions GES France
Répartition par secteurs des émissions de gaz à effet de serre en France en 1990, 2019 et 2030. Source : Engie

Une condition de la réussite est avant tout de réduire les consommations d’énergie : pour les 15 pays considérés par Engie, la baisse est de 34 % d’ici 2050. Mais les évolutions diffèrent. D’un côté l’usage de l’électricité, qui est fortement plébiscité, augmente de 80 % quand, au contraire, la consommation des vecteurs gazeux est divisée par deux. Toute la subtilité de la vision d’Engie est de trouver un équilibre entre les électrons et les molécules pour tirer parti des avantages de chacun.

Ainsi, du point de vue des usages, l’industrie européenne porte son électrification de 20 à 40 % tout en remplaçant les énergies fossiles par des gaz bas carbone (27 %) et de la chaleur (23 %) issue de biomasse et de récupération de chaleur fatale. Dans le transport aérien et maritime, la domination des énergies fossiles diminue peu à peu pour réduire de 80% les émissions de ce secteur, grâce au bio-GNL, au bio-diesel, au bio-kérosène et aux molécules dérivées de l’hydrogène.

Un focus sur le secteur du bâtiment en France montre que la moitié des bâtiments sont entièrement rénovés d’ici 2050, et que les moyens de chauffage sont répartis (en nombre de ménages équipés) entre les pompes à chaleur (35 %), les chaudières à biométhane (15 %), les réseaux de chaleur (14 %), les convecteurs électriques (14 %), les poêles à granulés (11 %) et les pompes à chaleur hybrides (11 %). Pour ces dernières, qui couplent une PAC avec une chaudière gaz d’appoint, Engie a évalué le service rendu au système en évitant trop de pointe de consommation d’électricité l’hiver : il se chiffre à 12 GW d’appel de puissance évités en 2050, et une économie de 2,7 milliards d’euros par an !

Plus de renouvelables et de flexibilité

La production d’électricité au niveau européen (4 770 TWh en 2050) est à terme assurée à 90 % par des énergies renouvelables. Le solaire photovoltaïque et l’éolien voient ainsi leur production multipliée par 6. En France, le maintien d’un important parc nucléaire, en phase avec le souhait gouvernemental de construire 14 nouveaux EPR, fait que la part d’EnR n’est que de 64 % en 2050. Il y a donc besoin d’accélérer l’installation des renouvelables… et peut-être même au-delà des chiffres présentés dans ce scénario, car, selon Engie, en cas de retard de la filière nucléaire, il faudrait installer 60 GW supplémentaires d’éolien et de solaire (197 au lieu de 137 GW) dès 2035.

Le recours à des gaz décarbonés repose sur plusieurs leviers. Dans les 15 pays considérés, le « gaz naturel » fossile est remplacé progressivement par du biométhane (plus de 730 TWh en 2050, soit une multiplication par plus de 4 par rapport à 2023), par du méthane de synthèse (643 TWh), et par un peu d’injection directe d’hydrogène (56 TWh). Engie prévoit aussi qu’il reste un petit reliquat de gaz naturel (74 TWh) et un recours sérieux à ce même gaz fossile avec captage de carbone (544 TWh). La demande d’hydrogène est multipliée par huit, puisque les trois quarts doivent répondre aux besoins des transports. Mais seulement la moitié est produite sur le territoire européen, car l’importation des molécules permettrait de bénéficier des coûts de production moins élevés dans d’autres pays.

Malgré une importante mobilisation des ressources pour le biométhane et le bois-énergie, Engie estime que son scénario utiliserait seulement 60 % du potentiel de biomasse.

Enfin, pour boucler l’équilibre offre-demande en électricité, Engie estime que les besoins de moyens flexibles vont fortement augmenter (+600 GW au niveau européen). Parmi eux, on trouve les batteries des véhicules électriques, la modulation de la demande (spécialement l’industrie et les 270 GW d’électrolyse) et les pompes à chaleur hybrides. Mais également le stockage par batteries stationnaires, le pompage-turbinage hydroélectrique et les centrales thermiques utilisant des gaz décarbonées. 105 GW de ces centrales seront nécessaires selon Engie pour gérer les pointes de consommation d’électricité. Si elles n’étaient pas développées, il faudrait investir dans 700 GW supplémentaires d’EnR et 200 GW de batteries : le surcoût serait tel (plusieurs dizaines de milliards d’euros par an) qu’il devrait clore le débat et inciter les États européens à investir dans ce type de moyens de production. Encore faut-il qu’ils décident de ne pas fermer la porte aux vecteurs gazeux… y compris en France.

Des résidus de pesticides persistent dans les sols de toute la France

L’utilisation des pesticides est la base de l’agriculture moderne, avec plus de 2,7 millions de tonnes de substances actives employées dans le monde en 2020, en augmentation de 50 % depuis les années 1990. En Europe, la France est le premier pays consommateur et cette utilisation intensive soulève des inquiétudes quant à leur devenir dans l’environnement et les impacts qui en résultent sur les écosystèmes. Bien que les pesticides soient très surveillés dans l’eau, ce n’est pas le cas dans les sols. Des chercheurs de l’INRAE, avec la collaboration de l’université de Bordeaux, ont procédé à des analyses de sol dans toute la France métropolitaine. Leurs travaux viennent de paraître dans la revue Environmental Science & Technology.

Au total, 47 sites du Réseau de mesures de la qualité des sols (RMQS), un programme national d’observation de l’évolution des sols, ont été échantillonnés entre 2019 et 2021, à une profondeur de 0-20 cm. Ce sont principalement des sols cultivés (grandes cultures, vignes et vergers), mais aussi des sols supposément non traités, comme des prairies, des forêts et des friches. Les scientifiques ont recherché 111 substances, qui ont été priorisées par l’Anses sur la base de leurs usages et de leurs comportements dans l’environnement.

Les analyses ont démontré une présence généralisée des pesticides dans presque tous les sols, puisque 46 des 47 sites, soit 98 %, contiennent au moins une substance dans la couche arable. Et 67 substances différentes ont été détectées ; les fongicides étant les plus fréquents avec un taux de détection de 69 %, suivis des herbicides (61 %) et des insecticides (40 %). Les molécules les plus fréquemment détectées sont le glyphosate et l’AMPA (acide aminométhylphosphonique), son métabolite principal, qui sont présentes dans respectivement 70 % et 83 % des échantillons de sols prélevés. Les chercheurs ont observé que la persistance de ces molécules de pesticides va bien au-delà de leur temps de dégradation théorique et à des concentrations supérieures à celles escomptées.

La compréhension de la contamination des sols est encore mal connue

Le nombre de résidus de pesticides quantifiés par site varie de 1 à 33, avec une valeur médiane de 9 substances. Les sols cultivés sont sans surprise les plus contaminés, avec une médiane de 15 résidus de pesticides détectés, et la quasi-totalité de ces sols contient au moins sept résidus. Le plus inattendu des résultats est la détection de plus de 32 pesticides différents dans les sols sous forêts, prairies permanentes, en friche ou en agriculture biologique depuis plusieurs années, certes avec des niveaux de concentration majoritairement plus faibles que pour les sites en grandes cultures.

L’hypothèse majeure de contamination de ces terres non cultivées pourrait être la proximité avec des champs traités. Par exemple, deux forêts étudiées sont situées à proximité de terres arables et la friche industrielle la plus contaminée se trouve proche d’un vignoble. Néanmoins, deux autres forêts sont entourées de prairies et de forêts, ce qui suggère d’autres facteurs influençant la contamination des sols, tels que le transfert atmosphérique à longue distance induit par des conditions atmosphériques défavorables.

Les scientifiques ont également procédé à l’évaluation des conséquences de la présence de ces molécules de pesticides sur les organismes du sol. Selon eux, le risque est non négligeable sur de nombreux sites, mais six présentent un risque élevé et concernent des terres arables cultivées en agriculture conventionnelle. Concernant les terres non cultivées (prairies, forêts et friches), la plupart des sols présentaient un risque négligeable ou faible pour les vers de terre.

« La présence généralisée de résidus de pesticides dans presque tous les sols échantillonnés, y compris les champs biologiques et les zones non traitées telles que les forêts et les prairies permanentes, met en évidence le manque de connaissances sur la dispersion des pesticides dans l’environnement », notent les auteurs de cette étude. Ils ajoutent que : « les résultats plaident pour l’intégration des résidus de pesticides dans la surveillance des sols à l’échelle nationale et une révision des procédures d’homologation d’utilisation des pesticides dans les pratiques agricoles réelles. Par ailleurs, ces substances devraient être prises en compte dans la construction de la future réglementation sur la protection des sols et notamment la loi européenne sur la santé des sols en cours de discussion. »

Le marché du drone civil est-il en plein boom ?

En 2015, le marché mondial du drone civil et militaire atteignait 4 milliards de dollars. Selon un rapport du Sénat paru en 2017, celui-ci devrait atteindre 14 milliards d’ici 2025. D’autres sources spécialisées avancent même le chiffre de 72 milliards en 2028, avec un taux de croissance annuel moyen de 14,4% !

Des prévisions optimistes au niveau mondial, mais qu’en est-il de la France ?

Pourtant, malgré ces prévisions optimistes, en France, le marché des drones civils professionnels semble toujours en phase de maturation. Il se concentre essentiellement sur des segments spécialisés, alors que les concurrents américains, chinois et israéliens ont pris la majorité des parts sur le marché des usages audiovisuels de loisirs.

Au cours de l’interview qu’il nous a accordé, David Miret, CTO de la plateforme de gestion de drone Clearance, a déclaré :

« Cela fait 10 ans qu’on entend parler de la révolution des drones et malgré tout, on ne voit toujours pas apparaître de milliers de drones au-dessus de Paris. En réalité, le marché du drone demeure modeste. Si on compte aujourd’hui une dizaine de milliers d’exploitants de drones professionnels[1] en France, ces entreprises sont en majorité des autoentrepreneurs, donc des personnes seules exerçant une activité annexe. Il y a aussi beaucoup de cabinets de géomètres qui se sont équipés en drones et qui utilisent ces outils, mais pas forcément de manière régulière. »

Si le secteur français des drones civils ne semble pas gigantesque à l’heure actuelle, la croissance du marché des drones est en revanche indéniable. Selon la DSAC, 2 000 nouveaux exploitants professionnels apparaissent chaque année et aucun ralentissement n’aurait encore été observé.

Une observation confirmée par David Miret : « Clearance fournit ses services à l’aéroport et l’aérodrome de Toulouse depuis 2017, ce qui nous permet d’avoir accès à des chiffres représentatifs. Sur la zone gérée par l’aérodrome, on observe bien une croissance de l’utilisation des drones de 20 % à 30 % par an. Ça peut sembler beaucoup, mais les chiffres sont modestes, car c’est toujours un marché de niche. »

Cette croissance n’est donc pas forcément un signal fort pour les investisseurs, car les applications business sont pour le moment modérées et les drones employés sont relativement peu onéreux.

« Il est difficile de donner des chiffres précis, mais on estime à quelques centaines de milliers le nombre de vols de drones annuels, en France. Sachant que les missions sont facturées quelques centaines d’euros en moyenne, les enjeux financiers restent faibles en comparaison avec les chiffres de l’aviation. »

Pour ce qui est des applications, le drone révolutionne néanmoins la pratique de certains métiers, notamment l’inspection (des bâtiments, des réseaux, des usines) ainsi que le métier de géomètre (photogrammétrie par drone, lidar, etc.). Ce succès vient également du fait que les sommes à investir sont relativement modérées.

« Pour réaliser le bilan thermique d’un bâtiment ou faire de l’inspection, inutile d’investir des sommes gigantesques. La plupart des exploitants de drones volent avec un DJI qui coûte quelques milliers d’euros et convient parfaitement à la plupart des applications. Les plus gros utilisateurs de drones en France sont d’ailleurs les exploitants de réseaux. RTE et ENEDIS ont ainsi formé des centaines de techniciens à l’utilisation des drones, car cela facilite considérablement le travail d’inspection et permet des économies tout en sécurisant les interventions. »

Le transport de marchandises et de passagers par drone : un marché voué à se développer ?

Bien que le drone ne semble pas destiné à remplacer les autres modes de transport aérien, de nouvelles applications pour le transport de marchandises et de passagers sont néanmoins en train d’émerger.

Des démonstrations de taxis volants expérimentaux seront même organisées lors des prochains Jeux olympiques de 2024, qui auront lieu à Paris. Si les projets concernant la mobilité urbaine se multiplient, avec le soutien de l’Union européenne, la question de la sécurité et de l’intégration des drones dans l’espace aérien reste néanmoins centrale et le développement de l’automatisation et du U-Space est une condition nécessaire.

La start-up française CAPS, dont nous avons interrogé le CEO, dans cet autre article, veut par exemple réinventer la mobilité urbaine en développant un système de transport par drone automatisé et 4 fois plus rapide que les modes de transport actuels ! En attendant d’obtenir les autorisations pour transporter des passagers (ce qui prendra du temps en Europe, mais ira beaucoup plus vite dans d’autres pays), CAPS va déployer son système pour le transport de marchandises, dans le but de fluidifier la supply chain.

Un développement du drone à plusieurs vitesses

C’est un fait, le marché du drone ne semble pas se développer à la même vitesse en Europe, aux États-Unis et en Asie et les stratégies employées seraient différentes.

En effet, dans des pays comme les États-Unis, ou ailleurs en Asie, on procède beaucoup par expérimentation et on se concentre d’abord sur la démonstration technique. L’aspect réglementaire est alors traité a posteriori, en fonction des retours d’expérience. En Europe il y a une tendance à vouloir légiférer en amont, sur des technologies qui ne sont pas totalement matures, ce qui peut aussi être perçu comme un facteur de ralentissement.

La livraison à domicile par drone en est peut-être le meilleur exemple. Il y a peu, la société Wing, détenue par Alphabet, la maison mère de Google, affirmait ainsi qu’en 2024 elle serait capable de gérer des millions de livraisons pour des millions de consommateurs. Au-delà du simple coup de com’, le service de livraison automatisé proposé par Alphabet semble presque arrivé à maturité, puisqu’ils annoncent avoir déjà dépassé les 200 000 livraisons commerciales par drone et que le service est déjà testé dans plusieurs villes du monde.


[1] En 2019, on dénombrait déjà plus de 15 000 aéronefs professionnels

Allègement des structures et nouveaux matériaux : les autres leviers pour décarboner l’industrie aéronautique

Avec le plan de relance de 2020 et le plan d’investissement France 2030, la France a engagé des efforts importants dans le but de développer une aviation « plus verte ». Au niveau mondial, des moyens colossaux seront nécessaires pour atteindre l’objectif de zéro émission nette en 2050 et les compagnies aériennes estiment qu’il faudra 1 550 milliards de dollars d’investissements entre 2021 et 2050 !

La motorisation et le carburant comme principaux leviers de décarbonation

La recherche de sources d’énergie alternatives et le développement de nouveaux moteurs sont les principaux leviers technologiques de décarbonation avancés par les acteurs de l’industrie aéronautique.

Mais avant même la prise de conscience des aspects environnementaux, l’amélioration de la motorisation a toujours été un sujet d’intérêt.

C’était déjà le but de Safran (Snecma à l’époque) et General Electric lorsqu’ils lancèrent, en 1974, la co-production du célèbre moteur CFM 56. Dès son entrée en service en 1982, ce moteur, qui reste à ce jour le modèle le plus produit au monde, a ainsi permis aux avionneurs de réaliser des avancées considérables en termes d’économies de carburant et de réduction des émissions (ainsi que du niveau sonore).

Depuis 2016, une nouvelle gamme de motorisation appelée LEAP a fait son apparition. Celle-ci permet de réaliser environ 15 % d’économies supplémentaires.

À l’avenir, de nouvelles technologies de moteurs devraient voir le jour, notamment la technologie Open Rotor, qui permettrait de réduire la consommation en carburant de 20 %.

Au-delà de la motorisation, la recherche de sources d’énergie alternatives est actuellement au centre des préoccupations des industriels.

La propulsion électrique n’étant pas adaptée aux vols moyens et long-courriers, pour de multiples raisons (poids des batteries, bilan ACV, risque d’incendie, etc.), les fameux carburants d’aviation durable (CAD ou SAF), dont la généralisation permettrait de réduire les émissions de CO2 de 45 % d’ici 2050, représentent ainsi une solution de décarbonation prometteuse de l’aérien[1].

Réduire le poids des avions grâce à la fabrication additive et aux matériaux composites

L’essor de nouvelles technologies permet aux industriels d’imaginer des structures et moteurs allégés. En 2022, le groupe Safran a ainsi inauguré un site dédié à la fabrication additive, une des technologies clés de l’allègement qui s’immisce peu à peu dans l’aéronautique.

Si l’allègement des aéronefs a toujours été un sujet d’importance en aéronautique, avant tout pour des raisons économiques et de performance, selon un rapport d’Air France, réduire le poids d’un avion de seulement 1kg permet d’éviter l’émission de 69 tonnes de CO2 chaque année.

C’est la raison pour laquelle l’A350 est composé de matériaux jusqu’à 67 % plus légers (composites et titane), que les sièges sont allégés, de même que la vaisselle utilisée à bord.

Dans un récent webinaire consacré à la décarbonation de l’industrie aéronautique, le Centre Technique Industriel de la Plasturgie et des Composites (CT-IPC) a présenté une multitude d’exemples de projets d’allègement, dont voici une liste non exhaustive.

  • Projet ELCOCOS de Latécoère : matériaux composites pour l’allègement des portes.
  • Projet INN-PAEK[2] : fabrication de roues à boudin allégées et recyclables.
  • Safran Landing Systems : développement d’un atterrisseur conçu par fusion laser sur lit de poudre (SLM) 15 % plus léger.
  • Le CETIM vient de remporter les JEC Composites Innovation Award pour la fabrication d’un volet d’aile Krüger en composite thermoplastique recyclable.

Enfin, ces différents projets soulignent également une autre problématique, celle de la recyclabilité des matériaux en fin de vie et notamment des matériaux composites, qui étaient jusqu’à présent en grande partie enfouis ou incinérés.

Le développement d’éléments en composites thermoplastiques recyclables est ainsi en plein essor et le développement d’une filière de recyclage des aéronefs fait également partie des objectifs fixés par la Stratégie Nationale du Transport Aérien 2025.

Au-delà des leviers technologiques : la modération du trafic aérien comme solution à court terme

Des trois scénarii de décarbonation de l’aérien proposés par l’ADEME, le scénario entièrement basé sur une rupture technologique (carburant, moteur, allègement des structures…) serait le plus efficace à moyen et long terme.

En revanche, il ne faut pas attendre de résultats à court terme, puisque les émissions de CO2 ne baisseraient que de 15 % d’ici 2030 dans ce cas de figure.

Aussi, la réduction du trafic apparaît également comme un levier majeur de réduction des émissions de CO2 du secteur aérien. C’est en effet le seul levier disponible à court terme, car applicable rapidement à grande échelle, donc susceptible de produire des effets immédiats.


[1] Ces carburants sont aussi d’excellents candidats pour la décabornation du transport maritime.

[2] ELCOCOS et INN-PAEK sont tous deux financés par le programme européen Clean Sky II.

Plus de la moitié des lacs du monde voit leur volume d’eau baisser

Les lacs couvrent seulement 3 % de la superficie terrestre mondiale, mais stockent 87 % de l’eau douce de surface de la planète sous la forme liquide. Ils fournissent des services écosystémiques précieux aux populations locales ainsi qu’à la faune et participent à la régulation du climat à travers le cycle du carbone. Le changement climatique et les activités humaines menacent de plus en plus ces réservoirs, et certains des plus grands lacs du monde ont récemment connu une baisse de leur niveau d’eau. Cependant, cette évolution à l’échelle mondiale reste largement méconnue. Une équipe internationale de chercheurs s’est penchée sur le sujet et vient de publier une étude dans Science.

Pour mener à bien ce travail, les scientifiques ont construit une base de données mondiales regroupant 1 972 lacs, se répartissant en 1 051 lacs naturels et en 921 retenues d’eau créées par l’homme, et représentant respectivement 96 % et 83 % de chacun de ces réservoirs dans le monde. Au total, ils ont analysé près de 250 000 images satellitaires couvrant la période allant de 1992 à 2020. L’estimation de la variation du volume d’eau des lacs a été réalisée en combinant l’observation des zones couvertes en eau avec l’utilisation de neuf altimètres satellitaires pour mesurer l’élévation de leurs surfaces. Grâce à l’analyse de données climatiques mondiales, l’utilisation de modèles hydrologiques et de relevés in situ, les chercheurs sont parvenus à identifier l’origine de la variation des stocks d’eau, en analysant si elle est liée à des facteurs naturels ou anthropiques.

Des pertes de volume d’eau dans les zones arides et humides

Résultat, les scientifiques ont constaté des baisses de stockage statistiquement significatives dans 53 % de ces réservoirs d’eau sur cette période qui couvre près de trois décennies. Globalement, la baisse représente environ 21 gigatonnes d’eau par an, soit un volume cumulé de 602,28 km3, ce qui équivaut à 17 fois le volume du lac Mead, le plus grand réservoir des États-Unis. La perte de volume est plus marquée dans les zones arides, mais s’observe également dans les zones humides. Les principales régions du monde sont concernées, notamment l’ouest de l’Asie centrale, le Moyen-Orient, l’ouest de l’Inde, l’est de la Chine, le nord et l’est de l’Europe, l’Océanie, les États-Unis contigus, le nord du Canada, l’Afrique australe et la majeure partie de l’Amérique du Sud.

Les principales causes de ces pertes de volumes d’eau sont à mettre sur le compte du réchauffement climatique et de la consommation humaine. Dans le détail, la consommation d’eau non-durable a provoqué l’assèchement de la mer d’Aral en Asie centrale, du lac Mar Chiquita en Argentine et de la mer Morte au Moyen-Orient. Tandis que l’augmentation des températures et l’évaporation ont entraîné la disparition complète du lac Good-e-Zareh en Afghanistan, des lacs Toshka en Égypte, et de l’assèchement marqué du lac Kara-Bogaz-Gol au Turkménistan. Les baisses de précipitations et du ruissellement ont provoqué des baisses de volume d’eau de la mer Caspienne, du lac d’Ourmia en Iran, et du Grand Lac Salé aux États-Unis. Enfin, la sédimentation est le principal facteur explicatif de la diminution du volume des réservoirs d’eau créés par l’homme.

Mettre en œuvre de nouvelles politiques pour limiter la baisse

Pour Fangfang Yao, l’auteur principal de cette étude et aujourd’hui chercheur sur le climat à l’Université de Virginie, ces résultats ne sont pas pour autant totalement sombres. « Grâce à cette nouvelle méthode de suivi des tendances de stockage de l’eau des lacs et des raisons qui les sous-tendent, les scientifiques peuvent donner aux gestionnaires de l’eau et aux communautés un aperçu de la manière de mieux protéger les sources d’eau critiques et les écosystèmes régionaux importants. » Ainsi, lorsque la consommation humaine représente un facteur important dans le déclin du stockage de l’eau d’un lac, il est possible de mettre en œuvre de nouvelles politiques pour limiter la baisse. C’est d’ailleurs ce qui s’est produit dans l’un des lacs les plus étudiés par les auteurs de l’article, à savoir le lac Sevan en Arménie. Celui-ci a connu une augmentation de son stockage d’eau au cours des 20 dernières années ; un phénomène lié à l’application de lois de conservation sur le prélèvement de l’eau depuis le début des années 2000.

Alors que la majorité des lacs du monde subit des pertes, 24 % ont tout de même enregistré des augmentations significatives de leur stockage de l’eau. Mais ces derniers ont tendance à se trouver dans des zones sous-peuplées du plateau tibétain intérieur et des grandes plaines du nord de l’Amérique du Nord, ainsi que dans des zones où de nouveaux réservoirs sont créés, notamment en Asie du Sud Est. Au final, les auteurs estiment qu’environ un quart de la population mondiale, soit 2 milliards de personnes, réside à proximité d’un lac sur le point de s’assécher, ce qui indique un besoin urgent d’intégrer la consommation humaine, le changement climatique et les impacts de la sédimentation dans la gestion durable des ressources en eau.

Lionel Ranjard : préserver la qualité microbiologique des sols permettrait de limiter les intrants chimiques et techniques d’entretien du sol

Techniques de l’Ingénieur : Quel est votre parcours professionnel ?

Lionel Ranjard : Mon parcours professionnel n’a pas été très linéaire. J’ai commencé dans la biologie des populations, puis la chimie et la biologie végétale avant de me spécialiser dans l’écologie et notamment l’écologie microbienne des sols. Je viens d’une formation universitaire assez fondamentale et travaille depuis plus de 20 ans à l’INRAe où j’ai essayé d’adapter les concepts d’écologie fondamentale aux sols agricoles pour mieux définir leur qualité et leur capacité de résilience.

Qu’est-ce qui vous a amené à vous intéresser à la microbiologie des sols ?

J’ai réalisé que l’écologie était beaucoup plus intégratrice pour expliquer les processus naturels d’un écosystème et j’ai donc naturellement évolué vers ce domaine. Et mon attrait pour la matrice « sol » vient du fait que c’est une frontière biotique où presque tout est encore à découvrir : les microorganismes, les processus de régulation et de résilience. Il y a donc de nombreux challenges scientifiques à relever avec un enjeu sociétal fort pour réhabiliter son image.

Quelle est la situation actuelle et les enjeux concernant les sols en général et les sols agricoles en particulier ?

Le sol est un des principaux réservoirs de biodiversité de notre planète et à ce titre il rend de nombreux services en tant que support de la production agricole et solution pour le stockage du carbone. L’enjeu principal est de faire un état des lieux de la qualité des sols d’un point de vue biologique afin de dresser un premier bilan et dans un deuxième temps d’orienter les modes d’usages et pratiques associés pour améliorer la qualité du sol et ses capacités à rendre les services d’intérêts. Ceci devrait permettre de développer des modes de production plus agroécologiques et à même de produire autant, avec une empreinte environnementale moins négative due à la réduction de l’utilisation des intrants chimiques et de la mécanisation.

Quel est l’intérêt de la microbiologie du sol pour l’agriculture ?

Les microorganismes sont partout, ils sont les plus biodiversifiés et surtout ce sont les seuls à pouvoir minéraliser la matière organique. Ils sont donc à la base de la fertilité du sol, mais aussi de sa stabilité structurale et de ses capacités de dépollution et même de protection des cultures. Si on préserve voire pilote la qualité microbiologique des sols grâce à des pratiques agricoles adaptées, cela permettrait petit à petit de limiter l’usage des intrants chimiques et des techniques d’entretien du sol qui sont démontrées comme étant assez agressives et peu durables.

Quelles solutions existent déjà ou sont à développer pour diagnostiquer l’état biologique des sols ?

De nombreux bioindicateurs microbiens sont actuellement développés ou en cours de développement. Il y a une véritable explosion de ce marché avec des choses rigoureuses et d’autres un peu moins. La plupart du temps il manque des référentiels d’interprétation, ce qui limite la capacité de diagnostic. A ce stade il est important de privilégier les indicateurs qui ont fait l’objet de publications scientifiques internationales.

Quels sont les bénéfices attendus de la prise en compte de la qualité biologique des sols pour l’agriculture ?

La qualité biologique des sols est un paramètre très important car elle rend compte de l’empreinte environnementale des pratiques d’usage des sols et par là même elle est synonyme de leur durabilité. Plus précisément si la qualité biologique d’un sol agricole est bonne cela veut dire que l’agriculteur pourra compter sur le fonctionnement biologique du sol pour assurer la production de son système en devenant de plus en plus indépendant des intrants chimiques et de la mécanisation.

Quelle est la place de la France dans ces développements ?

La France est parmi les leaders européens sur les études concernant la microbiologie des sols à grande échelle et sur le développement d’indicateurs de qualité microbiologique des sols. Cela s’explique par le développement de réseaux de surveillance des sols nationaux depuis une vingtaine d’années et grâce à un investissement fort des instituts de recherche publique.

Quels sont vos projets actuels et futurs ?

Mes projets sont de trois ordres :

  • continuer l’exploration de la microbiologie des sols français grâce au réseau de mesures de la qualité des sols qui couvre tout le territoire national afin de mieux comprendre la régulation de ces communautés d’un point de vue fondamentale et voir leur évolution en fonction du changement climatique.
  • Développer de nouveaux indicateurs microbiens de la qualité des sols basés sur les fonctionnalités des microorganismes en complément des indicateurs d’abondance et de diversité.
  • Aborder des échelles territoriales pour mieux évaluer les pratiques agricoles et leur durabilité en fonction des contextes pédoclimatiques et des objectifs de production. Cette partie de ma recherche est déployée soit de façon académique soit de façon participative en travaillant directement avec des groupes d’agriculteurs et de viticulteurs.

Quelles compétences et qualités sont, selon vous, indispensables en général et plus particulièrement sur vos domaines d’expertise ?

Le sol étant au centre des débats scientifiques et sociétaux, les chercheurs des instituts publics ont un rôle important à jouer pour apporter des données scientifiques rigoureuses et fiables, et ainsi faciliter la compréhension et les échanges entre les différents acteurs concernés. Donc en termes de compétences, il y en a plusieurs :

  •       La rigueur : comme pour tout domaine de recherche, la rigueur est nécessaire pour apporter des données fiables.
  •       L’esprit critique : pour analyser et prendre du recul sur son propre travail comme sur celui des autres.
  •       La créativité et originalité : pour trouver des solutions innovantes, il faut savoir sortir des sentiers battus et créer des nouveaux liens pour enrichir la connaissance.
  •       Le sens de la communication (auprès de différents publics) : pour être capable de partager les savoirs, et faciliter la compréhension et les échanges entre différentes parties prenantes, notamment sur des sujets sociétaux en pleine ébullition comme la qualité des sols !

Que vous apporte la collaboration avec Techniques de l’Ingénieur, en tant qu’auteur et conseiller scientifique ?

Cela me permet de transférer plus directement les connaissances scientifiques académiques aux futurs utilisateurs qui sont demandeurs des avancées de notre recherche.