La nacre : une source d’inspiration en céramique

Un extrait de Bio-inspiration pour l’amélioration des céramiques et des composites structuraux par Florian BOUVILLE

Le principal but d’adapter les microstructures naturelles pour les composites céramiques est de produire des matériaux plus tenaces, à même de pouvoir diminuer le risque de fractures imprévues. De tous les matériaux développés, ces dernières années, les nacres d’alumine représentent une première opportunité de développement pour plusieurs raisons : le matériau de base, l’oxyde d’aluminium, est une des céramiques techniques les plus communément utilisées, les procédés sont proches des procédés céramiques traditionnellement utilisés et finalement, les propriétés mécaniques obtenues sont au-dessus des composites à base d’oxydes utilisés en 2020. En matière d’applications, les premières visées sont les applications déjà occupées par les composites à fibres longues à base d’oxyde, donc les pièces de moteurs fonctionnant à haute température, comme des chambres de combustion, des tuyères ou des pièces d’isolation thermique.

La coquille et le marteau

Afin de protéger leurs organes vitaux et grâce à des millénaires d’évolution, les mollusques présentent une coquille capable de résister à la fois aux chocs dus aux vagues et aux attaques des prédateurs. La coquille des mollusques peut être constituée de plusieurs structures différentes, dont la nacre, suivant les espèces et les croissances saisonnières. La nacre est présente dans la plupart des coquilles et leur donnent leur aspect iridescent. Elle est constituée de tablettes d’une dizaine de microns de longueur et d’un demi-micron d’épaisseur parfaitement imbriquées les unes avec les autres. Ces tablettes faites d’aragonite, une des structures cristallines possibles du carbonate de calcium, sont séparées par une fine épaisseur de protéine d’environ 20 nm. Toutes ces caractéristiques font de la nacre un matériau extrêmement tenace et ce, malgré le fait qu’il soit constitué de 95 % de minéral et seulement 5 % de protéine. C’est cette composition qui a longtemps attiré les céramistes car la présence d’une si grande fraction minérale laisse à penser que des céramiques basées sur cette structure pourraient en conserver les performances.

La crevette-mante paon, ou squille multicolore, est un crustacé de la famille des stomapodes qui est connu des aquariophiles pour ses couleurs vives. Les chercheurs ont commencé il y a quelques années seulement à s’y intéresser pour une raison toute autre : cet animal se nourrit essentiellement de mollusques. Cela veut dire que malgré le fait que la nacre présente une ténacité extrême pour un matériau naturel avec des valeurs de ténacité de 3 à 9 MPa.m1/2, la crevette-mante paon s’est dotée au fil de son évolution d’une arme capable de casser les coquilles de mollusques. Il s’agit d’un marteau monté sur un ressort naturel et dont la structure est faite pour résister aux impacts. La vitesse atteinte par cet appendice au moment du contact peut atteindre 20 m/s et une force de plus de 700 N. Plus impressionnant encore, ce matériau naturel peut résister à plusieurs dizaines de ces impacts sur des coquilles ou sur des roches sans que son marteau ne se brise. Le fait remarquable ici est que les compositions de la nacre et du marteau sont presque identiques, les parties minérales en tout cas possèdent des propriétés très proches. La question qui se pose pour nous est celle du degré auquel nous devons, ou dans la plupart des cas nous pouvons, reproduire ces structures avec d’autres procédés et quels sont les points critiques à reproduire.

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 9 juin 2021 !

Bio-inspiration pour l’amélioration des céramiques et des composites structuraux par Florian BOUVILLE

Des structures biomimétiques pour ressusciter les fonds marins

Dans la calanque de Cortiou, le déversement d’eaux usées avait endommagé l’écosystème. Avec le projet REXCOR, l’entreprise Seaboost a pu démontrer qu’il est possible d’y ramener la vie. Mais les opérations réalisées par Seaboost ne se résument pas à cela ! La société a déjà une trentaine de projets à son registre. Objectif : restaurer l’équilibre dans des écosystèmes menacés grâce à des dispositifs inspirés de la nature. Et les résultats sont au rendez-vous.

Les récifs artificiels figurent parmi les dispositifs biomimétiques proposés par Seaboost. Quatre types distincts sont immergés dans la calanque de Cortiou :

  • Récif à ragues : il a la forme de plateaux empilés séparés par des modules qui ajoutent des cavités, des interstices et des méandres où peuvent se déplacer les organismes vivants. Il reproduit les « ragues », ces grandes failles horizontales caractéristiques des fonds méditerranéens ;
  • Récif fractal : grâce à sa structure, il crée toutes les orientations préférentielles possibles pour la faune et la flore fixées, que celles-ci préfèrent être exposées ou à l’abri du soleil ;
  • Récif connectivité : traversé de petits tubes qui contiennent des débris de coquilles d’huîtres, ce récif sert de connexion entre la zone côtière sur laquelle s’installent les individus les plus jeunes et les villages de récifs où se trouvent des individus plus adultes ;
  • Récif 3D : fabriqué par impression 3D, il apporte une micro-complexité supplémentaire.

Dans ce même site, un dispositif de plus a également été installé : une roselière, qui mime l’herbier de posidonies, et en reproduit ainsi la nurserie en accueillant les juvéniles et post-larves qui viennent s’y nourrir et s’y mettre à l’abri.

Le projet REXCOR a fait l’objet d’une vidéo de la série Nature = Futur, dont nous sommes partenaires :

 

Chef de projet ingénierie écologie chez Seaboost, Julien Dalle nous a accordé cette interview.

Techniques de l’Ingénieur : Dans la calanque de Cortiou, le projet REXCOR a démarré en 2015. Où en est-il aujourd’hui ?

Julien Dalle : Le projet est toujours en cours : plus précisément, nous poursuivons les suivis, mais les travaux sont finis depuis 2018. Tandis qu’au début du projet nous étions confrontés à un vrai désert écologique, nous avons observé le retour de 64 espèces. Nous retrouvons ces espèces à tous les niveaux trophiques et à tous les stades de vie. Parmi les espèces revenues, nous avons identifié des espèces emblématiques : mérou brun, mérou gris, gorgones, poulpe, langouste…

Les espèces sont de retour même à l’endroit le plus abîmé, celui qui est le plus proche de la sortie de la canalisation, à 100 mètres de distance. Alors que l’eau rejetée était aux normes depuis quelque temps, ce sont les substrats donc le sol – auxquels se fixent la faune et la flore – qui ont été le plus exposés à la pollution. Il faudra un peu de temps pour évacuer tous ces contaminants. Et grâce aux habitats sains que nous avons apportés, nous avons pu permettre un retour à la vie. Les grandes fonctionnalités écologiques ont été restaurées : habitat, frayère, nurserie, substrat, alimentation… Le taux de recouvrement – ou colonisation – des matériaux poreux par la faune et la flore a même atteint 100 % à certains endroits.

Le fait que les espèces soient présentes à tous leurs stades de vie (œufs, larves, juvéniles, adultes…) signifie que les sites n’ont pas une simple fonction d’abri transitoire. Les espèces présentent une forte sédentarité : elles pondent, naissent, grandissent et se reproduisent dans cette zone qui est par conséquent un écosystème équilibré qui crée de la biodiversité. Ce n’est pas simplement un transfert de biomasse. Et le fait que tous les niveaux trophiques soient représentés prouve qu’un écosystème complet s’installe et est donc la garantie d’un équilibre écologique.

Combien de dispositifs avez-vous installés dans la calanque de Cortiou ?

Nous avons mis en place 4 villages de 6 récifs chacun (soit 3 récifs à ragues et 3 récifs fractals), ainsi que 12 récifs connectivités, et un récif 3D.

En quels matériaux sont fabriqués les récifs artificiels de Seaboost ?

Ils sont fabriqués en béton poreux et en béton 3D. Ils présentent une forte micro-complexité et un design biomimétique. La micro-complexité de nos dispositifs a un ordre de grandeur millimétrique à centimétrique. Ces structures ont des formes qui miment celles dans la nature : les trous, les promontoires, les déclivités, les pentes… Et l’impression 3D permet de reproduire cela en créant une diversité de formes inaccessibles autrement. Cela est bien différent des rebuts de chantier parfois immergés dans l’idée qu’ils formeraient des habitats pour la faune et la flore marine… Or, ces objets n’ont aucune micro-complexité et donc le résultat n’est pas toujours satisfaisant ! Certains projets d’immersion d’épaves non décontaminées ou de déchet peuvent même altérer le milieu et relarguer des contaminants, et on est parfois amenés à les enlever.

Vous avez réalisé une trentaine de projets, dont une vingtaine sont en cours, à divers endroits à travers le monde. Pouvez-vous nous en dire plus sur les autres dispositifs biomimétiques déployés ?

Parmi ces dispositifs, nous pouvons citer ROOT qui mime la racine de mangrove et reproduit la géométrie et le contexte de la mangrove afin de permettre son retour dans les zones où elle a été dégradée. On peut aussi évoquer l’Oursin qui, comme son nom l’indique, mime un oursin. Parlons aussi de Qatareef qui est un projet très complexe de récifs artificiels à peu près sphériques installés au Qatar et ayant une immense diversité de formes, avec des rainurages par exemple, et dont le but est d’optimiser la reproduction corallienne. En effet, sur les coraux, quand on a 10 000 larves qui naissent, c’est une seule qui arrive à l’âge adulte. C’est donc un taux de succès d’1 sur 10 000. Avec Qatareef, nous souhaitons améliorer ce taux de succès de 2 ou 3 sur 10 000 : on double ou triple ainsi le chiffre initial, ce n’est pas anodin. Nous avons aussi installé dans le PNMBA (Parc National Marin du Bassin d’Arcachon), un herbier artificiel qui peut remplacer une brèche qui s’est formée dans un herbier suite au passage d’une ancre, ou autre source de dégradation. Quand un trou se forme dans un herbier, cela le pousse à régresser. Avec notre herbier artificiel, nous cicatrisons en quelque sorte cette plaie : le dispositif reproduit l’herbier naturel qui se met à se redévelopper là où il régressait pour enfin remplacer l’herbier artificiel. Ce dernier se désintègre, ou alors on  retire, ou on le déplace, selon le contexte.

Qu’en est-il des projets PEGASE et 3DCOMPLEX, en cours en France ?

PEGASE est un projet mené à Agde. L’idée est de lutter contre l’érosion de la plage avec une solution alternative aux méthodes conventionnelles. Cet ouvrage s’inspire de la mangrove, il remplace la digue ou le brise-lame. Il est moins lourd. Il est modulable aussi. Le projet 3DCOMPLEX est à Valras. Il vise à rendre à des récifs artificiels anciens, qui ne jouent pas ou plus pleinement leur rôle, la capacité à supporter des fonctionnalités écologiques nécessaires aux petits fonds méditerranéens.

Quels projets préparez-vous en ce moment ?

Nous préparons un projet pour la restauration des mangroves en Afrique de l’Ouest et en Asie du sud-est, et un autre pour la restauration des coraux en Polynésie française. N’oublions pas que l’on estime que 2 % de la mangrove disparaissent chaque année, et que 80 % des coraux pourraient disparaître d’ici 2030 ! Or, ce sont environ un milliard d’habitants dont la survie dépend de ces écosystèmes et serait donc menacée.

Qui sont les partenaires de Seaboost ?

Nous avons des partenaires universitaires, comme l’institut GLADYS, l’Université de Bretagne Sud ou l’Université de Nouméa. Des clusters comme le Pôle Mer Méditerranée, le CEEBIOS et Biomimexpo. Et des centres de recherche comme l’Ifremer, le CRIOBE et l’IRD.

Image de une : domaine public // Creative Commons

Des hydroliennes inspirées de la nage des poissons pour plus d’efficacité

Après 25 années passées dans le secteur financier, une année sabbatique a permis à Franck Sylvain d’ouvrir les yeux sur la crise écologique en cours. Il s’est intéressé à des modes alternatifs pour produire de l’énergie. Le hasard des circonstances l’a fait rencontrer un chercheur qui développait un nouveau type d’hydrolienne et qui recherchait des financements. Ensemble, ils ont fondé Eel Energy.

Techniques de l’Ingénieur : Que fabrique Eel Energy ?

Franck Sylvain, CEO d’Eel Energy

Franck Sylvain : Notre entreprise développe une hydrolienne à membrane ondulante, qui s’inspire de la nage des poissons. Lorsqu’on réfléchit à l’animal le plus rapide au monde, on a tendance à répondre « le jaguar » ; or en réalité, des poissons comme l’espadon ou le marlin, qui ondulent, peuvent aller nettement plus vite et atteindre des pointes à 110 km/h sous l’eau. C’est là où on voit la force de l’ondulation. D’autre part, lorsqu’on regarde dans la nature, on trouve des structures à hélice sur terre, comme les graines qui tombent des arbres, mais il n’y en a pas sous l’eau. Les hydroliennes traditionnelles à hélice ne nous paraissaient donc pas les plus adaptées. La forme de l’ondulation produit une force phénoménale, ce qui devient particulièrement intéressant lorsqu’on installe un générateur dessus.

Comment fonctionne votre hydrolienne ?

Il s’agit d’une plaque en plastique recyclable avec des renforts en fibre de carbone, qui est contrainte par des câbles. Les câbles la font se tendre comme un arc puis quand l’eau arrive dessus, elle ondule. On peut contrôler la puissance qu’on met sur les câbles afin de s’adapter aux variations du courant. Sur la plaque, un mât monte et descend, sur lequel on place une crémaillère qui fait tourner un générateur en-dehors de l’eau. Et il faut bien sûr un cadre pour maintenir la machine sous l’eau, qui est soit placé au-dessus de la plaque, soit en posant la structure au fond du cours d’eau. Nos machines doivent être installées à des endroits où il y a une certaine vitesse de courant, environ 2 m/s, et au moins 1,5 m à 2 m de profondeur. Cela peut être dans des fleuves derrière les barrages par exemple, mais on vise plutôt les courants de marées, qui ont des courants supérieurs à 2 ou 3 m/s pour nos petites machines, puis 4 ou 5 m/s pour nos grandes machines à venir.

La membrane de l’hydrolienne ondule comme un poisson. Crédit : Eel Energy

 

A quel stade d’avancée êtes-vous ?

Le mât monte et descend et fait tourner un générateur pour produire de l’électricité. Crédit : Eel Energy

Notre technologie est encore au stade du prototype. La création prend d’ailleurs plus de temps qu’escompté. Nous avons commencé à travailler sur de petites machines, afin de régler tous les problèmes qu’elles pouvaient rencontrer avant d’en créer des plus grandes. Sur nos petits prototypes testés en laboratoire, nous avons réussi à produire très rapidement de l’électricité. Puis quand nous avons travaillé sur une machine un peu plus grande et que nous sommes sortis du laboratoire pour la tester dans un canal, nous avons rencontré des problèmes inattendus : corrosion, points d’usure prématurés, problème de forces etc. Il a fallu la retravailler à plusieurs reprises. Et quand nous avons commencé à faire des tests à plus longue durée, nous avons rencontré de nouveaux problèmes, aussi dus aux technologies de nos fournisseurs.

Depuis le mois de février 2021, nous avons une machine qui fonctionne sans discontinuer, et depuis le mois de mai 2021, nous avons installé dans le même canal une deuxième machine améliorée : elle peut remonter à la surface automatiquement et on peut la débrayer dans l’eau automatiquement. Si le courant augmente trop, la machine va débrayer pour garder une puissance constante de manière à ne pas trop forcer sur la mécanique et ne pas dépasser la capacité du générateur, jusqu’à se mettre totalement à plat si besoin. Maintenant, nous souhaitons voir si, au bout de 6 mois passés dans l’eau, des pièces vont s’user prématurément, ou si notre machine sera prête pour la commercialisation.

Pour l’instant, quelle quantité d’énergie arrivez-vous à produire ?

Notre première machine, qui mesure 1,60 m sur 2 m, produit environ 650 W/h donc 15 kW par jour, dans un courant assez faible d’1,3 à 1,4 m/s. Dès que cette vitesse augmente, on a des hausses de production d’électricité assez importante. Pour l’instant, l’électricité produite n’est pas injectée dans le réseau parce que nous sommes assez loin des compteurs, et installer un compteur vaudrait le coup seulement si nous pouvions injecter une centaine de kW par jour.

Quels sont les avantages de votre machine par rapport aux hydroliennes à hélice ?

Notre approche biomimétique nous permet d’être plus efficaces. En effet, notre machine se déclenche à plus faible vitesse, dès que le courant atteint environ 1 m/s, et notre membrane qui est un capteur d’énergie a une surface beaucoup plus importante que celle des hélices. Donc à encombrement égal, nous produisons plus d’énergie et plus tôt. Autre avantage : des branches et autres éléments se prennent dans les hélices et peuvent les casser, d’où la nécessité de mettre des grilles. Or ces grilles se salissent vite et doivent être nettoyées régulièrement, contrairement à notre technologie. Enfin, et c’est le plus gros avantage selon moi, dans la littérature sur le sujet, nous pouvons lire que les hydroliennes ne pourront pas avoir des pales de 50 m ou 100 m comme les éoliennes à cause du phénomène de cavitation qui se produit sous l’eau et peut casser les pales. Selon mes lectures, les ingénieurs disaient que les hydroliennes à hélice pourraient produire 2 à 3 MW mais qu’il serait compliqué d’égaler les éoliennes qui sont à 10-12 MW. Or avec notre technologie, rien ne nous empêche de produire des machines de 50 m de long. Nous n’avons pas les mêmes barrières physiques.

Quels sont vos projets ?

Pour l’instant, nous laissons tourner nos machines et nous testons également des systèmes de récupération d’énergie. Nous travaillons également sur des machines plus grandes, l’objectif étant d’en construire des suffisamment grosses pour résister aux courants des marées. Ainsi, au lieu d’avoir des machines de 3 kW, nous voulons travailler sur des machines de 15 à 20 kW puis de 50 kW jusqu’à atteindre notre objectif de 1 MW.

Avez-vous évalué l’impact de telles machines sur le vivant ?

Nous n’avons pas fait d’études sur le sujet mais nous imaginons mal comment des êtres vivants pourraient se faire mal avec notre machine car sa vitesse est faible et le mouvement est le même que ce qui se trouve sous l’eau. À aujourd’hui, nous n’avons rien remarqué de particulier durant nos tests. Nous n’avons pas non plus étudié l’impact de nos matériaux sur l’eau mais nous estimons la durée de vie de nos machines à 20 ans maximum avant d’être recyclées, ce qui signifie qu’elles ne resteront pas indéfiniment dans l’eau.

La navette autonome partagée pour désenclaver les territoires peu denses

Le véhicule autonome peut sembler une affaire d’experts qui avance à marche forcée et qui ne concerne que les villes. Et pour cause : le débat concernant le déploiement du véhicule autonome ne s’impose pas encore dans le grand public. En plus, la production scientifique sur le sujet reste avant tout très technique. Selon le nouveau rapport « Véhicule autonome : D’une approche technologique et urbaine à la mobilité inclusive et durable dans les territoires ?  » de la Communauté d’intérêt Movin’On, « sur 100 000 publications scientifiques consacrées au véhicule autonome, seulement 185 concernent son impact sur la mobilité ». Et sur les 120 expérimentations réalisées depuis 2015, seulement six ont été menées en zones peu denses.

Amener le véhicule autonome dans les territoires ruraux

« Les véhicules autonomes n’ont pas été pensés pour les territoires ruraux et leurs habitants », conclut le rapport d’étude. Ainsi, le rôle que pourraient jouer les véhicules autonomes pour désenclaver les territoires peu denses a été complètement délaissé. Menées par la Macif, douze entreprises œuvrant pour l’émergence du véhicule autonome veulent ainsi explorer le potentiel de la navette autonome partagée dans les territoires ruraux et périurbains. Citons-les : BNP Paribas Cardif, Deloitte, Faurecia, Groupama, Kantar, Maif, Michelin, Microsoft, Orange, Vinci et la SNCF.

Pour ces partisans de la mobilité autonome, la navette autonome permettrait une meilleure inclusion sociale et territoriale. Selon leur étude, le point de départ de la réflexion pour penser le déploiement de la navette autonome doit être les besoins des publics exclus de la mobilité. Les navettes autonomes viendraient alors en complément de la voiture et non pas en concurrence. « Cela favoriserait la mobilité des personnes à mobilité réduite âgées ou handicapées, ainsi que des habitants des territoires périurbains et ruraux qui sont dépendants de la voiture et n’ont pas ou peu accès à des transports collectifs », avancent les auteurs du rapport.

Répondre à de profondes controverses

Le groupe de travail a dessiné une cartographie des controverses non-techniques qui entourent le véhicule autonome. Elle met en exergue cinq champs : les controverses relatives aux usages, les controverses économiques, environnementales, juridiques et normatives, ainsi que politiques. Il apparaît ainsi que le véhicule autonome est « un objet catalyseur des transformations sociales de notre temps ».

Cartographie des controverses non techniques qui entourent le véhicule autonome. A lire p.218 © Movin’On, issue du rapport « Véhicule autonome : D’une approche technologique et urbaine à la mobilité inclusive et durable dans les territoires ? »

Grâce à cette cartographie, la Communauté d’Intérêt Movin’On étudie désormais les conditions de déploiement de la mobilité autonome dans les territoires ruraux et périurbains. L’objectif est d’identifier les territoires les plus à même d’accueillir les futurs véhicules autonomes et mener une première expérimentation en 2022.

Le best of presse : au fil de l’actu sci-tech #2

Ici vous trouverez notre récap’ de l’actualité scientifique et technologique qui a bercé ou chamboulé le mois de mai. Pour démarrer la semaine au taquet !

Prématuré ?

Peu remarqué à l’international mais fortement médiatisé dans son pays, le vaccin kazakh QazVac fait l’objet d’une campagne vaccinale à l’échelle nationale alors qu’il est encore en phase 3 des essais cliniques, rapporte le Monde.

La 5ème est la bonne

Après quatre tentatives ratées, premier atterrissage réussi pour Starship, la fusée de SpaceX. Un exploit que vous pouvez revoir sur le site de 20minutes.

5, puis 6 !

Selon le quotidien japonais Nikkei, l’après-5G se profile déjà… Le président américain Joe Biden et le premier ministre japonais Yoshihide Suga ont décidé d’investir conjointement 4,5 milliards $ pour le développement de la 6G. L’occasion de rouvrir notre dossier sur la 5G que nous avons publié en novembre 2020, ici.

De mille feux

Le bijoutier Pandora ne vendra plus de diamants naturels, nous informe la BBC. Il bascule ainsi au 100 % diamants de synthèse, fabriqués en laboratoire au Royaume-Uni où ils seront vendus en premier.

On vous parlait déjà des diamants de culture, en décembre dernier, dans cette interview d’Alix Gicquel, fondatrice de Diam Concept ! Cette start-up produit des diamants en laboratoire à destination de la joaillerie.

La fille désastre

Connaissez-vous les NFTs ? Les “non-fungible tokens” sont des fichiers informatiques “gravés” dans la blockchain, dont on vous a récemment parlé ici.

Et voici pourquoi on vous en reparle : le célèbre mème “Disaster girl” s’est vendu aux enchères en tant que NFT ! Il rapporte ainsi la coquette somme de 500 000 $ à Zoë Roth, qui n’est autre que l’enfant sur cette photo, détaille le New York Times. Désormais adulte, elle compte utiliser cet argent pour payer ses études et faire des donations.

Les yeux tout pleins d’étoiles

Au prix d’une manœuvre d’atterrissage risquée, le rover chinois Zhurong s’est posé avec succès sur la surface de Mars. Il entame ainsi une mission de 90 jours ! Détails à lire dans Numerama.

Nous sommes un peu plus perplexes devant cette autre info spatiale, relayée par Indie Wire : le 5 octobre, un binôme russe s’envolera vers l’espace pour… filmer un long-métrage ! Il raconte la quête d’une chirurgienne pour soigner un astronaute.

Voilà de quoi alimenter nos questionnements sur l’éthique de l’espace ! Nous vous en parlions dans cette interview publiée en janvier.

Chaud

La pandémie de Covid-19 a eu des conséquences catastrophiques sur la recherche dans les régions arctiques, interrompant plusieurs projets en cours. Ce photoreportage de Wired, au Groenland, vous aide à comprendre les enjeux.

Cela n’a pas empêché la publication de l’étude la plus complète à ce jour sur la fonte des glaciers à travers le monde. Résumé du bilan, écrit Pour la Science : chaque année depuis 2000, les glaciers perdent en moyenne 267 milliards de tonnes de glace. Et c’est inquiétant.

N’oublions pas que le réchauffement climatique touche la Terre dans sa globalité : l’Afrique n’en est pas épargnée, nous avons sonné l’alerte dans cet article en février 2020.

Ça pique

Embarquez, au cœur du trafic de cactus. On parie que vous ne vous y attendiez pas ! Le New York Times revient sur cette pratique crapuleuse et sur le démantèlement d’un réseau criminel basé en Italie.

Longue sieste

Résultats prometteurs pour l’une des expériences les plus longues de l’histoire (142 ans !) : à Michigan State University, 11 graines ont germé après une centaine d’années de dormance dans des bouteilles enfouies sous terre. Toujours dans le New York Times.

Crédit image de une : Intissar El Hajj Mohamed//Techniques de l’Ingénieur

S’inspirer des diatomées pour fabriquer du verre à température ambiante

Les diatomées sont des microalgues unicellulaires. Malgré leur taille infime, comprise entre 2 μm et 1 mm, l’apparence de ces organismes suscite la curiosité des chercheurs : « Pour se protéger, la diatomée se construit une petite carcasse, nous explique Jacques Livage, chimiste et professeur honoraire au Collège de France. Cette sorte de carapace solide doit toutefois être transparente, pour laisser passer la lumière et permettre ainsi à la diatomée de poursuivre la photosynthèse. Alors, au lieu de fabriquer une enveloppe en carbonate de calcium comme les huîtres, celle de la diatomée est en verre ! La diatomée la fabrique en récupérant du silice contenu dans l’eau de mer. » En effet, l’enveloppe de la diatomée, nommée frustule, n’est autre qu’un squelette (externe, évidemment) à base de silice tout comme le verre. Une particularité qui a trouvé preneur dans le domaine de la bioinspiration.

Jacques Livage travaille depuis « au moins 30 ans » sur la production de verre inspirée des diatomées. Une technique qui se démarque bien du schéma classique, puisqu’elle se pratique à température ambiante ! Cela présente deux principaux intérêts, détaille l’expert : « D’une part, c’est un gain d’énergie, car il n’y a pas besoin de chauffer à plus de 1000 degrés. La mise en œuvre est très facile et fait appel à un procédé sol-gel ; d’autre part, il y a un intérêt technologique : avec le procédé sol-gel, on peut produire des films minces, des vitrages, des dépôts, des couches anti-réfléchissantes… ». Mais en quoi consiste ce procédé sol-gel ?

Voici ce qu’en dit notre ressource documentaire dédiée à ce procédé : « Autrefois appelée « chimie douce », la polymérisation sol-gel a tout d’abord été décrite avec la conversion de l’acide silicique en verre solide, avant d’être utilisée beaucoup plus tard comme procédé pour fabriquer des récipients en verre. Le procédé sol-gel inclut une succession d’étapes hydrolytiques, avant la polymérisation, dans le but de préparer des réseaux d’oxydes. Ces derniers sont transformés en alcoxydes métalliques, retenus pour leur réactivité modérée et leur grande modularité. »

Inadapté pour la fabrication de bouteilles

« Réaliser un procédé sol-gel signifie partir d’abord d’une solution pour arriver finalement à un produit solide, en passant au milieu par une matière plus ou moins visqueuse comparable à de la peinture », décrit Jacques Livage. On n’obtient donc pas tout de suite un produit solide mais un « mélange d’eau et de particules de silice amorphe » : « C’est de la silice hydratée qui, lorsque séchée, donne de la poudre, pas du verre massif, donc pas question de faire des bouteilles ou des flacons avec le procédé sol-gel ! L’application première à ce procédé est la fabrication de films minces, et l’avantage ici est que quand on débarrasse l’eau du mélange, cela ne crée pas de trous. Le gel est un mélange homogène d’eau, d’alcool et de silice, et il faut donc en éliminer l’eau ».

Du verre support aux cellules vivantes

Selon Jacques Livage, le procédé gel-sol étant de la chimie douce, il est compatible avec la culture de cellules vivantes : « Je me suis récemment orienté vers la biologie et la possibilité de conserver des cellules vivantes dans une matrice de verre, de silice donc, poreuse, et essayer d’utiliser cela comme outil pour dépolluer l’eau par exemple, ou encore comme moyen thérapeutique… On pourrait par exemple imaginer la création de nanoparticules qui libéreraient des agents anticancéreux ». Ces recherches sont en cours. L’idée de cultiver des cellules sur des matrices en verre nous rappelle les organes-sur-puces, sur lesquels nous avons publié un article, ici.

Les travaux de Jacques Livage ont fait l’objet d’une vidéo de la série Nature = Futur, dont nous sommes partenaires :

Une nouvelle technologie pour liquéfier le biogaz et faciliter son transport

Tout a commencé sur les bancs de l’école des Mines ParisTech. Bruno Adhémar et Nicolas Bréziat se rencontrent lors d’un Mastère Spécialisé intitulé « Deep Tech Entrepreneur – Second life ». Le premier a travaillé 27 ans chez Areva et le second 23 ans chez Vallourec. La formation a pour objectif de rapprocher des futurs entrepreneurs comme eux ayant déjà un long parcours professionnel, avec des chercheurs ayant des idées, pour qu’ensemble, ils développent de nouvelles technologies. Sur place, ils rencontrent un chercheur du Centre d’efficacité énergétique des systèmes (CES) de Mines ParisTech. Ce laboratoire de recherche a récemment développé une technologie de liquéfaction du biogaz. Tous les trois décident de créer une start-up en 2019 afin de valoriser ce nouveau procédé. Leur société est par ailleurs la première entreprise à mission en France. Rencontre avec Bruno Adhémar et Nicolas Bréziat, les cofondateurs de Sublime Energie.

Techniques de l’Ingénieur : Présentez-nous la technologie développée par votre entreprise.

Nicolas Bréziat, cofondateur et directeur général de Sublime Energie. Crédit photo : Sublime Energie

Nicolas Bréziat : Nous exploitons un brevet déposé par l’école des Mines ParisTech en avril 2020 et dont nous avons la licence exclusive. La technologie consiste à liquéfier le biogaz issu de méthaniseurs et composé de méthane et de CO2. Jusqu’ici, lorsqu’on tentait de liquéfier le biogaz et donc de le refroidir, le CO2 se transformait en neige carbonique, et le mélange devenait difficile à transvaser. Notre technologie permet de dépasser cette limite physique grâce à l’ajout d’un troisième élément dont on ne peut pas révéler le nom, car le brevet n’est pas encore public, mais que nous appelons un agent de portage. Une fois incorporé au biogaz, il modifie complètement le diagramme de changement de phase et permet de liquéfier ce mélange ternaire dans des conditions de température et de pression compatibles avec une exploitation commerciale.

Quel est l’intérêt de cette technologie et les caractéristiques de ce biogaz liquéfié ?

N.B. : Notre procédé permet de réduire très nettement le volume du biogaz, il devient alors transportable à un coût raisonnable. Nous nous limitons volontairement à une pression de 20 bar afin que son transport ne soit pas trop contraignant sur le plan de la réglementation. Quant à la température, elle est de l’ordre de -100 degrés. L’agent de portage apporte un changement des caractéristiques physiques du mélange. La température se situe entre les deux températures de liquéfaction du biométhane et du CO2 c’est-à-dire qu’elle est au-dessus de la température de liquéfaction du biométhane mais en dessous de celle du CO2.

Quelle prestation proposez-vous grâce à ce nouveau procédé ?

Bruno Adhémar, cofondateur et président de Sublime Energie. Crédit photo : Sublime Energie

Bruno Adhémar : Nous souhaitons développer l’installation de petites et moyennes unités de méthanisation agricoles dans le but de valoriser leur biogaz. Aujourd’hui, pour être rentables, les méthaniseurs qui injectent le biométhane dans les réseaux gaziers doivent être de grande taille, ce qui nécessite de transporter des intrants (effluents d’élevages, déchets agricoles…) sur de longues distances afin d’alimenter ces unités. Pour atteindre la rentabilité d’un projet de méthanisation en cogénération, il est aussi nécessaire de valoriser la chaleur, ce qui n’est pas toujours facile. Ces unités fonctionnent en effet souvent à l’aide de co-générateurs qui transforment le biogaz en électricité à raison d’environ 40% et le reste en chaleur.

Nous proposons aux agriculteurs d’investir uniquement dans un méthaniseur et nous nous chargeons de collecter, transporter puis valoriser leur biogaz. Pour cela, nous installons une citerne cryogénique à côté de l’unité de méthanisation. Elle se remplit en continu et lorsqu’elle est pleine, nous venons la chercher et la remplaçons par une citerne vide.

Que faites-vous ensuite de ce biogaz liquéfié ?

N.B. : Nous le transportons jusqu’à un hub où nous séparons chacun des trois composés du mélange à l’aide d’un procédé de distillation cryogénique. Différents conditionnements du biométhane sont possibles. Il peut être comprimé pour en faire un carburant qu’on appelle du GNC (Gaz naturel comprimé) d’origine biologique et qu’on appelle donc du bioGNC. On peut aussi le liquéfier pour faire du bioGNL (Gaz naturel liquéfié). Il est également possible de le comprimer très légèrement afin de l’injecter dans le réseau, mais nous préférons l’usage sous la forme de carburant dans la famille des GNV (Gaz naturel véhicule).

Le CO2 est une sorte de coproduit que nous essayons également de valoriser. Il y a plusieurs usages industriels du CO2 mais dont l’origine est souvent fossile. Nous proposons de le remplacer par notre CO2 d’origine biologique et de le valoriser sur certains marchés, notamment auprès de personnes qui exploitent des serres, car le CO2 a pour effet de doper la croissance des fruits et des légumes. Quant à notre agent de portage, nous le récupérons et le recyclons, puis il est réutilisé pour liquéfier une nouvelle fois du biogaz.

Quel modèle souhaitez-vous développer dans le futur ?

B.A. : Le marché potentiel en France est très important et représente plusieurs dizaines de milliers de méthaniseurs. Nous sommes dans une logique d’économie circulaire et souhaitons installer des hubs et collecter le biogaz dans un rayon de 25, 30, à 40 km auprès de 5, 8 à 10 agriculteurs puis vendre localement les carburants produits. Les GNV sont en plein essor, particulièrement dans le secteur du transport. Par exemple, certaines lignes de bus fonctionnent à l’aide de ce carburant écologique, mais qui a souvent une origine fossile. Pour achever la transition énergétique, nous proposons de le remplacer par du bioGNV. Les hubs auront le même usage qu’une station-service. Ils pourront être installés le long d’un axe routier très fréquenté et être ouverts au public pour faire rouler leur véhicule. Ou alors être privatifs et installés dans l’entrepôt d’une compagnie de bus ou de transport de camion. Nous avons calculé un taux de retour énergétique futur de 2,5, ce qui signifie que nous produisons deux fois et demi plus d’énergie que nous n’en consommons.

Schéma représentant la collecte du biogaz dans exploitations agricoles puis son conditionnement dans un hub et enfin sa valorisation sous la forme de carburants. Crédit : Sublime Energie

À quel stade se trouve votre projet ?

N.B. : Nous préparons trois générations de démonstrateurs. Un premier va être installé au CES de Mines ParisTech et sera opérationnel à la fin de l’année. En 2022, nous allons installer un second démonstrateur chez un agriculteur en Bretagne, dans la région de Guingamp-Paimpol, qui possède déjà un méthaniseur. Ce projet est financé par l’Ademe et nous allons dériver une partie du biogaz pour fabriquer du carburant et alimenter 3 à 4 camions. Nous avons également un projet de création d’un troisième démonstrateur afin de tester la logistique, c’est-à-dire la collecte auprès de 8 à 10 agriculteurs. Il s’agit d’un objet hybride entre la R&D et le projet commercial. Lui aussi devrait être situé en Bretagne, ce projet est en cours de signature.

Algues, crabes, écailles de poisson : comment s’en inspirer pour créer des matériaux durables ?

Susana De Matos Fernandes est enseignante-chercheuse à l’université de Pau et des Pays de l’Adour (UPPA). Dans le cadre de la Chaire MANTA : Marine Materials, dont elle est porteuse, elle travaille sur la valorisation des ressources marines et sous-produits issus de la pêche. Elle explique leur travail de chercheurs pour développer des matériaux bio-inspirés et durables, à destination de la cosmétique et du biomédical, et leur volonté de réduire l’impact de ces matériaux sur l’environnement marin.

Techniques de l’Ingénieur : Qu’est-ce que la Chaire Manta ?

Susana De Matos Fernandes : L’objectif principal de notre Chaire de recherche, composée de 14 chercheurs et chercheuses, est de développer des matériaux qui sont à la fois durables, bio-sourcés, inspirés du marin et biodégradables afin de diminuer au maximum l’impact de ces matériaux sur l’environnement marin. Ainsi, on ne s’intéresse pas uniquement au développement des matériaux mais à toute la chaîne de valeur : de la valorisation via l’extraction des biomolécules à l’impact de nos matériaux lorsqu’ils ne seront plus utilisés. On étudie comment ils se biodégradent dans des matrices d’eau douce, de mer et des rivières. Est-ce qu’ils se décomposent ? Quelles molécules peuvent être formées lors de leur (bio)dégradation ? Ces molécules peuvent-elles être écotoxiques ? La question se pose aussi pour la dégradation au niveau des sols, du sable, de la boue, mais notre équipe se focalise essentiellement sur l’eau.

Comment s’organisent vos recherches ?

Tout d’abord, on valorise les déchets de la pêche comme certains types d’algues pour extraire les molécules qui nous intéressent. Il peut s’agir soit de polymères qui vont nous servir à réaliser la matrice de nos matériaux, soit de petites molécules dont les fonctions antioxydantes, antimicrobiennes, optiques, ou les pigments pourront nous être utiles. Pour extraire ces molécules, on utilise parfois des méthodes conventionnelles avec des solvants organiques, et sinon on a recours à des méthodes d’extraction vertes ou à de nouvelles méthodes que nous développons, afin d’éviter les solvants et diminuer la consommation d’énergie et d’eau. Puis, on caractérise les molécules et on les purifie. Ensuite, à partir de ces molécules, on développe différents types de matériaux, sous la forme de structures poreuses 3D, films, hydrogels, membranes, matériaux composites etc. Certains de nos partenaires privés ne veulent pas un matériau mais un composant avec certaines fonctions d’origine naturelle qu’ils vont par la suite expérimenter.

A partir de quels types d’organismes travaillez-vous ?

La chitine et le chitosan sont extraits de coquille de crabe pour développer des structures poreuses 3D comme des biomatériaux pour la médecine régénérative.

Nos recherches partent des déchets de la pêche. On travaille donc beaucoup avec des algues, notamment les algues rouges locales. On essaie de mieux comprendre leurs composants, toutes les petites molécules présentes parfois en petite quantité qui ont des fonctions qui peuvent nous intéresser : antioxydantes, antimicrobiennes etc. On s’intéresse aussi aux crustacés, car ils sont composés entre autre de chitine, une molécule qu’on peut extraire jusqu’au « nano », ce qui nous permet d’avoir des nanocristaux qu’on peut utiliser ensuite dans nos matériaux. On étudie également la peau des poissons, les écailles, dont on extrait par exemple le collagène. Il est aussi intéressant de voir comment ces composants sont disposés dans la nature afin de s’en inspirer.

Quelles applications auront vos biomatériaux ?

On travaille entre autres pour la médecine régénérative. Ce type de médecine a pour objectif de recréer des tissus vivants, comme des os ou du cartilage par exemple. Mais quand une blessure est trop importante, les cellules ne peuvent pas se développer. Dans le cadre de nos recherches, on a pu extraire des carapaces de crustacés de la chitine. Il s’agit d’un polysaccharide qui confère à la carapace sa structure, c’est donc un polymère qui peut servir de matrice aux matériaux. De cette chitine, on va chercher et isoler les nanofibres pour donner l’aspect mécanique à nos matériaux, et on peut aussi la lyophiliser pour lui donner une structure poreuse, avec des pores d’une taille suffisante pour que des cellules puissent se développer. Notre matériau va donc servir de plate-forme aux cellules pour la médecine régénérative. Ce qui est aussi intéressant avec la chitine, c’est qu’elle peut être biodégradée dans notre corps au fur et à mesure que les cellules et le tissu se développent. Un procédé équivalent existe aujourd’hui avec la cellulose, mais le corps n’est pas fait pour l’ingérer donc il faut ensuite injecter des enzymes pour dégrader ce matériau. C’est un de nos axes de recherche qui est aujourd’hui au stade du prototype.

Vous travaillez aussi sur la mycosporine, une molécule présente dans les algues rouges. Pourquoi cet intérêt ?

Algue rouge locale Gelidium sesquipedale, beaucoup étudiée par les chercheurs de la Chaire

Les algues rouges ont développé un processus complexe pour se protéger du soleil : elles biosynthétisent des molécules de mycosporines et des acides aminés de type mycosporine qui vont absorber respectivement les UVB et les UVA. Et une fois que les poissons mangent cette algue, la mycosporine se retrouve justement dans leurs muqueuses et lentilles oculaires, ce qui les protège des UV. Ce sont ces propriétés d’absorption des UV qui nous intéressent. Malheureusement, le coût freine nos recherches. Ces molécules sont faciles à extraire, mais la technique pour les purifier est précise, et l’équipement est très cher, or il nous en faut en quantité suffisante pour les étudier. Aujourd’hui, on ne sait pas précisément quel mécanisme biologique fait que les mycosporines ingérées via les algues apparaissent greffées à certaines protéines et oligosaccharides dans les muqueuses et yeux de poissons. C’est intéressant de comprendre ce fonctionnement si on veut former par exemple des hydrogels, dans lesquels les mycosporines seront greffées à des protéines et polysaccharides. On est en pleine recherche actuellement, mais ces molécules pourraient avoir des applications en cosmétique et en santé, notamment pour les pathologies liées aux rayonnements solaires comme les albinos et les enfants de la lune.

Comment faites-vous en sorte que vos recherches soient elle aussi respectueuses du vivant ?

C’est une question que je me pose toujours en tant que chercheuse et citoyenne car je souhaite réaliser des matériaux biodégradables, qui ont un faible impact sur le vivant, mais je vais quand même chercher mes ressources dans la nature, et ces bioressources dépendent de la biodiversité. Comme je l’indiquais, on travaille beaucoup sur la valorisation des déchets de la pêche. Pour l’instant, on est au stade de recherche, il n’y a rien de commercialisé, donc on n’a pas besoin d’une grande quantité de ressources. Mais si on arrive à créer un matériau, on en aura besoin en quantité bien plus importante. La question est de savoir jusqu’où on peut exploiter ces déchets. Ce que je ne voudrais pas, c’est qu’on pêche davantage pour avoir davantage d’algues et autres organismes marins, car l’impact serait très néfaste pour l’environnement. C’est pour cela qu’on travaille avec Ceebios, un des partenaires de la Chaire MANTA, sur ces thématiques. On ne s’inquiète pas seulement de créer des matériaux, mais aussi de tout ce qui entoure leur production. Si nos matériaux ont très peu d’impact sur l’environnement, c’est très bien mais il faut aussi être très attentif sur la manière dont on va exploiter ça.

Ce robot-libellule surveille les milieux marins

Surveiller les milieux aquatiques de toute atteinte, c’est ce qu’ambitionne une équipe de recherche de l’Université Duke, à Durham (Etats-Unis), avec son robot DraBot. Inspiré des libellules, d’où son nom est tiré (dragonfly en anglais), ce prototype permettrait de survoler la surface de l’eau et d’y détecter les moindres changements, comme « les signes d’acidification de l’eau douce dus aux drainages miniers par exemple, les signes précoces de marée noires et les changements de températures de l’eau, qui sont tous préjudiciables aux écosystèmes aquatiques et marins », nous explique Shyni Varghese, chercheuse à l’Université Duke et co-autrice de l’étude publiée dans la revue Advanced Intelligent Systems. Un grand projet pour ce petit dispositif de 5,7 cm de long pour 3,5 d’envergure.

DraBot frôle l’eau plus qu’il ne la survole. Il « reste en contact avec la surface de l’eau pendant son déplacement, précise Shyni Varghese. Ceci est permis par la combinaison de la flottaison et de la propulsion par air comprimé ». DraBot est fabriqué à partir de matériaux hydrophobes : le silicone Sylgard 184 et la membrane Ecoflex. Les ailes intègrent un circuit pneumatique (partie antérieure) et hydraulique (partie postérieure) qui entraîne des actionneurs souples pour se mouvoir. Son apport d’air comprimé est externe.

Des matériaux hydrophobes et sensibles

Concernant ses capacités en tant que capteur de l’environnement, le DraBot intègre dans ses ailes un hydrogel (A6ACA pour acrylol-6-amino caproic acid), auto-cicatrisant et sensible au pH, qui lui permet de détecter des signes d’acidification de l’eau. En effet, il permet au petit robot de détecter et réagir aux changements de pH dans l’eau en rendant compte de ces perturbations via une modification observable de ses mouvements. À la rencontre de conditions acides par exemple, le robot effectue un virage à gauche continu, faisant ainsi un mouvement circulaire dans le sens inverse des aiguilles d’une montre. Pour y parvenir, les chercheurs ont réalisé une coupure superficielle sur les ailes antérieures et postérieures gauches, dont la plaie a été pansée avec l’hydrogel. Ils expliquent qu’à faible pH, « l’hydrogel soude les deux ailes gauches ensemble, empêchant l’aile arrière de battre et bloquant ainsi le canal de sortie d’air sur l’aile antérieure gauche ». L’exposition à un pH plus élevé dissocie les ailes pour reprendre un vol normal.

Autre caractéristique des ailes : elles changent de couleur avec la variation de température grâce à un pigment thermochromique. Les ailes passent du rouge au jaune progressivement avec la hausse de température. Enfin, les surfaces microporeuses du silicone au niveau de l’abdomen et au bout des ailes ainsi que leur hydrophobicité sont exploitées à la fois pour la détection et l’absorption des composés hydrophobes, telles que les huiles. Si, dans sa configuration actuelle, DraBot ne peut que détecter les déversements, les chercheurs imaginent un essaim de robots capable de nettoyer ce type de catastrophe.

DraBot est conçu à partir d’élastomères de silicone avec un processus en plusieurs étapes. /Duke University

Des améliorations avant le monde réel

Comme l’expliquent les chercheurs dans l’étude, le potentiel de DraBot a été démontré, mais d’autres améliorations seront nécessaires pour des applications concrètes. Par exemple, aujourd’hui « DraBot est contrôlé manuellement et toutes les données concernant les changements de mouvement et d’apparence doivent être enregistrées par l’utilisateur [qui le contrôle], explique Shyni Varghese. Les itérations futures pourraient intégrer des caméras sans fil pour enregistrer ces changements ». Et également un réservoir embarqué pour l’autonomie.

Le stockage d’énergie à haute température : une solution économique

Alejandros Datas a accepté de nous parler d’une technologie de stockage innovante, développée dans le cadre du projet européen AMADEUS. Cette solution étonnante, qui consiste à stocker l’énergie sous forme de chaleur, serait 20 fois moins chère qu’un stockage par batteries de type électrochimique.

Alejandro Datas, chercheur à l’Instituto de Energía Solar – Universidad Politécnica de Madrid (IES-UPM), est le coordinateur du projet AMADEUS, qui a pris fin en 2019 et de son successeur NATHALIE. Le but de ce nouveau projet est d’analyser les marchés stratégiques pour cette technologie de stockage d’énergie révolutionnaire.

AMADEUS et NATHALIE sont des projets financés par l’Union européenne, dans le cadre du programme Horizon 2020.

Techniques de l’Ingénieur : Pouvez-vous nous expliquer le fonctionnement de la technologie de récupération de chaleur développée dans le cadre du projet AMADEUS ?

Alejandro Datas : La technologie développée au cours de ce projet permet de stocker l’énergie sous forme de chaleur latente à des températures extrêmes, supérieures à 1 000°C. Cette chaleur est ensuite convertie en courant électrique, sur demande, grâce à des convertisseurs statiques qui transforment directement en électricité, les photons et électrons du rayonnement thermique.

Son fonctionnement est basé sur l’utilisation de matériaux à changement de phase (PCM) à haute température, tels que le silicium et le ferrosilicium. Cette technologie peut être employée en Power-To-Heat-To-Power Storage (PHPS) et les applications visées concernent aussi bien l’industrie que les bâtiments résidentiels.

Quels sont les avantages de cette technologie par rapport à d’autres solutions de stockage d’énergie ?

Les deux principaux avantages sont le faible coût et la haute densité d’énergie. Les alliages de silicium utilisés pour stocker l’énergie ont un coût inférieur à 2 €/kg et sont capables de stocker 1 kWh par litre de matériau en fusion. Ceci implique donc un coût inférieur à 5 €/kWh, ce qui est faible.

Par ailleurs, la très haute densité d’énergie des alliages au silicium permet de réduire la taille du système. Le coût par capacité énergétique n’excède pas 20 €/kWh, un ordre de grandeur faible comparé au stockage par batterie électrochimique.

Atteindre des coûts aussi faibles est un enjeu important, pour permettre un stockage économiquement viable de gros volumes d’énergie renouvelable.

Le projet AMADEUS est maintenant terminé. Quel est le bilan des avancées majeures ?

Ce projet nous a permis d’atteindre trois objectifs :

  • Le développement de nouveaux alliages au silicium, capables de stocker de grosses quantités d’énergie lors du changement de phase, sans variation de volume importante. Ceci résout le problème lié à l’utilisation du silicium pur, qui a l’inconvénient de se dilater de 10 % en se solidifiant, entraînant un risque de rupture du réservoir.
  • Démontrer la faisabilité expérimentale d’un nouveau type de convertisseur d’énergie combinant thermoïonique et thermophotovoltaïque. In fine, ce dispositif pourra fonctionner à des températures extrêmes avec une densité de puissance et une efficacité énergétique élevées.
  • Établir un prototype d’unité de stockage d’énergie pour démontrer la faisabilité du concept de stockage haute température.

Concrètement, quelles sont les applications potentielles ?

Les technologies développées au cours du projet AMADEUS peuvent par exemple être utilisées pour bâtir des centrales à énergie solaire d’un nouveau genre, avec un meilleur rendement et un facteur de capacité plus élevé. La collecte d’énergie au sein des procédés industriels haute température est également une piste intéressante, car de grandes quantités d’énergie y sont perdues sous forme de chaleur.

Illustration d’un système de récupération d’énergie en environnement résidentiel (Crédit : AMADEUS/NATHALIE)

Pouvez-vous nous parler plus en détail du concept de PHPS ?

Ces dernières années, les prix de l’électricité d’origine photovoltaïque ou éolienne ont beaucoup diminué, ce qui nous a amenés à envisager une autre application qui paraissait jusqu’ici absurde : transformer l’électricité renouvelable en chaleur, la stocker puis la reconvertir en électricité lorsqu’on en a besoin.

Si l’on se réfère aux lois de la thermodynamique, ce concept que nous appelons Power-To-heat-To-Power-Storage (PHPS) est limité par un rendement maximum de 50 %. Néanmoins, si le coût d’électricité renouvelable est suffisamment faible, cette solution devient bien plus économique qu’utiliser des batteries électrochimiques (coût au moins 20 fois inférieur).

De plus, la chaleur qui n’est pas convertie en électricité pourrait également servir à produire de l’eau chaude ou à alimenter un système de refroidissement par absorption. Il faut savoir que la chaleur représente 50 % de la consommation énergétique de l’Union européenne : développer ce type de système peut donc être une solution clé pour réduire notre dépendance aux énergies fossiles.

La phase d’industrialisation est-elle proche ?

Le projet AMADEUS a donné naissance à un prototype de laboratoire. Nous avons maintenant pour objectif de construire un prototype industriel de taille plus importante. Le projet NATHALIE doit ainsi nous aider à adapter le design du système aux besoins du consommateur final.

Nous recherchons donc des partenaires industriels ainsi que de potentiels utilisateurs qui pourraient nous aider à définir les paramètres technologiques de ce premier prototype industriel.

Pour en savoir plus sur cette technologie, visionnez cette vidéo explicative.

L’ensemble des publications scientifiques du projet AMADEUS sont disponibles en accès libre.

COP26 : désinvestir les acteurs financiers des énergies fossiles

Reclaim Finance propose son nouvel outil : le Scan de la Finance Fossile. L’ONG passe au crible les politiques adoptées par 56 banques, assureurs et investisseurs français sur le pétrole et gaz. Selon cette analyse, moins de la moitié des acteurs français (25 sur 56) a adopté une politique visant à réduire leur exposition à au moins l’un des secteurs d’activité pétro-gaziers les plus risqués. Et aucun acteur n’a adopté de politique pour réduire sa présence dans l’ensemble de ces secteurs.

« Parmi les acteurs qui n’ont aucune politique figurent des géants financiers comme Amundi et Lyxor, filiale du groupe Société Générale, prévient Reclaim Finance. D’autres poids lourds n’ont pas de politique sur des secteurs dans lesquels ils sont très investis : c’est le cas d’AXA qui, selon nos calculs, en 2020, comptabilisait 2,3 milliards de dollars d’investissements et d’obligations dans les 100 entreprises les plus exposées au pétrole et gaz de schistes ». Dans un courrier adressé aux directions des 56 acteurs évalués dans le Scan de la Finance Fossile, Reclaim Finance lance « un appel urgent à annoncer la fin immédiate des soutiens directs et indirects » à tout nouveau projet de pétrole et de gaz dans les secteurs d’activité les plus risqués.

Charbon, pétrole ou gaz : même combat

Après le charbon, Reclaim Finance s’attaque donc aux investissements dans les secteurs fossiles les plus risqués. L’ONG cible particulièrement cinq secteurs : les forages en eaux profondes, les sables bitumineux au Canada, les pétrole et gaz de schistes aux États-Unis, les forages en Arctique, et l’intégralité de la chaîne de valeur du gaz naturel liquéfié (GNL).  « Lorsqu’elles existent, les politiques sont trop lacunaires », juge Reclaim Finance. Sur 56 acteurs, seulement 22 ont une politique visant les sables bitumineux. En parallèle, 13 acteurs sur 56 se sont positionnés contre les forages en Arctique, 16 sur les gaz et pétrole de schistes, 6 sur le GNL et 4 sur les forages offshores très profonds.

Les politiques se limitent le plus souvent à exclure des projets, mais n’excluent pas les financements aux entreprises. Elles ne suffisent donc pas pour réduire les soutiens des acteurs financiers au pétrole et au gaz non conventionnels. « C’est comme ça que AXA, le Crédit Agricole et BNP Paribas peuvent encore soutenir Total et ses projets d’expansion en Arctique malgré leurs politiques affichant qu’ils ne financent plus de projets en Arctique, prévient Clément Faul, analyste à Reclaim Finance. Il en va de même pour leurs soutiens à Shell qui bénéficie de leur loyauté alors que l’entreprise compte parmi les plus gros développeurs de gaz de schiste, une véritable bombe à retardement climatique ». 

Un appel de Bruno Le Maire resté lettre morte

En octobre dernier, Bruno Le Maire demandait aux acteurs de la place de Paris d’adopter des politiques de sortie des pétrole et gaz non conventionnels. « Addicte aux pétrole et au gaz, la place de Paris ignore complètement la commande politique de Bruno Le Maire qui souhaite faire de Paris la capitale de la finance verte », souligne Alix Mazounie, chargée de campagne finance zéro fossile à Reclaim Finance.

Cet appel est pour l’instant resté lettre morte chez la plupart des acteurs. Reclaim Finance entre donc désormais en campagne pour demander aux acteurs financiers de s’engager d’ici la COP26.

L’agence internationale de l’énergie : un soutien de marque

La nouvelle feuille de route de l’Agence internationale de l’énergie (AIE) pour atteindre la neutralité carbone en 2050 et limiter le réchauffement climatique à 1,5°C apporte de l’eau au moulin de Reclaim Finance. L’AIE invite en effet les acteurs de l’énergie à oublier dès maintenant tout projet d’exploration pétrolière ou gazière et à ne plus vendre de voiture thermique neuve au-delà de 2035. « Un revirement complet par rapport à l’AIE orientée fossiles d’il y a 5 ans », prévient Dave Jones, du think tank Ember, spécialisé dans l’énergie.

Pour atteindre cette neutralité carbone, l’AIE invite à changer de paradigme énergétique. « Au-delà des projets déjà engagés en 2021, notre trajectoire ne prévoit aucun nouveau site pétrolier ou gazier », note ainsi l’Agence. « La baisse rapide de la demande de pétrole et de gaz naturel signifie qu’il n’y a pas d’exploration requise et qu’aucun champ gazier et pétrolier nouveau n’est nécessaire au-delà de ceux déjà approuvés ». La feuille de route exclut aussi tout nouveau investissement dans les centrales électriques à charbon.

Un robot désherbant par procédé électrique couplé à un drone

Débuté en 2018 et financé par l’ANR (Agence nationale de la recherche), le challenge ROSE vise à développer plusieurs solutions technologiques innovantes afin de réduire l’utilisation des produits phytosanitaires sur les grandes cultures. Plus précisément, les innovations se focalisent sur le désherbage intra-rang, c’est-à-dire de l’espacement entre les plants d’une même rangée. Quatre solutions sont actuellement développées et seront mises en compétition en juin prochain à l’occasion d’épreuves d’évaluation sur le site expérimental INRAE de Montoldre dans l’Allier. L’une d’elles porte sur la conception d’un robot capable de détruire les adventices grâce à des décharges électriques et couplé à un drone. Encore à l’état de recherche, ce projet baptisé WeedElec devrait se concrétiser par le développement de trois nouvelles briques technologiques.

Projet WeedElec. Crédit photo Vincent De Rudnicki INRAE

« L’idée de départ était de faire voler un drone au-dessus d’un champ afin d’évaluer l’état sanitaire de la parcelle, explique Christophe Guizard, le coordinateur du projet WeedElec et chercheur à l’INRAE. S’il repère des tâches d’infestation liées à de mauvaises herbes, il envoie les informations au robot qui se déplace à l’endroit indiqué pour détruire les adventices. Une semaine à quinze jours plus tard, on refait passer le drone afin d’évaluer le désherbage réalisé et, si besoin, demander au robot d’intervenir à nouveau. »

Mieux identifier les plantes grâce à l’imagerie hyperspectrale

Pour mettre au point ce dispositif, l’équipe de recherche tente de lever un premier verrou technologique en identifiant les mauvaises herbes de la manière la plus fine possible. Pour cela, ils testent une caméra hyperspectrale qui ajoute une information spectrale à la différence des caméras classiques qui se basent souvent sur la couleur et la morphologie des plantes. L’une des difficultés rencontrées se situe au niveau de la puissance de calcul demandée. Le spectre est en général de 128, voire 256 longueurs d’onde, ce qui signifie que chaque point de l’image contient 128 ou 256 informations. Avec des images de 5 mégapixels, le volume de données à traiter devient considérable. « Pour contourner cette difficulté, nous utilisons d’abord le traitement de l’image classique pour repérer les régions d’intérêt et nous le combinons avec de l’imagerie hyperspectrale afin d’identifier les plantes de manière beaucoup plus fine. Cette piste de recherche est à ce stade très prometteuse », révèle le chercheur.

Challenge ROSE. Crédit photo ChallengeROSEG MAISONNEUVE

Contrairement aux robots généralement développés pour désherber, celui-ci doit être capable de repérer directement les adventices et non pas identifier dans un premier temps les plants de culture (maïs, haricot…) puis détruire toutes les mauvaises herbes autour. L’identification des plantes est d’autant plus importante que le robot, muni d’un bras et d’une électrode, ajuste sa décharge électrique en fonction de la plante à détruire, c’est-à-dire de son espèce, de son stade de croissance… Ce dispositif innovant représente la deuxième brique technologique développée. On parle ici de désherbage chirurgical car le degré de précision du robot, lui aussi équipé d’une caméra, est de quelques millimètres. « En fonction de chaque adventice, le robot est capable de faire varier la durée de la décharge électrique, sa fréquence et son intensité, précise Christophe Guizard. La décharge s’élève à plusieurs kilovolts et est équivalente à la décharge d’une bougie de voiture ; quant à la durée, elle est de l’ordre de 50 millisecondes. »

Projet WeedElec. Crédit photo Vincent De Rudnicki INRAE

Ce système a une efficacité comparable à celle du glyphosate et à un désherbage systémique puisque la décharge électrique descend jusqu’à la racine. Le choc électrique provoque un effet thermique sur la plante, qui se recroqueville immédiatement après. « Nous nous sommes aperçus que parfois, la décharge ne tue pas la mauvaise herbe mais la maintient dans un état végétatif, confie le chercheur. Cet effet est intéressant car il pourrait servir à maintenir un couvert végétal autour de la culture, permettant d’éviter que le sol ne se dessèche trop vite ou que d’autres plantes ne poussent. Nous sommes très confiants sur notre procédé qui donne de bons résultats. »

Le recours à l’intelligence artificielle pour traiter les images

La dernière brique technologique en cours de développement concerne la classification des mauvaises herbes. Elle repose sur l’utilisation des techniques développées pour l’application mobile : Pl@ntNet. Téléchargeable gratuitement sur un smartphone, elle permet à l’aide d’une simple photo de reconnaître les plantes. Elle fonctionne grâce à une communauté de plusieurs millions d’utilisateurs et le recours à l’intelligence artificielle, notamment de l’apprentissage profond. « En général, les personnes photographient des fleurs ou des arbres et tentent de bien cadrer leurs photos, analyse le chercheur. Ici, les photos montrent des mauvaises herbes et sont prises par le robot et donc mal cadrées. Nos partenaires du Cirad [Centre de coopération internationale en recherche agronomique pour le développement, NDLR] et de l’Inria [Institut national de recherche en informatique et en automatique, NDLR] développent de nouveaux algorithmes pour traiter ces nouvelles images. »

Le projet WeedElec doit se finaliser à l’été 2022. Bien que développé pour désherber de grandes cultures, ce système se révèle beaucoup trop lent face à de vastes étendues de champs. « Ce type de désherbage intelligent pourrait par contre trouver toute son utilité sur certaines cultures maraîchères qui nécessitent d’être très précis sur les plantes à détruire mais sur de petites surfaces », indique Christophe Guizard.

Localiser avec une précision nanométrique les molécules en 3D

Une nouvelle technique de microscopie optique de super-résolution a été mise au point par des équipes de l’Institut des sciences moléculaires d’Orsay et de l’Institut Langevin. Sa particularité ? Elle atteint une précision nanométrique uniforme dans les trois dimensions et en profondeur. Ce qui n’est, selon Sandrine Lévêque-Fort, directrice de recherche à l’Institut des sciences moléculaires d’Orsay, pas permis par les techniques actuelles. Baptisée ModLoc, pour Modulated Localization, elle permet de révéler la position en 3D de molécules, quelle que soit la profondeur de l’échantillon biologique.

Techniques de l’Ingénieur : Qu’est-ce que ModLoc ?

Sandrine Lévêque-Fort : ModLoc est une technique de microscopie de super-résolution pour positionner précisément une molécule en 3D dans un échantillon biologique. Au lieu d’avoir un éclairage homogène, on éclaire avec des interférences directement créées par les faisceaux laser dans l’échantillon : des franges sombres et lumineuses, comme des zébrures, sont ainsi balayées rapidement. Grâce à cette illumination structurée, on introduit une modulation de la fluorescence, ce qui permet d’obtenir une précision nanométrique dans la localisation des molécules de l’échantillon.

Quelle est sa particularité ?

C’est un microscope optique sur lequel on change la façon de mettre en forme le laser, qui vient exciter les molécules, ainsi que la détection de la fluorescence. Quand on souhaite faire de l’imagerie en 3D pour positionner une molécule dans un échantillon biologique, il est difficile d’observer en profondeur à l’intérieur des cellules ou dans des systèmes plus complexes. Cela se fait très bien dans le plan transverse (x,y) mais plus difficilement dans l’axe de propagation optique (z). Et même si les techniques actuelles obtiennent l’information de position, elles ne vont pas conserver la même résolution dans la zone axiale observée et vont introduire des images distordues avec une élongation axiale. Et ModLoc répond à ces deux problèmes : on peut aller en profondeur grâce à la structuration, et cette structuration nous permet d’avoir la même résolution, quel que soit l’endroit observé de l’échantillon. Ce qui rend la reconstruction de l’échantillon plus facile car nous n’avons pas de problème de distorsion ou de résolution.

À quel besoin répond cette nouvelle technique ?

ModLoc peut aider à comprendre la fonction des protéines dans les cellules. Si on la comprend, on peut l’inhiber ou la déclencher. Elle permet également de comprendre les interactions entre protéines. Les biologistes par exemple vont l’utiliser pour comprendre comment une protéine va être localisée par rapport à une autre suite à l’action d’un nouveau médicament. Ou de positionner en 3D une protéine par rapport à une autre sans erreur, pour faire des essais sur de nouveaux médicaments. Un de nos objectifs est d’aller voir dans les sphéroïdes qui miment des tumeurs par exemple.

b) Image super-résolue en 3D de mitochondries localisées à 6 µm à l’intérieur de cellules COS7 où la position suivant z (axe optique) est représentée en fausse couleur et obtenue avec une précision sous les 7 nm. c) zoom sur la région d’intérêt. Crédit image : Sandrine Lévêque-Fort/Institut des sciences moléculaires d’Orsay

Existe-t-il des solutions équivalentes ou qui s’en approchent ?

Il existe beaucoup de techniques différentes pour extraire l’information axiale, en particulier en venant mettre en forme la fonction réponse du microscope par insertion d’éléments optiques (lentille cylindrique, masque de phase, réseau…) ou par optique adaptative, mais elles ne sont pas uniformes en termes de performances. Dans notre cas, quelle que soit la position de la molécule, on a toujours la même résolution. Dans la mouvance de ce qu’on propose, des groupes étrangers proposent des implémentations alternatives. Des groupes hollandais, chinois et espagnols. Cela devient très intense, très actif sur ce domaine.

ModLoc peut-il s’implémenter sur tout microscope optique ? Sous quelle forme ?

Pour le moment, ModLoc s’adapte sur les microscopes existants. Actuellement, nous travaillons sur la conception d’un dispositif pour être moins contraints par la géométrie d’un microscope standard. Mais les deux sont possibles et laissent le choix : soit rester avec un microscope avec ses avantages (habitude de l’outil) et ses contraintes (encombrement), soit avoir un système repensé pour la technique.

Une étude de valorisation est en cours avec la start-up Abbelight…

La SATT Paris Saclay a d’ores et déjà réalisé une étude de valorisation de ModLoc. Nos clients potentiels sont dans les domaines de la biologie, de la pharmacologie, ou les nouveaux qui s’ouvrent sur les échantillons plus complexes et tissus en anatomo-pathologie. Des discussions ont commencé avec Abbelight, une spin-off de notre laboratoire qui s’est fondée sur une précédente technologie en super-résolution. Et comme on propose une nouvelle technique qui ajoute une grande profondeur d’observation, je pense que de nouvelles utilisations vont apparaître et que l’intérêt pour traduire cette technologie brevetée en un produit va se conforter.

Des processeurs gravés en 2 nm : la guerre des puces

Le géant IBM a dévoilé les premières puces au monde gravées en 2 nm. Elles comportent environ 333 millions de transistors par millimètre carré (MTr/mm²). À titre de comparaison, les puces les plus avancées de TSMC, fabriquées à l’aide de son procédé 5 nm, comptent environ 173 millions de transistors par millimètre carré (MTr/mm²), tandis que les puces 5 nm de Samsung comptent environ 127 MTr/mm².

Cependant, la puce d’IBM est encore au stade du proof of concept. Ce type de processeur ne sera pas disponible avant quelques années. Mais cette annonce donne une idée de la technologie qui pourrait un jour alimenter les smartphones, les ordinateurs portables et les gadgets du futur.

Contenant 20 milliards de transistors de plus que son prédécesseur, la puce en 2 nm ouvre également la voie à des architectures de processeurs qui pourraient être adaptées à des besoins informatiques spécifiques dans des domaines comme l’IA ou le chiffrement.

Autre intérêt selon IBM, des gains importants en termes de performances et d’autonomie. L’entreprise affirme qu’elles « devraient permettre d’atteindre des performances 45 % supérieures ou une consommation d’énergie 75 % inférieure à celles des puces les plus avancées du nœud de 7 nm ».

Dépendance technologique

Il a fallu 4 ans aux chercheurs d’IBM à Albany, dans l’État de New York, pour passer de la gravure en 5 nm à 2 nm. « L’une des percées de la technologie 2 nm est l’utilisation de la gravure ultraviolet extrême (EUV) pour définir des largeurs de feuille variables 15 et 70 nm afin de répondre aux exigences des applications mobiles à faible consommation et des calculs à haute performance pour les applications de centres de données dans le cloud », a déclaré Mukesh Khare, vice-président de la recherche sur le cloud hybride chez IBM.

Ils ont réussi à superposer trois feuilles de matériau pour former une pile contenant un transistor NMOS au-dessus d’un transistor PMOS, plutôt que de les placer côte à côte, ce que l’on appelle communément une conception « gate-all-around ». Il s’agit d’un pas en avant par rapport aux FinFET 3D d’aujourd’hui. La technique dite GAAFET (Gate-All-Around Field Effect Transistor) permettra de s’accommoder de la gravure toujours plus fine.

De quoi inquiéter Taiwan Semiconductor Manufacturing Company (TSMC), sous-traitant incontournable qui fabrique aussi bien pour Apple, Qualcomm ou Nvidia, et qui est considéré comme le leader dans le domaine de la gravure EUV.

Au-delà de cet exploit technologique, l’annonce d’IBM est le dernier épisode de la guerre qui oppose les États-Unis à la Chine dans le domaine des processeurs. Ce sujet est devenu encore plus crucial depuis la pandémie et la pénurie de puces qui impactent différents secteurs. Et la situation sera encore plus délicate avec la montée en puissance de l’IA, de la biotechnologie, de l’informatique quantique, des véhicules autonomes et de l’Internet des objets…

Actuellement, il existe deux types de sociétés de fabrication de semi-conducteurs dans l’industrie des puces. Certaines (comme Intel, Samsung, SK Hynix et Micron) conçoivent et fabriquent leurs propres produits dans des usines qui leur appartiennent. D’autres sont des fonderies qui fabriquent des puces conçues par des entreprises privées ou des armées. TSMC est la plus grande de ces fonderies dans le monde avec un chiffre d’affaires de 35 milliards de dollars. Environ 60 % des puces qu’il fabrique sont destinées à des entreprises américaines. Environ 20 % sont destinées à la Chine.

Résultat, les États-Unis veulent encourager le développement de fonderie sur leur territoire et ont annoncé la mise en place d’un nouveau programme appelé « Rapid Assured Microelectronics Prototypes – Commercial » (RAMP-C) pour que les puces soient de plus en plus fabriquées outre-Atlantique.

Et l’Europe ? Fin 2018, le lancement du programme Horizon 2020 incluait la conception et la fabrication au sein de l’UE de processeurs destinés à des applications mobiles. Une vingtaine d’acteurs issus de l’industrie ou du monde de la recherche se sont alliés au sein de l’EPI (European Processor Initiative).

En décembre dernier, les ministres des Télécommunications des pays de l’Union européenne ont également décidé de renforcer leur coopération dans les domaines de la conception et de la fabrication des processeurs de nouvelle génération et des technologies de semi-conducteurs à faible consommation énergétique.

145 milliards d’euros devraient être investis sur 2 à 3 ans dans différents domaines, dont… la gravure en 2 nm.

Réalité virtuelle, réalité augmentée et robotique

Lors de cet événements vous comprendrez comment les technologies de la RV-RA peuvent être au service d’un projet en robotique !

Les intervenants et leur présentation :

  • Assia AGUEDACH, ingénieure robotique chez PROXINNOV présentera la démarche d’un projet d’intégration robotique.
    PROXINNOV est une plateforme dédiée à la robotique qui accompagne les entreprises dans le développement de leurs projets de robotisation.
  • Grégory DUVALET, conseiller technologique en Réalité Virtuelle et Augmentée chez CLARTE, vous montrera comment les technologies de la RV-RA contribuent à faire de chaque étape de cette démarche d’intégration robotique un succès !
    CLARTE est un centre de ressources technologiques spécialisé en Réalité Virtuelle, Réalité Augmentée et technologies émergentes.
  • Jean-Guillaume LE ROUX, Responsable du Technocampus Smart Factory chez SOLUTIONS &Co, animera ce webinaire et recensera vos questions éventuelles !
    TECHNOCAMPUS Smart Factory, avec son centre industriel de réalité virtuelle, est spécialisé dans la digitalisation de l’industrie.

Date :  3 juin 2021
Heure : 15h-16h
Inscription : suivez ce lien

 

Des nanoparticules capables de détruire les bactéries résistantes aux antibiotiques

L’INSERM estime à au moins 700 000 le nombre de décès causés chaque année par des maladies pharmacorésistantes. Ce chiffre s’élèverait à 230 000 rien que pour la tuberculose multirésistante.

La résistance aux antimicrobiens est un défi mondial majeur

Dans un rapport de 2019, alors que les premiers effets économiques et sanitaires de l’inefficacité croissante des médicaments se faisaient déjà sentir, les principales organisations internationales proposaient une série de mesures visant à inverser cette tendance. Selon Amina Mohammed, vice-secrétaire générale de l’ONU, l’enjeu est bien de « protéger un siècle de progrès dans le domaine de la santé ».

C’est un fait : un nombre croissant de souches bactériennes arrive à échapper aux traitements antibiotiques actuels, par exemple en se cachant à l’intérieur des cellules. C’est notamment le cas des staphylocoques multirésistants (SARM), des agents pathogènes capables de provoquer des pneumonies mortelles ou un empoisonnement du sang.

Face à une situation qui ne cesse de s’aggraver, il est donc urgent de trouver des solutions alternatives. C’est tout l’enjeu des travaux en cours à l’EMPA et l’ETH Zurich.

Les nanoparticules, des armes pour un combat de l’infiniment petit

La solution étudiée par l’équipe de chercheurs suisse consiste à exploiter la capacité des nanoparticules à pénétrer à l’intérieur des cellules du corps, ce que ne peuvent pas faire les antibiotiques classiques, à cause de la faible perméabilité membranaire.

Une publication récente dans le journal Nanoscale démontre l’effet antibactérien sur des cellules de mammifères de ces nanoparticules oxydes métalliques hybrides inorganiques. Différentes compositions ont été étudiées, principalement à base :

  • de verre bioactif, mélange de SiO2, CaO, Na2O et P2O5, un matériau reconnu pour ses propriétés antimicrobiennes lorsqu’il est sous forme nanoparticulaire, mais qui possède également des propriétés régénératrices ;
  • d’oxyde de cérium, un matériau antibactérien moins toxique que l’argent.

L’efficacité de ces particules hybrides a ensuite été mise en évidence par microscopie électronique à transmission (MET) et par mapping EDS. Il a ainsi été démontré que ces nanoparticules étaient capables de dissoudre les bactéries contenues dans les cellules.

Micrographie électronique post-colorée montrant des nanoparticules (en rouge) en train d’attaquer les bactéries résistantes (en jaune). Crédit : Empa

Une action ciblée et durable

Si le mécanisme d’action de ces nanoparticules n’est pas encore clair, les chercheurs supposent que celles-ci agissent sur la membrane cellulaire des bactéries en produisant des composés oxygénés réactifs. De plus, comme les membranes des cellules humaines sont construites différemment, ces nanoparticules demeurent peu toxiques pour le corps humain.

Par ailleurs, ces nanoparticules semblent avoir un effet sur le long terme. Dans un communiqué de presse, le chercheur de l’Empa Tino Matter, affirme que « les particules de cérium se régénèrent avec le temps, de sorte que l’effet oxydatif des nanoparticules sur les bactéries peut recommencer. »

Cette technologie brevetée doit maintenant être étudiée plus en détail dans le but d’optimiser la structure et la composition des substances actives.

Une plateforme de vente pour les stocks dormants de pièces de maintenance industrielle

La start-up française KHEOOS entend bien améliorer cet état de fait et favoriser l’économie circulaire à grande échelle, grâce à sa plateforme spécialisée en maintenance industrielle. Dominique Mercier, l’un de ses fondateurs, a accepté de répondre à nos questions.

Dominique Mercier est ingénieur. Il est le dirigeant et co-fondateur de KHEOOS, une marketplace spécialisée dans la mise à disposition à grande échelle de pièces détachées industrielles.

Techniques de l’Ingénieur : Comment a émergé l’idée de créer la plateforme KHEOOS ?

Dominique Mercier, dirigeant et co-fondateur de KHEOOS : Avant l’aventure KHEOOS, j’ai travaillé dans des secteurs industriels aussi variés que l’automobile, les semi-conducteurs et l’énergie. Je ressentais le besoin de créer une entreprise qui soit à la fois utile à l’industrie et orientée vers l’économie circulaire et la digitalisation.

Les industriels constituent des stocks de pièces de maintenance, dans le but de pallier d’éventuelles pannes ou pour la maintenance préventive. Au cours de notre vie industrielle, mes associés et moi avons fait tous les trois le même constat : 20 à 30 % des stocks de pièces pour la maintenance industrielle sont des stocks dormants, inutilisés. Au bout de quelques années, ces stocks sont malheureusement détruits, faute de solution de valorisation, ce qui représente un gaspillage immense.

KHEOOS est ainsi né de la volonté de réduire ce gaspillage : on estime à 3 milliards d’euros la valeur des stocks dormants en Europe !

Pourquoi la revente des stocks de maintenance industrielle est-elle problématique ?

Nous avons commencé par chercher à identifier les freins liés à la valorisation de ces stocks dormants. La première raison concerne la codification des pièces. En effet, un industriel qui fait entrer des pièces de maintenance dans son usine utilise un système de référencement qui lui est propre. Il connaît parfaitement ses produits et ses machines, mais pas les différents éléments qui les composent. Au gré des rachats de fabricants, des changements de marque et du vieillissement des machines, il devient de plus en plus difficile de savoir à quelle référence commerciale correspond telle ou telle pièce, ce qui rend toute revente impossible.

Le deuxième point est le cloisonnement des secteurs. Les industriels n’en ont pas toujours conscience, mais beaucoup de pièces détachées sont utilisables sur plusieurs types de machines, présentes dans des secteurs variés. Par conséquent, si nous voulons multiplier le nombre d’acheteurs potentiels, il est impératif d’élargir notre modèle à un maximum de secteurs d’activité.

Enfin, le troisième frein concerne le prix de vente potentiel. Ce prix est particulièrement difficile à fixer, lorsqu’on ne connaît pas le marché réel.

Avec la plateforme KHEOOS, vous espérez donc lever ces freins. Pouvez-vous nous expliquer son fonctionnement ?

KHEOOS est une plateforme de réemploi pour les pièces industrielles. Notre travail consiste à rendre visibles au niveau mondial les stocks dormants.

Dans un premier temps, nous commençons par récolter les données concernant la gestion des pièces en stock du client vendeur. Ces fichiers sont la plupart du temps fournis par les logiciels ERP ou GMAO. À partir de ces fichiers bruts, nous utilisons des algorithmes d’intelligence artificielle pour rechercher toutes les informations permettant d’identifier de manière sûre les pièces du stock. Par analyse sémantique, nous corrigeons les erreurs de nomenclature, de saisie, etc. ce qui nous permet d’obtenir une identification fiable de la pièce : fabricant, référence, version. Nous enrichissons ensuite ces données à partir des notices techniques, en ajoutant notamment des photos.

À partir de ces données, nous passons ainsi à la deuxième phase : rechercher le prix du marché en analysant de manière approfondie toutes les places de marché du Web. Ceci nous permet une mise en vente efficace sur ces places de marché ainsi que sur notre plateforme Kheoosmarket.com, en toute transparence sur les tarifs des pièces proposées.

Comment voyez-vous l’avenir de KHEOOS ?

La plateforme Kheoosmarket est maintenant en ligne depuis 18 mois. En quelques mois nous avons identifié 10 millions d’euros de stocks dormants chez nos clients actuels et 3 millions d’euros de matériel sont déjà en ligne. Ces stocks dormants sont ainsi accessibles et à portée de clic de n’importe quel acheteur dans le monde.

Nous sommes actuellement en phase d’accélération et nous levons des fonds pour ouvrir à d’autres pays et d’autres marchés. Cela n’est que le début, car pour fonctionner, notre modèle doit être élargi à un maximum d’acheteurs et de vendeurs, de tous secteurs industriels et de provenances géographiques variées. Ce sont deux conditions nécessaires, si nous voulons voir émerger un véritable système d’économie circulaire pour la gestion des stocks dormants.

Un site pilote en France pour le stockage d’hydrogène vert en cavité saline

Seuls quatre sites dans le monde sont recensés, trois aux États-Unis et un quatrième au Royaume-Uni. Et bientôt un cinquième en France, sous la forme d’un démonstrateur.  À Étrez dans l’Ain, un projet vient de démarrer afin d’expérimenter le stockage d’hydrogène en cavité saline. Localisé sur un site de stockage souterrain jusqu’ici dédié au gaz naturel, ce projet baptisé HyPSTER, est coordonné par Storengy, une filiale d’Engie, et regroupe sept partenaires français, anglais et allemands. Doté d’un budget de 13 millions d’euros, il a reçu le soutien financier de l’Europe pour un montant de 5 millions d’euros.

Le stockage en cavité saline est une technique qui existe déjà depuis plus de 50 ans. Elle consiste à créer une caverne souterraine artificielle en injectant de l’eau douce dans une roche sédimentaire composée de sel gemme, c’est-à-dire de cristaux de chlorure de sodium. La cavité créée étant imperméable, elle permet de stocker diverses substances, comme du gaz naturel. Situé en général entre 1 000 à 1 500 mètres sous terre, ce mode de stockage présente l’intérêt d’occuper peu d’espace à la surface. D’importantes quantités peuvent aussi être stockées puisque certaines cavités sont capables d’abriter une Tour Eiffel.

Le projet HyPSTER répond à un besoin de stockage des énergies renouvelables pour pallier leur intermittence. L’hydrogène sera décarboné, car produit par électrolyse de l’eau, à partir d’électricité issue d’énergies vertes, notamment des panneaux photovoltaïques. Cet hydrogène sera dans un premier temps comprimé à environ 150 bar, avant d’être injecté sous une forme gazeuse dans la cavité. L’un des enjeux de cette expérimentation va consister à mesurer les risques de ce stockage en cavité saline.

Aucun incident notable depuis les années 70

Comparé au gaz naturel, l’hydrogène possède des caractéristiques physiques différentes. La molécule se révèle de plus petite taille – 71 picomètres contre 108 pour le méthane – et a une propension à se diffuser beaucoup plus facilement. « Il est donc nécessaire d’être particulièrement attentif aux risques de fuite, analyse Franz Lahaie, chargé de mission hydrogène à l’Ineris (Institut national de l’environnement industriel et des risques). Le sel présente l’avantage d’être un matériau naturel rocheux extrêmement peu perméable. Depuis les années 70, les cavités salines ont déjà prouvé leur capacité à stocker et retenir de l’hydrogène sans incident notable. Nous savons donc que le sel est un matériau propice pour stocker ce type de gaz. »

Le principal risque va se situer au niveau du puits utilisé pour acheminer l’hydrogène depuis la surface jusqu’à la cavité. Dans le cadre de ce projet, des tests spécifiques seront réalisés pour vérifier l’étanchéité de cet ouvrage. Les autres équipements présents à la surface feront aussi l’objet d’une surveillance accrue, comme les canalisations et les compresseurs.

L’hydrogène a également la particularité d’être une substance particulièrement inflammable. Sa plage d’explosivité est extrêmement large puisqu’il peut s’enflammer lorsque ses concentrations dans l’air sont comprises entre 4 % à 75 %, alors que pour le méthane, elles doivent être comprises entre 5 à 15 %. Autre risque : l’énergie nécessaire pour enflammer un mélange d’hydrogène et d’oxygène est extrêmement faible, puisque même l’électricité statique d’un vêtement peut suffire à enflammer un nuage d’hydrogène et donc générer une explosion.

Conformément à la réglementation, des zones ATEX (Atmosphères explosives) devront être définies. « Il s’agit d’une réglementation du code du travail qui vise à protéger les salariés et les opérateurs qui interviennent sur ce type d’installation, ajoute l’expert de l’Ineris. Elle n’est pas spécifique à l’hydrogène, mais s’applique à toutes les installations qui mettent en œuvre des produits inflammables ou combustibles. »

Des cycles d’injections et de soutirages beaucoup plus fréquents

Étant donné que ce stockage va servir à moduler les variations de production d’énergies renouvelables en amont, la cavité va être soumise à un nombre d’injections et soutirages beaucoup plus fréquents, comparé à ce qu’il est d’usage pour le stockage du gaz naturel. La fréquence de ces cycles sera hebdomadaire, voire journalière. « Nous allons vérifier le comportement de la cavité, du puits et de tous les équipements face à la répétition de ces cycles, précise Franz Lahaie. À l’intérieur de la cavité, ce contrôle sera réalisé entre autres grâce à des bilans de masse en mesurant la différence entre les quantités d’hydrogène entrées et sorties. »

D’une durée de trois ans, le projet HyPSTER doit se terminer à la fin de l’année 2023. Un électrolyseur d’une puissance de 1 MW sera construit sur le site et produira chaque jour 400 kg d’hydrogène. Durant la phase expérimentale, seule la partie supérieure de la cavité sera utilisée, soit un volume d’environ 2 tonnes. À l’issue de ce projet, il est possible que cette cavité soit exploitée de manière commerciale par Storengy. Le volume stocké atteindrait alors 44 tonnes, soit l’équivalent de la consommation de 1 760 bus à hydrogène. Ce projet s’inscrit dans un cadre beaucoup plus large, celui de la Zero Emission Valley, un projet situé en Auvergne-Rhône-Alpes qui vise au déploiement de 20 stations hydrogène sur le territoire et à apporter une aide à l’acquisition de 1 000 véhicules.

Selon l’Ademe, l’expression «neutre en carbone» devrait être bannie

L’Ademe a récemment rendu un avis tranché sur « la neutralité carbone ». Face à la multiplication des engagements des organisations, l’agence a voulu identifier les contributions possibles des acteurs à cet objectif et aider à distinguer les ambitions réelles des effets d’annonce. L’Ademe estime que la neutralité carbone est une notion qui ne peut être définie qu’à l’échelle de la planète ou d’un État. Les autres acteurs ne peuvent ainsi ni devenir ni se revendiquer neutres en carbone individuellement à leur seule échelle. Ils doivent néanmoins mettre en place des stratégies climat ambitieuses et compatibles avec l’Accord de Paris et les politiques nationales. Fanny Fleuriot, animatrice comptabilité carbone à l’Ademe et auteure de l’avis, nous explique ce que cela implique.

Techniques de l’Ingénieur : Selon l’avis de l’Ademe, la neutralité carbone n’aurait de sens qu’à l’échelle de la planète ou d’un État, pourquoi ?

Fanny Fleuriot, animatrice comptabilité carbone à l’Ademe et auteure de l’avis : La neutralité carbone a un peu moins de sens à l’échelle d’un pays, mais il faut forcément passer par les États pour coordonner l’action à l’échelle de la planète. La France a un objectif de neutralité carbone. Il doit être atteint sans achat de crédit de compensation carbone à l’international, que cela concerne les émissions ou les puits, et avec une politique ambitieuse de réduction de notre empreinte environnementale. La France cherche aussi à réduire ses émissions indirectes induites dans les autres pays du monde. C’est cette triple association qui fait que cet objectif à l’échelle des États a du sens.

Pourquoi ne peut-on pas dire que l’on est « neutre en carbone » lorsque l’on est une entreprise ou une collectivité locale ?

Pour l’Ademe, l’idée d’être neutre en carbone à l’échelle d’une entreprise ou d’un territoire plus petit que le niveau national n’a pas de sens. Il faut que tout le monde s’engage pour atteindre cet objectif de neutralité au niveau mondial, voire national, mais sans forcément vouloir se l’appliquer à soi-même. L’expression « je suis neutre en carbone » devrait être bannie. Il faut plutôt que les entreprises expliquent comment elles contribuent à atteindre cet objectif mondial et partagent leurs objectifs pour y contribuer. Les actions à déployer passent par l’écoconception pour réduire l’impact des produits, en augmentant leur durée de vie et en réfléchissant à leur fin de vie. Elles doivent faire en sorte qu’un produit mis sur le marché consomme le moins d’énergie possible.

Il n’y a pas de définition commune au niveau international sur ce que la neutralité carbone signifie pour les entreprises. Il y a ainsi une très grande hétérogénéité des démarches et une très grande diversité d’objets qui sont présentés comme neutres en carbone : des entreprises, des événements, des produits, des services… On trouve même des pleins d’essence ou des vols d’avion neutres en carbone.

En termes de neutralité carbone, parle-t-on des émissions directes ou indirectes ?

Quand les entreprises réalisent leur bilan d’émission de gaz à effet de serre (GES), elles le font sur leurs émissions directes, celles qui ont lieu chez elles, et sur leurs émissions indirectes, celles qui ont lieu en dehors de chez elles, mais qui sont nécessaires à leur activité. Les émissions indirectes comprennent par exemple celles liées aux matières premières qu’elles achètent et aux émissions domicile-travail de leurs employés. Les émissions indirectes des unes sont les émissions directes des autres. Cette photographie globale permet à chaque entreprise d’agir sur ses émissions directes mais aussi d’engager sa chaîne de valeur pour avoir une démarche globale de réduction de ses émissions.

Lorsque les entreprises s’affichent « neutres en carbone », le périmètre des émissions considérées varie énormément selon les engagements. Est-on uniquement sur les émissions directes ou aussi sur les indirectes ? Considère-t-on l’intégralité du cycle de vie du produit, les émissions d’une année ou sa durée d’utilisation ? En plus, les démarches de neutralité n’imposent pas forcément d’ambition de réduction d’émissions. Est-ce que l’entreprise s’impose déjà une réduction de ses émissions avant d’aller sur de la compensation ? Ce n’est pas toujours le cas.

Pourquoi cette hétérogénéité pose-t-elle problème ?

Si l’on veut faire le cumul des démarches des différents acteurs qui atteignent la neutralité carbone, chacun des acteurs ne doit comptabiliser ses émissions de GES que sur ses émissions directes. Or, on sait très bien que, mis à part, les activités très émissives, les émissions indirectes représentent la part prépondérante des émissions, de l’ordre de 70 % pouvant aller chez certaines jusqu’à 99 %. Raisonner sur un périmètre qui ne ciblerait des actions que sur les émissions directes est donc largement insuffisant.

Même si l’on raisonnait sur les émissions directes et indirectes, il y aurait aussi une absence d’équité entre acteurs. Par exemple, les entreprises agroalimentaires ont de fait une activité qui comprend des processus de séquestration. Elles peuvent séquestrer du carbone directement au sein de leurs activités. À l’opposé, une entreprise qui n’a aucun patrimoine forestier ou terrestre devra recourir à de la compensation.

Réduire la consommation de carburant des avions grâce à l’intelligence artificielle

Au fil des ans et de leur exploitation commerciale, les performances des avions évoluent, notamment sous la forme d’une baisse de la poussée des moteurs. Pourtant, les compagnies aériennes continuent à utiliser les systèmes de gestion de vol conçus à l’origine par les fabricants alors qu’ils ne correspondent plus aux performances réelles des avions. Un programme européen nommé Perf-AI vient de s’achever avec pour objectif d’actualiser les données de chaque avion dans le but de réduire leur consommation de carburant.

À l’origine de ce projet de recherche, la start-up Safety Line, spécialisée dans l’exploitation de données aéronautiques. « L’idée est née il y a plusieurs années après plusieurs échanges avec l’entreprise Thales. Nous voulions réaliser l’équivalent de ce que fait par exemple Airbus pendant ses phases d’essais en vol en remplaçant les données récupérées par un avion bardé de capteurs par celles obtenues lors de l’exploitation, c’est-à-dire grâce à toutes les captures de données déjà intégrées dans les avions standard », déclare Karim Tekkal, CTO de Safety Line.

Les constructeurs appliquent tout de même un coefficient correctif dans leurs logiciels pour intégrer le vieillissement des avions, mais celui-ci est unitaire et ne tient pas compte de leurs caractéristiques propres. Par exemple, l’un des moteurs peut être remplacé au bout de quelques années. Ou alors un impact sur le fuselage va provoquer une modification de son aérodynamisme et donc de ses performances.

Une vingtaine de variables différentes exploitées

Pour mener à bien ce projet, les données des avions ont été récupérées grâce aux enregistreurs à accès rapide, également appelés Quick Access Recorder (QAR). Ces équipements sont conçus pour fournir un accès rapide et facile aux données de vol brutes. Ils enregistrent, toutes les secondes, un grand nombre d’informations relatives au comportement de l’avion.

Safety Line a fait appel à l’INRIA (Institut national de recherche en informatique et en automatique) et à son équipe Modal (Models for data analysis and learning) pour analyser toutes ces données et construire un nouveau modèle dynamique d’optimisation des plans de vol. « Nous avons exploité une vingtaine de variables différentes comme la vitesse de l’avion, l’altitude, la consommation instantanée de carburant, la température de l’air, l’angle, la pression atmosphérique, la puissance développée par les moteurs, explique Vincent Vandewalle, maître de conférences en mathématiques et statistiques à l’université de Lille et membre de l’équipe Modal. Ces données nous ont permis de remettre à jour les modèles de consommation en fonction de l’état spécifique de l’avion et ainsi estimer plus finement sa consommation. »

Les chercheurs ont appliqué l’intelligence artificielle sur l’ensemble de ces données et ont réussi à construire un nouveau modèle prédictif de la consommation. « Nous pouvons prédire, pour chaque position de l’avion dans l’espace, la consommation de carburant, bien sûr avec une marge d’erreur, précise le chercheur. Si l’avion a telle vitesse, tel angle et vole à telle altitude, nous sommes capables d’estimer qu’il va consommer par exemple 60 litres par heure. »

83 kg de kérosène économisés à chaque montée

Reste à présent à transformer ce nouveau modèle théorique en un outil d’optimisation opérationnel pour les avions. Ce travail sera réalisé par Safety Line dans les mois à venir ; la start-up possède en effet un savoir-faire dans ce domaine. « Nous avons déjà développé un outil d’optimisation appelé OptiClimb qui s’applique uniquement sur la phase de décollage, poursuit Karim Tekkal. Avec la compagnie Transavia, nous avons démontré qu’il permet d’économiser 83 kg de kérosène à chaque montée. Avec le projet Perf-AI, nous considérons que nous pourrions réduire la consommation de carburant d’environ 3 % sur l’ensemble du vol. »

C’est principalement en faisant varier leur vitesse qu’il devrait être possible de faire baisser la consommation énergétique des avions de ligne, sans pour autant modifier de manière significative la durée des vols. « Par exemple, sur une phase de montée, la durée devrait être modifiée de quelques secondes à maximum une minute, alors que cette phase dure en moyenne quinze minutes », ajoute Karim Tekkal.

Récupérer les fibres de carbone des matériaux composites grâce aux puissances pulsées

Abdelaziz Bentaj, son dirigeant, a accepté de répondre à nos questions au sujet de ce procédé innovant.

Abdelaziz Bentaj est fondateur et dirigeant de Xcrusher. Cette société française fondée en 2006 utilise la technologie des puissances pulsées comme technique de séparation physique de différents produits en fin de vie et des chutes de production.

Techniques de l’Ingénieur : En quoi l’utilisation de composites à fibre de carbone représente-t-elle un défi ?

Abdelaziz Bentaj, fondateur et dirigeant de Xcrusher : Cela fait de nombreuses années que les avionneurs cherchent à réduire leur empreinte carbone. La première action menée en ce sens consistait à réduire le poids des structures. Parce qu’elle possède des propriétés mécaniques plus importantes que l’acier, mais avec une densité bien plus faible, la fibre de carbone était donc un candidat idéal. On est ainsi passé de quelques pourcents d’utilisation de composites à fibre de carbone, dans les années 90, à plus de 50 % du poids total de la structure aujourd’hui, dans le cas de l’A350.

Néanmoins, ce n’est pas un secret, l’utilisation massive de composites à fibre de carbone pose un problème de recyclabilité. Comment va-t-on anticiper dans 20 ou 25 ans la fin de vie d’un A350 ?

Jusqu’ici, le recyclage était assez simple puisqu’un fuselage en composite aluminium/titane/fibre de verre peut être facilement séparé par traitement thermique, ce qui permet de récupérer le métal. Dans le cas des composites fibres de carbone, deux questions se posent : comment recycler ces matériaux ? Et que faire avec ?

Même sans attendre la fin de vie d’un avion, le recyclage des chutes de production représente déjà un problème immédiat. Pour plusieurs raisons, l’industrie aéronautique est confrontée à des pertes importantes en fibre de carbone lors de la fabrication, qu’il s’agisse de chutes de découpe, d’erreurs de fabrication ou encore de bobines de fibre de carbone mal stockées et mises au rebut.

Quelles sont les difficultés rencontrées avec les solutions actuellement proposées pour le recyclage des fibres de carbone ?

Ces dernières années, plusieurs approches se sont succédées de manière concomitante, comme la solvolyse, la vapolyse, la calcination ou encore le broyage mécanique. Malheureusement, ces solutions conduisent à la production de fibres de carbone courtes (2 à 3 mm), à faible valeur ajoutée, inadaptées à un usage structurel.

En effet, hormis sa faible densité, l’intérêt d’un composite fibre de carbone réside dans le caractère anisotrope qui lui confère d’excellentes caractéristiques mécaniques. Cela nécessite de disposer de fibres très longues. D’un point de vue mécanique, une fibre de carbone qui n’est pas orientée est donc une fibre qui n’a que peu de valeur.

Pour être vraiment valorisable dans un matériau composite, une fibre recyclée doit être disponible sous forme de bobine. C’est l’objectif que nous poursuivons avec le procédé Xcrusher : proposer des fibres recyclées dont l’état est similaire à celui des fibres neuves.

Sur quel principe est basée la solution proposée par Xcrusher ?

La mise en œuvre se fait en deux étapes. Tout d’abord nous avons mis en place un process permettant de remettre sous forme de bobine les chutes de production, c’est-à-dire des fibres partiellement enrobées de résine.

La deuxième étape consiste ensuite à dérouler cette bobine à 3 m/s, en faisant circuler un fort courant électrique dans la section des fibres, jusqu’à atteindre la sublimation de la résine. Nous obtenons ainsi une bobine totalement débarrassée de sa résine et composée de portions qui sont aboutées pneumatiquement.

Grâce à ce procédé, nous arrivons à produire des bobines de fibre dont la capacité de traction équivaut à 90 % de celle d’une fibre neuve, ce qui permet d’envisager une réintroduction dans un process industriel de tissage.

Dans ce contexte sanitaire particulier, arrivez-vous à faire avancer vos différents projets ?

Le Covid-19 a eu un impact indéniable sur nos activités, car il est plus difficile de travailler avec des pays étrangers, même européens. Néanmoins, en ce qui concerne le recyclage des fibres de carbone, nous avons bon espoir de construire d’ici un an une usine qui serait en capacité de traiter la totalité des chutes de production d’un avionneur comme Airbus.

Cette technique de séparation par puissances pulsées est-elle applicable à la séparation d’autres types de matériaux ?

Oui, tout à fait. À titre d’exemple, nous sommes actuellement en train d’implanter une usine dédiée au recyclage des membranes bitumineuses installées sur les toitures. Il faut savoir que dans certains pays comme la Belgique ou les Pays-Bas, l’enfouissement de ces matériaux est interdit. Avec le procédé que nous avons développé et breveté, notre objectif est d’atteindre 15 % de réincorporation de matière recyclée dans le process de production de membranes.

Nous avons également un autre projet industriellement mature, qui concerne la séparation de fibres polyester contenues dans des membranes synthétiques en PVC, ainsi que d’autres idées, encore au stade de la R&D.

Les oubliettes des sciences, Chapitre 1 : le vélo amphibie

L’année 1932 en France a été marquante tant dans les dimensions politiques – l’assassinat en mai du président de la République Paul Doumer – que sportives – lancement de la toute première édition de la Ligue 1 ! – et culinaires, avec la fort heureuse invention du presse-purée (mille fois merci !). Mais ces faits historiques, si importants à divers égards, ne sont pas la raison pour laquelle nous avons choisi de nous engouffrer entre les fines mailles du tissu spatio-temporel.

Notre motivation première a trouvé racine au détour d’un post de blog qui a titillé notre curiosité et égayé notre morne après-midi de télétravail. Un véhicule à roues (et… bouées ?!), visiblement pneumatiques, qui nous avait arraché quelques rires amusés et que voici :

Nous n’étions pas prêts pour ce selfie. Crédit dessins : Intissar El Hajj Mohamed. Crédit photo : domaine public.

Occurrence spatio-temporelle amatrice de couvre-chefs et surveillant infatigable de nos excursions à l’évidence strictement professionnelles, Chronox est une espèce de ciel étoilé emprisonné dans une boule de poils (vous le voyez ?). Il nous a ouvert une voie vers le Paris de 1932 où un inventeur anonyme (cf. ci-haut) expose son vélo amphibie. Misanthrope au bon cœur (si cœur il a), Chronox ne nous a accordé, pour préserver notre bien-être mental devant un tel choc des époques, que très peu de temps ! Il s’énerve, il s’énerve, mais quand il s’agit de photobombing, il ne rechigne pas.

Nous sommes trop beaux. (Si nos personnages étaient réels, ceci aurait été une photo prise dans un café grâce à un trépied.) Crédit dessins : Intissar El Hajj Mohamed. Crédit photo : domaine public.

Qu’est-ce donc que ce vélo amphibie ? Son papa étant peu loquace, nous avons eu recours à des méthodes un peu moins orthodoxes. En journalistes d’investigation chevronnés, nous avons poussé la porte d’une librairie… Et avons fini par mettre la main sur l’édition de décembre 1932 du magazine Popular Science !

Dans ce numéro, un article est consacré à la « bicyclette amphibie » où celle-ci est décrite comme étant un « véhicule hybride ». « Ses roues, peut-on lire, sont des flotteurs creux et bulbeux qui, avec l’aide de quatre petits globes accrochés à des balanciers, le maintiennent en flottaison dans l’eau. » Gentiment chassés par Chronox, nous n’avons hélas pas pu assister à la démonstration ! Néanmoins, la revue affirme que celle-ci, menée dans une « grande piscine », fut une franche réussite. Sans toutefois montrer de photos…

*Allez, zou. Crédit dessin : Intissar El Hajj Mohamed

Et sur terre ? Toujours selon Popular Science, les déplacements terrestres sont bel et bien possibles, simplement en repliant les balanciers. Si ça n’est pas novateur et prouve la souveraine puissance de la French tech, nous ne savons pas ce qui l’est !

« Un nom, je veux un nom ! », nous vous entendons maugréer. D’accord, oui, tout à fait, ce vélo amphibie aurait bien été baptisé d’un nom ! Nous l’avons gardé pour la fin pour vous tenir en haleine… Le « Cyclomer », qu’il s’appelait, nous informe ici, en néerlandais, le Nationaal Archief, les Archives nationales des Pays-Bas.

Nul doute, une question subsiste, suspendue à toutes les lèvres ! Nous la voyons, là, flotter dans l’éther… Cette interrogation : et aujourd’hui donc, existe-t-il des vélos nautiques pour nous autres amoureux, certainement nombreux, du cyclisme aquatique ? Eh bien, oui ! De là à parier sur un Tour de France sur la Seine ? Probablement pas. Toujours est-il que nous ne sommes pas sûrs d’une chose… Le Cyclomer a-t-il, oui ou non, pu naviguer sur l’eau ? Désormais de retour en 2021, nous avons choisi de poser la question à un spécialiste.

L’univers insoupçonné des amphibistes

Christophe Prier¹ est président et fondateur (en 1997) de l’AVA France, Association des véhicules amphibies de France, qui compte aujourd’hui une trentaine de membres. Mais cet ancien cheminot porte de multiples autres casquettes : il est mécanicien-motoriste le jour, chauffeur routier la nuit, et surtout un auto-entrepreneur passionné d’invention et d’innovation (avec déjà un brevet à son registre) en passe de monter sa propre start-up d’ingénierie.

REPÈRE TECHNIQUE : Étanchéité des systèmes mécaniques : « Le confinement d’un gaz ou d’un liquide, de par sa nature, n’est pas aisé. Une fuite, même petite, peut avoir de multiples conséquences, tant sur le plan de la disponibilité du matériel que sur celui du fonctionnement et aussi de la sécurité. » (Source : Étanchéité en mécanique)

Voici son verdict : « le Cyclomer est doté de tout ce qu’il faut pour naviguer, mais il ne fallait pas s’attendre à une vitesse d’avancement exceptionnelle sur l’eau ». Nous apprenons au passage que les propriétaires des véhicules amphibies s’appellent les « amphibistes ». Nous en profitons pour lui demander les critères, outre les hélices et les roues, pour garantir le bon fonctionnement d’un vélo amphibie.
« Tout comme le vélo classique tient en équilibre sur terre, on peut imaginer une chose similaire dans l’eau
, explique Christophe Prier. Il faut donc qu’il y ait deux « bras », un de chaque côté, pour assurer un point d’équilibre. Il peut s’agir de boudins gonflables [coussins d’air, NDLR], à distance respectable, qui permettent de tenir le poids de la personne qui va pédaler ». Autre point important : la carrosserie.
« Celle-ci est une sorte de coque, poursuit le président de l’AVA France, et il faut bien sûr faire des points stratégiques d’étanchéité. L’étanchéité est un enjeu majeur ! Il faut que le système permette d’à la fois rouler et flotter sans que l’eau rentre dedans. »

REPÈRE TECHNIQUE : Évacuation de la chaleur : « La chaleur est transférée d’un point à un autre sous l’influence d’une différence de température entre ces deux points ; il y a trois modes principaux de transfert de chaleur : conduction, convection et rayonnement ; ces modes peuvent apparaître séparément ou simultanément. » (Source : Dissipation thermique Évacuation de la chaleur)

La motorisation est elle aussi un paramètre non négligeable, nous informe le spécialiste : « Le moteur est à l’intérieur de cette coque. Et il faut absolument trouver un moyen pour évacuer la chaleur générée par le moteur ! Sinon, le système se transforme en une véritable cocotte-minute… »

Quelques bons conseils ne sont pas de refus. Ainsi, Christophe Prier recommande de privilégier l’eau douce : « Je possède un Amphicar que j’ai restauré, sablé, et métallisé, mais même en ayant fait ça je n’irai pas en mer. L’eau de mer, très salée, est corrosive ! »

Autre précaution : « Quand on part naviguer, on ne souhaite évidemment pas tomber en panne. Il faut donc toujours prévoir des plans B : on garde toujours un bout de corde à l’avant du véhicule. Et si jamais on rencontre un souci, on lance la corde à quelqu’un qui pourrait l’accrocher à un bateau ou sur la rive. » Si vous partez en balade sur l’eau en véhicule amphibie, il vaut donc mieux que vous soyez accompagné !

Ce n’est pas tout. Avec notre interlocuteur, nous découvrons tout un monde dont on ne soupçonnait pas l’existence. Celui des amateurs des véhicules amphibies, et qui plus est, en France ! « Le premier rassemblement de véhicules amphibies en France, je l’ai organisé en l’an 2000, indique Christophe Prier. Il s’est tenu au Manoir de l’automobile, à Lohéac ». Autre rassemblement, cette fois d’envergure internationale : l’AMPHIB, qui réunit dans un même endroit tous types de véhicules amphibies (voitures, vélos, 4×4…). Christophe Prier contribue régulièrement à son organisation. « Le premier AMPHIB a eu lieu aux Pays-Bas, en 1987 », note Christophe Prier.

REPÈRE TECHNIQUE : Corrosion-érosion en milieu marin : « Les matériaux métalliques sont le plus fréquemment en contact avec un fluide en mouvement. C’est le cas des structures portuaires, des échangeurs thermiques, des pompes, des turbines et des hélices par exemple. Le flux de l’électrolyte a en général un effet négatif, l’augmentation des phénomènes de transport accélérant la corrosion. Il vient en outre s’ajouter à la dégradation physico-chimique des dommages mécaniques résultant de l’effet hydrodynamique que l’on désigne par corrosion-érosion. La formation de turbulence locale dans l’écoulement du fluide peut conduire à l’arrachement des films protecteurs et à l’apparition de sites actifs en contact avec le milieu corrosif. » (Source : Corrosion et protection des métaux en milieu marin)

L’édition 2019 de l’AMPHIB s’est même déroulée – pendant 8 jours consécutifs – en France, dans le Morbihan, à Saint-Perreux (à proximité de Redon) : « On a choisi d’organiser cet AMPHIB du côté de Redon car c’est là le carrefour des voies navigables. Douze nations ont participé cette année ! 74 véhicules amphibies ont défilé et c’est à ce jour notre plus grand rassemblement. C’était un spectacle assez atypique. Plus de 100 000 spectateurs sont venus ! » Un événement qui n’a pas manqué de casser la routine et a su attirer l’attention des médias locaux, comme dans ce reportage de France Bleu. Toujours selon Christophe Prier, l’édition 2020 devait s’organiser au lac de Garde, dans les Alpes italiennes, mais a été annulée en raison de la pandémie de Covid-19. Pour 2021, la destination prévue était le Danube, en Autriche.

Vous souhaitez devenir amphibiste ? Acquérir un véhicule amphibie n’est pas facile car ces modèles sont plutôt rares, mais Christophe Prier a quand même pu nous présenter une fourchette de prix : « L’Amphicar, qui est le véhicule amphibie le plus recherché et apprécié, coûte entre 60 000 et 70 000 €. » Attention cependant, pour conduire un tel véhicule, il faut être titulaire du permis « voiture » et « bateau ». De son côté, Christophe Prier conçoit un projet de « véhicule amphibie de poche », dont vous pourrez peut-être un jour négocier l’achat.

Bref aperçu des vélos amphibies contemporains

Revenons aux vélos amphibies ! Nous avons préparé un court panorama des vélos amphibies cette fois contemporains ayant le plus marqué les esprits. Une requête toute bête dans un moteur de recherche génère une quantité conséquente de photos de prétendus ou authentiques vélos amphibies. Afin de ne pas vous présenter – à notre insu – de la désinformation, nous allons nous reposer entièrement sur les publications de médias de renommée mondiale et de sources fiables !

Commençons par la BBC qui, en 2008, publiait un article sur le vélo amphibie inventé par l’indien Mohammed Saidullah. L’invention, elle, remonte à 1975 ! En cette année, la moisson, particulièrement rude, avait inondé le village de Mohammed Saidullah, le poussant à s’ingénier pour trouver un moyen de locomotion pratique et économe. Et ainsi naquit son vélo amphibie. Il s’agit d’une bicyclette classique équipée, entre autres, de quatre flotteurs rectangulaires qui la soutiennent afin qu’elle puisse naviguer sur l’eau. L’article raconte que ce marchand de miel aurait vendu tous ses biens pour se consacrer à ses inventions, et rien que pour sa détermination nous lui souhaitons des jours glorieux !

En France, Christophe Prier nous a signalé la sortie remarquée de vélos nautiques, lors du passage du Tour de France par Redon, en 2011, et dont vous pouvez retrouver des images ici. Ouest-France y a même consacré un article. Finalement, un Tour de France des vélos amphibies serait possible…

Ensuite, passons au bricolage que nous qualifierons de « sauvages » : nous les voyons traîner sur les réseaux sociaux, mais nous ne savons pas trop… S’agit-il d’inventions bien réelles ou de canulars ? Les Mythbusters de la chaîne Discovery, experts en l’art du debunking, se sont prêtés à l’exercice. À l’exception de quelques couacs pour le moins renversants, leur vélo amphibie, muni de bonbonnes d’eau vides en guise de flotteurs et de pales au niveau des roues, semble bien… marcher.

Teaser, tout simplement

Bien sûr, d’autres exemples de « vélos » amphibies existent, comme ce tricycle inventé par l’argentin Ernesto Octavio Morega et breveté aux Etats-Unis en 1971 ! Mais notre aperçu des vélos amphibies contemporains s’arrête ici. Sans languir davantage, il est temps pour nous de voguer, ensemble et en selle, vers de nouvelles aventures ! Et en attendant, si vous avez la patte inventive et que fabriquer un petit rover amphibie vous tente, ce guide des Instructables va vous séduire.

Prochain arrêt et prochain chapitre : nous serons au Moyen-Orient, pour des raisons encore obscures !

*Laissez-moi tranquille… Crédit dessin : Intissar El Hajj Mohamed

 

¹En mai 2022, Christophe Prier a remporté la médaille d’or au concours Lépine, le 1er prix de l’Institut National de la Propriété Intellectuelle (INPI) et le prix Innovate « Recherches contacts industriels », pour son invention Fixang, un coinceur magnétique pour sangle.

Un polymère biodégradable pour favoriser la plantation d’arbres en Chine

En plantant des arbres aux côtés d’habitants de Pékin au début du mois d’avril, le président chinois Xi Jinping a réaffirmé sa volonté de verdir le pays. Depuis 40 ans, le pays agit pour contrebalancer la forte déforestation du siècle dernier. La carte interactive de CarbonBrief indique que la Chine a reboisé près de 79 millions d’hectares de parcelles depuis les années 1990. Au cours des vingt dernières années, le pays est même devenu l’un des fers de lance de la reforestation à l’échelle mondiale.

Zhang Jianlong, chef de l’administration forestière chinoise, affirme que le pays porte une ambition claire pour la poursuite de son plan de reboisement. « Les entreprises, organisations et les acteurs spécialisés dans ce secteur d’activité sont tous les bienvenus pour contribuer à la campagne massive de reboisement engagée par la Chine », a-t-il indiqué au journal China Daily. Ce dernier a également affirmé que si le pays visait 20 % de reboisement en 2020, il en vise désormais 23 % à l’horizon 2035. Le journal chinois rapporte également que le pays a dépensé plus de 82 millions de dollars en travaux de plantation entre 2013 et 2018. Pour Zhang Jianlong, la reforestation de la Chine passera par des avancées technologiques.

Favoriser la transplantation des semis

À l’Académie chinoise des forêts, des chercheurs abondent en ce sens. Une étude publiée dans Scientific Reports fait état de la mise au point d’un polymère destiné à favoriser la transplantation des arbres. Ce nouveau matériau, fabriqué à partir de glucomannane de Konjac (KGM), de chitosane (CA) et d’alcool polyvinylique (PVA), est destiné au renforcement de la motte de terre qui entoure les racines des végétaux à transplanter. Leurs recherches ont permis de démontrer que leur solution est plus efficace qu’un repiquage avec des billes d’argile et plus fiable et écologique qu’une consolidation avec des sacs, boîtes et cordages. Les expérimentations ont été menées sur trois plantes : sierra salvia, fuseau japonais et Juniperus sabina.

Ce polymère a été mis au point pour assurer le transport des plantes de la pépinière au lieu de transplantation. Durant cette étape, beaucoup de semis sont perdus car les racines sont endommagées. De plus, d’autres ne survivent pas après avoir été replantés pour les mêmes raisons. « En matière de verdissement urbain et rural, la rupture des boules de terre est la principale raison de la mort des gros semis après leur transplantation », indique l’étude. Ainsi, le mélange ternaire évite le délitement de la terre qui entoure des racines. Cette protection assure également l’équilibre hydrique de la plante.

« Propre et facile à utiliser »

L’autre enjeu lié à cette substance est son impact sur l’environnement. Ce dernier se doit d’être le plus faible possible. L’étude indique que dans le secteur du BTP, de nombreux stabilisateurs de sol existent, pour les fondations des bâtiments, renforcer les autoroutes ou encore prévenir les infiltrations. Ces derniers sont parfois utilisés pour les plantes. Mais « les agents inorganiques de solidification ont un effet très négatif sur le sol. La couche de sol solidifiée perd fondamentalement la capacité de croissance des plantes et sa substance alcaline est nocive pour la végétation », expliquent les chercheurs de l’Académie chinoise des forêts.

Ce sont pour ces raisons que les adhésifs à base de solvants, comme le benzène ou le toluène, ont été exclus. Les adhésifs thermofusibles ont eux aussi été écartés car leur viscosité ne les rend pas pratiques. C’est pourquoi le polymère ternaire est conçu à base d’eau. « Les principaux avantages des adhésifs à base d’eau sont l’absence de poison, de pollution, de combustion, une utilisation sûre et une technologie de production propre et facile à utiliser », atteste l’étude. De plus, les scientifiques affirment que cette formule se dégrade rapidement dans la terre sans engendrer de risque toxique pour la plante, ni pour la terre. Ainsi, les chercheurs avancent que cet adhésif pourrait être un soutien majeur pour favoriser la plantation d’arbres et améliorer la qualité de vie dans des espaces urbains pollués.

Vers des batteries plus durables construites en Europe

La Commission européenne étudie actuellement la définition d’objectifs pour améliorer le cadre législatif européen sur les batteries et les déchets de batteries. Dans ce cadre, elle a publié fin décembre une proposition de règlement. Dans son dernier avis Exigences concernant la durabilité des batteries dans l’UE, le Conseil Economique et Social Européen (CESE) soutient cette démarche.

Le CESE appelle toutefois la Commission à renforcer le contrôle des substances chimiques utilisées. Il souhaite aussi mieux prendre en compte les questions liées à la santé, à la sécurité et aux conditions de travail tout au long de la chaîne, de l’extraction des matières premières au recyclage et à la réaffectation des batteries. « La priorité dans cet avis est de renforcer la réglementation européenne en amont de la construction des usines de batteries en Europe et de ne plus être dépendants des pays asiatiques pour l’approvisionnement des matières premières », avance Bruno Choix, rapporteur de ce nouvel avis.

Préparer la révolution des batteries à venir

La réflexion en cours à la Commission européenne concerne toutes les batteries mises sur le marché en Europe, qu’elles soient industrielles, automobiles, de véhicules électriques et portables. En particulier, l’enjeu est aujourd’hui de préparer cette « grosse révolution dans le monde industriel automobile européen », prévient Bruno Choix. Ainsi, il faut préparer le terrain à la réindustrialisation des batteries en Europe en amont du déploiement des « gigafactories », ces méga-usines qui verront le jour « pour les véhicules, le naval et le train », précise l’expert.

Le défi économique est considérable. « La Commission estime que la demande mondiale de batteries va être multipliée par 14 d’ici 2030 par rapport à son niveau de 2018 et l’UE devrait représenter 17 % de cette demande. Le nombre de batteries lithium serait multipliée par 700 entre 2020 et 2040 », rappelle l’avis.

Des défis considérables pour des batteries « durables »

Plusieurs défis restent à relever pour fabriquer des batteries avec la plus faible incidence possible sur l’environnement, avec des matériaux provenant de mines « responsables » et en respectant la sécurité au travail. « Nous souhaitons une traçabilité complète de la batterie, de sa fabrication jusqu’à son traitement final. Nous voulons être sûrs du retraitement de la batterie pour réutiliser au maximum les composants avant d’aller les puiser dans nos ressources », ajoute ce conseiller du groupe Mary, président de branche maintenance de la Fédération nationale de l’artisanat automobile (FNA).

La Commission européenne a notamment proposé d’augmenter l’obligation actuelle du taux de collecte des batteries de 50 % actuellement à 65 % en 2025 et 70 % en 2030. Elle prévoit des taux de recyclage spécifiques pour les métaux critiques : cobalt, nickel et cuivre, lithium. Pour aligner le projet de règlement sur les batteries avec l’objectif de neutralité carbone européen, le CESE propose en plus dans son avis « d’introduire rapidement des seuils maximaux concernant l’empreinte carbone associée à la fabrication des batteries ainsi qu’à la logistique d’approvisionnement en amont des matériaux ».

Augmenter la durée de vie des batteries

L’idée est également d’augmenter la durée de vie des batteries. Il faut ainsi pouvoir les réaffecter à d’autres usages, les reconditionner avant de les recycler lorsqu’elles ne sont plus utilisables en l’état. « Lorsqu’une batterie automobile atteint 70 % de sa puissance initiale, on veut pouvoir lui donner une deuxième vie : qu’elle soit réparable, qu’elle parte dans le rétrofit ou qu’elle serve comme batterie stationnaire », précise Bruno  Choix.

Une durée de vie plus grande passe aussi par plus d’écoconception. Dans cette perspective, le CESE recommande une responsabilité incitative du producteur. Elle passerait notamment par le fait de « dissocier la fin de vie des batteries de la fin de vie des appareils qui les utilisent ». Le fait d’introduire une notion de « fin d’usage » en complément de celle de « fin de vie » permettrait aussi de « favoriser le réemploi, la rénovation ou la seconde vie et le recyclage des batteries », conclut l’avis du CESE.

Infographie : Les sols au service d’une société durable

Le sol ne doit plus être considéré comme un simple support inerte de production, mais comme un écosystème complexe avec un patrimoine biologique riche et fonctionnel, à même de fournir des fonctions et des services pour les humains : production alimentaire, dépollution de l’environnement, mitigation des changements climatiques par le stockage du carbone ou encore fourniture d’un support stable pour nos constructions.

Quelques chiffres qui illustrent la fascinante biodiversité des sols :

  • le sol renferme environ 1 million d’espèces de bactéries et 100 000 espèces de champignons par gramme de sol ;
  •  les communautés microbiennes du sol représentent une biomasse de 2 à 10 tonnes de carbone par hectare (l’équivalent d’une dizaine de vaches pâturant sur la même surface !) ;
  • il faut pour un sol moyennement profond (1 m à 1 m 50) environ 10 000 à 100 000 ans pour le former.

Les sols sont menacés par les activités anthropiques (artificialisation, pollution, pratiques agricoles intensives…). Même si les sols français ne sont pas morts, il ne faut pas minimiser l’impact de nos actions comme l’utilisation intensive de produits chimiques et de mécanisation en agriculture, ou l’artificialisation des sols en zone urbaine.

Le sol joue un rôle pivot pour deux transitions sociétales en cours : la transition agroécologique et le développement de ville durable par le retour de la nature en ville.

La biodiversité du sol sera le principal atout de l’agriculture de demain, dans une société qui ne veut plus d’intrants chimiques. Au sein des mosaïques urbaines, le sol sera aussi un pivot pour améliorer la qualité de vie en ville en tant que support du verdissement des futurs aménagements urbains. Enfin, la dynamique citoyenne lancée autour de la qualité de sols montre aussi le réel engouement du grand public pour cette matrice, source de vie et de richesses non renouvelables.

Retrouvez ces données dans notre infographie, réalisée à partir de l’article rédigé par Pierre-Alain Maron et Lionel Ranjard, directeurs de recherche en agroécologie à l’Inra (Institut national de la recherche agronomique) et illustrée par Laurent Duvoux, graphic designer :

Espace : « Les micrométéorites ne sont pas de la poussière de météorite »

Chaque année, près de 5 200 tonnes de micrométéorites atteignent le sol de notre planète. Voici le résultat d’un programme international mené depuis près de 20 ans dont les découvertes ont été publiées récemment dans la revue Earth & Planetary Science Letters. Cécile Engrand est cosmochimiste, chercheuse au laboratoire IJCLab de l’Université Paris-Saclay (CNRS/IN2P3) et spécialiste de l’analyse de ces micrométéorites. Coauteure de cette étude, elle nous en dit plus sur les micrométéorites et l’intérêt de les étudier. Entretien.

Techniques de l’Ingénieur : Qu’est-ce qu’une micrométéorite ? Quelle est la différence avec une étoile filante ?

Cécile Engrand : Les étoiles filantes sont provoquées par des poussières dont la taille est de l’ordre du millimètre. Ces poussières émettent de la lumière lors de leur entrée dans l’atmosphère. Et il y a des poussières, dont la taille varie entre 30 et 200 micromètres, qui ne sont pas assez grosses pour émettre de la lumière. Lorsqu’elles entrent dans l’atmosphère, certaines poussières chauffent, d’autres sont vaporisées, et pour une raison que personne ne comprend vraiment encore, d’autres tombent sur Terre sans avoir beaucoup chauffé. Les micrométéorites sont les poussières qui ne sont pas détruites lors de l’entrée atmosphérique et qui atteignent le sol.

À quoi ressemble donc une micrométéorite ?

Les micrométéorites sont des assemblages de petits minéraux et de matière organique. La plupart des micrométéorites comptent environ 2 % de carbone, le reste étant constitué d’assemblages de petits minéraux. Les minéraux les plus abondants dans les météorites sont des silicates et les sulfures de fer. Certains d’entre eux existent sur Terre, comme des olivines ou des pyroxènes, mais leurs compositions sont différentes de celles de la matière extraterrestre.

Les petits minéraux individuels – des « grains » d’une taille d’environ 50 à100 nm – se sont formés au tout début de la formation du système solaire il y a 4,5 milliards d’années. Ils se sont directement formés à partir du gaz qui était autour du Soleil à ce moment-là, ou ils ont été hérités du nuage pré-solaire qui a servi à former le système solaire. Ces grains se sont collés mécaniquement les uns aux autres jusqu’à former une particule un peu plus grosse et ils sont ainsi restés ensemble depuis 4,5 milliards d’années. C’est cette matière qui a servi à former les planètes, par accrétions successive. Certaines poussières ont échappé à la formation planétaire, et ce sont celles-ci que l’on étudie.

D’où viennent les micrométéorites ?

Les micrométéorites proviennent de la ceinture d’astéroïdes, entre Mars et Jupiter, et des comètes. Et il y a plusieurs types de comètes : celles qui ont été capturées par Jupiter et des comètes qui viennent de beaucoup plus loin, par exemple du nuage de Oort.

Si on résume, on trouve trois populations de grains dans les micrométéorites. D’abord, celles qui viennent probablement des comètes proches : elles contiennent principalement des silicates et un peu de carbone. Puis, il y a celles qui viennent des comètes de plus loin dans le système solaire, et qui contiennent plus de carbone (les micrométéorites « ultra-carbonées »). Et enfin, il y a des particules qui sont directement reliées aux météorites et qui proviendraient des astéroïdes. Rappelons qu’une météorite est un caillou qui vient de l’espace, de taille centimétrique ou plus : nous avons des évidences qu’elles viennent de la ceinture d’astéroïdes entre Mars et Jupiter.

Mais attention : les micrométéorites ne sont pas de la poussière de météorite ! Si vous prenez une météorite et que vous la réduisez en poudre, vous n’obtenez pas des micrométéorites. Il y a certes des ressemblances, mais dans les micrométéorites, les minéraux sont plus petits et les abondances divergent. La mission spatiale japonaise Hayabusa 2 a rapporté sur Terre des échantillons d’un astéroïde en décembre 2020. L’été prochain, Paris-Saclay en analysera une partie pour comparer ces échantillons avec les micrométéorites. Cela devrait nous permettre d’en savoir plus.

Quelles analyses fait-on sur les micrométéorites ?

Il y a plusieurs analyses possibles. La condition préalable est de préparer les échantillons de manière différente. Chaque micrométéorite sera ainsi fragmentée en plusieurs morceaux. Par exemple, une particule de 100 micromètres sera fragmentée en trois. Sur chaque morceau, nous pourrons faire des analyses complémentaires. La première est au microscope électronique à balayage avec un détecteur de rayons X pour être sûr qu’il s’agit bien d’une micrométéorite et pour identifier son type. Ensuite, nous faisons des sections ultra-minces sur un autre fragment pour l’observer au microscope électronique en transmission. Cela permet de caractériser la minéralogie à une échelle plus fine et de regarder les grains de l’ordre de 50 nanomètres. Nous pourrons ainsi caractériser tous les grains individuels qui se sont collés les uns aux autres pour former les micrométéorites.

Il est aussi possible de faire des analyses isotopiques pour mesurer et caractériser l’histoire de la particule depuis qu’elle a été formée. Nous pouvons aussi faire de la microscopie infrarouge pour caractériser les assemblages minéraux et organiques. À l’Université Paris-Saclay, nous avons la chance d’avoir eu l’invention de la nanospectroscopie infra-rouge par Alexandre Dazzi il y a une quinzaine d’années. Cette technique permet d’investiguer la composition minérale et organique à l’échelle de quelques dizaines de nanomètres. D’autres techniques nécessitent la destruction de la particule : c’est par exemple le cas si l’on veut caractériser les acides aminés en chromatographie en phase liquide.

Qu’est-ce que les micrométéorites nous apprennent sur la Terre primitive ?

Ce qui nous intéresse est de comprendre comment ces petites particules se sont formées, comment les grains se sont collés les uns aux autres et comment les poussières ont évolué. Cela nous donne des informations sur les mécanismes qui étaient là au tout début de la formation du système solaire.

Un autre axe de recherche porte sur les micrométéorites ultra-carbonées, environ 1 % des micrométéorites que l’on découvre. Contrairement aux plus répandues, elles sont dominées par de la matière organique. On pense qu’elles viennent de très loin, des régions de formation des comètes.  L’apport extraterrestre de matière organique sur la Terre primitive, il y a environ 4 milliards d’années, est quelque chose qui est vraiment regardé très sérieusement. Ce qui nous intéresse est de trouver dans ces micrométéorites des composés organiques qui auraient pu participer à l’apport prébiotique sur la Terre primitive.

Les acides aminés en particulier sont intéressants, et on les trouve dans la matière extraterrestre. C’est une preuve que la chimie complexe qui est capable de former ces molécules peut se faire ailleurs que sur Terre, y compris sur les astéroïdes et les comètes. L’apport en acides aminés via les micrométéorites a pu participer à l’inventaire de la matière qui a participé à former la vie. Mais attention : on ne va pas dire que la matière extraterrestre ou les météorites ont apporté la vie sur Terre ! En revanche, on dit que cet apport extraterrestre pouvait contenir des composants qui ont pu servir à la chimie complexe à ce moment-là et qui ont aidé à aboutir à l’apparition de la vie.

Photo Une : spherule cosmique © J. Duprat C./Engrand, CNRS

Des piles à hydrogène pour alimenter les datacenters

Les datacenters ont des besoins énergétiques élevés. Ils fonctionnent 24/7, 365 jours par an, et ne peuvent pas connaître le moindre défaut énergétique. La moindre panne a un impact sur l’activité d’entreprises et de sites dont les données sont hébergées dans le centre de données.

Fin 2017, l’hébergeur français OVH –qui a récemment fait l’actualité à cause d’un incendie– a connu une double panne dans son datacenter de Strasbourg. Premièrement, une panne générale d’alimentation électrique due à deux lignes 20 000 volts distinctes en provenance du réseau général d’ERDF. Deuxièmement, et pour ne rien arranger, les deux groupes électrogènes censés prendre le relais dans ce cas de figure sont tombés eux aussi en panne…

Ces incidents deviendront-ils encore plus exceptionnels si ces générateurs de secours étaient remplacés par des modèles intégrant une pile à hydrogène ? Cette piste est étudiée depuis deux ans par Microsoft.

Lors du dernier événement « Towards Net-Zero », organisé par le média britannique Data Center Dynamics fin février, Mark Monroe, un ingénieur de chez Microsoft, a en effet indiqué que les piles à hydrogène PEM (polymer electrolyte membrane fuel cells) pourraient être intégrées aux onduleurs et aux générateurs diesel.

L’idée de faire appel à des piles à combustible n’est pas nouvelle pour Microsoft. La société a commencé à étudier la technologie des piles à combustible en 2013 avec le National Fuel Cell Research Center de l’Université de Californie. L’idée serait d’alimenter des racks de serveurs avec des piles à combustible à oxyde solide (ou SOFC) qui sont alimentées par du gaz naturel.

Un datacenter à l’hydrogène vert

Pour Microsoft, l’intégration de différentes énergies renouvelables et de piles à hydrogène lui permettrait de relever le double défi qu’il s’est fixé : être non seulement neutre en carbone d’ici à 2030, mais aussi éliminer de 2030 à 2050 autant de carbone qu’il en a émis au cours de son histoire.

Mais deux entreprises françaises sont plus ambitieuses que Microsoft. Atos et HDF Energy (fabricant de piles à combustible à forte puissance) ont pour objectif la mise en opération, dès 2023, d’un premier datacenter fonctionnant à l’hydrogène vert.

« Avec Atos, nous avons le projet de remplacer les générateurs diesel, mais aussi d’aller au-delà pour travailler sur des systèmes intelligents de fourniture d’électricité voire même de s’interfacer avec des énergies renouvelables et stocker de l’énergie pour la nuit. Pour faire de l’alimentation continue sur plusieurs jours, nous raisonnons plutôt en smart grid car la pile à combustible ne suffira pas à remplacer la ligne électrique. Une énergie retrouvable sera connectée directement au datacenter et lorsqu’elle n’est pas disponible, nous compenserons avec la pile à combustible et un stockage en hydrogène », nous explique Benoît Fournaud, directeur études et projets d’Hydrogène de France (HDF).

Atos concevra et fournira le matériel, les logiciels et les services d’intégration qui permettent d’exploiter l’électricité produite à partir d’hydrogène vert, en s’appuyant notamment sur des technologies d’intelligence artificielle (IA) pour optimiser la consommation.

HDF Energy apportera la centrale électrique fournissant une électricité prévisible et stable grâce à des piles à combustible de forte puissance alimentées par cet hydrogène vert, issu de parcs photovoltaïques ou éoliens.

« Nous sommes en train de valider notre design de piles à forte puissance de 1,5 mégawatt [Microsoft utiliserait des piles destinées à la mobilité, NDLR] pour produire en série dans une usine à Bordeaux. Nous serons opérationnels en 2023 pour fournir des piles qui peuvent répondre aux besoins des datacenters », précise Benoît Fournaud.

« Nous cherchons à développer des solutions pour soutenir nos clients dans leur approche de décarbonation. Dans cette perspective, la solution d’Atos et HDF sera la première du marché à permettre d’exploiter un datacenter en production, avec des charges de travail très exigeantes, en utilisant de l’hydrogène vert. Cela répond non seulement aux attentes des opérateurs, mais aussi du marché et des pouvoirs publics », explique dans un communiqué Arnaud Bertrand, SVP, directeur de la Stratégie et de l’Innovation pour les activités Big Data et Sécurité chez Atos.

La sauvegarde des coraux passera par des engagements forts

Comment faudra-t-il s’y prendre pour sauver les coraux ? De nombreux récifs coralliens souffrent d’ores et déjà du réchauffement climatique et de l’acidification des océans. Et « des pertes importantes de coraux sont attendues si le réchauffement climatique dépasse 1,5°C au-dessus de la température moyenne préindustrielle », alertent des experts internationaux de The Pew Fellows Program in Marine et The Ocean Solutions Initiative, co-animé par Jean-Pierre Gattuso, océanographe au CNRS. Dans une étude parue dans la revue Biological Conservation, ces chercheurs ont défini les actions qui devraient être menées pour sauvegarder une partie des récifs coralliens.

Le sauvetage prendra des airs d’opération de la dernière chance tant la situation de ces animaux marins est critique. « Sans action, les récifs coralliens tels que nous les connaissons aujourd’hui – et leurs services associés à l’humanité – pourraient donc constituer l’un des premiers grands écosystèmes de ce siècle à s’effondrer sous le poids du changement climatique », déplorent les chercheurs. Ils précisent que 500 millions de personnes à travers le monde pourraient être directement impactées par la disparition du corail. En effet, plusieurs enjeux sont liés à la présence des récifs coralliens. Là où ils se trouvent, il préviennent les risques de submersion, sont un atout pour le tourisme et offrent des ressources pour la pêche.

Dans tous les cas, les dommages seront importants. « Il est impossible de protéger et de restaurer pleinement le domaine mondial des récifs coralliens des années 1890-1990, même si le réchauffement climatique est maintenu à 1,5°C », avertissent les chercheurs. Phénomène observé alors que les températures augmentent, le blanchissement du corail, signe de sa fin de vie, résulte de l’expulsion de microalgues, pourtant nécessaires à sa survie. Selon les scientifiques, aucune action de préservation ne pourrait l’inverser, ni même l’endiguer.

2050, un tournant décisif

Afin d’éviter cela, les auteurs de l’étude enjoignent politiques, ONG et institutions privées à collaborer avec les scientifiques en vue d’atténuer le réchauffement climatique et d’augmenter la résilience des coraux. « Ce que nous proposons est possible avec un plan clair sur 20 à 30 ans », attestent-ils. Ces scientifiques affirment que le respect de l’Accord de Paris sera favorable au maintien des espèces coralliennes qui auront le temps de s’adapter à la hausse des températures. C’est pourquoi les auteurs de l’étude voient dans l’horizon 2050 une période décisive. Dans le cas où les maximales augmenteraient trop vite, le blanchissement des coraux s’emballerait, et tout le corail pourrait disparaître d’ici 30 à 50 ans.

Les chercheurs sont clairs : plus les mesures seront prises tôt, plus elles auront de chance d’aboutir. Mais pour y parvenir, ces derniers rappellent la nécessité d’une « transition énergétique massive ». Ainsi, les scientifiques déclarent que « l’atténuation des émissions de gaz à effet de serre est non seulement essentielle à la survie des récifs, mais aussi l’action la plus large, efficace, réalisable, bénéfique et acceptable » par les populations. Les chercheurs ajoutent que la « restauration active des récifs » devra faire partie du plan de sauvegarde des coraux. Ce procédé, qui implique une intervention humaine, consiste en une fertilisation assistée des espèces coralliennes. Cependant, cette solution n’est pas déployable à grande échelle. « Même les grands efforts peinent à restaurer un hectare par an », rappellent les chercheurs.

Des millions de dollars pour un bon début

Les scientifiques recommandent également la création d’un Conservatoire mondial du corail. Dans le cadre de ce programme, des coraux pourraient être conservés ex situ dans des aquariums. Mais pour que de telles initiatives puissent aboutir, l’étude insiste sur le caractère inéluctable des coopérations transnationales, voire intergouvernementales. Les auteurs citent en exemple les mesures mises en place pour la sauvegarde de la Grande Barrière de corail, à la fois dans les atolls du Pacifique et dans le Plan australien de restauration et d’adaptation des récifs (PAREL).

À l’heure actuelle, l’Australie est l’un des pionniers de l’investissement pour la préservation des coraux. Le pays alloue 100 millions de dollars australiens au développement d’un système permettant d’intégrer les options de restauration des coraux à d’autres actions de gestion. Aux États-Unis, le Congrès envisage un financement de 36 millions de dollars américains pour renforcer la conservation et la restauration des récifs coralliens. Un montant jugé « modeste » par les auteurs de l’étude. De son côté, le fonds mondial pour les récifs coralliens, partenariat de philanthropes privés, d’institutions financières et d’agences de l’ONU, veut investir 500 millions de dollars pour la préservation des coraux dans la prochaine décennie. « Un bon début » pour les chercheurs qui estiment toutefois que la sauvegarde des coraux exigera « des milliards de dollars » pour aboutir.

La Terre accrète 5 200 tonnes de micrométéorites chaque année

Depuis 20 ans, des scientifiques du CNRS, de l’Université Paris-Saclay et du Museum national d’Histoire naturelle avec le soutien de l’Institut polaire français (IPEV) mènent un programme de collecte et d’identification de micrométéorites. Ces poussières interplanétaires provenant de comètes ou d’astéroïdes sont des particules de 30 à 200 micromètres. Elles ont traversé l’atmosphère et atteint la surface de la Terre.

Jean Duprat est cosmochimiste, chercheur CNRS/Sorbonne-Université/Muséum national d’Histoire naturelle. Ces vingt dernières années, il a mené six expéditions à proximité de la station franco-italienne Concordia (Dôme C) à 1 100 kilomètres des côtes de Terre Adélie, au cœur de l’Antarctique. Il cosigne une nouvelle étude parue dans Earth & Planetary Science Letters. Entretien.

Techniques de l’ingénieur : Pourquoi était-ce si important d’aller au cœur de l’Antarctique pour prélever les micrométéorites ?

Jean Duprat : Cela fait très longtemps que nous travaillons sur ce programme de recherche portant sur les poussières interplanétaires qui tombent sur Terre.

Les poussières qui nous intéressent sont celles qui ne sont pas détruites lors de l’entrée atmosphérique et qui ne forment donc pas des étoiles filantes. Leur taille varie entre 30 et 200 micromètres. Quand ces poussières arrivent sur le sol, elles sont qualifiées de micrométéorites. Elles tombent partout sur Terre, mais il est très difficile d’évaluer leur flux, car il faut arriver à faire deux choses : les distinguer des poussières terrestres et arriver à évaluer leur nombre par mètre carré et par an.

Nous avons fait nos collectes en Antarctique, car il s’agit de l’endroit le plus propre au monde en ce qui concerne la poussière terrestre. Et Dôme C, dans le centre de l’Antarctique, constitue un endroit encore plus isolé des poussières terrestres dans le domaine de tailles où nous travaillons, et donc idéal pour la collecte de météorites. En plus, il s’agit d’un endroit sec avec un taux d’accumulation de neige faible et très régulier, de l’ordre de 3 cm d’équivalent eau par an. En faisant fondre une quantité connue de neige, vous connaissez directement la surface d’exposition.

Comment analyse-t-on ces micrométéorites ?

Nous avons fait fondre plusieurs prélèvements de neige. À chaque fois, nous avons collecté, fondu et filtré cette neige pour en extraire toutes les particules de poussière. Ensuite, l’étape de base est de faire une image du grain à haute définition par microscopie électronique à balayage, puis un spectre en rayons X nous donne la composition globale du grain. À partir de cette image et de la composition élémentaire, nous pouvons savoir si le grain est terrestre ou extraterrestre.

Comment passe-t-on de ces analyses à une évaluation globale ?

Nous avons ensuite sélectionné toutes les fontes où nous étions sûrs d’avoir analysé la quasi-totalité des grains. Grâce à cela, nous avons obtenu des mesures indépendantes, qui donnaient des valeurs cohérentes de la masse de ces poussières par mètre carré et par an.

Pour obtenir le flux, nous comptons les particules dans un volume de neige connu. En tenant compte de leur densité, nous pouvons estimer un flux en masse de micrométéorites tombées sur Terre par mètre carré et par an. Nous avons mesuré un flux local et l’avons extrapolé à l’ensemble du globe, ce qui aboutit à une masse totale accrétée par la Terre de 5 200 tonnes par an.

Pour collecter suffisamment de micrométéorites, il a fallu réaliser un programme au long cours pendant des années. Les évaluations précédentes oscillaient entre 1 000 et 20 000 tonnes par an. Il s’agit là du principal apport de matière extraterrestre sur notre planète, loin devant celui des objets de plus grandes tailles comme les météorites, dont le flux est inférieur à une dizaine de tonnes par an.

La Terre s’alourdit donc de 5 200 tonnes par an ? Depuis quand ?

5 200 tonnes, c’est le nombre de poussières qui atteignent la surface de la Terre chaque année, et donc le nombre de micrométéorites. Mais en réalité, la Terre accrète plus de matière, de l’ordre de 15 000 tonnes par an. Car une partie des poussières est vaporisée à l’entrée de l’atmosphère. Si vous rapportez cela au poids de la Terre [près de 6 × 10^24 kg, NDLR], cela ne va pas la perturber. Mais ce n’est pas complètement négligeable si on intègre sur 4,5 milliards d’années.

Plus on remonte dans le temps, plus le système solaire était poussiéreux. Les petites poussières primitives qui étaient présentes avant la formation de notre étoile et de son cortège planétaire avaient des tailles comprises entre 50 à 100 nanomètres. Elles se sont collées les unes aux autres jusqu’à former des objets de plus en plus massifs, et jusqu’à arriver aux planètes en quelques dizaines de millions d’années.

Qu’est-ce que ces micrométéorites apportent ou ont apporté à la Terre ?

Nous avons mesuré un flux contemporain qui n’a, aujourd’hui, qu’un impact limité sur l’évolution de notre planète. Mais dans l’enfance de la Terre, ce n’était pas la même histoire. Certaines micrométéorites sont très riches en carbone : ce sont les « micrométéorites ultra-carbonées ». Elles ont apporté de la matière organique abiotique avec de nombreuses molécules carbonées complexes. Il s’agit d’une source de molécules pré-biotiques qu’il faut considérer quand on commence à se demander comment la vie a émergé sur Terre. Mais c’est une autre histoire.