Quels sont les coûts de l’éolien et du solaire ?

Les appels d’offres et les études prospectives partageant différents coûts présents ou à venir des technologies éoliennes et solaires se succèdent et engendrent de la confusion. Il n’est pas aisé de savoir ce que ces prix contiennent : opération, maintenance, développement du réseau… Sean Vavasseur, responsable système électrique au Syndicat des Energies Renouvelables (SER), nous aide à y voir plus clair. Il s’occupe des questions d’intégration aux réseaux des énergies renouvelables électriques. Auparavant, il a notamment travaillé à la coopération scientifique internationale à l’ambassade de France en Allemagne. Il est diplômé de l’Ecole des Hautes Etudes en Sciences Sociales (EHESS) et ingénieur de l’Université franco-allemande (INSA de Lyon & KIT de Karlsruhe).

Techniques de l’ingénieur : Lorsque l’on construit des scénarios de développement des ENR, parle-t-on de coûts ou de prix ? Quelle est la différence ?

Sean Vavasseur (SER)

Sean Vavasseur : Les scénarios de prospective se construisent en termes de coûts, pas de prix. Il y a un principal problème dans le débat, c’est que l’on confond souvent les deux notions. Lorsque l’on estime le coût du mégawattheure, on parle de « Levelized cost of energy » (LCOE – coût actualisé de l’énergie), qui intègre CAPEX (“capital expenditures” – dépenses d’investissements) et OPEX (“operational expenditures” – dépenses d’exploitation) et varie selon la durée de vie, le facteur de charge et le taux d’actualisation que vous supposez. Le LCOE peut donc être prospectif si vous prenez des CAPEX/OPEX prospectifs pour 2050, mais il peut aussi être calculé pour une installation qui vient d’être mise en service. Cependant, comme l’on ne sait jamais en amont la durée de vie réelle de l’installation, ni son facteur de charge à venir, son évaluation sera toujours d’une certaine manière prospective. Les CAPEX & les OPEX sont des données plus « concrètes », vu qu’elles correspondent « dans la vraie vie » plus ou moins aux bilans comptables des exploitants.

L’étude de 2017 du Centre de recherche commun (JRC) de la Commission européenne est, avec les données annuelles de coûts de l’énergie de l’ADEME, la référence la plus fiable concernant les coûts à venir des moyens de production d’électricité pour 2050, avec des taux d’apprentissage réalistes qui projettent des baisses de coût dans le secteur de l’éolien et du solaire. Les prix, quant à eux, dépendent de nombreux facteurs politiques (taxes, impositions, disponibilités du foncier…) et d’organisation du marché (financement des réseaux, mode de soutien et de valorisation de l’électricité…). Nous ne pouvons pas vraiment prédire comment le système électrique et les marchés seront organisés demain pour produire un prix. Actuellement sur la base des coûts et de ces facteurs non-techniques, il y a un prix qui se forme dans le cadre des appels d’offres. Ce prix varie par exemple selon les facteurs de charge, qui dépendent globalement des caractéristiques du site et des conditions des autorisations d’exploiter délivrées par les pouvoirs publics.

Quels sont donc les OPEX et les CAPEX de l’éolien et du solaire ?

Autant sur l’éolien que sur le solaire, la plupart des dépenses se font au tout début du projet. Actuellement, pour installer un mégawatt d’éolien terrestre en France, la dépense d’investissement initiale (CAPEX) se situe entre 1 et 1,7 million d’euros par mégawatt (€/MW). Cela dépend des caractéristiques de l’éolienne, notamment sa hauteur et la longueur des pales. Il y a en plus des coûts de maintenance de l’ordre de 40 000 euros par mégawatt et par an. Pour l’éolien en mer posé, les CAPEX tournent autour de 2,6 millions d’euros par mégawatt, tandis que les OPEX avoisinent les 60 000 €/MW par an. Les projections prévoient une baisse de 30 à 50 % des coûts pour ces technologies d’ici 2050, aussi bien pour les CAPEX que pour les OPEX.

Sur des centrales solaires photovoltaïques au sol, les coûts d’installation et de raccordement sont de 800 000 euros par mégawatt installé. Les OPEX se situent autour de 10-15 000 €/MW par an. D’après les projections, ces montants pourraient aussi être divisés par deux d’ici 2050. Le facteur de charge étant quasiment double pour l’éolien comparé à celui du solaire, on retrouve un coût du mégawattheure assez proche (entre 45 et 70 €/MWh actuellement en France selon les technologies), même si le solaire a de plus en plus un petit avantage, dépendant de l’ensoleillement des sites. Des prix records ont notamment été proposés par des centrales au Portugal ou en Tunisie à moins de 20 €/MWh.

Les coûts de développement des réseaux sont-ils compris dans ces coûts ?

Chaque région française a un S3REnR, un schéma régional de raccordement au réseau des énergies renouvelables terrestres. Il prend en compte tous les besoins réseaux amont nécessaires au raccordement des volumes permettant d’atteindre l’objectif d’ENR défini, et planifie les raccordements sur cinq à dix ans. En fonction du nombre de mégawatts à raccorder, cela donne une quote-part payée par les producteurs (entre 30 et 80 000 €/MW selon les régions). Cela permet de mutualiser et de solidariser les différents producteurs d’ENR dans l’investissement réseau. À cette quote-part s’ajoutent les « ouvrages propres », c’est-à-dire le coût du raccordement sur le réseau de distribution (autour de 70 000 €/MW). Il n’y a pas de coûts cachés de construction des réseaux contrairement à ce qui est souvent dit pour les ENR terrestres. Il y a simplement une petite partie de l’extension des réseaux terrestres, de l’ordre de 10 %, qui est payée par les consommateurs via le Tarif d’utilisation des réseaux publics d’électricité (TURPE).

Ce n’est pas la même chose pour l’éolien en mer. Pour cette technologie, les coûts réseau ont été complètement intégrés par RTE depuis les lois « hydrocarbures » (2017) et « ESSOC » (2018). C’est le TURPE et donc le consommateur qui paiera le développement des réseaux en mer.

Maladies infectieuses et émergentes : une nouvelle agence de recherche créée

L’annonce officielle a été faite par Frédérique Vidal et Olivier Véran, respectivement ministre de la Recherche et ministre de la Santé, le 16 décembre. « La crise sanitaire mondiale que nous traversons nous a montré qu’il est essentiel d’avoir plus de cohérence et de transversalité dans notre capacité à lutter contre les maladies infectieuses, celles que nous affrontons déjà depuis plusieurs décennies et qui restent d’actualité, mais aussi pour être en capacité de réagir de manière plus efficiente notamment lorsque celles-ci sont émergentes ou ré-émergentes », partage Frédérique Vidal.

La nouvelle agence de recherche sur les maladies infectieuses émergentes verra le jour, au sein de l’Inserm, au début du mois de janvier 2021. Cette agence publique sera placée sous les tutelles du ministère de l’Enseignement supérieur, de la Recherche et de l’Innovation et du ministère des Solidarités et de la Santé.

Une agence pour mieux structurer la recherche

La nouvelle agence décidée par l’État naît de la convergence de l’Agence nationale de recherche sur le sida et les hépatites virales (Anrs) et du consortium Inserm-REACTing (REsearch and ACTion targeting emerging infectious diseases). Ce consortium créé en 2013 réunit des groupes de recherche, institutions et laboratoires français. Son rôle consiste à préparer la réponse aux menaces infectieuses émergentes. En ce sens, il a été un acteur de référence de l’animation scientifique contre le Covid-19. Il soutient notamment une vingtaine de projets pour mieux comprendre le SARS-CoV-2 et coordonne l’essai européen Discovery. « Les activités de l’ANRS de financement et de coordination de la recherche sur le VIH-Sida, les IST et les hépatites virales seront intégralement reprises par la nouvelle agence », rassure le ministère.

La nouvelle agence aura pour mission de coordonner les différents efforts de recherche pour canaliser les moyens et les ressources. Le ministre de la santé veut ainsi capitaliser sur l’expertise de l’ANRS et sa capacité à fédérer des acteurs de tous horizons et le financement de la recherche. « L’ouverture sur la société civile, les milieux associatifs, les réseaux de soins et de recherche, qui a fait la richesse de l’ANRS, est un atout qu’il faudra cultiver au sein de cette nouvelle structure tout comme le lien qu’elle entretiendra avec les pays du Sud », prévient Olivier Véran.

En somme, cette nouvelle agence sera dédiée à la coordination et au financement de la recherche biomédicale sur les maladies infectieuses émergentes, sur le sida, les infections sexuellement transmissibles et sur les hépatites virales. Elle conjuguera une activité de programmation scientifique adaptée et une capacité opérationnelle à lancer et gérer des appels à projet, en complément des actions de l’Agence nationale de la recherche (ANR).

Des métamatériaux déformables et résistants, assemblés à la manière d’un jeu de construction

Pour des raisons de coût et de répétabilité, les motifs de base sont fabriqués par injection plastique, en grande quantité. Ces motifs sont ensuite assemblés en volumes unitaires appelés voxels, qui sont eux-mêmes assemblés pour former des structures lattice.

Des structures aux propriétés mécaniques uniques

Les métamatériaux sont une nouvelle famille de matériaux possédant des propriétés acoustiques, mécaniques, thermiques ou électromagnétiques qui n’existent pas à l’état naturel. Les structures lattice (ou structures en treillis), font partie de cette famille, dont l’illustration typique est le nid d’abeille.

Les chercheurs du MIT’s Center for Bits and Atoms ont créé quatre types de voxels.
De gauche à droite : rigide, conforme, auxétique, chiral
Crédit : Benjamin Jenett, MIT CBA

Dans un article paru dans la revue Science Advances, l’équipe de chercheurs du MIT Center for Bits and Atoms explique avoir créé quatre nouveaux types de structures appelées voxels (en référence à la notion de pixel volumique), qu’ils ont ensuite assemblées en treillis en utilisant des fixations mécaniques. Chaque structure possède des propriétés caractéristiques :

  • Voxel rigide : combinaison exceptionnelle de légèreté et de haute rigidité ;
  • Voxel conforme : les parties rigides sont remplacées par des formes jouant le rôle de ressort, ce qui permet une déformation élastique de la structure, suite à un effort de compression (coefficient de Poisson égal à zéro) ;
  • Voxel auxétique : permet d’obtenir des structures à coefficient de Poisson négatif. Un cube fabriqué à partir de ce type de voxels présente l’étrange faculté de se contracter latéralement vers l’intérieur lorsqu’il subit une tension axiale ;
  • Voxel chiral : ce type de structure répond à un effort axial par un mouvement de torsion, ce qui est inhabituel.

Voici une explication vidéo permettant de mieux comprendre le fonctionnement de ces voxels.

Une démonstration à l’échelle réelle avec des résultats étonnants

Les matériaux présentant des propriétés similaires à celles obtenues avec les structures de type voxel chiral ou auxétique ne sont pas totalement nouveaux. En revanche, l’équipe de chercheurs du MIT a réussi l’exploit de rendre ces propriétés accessibles, grâce à des procédés de fabrication conventionnels et économiques : injection plastique et assemblage par rivet.

Pour prouver cette accessibilité, l’équipe a collaboré avec des ingénieurs de Toyota pour produire un prototype de voiture de course ultraléger dans le but de participer à la compétition Supermileage (une compétition sur le principe de l’Eco-marathon Shell). Un mois d’assemblage leur a été nécessaire, ce qui est peu en comparaison au temps nécessaire à la fabrication d’une structure conventionnelle en fibre de verre.

Par ailleurs, cette compétition leur a permis de valider la résistance de ce type de structure, le véhicule ayant été accidenté pendant la course. À la surprise générale, le véhicule subit peu de dommages : la structure interne a démontré sa capacité à se déformer de manière élastique et à absorber les chocs.

Des applications potentielles en robotique

Alors que la tendance actuelle en matière de recherche est à la séparation entre robotique rigide et robotique molle, ces structures d’un nouveau genre ne rentrent dans aucune catégorie. Elles permettent pourtant de concevoir facilement des designs hétérogènes, ce qui ouvre la voie vers de nouvelles possibilités de structures anisotropes.

Dans un communiqué de presse du MIT, Benjamin Jenett, le premier auteur de l’étude affirme : « Maintenant, nous avons un système évolutif et peu coûteux, qui nous permet de concevoir ce que nous voulons. Nous pouvons fabriquer des quadrupèdes, des robots nageurs, des robots volants. Cette flexibilité est l’un des principaux bénéfices de ce système. »

Birds for Change sensibilise au ramassage des déchets avec l’aide des corvidés

Depuis septembre 2020, la start-up marseillaise Birds for Change conceptualise une nouvelle solution pour lutter contre la prolifération des déchets. Ses co-fondateurs ont eu l’idée de confectionner une poubelle intelligente dans laquelle des oiseaux viendraient déposer des déchets contre une récompense. Les jeunes entrepreneurs comptent sur l’intelligence des corvidés pour assurer la réussite de leur projet. Ainsi, pies, corbeaux, geais et autres corneilles pourraient être des alliés efficaces pour assainir les lieux les plus difficiles d’accès. Entretien avec Thibault Cour, diplômé de l’ICAM, en charge du suivi technique du projet.

Techniques de l’Ingénieur : Quelle est la raison d’être de Birds for Change ?

Thibault Cour : Notre but, outre de débarrasser la nature de ses déchets, est de sensibiliser les gens à leurs incivilités en prenant le problème à sa source. Nous aimerions que les gens se disent : « si les oiseaux en sont capables, pourquoi pas nous ? ». Aujourd’hui, un Français sur trois déclare encore jeter ses déchets par terre. Et selon Vinci Autoroute, 30 milliards de mégots sont annuellement jetés dans la nature sur le territoire national. Nous voulons que cela cesse. L’autre grand objectif de notre start-up est de réhabiliter les oiseaux au cœur des villes. Actuellement, ils sont considérés comme des nuisibles par les municipalités qui les tuent massivement. 4 millions de corvidés sont massacrés en Europe chaque année. Or, ils peuvent être utiles.

Travaillez-vous avec d’autres scientifiques pour ce projet ?

Lors du premier confinement, Jules Mollaret est entré en contact avec deux scientifiques spécialistes des oiseaux. La première est Valérie Dufour, une éthologue qui travaille au CNRS et à l’INRAE. Elle étudie le comportement des animaux, et en particulier celui des corvidés. Le second est Frédéric Jiguet, chercheur au Muséum National d’Histoire Naturelle de Paris. Dans le cadre de notre projet, il étudiera la santé des animaux. L’objectif de notre collaboration est de s’assurer qu’aucun impact néfaste ne touche les oiseaux. Ces deux scientifiques sont chargés d’analyser le comportement des oiseaux, d’évaluer les impacts sur leur santé. Ils vérifieront si les corvidés ramassent efficacement les déchets, et si cela peut avoir un impact sur leurs habitudes. Ils chercheront également les moyens les plus simples et efficaces pour éduquer les animaux.

Sur quel principe fonctionne votre solution ?

Nos machines sont des poubelles intelligentes. Le but est qu’à chaque fois qu’un oiseau rapporte un déchet, il est analysé par une caméra reliée à de l’intelligence artificielle. Cette dernière repose sur le principe du machine learning, très répandu actuellement. Si un déchet est réellement reconnu, une récompense est délivrée. C’est de la nourriture : une croquette spécialement adaptée à l’alimentation des corvidés. Si le déchet n’est pas reconnu, parce que l’oiseau qui est très joueur pourrait s’amuser à rapporter des branches ou des cailloux, aucune récompense ne sera attribuée. Ajoutons que chaque déchet déposé dans la poubelle ne pourra plus en être ressorti. Les détritus passent dans un entonnoir et arrivent dans une boîte où une caméra l’analyse. Une fois l’analyse faite, le déchet tombe dans un réservoir. Donc il n’y a aucune possibilité pour un oiseau de récupérer quoi que ce soit qui viendrait de la poubelle.

Les récompenses alimentaires ne risquent-elles pas de déséquilibrer leur alimentation ?

Nous avons réfléchi à des moyens pour nous assurer que les oiseaux ne deviennent pas dépendants de cette nourriture. Le système de récompense ne fonctionnera pas 24 heures sur 24 afin qu’il ne devienne pas leur source principale d’alimentation. De plus, il n’y a aucun risque que les oiseaux deviennent obèses : ils ne mangeront pas la récompense s’ils n’ont pas faim. Ils iront plutôt la cacher.

Quels types de déchets les oiseaux pourraient-ils ramasser ?

Le but est que les corvidés ramassent les déchets qui passent au travers des mailles de nos moyens de collecte actuels. Ce sont plutôt des micro-déchets comme des petits plastiques ou des mégots. À l’heure actuelle, ces déchets sont souvent coincés dans des endroits difficiles d’accès. Ils peuvent se retrouver coincés dans des pavés ou dans des lieux où les agents de nettoyage ne peuvent accéder. Les oiseaux pourraient contribuer au fait que ces déchets ne se perdent pas dans l’eau ou dans la nature.

Les oiseaux ne risquent-ils pas de s’intoxiquer avec les déchets ?

Il n’y a pas de risque que les animaux mangent les détritus. Leur intelligence fait qu’ils savent très bien qu’ils sont face à des déchets qui ne se mangent pas. Aujourd’hui, ils sont constamment en contact avec nos déchets. Ils mangent les déchets comestibles qui sont dans nos poubelles. Ils utilisent les mégots comme insecticides dans leurs nids. Ces oiseaux-là savent très bien ce que sont les plastiques et les mégots. Après, comme ils manipulent les déchets avec leur bec, la toxicité pourrait venir de là. Mais nous avons déjà certaines réponses sur ce point. Ces animaux n’ont que très peu de salive, voire pas du tout. C’est un peu comme s’ils ramassaient les déchets avec une pince. Donc a priori, le ramassage des déchets ne serait pas toxique. Dans tous les cas, nous restons vigilants et continuons de faire des analyses pour nous en assurer. Les premiers résultats parviendront courant 2021.

Les masques chirurgicaux font-ils partie des déchets que vous envisagez de faire ramasser aux oiseaux ?

Effectivement, les masques chirurgicaux pourraient être ramassés par les oiseaux. Cependant, il est essentiel de garder une réserve sur ce point. Encore une fois, il est primordial de s’assurer qu’il n’y aura aucun impact sur la santé des oiseaux. Pour cela, il faut faire des tests.

À quelle phase d’avancement de votre projet êtes-vous actuellement ?

Nous passons en phase d’expérimentation. Nos prototypes, fabriqués au FabLab de L’ICAM Lille en PLA, un plastique biosourcé et biodégradable, sont prêts. L’un d’entre eux est installé dans une volière, au CNRS de Strasbourg. Valérie Dufour y observe le comportement des oiseaux. Un autre sera prochainement installé au Muséum National d’Histoire Naturelle de Paris. Celui-là sera destiné à l’observation des impacts sur la santé des oiseaux.

Le Haut Conseil pour le Climat invite à aligner le plan de relance avec la stratégie bas-carbone

Le projet de loi de finances 2021 estime que les mesures du plan de relance français sont soit « favorables » à la transition écologique, soit « neutres ». Selon cette cotation, 30,6 milliards d’euros de dépenses sont favorables, 69,6 milliards sont neutres. Mais il n’y a pas de dépense neutre pour le climat, estime le HCC. « Il est nécessaire d’écarter la notion de neutralité de la dépense publique vis-à-vis du climat, prévient Corinne Le Quéré, sa présidente. Dans l’analyse du gouvernement, les mesures qualifiées de neutres recouvrent deux notions distinctes : soit des mesures dont l’effet est supposé non significatif, dans la continuité de la trajectoire actuelle des émissions trop élevées de la France, soit des mesures dont on manque de données pour connaître leurs effets. »

Un plan de relance ambitieux à mieux structurer

Le Haut Conseil pour le climat organise la cotation des mesures du plan de relance au regard de l’objectif de neutralité carbone à l’horizon 2050. Ainsi, il estime que le plan de relance affiche 27,7 milliards d’euros de dépenses favorables à la trajectoire bas-carbone. Les dépenses qualifiées d’ambiguës, avec un effet controversé, s’élèvent à 2,1 milliards d’euros. Enfin, les dépenses de continuité qui font poursuivre une trajectoire tendancielle aux émissions s’élèvent à 70,4 milliards d’euros.

La moitié des financements jugés favorables portent sur l’atténuation du changement climatique via la décarbonation des transports et des bâtiments. Ainsi, le plan de relance alloue 9,3 milliards d’euros aux transports et 4,6 milliards aux bâtiments. Il réserve 2,2 milliards à la production d’énergie et 1,2 milliard à l’industrie, mais seulement 240 millions d’euros aux déchets, 200 millions aux forêts et 157 millions à l’agriculture. « L’agriculture et les forêts sont insuffisamment considérées au vu des enjeux de décarbonation de ces secteurs qui ne sont pas engagés sur la trajectoire bas-carbone de la stratégie nationale bas-carbone », regrette Corinne Le Guéré.

Corinne Lé Quéré analyse : « Ce montant [des dépenses favorables, ndlr] est donc proche de celui indiqué par le gouvernement mais diffère en partie par le contenu des mesures. Certaines mesures sont qualifiées de favorables par le gouvernement alors qu’elles ne le sont qu’en partie, par exemple la rénovation des bâtiments publics. A l’inverse, certaines mesures sont qualifiées de neutres par le gouvernement alors qu’elles poursuivent un objectif d’atténuation, par exemple le verdissement des ports. »

Faire du plan de relance un levier de la transition bas-carbone

« L’effort de verdissement du plan de relance français est parmi les mieux doté à l’échelle mondiale, analyse Corinne Le Quéré. Contrairement à certains pays, l’État français ne soutient pas directement les industries des énergies fossiles ». Mais le HCC relève trop de mesures qui soutiennent la production et la consommation sans conditionnalité climatique. Si les mesures qui visent à stimuler la demande et à rétablir la croissance économique étaient adéquatement conçues, il estime toutefois qu’elles pourraient favoriser la transition bas-carbone. « Sous réserve de sa mise en œuvre, le plan de relance pourrait constituer une contribution significative à la réorientation de la trajectoire actuelle sur le cap de la neutralité carbone », partage sa présidente. Alors que le plan de relance s’établit sur deux ans, sa mise en œuvre doit veiller à s’inscrire dans une stratégie d’ensemble et s’accompagner de dispositifs favorables au climat dans une perspective décennale.

Le HCC recommande d’améliorer la compatibilité du plan de relance avec l’objectif de neutralité carbone et de mieux anticiper les enjeux de transition juste dès le plan relance. Ainsi, il invite le gouvernement à orienter la reprise de l’ensemble des activités économiques vers des modes de production et de consommation bas-carbone, en conciliant les enjeux de la maîtrise de la demande avec la création d’emploi et en renforçant les politiques de relance dans le secteur des transports. « Il y a des transformations structurelles insuffisamment soutenues, conclut Corinne Le Quéré. Par exemple, pour le secteur du transport, les conditionnalités sont faibles et l’électrification du parc par exemple pourrait être soutenue plus abondamment. »

L’OPECST s’alarme des pollutions microplastiques et nanoplastiques

« Un pneumatique usagé pèse 2 kilos de moins qu’un pneumatique neuf », alerte Philippe Bolo, député du Maine-et-Loire et co-rapporteur de la mission « Pollutions plastiques : une bombe à retardement ? ». Ces poussières rejoignent les microfibres et microparticules dans l’air. « Toutes ces microfibres et ces microparticules sont mises en mouvement par l’air et le vent, vont retomber de manière atmosphérique sous l’effet de la pluie et de la neige », complète Angèle Préville, sénatrice du Lot et seconde co-rapporteure.

Le rapport s’attache à aborder l’ensemble des facettes de la pollution plastique, des macroplastiques aux nanoplastiques, des impacts socio-économiques aux impacts environnementaux, des effets sur les organismes vivants à ceux sur la santé humaine. « Ce rapport est d’une ampleur et d’une ambition inédites, estime Cédric Villani, député de l’Essonne, premier vice-président de l’OPECST. Non seulement, il fait un tour d’horizon des différentes mesures et des visages de la pollution, mais il s’attache aussi à en décrire les mécanismes, les zones d’ombres et les questions qui ont trait à la recherche encore en cours. »

Face à la pollution, des actions concrètes

Les déchets se retrouvent dans l’environnement notamment par manque d’efficacité de la collecte des déchets et de leurs traitements. « Il y a aussi de mauvaises habitudes avec les décharges sauvages et une fâcheuse tendance à l’exportation vers des pays tiers d’un certain nombre de déchets plastiques », analyse Philippe Bolo.

Les deux rapporteurs défendent donc plusieurs propositions réglementaires. « Il faut accélérer l’interdiction des microplastiques intentionnellement ajoutés dans les cosmétiques, dans les détergents, dans les peintures », avance Angèle Préville. Ensemble, ils proposent en plus de mieux prendre en compte l’abrasion des bandes de roulement dans le cadre de la certification des pneus et de conditionner la mise sur le marché des gazons synthétiques au respect d’un seuil maximum de dispersion de billes. Et ils recommandent l’affichage obligatoire d’une mention « relargue des microfibres dans l’environnement » sur les étiquettes de tous les textiles à base de fibres plastiques, notamment les fibres polaires.

Pour un recyclage plus efficient, le rapport invite à affronter un certain nombre d’obstacles techniques, réglementaires et économiques. En particulier, il souhaite imposer la transparence sur les additifs utilisés afin de garantir leur traçabilité pour le tri, le recyclage et la réincorporation et mieux encadrer les exportations de déchets.

De façon plus globale, le rapport recommande de définir une liste des plastiques à réduire. « Il faut pouvoir regarder la qualité des plastiques, leurs additifs, leur durée de vie, leur évitabilité et leur substituabilité », prévient Philippe Bolo. Enfin, il propose d’interdire la mise en décharge des plastiques bénéficiant d’une filière opérationnelle de recyclage.

« La crise du Covid-19 est aussi une opportunité pour le secteur aérien »

Anne Bondiou-Clergerie est depuis 2006 directrice affaires R&D, environnement et espace au sein du GIFAS (Groupement des Industries Françaises Aérospatiales et Spatiales). Diplômée de l’École Supérieure de Physique et Chimie Industrielles de Paris et titulaire d’un doctorat en Physique des Gaz et des Plasmas, Anne Bondiou-Clergerie a rejoint en 1985 la Direction de la Physique Générale de l’Onera dans un laboratoire dédié à l’étude théorique et expérimentale de l’environnement électromagnétique des avions, hélicoptères et lanceurs.

Anne Bondiou-Clergerie, directrice affaires R&D, environnement et espace au sein du GIFAS

Elle a également occupé à partir de décembre 2001 les fonctions de responsable Systèmes Orbitaux puis de directrice Espace à la Direction de la Stratégie de l’Onera.

Au GIFAS, la direction des affaires R&D, Environnement et Espace assume également le secrétariat exécutif du conseil pour la recherche aéronautique et civile, le CORAC, conjointement avec la DGAC (Direction Générale de l’Aviation Civile).

Créé en 2008, le CORAC est un organe de concertation entre l’Etat et les industriels visant à mettre en place des programmes de recherche ambitieux et coordonnés, afin de fédérer l’ensemble de la filière autour d’objectifs communs. Il est présidé par le Ministre des Transports.

De par ses fonctions au GIFAS, Anne Bondiou-Clergerie est très investie dans les activités du CORAC. Elle a accepté de revenir pour Techniques de l’Ingénieur sur les réflexions menées au sein du CORAC ces derniers mois, et sur les choix forts faits récemment pour décarboner, sur le moyen terme, l’empreinte du transport aérien.

Avec en point d’orgue la volonté de mettre au point l’avion décarboné à l’horizon 2035, alors qu’il était initialement prévu pour 2050.

Techniques de l’Ingénieur : Quel contexte a permis la mise en place du CORAC, en 2008 ?

Anne Bondiou-Clergerie : Le Corac a en effet été créé en 2008, dans la foulée du Grenelle de l’environnement. Une convention a été signée avec le Ministre de l’Environnement de l’époque, Jean-Louis Borloo, avec pour mission de rassembler les industriels, les compagnies aériennes, les aéroports, et les services de l’État concernés, notamment la DGAC. A travers cette convention, l’industrie aéronautique s’est engagée concrètement à accélérer son effort de recherche, par la création d’un conseil national pour la recherche aéronautique civile, le CORAC, chargé de fédérer les recherches, de les aligner, dans le but d’améliorer les performances de la filière aéronautique française.

L’année 2020 est une épreuve terrible pour le secteur aérien, avec la crise sanitaire que nous connaissons. Quand peut-on imaginer un retour à la normale ?

Il est certain que la crise du Covid-19 a mis à l’arrêt de façon brutale tout un secteur, alors que les projections laissaient entrevoir une croissance continue du trafic aérien, que beaucoup de compagnies avaient d’ailleurs anticipée en investissant dans de nouveaux avions. Aujourd’hui l’Association internationale du transport aérien (IATA) anticipe un retour au niveau de trafic de 2019 pour 2024 ou 2025. 

Depuis la mise en place du confinement en mars dernier, les membres du CORAC se sont beaucoup réunis pour évoquer la mise à l’arrêt quasi complète du trafic aérien, qui met à mal les ambitions du secteur pour le futur. Comment se sont déroulées ces réflexions ?

A la suite de la fermeture brutale du trafic aérien en mars dernier, nous nous sommes réunis, avec les membres de CORAC, pour évaluer la situation. Nous avons très rapidement décidé d’accélérer notre planning, qui devait nous conduire vers l’avion décarboné à l’horizon 2045, voire même 2050… Nous avons décidé de développer cet avion pour 2035. Nous avons accéléré ce planning parce qu’il y a une urgence climatique, et des objectifs de diminution des émissions.
L’ambition, c’est d’arriver, pour 2050, à diminuer de moitié l’empreinte du secteur par rapport à 2005. Pour y arriver, le secteur aérien va devoir fortement diminuer ses émissions, tout le monde en est conscient. Accélérer le développement de l’avion décarboné s’est révélé indispensable pour atteindre cet objectif. Développer un avion décarboné d’ici à 2035 nous permet de rester dans la bonne trajectoire pour 2050. Les simulations effectuées par l’IATA le confirment, et nous avons également mené nos propres simulations avec l’Onera sur le sujet. Bien sûr il s’agit de simulations, avec toutes les incertitudes que cela comporte, mais plusieurs scénarios permettent d’arriver à réaliser nos objectifs d’ici 2050. 

La crise du Covid-19 a donc été l’élément déclencheur de cette décision d’accélérer le planning de développement de l’avion décarboné ?

La crise sanitaire que nous connaissons actuellement, mais qui a débuté depuis le mois de mars, constitue pour le secteur aérien une forme d’opportunité. Face à un challenge économique majeur lié à la crise sanitaire, qui s’ajoute à la pression médiatique et écologique très forte, tout a convergé vers l’idée que sortir un avion décarboné en 2050, ce qui était l’idée de départ, était trop tardif. Cela ne nous aurait pas permis de tenir les engagements pris par le secteur en termes de réduction des émissions.

Comment rendre possible cette accélération du calendrier qui a été actée ?

Pour développer un avion à zéro émission d’ici 2035, nous ne pouvons pas fonctionner, en termes d’innovations comme cela se fait d’habitude, c’est-à-dire avec de l’innovation incrémentale. Il faut également des innovations de rupture. Ainsi, face à cette crise inédite, nous avons décidé de nous remettre au travail et de repenser nos objectifs de développement de l’avion zéro émission, en se fixant des objectifs plus ambitieux. Mais il ne s’agit pas de penser uniquement en termes de ruptures technologiques. Il faut également réfléchir à l’outil industriel.
Pour atteindre nos objectifs d’ici à 2035, il nous faut impérativement gagner du temps sur les phases de conception, de développement et de passage en phase industrielle. C’est dans cet esprit que nous avons inclus dans notre feuille de route le développement de plusieurs démonstrateurs préindustriels dès le milieu de la décennie en cours.
Au final, il ne s’agit pas uniquement de mettre au point des innovations de rupture, mais également d’accélérer leur phase de développement. En effet, cela nécessite l’implication de l’ensemble du secteur industriel, que ce soit en termes de continuité numérique, d’usines 4.0… Tout cela est très concret déjà aujourd’hui, avec des projets en développement actuellement.

Cela induit-il une implication de l’ensemble de la filière aéronautique ?

L’idée était de se dire qu’un programme de développement d’un nouvel avion s’étale sur une quinzaine d’années en général. Il faut donc que toutes les améliorations technologiques, incrémentales et de rupture soient développées sur des timings coordonnés pour être disponibles au bon moment. Nous avons mis tout le monde autour de la table, et nous avons établi une feuille de route, que nous mettons à jour en permanence.
Cela permet aux maîtres d’œuvre, à la filière, et aux organismes de recherche, avec en particulier l’ONERA, de travailler collectivement et à une cadence élevée.
C’est d’ailleurs en opérant de la sorte que le CORAC a réussi à jouer un rôle important dans le développement des A 350-1000, A 320 Neo, ou encore du moteur Leap, pour ne citer que ces exemples.  

Quelles sont les options technologiques privilégiées pour développer un avion zéro émission ?

Nous avons plusieurs options. Le tronc commun que nous avons est la volonté de mettre au point un avion ultra sobre. En général, quand on met au point un avion de nouvelle génération, on table sur un gain, en termes d’efficacité énergétique, d’environ 15 %.
Là, nous voulons, pour 2035, réaliser un gain de 30 % par rapport à la génération précédente. La marche est haute, si je puis dire, mais nous avons des pistes technologiques pour y arriver, que ce soit au niveau des moteurs, des carburants, des systèmes…
Ensuite, nous avons plusieurs options énergétiques : d’abord, celle de l’usage massif de carburants alternatifs. Nous savons aujourd’hui que les avions peuvent supporter 50 % de carburants alternatifs, mais en réalité on pourrait aller beaucoup plus loin.
La deuxième option, c’est de faire de l’hydrogène pour les vols régionaux, courts et moyens courriers. Avec l’hydrogène, l’encombrement volumique est tel qu’il est pour le moment difficile d’imaginer l’utiliser pour les longs courriers. Les options énergétiques vont avoir tendance à s’appliquer selon le type de courrier – court, moyen ou long – que l’on envisage.
En ce qui concerne les petits avions, disposant de moins de vingt places, l’option hybride électrique est toujours d’actualité.

Le fait de pouvoir fédérer la filière derrière une ambition commune, surtout en cette période, est-il un signe de force pour le secteur aéronautique français ?

A travers le CORAC s’est développé un collectif puissant, c’est aussi une des leçons à tirer de la période que nous traversons. Dans la difficulté, les parties prenantes ont continué à se parler au sein du CORAC, pour finir par prendre la décision de se donner une ambition encore plus grande qu’auparavant, malgré les difficultés. En ce sens, la crise sanitaire que nous traversons tous nous aura permis de saisir une opportunité. 

Tout cela a aussi été possible, c’est important de le dire, grâce à la Direction Générale de l’Aviation Civile (DGAC) : c’est une administration qui connaît bien l’industrie, qui sait poser les limites, et qui est un rouage essentiel permettant au CORAC de fonctionner efficacement.

Par P.T

Réalité et environnement virtuels : à quand leur acceptation comme outil de communication ?

Déjà en février 2019, Fortnite avait rassemblé plus de 10 millions de joueurs autour d’un concert virtuel donné en live par DJ Marshmallow ; toujours sur sa plateforme, le jeu en ligne phare (du studio américain Epic Games) accueillait, le 23 avril 2020, soit en pleine crise sanitaire, le rappeur Travis Scott, qui s’est produit en direct pour le plus grand plaisir de 12,3 millions de joueurs. On peut alors imaginer que la communauté internationale des “gamers” a été pionnière. Mais dans un esprit plus “grand public”, de l’autre côté de l’océan Atlantique, la tendance n’a pas tardé à trouver preneur dans l’Hexagone : le 21 juin 2020, à l’occasion de la Fête de la Musique, un concert virtuel de Jean-Michel Jarre, organisé sur l’application VRchat (un réseau social en réalité virtuelle), réunissait près de 600 000 internautes. Le musicien français a même récemment annoncé un show semblable pour fêter le Nouvel An. Un point commun entre ces événements : s’incarner en avatar virtuel 3D, dans un environnement virtuel 3D, pour écouter du son 3D.

La vallée de l’étrange

Autre similitude : à moins que vous n’ayez une orange moustachue en guise de tête ou que vous ne ressembliez à un ours en peluche chamailleur en combinaison rose, les avatars virtuels ne sont pas du tout fidèles à la réalité. “Ce qui compte le plus n’est pas tant l’aspect graphique mais la dynamique d’interaction, précise Indira Thouvenin, enseignante-chercheuse à l’Université de Technologie de Compiègne et spécialiste des environnements virtuels. En dépit d’un avatar à l’aspect simple, la dynamique d’interaction peut être chaleureuse.” L’explication réside dans une théorie : celle de l’“uncanny valley” ou, en français, “la vallée de l’étrange”. “Selon cette théorie, si l’utilisateur remarque que quelque chose cloche dans l’apparence d’un avatar censé être réaliste, il va tout de suite arrêter d’y croire, poursuit la chercheuse. Et donc, si on cherche à avoir des représentations très réalistes, mais forcément imparfaites, on risque de tomber dans la vallée de l’étrange, ce qui fait que l’on risque une rupture de cohérence. C’est une opposition entre crédibilité et réalisme. La stratégie à préconiser est alors de rester bien au-dessous de ce qu’on perçoit comme réaliste !”

Mais la vision ne fait pas toute l’expérience. “La voix transmet énormément de choses, rappelle Indira Thouvenin. Même quand l’avatar ressemble à un personnage de dessins animés, on y croit en reconnaissant la voix de la personne qu’il représente”. Ainsi, la chercheuse raconte son séjour virtuel à la conférence ISMAR (IEEE International Symposium on Mixed and Augmented Reality), dans son édition 2020 organisée en novembre sur la plateforme de réalité virtuelle VirBELA : “Les participants étaient en immersion dans un amphithéâtre virtuel. Mon avatar portait une longue robe verte, avait les cheveux violets et les yeux verts. Les avatars ne nous ressemblaient pas, mais mes collègues et moi nous sommes reconnus et y avons “cru” grâce à la voix”. 

Le sens du toucher est un élément supplémentaire qu’Indira Thouvenin cherche à incorporer dans les interactions en environnement virtuel. Notre équipe de recherche travaille avec l’ISIR [Université Pierre et Marie Curie, NDLR], plus particulièrement avec Catherine Pélachaud, directrice de recherche CNRS, sur l’interaction entre l’humain réel et un humain virtuel qui a les caractéristiques d’un agent conversationnel, intégrant de l’intelligence artificielle, et qui va venir toucher la personne utilisatrice”. Techniques de l’Ingénieur avait abordé ce projet dans un précédent article, publié en avril 2020. À cause du Covid-19, nos recherches ont été retardées, déplore la chercheuse, notamment en ce qui concerne le système tactile. Mais nous avons quand même bien avancé sur la modélisation de l’IA”.

Des maquettes d’avions, aux assistants virtuels

Nous voilà qui sommes bien loin de l’ambiance fiévreuse des concerts, de l' »entertainment » et du ludique… Allons jusqu’au bout de cette séparation et parlons “vie pro” ! Le secteur aéronautique n’a pas hésité à s’emparer de la réalité virtuelle, même avant l’an confiné 2020. “Pour construire un Airbus par exemple, complète la chercheuse, les maquettes virtuelles 3D sont très utiles pour le “concurrent engineering”. Qu’on soit dans un bureau français ou italien, et qu’on travaille ensemble à la construction d’un Airbus, il faut pouvoir le visualiser en réalité virtuelle. Sur cette maquette virtuelle, les industriels vont même jusqu’à réaliser des tests d’ergonomie, à l’aide d’un mannequin virtuel 3D. Ces tests et ces collaborations se font entièrement à distance, en utilisant la CAO [conception assistée par ordinateur, NDLR] et la réalité virtuelle”.  

Mais ce qui constitue “un peu le Graal”, selon Indira Thouvenin : “Nous pouvons imaginer qu’un jour il sera possible d’envoyer son assistant virtuel à des réunions virtuelles. Quand on se représente soi-même, on pilote son propre avatar. Mais en intégrant des modèles d’IA, il est possible de rendre cet avatar semi-autonome voire autonome et lui donner des comportements beaucoup plus réalistes, tel un assistant virtuel”.

En quête de plus de tolérance

Contrairement aux pays d’Asie du Sud-Est, “on peut difficilement considérer le public français comme des “early adopters” de l’innovation”, regrette Indira Thouvenin. “En France, il y a beaucoup de défiance et de méfiance envers les nouvelles technologies, souligne la chercheuse. Et les banques ne financent pas l’innovation comme c’est le cas à la Silicon Valley. À peine avons-nous le temps de suivre les startups françaises émergentes, qu’elles sont rachetées ou vendues.” La chercheuse donne l’exemple de Mimesys, une entreprise franco-belge dont la solution de réalité mixte permet de manipuler des objets virtuels avec son propre clone virtuel. Cette société a été rachetée en mai 2019 par l’américaine Magic Leap : “Et depuis, Magic Leap l’a mise en stand-by, affirme Indira Thouvenin. Bien sûr, le marché n’est pas toujours prêt à accepter l’innovation”.

Mais la chercheuse n’est pas pessimiste pour autant : Alors que dans les années 90, lorsque les employés de Siemens, aux Etats-Unis, avaient été traités de cyborgs quand on les voyait tester les premiers casques de réalité augmentée, poussant la firme américaine à mettre fin à son projet, nous avons vu s’opérer un changement positif il y a quelques années. C’était en 2014, lorsque Facebook a racheté Oculus VR [pour 2 milliards de dollars USD, NDLR]. Selon une étude d’Idate DigiWorld, 330 000 casques de réalité virtuelle ou augmentée (AR/VR) se seraient écoulés en France, en 2019, soit une hausse des ventes de près de 65 % par rapport à l’année passée. Avec un total de 8,5 millions d’unités vendues dans le monde en 2019, cela placerait la France au 6ème rang du marché mondial. Les Etats-Unis seraient en tête, suivis par le Japon, la Chine, le Royaume-Uni et l’Allemagne.

Techniques de l’Ingénieur organise le 21 décembre, à 15h, le webinar “Mieux se retrouver à distance grâce à la réalité virtuelle”. Notre invitée sera Indira Thouvenin.

Pour vous inscrire, c’est par ici.

 

L’innovation de rupture, planche de salut du secteur aérien ?

Suite à la présentation des trois avions ZEROe par Airbus il y a quelques semaines, Jean-Brice Dumont, directeur exécutif de l’ingénierie de l’avionneur européen et président du comité directeur du CORAC, confiait au journal économique La Tribune : « Quand nous avons présenté l’avion à hydrogène, cela a fait l’effet d’un électrochoc, mais nous a exposé à la critique de “vous ne faites que ça”. La réponse est claire, il va se passer des choses d’ici 2035 et la date fixée pour arriver à cet avion propre. Nous travaillons sur l’empreinte industrielle de notre secteur, autrement dit sur la conception écologique, la réparation, la maintenance et jusqu’à la fin de vie, c’est-à-dire la déconstruction et le recyclage. Si nous ne parlons qu’en émissions carbone, cela représente 5% des émissions de la filière, le reste est émis par l’exploitation ».

La baisse des émissions du secteur aérien se fera au prix d’une réflexion globale sur l’ensemble de l’activité du secteur. Une donnée, nouvelle en 2020, change légèrement la donne : la crise sanitaire liée à la pandémie de coronavirus. Selon les prévisions de l’ATAG (Air Transport Action Group), la période que le secteur aérien traverse depuis le mois de mars dernier impactera le trafic sur le long terme. Ainsi, la croissance du trafic prévue pour 2050 a été revue à la baisse. Les prévisions varient, mais le chiffre d’une baisse de 16% par rapport aux prévisions de trafic pour 2050 est souvent cité. La croissance du trafic aérien, qui devrait retrouver un rythme d’avant pandémie vers 2024, serait alors autour de 3 à 3,5%.

L’hydrogène, tête de gondole

Derrière l’effet d’annonce qui a suivi la présentation des avions ZEROe d’Airbus, quelles sont donc les pistes technologiques permettant au secteur aérien de réduire drastiquement son bilan carbone ? 

D’abord, les trois ZEROe présentés par Airbus ne misent pas que sur la propulsion hydrogène pour réduire les émissions des appareils. Le développement de cette nouvelle génération d’avion, qui va durer 15 ans, s’accompagnera d’évolutions technologiques nombreuses, de ruptures, qui doivent permettre – c’est l’objectif annoncé – de faire baisser la consommation des appareils de 30%. D’une génération à l’autre, un avion gagne en général 15% en efficience. La marche est donc élevée. 

Des pistes technologiques existent pour améliorer l’efficacité énergétique des moteurs. Ainsi, Stéphane Cueille, directeur RetT et innovation chez Safran, acteur majeur de la filière aéronautique et partie prenante du projet ZEROe d’Airbus, affirme qu’ « au niveau des moteurs, nous allons viser des architectures innovantes qui tireront parti notamment des acquis de notre démonstrateur d’Open Rotor, c’est-à-dire de moteur sans carénage. Mais il faudra aussi miser sur la substitution du kérosène par de nouveaux carburants. »

C’est une autre piste d’importance : les carburants. La montée en puissance de l’usage d’agrocarburants apparaît aujourd’hui comme une solution qu’il faut absolument implémenter. Aujourd’hui les biocarburants représentent 0,1 % de la consommation de carburant dans le transport aérien. Ce chiffre pourrait atteindre 50%, et même beaucoup plus. La donnée limitante aujourd’hui est la quantité de biocarburant disponible.

Les carburants synthétiques peuvent également être une solution : produits à partir d’hydrogène, ils ont la même composition que les biocarburants. L’enjeu, ici, est d’être capable de produire ces carburants de manière écologique, et en quantités suffisamment importantes pour les besoins du secteur.

Parmi les autres améliorations de l’existant, le renouvellement des flottes par des appareils plus récents, l’incorporation progressive de carburants alternatifs sans modification des appareils en service, ou encore la mise en place de mesures économiques permettant de compenser les émissions de CO2 sont des solutions rapides à mettre en œuvre et qui seront mises en place progressivement dans les prochaines années.

Des ruptures indispensables

Pour autant cela ne suffira pas : le secteur aéronautique a besoin d’implémenter des innovations de rupture. L’hydrogène en est une, certainement la plus disruptive.

Mais parvenir à « décarboner le transport aérien implique des ruptures technologiques, différenciées selon les types d’appareils. Il n’y a pas de solution unique, la diversité des technologies à utiliser implique d’associer très largement toute la filière aéronautique française », selon le conseil pour la recherche aéronautique civile.

Pour les petits appareils, la rupture pourrait consister à développer un avion hybride/électrique. C’est la seule classe d’appareils pour laquelle l’utilisation de batteries est envisageable, au regard du poids de ces dernières.

Les moteurs des avions nouvelle génération, évoqués en début d’article, constituent également une rupture technologique par rapport à l’existant.

Si les choix en termes de ruptures technologiques, afin de décarboner le transport aérien, hormis l’annonce sur l’hydrogène, restent relativement mystérieux, c’est aussi parce que d’ici 2035, des choix stratégiques vont s’opérer. Certains validant des ruptures technologiques, d’autres en écartant. C’est toute une filière qui se met aujourd’hui à l’œuvre pour trouver la bonne recette entre améliorations et ruptures technologiques, pour concrétiser les objectifs très ambitieux que s’est donné le secteur aérien.

Par P.T

Une architecture d’avion « tout en un »

Un extrait de L’aile volante à hydrogène – Conception, défis et enjeux, par Yves GOURINAT.

A partir du moment où l’habitacle devient vivable – et non plus un alignement de sièges ,– on peut envisager d’allonger la durée des trajets. Or les enjeux environnementaux pourraient nécessiter de tels accroissements de durée.

Le trafic aérien civil n’est responsable que de 2 % des émissions mondiales de CO2 ; en outre, les effets des activités aérospatiales pour ce qui est du réchauffement climatique sont probablement nettement inférieurs à 2 % des effets de l’ensemble de l’activité humaine, de par l’augmentation de l’albédo terrestre due à la vapeur d’eau des sillages. Mais le secteur aérospatial a un tel effet d’entraînement, de prototypage et d’exemplarité qu’il est nécessaire – et même indispensable – de réduire l’empreinte carbone des avions. Le transport aérien de masse, qui continuera de croître, verra donc le Mach moyen M diminuer. Or, toutes choses égales par ailleurs, le coût énergétique horaire du vol est, en subsonique, approximativement proportionnel à M3, et le coût énergétique total du voyage est proportionnel à M2 (puisque la durée du trajet est en 1/M). Si donc, pour un même avion, la croisière passait de M = 0,85 (valeur actuelle pour les longs courriers) à M = 0,5, la consommation énergétique horaire serait divisée par 4,9 et, partant, le coût énergétique total du trajet par 2,9. Mais dans ces conditions, le trajet Paris-Sydney qui représente actuellement 22 heures de vol en nécessiterait 38. Et donc dans ces conditions l’aménagement de la cabine ne serait plus un luxe ou une option, et deviendrait indispensable, compte tenu en particulier du vieillissement de la population. Mais ce voyage allongé ouvre des perspectives extrêmement intéressantes.

On le voit, l’enjeu du Mach est ici de diviser par 3 l’empreinte énergétique du vol des longs courriers, rien de moins. Si l’on prend en compte le gain structural supplémentaire de 30 % susmentionné, dû à l’architecture en aile volante, alors ce ratio est supérieur à 3,5. Et si l’on utilise des propulsions plus propres, on peut encore accroître ce chiffre. Mieux, l’utilisation de propulsions non – ou peu – carbonées renforce encore le gain et la justification de réduction du Mach. Et l’aile volante est une architecture qui permet précisément d’envisager l’utilisation de l’hydrogène.

Préférer l’hydrogène au kérosène

L’hydrogène possède une énergie massique de combustion exceptionnelle (142 MJ/kg, 3 fois celle du kérosène d’aviation). Mais comme sa masse volumique est très faible (71 kg/m³ sous forme liquide) son énergie volumique est 3,7 fois plus faible que celle du kérosène. Autrement dit, à énergie emmagasinée égale, l’hydrogène sera certes trois fois plus léger que le kérosène, mais presque quatre fois plus volumineux. De plus, le stockage de l’hydrogène liquide est très complexe d’une part à cause de la température de -252°C à maintenir, et d’autre part par le caractère fugace de ce liquide qui passe à travers les matériaux. Non seulement le volume interne des réservoirs d’hydrogène est immense, mais les isolants et protections prennent une place non négligeable, ce qui a, pour le moment, limité leur utilisation opérationnelle aux lanceurs spatiaux. La mise en œuvre de l’hydrogène ou de combustibles évolués dans une architecture d’avion classique nécessiterait donc des réservoirs gigantesques intégrés à un fuselage de type « transport de charges volumineuses ».

On voit qu’ici le facteur de 3,5 obtenu par la réduction de Mach et le passage en architecture aile volante est tout à fait stratégique et permet justement de se ramener à des configurations plus raisonnables, puisque d’une part le volume de carburant serait réduit d’autant et d’autre part les passagers pourraient être moins proches du carburant. En somme, le bénéfice Mach + architecture compense pratiquement l’augmentation des volumes. Et l’architecture en aile volante permet à la fois de contourner les isolations des réservoirs par rapport à la cabine (par l’arrangement des systèmes) et l’allongement de la durée des vols (par l’aménagement de l’habitacle). L’architecture aile volante permet donc l’utilisation de l’hydrogène, et donc de bénéficier également du gain en masse que celle-ci représente par rapport à l’usage du kérosène (du fait de l’énergie massique bien plus élevée de l’hydrogène).

 

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 30 décembre 2020 !

L’aile volante à hydrogène – Conception, défis et enjeux par Yves GOURINAT

 

L’hydrogène sauvera-t-il le secteur aérien ?

Ce n’est pas nouveau, le secteur aérien est soumis à une pression de plus en plus grande pour diminuer ses émissions de gaz à effet de serre. Les objectifs français et mondiaux de baisse des émissions ont conduit le secteur aérien à se projeter sur une diminution, pour 2050, des émissions de GES de 50 % par rapport à leur niveau de 2005.

En plus de cela, le secteur aérien traîne aujourd’hui une image de secteur « très polluant » auprès du grand public. Cette double problématique oblige le secteur à réagir.

La présentation par Airbus de trois concepts d’avions propulsés à l’hydrogène pour 2035 est la première phase de cette réaction. Ces avions, dont le nom de code est « ZEROe » comme zéro émission, n’émettront pas de gaz à effet de serre, puisque la combustion de l’hydrogène ne produit que de la vapeur d’eau. Condition supplémentaire, il faudra que l’hydrogène embarqué dans ces avions nouvelle génération soit produit de manière propre : par électrolyse de l’eau, en utilisant de l’électricité issue de sources renouvelables. Nous y reviendrons.

Les trois concepts

  • Le premier concept présenté est un turboréacteur classique, transportant 120 à 200 passagers, avec une autonomie supérieure à 3500 km. Le cœur des moteurs de l’avion est constitué d’une turbine à gaz fonctionnant à l’hydrogène.
  • Le deuxième concept est un turbopropulseur à hélice pouvant embarquer jusqu’à 100 passagers sur une distance de 1800 kilomètres.
  • Enfin, le troisième modèle est une aile volante, ayant une capacité similaire au turbopropulseur, à savoir 100 passagers transportés sur une distance de 1800 kilomètres. 

Guillaume Faury, le président exécutif d’Airbus, a salué « un moment historique pour l’ensemble du secteur de l’aviation commerciale », en précisant qu’Airbus « entend jouer un rôle de premier plan dans la transition la plus importante que notre industrie ait jamais connue ».

Les défis : transport et production

Les ingénieurs d’Airbus vont devoir relever les défis technologiques qu’imposent la nature chimique de l’hydrogène.

Premier défi, le transport. Liquéfié à -250 °C pour pouvoir être stocké, il nécessite un espace de stockage quatre fois plus important que le kérosène. C’est en grande partie pour cette raison que les trois concepts présentés sont des courts/moyens courriers. Une partie du travail des ingénieurs va donc consister à trouver le moyen de stocker l’hydrogène dans l’avion : ce ne sera pas dans les ailes, car l’hydrogène, à cette température, doit être stocké dans des réservoirs sphériques… Aussi, il faudra développer des structures adaptées dans les aéroports pour produire et stocker de l’hydrogène à grande échelle.

Pour les vols long courrier zéro émission, il faudra très probablement faire appel à des biocarburants alternatifs, le volume d’hydrogène à emporter serait trop important pour être une solution crédible.

Autre problématique, évoquée en début d’article, celle de l’impact carbone de la production de l’hydrogène. Pour le moment, les méthodes de production de l’hydrogène sont polluantes, voire très polluantes.

Un collectif de chercheurs, l’Atecopol, a publié sur son blog une note suite à la présentation par Airbus des trois avions ZEROe. Il y est rappelé que la production d’hydrogène est aujourd’hui très énergivore : « La production d’hydrogène se fait actuellement principalement par vaporéformage du méthane, une technique très émettrice en CO2 : ainsi, en 2018, la production mondiale de 70 millions de tonnes d’hydrogène, utilisées principalement pour la production d’engrais et le raffinage du pétrole, a engendré l’émission de 800 millions de tonnes de CO2, un chiffre comparable aux émissions du transport aérien commercial (918 millions de tonnes en 2018) ».

Toujours dans cet article, le collectif avance que l’aéroport Paris-Charles-de-Gaule, pour fonctionner « à l’hydrogène », c’est-à-dire produire de l’hydrogène et le stocker pour alimenter les avions en carburant, aurait un besoin en énergie équivalent à la production de 16 réacteurs nucléaires.

L’Atecolpol rappelle qu’une étude de 2006 estimait que le passage généralisé du secteur aérien à l’hydrogène ne permettrait de diminuer l’empreinte du secteur aérien « que » de 30%. Insuffisant par rapport aux objectifs annoncés pour 2050.

Pour que les avions à hydrogène présentés par Airbus deviennent en 2035 les emblèmes d’un secteur aérien décarboné, il faudra donc d’ici là valider les choix technologiques de cet avion nouvelle génération, mais aussi voir se développer une filière décarbonée de production et de stockage d’hydrogène à grande échelle. C’est surtout cette seconde problématique qui paraît pour le moment la plus incertaine. 

Pour le moment, Airbus a enclenché le compte à rebours pour faire voler un avion ZEROe dans 15 ans. 

D’ailleurs, comme l’explique Jean-Brice Dumont, président exécutif engineering d’Airbus au Point, « les trois concepts d’avions zéro émission présentés il y a quelques semaines ne sont pas des démonstrateurs, mais trois modèles différents, embarquant plusieurs systèmes et technologies nouvelles, appelées à fonctionner ensemble : Nous nous attachons à faire un avion vert pour 2035. Lequel, on ne sait pas encore ».

La production d’hydrogène sera-t-elle décarbonée d’ici là ? On ne sait pas encore.

Par Pierre Thouverez

 

 

Crédits image de une : ©Airbus2020

Impact carbone du secteur aérien: innovation technologique vs croissance du trafic ?

La lutte contre les émissions de gaz à effet de serre liées aux activités humaines est aujourd’hui un enjeu majeur, qui impacte tous les secteurs de l’industrie.

Les données du SDES permettent de dresser la liste des grands secteurs de l’économie et de la responsabilité relative dans les émissions de CO2 au niveau mondial, en 2019. Dans l’ordre, on trouve :

  •  La production de chaleur et d’électricité (39% des émissions totales) ;
  •  les transports (24%) ;
  •  l’industrie (19%).

Le secteur des transports est donc responsable d’un quart des émissions de CO2 au niveau mondial. Si auprès du grand public les différents modes usuels de transport ont une image très dégradée, il en est un qui cristallise des débats : le transport aérien.

En  témoigne le “flight shaming” (honte de l’avion), phénomène apparu il y a un peu plus d’un an en Europe du Nord et qui trouve aujourd’hui des sympathisants aux quatre coins du globe : ce mouvement invite à éviter au maximum, et même plutôt à bannir l’idée même de prendre l’avion, considéré comme une aberration écologique.

La diabolisation du secteur aérien est-elle exagérée ?

Si on se réfère aux données de l’ITF pour 2020 (International Transport Forum), l’aviation est responsable d’environ 11% des rejets de GES du secteur des transports. Au final, la part de l’aviation, en termes d’émissions de GES au niveau mondial se situe entre 3 et 4,5 % selon les estimations. C’est moins que les émissions liées à l’usage d’internet (5%), ou aux activités de l’industrie textile (8%). Pour autant, 80% des personnes interrogées pensent que le secteur aérien émet plus de GES que les deux secteurs que nous venons de citer.

Même si le secteur aérien est une source non négligeable d’émissions de GES, sa responsabilité reste relative, en décalage avec l’image que véhicule désormais l’avion auprès du grand public.

Au-delà de l’image, il y a les faits. Le secteur aérien n’émet pas seulement du CO2. Il y a donc une différence entre l’impact écologique du secteur aérien lié à ses émissions de CO2, et son impact global. Il faut ajouter les effets non CO2 aux effets CO2, pour avoir une idée globale de l’impact du secteur aérien sur le climat.

Le fruit de ces calculs diverge : pour ce qui est admis concernant les émissions CO2, celles du secteur aérien représentent 2 % des émissions mondiales.

En y ajoutant les effets non CO2, on arrive, comme cité plus haut, à des estimations allant de 3 à 4,5 %. Mais les modèles de simulations concernant les effets non CO2 sont très discutés, et les incertitudes restent grandes quant à leur fiabilité. Ces résultats sont obtenus notamment grâce aux méthodes de forçage radiatif, qui permettent d’évaluer la contribution d’une activité en terme de réchauffement global (voir les simulations faites par le GIEC).

Les effets non CO2

Le CO2 n’est pas le seul gaz à effet de serre émis par l’activité du secteur aérien. En effet, il faut ajouter au bilan :

  • Des oxydes d’azote

Ce ne sont pas des gaz à effet de serre à proprement parler, mais ils réagissent en altitude avec d’autres substances chimiques, pour produire de l’ozone, qui est lui un GES puissant. Il provoquent également la destruction du méthane, également un GES : ceci a plutôt tendance à refroidir l’atmosphère.

  • La vapeur d’eau

Emise par les réacteurs d’avions, elle peut former des traînées de condensation persistantes lorsque l’atmosphère est saturée en glace, et que la température est inférieure à -40 °C. Ces traînées sont constituées de cristaux de glace, dont la taille est inférieure à celle des cristaux constituant les cirrus naturels. Leur présence tend à réchauffer l’atmosphère.

Etablir avec certitude les effets concrets de l’ensemble du trafic aérien sur le climat est donc encore aujourd’hui très compliqué, et l’objet de beaucoup de controverses.

Une croissance du trafic de 3,5% par an projetée pour les années à venir

Pour autant, le décalage existant entre l’impact réel du transport aérien et sa réputation ne doit pas cacher une autre réalité : la croissance du secteur aérien et notamment du nombre de passagers transportés n’a cessé d’augmenter, jusqu’au mois de mars dernier et la pandémie mondiale de coronavirus, qui se poursuit encore aujourd’hui.

D’ailleurs, la crise actuelle pour le transport aérien est d’autant plus terrible que beaucoup de compagnies, désireuses de profiter de l’augmentation régulière (3,5 % par an) du volume de passagers transportés, avaient dans les mois précédents la crise sanitaire investi pour agrandir leur flotte.

Il y a aujourd’hui environ 28 000 avions de ligne dans le monde. Depuis les années 2000, la multiplication des compagnies low cost a, entre autres, participé à une hausse spectaculaire du trafic aérien, de l’ordre de 140 % en 20 ans. 

Entre 2013 et 2018, les émissions de gaz à effet de serre du transport aérien ont ainsi augmenté de 32 % même si dans le même temps les avions émettent 2 fois moins de CO2 que dans les années 90, grâce aux innovations technologiques successives.

Les compagnies aériennes et les constructeurs se sont fixés un cap clair : réduire de moitié en 2050 les émission par rapport à leur niveau de 2005.

Le secteur aérien, dont la quantité des émissions de GES a tendance à être surévaluée par le grand public, s’est fixé des objectifs de réduction d’impact très ambitieux.

Les innovations technologiques vont permettre de continuer à faire baisser les émissions par passager transporté. Les feront-elles suffisamment diminuer pour permettre à l’ensemble de l’activité aérienne d’atteindre ses objectifs écologiques ? Pour répondre à cette question, il faudra d’abord connaître les pistes technologiques retenues par le secteur aérien mondial pour relever ce défi.

Ce qui paraît certain, c’est qu’une réelle rupture doit s’opérer en termes d’innovations pour que le secteur aérien atteigne ses objectifs, en se projetant sur une reprise de la croissance du trafic aérien, dès que la situation sanitaire le permettra.

Par P.T

Respect de la vie privée : les cadeaux à éviter

Les appareils les plus anodins cachent peut-être un mouchard. Avec ses liseuses et ses enceintes connectées, le géant Amazon est l’un des plus curieux. Mais qui aurait pensé qu’une cafetière « intelligente » est un espion dans votre cuisine ? C’est pourtant le cas avec le modèle d’Atomi présenté ci-dessous…

Depuis 2017, la Fondation Mozilla (qui développe le navigateur Firefox) publie son guide « Privacy Not Included »), une sorte de Best of des bons élèves (mais aussi des mauvais) en matière de respect de la vie privée.

L’édition 2020 compte 32 produits mis en avant pour leur conformité aux normes minimales de sécurité créées par Mozilla, l’Internet Society et Consumer International : utiliser le cryptage ; avoir des mises à jour de sécurité automatiques ; gérer les vulnérabilités de sécurité et exiger des utilisateurs qu’ils changent le mot de passe par défaut si un mot de passe est requis.

Ces références en matière de protection des données personnelles sont les suivants : Nintendo Switch, Google Home, Harry Potter Kano Coding Kit, Athena Safety Wearable, et la cafetière Behmor Brewer.

Pour la Fondation Mozilla, les bons élèves sont également les marques mettant un point d’honneur à respecter la vie privée de leurs clients soit en n’intégrant pas de mouchards (micros intégrés), soit en permettant de désactiver des fonctions que l’utilisateur jugera trop curieuses ou soit en ne partageant pas de données personnelles avec des tiers.

C’est le cas de Withings connue pour ses pèse-personnes et Garmin pour ses montres connectées. Cette marque va jusqu’à anonymiser les données qu’elle recueille afin qu’elles ne soient pas exploitables directement. L’Apple Watch donne également satisfaction à la Fondation Mozilla. Ce satisfecit semblerait confirmer que la récente polémique concernant Apple relevait de la « boulette ».

Mais il y a aussi de vilains canards. C’est le cas de la cafetière Atomi Smart. Cette cafetière permet de préparer 12 tasses de café en cliquant sur un bouton de l’application ou même en disant simplement : « Eh Google, fais du café ! » (à condition de ne pas avoir oublié de mettre des tasses…).

Mais selon Mozilla, cette marque transmet vos informations personnelles à des tiers à des fins de marketing ou de promotion. Aucune information disponible sur la gestion des vulnérabilités de sécurité. Plus surprenant, l’application qui contrôle cette cafetière accède à la caméra et au microphone de votre téléphone et suit votre position.

Même constat avec la Roku Streambar & Soundbar. Cette marque partage vos données personnelles avec des annonceurs pour vous montrer des publicités ciblées et créer des profils à votre sujet au fil du temps et sur différents services et appareils. Roku fournit également aux annonceurs des données détaillées sur vos interactions avec les publicités, vos données démographiques et votre segment d’audience.

Terminons avec le petit drone DJI Mavic Mini. Cette société chinoise DJI a toujours été mauvaise en matière de vie privée et de sécurité. « Des chercheurs ont récemment mis en garde contre les vulnérabilités de l’application Android et la collecte d’importantes quantités de données personnelles », prévient Mozilla.

STRAP : un nouveau procédé de recyclage des polymères multicouches

Les films multicouches complexes portent bien leur nom, car ils peuvent être constitués d’une grande variété de résines polymères (polyamide, polystyrène, PVC, polyéthylène, PET, etc.) et de plus d’une dizaine de couches de matière. Malheureusement, faute de solutions techniques de recyclage, ces plastiques finissent généralement en enfouissement ou en incinération.

Le recyclage chimique : une nécessité

Jusqu’ici peu rentables, les technologies de recyclage chimique sont à présent considérées comme l’avenir du recyclage des plastiques, car elles permettent une récupération des résines d’origine.

Comme beaucoup de chercheurs et d’industriels à travers le monde, l’équipe d’ingénieurs de l’université du Wisconsin-Madison dont il est question ici travaille donc sur le recyclage chimique et en particulier sur un procédé de récupération à base de solvant : le procédé STRAP.

Qu’est-ce que le procédé STRAP ?

STRAP signifie “Solvent-Targeted Recovery and Precipitation”. Ce procédé consiste à réaliser différents cycles de dissolution/précipitation en utilisant des solvants sélectifs, ce qui permet la séparation de chaque résine.

Chaque cycle comprend plusieurs étapes :

  1. dissolution dans un solvant sélectif ;
  2. filtration de la résine dissoute ;
  3. reprécipitation de la résine et récupération du solvant ;
  4. répétition du procédé avec un autre solvant.

Comme expliqué dans la publication du 20 novembre 2020 pour le journal Sciences advances, la faisabilité de ce procédé a d’ores et déjà été démontrée sur un film multicouche postindustriel composé de trois résines :

  • du polyéthylène (PE) ;
  • un copolymère d’éthylène – alcool vinylique (EVOH) ;
  • du polyéthylène téréphtalate (PET).

Les résultats obtenus par l’équipe des professeurs George Huber et Reid Van Lehn sont plutôt encourageants, car :

  • d’un point de vue chimique, les résines recyclées sont similaires aux résines brutes.
  • d’un point de vue économique, une analyse détaillée du procédé STRAP appliqué à ce multicouche indique un coût de la matière recyclée (PE, EVOH et PET) équivalent à celui de la matière vierge pour un flux annuel de 3 800 tonnes de matériau.

Le choix du solvant : la clé du succès

La réelle difficulté de ce procédé est dans le choix du solvant adapté à chaque résine, compte tenu de la complexité des films multicouches et de la quantité importante de solvants industriels et de mélanges disponibles.

Pour être efficace, le procédé STRAP s’appuie donc sur un outil numérique appelé conductor-like screening model for realistic solvents (COSMO-RS). Cet outil est capable de calculer la solubilité de polymères dans des mélanges de solvant à différentes températures, ce qui permet de réduire le choix de solvants possibles et de sélectionner le plus adapté.

D’après le communiqué de presse publié sur le site de l’université du Wisconsin-Madison : « L’objectif, à terme, est de développer un système de calcul qui permettra aux chercheurs de trouver des combinaisons de solvants pour recycler toutes sortes de plastiques multicouches. »

Les travaux de cette équipe vont se poursuivre, d’une part par l’application de ce procédé à d’autres multicouches, mais aussi en cherchant à démontrer qu’il est possible de créer de nouveaux matériaux plastiques à partir des résines récupérées.

Tara veut comprendre le fonctionnement du microbiome de l’Atlantique

Les micro-organismes marins constituent le premier maillon des services écologiques rendus par les océans. Si les précédentes expéditions Tara ont permis de mieux connaître les habitants du microbiome océanique, soit l’ensemble des micro-organismes marins (entre autres, virus, bactéries, microalgues et protistes), son fonctionnement demeure largement méconnu. Pour mieux connaître ce peuple invisible à l’œil nu, la goélette Tara s’élancera ce samedi 12 décembre de Lorient pour une nouvelle expédition de 21 mois. Le bateau-laboratoire parcourra 70 000 kilomètres en Atlantique Sud, le long des côtes sud-américaines et africaines, jusqu’en Antarctique. Les chercheurs étudieront le microbiome océanique et ses interactions avec l’environnement.

Comment fonctionne le microbiome océanique et à quoi sert-il ?

Grâce à la lumière du soleil, une partie du microbiome – le phytoplancton – absorbe du gaz carbonique pour produire la moitié de l’oxygène planétaire chaque jour. Il crée de la matière organique qui est ensuite absorbée par l’océan à travers les bactéries dans un réseau trophique extrêmement complexe, des virus jusqu’aux poissons et aux baleines. « Toutes les cellules de ce microbiome rejettent des petites vésicules qui contiennent des messages ADN et une variété de métabolites pour communiquer », partage Colomban de Vargas, directeur de recherche CNRS/Sorbonne, et codirecteur scientifique de la mission.

À bord de la goélette Tara, les scientifiques collecteront et analyseront le microbiome océanique. « Les outils pour étudier le microbiome sont larges : des méthodes de séquençage de l’ADN et des gènes exprimés de l’ARN et des méthodes d’imagerie automatiques, explique Colomban de Vargas. Grâce à ces méthodes automatisées, on commence à voir les différents niveaux d’organisation du microbiome. »

Des acteurs du microbiome au fonctionnement

Dans ses précédentes expéditions, Tara a déjà ramené près de 100 000 échantillons. Ces derniers ont permis de découvrir une biodiversité considérable et largement inconnue. « On a découvert 200 000 espèces de virus dans l’eau de mer, 50 millions de gènes procaryotes et 150 millions de gènes eucaryotes, précise Colomban de Vargas. Plus de la moitié des gènes eucaryotes ne ressemblent à rien de ce qui existe dans les bases de données donc on ne sait pas à quoi ils servent. »

Ces expéditions ont permis de découvrir les acteurs majeurs de ce microbiome et leurs interactions. Tara veut maintenant comprendre son fonctionnement pour prédire les réponses au changement climatique. Et cela demande de mesurer un grand nombre de paramètres environnementaux à chaque échantillonnage, par exemple la température, le taux d’oxygène, la présence de nutriments, ou la pollution plastique. « Lorsque l’on fait un échantillonnage, il faut à la fois caractériser l’état métabolique des organismes, établir qui interagit avec qui et bien caractériser l’état de l’environnement au moment des mesures, précise Daniele Ludicone, co-directeur de la mission microbiomes. L’échantillonnage va donc être focalisé dans certaines régions océaniques d’intérêt ». L’enjeu sera notamment de standardiser les protocoles.

Comprendre l’évolution du microbiome dans les gradients océaniques

La mission s’intéressera aux gradients, « les changements dans l’espace des caractéristiques environnementales, comme la température et la pollution », explique Daniele Ludicone. La mission se focalisera sur les régions à forts gradients pour évaluer l’évolution des organismes à travers ces gradients.

Des glaciers des Andes aux zones pauvres en oxygène, la mission cherchera à comprendre les mécanismes biologiques qui permettent au microbiome de s’adapter. « Le Chili est une région très intéressante car les fjords de Patagonie, dans le sud, créent des gradients et au Nord du Chili, l’océan présente un gradient sur la verticale avec un fort changement de disponibilité d’oxygène pour la vie, explique Daniele Ludicone. Ces forts gradients permettront de mieux comprendre l’adaptation métabolique du microbiome ».

Un autre sujet important concernera l’étude de l’influence de l’Amazone sur le microbiome. Le panache du fleuve le plus long au monde s’étend parfois jusqu’à l’Afrique et aux Caraïbes. « Établir l’état métabolique du microbiome dans ce panache est idéal pour comprendre comment le changement climatique et les changements d’usage des territoires sont en train de changer les océans », affirme Daniele Ludicone.

Les chercheurs vont par ailleurs s’intéresser à la pompe à carbone dans l’Océan Austral. Ils étudieront les grands fleuves africains, encore largement méconnus et mal caractérisés en termes de pollution. « Ils ont un panache important et un impact sur tout l’Atlantique sud-est », prévient Daniele Ludicone. Enfin, les chercheurs s’intéresseront aux upwellings, des régions océaniques très riches en nutriments. « On veut comprendre comment le microbiome soutient cette production exceptionnelle et sa vulnérabilité au changement des vents », explique le chercheur.

Repousser la limite de pénétration d’un microscope optique dans un tissu biologique

Avec sa résolution inférieure au micron et son invasion minimale, le microscope optique est devenu un outil essentiel à la recherche biomédicale pour observer les tissus du corps humain et les cellules. Il repose sur l’utilisation d’ondes lumineuses dont la propagation est déviée puis focalisée par des lentilles de verre pour former une image. La trajectoire de la lumière à travers ces milieux biologiques est par contre complexe à gérer. Et au-delà d’une profondeur de quelques centaines de microns, la résolution et le contraste de l’image se trouvent très dégradés. Des chercheurs de l’Institut Langevin ont mis au point une nouvelle méthode d’imagerie dite matricielle qui repousse la limite de pénétration d’un microscope optique dans un tissu biologique.

Deux facteurs expliquent les difficultés qu’ont les microscopes conventionnels à observer en profondeur les milieux biologiques. Tout d’abord, les variations de l’indice optique à l’intérieur des tissus biologiques qui vont provoquer des perturbations dans la propagation des ondes lumineuses et au final une déformation du front d’onde. Ensuite, un phénomène appelé la diffusion multiple. Concrètement, l’onde lumineuse, c’est-à-dire les photons, au lieu d’être réfléchie une seule fois à l’intérieur du milieu puis ressortir vers l’objectif du microscope, va taper plusieurs fois dans les tissus avant de ressortir et être imagée. « À une profondeur d’un millimètre, c’est comme si nous étions dans le brouillard, résume Alexandre Aubry, chercheur au CNRS et à l’Institut Langevin. La lumière a été diffusée plusieurs fois à l’intérieur du milieu et lorsqu’elle ressort, elle est très difficile à analyser avec les techniques d’imagerie conventionnelles telles que l’OCT [Optical coherence tomography, un examen souvent pratiqué en ophtalmologie, NDLR]. » 

Imagerie d’une cornée de singe hautement opaque. L’imagerie matricielle (à droite) révèle les détails de la cible de résolution qui étaient totalement cachés (à gauche) en raison d’aberrations et de diffusion multiple.
Crédits photos : Institut Langevin

Reconstruire la structure tridimensionnelle du milieu biologique

Face à ces difficultés, les chercheurs ont mis au point une matrice de réflexion dont le but est de mesurer les défauts du milieu. Pour cela, ils éclairent dans un premier temps les tissus biologiques sous différents angles. Puis, à chaque fois qu’un champ lumineux est réfléchi, il est enregistré par un ordinateur. Ce dernier se charge alors d’étudier les corrélations entre tous les points réfléchis puis va calculer les lois d’aberration permettant de focaliser en profondeur dans le milieu. Au final, la matrice va identifier quel front d’onde il convient d’utiliser afin que la lumière pénètre dans les tissus. « Cette matrice, c’est vraiment le Graal, s’enthousiasme le chercheur, car elle nous permet de reconstruire la structure tridimensionnelle du milieu biologique que l’on va inspecter. Grâce à elle, on obtient une image comme si le milieu était devenu transparent et parfaitement homogène. »

Pour l’instant, l’équipe de recherche est parvenue à aller à une profondeur d’environ un millimètre. Pour aller plus loin, elle compte employer différentes longueurs d’onde du spectre lumineux, allant de 700 à 900 nanomètres. Les scientifiques utilisent une source à balayage spectral permettant d’enregistrer la matrice avec un grand nombre de fréquences différentes. « L’ordinateur se charge ensuite de trouver la forme d’onde spatio-temporelle permettant de compenser à la fois les aberrations et la diffusion multiple et ainsi focaliser de plus en plus profond », ajoute Alexandre Aubry.

À long terme, les chercheurs de l’Institut Langevin se mettent à rêver d’aller jusqu’à une profondeur d’un centimètre. D’ici là, d’importants travaux vont se poursuivre. Les chercheurs pensent utiliser une approche consistant à s’enfoncer petit à petit dans le milieu, par palier. « À partir de toutes les lois d’aberration qui ont été calculées en amont de la couche qui nous intéresse, on peut trouver plus facilement les lois de focalisation pour aller encore plus en profondeur, analyse le chercheur. Petit à petit, on peut compenser le brouillard de la diffusion et réussir à retrouver une image de la réflectivité qui correspond à ce qu’elle est réellement. »

À droite, l’imagerie matricielle des tissus mammaires permet de détecter les micro-calcifications du cancer du sein. Ces précurseurs du cancer du sein sont impossibles à détecter dans l’image échographique conventionnelle (à gauche).
Crédits photos : Institut Langevin

Cartographier la vitesse du son dans le foie

En attendant ces avancées, cette matrice de réflexion va trouver d’autres champs d’applications, à commencer par celui de l’échographie. Cette fois-ci, ce ne seront plus des ondes lumineuses qui se propagent dans les tissus biologiques, mais des ultra-sons. Grâce à la matrice, il va être possible par exemple de cartographier la vitesse du son dans le foie pour détecter la stéatose hépatique, une maladie liée à la présence de gouttelettes de gras dans le foie. « On cherche ici à établir les paramètres quantitatifs d’avancées de la maladie », complète le chercheur.

Autre application possible, cette fois-ci dans un tout autre domaine : la sismologie. Là encore, l’idée est d’appliquer la même méthode d’imagerie matricielle ; l’échelle est totalement différente mais la physique des ondes reste toujours la même. Actuellement, les sismologues utilisent des géophones pour enregistrer les bruits provenant du sol. « À partir de ces ondes sismiques, nous pouvons reconstituer la matrice de réflexion et imager la structure interne de la terre, poursuit Alexandre Aubry. Je suis persuadé que ce nouveau champ d’exploration en sismologie sera très important dans le futur. »

La modernisation des centres de tri prend du retard

Au démarrage des premières expérimentations concernant la modernisation des centres de tri dans le cadre du programme d’extension des consignes de tri en 2011, la France comptait environ 250 centres de tri. Il n’en restait plus que 230 en 2015 lors de la seconde expérimentation. La France devrait en compter autour de 130 en fin de programme. « Nous préférons parler en termes de population couverte plutôt qu’en objectif de nombre de centres de tri, précise Anne-Sophie Louvel, directrice du service « collecte sélective et territoires » de l’éco-organisme Citeo. Le nombre de centres de tri n’est pas un bon indicateur, car le centre de tri est une modalité de mise en œuvre de l’extension des consignes de tri et non une fin en soi. Lorsqu’une collectivité passe en extension de consignes de tri, la question est de définir le bassin de tri, la taille du centre de tri associé, ainsi que ses modalités de fonctionnement, et de regarder l’adaptation des dispositifs de collecte. »

75 centres de tri ont ainsi déjà été sélectionnés par appel d’offres pour entreprendre les travaux de modernisation. Parmi eux, 60 sont déjà pleinement modernisés et opérationnels. « Concernant les 15 centres de tri pour lesquels les travaux n’ont pas commencé, certains existent mais restent encore majoritairement en tri manuel et doivent subir d’importants travaux, d’autres doivent être construits, partage Anne-Sophie Louvel. Les centres de tri déjà sélectionnés seront terminés fin 2022 comme le prévoit la loi de transition énergétique, mais il y a encore des territoires où le projet cible et le bassin de tri ne sont pas encore arrêtés. »

Une modernisation complète après 2022

« Il y a un vrai risque de glissement qui a fortement augmenté cette année, car les projets ont pris beaucoup de retard, explique Anne-Sophie Louvel. Beaucoup de projets étaient programmés pour le deuxième semestre 2022. On peut dire aujourd’hui qu’une partie des projets ne sera pas finalisée pour fin 2022. »

Environ 50 % de la population est déjà couverte par l’extension des consignes de tri. De grandes villes comme Paris et Lyon, mais aussi Rennes, Nantes, Brest et Limoges sont passées en extension de consignes de tri. « On a fait la partie la plus simple, partage Anne-Sophie Louvel. La deuxième moitié compte des territoires où il y a plus de difficultés à identifier les bassins de tri et la logistique ». Lorsque les 75 centres de tri retenus par appel d’offres seront modernisés, environ 40 millions de Français seront couverts par l’extension des consignes de tri.

Le plan de relance prévoit une enveloppe complémentaire d’ici fin 2022 pour l’Ademe afin de finaliser la modernisation des centres de tri. Il prévoit notamment 84 millions d’euros pour le tri des déchets recyclables au travers du déploiement du tri sélectif sur la voie publique et de la modernisation des centres de tri publics et privés. En plus, il comprend 100 millions d’euros pour le soutien à l’investissement en équipement pour faciliter le tri à la source, la collecte et la valorisation des biodéchets.

De nouvelles filières de recyclage en perspective

Dans le cadre de la modernisation des centres de tri, Citeo aide au développement de nouvelles filières de recyclage. Pour ce faire, dans les nouveaux centres de tri en extension des consignes de tri, un nouveau flux a été créé en sortie : un « flux développement ». Repris par Citeo, il accueille les pots et les barquettes en PET, ainsi que le polystyrène.

Ce flux est surtrié afin d’aider à l’émergence de nouvelles filières. « Ce flux développement est repris par Citeo en sortie de centre de tri primaire pour le massifier et l’envoyer en surtri puis en filière de recyclage, avance Anne-Sophie Louvel. Le cahier des charges d’agrément s’engage sur ce flux à un taux de recyclage matière de 92 % minimum. Cela nous permet aussi de tester des choses avec des filières que l’on voudrait voir se développer et identifier les différents débouchés en France et en Europe. »

En septembre dernier, s’est notamment formé le « Consortium PS25 » dédié à la réflexion sur la mise en place d’une filière de recyclage du polystyrène (PS) en France, avec retour à l’emballage alimentaire. Aux côtés de Citeo, il regroupe plusieurs acteurs des produits laitiers frais représenté par Syndifrais, Valorplast et plusieurs entreprises utilisatrices d’emballages en polystyrène. Début novembre, Citeo a lancé un appel à manifestation d’intérêt sur le sujet. Aujourd’hui, le polystyrène trié dans le cadre de l’extension des consignes de tri est envoyé en grande majorité en Espagne et en Allemagne pour produire du polystyrène recyclé dont les débouchés restent limités. « Nous avons pris des engagements réciproques avec un certain nombre d’acteurs pour expérimenter des choses sur les barquettes, le polystyrène pour faire en sorte de développer les filières et les provisionner pour qu’elles puissent se développer », détaille Anne-Sophie Louvel.

De la vanilline pour des batteries de stockage d’électricité plus écologiques

Utiliser de la vanilline pour réduire l’empreinte environnementale des batteries pourrait prochainement être possible. C’est la découverte qu’ont fait des chercheurs de l’Université technologique de Graz, en Autriche. Les résultats de leur étude ont fait l’objet, l’été dernier, d’une publication dans la revue Angewandte Chemie. Ils révèlent que la vanilline, composant principal de l’arôme de vanille, est un bon électrolyte pour les batteries de stockage d’électricité.

Ainsi, les découvertes effectuées par ces chercheurs pourraient permettre de réduire l’empreinte écologique des batteries lithium-ion, et de celles des parcs solaires et éoliens. Pour l’instant, leurs travaux n’ont été réalisés qu’en laboratoire. Des tests complémentaires devront être faits pour valider que le procédé peut être répliqué pour une commercialisation à grande échelle.

Des batteries redox flow pour jusqu’à 800 mégawatt-heure

Grâce à cette découverte, il sera peut-être prochainement possible de remplacer les électrolytes classiques qui se trouvent habituellement dans les batteries à flots circulants, ou redox flow. Pour cela, la vanilline remplacerait le vanadium, un métal rare qui se distingue par sa faible sensibilité à la corrosion. Son rôle est d’assurer l’oxydoréduction, procédé grâce auquel l’électricité est générée ou stockée par une batterie. Mais plusieurs problèmes lui sont liés. Premièrement, ce matériau provient de mines d’extractions de terres rares qui se trouvent en Afrique du Sud, en Russie, ou encore en Chine. Deuxièmement, ce métal est extrêmement corrosif pour les autres composants des batteries.

Pour ces chercheurs, le coût environnemental de ces batteries redox flow est une incohérence. C’est pourquoi ces derniers estiment qu’« une capacité de stockage d’énergie à grande échelle est essentielle pour compenser l’inadéquation entre la production et la demande d’énergie verte ». Ils déplorent également le fait que « le stockage durable de l’énergie verte n’a pas été une préoccupation majeure » pour les acteurs du stockage de l’électricité.

Selon Stefan Spirk, professeur à l’Institut des bioproduits et de la technologie du papier de l’Université de Graz et auteur principal de l’étude, les batteries redox flow composées de vanilline permettent une capacité de stockage qui pourrait aller jusqu’à 800 mégawatt-heure (MWh). De ce fait, il considère que cette solution est susceptible de favoriser le déploiement des énergies renouvelables. Il affirme également que ce type de batterie serait aussi adapté aux générateurs de secours des hôpitaux et aux centrales électriques.

De la vanilline créée à partir de la lignine

Pour produire la vanilline nécessaire pour la confection des batteries, nul besoin d’accaparer toutes les gousses de vanille du marché. « Il est possible d’utiliser les déchets de l’industrie du papier pour produire de grandes quantités de vanilline » affirme Stefan Spirk. Le scientifique fait référence à la lignine, une biomolécule naturellement présente dans le bois. Chaque année, l’industrie papetière en produit entre 50 et 100 mégatonnes. Et 98 % de cette production annuelle est incinérée. La solution proposée par l’équipe de Stefan Spirk serait alors une bonne solution pour offrir un débouché à une matière largement inexploitée.

L’obtention de vanilline à partir de lignine repose sur un procédé maîtrisé par les scientifiques. « Nous avons oxydé la lignine en vanilline grâce à des procédés chimiques respectueux de l’environnement » explique le principal auteur de l’étude. Ce n’est pas la première fois que des scientifiques tentent de trouver un moyen de remplacer le vanadium. En 2014, des chercheurs de l’Université de Harvard (États-Unis) avaient fabriqué des batteries redox flow à partir de quinones. Mais le procédé a été jugé difficile à commercialiser à grande échelle.

Innovantes #4 : Fabriquer des diamants en laboratoire

Tout le long de sa carrière, Alix Gicquel s’est concentrée sur les plasmas et les diamants. Professeure à l’Université Sorbonne Paris Nord, elle a créé la première équipe en France travaillant sur l’élaboration de diamants par plasma. En 2016, elle a fondé sa start-up Diam Concept afin de créer des diamants en laboratoire à destination de la joaillerie. Elle envisage également de fabriquer à terme des diamants pour la haute technologie.

Fabrication en laboratoire

Afin de fabriquer les diamants, Alix Gicquel et son équipe partent de germes de diamant monocristallin. « On met ces petits germes sur un porte-substrat et on insère ce porte-substrat dans un plasma, donc un gaz ionisé. Le plasma est créé avec de l’hydrogène et un peu de méthane car il faut du carbone pour faire du diamant. Puis on envoie de l’énergie micro-ondes et au bout de 3 semaines à 1 mois et demi en fonction du type de diamant que l’on veut faire, on sort des parallélépipèdes de diamants. Le polycristallin qui entoure le diamant est ensuite découpé au laser, puis on envoie le diamant chez un tailleur », explique la fondatrice de Diam Concept.

Différentes entreprises existent à travers le monde et utilisent soit la même technique, soit la technique de haute pression haute température, qui mime ce qu’il se passe sous terre.

Les germes de diamant sont placés dans le réacteur à plasma.
Germes de diamants.

Une démarche écoresponsable

Les diamants de culture ont exactement la même composition que les diamants naturels. De ce fait, leurs propriétés sont équivalentes. Passer par les laboratoires permet, selon Alix Gicquel, d’avoir une démarche plus éthique et écoresponsable. En effet, les diamants naturels sont récupérés dans des mines, qui sont particulièrement polluantes même si certaines font aujourd’hui des efforts à ce sujet, et impliquent de nombreux déplacements à travers le monde.

Elle revendique également le made in France même si pour l’instant, toutes les étapes n’ont pas encore lieu dans l’Hexagone. Les diamants sont produits dans leur laboratoire, puis taillés soit en France, soit en Inde. En effet, peu de tailleurs de diamants existent en France, c’est pourquoi Diam Concept a pour ambition d’accompagner un tailleur afin qu’il se développe et puisse avoir des rendements suffisants. Les diamants sont ensuite certifiés à l’International Gemological Institute en Belgique et enfin vendus à la joaillerie. La fondatrice de Diam Concept évalue le taux de carbone produit par sa démarche à moins de 20 kg de CO2 par carat contre 160 kg à 1 tonne de CO2 par carat pour les diamants de mine.

La réduction des déplacements explique également la baisse du prix. Même si les études ont démontré que le diamant de culture est produit avec un prix supérieur à l’extraction de diamants, la relation est ensuite quasiment directe avec le joaillier et il y a donc beaucoup moins d’intermédiaires. C’est pourquoi les diamants produits par Diam Concept sont vendus à environ -30 % par rapport aux diamants de mine.

Alix Gicquel et son équipe sont en phase de R&D et travaillent pour deux acheteurs. L’industrialisation est prévue pour 2021.

Étude du diamant produit au microscope.

Les réseaux de chaleur et de froid renouvelables, un pari gagnant

« Depuis 2009, le Fonds Chaleur a permis d’accompagner près de 5 355 opérations soit environ 2,27 milliards d’euros d’aide, ce qui a permis de mobiliser environ 7,9 milliards d’euros d’investissement, rappelle Arnaud Leroy, PDG de l’ADEME. Près de 40 % des aides du Fonds Chaleur ont été consacrées aux réseaux de chaleur, ayant permis de soutenir 1 050 réseaux pour une longueur de plus de 2 800 km, représentant une augmentation de 50 % du parc existant par rapport à 2008. »

Désormais, le mix énergétique des réseaux de chaleur et de froid atteint 57 % d’énergies renouvelables et de récupération, contre 30 % en 2009. Dans son étude « Développement des filières réseaux de chaleur et de froid renouvelables en France à horizon 2050 : impacts socio-économiques et environnementaux, stratégie et plan d’actions », l’ADEME explore les bénéfices d’un développement accru de la filière à l’horizon 2050.

Un développement des réseaux de chaleur et de froid à accélérer

La France a défini des objectifs de développement des réseaux de chaleur et de froid alimentés par les énergies renouvelables et de récupération dans le cadre de la loi de transition énergétique pour la croissance verte, la Programmation Pluriannuelle de l’Energie et la Stratégie Nationale Bas Carbone (SNBC). Mais « le rythme de la croissance des énergies renouvelables et de récupération injectées dans les réseaux constaté actuellement reste très insuffisant pour atteindre ces objectifs », alerte l’ADEME.

En 2023, la France devra livrer 24,4 térawattheures (TWh) de chaleur renouvelable et 1,1 TWh de froid. La chaleur devrait atteindre 39 TWh, le froid 2,2 TWh en 2030. Sans objectif de production, la SNBC invite à atteindre un taux de 100 % d’énergie renouvelable et de récupération dans les réseaux d’ici 2050. Pour atteindre les objectifs à 2030, l’ADEME calcule qu’il faudrait « un triplement » du volume délivré et du nombre de projets pour la chaleur renouvelable et « une multiplication par 10 » pour le froid.

Des atouts indéniables à mettre en avant pour l’ADEME

« Les réseaux de chaleur et de froid constituent un levier puissant, cohérent et pérenne d’activités économiques et de réduction de la facture énergétique territoriale avec un impact significatif sur la réduction des émissions de gaz à effet de serre », défend l’ADEME. En 2050, le nombre de kilomètres de réseaux alimentés par des énergies renouvelables et de récupération pourrait être multiplié par trois. Avec des taux de pénétration de la solution réseau de chaleur de l’ordre de 25 % (contre près de 5 % en 2018), et des taux d’énergies renouvelables et de récupération de 75 % à 100 %, la France pourrait alors alimenter près de 21 millions d’habitants en chaleur décarbonée. Les émissions baisseraient de 15 millions de tonnes équivalent CO2 par an, soit 12 % des émissions actuelles du secteur du bâtiment. En plus, la facture énergétique de la France diminuerait de 2,6 milliards d’euros grâce aux importations évitées. Et tout cela pour un prix public de la tonne de CO2 évitée intéressant, situé entre 27 et 46 euros, contre 59 euros pour l’éolien terrestre et 71 euros pour le photovoltaïque au sol.

Enfin, la filière pourrait représenter entre 4,2 et 5,2 milliards d’euros en 2050, soit quatre fois plus qu’en 2017. Cela permettrait de soutenir entre 41 000 et 57 000 emplois directs et indirects à cet horizon, entre 4 et 5 fois plus qu’en 2017. Dans cette perspective, l’ADEME propose plusieurs leviers d’actions pour accélérer le rythme de croissance des énergies renouvelables dans les réseaux de chaleur. Entre autres, elle invite les pouvoirs publics à revoir les soutiens financiers à la filière et à taxer les énergies fossiles.

Des véhicules autonomes plus intelligents grâce au « motion capture »

En mars 2018, aux États-Unis, un taxi autonome d’Uber en phase de test renverse mortellement une personne qui traversait en dehors d’un passage piéton. Selon le rapport du National Transport Safety Board  (NTSB), rendu il y a un an, le véhicule autonome avait bien détecté la victime, mais ne l’a pas identifiée comme étant une personne.

Même s’il n’existe pas de registre mondial consacré aux accidents de voitures autonomes, les start-ups spécialisées dans ce domaine doivent redoubler d’efforts pour limiter les risques d’accidents mortels. Même si on n’en compte que trois dans le monde, ils font immédiatement la une des médias.

De nombreux constructeurs, dont Renault, planchent donc sur des projets de véhicules proposant des systèmes d’aide à la conduite, plus connus sous l’acronyme d’ADAS (advanced driver-assistance systems).

D’autres intègrent le machine learning pour permettre aux véhicules d’anticiper de brusques changements de trajectoire ou tout autre événement. Mais les situations sont tellement nombreuses et encore imprévisibles que des start-ups travaillent à intégrer d’autres technologies.

C’est le cas de Cruise, une filiale de General Motors. Installée à San Francisco, elle teste la motion capture. Cette technique qui consiste à « capter » les mouvements est utilisée depuis des années au cinéma et dans les jeux vidéo. Cette solution est aussi employée depuis 2019 par des chercheurs de l’Université de Cambridge qui étudient l’impact d’une flotte de véhicules autonomes et communicants sur le trafic routier.

Cruise s’intéresse aux gestes des piétons. Pour nous, êtres humains, ils semblent évidents à comprendre. S’il y a des travaux dans une rue et qu’un ouvrier tient un panneau « Stop  », mais qu’en même temps il nous fait signe de passer, nous allons avancer tranquillement. Cette interprétation basique s’avère un casse-tête pour l’ordinateur d’un véhicule : faut-il tenir compte du panneau ou du geste de la main ?

Autre cas de figure classique  : un piéton qui commence à traverser une rue et qui agite le bras, car il vient de voir un ami en face. Là aussi, un automobiliste va ralentir, car il ne sait pas encore si la personne va traverser ou attendre que les voitures s’arrêtent. Mais comment l’ordinateur va-t-il interpréter cette attitude ?

Pour relever ces défis quotidiens en toute sécurité et sans interruption, les véhicules autonomes doivent comprendre les mouvements de la main ainsi que les gestes et le langage corporel des piétons.

« Nos modèles de machine learning ne disposent pas suffisamment de données de formation, car nos voitures ne font pas assez souvent l’expérience de gestes qui nous apparaissaient comme banals. Il nous faudrait des années pour obtenir suffisamment d’informations sur ces événements », reconnait Sean Harris, Engineering Manager chez Cruise.

Cruise a donc entrepris de dresser une liste exhaustive des gestes et mouvements du corps utilisés par les piétons : lever un bras et crier lorsqu’on voit un ami de loin, appeler un taxi, enlever son sac à dos…

« Pendant sept jours, nous avons fait parcourir à des acteurs une liste de gestes en utilisant chaque main séparément et dans certains cas ensemble. Nous avons obtenu 239 clips de trente secondes. Mais nous allons également travailler à mieux comprendre les gestes des cyclistes », explique Sean Harris.

Concernant l’accident mortel du taxi d’Uber en 2018, la femme de 49 ans marchait à côté de son vélo, de nuit, sur la chaussée, mais hors des clous. C’est l’une des raisons pour laquelle l’ordinateur ne l’avait pas identifiée comme une personne. Le rapport du NTSB précisait aussi que la technicienne dans le véhicule était en train de regarder… l’émission The Voice.

Transformer les déchets de polyéthylène en molécules à forte valeur ajoutée

Un tiers des plastiques produits dans le monde contient du polyéthylène. Mais parce qu’ils sont plus faciles et moins chers à produire qu’à recycler, les plastiques finissent en majorité leur vie dans la nature, qui met des siècles à les décomposer. La valorisation « matière » doit donc devenir économiquement viable, si nous voulons sortir de ce modèle privilégiant le plastique jetable.

La résistance chimique des plastiques : un frein au recyclage

Si les matières plastiques ont autant de succès, c’est en partie grâce à leur caractère chimiquement inerte. En effet, parce qu’elles ne se corrodent pas, cela fait bien longtemps que les conduites d’eau en PVC et polyéthylène sont utilisées à la place des métaux. Idem pour les bouteilles plastiques qui permettent de stocker des produits chimiques hautement corrosifs.

Paradoxalement, cette inertie chimique est aussi un problème, car elle empêche toute décomposition naturelle dans des délais acceptables : il faut ainsi des centaines d’années à la nature pour décomposer un banal sac plastique.

Pour ces mêmes raisons, le recyclage chimique artificiel s’avère complexe et énergivore. Sur le papier, c’est donc une alternative intéressante au recyclage mécanique, mais le coût énergétique dépensé pour revenir au monomère est souvent trop élevé, ce qui est problématique aussi bien du point de vue économique qu’environnemental.

Une méthode innovante

Produire des molécules à haute valeur ajoutée par recyclage chimique sans revenir au monomère est néanmoins possible. Les travaux présentés en détail dans la revue Science démontrent comment l’équipe de chercheurs de l’Université de Californie, Santa Barbara, a réussi la synthèse de molécules alkylaromatiques (des composés rencontrés fréquemment dans les peintures, lubrifiants, solvants, détergents et produits pharmaceutiques) à partir de déchets de polyéthylène.

Cette méthode, qui a l’avantage de ne pas employer de solvants ou d’hydrogène, mais uniquement un catalyseur à base de platine et d’alumine (Pt/Al2O3), permet à la fois de briser les chaînes carbone-carbone et de réarranger la structure moléculaire du polymère pour former des molécules aromatiques.

Fan Zhang, premier auteur de cette publication et post-doctorant précise dans un communiqué de presse : « Les molécules aromatiques sont réputées pour être difficiles à synthétiser […]. Ici, pendant la formation d’aromatiques à partir de polyoléfines, de l’hydrogène est coproduit et réutilisé pour casser les chaînes polymères […]. Au final, nous obtenons de longues chaînes alkylaromatiques et c’est un résultat fascinant. »

Les travaux de cette équipe de chercheurs ne sont qu’un exemple parmi les multiples mesures qui ne demandent qu’à être prises pour assurer la transition de l’industrie plastique vers un modèle circulaire et non plus linéaire.

TOP 5 : les articles les plus lus en #novembre2020

1. Une membrane biomimétique plus performante pour dessaler l’eau de mer

Des chercheurs ont fabriqué une nouvelle membrane pour dessaler de l’eau de mer à grande échelle grâce au procédé d’osmose inverse. Elle s’inspire directement d’une protéine localisée dans les membranes cellulaires des plantes et des animaux.

2. Lubrizol : retour sur la gestion de l’incendie et de ses conséquences

Lors d’un accident industriel, l’Etat mobilise ses services pour assurer la gestion de crise. C’est ainsi que l’Ineris est intervenu lors de l’accident de Lubrizol. Retour sur cet épisode.

3. Sept pays menacent les objectifs climatiques de l’UE

Selon un nouveau rapport du think-tank Ember, sept pays européens menacent les objectifs climatiques de l’Union européenne à cause de leur recours au charbon.

4. Apple pris en flagrant délit de mensonge sur la protection de la vie privée ?

Officiellement, macOS a été conçu pour assurer la sécurité des utilisateurs et de leurs données tout en respectant leur vie privée. Mais ce système d’exploitation comprend une technologie appelée Gatekeeper dont les comportements ont paru suspects à des chercheurs en cybersécurité.

5. [Webinar] ICPE et FDS : comment déterminer les numéros de rubriques ICPE et classement Seveso grâce aux FDS ?

Entre les évolutions des réglementations sur les produits chimiques : CLP, Reach…, leurs impacts sur les Fiches de Données de Sécurité, et les évolutions de la réglementation ICPE (Installations Classées pour la Protection de l’Environnement), il est important de se tenir à jour des dernières modifications réglementaires pour assurer la conformité de son site industriel.

Les odeurs du passé bientôt ressuscitées grâce à l’intelligence artificielle

La musique, l’opéra, la peinture, la calligraphie, le chant traditionnel… sont aujourd’hui considérés comme faisant partie du patrimoine immatériel de l’humanité. Ils font d’ailleurs l’objet de mesures de sauvegarde de la part de l’Unesco. Tous ces domaines ont pour points communs de faire appel à deux sens très utilisés chez l’homme, à savoir la vue et l’ouïe. Jusqu’ici, l’odorat n’a jamais été considéré comme l’un des sens devant être conservé. La Commission européenne, à travers son programme H2020, vient de sélectionner un projet dont l’objectif est de créer une encyclopédie des odeurs du passé. Financé à hauteur de 2,8 millions d’euros, il regroupe une quarantaine de chercheurs européens dont des historiens d’art, des linguistes, des spécialistes des odeurs mais aussi… des informaticiens. L’intelligence artificielle va en effet jouer un rôle crucial dans ce programme de recherche nommé Odeuropa.

Pour le mener à bien, les chercheurs vont reconstituer les odeurs allant du XVIe au XXe siècle en Europe à partir des écrits et des images de cette époque. Un inventaire du matériel primaire utilisé a déjà été réalisé. Des dizaines de milliers de textes rédigés dans sept langues différentes, dont le latin, ont été recensés. Entre 250 000 et 400 000 images ont également été répertoriées comme des dessins et des tableaux. Tous ces documents proviennent de bibliothèques et des musées disséminés aux quatre coins de l’Europe et présentent l’avantage d’être déjà numérisés.

Un surentraînement de l’algorithme sera nécessaire

Il existe déjà des algorithmes entraînés pour reconnaître des noms de lieux, des personnes, des expressions temporelles… C’est grâce à eux par exemple que des assistants conversationnels comme Google Home, Siri ou Alexa fonctionnent. Mais dès que le champ lexical devient spécialisé, il devient nécessaire d’entraîner la machine à reconnaître ce nouveau domaine. Les informaticiens vont dans un premier temps surentraîner l’algorithme afin qu’il soit en mesure d’extraire toutes les mentions faisant référence aux odeurs. Pour cela, ils vont lui donner un grand nombre de vocabulaires, de lexiques, de glossaires relatifs aux odeurs ainsi qu’aux émotions associées. « Dans cette phase d’amorçage, nous allons analyser dans quelle mesure la machine réussit à reconnaître ces termes, ces mentions spécifiques dans les documents, puis nous regarderons quels sont ceux les plus fréquemment employés, explique Raphaël Troncy, enseignant-chercheur à Eurecom. À partir de là, nous verrons si nous avons besoin d’augmenter notre champ lexical. »

Cette étape ne sera pas suffisante. Au-delà du champ lexical lié aux odeurs, il sera aussi nécessaire de comprendre dans quel contexte il est mentionné, c’est-à-dire à l’occasion de quel événement, quel rite, à quelle période… Les historiens savent déjà que l’odeur du romarin était très présente au moment de la peste, puisque selon la croyance populaire de l’époque, elle permettait de se protéger contre l’épidémie. Mais dans le cas de l’odeur de la rose par exemple, était-elle fréquemment employée à l’occasion des mariages ?

Les informaticiens vont utiliser une autre technique de l’intelligence artificielle : l’apprentissage profond, plus couramment appelé « deep learning ». Ce dernier repose sur la création d’un réseau artificiel de neurones, calqué sur celui des humains. C’est un dérivé du machine learning, c’est-à-dire de l’apprentissage automatique, un processus par lequel l’algorithme est capable d’apprendre par lui-même. Pour ce projet, au fur et à mesure de la lecture des textes, l’algorithme va naturellement commencer à associer des mots avec le contexte dans lequel il est le plus fréquemment employé. « Tous les mots dans un texte n’ont pas le même poids, la même valeur, poursuit le chercheur. L’algorithme va donc porter son attention sur les mots placés avant et après ceux décrivant une odeur. Ensuite, grâce à l’usage du traitement statistique et à la cooccurrence entre les mots ainsi qu’à un processus de mémorisation, il va réussir petit à petit, au fur et à mesure de son entraînement, à définir précisément le contexte. »

S’inspirer des algorithmes utilisés dans la reconnaissance faciale

Concernant les dessins et les peintures, toutes les allégories visuelles relatives au champ olfactif seront également identifiées. Là encore, un algorithme va faire le travail. Dans de nombreux tableaux des XVIe et XVIIe siècles représentant des natures mortes, il devra par exemple repérer les figures faisant référence au sens olfactif comme les fruits. Les chercheurs vont s’inspirer des algorithmes utilisés dans la reconnaissance faciale. Eux aussi fonctionnent grâce à des réseaux de neurones dont le rôle est de convertir chaque image en un prisme numérique. Puis de comparer et analyser toutes les figures entre elles et identifier celles déjà connues comme ayant un lien avec le champ olfactif.

Trois années de travail seront nécessaires pour mener à bien ce programme de recherche. Il devrait se finaliser par la création d’un graphe de connaissance ; il s’agit d’une base de données dans laquelle toutes les informations extraites ont été structurées. L’équipe française d’Eurecom sera en charge de ce travail. « Ce graphe de connaissance sera accessible à des développeurs d’applications à l’état brut, ajoute Raphaël Troncy. Nous allons également développer notre propre application en direction du grand public. Elle prendra la forme d’un moteur de recherche permettant d’explorer, à partir d’une odeur, tous les textes et les images faisant référence à cette odeur et d’en restituer le contexte historique particulier. »

À terme, il est également prévu d’organiser des expositions dans des musées européens. Toutes ces odeurs auront été reconstituées au préalable par des chimistes et des parfumeurs. Le public pourra les sentir durant leur visite afin que l’immersion dans le patrimoine olfactif de l’Europe soit complète.

Identifier les points faibles des métaux avant l’apparition de fissures

Qu’il s’agisse de ponts ou bien de moteurs d’avion, la fissuration des structures métalliques s’avère souvent catastrophique. Des chercheurs de l’université américaine Johns Hopkins ont développé une méthode permettant de détecter plus tôt la présence de points faibles, en comparaison avec les moyens actuels.

Disque métallique fissuré provenant d’un moteur d’avion. Crédit : Jaafar A. El-Awady, professeur d’ingénierie mécanique à l’université Johns Hopkins

Une meilleure compréhension des mécanismes de fissuration par fatigue

Dans une étude récente publiée dans la revue Science, l’équipe de chercheurs démontre la corrélation entre l’apparition des premiers dommages à l’échelle micrométrique et l’emplacement hypothétique de la fissure. Ils ont ainsi constaté la nucléation d’une bande de glissement persistante à l’intérieur des microcristaux, qui se propage graduellement jusqu’à couvrir l’ensemble de la zone de glissement.

Jaafar A. El-Awady, auteur de cette publication et professeur d’ingénierie mécanique à l’université Johns Hopkins, est enthousiaste : « Nous sommes maintenant capables d’avoir une compréhension plus fondamentale de ce qui provoque l’apparition de fissures. D’un point de vue pratique, cela va nous permettre de comprendre et prévoir quand et comment le matériau va se fissurer », annonce-t-il dans un communiqué de presse.

Vers une maintenance maîtrisée et beaucoup moins coûteuse

Le passage répété des véhicules sur les ponts ou les changements de pression dans les avions sont autant d’exemples d’exposition à des charges cycliques, un phénomène capable d’endommager les plus durables des métaux jusqu’à l’apparition de fissures.

Pour éviter cela, l’industrie aéronautique met en place une maintenance programmée qui conduit au remplacement fréquent de nombreuses pièces, mais sans vraiment savoir si elles sont endommagées ou non. Prévoir l’apparition de fissures permettrait ainsi de déterminer la durée de vie de ces pièces de manière beaucoup plus précise, évitant des remplacements parfois inutiles.

Jaafar A. El-Awady ajoute : « Actuellement, un composant sain qui ne tombera jamais en panne peut être jeté, simplement sur la base d’arguments statistiques. C’est un gaspillage considérable. »

Un mois dans l’espace #11

Retour sur l’échec du lanceur Vega

Le 17 novembre dernier, le lanceur européen Vega a décollé du centre spatial guyanais, pour effectuer la mission intitulée W17. Le but, mettre en orbite deux satellites : Tanaris, développé par le CNES, et Seosat-Ingenio, construit par Airbus Space. Si le décollage s’est bien passé, c’est 8 minutes après que les choses se sont gâtées : après l’allumage du moteur de l’étage supérieur, les ingénieurs ont constaté un écart de trajectoire. Dès lors, la vitesse du lanceur était trop faible pour mettre en orbite ces deux satellites. La mission a été déclarée perdue 2 heures plus tard.

Remplissage en ergol du satellite Taranis dans le batiment S5B du centre spatial guyanais.

Il s’agit pour le secteur spatial européen d’un échec majeur. En effet, les deux satellites sont définitivement perdus.

Tanaris devait récolter des données sur les événements lumineux transitoires, sur lesquels les scientifiques comptaient beaucoup pour faire évoluer les connaissances sur ces phénomènes pour l’instant mystérieux.

Seosat-Ingenio, lui, avait pour mission de réaliser les clichés de la Terre avec une résolution de 2,5 m et un taux de revisite de 3 jours, afin de fournir des informations pour la cartographie, l’agriculture, le développement urbain, et la gestion de l’eau pour le compte de l’ESA.

Les causes de l’accident ont été rapidement dévoilées, mettant en avant une erreur humaine, en l’occurrence une confusion dans un branchement de câble.

Première mission certifiée pour Crew Dragon

Dimanche 15 novembre, l’entreprise SpaceX a envoyé 4 astronautes en direction de la Station spatiale internationale (le décollage en vidéo ci-dessous). La capsule a été baptisée Resilience en écho à la situation sanitaire mondiale actuelle. Il s’agit d’une première, puisque jusqu’ici jamais une capsule habitée n’avait été envoyée dans l’espace avec 4 membres d’équipage.

Le lancement, initialement prévue à 19h49 a été retardé en raison des conditions météo qui compromettaient la bonne récupération des lanceurs. Après quelques 19h de vol, la capsule s’est amarrée normalement et de manière autonome à la station spatiale internationale (voir vidéo ci-dessous).


C’est une grande victoire pour le secteur spatial américain, tributaire jusque-là de lanceurs étrangers, notamment la capsule Soyouz, pour acheminer des astronautes vers l’ ISS.

Le patron de la NASA, Jim Bridenstine, s’en est félicité en ces termes : « Je suis extrêmement fier de dire que nous reprenons les vols spatiaux habités réguliers envoyés depuis le territoire américain, avec une fusée et un vaisseau américain. »
La prochaine mission spatiale habitée opérée par SpaceX, prévue pour la fin du mois de mars 2021, emmènera Thomas Pesquet, ainsi que deux astronautes américains et un astronaute japonais, toujours en direction de l’ISS.

La Chine poursuit son « objectif lune »

Le 24 novembre dernier, la Chine a lancé une nouvelle mission très ambitieuse. Son but ? Envoyer une sonde sur la Lune afin de ramener sur Terre des échantillons du sol de notre satellite naturel. Le lancement, qui s’est effectué avec succès, n’a pas fait l’objet d’annonces particulières de la part du gouvernement chinois, qui reste très discret dans sa communication sur tous les sujets tournant autour de son programme spatial. Après avoir mené avec succès une mission pour faire tourner un orbiteur autour de la Lune puis une autre visant à se poser et à faire rouler un Rover sur l’astre, il s’agit donc d’une troisième étape très importante pour le secteur spatial chinois. En effet, c’est la première fois qu’une mission prélève des fragments de sol lunaire pour les ramener sur Terre, sans présence humaine à bord.

Clap de fin pour le téléscope Arecibo

Arecibo, l’immense télescope de Porto Rico rendu célèbre par James Bond, va être démonté, après 57 ans d’exploitation par les scientifiques.

L’observatoire d’Arcibo à Porto Rico ©Arecibo observatory

À la suite d’une série d’accidents, le célèbre télescope n’était plus utilisable et menaçait même de s’effondrer. Décision a donc été prise de le démolir. Le dernier incident en date a vu un des câbles soutenant la plateforme de 900 tonnes perchée à 150 m au-dessus de l’antenne collective se rompre, abîmant cette dernière et fragilisant dangereusement l’ensemble de la structure de l’édifice. 

Sciences et Avenir a collecté les témoignages d’astrophysiciens ayant travaillé sur ce télescope, et qui permettent de mieux comprendre à quel point Arecibo fut, pendant des dizaines d’années, l’épicentre des grandes découvertes qui nous permettent de mieux comprendre notre univers aujourd’hui.

par Pierre Thouverez

France Stratégie veut maîtriser la consommation énergétique du numérique

« Si rien n’est fait pour contenir la croissance du parc d’équipements et l’explosion du trafic, un doublement de la consommation énergétique du numérique devrait être constaté entre 2017 et 2025 », s’alarme France Stratégie dans un nouveau rapport. L’institution reprend à son compte les projections du Shift Project. Selon elles, la consommation énergétique mondiale liée au numérique est passée de 2 000 à 3 000 térawattheures (TWh) par an, entre 2013 et 2017, pour s’établir à 14 % de la consommation électrique et environ 2,7 % de la consommation globale d’énergie finale au niveau mondial. Il s’agit d’une hausse de 50 %, contre +10 % pour la consommation électrique mondiale sur la même période. La croissance de la consommation du numérique devrait rester sur le même rythme pour atteindre entre 5 700 et 7 300 TWh en 2025, soit entre 4,7 % et 6 % de la consommation globale d’énergie finale. Fin 2017, le numérique représentait déjà 3,4 % des émissions totales de gaz à effet de serre et pourrait atteindre 7,6 % en 2025.

De quelle consommation parle-t-on ?

La consommation considérée comprend l’intégralité de l’infrastructure du numérique. Le principal poste est la production des équipements : 45 % de la consommation totale du secteur en 2017. On trouve ensuite les data centers (20 %), les équipements terminaux (19 %) et les réseaux (16 %). L’explosion du trafic global des data centers, multiplié par 4 entre 2011 et 2016 et porté par l’essor du cloud, en fait le segment qui progresse le plus rapidement. Sa consommation augmente de 16,4 % sur la période.

La société Cisco attend encore une multiplication par trois du trafic des data centers sur les cinq prochaines années. Dans la projection médiane, la production reste le principal segment de consommation en 2025, autour de 39 %, suivie par les data centers (30 %), les équipements terminaux (14 %) et les réseaux (16 %).

Les usages en question

Relevons quelques chiffres importants pour comprendre l’évolution des usages. La société Cisco estime que l’ensemble des équipements connectés à Internet, comprenant les objets connectés devrait passer de 18,4 milliards en 2019 à 29,3 milliards en 2023. Le trafic mobile représente environ 9 % du trafic mondial d’Internet mais augmente rapidement : il devrait représenter 20 % en 2022 prévoit Cisco. La vidéo représente déjà 75 % du trafic en 2017 et devrait atteindre 82 % en 2022. À lui seul, le service de vidéos Netflix représente 15 % du trafic Internet mondial, 24 % en France. L’essor de la haute définition, très consommatrice en bande passante participe activement à la hausse de la consommation.

En plus de la multiplication des vidéos, les experts craignent les effets de l’essor de l’Internet des objets sur les consommations énergétiques du numérique. Si la consommation énergétique de l’Internet des objets est encore peu étudiée, la multiplication attendue de ces objets devrait avoir un impact important. « Cette croissance devrait être essentiellement portée par la consommation des dizaines de milliards d’objets attendus, tandis que la consommation supplémentaire qu’ils induisent en amont dans les réseaux télécoms et les data centers devrait rester faible, analyse France Stratégie. La consommation liée à la production qui risque d’être élevée, n’est à ce stade pas documentée. »

De nouveaux moyens de maîtrise de l’énergie à déployer

Face à ces projections, France Stratégie assure que la réponse traditionnelle reposant uniquement sur les gains énergétiques liés au progrès technologique sera insuffisante. Les efforts se concentrent actuellement sur les grandes infrastructures numériques, à savoir les réseaux télécoms et les data centers. Certes, les réseaux en fibre optique consomment beaucoup moins que les réseaux cuivre, et la 5G consommera moins que la 4G à débit équivalent. Mais France Stratégie identifie trois facteurs qui empêchent une maîtrise efficace de cette consommation.

Tout d’abord, l’institut fustige la mauvaise gestion des infrastructures, via l’existence en parallèle de plusieurs générations de réseaux télécoms et le manque d’optimisation du taux d’utilisation des équipements dans les data centers. En plus, il constate un accroissement constant des usages et du trafic Internet. En particulier, la multiplication du trafic de données liées aux vidéos et la hausse des connexions Internet ne permettent pas de maîtriser la consommation globale. Fin 2018, 51,2 % de la population mondiale disposait d’une connexion Internet selon l’Union internationale des télécommunications (UIT), chiffre qui est amené à augmenter rapidement. Enfin, France Stratégie observe que le progrès technologique influe peu sur la consommation énergétique liée à la production des équipements et laisse donc de côté un poste majeur de consommation.

Suite à l’échec du lancement de Taranis, le CNES prépare un Taranis 2

Les scientifiques qui ont travaillé à la conception du satellite Taranis ont vécu des moments craints par les acteurs de l’aérospatial. Dans la nuit du 16 au 17 novembre, le lanceur Vega qui transportait Taranis a été victime d’une défaillance. Quelques minutes plus tard, le lanceur s’est écrasé dans l’océan Arctique, avec à son bord deux satellites. Christophe Bastien-Thiry, chef du projet Taranis au CNES, revient sur cet accident exceptionnel, et explique comment lui et ses équipes se préparent à concevoir un Taranis 2.

Techniques de l’Ingénieur : Que s’est-il précisément passé avec la fusée Vega qui transportait Taranis ?

Christophe Bastien-Thiry : Le dernier étage du lanceur AVIM et les deux satellites qu’il transportait se sont mis à tournoyer très fortement. Il n’était plus possible de contrôler les tuyères qui servaient à orienter le lanceur. Il n’était plus possible de le guider, ni de modifier sa trajectoire. Les directions droites et gauches ont été inversées. De ce fait, il a subi une grande déviation de sa trajectoire. À cause de l’effet toupie dans lequel le lanceur et les satellites se sont retrouvés, la poussée perdait de son intensité. Le lanceur se trouvait à 247 kilomètres d’altitude au moment où le moteur a été mis en route. Et très peu de temps après, son altitude a commencé à fortement décroître. Puis le lanceur est passé dans une phase pseudo balistique, le moteur n’ayant plus aucune efficacité. Enfin, quelques minutes après le tir, l’ensemble s’est écrasé sur la calotte glaciaire de l’océan Arctique.

Quelle a été la cause de l’accident ?

Lors de la phase de montage du moteur du lanceur qui a eu lieu en Ukraine, il y a eu une inversion dans l’assemblage des câbles, dans les commandes. Et celle-ci n’a été décelée à aucun moment. C’est peut-être ce qu’il y a de plus grave, c’est qu’il y a eu une défaillance d’une chaîne de procédures, de contrôles et de vérifications. Il n’y avait pas de détrompeurs qui auraient permis d’éviter l’inversion de ces câbles. Il n’y a pas non plus eu de contrôle qualité, ni de test de bout en bout. Une commission d’enquête indépendante, désignée par Arianespace et l’Agence spatiale européenne, est chargée de définir le moment où la défaillance a eu lieu. L’éventualité d’une erreur humaine n’est pas exclue.

Ce type d’accident est-il courant ou reste-t-il exceptionnel ?

De nos jours, dans le spatial moderne, c’est complètement hallucinant d’observer cela. Ce genre d’accident pouvait se produire aux prémices de l’histoire des lanceurs. C’est une erreur hallucinante parce qu’elle est passée à travers plusieurs mailles. À l’époque d’Arianespace, il y avait également eu de bêtes erreurs. Je me souviens qu’il y avait eu une Ariane IV qui avait explosé suite à une réparation sur un tuyau. L’opérateur avait oublié de retirer un bout de chiffon qu’il avait placé là afin d’éviter que de la limaille ne vienne se poser. Et encore dans ce cas, l’erreur a eu lieu lors d’une réparation. Alors que dans le cas du lanceur Vega, l’erreur s’est produite au montage. Par ailleurs, sur l’exemplaire suivant de ce moteur, destiné à la fusée Vega qui devait être lancée début 2021, la même inversion était présente.

Comment avez-vous vécu la perte du satellite ?

C’est une énorme frustration, une déception incommensurable. C’est, pour certains d’entre nous, une quinzaine d’années de travail qui se retrouvent gâchées, qui tombent à l’eau en quelques instants. C’est un cauchemar auquel nous avons du mal à croire. En observant ce triste spectacle en pleine nuit, nous avons eu l’impression d’assister à un véritable cauchemar. Depuis Toulouse, j’étais personnellement en contact avec les collègues qui étaient en salle Jupiter, à Kourou, au centre spatial guyanais. Eux avaient sous les yeux la trajectoire qui s’inclinait et les commentaires qui commençaient à arriver des spécialistes. Très rapidement, nous avons su qu’il y avait un problème.  Nous sommes très rapidement passés de « il y a un problème » à « c’est grave », puis « c’est mort ». Pour nous, la douche a été froide, glaciale même.

L’observation des phénomènes lumineux qui se produisent au-dessus des orages reste-t-elle d’actualité ?

Dans la nuit même du tir, Jean-Yves Le Gall, le président du CNES, m’a appelé personnellement pour me faire part de sa tristesse partagée. Il m’a très rapidement dit qu’il demanderait sans délai au CNES de réfléchir à un nouveau Taranis. Il a affirmé sa volonté de mettre au plus vite une mission Taranis à l’étude, pour pouvoir couvrir cette thématique scientifique qui est très peu explorée. Le comité exécutif du CNES a validé cette décision. Cela est d’autant plus essentiel que Taranis n’a pas de concurrence, il n’y a pas d’autre mission en prévision destinée à couvrir cette science. La pertinence de Taranis reste vraie, et le sera encore durant plusieurs années.

Comment va s’organiser votre travail dans les prochaines semaines ?

Notre président nous a donné mandat pour constituer un groupe de travail commando, une Task Force, que je dirige. Le mandat nous demande de réfléchir à une solution qui permette un développement rapide. Notre mission est de proposer à notre direction d’ici fin janvier un projet de développement d’un Taranis 2. Il devra reprendre le domaine scientifique que devait couvrir Taranis 1. Nous travaillons avec l’équipe initiale du projet, mais également avec d’autres experts CNES pour définir les grandes lignes de ce que sera ce Taranis 2. Nous savons d’ores et déjà que nous ne pourrons pas le refaire à l’identique du fait de certains équipements obsolescents, à l’instar de la plateforme Myriade, qui avait été créée dans les années 2000. Certains de ses éléments ne sont plus construits, donc on va en profiter pour rechercher une plateforme qui nous permette d’aménager plus facilement tous les instruments de mesure.

Êtes-vous en capacité de dire quand et dans quelles conditions Taranis 2 sera conçu et lancé ?

À l’heure actuelle, nous ne pouvons pas avancer de date pour le lancement de Taranis 2. Nous y verrons plus clair d’ici fin janvier. Dans le dossier que nous présenterons à notre direction, il y aura un calendrier, des hypothèses de budget, et surtout des scénarios d’intervention. Nous aurons un budget à respecter, qui sera certainement moindre que celui de Taranis 1, qui était de 110 millions d’euros. Nous aurons également moins de temps pour développer Taranis 2. Pour tenir compte de ces contraintes, nous travaillerons de nouveau avec les partenaires industriels qui nous avaient accompagnés, notamment les PME et les PMI. De manière générale, nous allons réadapter l’existant, et non réfléchir à la conception de nouveaux outils.

Le meilleur de la tech #1

S’inspirer des mammifères du désert pour garder les objets au frais

 Garder les bâtiments et les produits alimentaires et pharmaceutiques au frais a un coût énergétique important. Des chercheurs du MIT (Massachusetts Institute of Technology) semblent avoir trouvé la parade à cette surconsommation. Leur idée est simple : profiter de l’énergie de vaporisation pour refroidir ou maintenir à température un objet. Mais de tels travaux se heurtent à une demande en eau non négligeable ainsi qu’au problème du réchauffement de l’environnement. Pour y répondre, les chercheurs ont donc puisé directement dans les méthodes employées par les animaux du désert. Leur étude sur l’emploi que le chameau fait de sa fourrure est parue le 11 novembre 2020 dans Joule.

Les glandes sudoripares permettent à l’animal de suer et, par évaporation, de diminuer la température de son corps. Les chameaux sont aussi pourvus d’une fourrure qui, en plus de les réchauffer la nuit, les isole de la chaleur en journée. Les scientifiques s’en sont inspirés pour confectionner un matériau transparent bi-couche. La première couche en hydrogel perd son eau par évaporation, imitant la transpiration des mammifères. La seconde en aérogel de silice se rapproche de leur fourrure. En effet, elle a la particularité d’être isolante thermiquement de par sa conductivité ultra-basse, tout en étant hautement poreuse et donc perméable à la vapeur. Le refroidissement obtenu par cette méthode est 400 % plus long que les designs mono-couche actuels. Cette découverte pourrait permettre d’alléger la demande en énergie dans ce domaine, attendue pour tripler d’ici 2050, ainsi que son impact sur le changement climatique.

Un capteur presque invisible

Que peut-on apprendre avec un simple toucher ? Des données utiles pour des applications dans le sport, les sciences médicales ou même la neuroingénierie, selon les chercheurs de l’Université de Tokyo. Principal problème pour les récolter : réussir à concevoir des capteurs ne gênant ni le porteur ni le ressenti de la peau elle-même. Dans cette optique, des scientifiques de Tokyo ont présenté leur propre capteur dans Science le 20 novembre 2020. Située sur le bout des doigts, leur invention est capable d’enregistrer la pression exercée sans effets notables sur la sensation du porteur. L’adhérence des doigts est seulement améliorée de 14 % par la présence du capteur, ce qui est comparable aux mains nues.

Ledit capteur est un film polymérique épais de 2 micromètres et formé par électro-filage, à la manière d’une araignée tissant sa toile. Il se compose de deux couches différentes. L’une est une maille de polyuréthane isolant, épaisse de 200 à 400 nanomètres – environ 1/500e de l’épaisseur d’un cheveu. L’autre est un réseau d’or façon pochoir, le composant électrique du capteur. Les chercheurs souhaiteraient également le voir servir à l’archivage numérique de travaux manuels. Que ce soient ceux d’artisans comme de chirurgiens, une telle bibliothèque permettrait d’entraîner des machines à réaliser des tâches avec un degré de fidélité encore jamais vu.

L’IRM portatif au secours des malades

Traumatismes crâniens et cancers du cerveau sont évalués par IRM (Imagerie par Résonance Magnétique). Une technique d’imagerie médicale dont l’accès reste malheureusement limité, aussi bien par les coûts qu’elle induit que par les infrastructures spéciales qu’elle demande et par son immobilité. Voilà pourquoi des chercheurs du MGH (Massachusetts General Hospital) ont fait en sorte de la rendre moins chère et portable. La présentation de leur prototype a été publiée le 23 novembre 2020 dans Nature Biomedical Engineering. Leur scanner portable, uniquement réservé à imager le cerveau, peut être transporté en chariot. Il utilise un aimant cylindrique aux terres rares compact et léger, de 122 kg – contre plusieurs tonnes actuellement.

L’ensemble du prototype (aimant, bobines, amplificateurs, console et chariot) ne dépasse pas les 230 kg et peut être déplacé par une seule personne. Avec des composants légers, il pourrait même descendre à 160 kg au total. Pouvant être branché à une simple prise standard, il est même plus silencieux que les appareils en service. Des versions futures de ce prototype pourraient venir équiper les ambulances, les cabinets de médecins et les lieux difficiles d’accès. Il améliorerait de façon significative l’accès à l’IRM du cerveau pour de nombreux patients, notamment pour des cas graves.