C’est l’été

Chez Techniques de l’Ingénieur, nous profitons de ce moment  pour recharger nos batteries… et nos connaissances ! Et comme nous sommes partageurs, nous vous proposons d’en profiter également. Cette année, c’est Céline, la dernière arrivée dans l’équipe marketing, qui vous présente sa sélection d’articles.

Des quiz peuvent se cacher au détour de ces articles qui sont ouverts en libre accès pour l’occasion, à vous de découvrir où ! 

Piochez, cherchez : la période estivale est un bon moyen pour apprendre en se détendant.

Sur la route des vacances :

Profiter de la nature (et la protéger) :

Les indispensables de l’été :

L’été au musée :

Bonne lecture et bel été ! 

SNBC sous contrainte de ressources : l’électrification, cette filière au cœur de la décarbonation qui repose sur l’utilisation de ressources critiques

Un résumé de l’étude SNBC sous-contrainte de ressources est disponible en téléchargement sur le site de Capgemini Invent. La version complète est disponible ici. Les enjeux de cette étude sont également abordés dans notre interview d’Emmanuelle Ledoux, directrice générale de l’INEC.

L’électrification est au centre des stratégies bas carbone

Vecteur d’énergie incontournable, l’électricité fait partie intégrante de tous les scénarios publics de décarbonation. L’accroissement des besoins en électricité décarbonée va ainsi nécessiter l’installation de nouvelles unités de production (nucléaire, solaire, éolien) en complément de l’hydraulique et d’autres formes de production thermique basées sur la biomasse.

Concernant la mobilité, l’électrification massive du transport routier est désormais annoncée. D’après l’étude, dans les principaux scénarios, l’électrification routière est ainsi estimée entre 91 % et 99 % pour le parc de véhicules légers et entre 17 % et 70 % pour le parc de véhicules lourds en 2050.

Lithium, cobalt, platinoïdes et terres rares : des ressources critiques et hautement stratégiques

Le lithium, le cobalt et les platinoïdes sont des ressources absolument indispensables au passage à la mobilité électrique. Compte tenu de l’accroissement de la demande, on estime cependant que les réserves disponibles seront épuisées d’ici 50 ans.

Par ailleurs, trois pays producteurs, dont la Chine et la Russie, se partagent la majorité du marché de l’extraction et de la première transformation, ce qui pose d’évidents problèmes géostratégiques, surtout dans le contexte actuel.

Si les terres rares ne sont pas critiques du point de vue de la disponibilité géologique, il s’agit encore une fois d’une problématique géostratégique, la Chine contrôlant plus de 80 % du marché mondial actuel.

Les ressources utilisées pour chaque filière d’électrification et leur index de criticité globale
Les ressources utilisées pour chaque filière d’électrification et leur index de criticité globale (Crédit : Public. © 2022 INEC & Capgemini. All rights reserved.)
14 ressources de l’étude et leur score de criticité
Les 14 ressources prises en compte dans l’étude, leur score de criticité suivant les 6 critères et leur score moyen[1]. (Crédit : Public. © 2022 INEC & Capgemini. All rights reserved.)

Mixer les solutions : la meilleure option ?

Cette question de la criticité est un problème majeur à moyen terme, alors que le Parlement européen a voté en faveur de l’interdiction, à partir de 2035, de la vente de véhicules neufs à moteur essence ou diesel !

Ne vaudrait-il pas mieux mixer les solutions, plutôt que de passer au 100 % électrique ?

C’est en tout cas l’avis d’Alain Chardon (Capgemini Invent), co-auteur de l’étude : « Si on additionne les ressources utilisées à la fois pour la construction du véhicule et le carburant en lui-même, on se rend compte qu’il est préférable de mixer les solutions, plutôt que de passer au 100 % électrique. »

Par ailleurs, concernant la mobilité hydrogène, l’étude fait un constat intéressant. Du point de vue des ressources, la voiture électrique est plus critique que la voiture à hydrogène[2] ! En effet, par rapport aux véhicules électriques, les véhicules à hydrogène ont un avantage : « Leur réservoir et leur pile à combustible leur permettent d’avoir une batterie beaucoup plus petite. »

Puis il ajoute : « Avant, nous avions des solutions, one fit for all (universelles). Le pétrole servait à tout. Quand on avait une solution, on l’appliquait partout, c’était pratique. Quand on prend en compte l’ensemble des contraintes (climat, criticité, biodiversité, coût, impact social, etc.), on comprend bien que désormais aucune solution ne peut résoudre tous les problèmes.

Alors que la plupart des grandes entreprises sont en train de passer à des flottes de véhicules électriques, cette étude vient démontrer que du point de vue des ressources, ce n’est pas une solution idéale, chaque véhicule embarquant 300 à 400 kg de batterie. En revanche, pour les déplacements périurbains, de quelques kilomètres, nous montrons que l’utilisation de petits véhicules électriques (Vélo à assistance électrique, trottinette électrique, véhicules de type Citroën AMI) est une bonne alternative.

En France, le terme “sobriété” est mal vu, car mal compris. N’oublions pas que la traduction du mot sobriété, en Anglais, est sufficiency, ce qui veut dire “utiliser uniquement ce qui suffit à nos besoins ou à nos objectifs”. Du point de vue du décideur en entreprise, comme chez les particuliers, se poser la question des objectifs et de la sobriété, c’est faire de la stratégie : qu’est-ce qui est vital, qu’est-ce qui est superflu, voire contreproductif ou nocif ? »


[1] Concernant l’aspect méthodologique, nous vous invitons à lire l’interview d’Alain CHARDON, de Capgemini

[2] 100% hydrogène « vert »

Une méthodologie innovante pour évaluer la criticité des ressources

Dans un précédent article, Emmanuelle Ledoux, la directrice générale de l’INEC, nous a présenté les enjeux de cette étude qui examine la transition bas carbone sous l’angle des ressources.

Alain Chardon est directeur en charge des nouvelles plateformes durables chez Capgemini Invent. (Crédit : Capgemini)

Capgemini Invent est la marque d’innovation digitale, de design et de transformation du groupe Capgemini.

Alain Chardon travaille sur les sujets de transition bas carbone depuis une quinzaine d’années, chez Capgemini Invent.

Techniques de l’ingénieur : Cette étude examine la transition bas carbone sous l’angle des ressources. Pourquoi avoir mis en place une méthodologie spécifique ?

Alain Chardon : Notre méthodologie a été conçue pour satisfaire à deux objectifs.

Nous voulions d’une part compléter les approches publiées en 2020 et 2021 par l’Agence Internationale de l’Énergie, l’Union européenne et l’ADEME. Par exemple, l’AIE a déjà pris en compte une petite quinzaine de technologies de la transition bas carbone ainsi qu’une grosse dizaine de ressources. De son côté, l’UE a regardé une trentaine de ressources et l’ADEME est en train de faire un travail de prospective formidable avec la grande étude Transition(s) 2050. Bien qu’ils soient approfondis, ces travaux ont la particularité d’être concentrés sur certains aspects par domaines ou par ressources. Par notre approche de consultant, nous avons cherché à apporter une vue quantitative d’ensemble.

D’autre part, nous souhaitions que cette méthode soit également utilisable par n’importe quelle entreprise qui souhaiterait évaluer la criticité en ressources de son portefeuille d’activités ou de sa stratégie.

En quoi cette méthodologie est-elle innovante ?

Nous proposons une évaluation complète qui prend non seulement en compte les quantités de ressources en tonnes et le poids économique en euros d’importations ou de dépenses, mais aussi un nouvel indicateur de criticité globale. Pour l’évaluation en tonnes, nous nous sommes fondés sur des ratios en kilogrammes par unité d’œuvre issus pour une grande partie de l’étude SURFER conduite par l’ADEME ainsi que le BRGM, et pour le reste, d’évaluations propres.

Concernant l’évaluation du poids économique, qui est déjà moins souvent présente dans les études, nous avons pris en compte la valeur de marché sur le London Metal Exchange et d’autres sources disponibles, ce qui donne une idée de l’exposition aux importations[1]. En effet quasiment tous les métaux et minéraux sont importés, soit directement en tant que tels, soit intégrés aux produits. Seuls l’aluminium et l’acier ont été considérés au prix des minerais importés, car ils sont produits en France, et le béton à son prix moyen sur le marché français.

Figure 8 de l’étude INEC/Capgemini : Hypothèses de coûts des ressources. (*) Prix des métaux, sauf Aluminium : prix des minerais importés par tonne de métal final / production en France. (Crédit: © 2022 INEC & Capgemini)

Enfin il reste la question de la criticité multifactorielle. Un euro d’une matière n’entraîne pas les mêmes risques de criticité qu’un euro d’une autre matière. Ici, nos travaux ont dû faire preuve d’originalité pour permettre l’additionalité et la comparaison.

La méthode que nous avons développée[2] permet, à partir de 6 critères d’analyse, d’établir un score multifactoriel de risque ou de criticité, dont nous renormons l’impact sur une échelle de 1 (pas d’impact) à 100 (impact majeur). Cela nous sert à repondérer l’impact de chaque euro de ressource employée dans une technologie donnée, à calculer des ratios par kWh, par km ou par m² selon le type de sujet, à comparer l’évolution de l’impact à travers les années, au sein d’un portefeuille d’activités ou entre scénarios, ici ceux de la transition bas carbone nationale de 2020 à 2050.

Enfin une autre originalité de notre étude est que nous appliquons ces trois évaluations en tonnes, en euros et en euros.criticité[3] non seulement aux besoins bruts, mais aussi aux déchets et au flux de recyclage et de réemploi, ce qui permet d’évaluer les besoins nets et les gains accessibles avec une stratégie d’économie circulaire renforcée.

La criticité des ressources est évaluée selon six critères, avec des scores allant de 1 à 5. (Crédit: © 2022 INEC & Capgemini)

Quelles sont les limites de cette étude ?

Nous avons souhaité être totalement transparents sur les limites de l’étude[4], afin de permettre à d’autres secteurs de faire évoluer cette approche, d’affiner les évaluations avec leurs propres calculs et de démontrer les progrès possibles avec d’autres technologies plus efficaces en matière de recours aux ressources critiques.

Je rejoins ainsi le point de vue d’Emmanuelle Ledoux : l’une des principales vocations de cette étude est d’inciter les mondes industriel et institutionnel à s’approprier ces questions de criticité des ressources dans leur stratégie bas carbone.

Sans prétendre à la perfection, cette approche a le mérite d’être applicable au niveau des industriels et de les aider à se poser les bonnes questions. Peut-on rester dans un modèle économique linéaire de production en comptant sur le seul progrès technologique ? Doit-on investir sur les ressources biosourcées qui se régénèrent, plutôt que sur les ressources minérales finies ? Doit-on investir dans de nouveaux business models de produits et services partagés plus économes en ressources ? Doit-on se développer sur les activités de recyclage et de réemploi, plutôt que de laisser d’autres le faire ? Cette approche peut les aider à objectiver, quantifier et dérisquer leur stratégie bas carbone circulaire.

Je dirais en conclusion qu’une entreprise qui veut durer sur son secteur d’activité et réussir sa transition bas carbone n’a pas d’autre choix que d’intégrer ces questions de criticité de ressources dans sa stratégie à 3 ans, 10 ans ou plus.


[1] Il ne s’agit pas du coût complet d’importation, seulement la part d’extraction et de première transformation.

[2] Si vous souhaitez étudier en détail la méthodologie, l’ensemble des données chiffrées sont disponibles aux annexes 2 et 3.

[3] Approche qui permet de croiser valeur économique et criticité par la pondération du coût de la ressource par son indice d’impact.

[4] Les apports de l’étude ainsi que les limites et pistes d’approfondissement par les parties prenantes sont détaillées à la fin du rapport au Paragraphe 4.6 : Apports, limites et pistes d’approfondissement de l’étude, PP 132-136

Ecoutez notre podcast Cogitons Sciences : Matériaux, durée de vie et fatigue [Matériaux, histoire d’une vie #3]

Qu’entend-on par fatigue lorsqu’il s’agit d’un matériau ? Comment explique-t-on ce processus ? Quels secteurs sont particulièrement concernés ?

Écoutez l’épisode ici !

Chargements et rupture [1:06 – 6:11]

Notre invitée explique que la fatigue est un processus d’endommagement des matériaux sous des sollicitations cycliques. Leurs niveaux varient au fil du temps, ainsi que leur amplitude. Sous ces chargements cycliques appliqués au même endroit, le matériau s’endommage dans une zone. Une fissure s’amorce et se propage jusqu’à la rupture brutale de la pièce.
Une pièce cassée présente un plan de rupture, aussi appelé faciès de rupture. Cette pièce sollicitée en fatigue présente deux zones distinctes. Isabel Huther nous fait part des différences entre les plans de rupture, selon le matériau dont la pièce est constituée.
Les plans de rupture en fatigue sont toujours perpendiculaires au chargement. Cela permet de déterminer quel chargement a induit la rupture.

Conception des pièces et durées de vie prédéfinies [6:11 – 12:17]

Les ruptures en fatigue interviennent souvent dans des zones de concentration de contraintes. Isabel Huther nous éclaire sur ces zones, caractérisées par des discontinuités géométriques, comme des angles droits, par exemple. Il convient d’en tenir compte au moment du dimensionnement ou de la conception de pièce.
Tous les matériaux métalliques ou composites peuvent se fissurer sous des chargements cycliques. En fatigue, les matériaux se distinguent par leur qualité. Le moins le matériau a de défauts, meilleure est sa tenue en fatigue.
Notre invitée évoque les secteurs concernés par les phénomènes de fatigue : ceux où les pièces ou structures subissent des chargements cycliques. Dans ces secteurs, les pièces et structures sont conçues au plus juste. Cela entraîne le risque de problèmes de fissuration par fatigue. Par exemple, le poids des avions est diminué pour qu’ils consomment moins de kérosène.
Les pièces sont dimensionnées vis-à-vis de leur tenue à la fatigue pour s’assurer qu’elles ne cassent pas avant les durées de vie prédéfinies.

Réduire le processus de fatigue ? [12:34 – 19:10]

La détermination de la résistance à la fatigue est expérimentale. Toutes les données sont issues d’essais de fatigue réalisés sur des éprouvettes, fabriquées dans les matériaux caractérisés. A partir des valeurs relevées au cours des essais, on peut estimer, pour une durée de vie donnée, la résistance en fatigue recherchée.
Pour minimiser les risques de fissuration par fatigue, il est nécessaire de connaître les performances du matériau en fatigue dans l’environnement d’utilisation, par exemple, air, eau, température froide ou chaude, milieu hydrogène. Il faut aussi connaître le type de chargement, ainsi que les niveaux de chargement.

Écoutez l’épisode ici.

Ressources pour aller plus loin :

Sur le site Techniques de l’Ingénieur. Les articles de ressources documentaires :
généralités sur la fatigue,
calcul des pièces,
réalisation des essais de fatigue.
– Le webinar gratuit Découverte de la fatigue des matériaux avec Robin Hauteville.

Les recueils Cetim performance, « collection fatigue » :
Les généralités en fatigue,
Influence des paramètres en fatigue,
calcul des pièces,
Analyse des résultats d’essais de fatigue,
Recueil sur la tenue en fatigue des assemblages soudés.

L’ouvrage La fatigue des matériaux et des structures 1 : Introduction, endurance, amorçage et propagation des fissures, fatigue oligocyclique et gigacyclique sous la direction de Claude Bathias et André Pineau, éditions Hermès Lavoisier.

Cogitons Sciences est un podcast produit par Techniques de l’Ingénieur. Cet épisode a été réalisé par Marie-Caroline Loriquet, en collaboration avec Intissar El Hajj Mohamed. Le générique a été réalisé par Pierre Ginon et le visuel du podcast a été créé par Camille Van Belle.

La France se dote de nouvelles normales climatiques

Tous les dix ans, Météo-France met à jour ses « normales de saison ». Calculées par convention sur une période de 30 ans, elles couvrent désormais la période de référence 1991-2020, en remplacement de 1981-2010. La nouvelle normale de température moyenne annuelle en France atteint 12,97°C, en hausse de 0,42°C par rapport à la période de référence précédente 1981-2010, selon Météo-France. Entre les périodes 1961-1990 et 1991-2020, la température moyenne en France s’est réchauffée de 1,15°C.

Le calcul des normales concerne toutes les variables du climat, notamment la température, les précipitations, le vent et l’ensoleillement. Il comprend en plus de nombreux indicateurs illustrant la distribution statistique de ces paramètres : moyenne, records, nombre de jours au-dessus d’un seuil… Entre les deux périodes de référence, Météo-France note une évolution sensible, notamment pour les différents indicateurs liés aux températures.

Un climat plus chaud

Depuis 1970, chaque décennie est plus chaude que la précédente. Ces dix dernières années, durant la période 2011-2020, la hausse atteint +0,6°C et marque la plus forte progression observée entre deux décennies en France depuis 1900, calcule Météo-France.

La hausse de la normale de température est plus forte au printemps et en été. Elle est aussi légèrement plus marquée sur l’Est continental que sur les zones littorales. De plus, les températures dépassent plus régulièrement les 30°C. Par exemple, le nombre de jours de fortes chaleurs augmente à Nîmes de 8 jours et à Marignane de 10 jours par rapport à la période précédente. À l’opposé, le nombre de jours de gelées enregistrant des températures sous la barre des 0°C est en baisse de 8 jours à Troyes, Poitiers ou Chambéry, et jusqu’à 10 jours à Lyon.

« Strasbourg a le climat du Lyon des années 1970, Lille celui de l’ancien Rennes, affirme Météo-France. On observe un net décalage du climat en 30 ans. Le nord du pays retrouve un climat proche de celui de l’Ouest dans la France d’il y a trente ans. »

Un climat et des sols plus secs

Le cumul moyen de précipitations reste pour sa part stable en moyenne à 935 millimètres. Météo-France relève toutefois de « fortes disparités saisonnières et régionales ». En hiver, les précipitations augmentent dans la moitié sud du pays, diminuent dans la partie nord. Au printemps, les conditions sont plus sèches sur l’ensemble du pays. C’est le contraire en été. Enfin, en automne, les précipitations augmentent partout au sud de la Seine, notamment près de la Méditerranée.

Ces nouvelles références climatiques, calculées sur la période 1991-2020, seront représentatives d’un climat centré sur les années autour de 2005. Elles présentent encore un léger biais par rapport à la période actuelle, explique Météo-France. Ces nouvelles « normales » sont cependant loin de décrire notre climat normal d’il y a encore quelques décennies. Le changement climatique, et la hausse des températures associées, s’est accéléré ces dernières décennies.

« Les normales climatiques permettent de caractériser le climat sur un lieu donné, pour une période donnée », mais « ne sont toutefois pas des outils adaptés pour caractériser le changement climatique », rappelle Météo-France. « Il faut prendre beaucoup de pincettes en étudiant les différences avec les précédentes normales, on ne peut pas directement attribuer une différence à l’évolution du changement climatique, même si on aurait quand même bien envie de le faire, surtout que les résultats qu’on a plaident quand même en cette faveur-là », reconnaît Matthieu Sorel, climatologue à Météo-France, auprès de l’AFP.

Les thèses du mois : Les métamatériaux bientôt à l’ère industrielle

Pour notre dossier de mai, « Les métamatériaux bientôt à l’ère industrielle », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

 

Metamaterials for image quality enhancement in ultra-high field magnetic resonance imaging
Tania del Socorro Vergara Gomez
Thèse de doctorat en Biologie santé. Pathologie vasculaire et nutrition, 30/06/2020
Institut Fresnel

 

Métamatériaux optiques : conception, fabrication à grande échelle et caractérisation
Mayte Gomez Castano
Thèse de doctorat en Physico-Chimie de la Matière Condensée, 17/11/2021
Centre de Recherche Paul Pascal

 

Métamatériaux thermiques intelligents
Qingxiang Ji
Thèse de doctorat en Sciences pour l’Ingénieur, 30/03/2021
FEMTO-ST

 

Metamaterials with extreme properties for the control of acoustic waves
Matthieu Mallejac
Thèse de doctorat en Acoustique, 09/10/2020
Laboratoire d’Acoustique de l’Université du Mans

 

Application de métamatériaux aux problématiques vibro-acoustiques automobiles
Adrien Pyskir
Thèse de doctorat en Génie Mécanique, 30/07/2021
Laboratoire de tribologie et dynamique des systèmes

 

Développement d’antennes textiles pour des applications IoT
Wissem El May
Thèse de doctorat en Électronique, 05/07/2021
Laboratoire d’Electronique, Antennes et télécommunications

 

Acoustic metamaterials for underwater applications : homogenisation methods, design optimisation and experimental characterisation
Laetitia Roux
Thèse de doctorat en Acoustique, 15/10/2020
Institut d’électronique, de microélectronique et de nanotechnologie

 

Low-frequency Absorbing Acoustic Metasurfaces: Deep-learning Approach and Experimental Demonstration.
Krupali Donda
Thèse de doctorat en Physique, 20/01/2021
Institut Jean Lamour

 

Développement de métamatériaux super-absorbants pour l’acoustique sous-marine
Margaux Thieury
Thèse de doctorat en Physique, 19/11/2020
Institut Langevin-Ondes et images

 

Epsilon-Near-Zero metamaterials applied to mid-infrared optoelectronic devices
Tuan Nghia Le
Thèse de doctorat en Physique, 18/03/2022
Centre de nanosciences et de nanotechnologies

Métamatériaux : la promesse de l’invisibilité

Un extrait de Métamatériaux acoustiques, électromagnétiques et sismiques – Pour les ondes du nanomètre au mètre par Stéphane BRÛLE, Stefan ENOCH, Sébastien GUENNEAU

L’invisibilité, et à travers elle le contrôle de la lumière, est un thème récurrent de la mythologie avec notamment la Kunée d’Hadès (casque qui rend son porteur invisible, offert par les cyclopes au dieu grec des Enfers), de la littérature fantastique et de la science-fiction anglo-saxonne, qui fraye avec les forces maléfiques dans la célèbre trilogie de John Ronald Reuel Tolkien (l’anneau à détruire, quand il est passé au doigt du héros Frodo, le rend invisible). Sans oublier la célèbre invisibilité, voulue puis subie, de Jack Griffin, l’homme invisible de Herbert George Wells. L’invisibilité acquiert ses lettres de noblesse dans la littérature jeunesse anglaise avec le chat du Cheshire qui apparaît et disparaît à loisir devant les yeux d’Alice Liddell, jeune égérie du romancier britannique Lewis Carroll. Et la littérature française n’est pas en reste avec l’« excellent homme nommé Dutilleul qui possédait le don singulier de passer à travers les murs sans en être incommodé » dans Le Passe-muraille de Marcel Aymé. Cette pléthore de références qui appartiennent à l’imaginaire collectif a assuré un engouement immédiat pour les publications de travaux scientifiques récents sur un contrôle accru de la trajectoire des ondes.

Capes d’invisibilité et autres merveilles

Il existe trois exemples emblématiques illustrant le concept d’invisibilité. Tout d’abord, le phénomène de réfraction négative, prédit par le physicien moscovite Victor Veselago en 1968, et qui permet de focaliser des ondes à travers une lentille plate. Ensuite, les tamis à photons. Des plaques avec des perforations de quelques dizaines de nanomètres au travers desquels l’équipe du physicien norvégien Thomas Ebbesen (université de Strasbourg) a montré en 1998 que la lumière peut se frayer un chemin. Ces tamis à photons s’appuient sur l’existence d’ondes de surface électromagnétiques appelées plasmons. Enfin, les capes d’invisibilité. Proposées par les physiciens britannique Sir John Pendry (Imperial College de Londres) et allemand Ulf Leonhardt (université de Saint-Andrews), les ondes y suivent des trajectoires courbes, à l’instar des géodésiques de la lumière au voisinage des corps massifs célestes dans la théorie de la relativité générale d’Einstein.

Il y a différentes façons de rechercher l’invisibilité, et cela grâce au truchement de la physique transformationnelle. Celle-ci associe des transformations de l’espace – ou des changements de coordonnées – aux propriétés optiques de matériaux que l’on ne rencontre pas à l’état naturel : les métamatériaux. La force de ce formalisme mathématique, qui s’appuie sur l’invariance de certaines équations de la physique, permettra par ailleurs de jeter des ponts avec d’autres types d’ondes : acoustiques, hydrodynamiques et mécaniques. On pourra ainsi aborder la pertinence de trois types d’invisibilité et s’interroger sur la possibilité d’imaginer de nouveaux camouflages ou de nouvelles protections. Même si l’état de l’art est encore loin de répondre à certains enjeux sociétaux spécifiques (séismes, tsunami, etc.).

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 14 juillet 2022 !

Métamatériaux acoustiques, électromagnétiques et sismiques – Pour les ondes du nanomètre au mètre, par Stéphane BRÛLE, Stefan ENOCH, Sébastien GUENNEAU

« Les matériaux acoustiques sont ceux qui se développent le plus rapidement »

Ces ondes peuvent être de natures différentes : électromagnétiques, acoustiques, sismiques par exemple.

Stéphane Brûlé est ingénieur chercheur collaborant avec l’institut Fresnel de Marseille, spécialisé en réponse dynamique des sols et des bâtiments. Il étudie notamment l’impact que pourrait avoir toute forme de structures urbaines en surface et en souterrain. Cette structuration revêt parfois un caractère périodique dense et nous interpelle alors sur les conditions pouvant nous amener à les assimiler à des métamatériaux, sous sollicitation sismique.

Le but premier est de comprendre les phénomènes d’onde au sein de ces matériaux structurés complexes et de capitaliser sur le couplage des ondes avec les sols structurés et les oscillateurs de surface (les bâtiments). Pour l’ingénieur en génie parasismique, l’objectif est de s’assurer que ces phénomènes peuvent avoir un intérêt pour limiter les effets destructeurs des ondes sur les constructions de surface.

Il a accepté d’expliquer aux Techniques de l’Ingénieur les enjeux autour de ces recherches et du développement d’applications autour des métamatériaux et de leurs propriétés.

Techniques de l’Ingénieur : Quels sont aujourd’hui les métamatériaux sur lesquels la recherche est la plus aboutie ?

Stéphane Brûlé : Les métamatériaux acoustiques sont ceux qui se développent le plus rapidement. En tout cas, ce sont ceux pour lesquels la possibilité de mise en œuvre est la plus aboutie. Comme ces métamatériaux ont une taille similaire à ce que l’on utilise aujourd’hui pour les problématiques d’acoustique, la transposition se ferait assez vite.

Cela peut consister à isoler une salle avec du bruit, ou rendre plus furtifs des équipements  sous-marins, par exemple. Pour ce dernier exemple, les travaux cités dans l’article explorent des « peaux spécifiques » limitant la signature acoustique d’un sous-marin.

Sur le domaine de l’acoustique, les traitements sont relativement rapides à mettre en œuvre et sont la transcription d’une physique assez simple, c’est aussi pour cela qu’il s’agit du domaine qui progresse le plus vite sur le développement de métamatériaux.

Quelles sont les propriétés des métamatériaux qui intéressent la recherche ?

La physique des ondes et vibrations décrit des phénomènes physiques dans les milieux complexes. Pour des effets remarquables comme la réfraction négative dans un métamatériau, des propriétés effectives du milieu peuvent être décrites. Il s’agit ensuite de savoir si ces propriétés physiques et mécaniques effectives peuvent être obtenues à l’aide de matériaux présents dans la nature.

C’est la structuration du matériau, ajoutée à des résonances locales, qui va proférer au matériaux ses propriétés. Cette structuration de la matière en petits éléments va avoir la capacité de vibrer localement différemment par rapport à l’ensemble de la matière concernée. Ces phénomènes conjugués de passage dans un matériau qui est constitué de petits éléments, plus leur capacité à vibrer localement et spécifiquement va donner une propriété effective.

L’idée derrière les métamatériaux va être de donner au matériau des propriétés équivalentes quand les ondes vont interagir avec la matière. Pour le cas des ondes électromagnétiques par exemple, le défi consiste à obtenir des indices de réfractions qui vont être équivalents tout en étant négatifs, c’est-à-dire que les ondes vont adopter un comportement différent de celui attendu.

Tout cela grâce à la structuration de la matière ?

Oui, et un exemple remarquable de l’interaction des ondes et de la matière s’observe par exemple quand on éclaire un cristal avec des rayons X, de longueur d’onde très petite, en étude cristallographique. Un cristal est constitué d’un arrangement périodiques des ions dans les trois directions à l’échelle nanométrique. C’est la répétition d’un motif élémentaire (la maille). Ce cas illustre bien le phénomène spécifique de la diffraction que l’on retrouver aussi avec des sols structurés à l’échelle métrique et traversés par des ondes sismiques.

Par extension de la notion de cristal, matériau naturel, on peut parler de « cristal photonique », appelé aussi matériau à bandes interdites photoniques, possédant un profil diélectrique périodique, pouvant empêcher la lumière (de longueur d’onde plus de 100 fois supérieure à celle des rayons X) de se propager pour certaines fréquences ou longueurs d’onde selon une, deux ou plusieurs directions de polarisation de l’onde entrante.

Avec des longueurs d’onde encore plus importantes, centimétriques à métrique, un « cristal phononique » est une structure artificielle anisotrope constituée d’une distribution périodique d’au moins deux matériaux aux propriétés élastiques distinctes ou d’un matériau avec perforations, pouvant présenter des bandes de fréquences dans lesquelles la propagation des ondes acoustiques ou élastiques est évanescente (onde plane dont l’amplitude diminue exponentiellement avec la distance à la source) ou autorisée/guidée. Des propriétés effectives négatives, peuvent être obtenues avec un cristal phononique, par exemple la masse ou l’indice de réfraction.

Les métamatériaux sismiques ont, de par la nature des ondes avec lesquels ils interagissent, des tailles plus importantes…

Dans le cas des ondes sismiques, une application originale consisterait à contraindre l’énergie des ondes à suivre un autre chemin, pour protéger une zone spécifique. Pour que l’application soit envisageable économiquement, il est préférable que la taille des motifs utilisés pour interagir avec ces ondes soit inférieure aux longueurs d’ondes propagées. Cela est intéressant dans le cas des ondes sismiques, car leur vitesse de propagation, qui est liée à leur longueur d’onde, devient plus faible dans les sols meubles peu consolidés, propices à amplifier le signal en surface. Ces longueurs d’ondes, de l’ordre de quelques dizaines de mètres, nous permettent de mettre au point des dispositifs concrets, ce qui serait plus compliqué à imaginer avec des longueurs d’ondes beaucoup plus grandes.

Les sols urbains sont déjà très structurés, avec aujourd’hui quasiment autant de constructions en surface (les quartiers successifs d’une ville) que celles en souterrain (métro, parking, etc.) dans certaines villes. Si on regarde bien, cette structure souterraine est relativement répétitive, à l’échelle d’un quartier ou d’une ville. On a donc là déjà une potentielle modification du signal. Il faut donc déjà parvenir à comprendre ces modifications. Dans la pratique, le design souterrain d’une ville pourrait être imaginé en amont, pour construire un réseau souterrain structuré, qui serait alors à même d’interagir avec les ondes sismiques, pour limiter leurs effets en surface.

Ce qui est également intéressant, c’est que les villes sont amenées à se développer de plus en plus de manière souterraine dans le futur, pour des raisons de place, mais aussi d’énergie par exemple. Il serait intéressant que le développement de ce réseau souterrain soit développé de manière à obtenir une structure périodique. Une partie de notre travail consiste à faire tourner des modèles numériques pour évaluer quelles structures pourraient être mises en place, selon la spécificité du sous-sol, pour limiter les effets des ondes sismiques en surface.

Expliquez-nous en quoi consiste le projet Meta-forêt, qui se base sur la structure répétitive que constitue une forêt et ses arbres pour créer des métamatériaux ?

Le projet ANR Metaforêt a consisté notamment à étudier les effets de couplage des arbres d’une forêt, identifiés comme des oscillateurs libres, vibrant localement, avec les ondes se propageant dans le sol. On recommande la lecture du rapport de projet pour plus de détail.

Solidement ancrés au sol et répartis de manière régulière, ce qui est en général le cas dans une forêt, ces éléments vont jouer le rôle de résonateurs. La propagation d’une vibration dans le sol, couplée aux vibrations spécifiques des arbres ou des pylônes, va modifier le signal global qui intervient dans cet ensemble.

Ce qui est montré in fine, c’est par exemple la possibilité de modifier la direction de propagation du signal. Concrètement, l’effet effectif de ce dispositif permettrait de rediriger un signal dans une direction, en profondeur par exemple. Ce qui dans le cas des phénomènes sismiques permettrait d’évacuer l’énergie loin des structures en surface.

Le projet Meta-forêt a également montré qu’il était possible de changer la polarisation des ondes. Concrètement, il faut imaginer qu’on arrive à transposer une partie de l’énergie de propagation horizontale d’une onde vers la propagation verticale. Cela permettrait, toujours dans le cas de la protection des structures, de rediriger une onde pour qu’elle soit la moins impactante possible sur la structure à protéger.

Votre travail de recherche actuel consiste à analyser le bruit de fond sismique. Quels sont les enjeux derrière ces recherches ?

C’est aujourd’hui un axe de recherche important. Au-delà des phénomènes occasionnels et intenses en énergie que sont les séismes, il y a une vibration permanente dans le milieu terrestre, et mesurable à la surface de la Terre. Imaginer un métamatériau capable d’amplifier cette vibration et y accoler un capteur d’énergie, pour récupérer une partie de l’énergie produite, est un sujet sur lequel nous travaillons à l’heure actuelle.

Le bruit de fond sismique est un bruit permanent, faible, qui interagit avec les structures urbaines telles que les immeubles, qui vibrent également. Ces structures distribuent dans le sol, en fonction de leur disposition, une énergie non négligeable.

Nous essayons de caractériser cette énergie distribuée dans le sol, à différentes échelles. En effet, la structuration d’un quartier va aboutir à une redistribution particulière de l’énergie. Mais la composition des matériaux constituant les bâtiments, va, elle aussi avoir un impact sur la redistribution de cette énergie. C’est ce sur quoi nous travaillons actuellement, tout en sachant que dans un premier temps, il est fondamental de pouvoir caractériser cette énergie libre à différentes échelles, pour évaluer le potentiel réel de ce types de dispositifs.

Pour les matériaux de structures rigides comme le béton par exemple, on pourrait imaginer interagir avec les ondes issues de la circulation des véhicules en ville par exemple. Ce type de dispositif existe d’ailleurs déjà dans certaines villes, pour récupérer l’énergie des piétons quand ils marchent sur les passages pour piétons.

Ces dispositifs et leurs performances sont très liés aux progrès réalisés sur les capteurs et les accumulateurs d’énergie. C’est d’ailleurs ces progrès qui ont amené au développement des métamatériaux en zones sismiques.

Propos recueillis par Pierre Thouverez

Image de Une : ©Institut-Fresnel

Les métamatériaux, un long chemin vers l’industrialisation

Depuis que la fameuse cape d’invisibilité a été mise au point en laboratoire, en 2015, le grand public a découvert le potentiel des métamatériaux et leurs propriétés inédites. Mais le chemin entre le laboratoire et la chaîne de montage d’une usine est souvent long et compliqué. C’est le cas pour de nombreux métamatériaux, dont les propriétés s’expriment dans des conditions très particulières, difficiles à reproduire hors des laboratoires de recherche.

Pourtant, depuis quelques années des entreprises tentent de développer des produits exploitant des métamatériaux. C’est d’ailleurs le cas pour la cape d’invisibilité. En effet, l’entreprise américaine Hyperstealth Biotechnology Corp a présenté, en 2019, un prototype de cape d’invisibilité, nommé Quantum Stealth. Ce dernier fonctionne sans source d’énergie, et permet de rendre un objet invisible en courbant la lumière provenant de derrière l’objet pour la ramener vers l’avant. Ce prototype, dont l’usage est destiné au domaine militaire, a été présenté dans cette vidéo.

Développer des matériaux reprogrammables

Une autre tendance relative aux propriétés des métamatériaux, qui a émergé depuis quelques années est la capacité de développer des matériaux reprogrammables. Concrètement, une équipe de scientifiques a mis au point un métamatériau à base de silicone et de poudre magnétique, qui va fonctionner comme un interrupteur, s’activant et se désactivant en fonction du champ magnétique ambiant. Les applications industrielles potentielles sont nombreuses, d’autant plus que ce métamatériau se révèle relativement facile à produire, par impression.

Des attelles ont ainsi été imaginées, avec la capacité de s’adapter au fur et à mesure de l’évolution de la blessure, ce qui n’est pas le cas des dispositifs existants aujourd’hui. Mais c’est surtout en termes de stockage d’information numériques que les métamatériaux reprogrammables intéressent l’industrie. En effet, chacune des cellules du métamatériau peut être considérée comme un bit (unité de mémoire d’un disque dur) et fonctionner comme tel. C’est cette propriété qui intéresse actuellement l’industrie, désireuse de réduire la taille de ces cellules pour en exploiter tout le potentiel.

Les lentilles à base de métamatériaux pour une résolution inédite

troisième exemple, les lentilles. Depuis plus de vingt ans, les chercheurs développent des réseaux de nanostructures pour développer ce que l’on appelle des superlentilles. Ces lentilles innovantes, outre leur finesse, ont une résolution qui était jusque-là impossible à atteindre théoriquement. Ces lentilles sont aujourd’hui fonctionnelles, planes, et agissent sur toute la gamme du spectre visible. Elles ont également une résolution inférieure à la longueur d’onde du domaine visible. 

Ces lentilles, généralement composées de dioxyde de titane et d’un substrat de verre, produites par lithographie, permettent aux industriels d’imaginer des dispositifs ultra fins. Ils pourraient, par exemple, remplacer les objectifs des smartphones que nous utilisons quotidiennement, avec un encombrement spatial bien inférieur aux dispositifs existants, tout en proposant une résolution bien meilleure.

Dans le domaine de l’imagerie médicale, ces métamatériaux permettent également d’envisager une amélioration révolutionnaire des performances d’appareils tels que les IRM.

Un mois dans l’espace #30

SpaceX : plus vite, plus haut, plus gros

SpaceX reprend sa marche – spatiale – en avant. La firme américaine a battu un énième record il y a quelques jours, en réalisant trois lancements en moins de 36 heures. SpaceX a pour cela fait appel à son lanceur réutilisable, le Falcon 9. Ce sont 53 satellites labellisés Starlink, un satellite d’imagerie radar construit par Airbus pour l’armée allemande, et enfin un satellite de rechange pour l’opérateur Globalstar, qui ont été envoyés par SpaceX en orbite, entre le 17 et le 19 juin.

A noter que deux de ces missions ont été opérées depuis la Floride, alors que la seconde, pour le compte d’Airbus, a été réalisée à partir du site de lancement californien situé sur la base militaire de Vanderberg. Les trois lanceurs sont revenus se poser sur des barges au large des côtes de la Floride et de la Californie, comme prévu, et pourront être réutilisées. D’ailleurs, l’un des lanceurs fêtait sa treizième utilisation !

En vidéo, voici l’atterrissage du Falcon 9, de retour de mission.

SpaceX traverse malgré tout une période délicate : Elon Musk, qui s’est porté récemment acquéreur du réseau social Twitter, a enchainé les frasques en ligne. Si le Sud-Africain d’origine est coutumier du fait, il semble que ses sorties récentes aient érodé la confiance des salariés de SpaceX et installé une forme de climat d’inquiétude au sein de l’entreprise. Ce qui a donné lieu à l’envoi d’un courrier, rédigé par certains employés de SpaceX, pour faire état de leur mécontentement. Avant de se faire licencier.

Aussi, les récentes accusations de harcèlement proférées à l’encontre d’Elon Musk viennent ajouter à ce climat pesant. 

Enfin, la FAA, l’agence fédérale de l’aviation qui supervise les autorisations de vol privées Outre-Atlantique, a publié son rapport, le 13 juin, sur les impacts environnementaux des activités de SpaceX dans le sud du Texas. Un rapport qui oblige la firme spatiale américaine à prendre 75 mesures pour réduire son empreinte écologique, mais qui autorise SpaceX à poursuivre ses activités sur le site de Boca Chica. Une issue attendue, mais décisive pour le vaisseau hors-norme, Starship, qu’Elon Musk et ses ingénieurs développent depuis plusieurs années. 

SpaceX a déjà réalisé des tests en haute altitude avec le vaisseau Starship, mais il s’agit désormais de réaliser un premier vol orbital, à l’aide du lanceur lourd Super Heavy. Un défi de taille, avec de multiples enjeux : les vaisseaux Starship seront réutilisables, il faut donc les ramener sur Terre. Ces tests ont déjà été effectués avec succès. Ensuite, les lanceurs. Le dernier né des lanceurs Super Heavy, le Super Heavy Booster 7, a été placé sur le pas de lancement de Boca Chica quelques jours après la publication du rapport de la FAA. Ce lanceur géant, équipé de 33 moteurs Raptor, doit subir une batterie de tests, dont un test de tir statique. 

Le 23 juin, le lanceur a été déplacé par “Mechazilla”, une énorme grue robotisée placée sur le pas de tir, et qui possède, comme on peut l’observer sur la vidéo ci-dessous, deux énormes bras mécaniques qui permettent de déplacer lanceurs et vaisseaux, afin d’accélérer les phases de mise en place sur le pas de tir. Le bon fonctionnement de cette grue robotisée est également un enjeu fort pour SpaceX, la taille des Super Heavy et des Starship les rendant extrêmement compliqués à déplacer avec les moyens existants aujourd’hui. 

Elon Musk, éternel optimiste, aimerait que le vol inaugural puisse se dérouler en juillet, si tous les tests se déroulent parfaitement. Pour ne pas rater cela, SpaceX a mis en place un direct live depuis Boca Chica, qui permet de suivre en permanence ce qui se déroule sur le pas de tir :

Par Pierre Thouverez

Image de Une : Les moteurs Raptors ©SpaceX

 

 

Propriétés des métamatériaux : exemple de l’effet roton

Deux équipes de recherche, française et allemande, ont collaboré pour mettre en évidence, chacune de leur côté, l’effet roton, dans des métamatériaux élastiques et acoustiques. Vincent Laude, directeur de recherche CNRS à l’institut FEMTO-ST, a expliqué aux Techniques de l’Ingénieur l’effet roton observé sur les métamatériaux.

Techniques de l’Ingénieur : Pouvez-vous présenter l’objet des recherches menées conjointement avec une équipe allemande ?

Vincent Claude : Ces recherches sont menées ensemble pour une raison toute simple. L’un de nous a été pendant 5 ans post-doctorant au KIT (l’institut allemand) et nous avons une grande confiance mutuelle. Le sujet des métamatériaux était naturel car au centre des recherches de chacune des deux équipes. Quand et où au juste l’idée de les utiliser pour observer l’effet roton a germé sont des questions auxquelles il nous est bien difficile de répondre précisément. Disons que nous en avons discuté ensemble et que avons trouvé le sujet original et passionnant. Il restait à disposer de deux doctorants brillants, un de chaque coté de la frontière, et le tour était presque joué…

Qu’est-ce que l’effet roton ?

L’effet roton est un effet de physique fondamentale. Lev Landau, prix Nobel de physique 1962, un génial théoricien des superfluides – notamment de l’hélium liquide – avait décrit un phénomène inédit lors de la propagation des ondes acoustiques dans l’hélium-4 superfluide : l’apparition d’un minimum de la relation de dispersion, c’est-à-dire un minimum de la courbe qui représente la fréquence de l’onde en fonction du nombre d’ondes (qui est l’inverse de la longueur d’onde). A la fréquence correspondant à ce minimum, la vitesse de groupe de l’onde s’annule et la direction de propagation des ondes s’inverse. Cela peut paraître bizarre de vouloir observer ce phénomène avec un milieu de propagation très différent de l’hélium liquide, mais tout l’enjeu est d’observer un équivalent de l’effet roton à température ambiante, avec une simple structure obtenue par une imprimante 3D sur laquelle quelques haut-parleurs et microphones sont collés !

Comment se manifeste l’effet roton dans les métamatériaux sur lesquels vous avez travaillé ?

Les équipes allemande et française ont mené chacune une expérimentation complémentaire. Les chercheurs allemands ont observé l’effet roton avec des ondes élastiques ultrasonores dans un métamatériau microscopique, fabriqué par lithographie à deux photons. Les chercheurs français ont travaillé avec des ondes audibles, dans un métamatériau de taille macroscopique obtenu par impression 3D. Dans les deux cas, le métamatériau est construit en empilant des cellules de base comportant des structures géométriques spécifiques. Ces dernières sont conçues pour permettre un couplage des ondes qui les traversent jusqu’au troisième voisin (entre les cellules numéro n et n+3), ce qui est la condition nécessaire à la production de l’effet roton. Les deux dispositifs ont montré la possibilité de « geler » la propagation de l’onde pour une certaine fréquence, ce qui correspond au minimum de la relation de dispersion. Deux vérités valant mieux qu’une, nous avons publié ensemble avec un grand degré de confiance dans nos résultats.

Cette propriété des métamatériaux pourrait-elle donner lieu à des applications (contrôle de la propagation d’onde) dans certains domaines ?

Vous posez la question qui (nous) fâche ! Oui, il est tout à fait possible que des applications puissent être imaginées, à plus ou moins long terme. En tant que chercheurs, nous avons un peu le nez dans le guidon de nos passions et nous ne sommes probablement pas les mieux placés pour imaginer quelles sont les applications les plus intéressantes pour cet effet roton. Grâce à vous en particulier nous pourrons toucher des lecteurs au delà de notre cercle habituel et peut-être susciter de bonnes idées d’application ?

Est-ce que les métamatériaux sur lesquels vous (et l’équipe allemande) avez travaillé sont destinés à être transposés dans le monde de l’ingénierie et de l’industrie ? Plus généralement, les résultats obtenus en laboratoire sur les métamatériaux sont ils facilement transposables à des applications dans le domaine industriel ?

Les métamatériaux acoustiques sont explorés par de nombreuses équipes dans le monde dans le but de réaliser une protection sonore, par exemple contre le bruit ambiant, ou une protection contre les vibrations, telles que celles causées par les machines tournantes, les moteurs, les turbines ou mêmes les tremblements de terre ! Les métamatériaux mécaniques sont eux étudiés pour obtenir des propriétés mécaniques utiles qui échappent aux matériaux naturels ou composites. Par exemple, un sac en plastique rempli d’eau soumis à une compression suivant un axe doit nécessairement se dilater suivant les deux axes transverses, pour conserver le volume du fluide. Pour les matériaux solides cette propriété est en général également vraie (une compression dans une direction est compensée par une extension dans les autres directions), sauf pour les matériaux très particuliers appelés auxétiques. Ces derniers peuvent même se contracter au cours d’une compression, leur volume diminuant effectivement. Cette propriété paradoxale est désirable par exemple pour l’absorption de l’énergie des chocs, donc pour les casques ou les équipements de protection.

Propos recueillis par Pierre Thouverez

Le meilleur de la tech #20

L’envol des robots-lucioles

Les lucioles ont la capacité de produire leur propre lumière. Cette bioluminescence, qui leur sert principalement pour la communication ou la reproduction, intéresse de près les chercheurs… Et notamment ceux du MIT (Massachusetts Institute of Technology) ! Plusieurs de leurs scientifiques se sont ainsi inspirés des insectes nocturnes pour développer un robot aérien. Ce dernier repose sur quatre actionneurs en élastomère diélectrique également électroluminescents. Durant son vol, le robot-luciole voit les actionneurs générer un fort champ électrique – supérieur à 40 V/μm – associé à une haute fréquence (400 Hz) pour venir exciter des particules électroluminescentes qui répondent alors en émettant de la lumière. Un moyen simple de communiquer entre robots du même type sans avoir à ajouter des capteurs, trop lourds pour de tels engins robotiques. La création du MIT, décrite en détail dans IEEE Robotics and Automation Letters le 1er juin 2022, a vu sa masse augmentée de seulement 2,4 % pour un total de 650 mg. Pas de quoi influer sur sa performance de vol donc ! Ce nouveau concept d’insecte robotisé pourrait à l’avenir servir lors de missions de recherche et sauvetage dans des bâtiments effondrés.

Le film alimentaire de l’homme-araignée

Comment parvenir à se passer du plastique issu du pétrole ? C’est la question que se sont posée des scientifiques d’Harvard et de la Rutgers University, et qui les a amenés à mettre au point un film alimentaire biodégradable à base de plantes. Présentée le 20 juin 2022 dans Nature Food, leur invention impressionne par son fonctionnement. En effet, la couverture protectrice est directement projetée depuis un appareil chauffant, comme un sèche-cheveux. De quoi faire pâlir l’homme-araignée ! Plus sérieusement, le matériau employé par les chercheurs utilise des fibres à base de biopolymère/polysaccharide. Une fois vaporisé sur la nourriture, le film la protège contre les micro-organismes pathogènes et les dommages provoqués par le transport de marchandises. Le résultat est donc efficace, mais aussi pratique. Le film part ainsi à l’eau, et se dégrade de lui-même dans le sol en à peine 3 jours…

Un petit poisson pour nettoyer les océans

Le continent plastique qui vogue dans le Pacifique Nord nous rappelle les efforts qu’il reste à fournir pour lutter contre la pollution. Une forme particulièrement vicieuse de ce plastique est sa variante micro – de moins de 5 mm. En effet, ces minuscules particules peuvent se retrouver dans des recoins très difficiles à atteindre. Mais peut-être que de petits robots autopropulsés pourraient aller les déloger… Cette idée a été suivie par une équipe de recherche menée par Xinxing Zhang de l’université du Sichuan. Dans les Nano Letters du 22 juin 2022, ils précisent que l’inspiration de leur robot mou leur est venue de la nacre – le revêtement intérieur de la coquille de certains mollusques. Leur propre nanostructure à base de graphène sulfonaté associé à un actionneur en élastomère vise à copier sa flexibilité comme sa résistance. En effet, la robotique molle repose habituellement sur de l’hydrogel ou du caoutchouc en silicone, tous deux facilement endommageables. Le résultat du travail des scientifiques est un matériau nanocomposite ultra-résistant – 141,19 MJ/m³ – et à haute efficacité d’auto-réparation à température ambiante (89 %). Leur robot de 15 mm peut absorber des polluants de manière continue, et ce à une vitesse égale à 2,67 fois la longueur de son corps à chaque seconde. Soit environ la vitesse du plancton. Ce qui surpasse la capacité de la plupart des robots mous actuels !

Tara polar station, l’expédition au cœur du climat arctique

Tara polar station est un bateau particulier, véritable laboratoire dérivant, conçu pour supporter des températures de -52°C. Le projet a été officiellement présenté ce 21 juin à Paris. Cette base scientifique polaire ovale et dérivante passera 90 % de son temps bloquée dans les glaces arctiques dès 2025. Le chantier sera lancé à l’automne 2022 pour une fin prévue au 1er trimestre 2024.

La Tara polar station devrait faire sa première mission en Arctique dès 2025. ©Fondation Tara Ocean – Olivier Petit

Mieux comprendre le climat arctique

Les principaux axes de recherche porteront sur une meilleure connaissance des causes et des conséquences du changement climatique dans la région. Quels sont les mécanismes de changement climatique à l’œuvre ? Quels sont les impacts sur les écosystèmes ? Comment évolue la migration des organismes marins vers l’Arctique ? Autant de questions explorées par les chercheurs embarqués à bord. Ils auront aussi à cœur de faire de nouvelles découvertes en biotechnologie et biomédecine, et sur l’adaptation de la vie en conditions extrêmes.

Cette région du globe s’avère en effet clé pour anticiper les effets du changement climatique sur le reste de la planète. « Comprendre les causes et les impacts du changement climatique au pôle Nord va nous permettre de prédire ses effets au sud », prévient Romain Troublé, directeur général de la Fondation Tara Océan. « Sur le long terme, ces explorations affineront les prévisions des modèles météorologiques en Europe d’ici 2050 et les conséquences du changement climatique sur le fonctionnement de notre planète », assure pour sa part Chris Bowler, directeur de recherche CNRS à l’École normale supérieure et président du comité scientifique de la Fondation.

Des missions scientifiques prévues jusqu’en 2045

La Tara polar station permettra d’embarquer un équipage de 12 à 20 personnes pour des missions de 18 mois consécutifs. Pour limiter son impact écologique, le navire embarquera ainsi une station d’épuration, un dégraisseur, un compacteur et un biodigesteur pour traiter les différents déchets générés par la vie du bord. Sur de multiples dérives successives, des scientifiques, artistes, médecins, marins et journalistes du monde entier se succéderont jusqu’en 2045.

Suivant les saisons, la Tara polar station pourra accueillir de 12 à 20 passagers. ©Fondation Tara Ocean- capgemini engineering

« Le navire contiendra 6 laboratoires : un laboratoire humide pour la manipulation des échantillons – y compris les carottes de glace –, des laboratoires secs avec instrumentation, et des laboratoires dédiés à l’expérimentation sur place pour mener des expériences sur ces organismes méconnus et leurs écosystèmes », énumère Chris Bowler.

Ce bateau sera propulsé grâce au déploiement d’éoliennes, de panneaux solaires qui permettent de doubler l’autonomie des batteries et de carburants biosourcés de troisième génération. Il sera notamment équipé de 2 drones, dont un drone marin, d’une rosette de prélèvement et de toute une série de capteurs atmosphériques ou sous-marins qui observeront en continu le milieu ambiant.

18 millions d’euros seront nécessaires à la construction du navire, dont 13 millions d’euros financés par l’État. « Grâce à ce formidable soutien de l’État, nous portons l’ambition de repousser les limites de l’exploration scientifique polaire arctique ces trois prochaines décennies », se félicite Romain Troublé.

Les territoires portuaires doivent faire leur transition

A l’initiative de plusieurs acteurs impliqués dans la transition énergétique (le Cerema, la Société Hydrotechnique de France -SHF-, Syntec Ingénierie, l’AIPCN – Association mondiale pour les infrastructures de transport maritime et fluvial – et l’Ecole supérieure d’ingénieurs des travaux de la construction de Caen), les premières Rencontres de l’ingénierie maritime se tiennent du 22 au 24 juin à Caen. Geoffroy Caude, membre permanent du Conseil général de l’environnement et du développement durable, et spécialiste des ports maritimes et des voies navigables, revient sur les enjeux principaux soulevés lors de ces rencontres.

Techniques de l’ingénieur : Quelles thématiques principales vont être traitées lors des Rencontres de l’ingénierie maritime ?

Geoffroy Caude : Cette première édition va traiter notamment de l’adaptation des infrastructures maritimes et littorales au changement climatique, mais s’intéressera aussi largement à toutes les innovations de l’ingénierie maritime. Cela englobe la prise en compte des risques climatiques, la gestion patrimoniale des aménagements, les méthodes numériques pour la construction, les ouvrages complexes nécessaires pour demain, leur intégration environnementale et sociétale, et bien sûr les énergies marines renouvelables. On n’est pas du tout dans un événement propre génie maritime (construction des navires) ni dans un colloque universitaire sur le génie portuaire et côtier. Il s’agit de Rencontres plutôt centrées sur les questions d’ingénierie appliquées aux transformations à venir de la société et aux techniques qui concourront à ces transformations.

Quels sont les principaux défis que doivent relever les infrastructures portuaires ?

L’enjeu fondamental des ports est celui de leur triple transition au sein des territoires portuaires : énergétique, écologique et numérique. En particulier, dans le domaine énergétique, une grande partie des installations étaient et sont encore largement dédiées aux énergies fossiles. Comme les objectifs de décarbonation s’accélèrent aux niveaux national et européen, les établissements portuaires doivent se donner la capacité de limiter leurs propres émissions de gaz à effet de serre ou de polluants atmosphériques et celles des industriels ou des autres activités émettrices présentes sur leur territoire. Plus largement, d’un point de vue écologique, les zones portuaires doivent intégrer un volet d’économie circulaire et penser leurs aménagements à partir des concepts « Œuvrer avec la nature » et en appliquant la séquence « Eviter, réduire, compenser ».
Désormais, dans quasiment tous les cas, la construction des projets fait intervenir le public en amont dans la conception des aménagements portuaires. L’approche environnementale est de plus en plus prise en compte via des études préalables, ainsi que la sensibilisation des différents acteurs concernés, par exemple concernant les impacts sur la biodiversité, ce qui est souvent désigné par le terme « œuvrer avec la nature ».

Les énergies renouvelables en mer vont-elles transformer les activités portuaires et maritimes ?

La France accuse pour l’instant un retard sur le développement de l’éolien en mer, par rapport aux pays d’Europe du Nord. Il y a deux raisons : la bathymétrie est favorable à ces pays alors que le long des côtes françaises, les profondeurs deviennent très vite plus grandes, ensuite, le système juridique français, à la fois au niveau des procédures qui permettent largement aux opposants au projet de s’exprimer aux différentes phases de sa maturation ou de sa réalisation et au niveau des appels d’offres qui ont été longtemps  trop rigides pour prendre en compte les évolutions techniques. Ce  sujet a heureusement pu être amélioré récemment. Le premier parc éolien en mer, celui du banc de Guérande au large de Saint-Nazaire sort ainsi au bout de 10 ans. Tout cela est en train d’évoluer favorablement, avec des ambitions nationales très fortes. Pour arriver à 40 GW en 2050, il faut néanmoins mettre en place une organisation pour coordonner toutes les administrations et pour associer largement l’ensemble des parties prenantes (les opérateurs et industriels concernés, aussi bien français qu’étrangers, les riverains, les collectivités territoriales, toutes les professions concernées). La commission nationale du débat public a d’ailleurs produit récemment un bilan de onze années de débat sur l’éolien qui recommande aux porteurs de projet d’être beaucoup plus attentifs à associer les publics concernés à tous les stades du projet.
C’est un schéma industriel original à créer car on a là une activité nouvelle, et plus complexe à organiser que pour l’éolien terrestre, qu’il s’agisse du montage, de la maintenance dans un milieu marin ou de l’atterrage des câbles électriques desservant les champs éoliens d’autant que la connaissance scientifique des milieux impactés par ces projets reste largement à construire. Qu’on considère l’éolien posé ou l’éolien flottant, on a besoin d’une planification spatiale maritime reposant sur des données objectives tant sur les impacts sur la biodiversité et sur les espèces marines concernées. Il faut en effet combiner les multiples “usages” (pêche, préservation de la biodiversité, navigation, pose des câbles, etc.) et veiller à disposer dans les ports d’espaces pour construire et pour assembler les éoliennes et pour choisir les ports de proximité à partir desquels on organisera les opérations de maintenance. A tout cela s’ajoute la volonté de certains ports de développer le recours à d’autres sources d’énergie décarbonée comme les “hubs” de production / transport / consommation d’hydrogène ou à se doter d’espaces dédiés au photovoltaïque, voire de dispositifs de récupération de l’énergie de la houle.

Dans quelle mesure l’avenir des activités de l’ingénierie maritime est-il corrélé à des choix sociétaux ?

Un rapport conjoint de France Stratégie et du CGEDD « Prospective 2040-2060 des transports et des mobilités » publié en début d’année (Février 2022, NDLR) aborde ce sujet. Sur la partie maritime et portuaire, nous avons été confrontés à l’élaboration d’une prospective qui permette d’esquisser ce que pourrait être la croissance des trafics de marchandises, qui par nature est très internationale puisque 80% des flux de transport internationaux de marchandises se fait par voie maritime. Il y a de fortes incertitudes sur ces flux tant en nature qu’en volume – d’ailleurs le rapport dédié au transport maritime et aux ports n’a pu retenir que trois des six scénarios différents envisagés pour tous les modes de transport– car il est difficile d’anticiper des transferts d’activité industrielle qui conduiraient à une forme de sobriété, notamment parce qu’il faut arrêter l’utilisation et donc le transport des énergies fossiles. La dimension sociétale porte aussi sur le contrôle des émissions de polluants (en mer et à quai) des navires qui va s’étendre géographiquement. La Méditerranée va bientôt rejoindre la façade européenne Baltique/Mer du Mord/Atlantique Ouest en tant que  zone de contrôle des émissions atmosphériques. On peut aussi considérer le besoin de maîtriser la vitesse des navires pour réduire leur consommation d’énergie, autre forme de sobriété. Mais, a priori on parviendra à réduire significativement les émissions des navires sans y avoir trop recours, à condition de mettre en œuvre des technologies décarbonées. Cette dimension technologique sera donc essentielle pour arriver à décarboner les activités maritimes, sans d’ailleurs qu’une solution technologique unique émerge à ce stade, et cela se joue au niveau mondial. Pour les activités fluviales, il faut considérer les efforts qui vont être faits par les autres modes de transport. Si les camions se décarbonent rapidement, le mode fluvial devra suivre, même s’il bénéficie d’un effet de massification important et les coûts d’adaptation pèseront de manière significative sur tous les modes de transport.

Propos recueillis par Stéphane Signoret

Exclusif ! L’article complet dans les ressources documentaires est en accès libre jusqu’au 1er juillet !

Suivez ce lien pour télécharger l’article « Débats publics sur les projets d’aménagement des ports maritimes », par Geoffroy CAUDE.

Intégrer un moteur électrique dans chaque train d’atterrissage des avions

Pour se déplacer sur le tarmac des aéroports, les avions utilisent leurs moteurs à réaction, alors qu’ils ne sont pas adaptés à cet usage. Comparée à la puissance nécessaire pour faire décoller les aéronefs, seule une toute petite partie de celle-ci est utilisée au sol. Les moteurs de poussée fonctionnent donc à bas régime, ce qui provoque d’importantes pertes d’énergie. Face à cette problématique, la solution pourrait venir de l’intégration d’un moteur électrique dans chaque train d’atterrissage et qui servirait uniquement pendant les phases de taxiage.

De 2012 à 2015, dans le cadre du programme de recherche aéronautique Clean Sky, un premier projet européen (SOG PEERS) avait démontré la faisabilité technique d’un tel dispositif. Un second, baptisé SUNSET, lui a embrayé le pas, afin de mettre au point un des équipements nécessaires au système, et comprenant entre autres des batteries. Porté par Centum T&S (ex-Adeneo), une SRC (Société de Recherche sous Contrat) spécialisée dans le développement de solutions électroniques et de systèmes embarqués innovants, ce projet est financé dans le cadre de Clean Sky II.

« L’application cible les avions court-courriers, c’est-à-dire ceux qui effectuent entre 8 et 10 vols quotidiens, explique Xavier Benoit, vice-président en charge de l’innovation à Centum T&S. En Europe, ce sont ceux qui desservent plusieurs capitales, et qui partent d’un bout du continent pour rejoindre l’autre, avant de revenir dans l’autre sens. Ils passent en moyenne environ 2,3 heures par jour à circuler au sol, et leur consommation peut grimper jusqu’à 13 kg de kérosène par minute. Installer un système électrique pour faire circuler au sol ces aéronefs pourrait leur permettre d’économiser plus de 3 % de carburant. »

Le principe général de ce dispositif repose sur l’installation d’un moteur électrique dans chaque train d’atterrissage et alimenté en électricité par l’APU (Auxiliary Power Unit, ou groupe auxiliaire de puissance). Il s’agit d’un moteur déjà présent dans le cône de queue des avions et qui sert à produire de l’énergie pour alimenter au sol les différents systèmes de bord des aéronefs, lorsque les moteurs principaux sont à l’arrêt. Sauf que sa puissance est trop faible pour faire déplacer les avions au sol ; ceux-ci pèsent environ 40 tonnes à vide et jusqu’à 78 tonnes à plein.

Les batteries délivreront une puissance d’environ 35 kW

Pour pallier cette difficulté, l’idée est donc d’installer des batteries dans les soutes de l’avion, qui auront pour fonction d’accumuler cette énergie, puis de délivrer une puissance de l’ordre de 35 kW. « Nous avons développé un convertisseur de puissance bidirectionnel, de haute densité énergétique, associé à une réserve d’énergie. Il stocke l’énergie provenant de l’APU, puis la met à disposition du convertisseur qui active le moteur de la roue », ajoute Xavier Benoit.

Ce système permettra aussi de freiner en électrique lors des déplacements au sol. Il permettra ainsi d’économiser les freins en carbone de l’avion, qui sont davantage adaptés au freinage lors des phases d’atterrissage, c’est-à-dire à haute vitesse et haute température. Il limitera aussi la pollution liée à l’usage de ces freins qui génère de la poussière et des microparticules. « L’énergie de freinage permettra également de recharger les batteries », complète Xavier Benoit.

À l’origine, le projet SUNSET s’était fixé l’objectif très ambitieux de concevoir l’ensemble de ce dispositif, comprenant les batteries ainsi que les différents équipements électriques annexes, avec une contrainte de poids limité à 40 kg. Mais faute de disponibilité des cellules de stockage initialement prévues, qui ne sont pas accessibles au marché aéronautique, car phagocytées par celui de l’automobile, les ingénieurs ont dû se tourner vers une autre solution de batterie. De ce fait, la quantité d’énergie stockée est 3,5 fois supérieure à celle envisagée au départ et l’ensemble de ce pack pèse 80 kg.

« Au-delà de cette difficulté, l’important pour nous est d’avoir démontré que tout le reste de l’équipement est opérationnel, déclare Xavier Benoit. Les cellules de batteries évoluent très vite, et demain, nous pourrons en sélectionner de nouvelles, puis les intégrer à notre équipement. » Ce démonstrateur a fait l’objet de plusieurs tests sur un banc d’essai de Safran, comprenant notamment des phases représentatives d’un vol. En termes de maturité technologique, il correspond à un TRL (Technology Readiness Level) de niveau 5+ sur un total de 9.

Le best of presse : au fil de l’actu sci-tech #13

Ici vous trouverez notre récap’ de l’actualité scientifique et technologique qui a bercé ou chamboulé le mois de juin. Et, comme le veut la tradition : à la fin de cet article, une information bonus !

Des plantes mangeuses de métal

Elle était mentionnée dans le best of presse #12, Claude Grison est la lauréate du prix de l’inventeur européen 2022 dans la catégorie « Recherche », remis lors d’une cérémonie le 21 juin. La directrice de recherche au CNRS, à l’origine de douze brevets, est récompensée pour les méthodes d’utilisation de plantes qu’elle a développées. La solution permet d’extraire les éléments métalliques de sols pollués, comme les sols miniers, et ensuite d’exploiter ces métaux. Ces « écocatalyseurs » servent à créer de nouvelles molécules pour l’industrie. « Nos procédés permettent de produire, grâce à elles, des molécules utiles et très complexes à synthétiser autrement », se rejouit-elle.

Un laboratoire volant dédié à l’analyse de l’air

Les Franciliens ont peut-être remarqué le survol inhabituel et à basse altitude d’un avion, dont la mission est d’effectuer des mesures de l’air. Depuis le 14 juin et jusqu’au 7 juillet, l’ATR42 du Service des avions français instrumentés pour la recherche en environnement (SAFIRE), opère depuis l’aéroport de Pontoise, trois heures par jour, précise le Centre national de la recherche scientifique (CNRS). Il effectue des mesures principalement au-dessus des forêts de l’Ile de France, mais pas uniquement.
Plusieurs laboratoires publics de recherche ont équipé ce véritable laboratoire volant de multiples capteurs et de systèmes d’analyse. L’objectif est de mieux comprendre les transformations subies par la pollution urbaine (comme celle due aux gaz d’échappement) lorsqu’elle se combine avec les produits émis naturellement par les végétaux des zones semi-rurales et des forêts.

Le rendez-vous des innovations

Le salon VivaTechnology s’est tenu du 15 au 18 juin. A la recherche  d’innovations, nous avons trouvé l’entreprise grenobloise ROSI. Elle recycle les modules solaires des panneaux photovoltaïques en fin de vie. Son directeur technologique Guy Chichignoud, s’est entretenu avec Sciences et Avenir : « Notre procédé permet de récupérer le silicium ultra-pur des cellules ainsi que l’argent des fils servant à collecter le courant produit par chaque cellule, ce qui n’était pas possible avantNotre innovation réside dans la possibilité de réutiliser ces matériaux quasiment à l’infini et de réduire l’empreinte carbone de l’industrie photovoltaïque de 90% ».
Et parmi les innovations préférées de Numerama, figurent le potager connecté de l’entreprise La Grangette, les lunettes de réalité augmentée de Cosmo Connected et la solution d’impression 3D alimentaire de La pâtisserie numérique.

Les tests de livraison par drones d’Amazon

Le géant du commerce en ligne a choisi la ville de Lockerford, en Californie, pour se lancer dans la livraison par drones. Avec ce service, baptisé Prime Air, les consommateurs pourront choisir « entre des milliers de produits de tous les jours » qui seront déposés par le drone dans leur jardin, apprend-on par le communiqué de presse d’Amazon daté du 13 juin. Cette expérience doit permettre au service de se perfectionner, afin de le déployer à grande échelle. De nombreux prototypes ont été nécessaires, avant de parvenir au modèle capable d’identifier et d’éviter les obstacles, statiques et mobiles, comme des cheminées, d’autres appareils aériens, et les animaux de compagnie. Les drones de Prime Air pourront porter 2,3 kg de produits dans un paquet, sur un parcours de 24 km, d’après un porte-parole du groupe. « Plus tard cette année (…) les résidents vont pouvoir s’inscrire pour se faire livrer par drone gratuitement », indique le communiqué, sans précision de date.

Un portrait de notre galaxie

Lundi 13 juin, le télescope spatial Gaia a livré ses nouvelles données sur près de deux milliards d’étoiles de la Voie lactée. La précision de cette troisième moisson de données est telle qu’elle permet de dresser la carte de notre galaxie, qui se révèle bouillonnante de vie.
Cette mission scientifique, importante pour l’Agence spatiale européenne (ESA), a été lancée en 2013. Lors de la présentation des données relevées par Gaia, Josef Aschbacher directeur général s’est réjoui : « c’est un jour fantastique pour l’astronomie, qui ouvre les vannes pour de nouvelles découvertes sur l’Univers et notre galaxie. »
Stationné à 1,5 million de kilomètres de la Terre, à l’opposé du Soleil, l’observatoire spatial cartographie notre galaxie sous toutes ses dimensions, au moyen de deux télescopes et d’un capteur photographique d’un milliard de pixels. Cela permet de comprendre son origine, sa structure et sa dynamique.
Les 700 millions de données envoyées au sol chaque jour, durant 34 mois, ont révélé des informations inattendues. Par exemple, les 220 millions de spectres photométriques vont permettre d’estimer pour la première fois la masse, la couleur, la température et l’âge des étoiles. Gaia a aussi enregistré des « tremblements » stellaires, des mouvements minuscules à la surface d’une étoile qui en modifient la forme.
Notre galaxie est plus turbulente que prévu. « On pensait qu’elle avait atteint un état stationnaire, tournant gentiment sur elle-même, comme un fluide qu’on touille doucement avec une cuiller en bois. Mais pas du tout ! », développe François Mignard, responsable scientifique de la mission Gaia pour la France. Sa « vie de patachon est au contraire faite d’accidents, de mouvements inattendus et pas aussi simples » que cette spirale qu’elle décrit. Par exemple, notre système solaire « ne se contente pas de tourner dans un plan perpendiculaire, il monte et il descend, au-dessus et en-dessous », précise-t-il encore.

Triste Lucy

Yves Coppens s’est éteint à l’âge de 87 ans, le 22 juin. Il a dirigé le Muséum national d’histoire naturelle, et était titulaire de la chaire de paléontologie et de préhistoire au Collège de France. Il restera surtout associé à Lucy, l’australopithèque dont il avait découvert le fossile en 1974 avec d’autres scientifiques.
Les hommages au scientifique abondent sur la toile, de nombreux contenus sont à nouveaux disponibles : ses recherches sur l’Homme, ou encore « Comment sommes-nous devenus des humains ? ». On retiendra aussi sa passion pour les « vieilles pierres » qui lui ont valu le surnom « Coco le fossile ».

Bonus musical : RECORDS et les algorithmes de streaming musical

Le bonus de ce mois de juin fait écho à la Fête de la Musique, qui fêtait ses 40 ans le 21 juin. Le journal du CNRS a publié à cette occasion un dossier sur la musique. Notre attention est retenue par l’impact des algorithmes sur l’écoute de la musique, via les multiples plateformes de streaming. « Que disent les big data collectées par les plateformes de nos comportements d’écoute et de nos goûts ? » est une des questions abordées par RECORDS(1), une « recherche collaborative conduite par des chercheur.e.s et des ingénieur.e.s qui travaillent au sein de trois laboratoires du CNRS et des départements R&D de Deezer et d’Orange. »
Deezer a fourni à cette équipe de chercheurs les historiques des écoutes, anonymisés, de ses utilisateurs. « Les travaux de Records inversent la perspective qu’on a habituellement sur le rôle des algorithmes dans la formation de bulles de filtre, explique Camille Roth,  chercheur au CNRS, à la croisée des sciences sociales, des mathématiques et de l’informatique au Centre Marc Bloch. Plutôt que de regarder si le comportement est dévié par la recommandation, nous étudions comment la recommandation est maniée par les usagersOn se rend alors compte qu’il existe différentes attitudes et que l’impact de la recommandation et du filtrage varie en fonction de celles-ci. Sur la question des bulles de filtres sur Internet, il faut vraiment faire l’effort de distinguer différentes classes d’utilisateurs. »
« Nos analyses nous amènent à écarter les théories selon lesquelles la recommandation automatisée cloisonnerait systématiquement les choix des internautes, ou au contraire garantirait une exposition à une plus grande variété de contenus, y compris moins populaires », conclue Thomas Louail, chargé de recherche CNRS et coordinateur du projet RECORDS.

Crédit image de une : Intissar El Hajj Mohamed//Techniques de l’Ingénieur

 

(1) Acronyme de « pRatiques dEs publiCs des platefORmes De Streaming musical »

Qu’est-ce qu’un métamatériau ?

Cela fait longtemps que les métamatériaux émergent régulièrement dans l’actualité scientifique, via des recherches menées dans les laboratoires du monde entier

Théorisés par le physicien russe Victor Veselago à la fin des années 1960, les métamatériaux voient leurs propriétés éclater au grand jour en 2000, grâce aux expériences menées par deux physiciens, John Pendry et David Smith, sur des prototypes de capes d’invisibilité.

En effet, la caractéristique d’un métamatériau est de présenter des propriétés électromagnétiques, acoustiques, sismiques, thermiques et mécaniques que l’on ne retrouve pas dans un matériau naturel. Ces matériaux sont constitués de structures périodiques, diélectriques ou mécaniques, se comportant comme un matériau homogène, mais n’existant pas à l’état naturel.

Les métamatériaux à main gauche

Les propriétés des métamatériaux font l’objet depuis les années 2000 de multiples recherches, visant notamment à étudier les différentes possibilités offertes par les métamatériaux. C’est le cas des métamatériaux « à main gauche » par exemple. Ces derniers ont un indice de réfraction négatif, et nécessitent une perméabilité et une permittivité négatives, simultanément, pour que leurs propriétés soient effectives. La réalisation, avec ce type de matériau, d’une super lentille en 2006, d’une résolution quasi infinie, et d’une cape d’invisibilité, ont définitivement montré au monde scientifique que ces propriétés pouvaient être exploitées. Dans des conditions spécifiques qui rendent extrêmement complexe le passage du laboratoire à l’usine, pour le moment.

Outre un indice de réfraction, une permittivité et une perméabilité négatives, les propriétés des métamatériaux à main gauche sont nombreuses : amplification des ondes évanescentes, inversion de l’effet Doppler, inversion de l’effet Tcherenkov, vitesse de phase et de groupe opposées… tous ces effets observés en laboratoire pourraient dans les années à venir donner lieu à des applications concrètes, dans plusieurs domaines de l’industrie : 

Les métamatériaux sismiques

Les ondes sismiques font l’objet de nombreuses recherches en relation avec les métamatériaux, notamment dans le but de développer des dispositifs permettant de limiter la propagation des ondes sismiques, et donc de protéger plus efficacement les populations. Pour ceci, les chercheurs s’intéressent aux sols structurés. Pour lutter contre les aléas liés à la sismicité de notre planète, des dispositifs ont été développés, qui consistent à structurer un sol, avec du bois ou du ciment par exemple, pour rendre ce dernier moins sensible à la liquéfaction. Il s’agit là de structurer un sol pour en changer les propriétés mécaniques. Mais il est également possible, en disposant dans un sol de manière périodique des matériaux, qui vont avoir pour effet de créer un métamatériau capable de limiter la propagation des ondes sismiques en modifiant le trajet des rais sismiques, ou encore en en filtrant certaines fréquences. 

Récupération d’énergie

L’utilisation de matériaux élastiques ayant un fort contraste de rigidité permet d’obtenir un métamatériau dont la masse effective en dynamique devient négative à certaines fréquences. Pour faire simple, les ondes élastiques ne peuvent pas se propager dans ces matériaux à certaines fréquences, elles sont piégées. Cette propriété peut être utilisée pour concentrer de l’énergie dans une zone prédéfinie d’un micro-système, pour pouvoir l’exploiter

Ces quelques exemples illustrent le potentiel extraordinaire des métamatériaux, dont les propriétés électromagnétiques, acoustiques, sismiques, thermiques et mécaniques, permettent d’imaginer des applications industrielles révolutionnaires. En attendant, les verrous technologiques actuels pour un développement industriel des métamatériaux sont encore nombreux. 

La difficulté à réaliser ces matériaux sur de grandes surfaces, la difficulté à concevoir de nouveaux motifs, et les nombreux effets parasites font partie des difficultés que les chercheurs œuvrent actuellement à surmonter.

Par Pierre Thouverez

L’UNESCO veut préparer le monde au risque de tsunami

« L’objectif de ce programme est de s’assurer que 100 % des communautés côtières qui ont un risque de tsunami soient considérées comme prêtes à réagir dans le cas d’un tsunami », annonce Vladimir Ryabinin, secrétaire exécutif de la Commission océanographique intergouvernementale de l’Unesco (COI) à l’occasion d’une conférence de presse organisée le 21 juin au siège de l’Unesco à Paris.

« En l’état, plus de 40 communautés dans 21 pays partout dans le monde, dans les Caraïbes, dans le Pacifique, dans l’océan Indien, sont reconnues par le COI comme étant prêtes à réagir en cas de tsunami, partage Vladimir Ryabinin. Ce n’est pas assez : il y a des milliers de communautés qui risquent de subir un tsunami. »

Être « tsunami ready », qu’est-ce que cela implique ?

Douze indicateurs permettent de dire si une communauté est prête à affronter un tsunami. L’Unesco la qualifie alors de « tsunami ready ». Ces indicateurs couvrent l’évaluation de la menace, la préparation de la communauté face à cette menace et les réponses mises en œuvre pour y répondre. La dernière étape est la réalisation d’un exercice d’évacuation en temps réel. Ce dernier permet de tester la préparation locale, le système de prévention des risques et de sensibiliser la population locale.

« Le concept clé dans le développement de la préparation des communautés aux tsunamis, c’est la liaison entre la recherche, la science et la préparation des communautés, explique Bernardo Aliaga, spécialiste du Programme de la COI-UNESCO. Il faut lier tout cela avec les organismes de réponse à l’urgence : la protection civile, les pompiers, la police, l’armée… »

Le risque de tsunami en Méditerranée

« En Méditerranée, la probabilité d’avoir une vague d’un mètre, soit une vague catastrophique, dans les 30 prochaines années est très élevée », assure Vladimir Ryabinin. La question de la préparation est technologique, mais aussi psychologique. « Le principe de base : là où il y a eu un tsunami, il y aura un tsunami à l’avenir », rappelle-t-il. Les scientifiques pointent les côtes de la mer Égée, du Maghreb, de la Turquie, la Côte d’Azur et la région du Stromboli en Italie, comme les zones les plus à risque de tsunami en Méditerranée.

Il y a urgence à préparer les centaines de communautés menacées en Méditerranée, alerte l’Unesco. Car aujourd’hui aucune communauté n’est reconnue « tsunami ready » dans la région. Certaines communautés ont tout de même commencé le travail. Bernardo Aliaga cite par exemple l’île de Samos, les municipalités d’Alexandrie et d’Istanbul, le Maroc, l’Égypte qui devraient être reconnus « tsunami ready » en 2023.

Pour sa part, la France commence sérieusement à se préparer à cette éventualité. Un exercice de simulation de tsunami a ainsi eu lieu à Cannes le 5 novembre dernier. Et un exercice d’alerte tsunami s’est déroulé à l’aéroport de Nice Côte d’Azur ce 20 juin 2022.

Il est urgent de prendre en compte la criticité des ressources dans la Stratégie Nationale Bas Carbone

Emmanuelle Ledoux est directrice générale de L’INEC (Crédit : INEC).
  • L’INEC est l’organisme français de référence et d’influence autour de l’économie de la ressource. Il a pour mission de fédérer les acteurs publics et privés afin de promouvoir l’économie circulaire et accélérer son développement.
  • Capgemini Invent est la marque d’innovation digitale, de design et de transformation du groupe Capgemini.
  • La Stratégie Nationale Bas Carbone (SNBC) est la feuille de route de la France pour lutter contre le changement climatique, adoptée en 2015 (SNBC-1) et révisée une première fois en 2019 (SNBC-2).

L’étude INEC/Capgemini « SNBC sous contraintes de ressources » est disponible en téléchargement sur le site de l’INEC.

Techniques de l’ingénieur : Cette étude est inédite, car elle associe criticité des ressources et décarbonation. Qu’est-ce qui en est à l’origine ?

Emmanuelle Ledoux : En janvier 2021, sur demande du ministère français de la Transition écologique, RTE (Réseau de Transport d’Électricité) et l’AIE (Agence Internationale de l’Énergie) ont publié un rapport commun¹ visant à identifier les conditions et exigences liées à l’utilisation d’une forte proportion d’énergies renouvelables à l’horizon 2050.

Cette étude pointait notamment le risque que peut représenter un passage aux EnR vis-à-vis de la criticité des ressources utilisées.

À l’INEC, nous avons voulu vérifier comment cet aspect était traité dans la Stratégie Nationale Bas Carbone (SNBC). Étonnamment, cet aspect était seulement évoqué de manière anecdotique, comme point de vigilance². Ce constat nous a donc incités à lancer une étude approfondie qui montrerait la criticité des ressources par secteur.

Comme nous voulions une étude de fond, qui apporterait un point de vue objectif et chiffré, nous avons sollicité l’aide de Capgemini Invent, qui s’est chargé de la partie modélisation.

Cette étude est vaste. Quelles sont les principales thématiques abordées ?

Capgémini Invent a proposé une approche de criticité multifactorielle en trois temps qui permet de croiser valeur économique et criticité et d’évaluer les ordres de mérite en termes de criticité. Grâce à cette méthodologie, il devient possible de quantifier à la fois les ressources naturelles nécessaires à la transition bas carbone et les déchets générés.

Nous avons ainsi choisi d’étudier trois filières emblématiques de la transition bas carbone qui sont soumises à des contraintes différentes. Si l’électrification des véhicules est idéale pour décarboner le transport, la fabrication des batteries est malheureusement très dépendante d’une multitude de ressources importées (métaux, terres rares, lithium, etc.).

Concernant le bâtiment, si les ressources utilisées ne semblent pas critiques (béton, aluminium, acier), ce sont les volumes importants de matériaux consommés et de déchets générés qui sont au cœur du problème.

Enfin, le 3e secteur abordé, la valorisation de la biomasse, a été choisi en raison de la crise actuelle concernant l’approvisionnement en gaz. Si la valorisation de la biomasse en énergie peut théoriquement rendre la France totalement indépendante au gaz, cette éventualité pose de nombreuses questions en matière de compétition des usages sur les terres et d’acceptabilité de tels projets par les populations.

Quels sont les leviers à mettre en place pour une décarbonation « réaliste » ?

L’étude est là pour alerter sur les problèmes de l’actuelle SNBC. Nous voulons montrer que la stratégie proposée pour 2050 ne passe pas. Par exemple, on sait qu’on ne disposera pas des ressources suffisantes pour approvisionner suffisamment de batteries électriques. Il faut abandonner nos visions à court terme de consommation linéaire et travailler sur le long terme, à développer les filières de recyclage, de réemploi et de réutilisation des batteries.

Ce sont des débats d’actualité et il existe déjà des entreprises qui travaillent activement sur ces sujets. SMOVENGO, l’opérateur actuel du Vélib’ est ainsi en train de passer de « loueur de vélo » à réparateur/reconditionneur et ils étudient actuellement la possibilité de remplacer les éléments de batterie défectueux.

Quelles sont vos attentes vis-à-vis des industriels et des institutions ?

C’est la première fois qu’une étude multifilière intègre à la fois criticité et décarbonation et nous espérons que la méthodologie servira comme outil à de futurs travaux, sur d’autres filières.

Par ailleurs, nous avons aussi une attente très claire : que les conditions de définition de la 3e SNBC intègrent dès le départ cette question de la criticité des ressources.

Il est grand temps de sortir des approches cloisonnées et monocritères et de planifier la mise en place de stratégies cohérentes, pas seulement d’accompagnement de filières.


¹ AIE, RTE. « Conditions et prérequis en matière de faisabilité technique pour un système électrique avec une forte proportion d’énergies renouvelables à l’horizon 2050 ». Janvier 2021.

² À la page 123, le rapport mentionne le point de vigilance : « S’assurer de la disponibilité des ressources en métaux rares pour les technologies nécessaires à la transition énergétique telles que le véhicule électrique (batteries) et certaines filières renouvelables (photovoltaïque), de l’absence de tension avec d’autres filières bas-carbone également en besoin de métaux… ».

Gabriel Plassat : « Accompagner l’innovation et anticiper les changements, les clés d’une (r)évolution numérique aux nombreux enjeux »

Gabriel Plassat, Pilote de la Fabrique des Mobilités au sein de l’ADEME, est également conseiller éditorial sur l’offre T.I. « Mobilité et véhicules du futur ». Crédit: G. Plassat

Techniques de l’Ingénieur : Quelle(s) formation(s) avez-vous suivie(s) ?

Gabriel Plassat : Je suis ingénieur motoriste, avec une spécialité en moteur thermique et pétrole. J’ai travaillé plusieurs années chez un constructeur automobile, puis un équipementier.

En 2001, je suis entré à l’ADEME, toujours en tant que spécialiste des moteurs thermiques et des carburants, afin de réaliser des bilans environnementaux, mais aussi évaluer et comparer les filières, l’objectif étant de parvenir à apporter le meilleur conseil possible en termes de pratiques.

Qu’est-ce que représente, pour vous, l’innovation ?

Innover revient à changer un secteur, transformer le quotidien des personnes. En termes de mobilité par exemple, l’apport du numérique via les applications a profondément modifié la manière dont on se déplace aujourd’hui, quel que soit le mode de transport utilisé. Cette innovation doit être estimée à tous les degrés, tant à l’échelle du système que de la chaîne de valeur ou encore des rapports de force.

Pouvez-vous nous en dire plus sur le dispositif d’accompagnement que vous proposez ?

Ce dispositif s’adresse au personnel de l’ADEME. Il concerne tous les secteurs, et pas uniquement la mobilité. Concrètement, il est composé de deux volets. Le premier se décline en une formation académique au cours de laquelle sont abordés des thèmes relatifs à l’innovation et à ce que peut lui apporter le numérique, mais aussi à la manière dont les entreprises innovent.

Le second volet est plus proactif puisqu’il permet d’apporter des solutions à des problèmes concrets auxquels peuvent être confrontés les acteurs en matière de transition écologique. Ces solutions peuvent relever du réglementaire, de la pratique ou encore du collaboratif avec l’inclusion d’acteurs issus du monde industriel, des collectivités, de la recherche…

Comment faites-vous pour vous adresser à des interlocuteurs parfois très différents ?

Nous agissons de manière adaptée en fonction des acteurs, puisque leur vision et leur temporalité sont différentes.

Pour ma part, je m’intéresse particulièrement au processus cognitif et culturel accompagnant le changement. En effet, engager de nombreux acteurs différents sur des enjeux de plus en plus complexes implique de travailler autrement.

Les acteurs du numérique ont notamment un grand rôle. Ils transforment de manière importante des secteurs, à l’instar de celui de l’information à travers les GAFA, ou encore celui de la mobilité. Or, il me paraît important de déterminer ce qui rend ces acteurs quasi incontournables en cas de réussite, au point qu’ils entravent toute possibilité de concurrence.

Aujourd’hui, nous pouvons expliquer ce processus de réussite, même s’il reste souvent difficile de le reproduire. Quelques-uns y parviennent heureusement, à l’instar de certaines plates-formes.

Qu’est-ce qui a motivé votre intérêt pour le numérique ?

En 2007, je me suis intéressé au fonctionnement des transports et de la logistique afin d’en déterminer les évolutions et les futurs acteurs qui le composeraient. L’iPhone venait de naître, les plates-formes Uber ou BlaBlaCar n’existaient pas : nous étions à la préhistoire de ces aventures.

Mon approche du numérique s’est faite à travers elles ; plus précisément, je cherchais à comprendre comment les acteurs du numérique construisent les monopoles, le fonctionnement de leurs plates-formes et leurs différences avec un industriel historique.

Prévoir le futur des transports nécessite d’en connaître les acteurs influents et les changements de rapport de force. J’avais anticipé cette évolution et créé, en 2009, un blog dont le premier article s’intitulait « Le passage de l’industrie des objets à l’industrie des services : une chance pour l’environnement, le citoyen et l’industrie ». J’y évoquais les progrès à venir et les services qui nous seraient proposés via notre téléphone, ainsi que le décalage de rapport de force vers l’Asie.

J’essayais, par ce biais, d’éveiller les acteurs européens sur l’importance de réagir et de ne pas laisser passer les opportunités du numérique. Mon objectif, qui rejoint celui de l’ADEME, était d’aboutir à des mobilités efficaces, peu polluantes et économes.

Les constructeurs automobiles ont peu suivi ces préconisations. En revanche, de nombreuses start-up ont vu le jour – et parfois réussi – dans le domaine de la mobilité.

J’essaie d’imaginer les évolutions afin d’inciter les acteurs à agir pour ne pas simplement les subir. Par exemple, la Chine est aujourd’hui un acteur majeur du véhicule électrique et investit massivement dans ce secteur. Il me semble important que l’Europe réagisse en proposant des véhicules électriques efficaces, économes et légers.

Quels sont vos projets, actuels et futurs ?

L’évolution est parfois difficile. Je souhaite pouvoir accompagner, à travers une veille, le développement de solutions différentes de celles proposées actuellement.

J’ai également un projet qui s’appelle l’Extrême défi, dont l’objectif est de construire en France, et si possible en Europe, une industrie de véhicules électriques sobres et efficaces, peu coûteux, interopérables pour les territoires périurbains et ruraux.

Ce défi doit durer trois ans. Il rassemble des équipes dédiées à la conception, ainsi que des territoires dans lesquels seront expérimentés et étudiés les prototypes créés. L’objectif est d’accompagner le développement d’une industrie de plus gros volumes, en standardisant au maximum les composants.

Outre le numérique et la mobilité, je m’intéresse particulièrement à l’intelligence collective, qui permet de faire interagir des acteurs hétérogènes. Certains se sont manifestés afin de se joindre au projet de l’Extrême défi. D’autres en revanche, tels que des constructeurs automobiles historiques, peuvent se montrer réticents face aux évolutions et il faut parfois les y contraindre, à l’instar de la fin annoncée par l’Europe des véhicules thermiques en 2035.

Mon objectif est de faire émerger une autre industrie, en allant chercher de nouveaux partenaires.

Quel regard portez-vous sur l’industrie, les sciences, la recherche ? Quels défis, nouveaux ou non, qu’ils relèvent par exemple du financement, de la formation, de la recherche, devront être relevés ?

Il est essentiel de former des ingénieurs à la complexité, d’avoir des programmes de recherche, de développer de hautes technologies, sans pour autant laisser de côté les low-tech.

L’ADEME, pour sa part, a pour rôle d’identifier les besoins de recherche, mais aussi les blocages, avant de financer des programmes de recherche incluant différentes parties prenantes. Elle soutient notamment l’Extrême défi. Nous souhaitons, quant à nous, impliquer des partenaires industriels afin qu’ils apportent des ressources dans un premier temps, qu’ils subventionnent des prototypes dans un second.

Parvenir à coordonner des partenaires multiples et lever les verrous est un défi passionnant.

Quel conseil donneriez-vous à un ingénieur, un technicien ou un scientifique qui arrive sur le marché du travail ?

De faire preuve de curiosité, d’être expert dans un domaine et de maintenir un haut niveau de complexité, mais également d’être transversal avec d’autres expertises.

Quelles compétences/qualités sont, selon vous, indispensables en général et plus particulièrement sur vos domaines d’expertise ?

Il me semble essentiel de savoir faire preuve d’empathie, de se mettre à la place d’un acteur – même controversé – pour comprendre ses contraintes.

Avez-vous recours à une veille technologique ? Dans ce cadre, à quels domaines vous intéressez-vous et quelles sont vos sources principales d’information ?

Je m’appuie beaucoup sur les réseaux sociaux et les newsletters. Le flux d’information est continu, mais l’innovation en ce domaine a permis d’améliorer les méthodes de travail.

Que vous apporte la collaboration avec Techniques de l’Ingénieur, en tant qu’auteur et conseiller scientifique ?

Cette collaboration permet l’instauration d’un dialogue dans lequel peuvent se partager les savoirs. Rédiger un article ou animer un webinar implique par ailleurs de se former encore et encore. Il est en effet impératif de maîtriser un sujet pour mieux le transmettre.

Les contributions de Gabriel Plassat aux Techniques de l’Ingénieur

Gabriel Plassat collabore avec les Techniques de l’Ingénieur en tant que conseiller scientifique au sein du comité d’experts de l’offre « Véhicule et mobilité du futur ».

Ses domaines d’expertise portent sur la mobilité, le numérique et les systèmes de transport intelligents.

Webinar

Le rôle des GAFA dans la mobilité

Offre

Véhicule et mobilité du futur

Articles

– Systèmes de transports et mobilités pour les biens et les personnes

– Les GAFA dans le secteur des transports – La calèche, l’automobile et après

– Systèmes de transports pour les biens et les personnes

– Filières énergétiques actuelles et futures pour le transport routier de marchandises

Ecomobilité : Ce que l’Europe prévoit pour décarboner les transports

Le lieu était symbolique. Devant ses homologues européens le 21 février dernier, le ministre français délégué aux Transports d’alors, Jean-Baptiste Djebbari, n’avait pas manqué de le rappeler : « Nous ne sommes pas n’importe où. Entre ces murs, plus de deux siècles d’histoire de l’aéronautique nous entourent. À quelques mètres de nous seulement, il y a 95 ans, Charles Lindbergh était accueilli en héros par 200 000 personnes, sur les pistes de l’un des premiers aéroports du monde, après avoir traversé l’Atlantique. » La force du symbole, donc : celui de l’ambition et du progrès. En matière de décarbonation des transports du XXIe siècle, les Etats membres de l’Union européenne vont devoir s’appuyer sur les mêmes ressorts. Et ils n’ont plus une minute à perdre.

Développer au maximum les transports collectifs

« Notre première priorité, c’est la décarbonation, a insisté le représentant de la présidence française de l’UE. L’Union européenne s’est fixé des objectifs pour 2030. Des objectifs ambitieux. Nous devons nous donner les moyens de les atteindre. Car c’est la crédibilité de l’Europe qui est en jeu. Nous ne serons pas crédibles pour 2050 si nous ne tenons pas nos objectifs de 2030. » En juillet 2021, la Commission européenne annonçait en effet son plan Fit-for-55 et ses grandes mesures destinées à réduire les émissions de gaz à effet de serre (GES) de 55% d’ici 2030 : tous les secteurs d’activité sont concernés (industrie, transports, bâtiment, agriculture…).

Le chapitre « transports » n’est évidemment pas passé inaperçu, ce secteur représentant 30% des émissions de gaz à effet de serre en Europe. L’urgence pour les pouvoirs publics est donc de pousser ce secteur à favoriser le développement de solutions de mobilité durable. Cependant, le poste de ministre délégué aux Transports est toujours vacant et n’incite pas à l’optimisme au sujet d’une mise en œuvre rapide et efficace de solutions pérennes. Les idées sur la table ne manquent pourtant pas : la révision des règles de taxation, la généralisation des infrastructures pour carburants propres (électricité, biogaz, hydrogène), l’instauration au niveau européen d’un mécanisme pollueur-payeur ainsi que la mise en place d’un fonds social pour soutenir la transition. Qui pour vraiment porter ces questions entre la Première ministre Elisabeth Borne, la ministre de la Transition écologique Amélie de Montchalin (1), la ministre de la Transition énergétique Agnès Pannier-Runacher ou encore le ministre délégué chargé des Collectivités territoriales Christophe Béchu(1) ?

Heureusement, le coup d’accélérateur principal se fera surtout au niveau des usages. Pour cela, la mobilité collective doit être maximisée, grâce à l’offre de transports et les infrastructures multimodales.

Première dans le viseur : la relance du train. « Atteindre la réduction de 55% des émissions de CO2 en Europe d’ici 2030 ne peut se faire sans un doublement des offres de services de transport public et ferroviaire, au mieux la voiture électrique les réduira de 20%, chiffre Laurent Mazille, directeur des Affaires publiques de Transdev. Mais il ne suffit pas d’interdire la voiture en ville ou les avions en France pour relancer le train, il ne doit pas être pris par défaut, il doit être attractif et compétitif intrinsèquement. » Mais voilà, la relance du train ne peut pas tout résoudre à elle seule.

Viennent ensuite le vélo pour les citadins, mais surtout les véhicules électriques et les transports collectifs et routiers. Tous nos modes de transports individuels vont devoir faire leur révolution. Un mot non galvaudé tant le changement doit être rapide. Il faut, en effet, baisser de plus de 50 % les émissions de gaz à effet de serre au d’ici à 2030. Dans sa dernière étude sur les transports bas carbone, l’Institut Montaigne soulignait deux choses importantes : 74% des Français utilisent leur voiture quotidiennement pour se rendre au travail, ce qui sous-tend un accompagnement de l’évolution des usages des citoyens. Et ce, sans provoquer de troubles sociaux comme cela a été le cas lors du mouvement des Bonnets rouges en 2013 et de celui des Gilets jaunes en 2018. Les pouvoirs publics en ont conscience : les transports durables vont devoir être inclusifs.

La route, le grand chantier de demain commence aujourd’hui

Parlons chiffres à présent. Selon le Rapport sur l’état de l’environnement du ministère de la Transition écologique (1), les transports seraient responsables de 31% des émissions de GES en France, 97% étant directement imputables à la combustion des carburants (essence et diesel). Sur ce total, 54% sont dus aux voitures particulières, 24% au transport routier. Le calcul est donc rapide à faire : le changement systémique attendu viendra principalement de la révolution de la route, de la généralisation des bornes de recharge électrique haut débit (plus de 150kW) et du développement d’autres énergies vertes pour les poids lourds. Avec – et c’est important de le souligner – un accompagnement en faveur des ménages les plus modestes grâce au Fonds social pour le climat de l’Union européenne, destiné à financer l’efficacité énergétique des bâtiments mais aussi destiné à rendre accessible les modes de mobilité durable à l’ensemble de la population européenne.

Si l’impulsion vient de Bruxelles, chaque Etat membre va devoir mettre en place ses propres solutions. En France, les pouvoirs publics se penchent sur la question depuis dix ans et l’apparition des premières voitures électriques. Les ventes de véhicule propre sont en train de décoller en France (+46,2% entre 2021 et 2020), il va donc falloir que les infrastructures dédiées suivent le même rythme, offre et demande devant se rencontrer sous peine de foncer dans le mur. « Il va être nécessaire de faire évoluer nos infrastructures, en particulier pour accueillir les véhicules électriques qui seront de plus en plus nombreux à effectuer des trajets interurbains, a déclaré Arnaud Quémard, président de l’Association des sociétés françaises d’autoroutes (ASFA), devant le Sénat en juin 2020. Les véhicules utilisant de l’hydrogène nécessiteront également des investissements considérables puisque le coût d’une borne de recharge est estimé à deux millions d’euros. » Partout en France, de nombreux projets sont sur la table. Au nord de Paris par exemple, de nouveaux aménagements sur l’autoroute A1 pourraient bientôt voir le jour, avec une voie réservée au covoiturage et les bus express comme cela se fait déjà depuis 2019 dans le sud-est de la France, grâce au partenariat entre la région PACA et Vinci Autoroute, avec l’aménagement de pôles multimodaux (réunissant gares routière et ferroviaire) et d’aires de services pour la recharge électrique.

Mais tout cela a un coût : rien que pour le territoire tricolore, la facture des nouveaux aménagements routiers s’élèvera à 60 milliards d’euros dans les dix prochaines années, selon une récente étude d’Altermind, qui souligne que nous allons « devoir désormais transformer l’infrastructure construite au XXe siècle pour l’adapter aux mutations du XXIe. Le prix de l’inaction serait bien plus élevé que celui de la décarbonation ». Reste donc l’épineuse question du financement d’une telle révolution. En France comme partout en Europe, les Etats seuls ne pourront pas mettre la main à la poche du contribuable pour financer des travaux d’une telle ampleur. Ils devront nécessairement avoir recours à la capacité de financement et d’investissement des acteurs du secteur privé pour relever le défi d’ici 2030. De Paris à Bruxelles en passant par Berlin, tous les décideurs le savent : il n’est plus temps de tergiverser.

Par Aurélie Simon

(1)  L’article a été écrit avant les élections législatives, en juin 2022

Wi-Fi 7 : plus de performances à condition de changer d’appareils…

Le Wi-Fi passe la vitesse supérieure ! Le Wi-Fi 5 (IEEE 802.11ac, IEEE correspondant à Institute of Electrical and Electronics Engineers qui développe les standards) a été la norme durant cinq ans.

A partir de là, les générations suivantes se sont succédées à un rythme beaucoup plus soutenu depuis le Wi-Fi 6 (IEEE 802.11ax) en 2019. Cette norme a d’ailleurs été de courte durée puisqu’un an plus tard, elle a été remplacée par le Wi-Fi 6E.

Pas le temps de reprendre notre souffle puisque le Wi-Fi 7 (IEEE 802.11be) est déjà annoncé. Il ne s’agira pas d’une simple mise à niveau. Cette 7e génération promet en effet des améliorations majeures avec en particulier des débits quatre fois plus élevés. Elle devrait également bénéficier d’avancées astucieuses visant à réduire la latence, à augmenter la capacité et à renforcer la stabilité des connexions.

Les nouvelles technologies permettront d’accroître la capacité sans fil, et, d’une manière générale, de rendre les réseaux Wi-Fi plus flexibles et plus réactifs pour les utilisateurs.

En faisant varier la phase et l’amplitude des ondes radio, la technologie MAQ-4K améliorera l’efficacité spectrale en incorporant plus de données dans chaque transmission. La modulation d’amplitude en quadrature (traduction de l’anglais, Quadrature Amplitude Modulation ou QAM) est une forme de modulation d’une porteuse par modification de l’amplitude de la porteuse elle-même et d’une onde en quadrature (onde déphasée de 90° avec la porteuse). Contenant plus de données, le 4K-QAM permet une augmentation de 20 % du débit de données du WiFi 7 (802.11be) par rapport au 1024-QAM du WiFi 6 (802.11ax).

Vidéo HD sur son smartphone

Plusieurs nouvelles technologies, dont certaines ont fait leurs débuts dans la norme Wi-Fi 6E mais n’ont pas encore fait leurs preuves, permettront aussi aux routeurs et aux appareils Wi-Fi 7 d’utiliser pleinement une toute nouvelle bande de spectre à 6 gigahertz. Ce spectre, exploité pour la première fois avec Wi-Fi 6E, ajoute une troisième bande sans fil aux bandes plus connues de 2,4 GHz et 5 GHz.

Les opérations multiliaisons (MLO- Multi-link Operation) tireront parti du fait que la bande 5-GHz existante et la nouvelle bande 6-GHz de Wi-Fi sont comparativement plus proches que les bandes 2,4-GHz et 5-GHz que l’on retrouve dans nos box internet notamment.

Le MLO permet aux appareils d’émettre et de recevoir simultanément sur différentes bandes et canaux. Avec Wi-Fi 7, les appareils comme les téléphones portables et les appareils IoT pourront accéder à plusieurs canaux en même temps. Par ailleurs, le MLO réduira également la latence et améliorera la fiabilité.

Ces avantages permettront de télécharger sur son smartphone ou sur son PC portable des vidéos de haute qualité, d’utiliser sans soucis la Réalité virtuelle ou Augmentée ou de faire des simulations 3D sans contraintes sur une tablette.

Cette nouvelle génération favorisera également les applications de réalité augmentée et de réalité virtuelle qui nécessitent un débit élevé et une faible latence.

Comme les normes précédentes, le Wi-Fi 7 sera rétro-compatible. Mais pour profiter des nouvelles fonctionnalités et des performances améliorées qu’elle promet, il sera nécessaire de mettre à niveau ses appareils. En clair, en acheter de nouveaux…

La surconsommation des pays riches menace la jeunesse mondiale

Le Centre de recherche Innocenti de l’UNICEF dévoile son nouveau rapport Lieux et espaces : Environnements et bien-être des enfants. Il affirme qu’aucun des 39 pays de l’OCDE et de l’Union européenne ne parvient à fournir des environnements sains aux enfants sur l’ensemble des indicateurs étudiés. « Non seulement la majeure partie des pays riches ne parviennent pas à fournir à leurs propres enfants un cadre de vie sain, mais pire, ils contribuent à la destruction de celui d’autres enfants, ailleurs dans le monde », affirme Gunilla Olsson, directrice du Centre de recherche Innocenti de l’UNICEF, citée dans un communiqué.

Pour ce classement, l’UNICEF s’appuie sur une série d’indicateurs tels que l’exposition à des substances polluantes nocives : pollution atmosphérique, pesticides, humidité du domicile, plomb. Le Fonds des Nations unies pour l’enfance prend en compte l’accès à la lumière, aux espaces verts et à des routes sûres. Mais aussi les contributions des pays à la crise climatique, à la consommation des ressources et à la production de déchets d’équipements électroniques et électriques (DEEE).

Protéger chez soi, mais détruire ailleurs

L’Espagne se trouve en tête du classement, suivie par l’Irlande et le Portugal. « Bien qu’aucun de ces trois pays ne caracole en tête du classement dans toutes les dimensions, ils sont tous trois parvenus à offrir des conditions environnementales satisfaisantes aux enfants tout en ayant un impact sur l’environnement mondial faible à moyen au sein de ce groupe de pays », note le rapport.

« Certains pays offrant des environnements relativement préservés à leur propre jeunesse contribuent fortement à la pollution qui détériore les conditions de vie des enfants dans d’autres pays », souligne Gunilla Olsson. Ainsi, la Finlande, l’Islande et la Norvège figurent dans le trio de tête en matière de fourniture d’environnement sain à leur propre jeunesse. Ces trois pays se situent toutefois aux dernières places si l’on considère leur impact sur la planète sur trois indicateurs : taux d’émissions, volume de déchets électroniques et niveau de consommation.

Certains des pays les plus riches du globe comme l’Australie, la Belgique, le Canada et les États-Unis ont un impact majeur sur l’environnement mondial. Ils se classent par ailleurs au bas de l’échelle pour ce qui est de garantir un milieu sain aux enfants vivant sur leur propre sol. À l’inverse, les pays les moins riches de l’OCDE et de l’UE, en Amérique latine comme en Europe, ont un impact nettement moins prononcé sur l’état général de la planète. Ainsi, le Costa Rica et la Roumanie arrivent en bas de classement pour leur propre jeunesse, mais ont l’impact le plus faible sur l’environnement global.

« Nous avons le devoir envers nous-mêmes et envers les générations futures de créer de meilleurs cadres de vie pour favoriser l’épanouissement des enfants, conclut Gunilla Olsson. Nous devons adopter des politiques et des pratiques respectueuses de l’environnement, car il constitue l’héritage le plus précieux des enfants et des jeunes. »

Une alternative aux emballages plastiques grâce au mariage de la cellulose et de la céramique

Emballages, bouteilles, étiquettes… les plastiques à usage unique sont très présents dans notre quotidien. Ils sont pointés du doigt en raison de leur effet néfaste sur l’environnement, car ils ne se désagrègent pas après usage, mais se décomposent en microparticules que l’on retrouve un peu partout, notamment les océans. Réduire ces déchets est donc un enjeu environnemental majeur. À Grenoble, des chercheurs ont développé un matériau qui présente la flexibilité et la biodégradabilité du papier, tout en possédant les propriétés barrières du plastique, c’est-à-dire qu’il résiste à l’eau et est imperméable aux gaz. Leur recette ? Ils ont déposé une couche nanométrique de céramique sur une feuille de cellulose. Ce procédé est le fruit du travail de recherche de deux laboratoires, qui ont su combiner leur expertise, chacun dans leur domaine : le SIMAP (Science et ingénierie des matériaux et procédés) spécialisé dans les matériaux céramiques, et le LGP2 (laboratoire Génie des procédés papetiers) qui, comme son nom l’indique, est spécialisé dans le domaine papetier. Une start-up vient d’être créée afin de valoriser cette nouvelle technologie. Entretien avec Frédéric Mercier et Erwan Gicquel, deux des quatre cofondateurs de Cilkoa. Le premier est aussi chercheur CNRS au SIMAP et le second, un ancien doctorant du LGP2.

Techniques de l’Ingénieur : Comment parvenez-vous à déposer une fine couche de céramique sur de la cellulose ?

Frédéric Mercier (à gauche) et Erwan Gicquel (à droite), deux des quatre cofondateurs de Cilkoa. Crédit : Cilkoa

Frédéric Mercier : Les matériaux cellulosiques possèdent des liaisons chimiques intéressantes à leur surface, appelées des groupements OH (ou groupements hydroxyles), qui sont capables de réagir avec un composé organométallique, lequel a la particularité d’être un précurseur de la céramique. Il se présente sous la forme d’un gaz et va interagir avec les liaisons OH, pour former un revêtement de céramique très fin (inférieur à 50 nanomètres) sur toute la surface du papier. Quelques atomes de céramique vont ainsi venir se greffer sur chaque fibre de cellulose. C’est comme si on plaçait une coquille de céramique autour de chaque fibre.

Quelles difficultés avez-vous dû surmonter pour mettre au point ce procédé ?

Erwan Gicquel : Habituellement, ce procédé, appelé ALD (Atomic layer deposition), est utilisé en salle blanche, avec des matériaux lisses, non rugueux, et dans un environnement sans poussière. Il est notamment employé dans le domaine de la microélectronique. Cette technologie est donc à des années-lumière de l’univers papetier, où il y a de la poussière partout, les matériaux sont rugueux, massifs…

Ce procédé de dépôt d’une couche nanométrique de céramique sur de la cellulose existait déjà dans la littérature, mais était uniquement adapté à des surfaces de quelques cm². Tout notre travail de recherche, démarré en 2018, a consisté à le rendre compatible avec les volumes de l’industrie de l’emballage, dont les besoins se chiffrent à plusieurs centaines de millions de m². Nous avons réalisé de nombreuses expérimentations afin de tester différents points de fonctionnement, sur différentes feuilles de papier. Nous avons couplé ce travail à de la simulation, pour comprendre comment ce gaz s’introduit dans chaque fibre de cellulose. Nous avons aussi développé des méthodes pour caractériser très précisément la présence de ces quelques nanomètres de céramique sur toute la surface des papiers.

Quelles sont les performances de votre nouveau matériau ?

F.M : La cellulose possède de nombreuses propriétés intéressantes, mais ne supporte pas l’eau. Dès la moindre trace d’humidité, elle se désagrège et il n’y a plus aucune tenue mécanique sur ce support. Grâce au dépôt d’une couche nanométrique de céramique, la cellulose devient inerte à la vapeur d’eau, aux liquides, ainsi qu’aux gaz. Il est par exemple possible de fabriquer un papier hydrophobe ou possédant un effet de barrière aux gaz. Ces propriétés sont uniquement obtenues grâce aux quelques nanomètres de céramique greffés à la surface de chaque fibre de cellulose ; il ne s’agit pas d’un enduit ou d’un vernis qui risqueraient de bouger ou de s’écailler. Ces liaisons chimiques sont intimement liées à la surface de la fibre.

Au final, on obtient un matériau dont les propriétés barrières sont similaires à celles des plastiques et composé à plus de 99,9 % de cellulose et de quelques atomes de céramique. Ce revêtement est totalement transparent et imprimable ; on ne voit pas la différence entre un papier traité ou non traité. Et, bonne nouvelle, ce matériau se dégrade comme du papier, en condition de compostage ou de recyclage. C’est une innovation sans équivalent sur le marché.

Quelles applications ciblez-vous ?

E.G : Nous ciblons tous les emballages à usage unique au sens large, qui ne peuvent pas être recyclés actuellement, qu’ils soient alimentaires ou cosmétiques. Nous avons bâti une stratégie pour atteindre le marché étape par étape. Nous allons commencer par les emballages de produits secs, puis aller progressivement vers ceux contenant des produits liquides, comme les pots de yaourt. Dans ce cadre, nous proposons également une alternative aux emballages aujourd’hui complexes, comme les paquets de chips qui contiennent plusieurs couches, dont une métallisée.

À quel stade de développement se trouve votre projet ?

F.M : Nous venons de créer une start-up au 1er juin. D’un point de vue technologie et industrialisation, nous allons devoir réaliser un changement d’échelle, afin de rendre compatible notre procédé avec les demandes des clients. Nous sommes déjà en contact avec des industriels de l’agroalimentaire, qui ont manifesté leur intérêt pour notre produit.

Notre business model, au moins dans un premier temps, sera celui de la prestation de service, afin de transformer le matériau cellulosique de nos clients. Ils vont nous apporter leurs matériaux cellulosiques et notre rôle sera d’y apposer notre revêtement en céramique. Nous allons aussi les conseiller sur des matériaux.

Notre objectif est de mettre en service notre première usine en 2024/2025, mais en attendant, nous travaillons avec nos clients pour qualifier les matériaux et revêtements sur des applications concrètes. Avec nos réacteurs pilotes, situés dans le laboratoire SIMAP avec qui nous collaborons, nous sommes même capables de répondre à des besoins en production pour de petites séries.

Nous sommes dans le bon « timing » pour répondre aux besoins des industriels qui sont confrontés à l’échéance de 2025 ; une date à partir de laquelle la majeure partie des plastiques devront avoir disparu des emballages à usage unique. Nous avons déjà validé notre modèle économique, c’est-à-dire que nous allons pouvoir offrir un matériau d’emballage doté de fonctions barrières, totalement biodégradable et recyclable, pour un coût cohérent avec le marché.

Vishing : une escroquerie au bout du fil

L’imagination des escrocs ne semble pas avoir de limites ! Ils profitent de chaque nouveauté pour augmenter leurs chances d’attraper plus de victimes. Dernière technique utilisée : le vishing ou l’hameçonnage vocal.

Les attaques par hameçonnage vocal (vishing ou Voice phishing) ont augmenté de près de 550 % au cours des douze derniers mois, selon le dernier rapport trimestriel d’Agari et de PhishLabs, du groupe HelpSystems.

C’est une variante du phishing, ces emails usurpant l’identité d’une entreprise, d’une administration ou d’un organisme officiel. Début avril, l’Assurance Maladie a mis en garde les assurés sociaux contre des appels téléphoniques frauduleux et contre l’envoi de courriels et de SMS frauduleux.

Les appels téléphoniques frauduleux peuvent prendre plusieurs formes. La plus connue consiste à vous démarcher pour vous proposer des rénovations à 1 euro ou vous vendre des formations bidons sous prétexte de l’expiration de votre solde DIF (Droit individuel à la formation).

WhatsApp : des pièges dans des notifications

Le mot « vishing » vient de « voice » (voix) et de « phishing » (hameçonnage), ce qui suggère qu’un fraudeur tend un hameçon ou un appât pour amener des victimes peu méfiantes à révéler des noms d’utilisateur, des mots de passe ou des données de carte de crédit, ou à télécharger des logiciels malveillants sur leurs appareils.

Cette arnaque téléphonique utilise tous les canaux possibles. Récemment, des escrocs ont commencé à utiliser WhatsApp. En 2013, ce service a introduit la fonction de messagerie vocale permettant aux utilisateurs d’envoyer et de recevoir des notes vocales de leurs contacts.

Récemment, cette fonction a été mise à jour pour permettre aux utilisateurs d’envoyer et de recevoir des messages privés dans les discussions de groupe. Lorsque quelqu’un vous envoie un message privé, vous recevez une notification par email concernant le message de la note vocale et la note vocale intégrée.

Les cybercriminels ont utilisé cette fonctionnalité en se déguisant en notification officielle de WhatsApp. Ils envoyaient ensuite un email à partir d’un compte officiel piraté et dans lequel un lien « autoriser la notification du navigateur » vous permet d’écouter directement la note vocale.

Il n’y a jamais d’urgence à communiquer des données personnelles

À partir de ce moment-là, vous recevrez des notifications pour des sites et des publicités pour adultes. En cliquant sur ce lien, vous pouvez aussi déclencher l’infection d’un ordinateur. Un logiciel malveillant va pouvoir récupérer vos données personnelles stockées sur le disque dur.

D’autres escrocs se servent d’un numéro de rappel inséré dans le corps de l’email pour inciter la victime à appeler et à interagir avec un faux représentant d’une entreprise ou d‘une administration.

Le point commun n’est pas toujours une situation négative. Parfois, l’urgence vient de l’excitation de gagner potentiellement de l’argent, des cadeaux ou des voyages. Malheureusement, tout est faux. L’escroc ne cherche qu’à obtenir des informations personnelles, des détails sur vos comptes financiers, des informations médicales ou d’autres données sensibles.

Face à la multiplication de ce type d’attaque, il est recommandé d’être très vigilant. Au lieu de cliquer sur les liens intégrés dans les emails, il est toujours préférable de vérifier directement les messages sur l’application. Si vous n’avez pas reçu le message sur WhatsApp, il y a de fortes chances que l’email contenant la notification soit douteux.

Enfin, ne donnez pas les détails de votre compte bancaire. Même si vous recevez une notification ou un email qui semble provenir de votre banque, ne révélez pas vos coordonnées bancaires, n’appelez pas le numéro indiqué et ne cliquez pas sur le lien. Aucun organisme financier ne demande vos coordonnées bancaires ou votre code de carte bancaire. En cas de doute, il faut toujours appeler votre interlocuteur en trouvant ses coordonnées dans votre contrat ou sur internet.

Une vague de chaleur particulièrement précoce et intense

La vague de chaleur commence ce mercredi, dans un premier temps du sud-ouest à la vallée du Rhône et à l’arrière-pays provençal, avec des températures maximales entre 35 et 39°C. Elle s’étendra progressivement plus au nord. L’Occitanie est l’une des régions qui sera le plus impactée par cette vague de chaleur selon Météo-France.

« Jeudi, la chaleur s’intensifiera avec des maximales entre 35 et 39°C, localement 40°C, sur un large quart sud-ouest jusqu’à la basse vallée du Rhône. Elle gagnera progressivement les régions le long du littoral atlantique jusqu’au sud de la Bretagne vendredi et samedi. Elle restera cependant moins marquée du Cotentin à la Franche-Comté », prévoit Météo-France. Les températures minimales atteindront 18 à 22°C de jeudi à dimanche matin sur le sud du pays, 16 à 20°C au nord. « Les incertitudes sur la localisation géographique autant que sur l’intensité des températures les plus fortes sont encore marquées à l’heure actuelle », poursuit l’organisme.

Une vague de chaleur particulièrement précoce

« Il s’agit de la vague de chaleur la plus précoce jamais enregistrée par Météo-France depuis 1947 [début des mesures nationales, NDLR] », explique Matthieu Sorel, climatologue à Météo-France. Le précédent record datait de 2017 et 2005, avec un début au 18 juin.

Cette semaine, la moyenne des températures en France devrait atteindre jusqu’à 27,5°C, du jamais vu pour la saison depuis juin 2019. Cette semaine deviendrait ainsi la valeur la plus élevée le plus tôt dans la saison et se classerait parmi les trois valeurs les plus élevées pour un mois de juin.

Météo-France recense 43 vagues de chaleur en France depuis 1947, la dernière remontant à août 2020. « Sur 43 vagues de chaleur détectées depuis 1947, 9 ont eu lieu avant 1989, le reste entre 1989 et 2020 », recense Météo-France dont 19 depuis 2010. Il y a donc eu trois fois plus de vagues de chaleur ces 30 dernières années que durant les 42 années précédentes.

Une probabilité accentuée par le changement climatique

Cette vague de chaleur est liée à une dépression localisée entre les Açores et Madère, dans l’Océan Atlantique, favorisant les remontées d’air chaud sur l’Europe occidentale. Si le dérèglement climatique ne semble pas directement à l’origine de la dépression délocalisée, les études montrent que le réchauffement des températures induit une augmentation de la fréquence et de l’intensité des vagues de chaleur.

« En fin de siècle, les projections indiquent que le nombre de jours de vagues de chaleur doublera avec un scénario RCP2.6 de forte réduction des émissions de gaz à effet de serre, mais sera multiplié par un facteur 3 à 4 en RCP4.5, de baisse différée des émissions, et 5 à 10 en RCP8.5, de fortes émissions, prévient Météo-France. Les nuits tropicales quasi inconnues dans le nord de la France pourront revenir régulièrement en scénario RCP2.6 tandis que leur nombre pourra atteindre (hors région méditerranéenne) 15 à 25 jours en scénario RCP4.5 et 30 à 50 jours en RCP8.5. » Dans un climat qui se réchauffe, les vagues de chaleur surviendront aussi plus tôt ou plus tard dans la saison, comme l’épisode en cours.

Collage du verre à basse température : les puces « tout verre »

Du quartz à la silice fondue, en passant par les borosilicates et les sodocalciques, il existe une très large variété de verres avec des propriétés qui diffèrent légèrement. De façon générale, le verre est considéré comme résistant chimiquement, à la température (certains types de verre comme les borosilicates et le Pyrex sont plus adaptés aux chocs thermiques, le quartz et la silice fondue quant à eux peuvent supporter des températures de plus de 1000 °C), et à la déformation. De plus, ce matériau est transparent, stable dans le temps et non poreux. Malgré ces qualités, les deux principales contraintes liées au verre résident en un prototypage long et coûteux et en la difficulté d’intégrer une instrumentation au sein des canaux. Ce verrou a fait l’objet de publications afin de permettre de sceller les dispositifs en verre à une température plus faible que le procédé industriel.

Des puces qui concurrencent les polymères

Les résines hydrogène silsesquioxane peuvent être utilisées comme couches intermédiaires pour coller deux substrats de verre. Leur structure plane ou en cage assure la présence d’atomes d’hydrogène disponibles pour former des liaisons OH lors de l’activation chimique de la résine. Le capot étant également rendu hydrophile par un traitement chimique, des liaisons hydrogène se forment lors de la mise en contact des deux substrats afin de créer un collage moléculaire qui devient irréversible après recuit. Ce type de résine présente l’avantage d’être inorganique c’est-à-dire qu’elle ne contient pas d’atome de carbone dans sa composition chimique. En la recuisant à 300 °C, toute la couche de résine intermédiaire se transforme en silice et la puce finale est 100 % verre. Le fait de supprimer toute trace organique de la puce est la grande différence et le principal avantage de cette technique par rapport au collage avec polymères. La basse température du procédé de collage est l’autre plus-value de cette technique. En effet, cette température de processus relativement faible, par rapport au collage thermique, permet d’intégrer dans la puce des matériaux thermodégradables avant scellement afin d’instrumenter celle-ci. De plus, cette technique de collage confère à la puce les propriétés classiques du verre.

Malgré la montée en puissance des matériaux polymères, le verre reste un choix judicieux aussi bien scientifiquement qu’économiquement pour un certain nombre d’applications. Scientifiquement, les puces « tout verre » sont tout particulièrement pertinentes pour des applications de chimie de synthèse (inertie chimique et résistance à la température), ou analytique (intégration de matériaux d’électrodes). Du côté de la biologie, le « tout verre » intéresse en imagerie, où la transparence du verre est nécessaire. Économiquement, ces puces sont pertinentes pour des applications récurrentes rendues possibles par l’utilisation du verre. Malgré la différence de coût entre verre et polymère, cela entraîne une diminution du prix par analyse et permet aux puces en verre de concurrencer les puces en polymère.

Un matériau ancien qui se renouvelle

Le verre est un matériau historique utilisé depuis très longtemps dans les laboratoires de chimie ou de biologie. Les puces « tout verre » scellées à basse température ouvrent quant à elles de nouvelles possibilités d’intégration de matériaux thermodégradables qui conduisent à des puces de plus en plus instrumentées. Ces nouvelles perspectives d’intégration d’instrumentations permettent d’envisager de se rapprocher au plus près de véritables laboratoires sur puce intégrant toutes les étapes de l’analyse (injection, extraction, séparation, détection).

Pour connaître les autres stratégies de scellement du verre et en savoir plus sur les applications potentielles des puces « tout verre » collées à basse température, consultez notre article de référence en accès libre jusqu’au 15 août :

L’internet, un géant aux pieds fragiles

Contrairement à une idée, il n’y a pas un internet, mais un ensemble de réseaux qui sont connectés entre eux comme des tuyaux, ce qui empêche tout risque de saturation comme des médias l’avaient évoqué, à tort, durant le premier confinement.

Mais, la structure de la connectivité internet diffère considérablement selon les régions du monde. Telle est la conclusion d’une vaste étude (75 pays) menée par des informaticiens de l’université de Californie à San Diego (UCSD).

Pour établir cette topologie de l’internet, ils se sont appuyés sur les données du protocole Border Gateway. Il permet de suivre les échanges d’informations de routage et d’accessibilité entre les systèmes autonomes de l’internet. Plus simplement, il indique le parcours pour atteindre l’adresse IP d’un site.

Même si ces données ne permettent pas d’avoir une vision exhaustive de la situation, elles montrent que la planète est divisée en deux gros blocs. D’un côté, la majorité des pays développés où se font concurrence plusieurs fournisseurs d’accès à internet (FAI).

Le second bloc regroupe les régions d’Amérique latine, d’Asie, d’Afrique et d’Océanie. Dans les pays du Sud, la plupart des utilisateurs dépendent d’une poignée de fournisseurs pour accéder à l’internet. Et dans la majorité des cas, un FAI dessert une écrasante majorité d’utilisateurs.

« Il y a en effet de nombreux pays qui ont peu de connexion, à la fois en nombre de câbles de télécommunications sous-marins et en nombre de FAI. Cette situation s’explique pour des raisons financières, car un câble coûte très cher, mais aussi par une volonté de contrôle de certains pays. Il y a aussi des raisons géopolitiques. Ainsi, l’Algérie n’a des liaisons qu’avec des pays de l’Europe, mais pas avec le Maroc ou la Tunisie », explique Stéphane Bortzmeyer, spécialiste en réseaux.

Le site Submarine Cable Map (TeleGeography) propose une carte avec une vue interactive de ces interconnexions (www.submarinecablemap.com)

« À l’inverse, il y a des pays où l’internet a grossi de manière organique avec de nombreux FAI et connexions. C’est le cas de la France, mais aussi de la Russie où, contrairement à ce que prétend Vladimir Poutine, il est très difficile de contrôler l’internet », complète Stéphane Bortzmeyer.

Plus de décentralisation et de peer-to-peer

« De plus, ces fournisseurs s’appuient sur un nombre limité de sociétés appelées systèmes autonomes de transit pour accéder à l’internet mondial et au trafic provenant d’autres pays. Les chercheurs ont découvert que ces fournisseurs de systèmes autonomes de transit sont souvent détenus par l’État », notent les auteurs de ce rapport.

« Dans le pire des cas, un seul système autonome de transit dessert tous les utilisateurs. Cuba et la Sierra Leone sont proches de cet état de fait. En revanche, le Bangladesh est passé de seulement deux à plus de 30 fournisseurs de systèmes, après que le gouvernement a ouvert ce secteur de l’économie à l’entreprise privée », lit-on dans cette étude.

Autre constat, « une grande partie de l’internet ne fonctionne pas avec des accords de peering pour la connectivité des réseaux », a souligné Alexander Gamero-Garrido, un des chercheurs de cette équipe.

Le peering (échange direct de trafic entre opérateurs, FAI, hébergeurs…) est généralement gratuit entre gros opérateurs, car il en va de l’intérêt général. Par contre, un petit opérateur qui n’a pas une empreinte mondiale doit payer en se connectant à un super FAI comme NTT.

Cette situation rend l’infrastructure internet de certains pays particulièrement vulnérable aux cyberattaques, aux sabotages ou à une panne du principal FAI. Par exemple, en Colombie, il n’y a aucune connexion entre les opérateurs locaux. Donc toutes les communications des Colombiens passent par les États-Unis.

Une situation ubuesque et risquée : délais de connexion élevés, risques de coupure ou de cybersurveillance. Pour limiter ces risques, la Bolivie est l’un des rares pays à avoir légiféré en faveur du peering local ; les communications entre deux FAI de ce pays restent forcément en Bolivie.

« La solution consiste à avoir plus de diversité ; plus de câbles, plus de connexions peer-to-peer comme PeerTube et pas YouTube, plus de décentralisation et de serveurs », indique Stéphane Bortzmeyer.

L’équipe californienne a annoncé qu’elle allait compléter son étude en examinant comment les installations critiques, telles que les hôpitaux, sont connectées à l’internet afin de déterminer leur degré de vulnérabilité.

Optimiser les réservoirs d’hydrogène liquide des véhicules lourds de demain

L’hydrogène est l’une des solutions envisagées pour la mobilité propre des véhicules lourds de demain : poids lourds, bateaux et avions. Pour le stockage embarqué de ce combustible, l’hydrogène sous sa forme liquide semble la piste la plus privilégiée comparée à sa forme gazeuse ou solide, car cette solution offre un meilleur rendement volumique. Compter 4 litres d’hydrogène liquide pour obtenir l’équivalent d’un litre d’essence, contre 7 litres pour de l’hydrogène gazeux. L’IRT (Institut de recherche technologique) Jules-Verne vient de lancer un projet, baptisé Nomade, dont l’objectif est d’optimiser les volumes des réservoirs d’hydrogène liquide. Il rassemble un consortium¹ d’entreprises des filières industrielles aéronautique, navale et terrestre parmi lesquelles Airbus, Naval Group, et Faurecia, ainsi que des instituts de recherche, notamment le CEA et l’École Centrale de Nantes.

Toute la problématique du stockage de l’hydrogène liquide repose sur la nécessité de le maintenir à des températures cryogéniques, c’est-à-dire à -253 degrés Celsius. « À pression constante, lorsque l’hydrogène se réchauffe, il se gazéifie et le liquide se transforme en gaz et entraîne une montée en pression à l’intérieur du réservoir, analyse Thomas Pannelier, le chef de ce projet à l’IRT Jules-Verne. Ce phénomène est appelé le « boil-off ». Lorsque la capacité critique du réservoir à supporter l’augmentation de la pression est atteinte, il faut alors dégazer cet hydrogène dans l’atmosphère, ce qui pose d’évidents problèmes d’efficacité de ces réservoirs. La durée durant laquelle il n’est pas nécessaire de ventiler l’hydrogène pour le refroidir ou le relarguer est appelée le « dormancy time ». »

L’enjeu de ce type de stockage pour la mobilité propre est donc de parvenir à optimiser cette durée, qui n’est pas la même en fonction des applications. Pour les camions, l’objectif est de réussir à stocker l’hydrogène liquide sans le ventiler pendant environ 48 heures, car certains d’entre eux peuvent rester stationnés sur un parking tout un week-end. Tandis que pour les avions, le « dormancy time » à atteindre est d’environ 24 heures.

Veiller à ne pas augmenter la masse des réservoirs

Face à ces contraintes, il serait par exemple possible d’augmenter l’épaisseur des parois des réservoirs pour qu’ils supportent de plus grandes pressions, ou alors d’accroître leur volume afin de diminuer leur taux de remplissage. Mais ces solutions ne sont pas retenues, car elles conduiraient à augmenter la masse de ces cuves et entraîneraient la réduction de l’espace nécessaire pour le transport des passagers ou des marchandises.

Le principal objectif du projet Nomade va consister à revoir l’isolation thermique des réservoirs. Ceux-ci sont constitués, à l’image d’une bouteille thermos, d’une double paroi, à l’intérieur de laquelle est positionnée une isolation multicouche sous vide. Traditionnellement, les matériaux multicouches utilisés sont des composés de non-tissés de verre, intercalés avec des films en aluminium. L’optimisation de cette isolation thermique repose sur la bonne combinaison entre des matériaux de qualité et des vides poussés. « Les performances des matériaux sont liées au niveau de vide qui doit se situer entre 10-4 à 10-6 millibar, complète Thomas Pannelier. Il faut donc être particulièrement vigilant aux pertes de vide, qui peuvent dégrader l’isolation thermique et devenir problématiques. »

Outre le pilotage de ce projet, l’IRT Jules-Verne va apporter son expertise dans la modélisation thermique et thermodynamique des réservoirs, afin de définir la meilleure manière de les « architecturer ». Un travail sur la caractérisation des matériaux dans des gammes de températures cryogéniques sera aussi réalisé. Des procédés seront également développés pour mettre en œuvre ces isolations et refermer la double paroi. « L’un des points importants de notre travail va consister à parvenir à automatiser les process de fabrication des réservoirs pour qu’ils soient compatibles avec les cadences des lignes de production des avions, des bateaux et des camions, poursuit Thomas Pannelier. Nous allons aussi devoir mettre au point du contrôle non destructif pour garantir la qualité de fabrication de ces réservoirs. »

Lorsque les scientifiques de ce projet auront réussi à développer des isolations thermiques compatibles avec les « dormancy time » espérés, un autre projet pourrait débuter afin de parvenir à alléger les réservoirs en optimisant leur ratio gravimétrique. Ce terme correspond à la masse d’hydrogène embarqué sur la masse du réservoir. Alors que les réservoirs actuels ont un ratio autour de 5 %, l’objectif serait qu’il dépasse 10 %.

Le projet Nomade est doté d’un budget de 5 millions et financé à 50 % par l’IRT Jules-Verne, à travers les fonds du PIA (Programme d’investissements d’avenir), et à 50 % par les partenaires industriels. Il vient tout juste de débuter et doit se terminer dans 3 ans.


¹ L’ensemble du consortium regroupe : Airbus, Aperam, le CEA, l’ECN (École Centrale Nantes), Daher, Faurecia, Fives, Flying Whales, l’IRT Saint Exupéry, Naval Group et Rafaut Group