Ingénieuses 2021 : la sélection du jury

Pour l’édition 2021 du concours Ingénieuses, le jury est composé de membres de la CDEFI (Conférence des directeurs des écoles françaises d’ingénieurs) et de représentant·e·s de leurs partenaires et soutiens : l’Agence universitaire de la Francophonie, ATC France, le Bureau national des élèves ingénieurs, la Commission des titres d’ingénieur, Femmes ingénieurs, Ingénieurs et scientifiques de France, STMicroelectronics, Talents du numérique et Techniques de l’Ingénieur.

Par ailleurs, cette édition est marquée par la création d’un prix récompensant un des projets ayant obtenu le label Cap Ingénieuses, la nouvelle initiative de la CDEFI qui vise à mettre en lumière des actions de sensibilisation aux métiers des sciences et technologies et à l’égalité femmes-hommes menées par des écoles d’ingénieur auprès de classes d’écoles élémentaires et de collèges.

185 candidatures et projets ont été déposés entre le 26 janvier et la date butoir fixée au 10 mars 2021. À l’issue des délibérations, les nominé·e·s suivant·e·s ont été désigné·e·s (par ordre alphabétique) :

  • prix à destination des écoles (quatre écoles seront récompensées) :
    • ENSAE Alumni, pour son projet « Parcours de Femmes ingénieuses économistes : l’ENSAE ou l’École de la Data »,
    • l’ENSSAT, pour son projet « ADA LOVELACE »,
    • l’ESIEA, pour son projet « #SiJeVeuxTuPeux #IfIWantYouCan »,
    • l’ESIROI, pour son projet « Mois de la Femme Ingénieure (MFI) »,
    • l’INSA Lyon, pour son projet « Semaines thématiques de sensibilisation autour de nombreux thèmes »,
    • Grenoble INP, pour son projet « Genre INP’lication »,
    • Polytech Sorbonne, pour son projet « HeForShe Polytech Sorbonne »,
    • UniLaSalle, pour son projet « Club Universal » ;
  • prix Cap Ingénieuses :
    • le département d’ingénierie de l’université des Antilles, pour son projet « Devenir ingénieure aux Antilles »,
    • l’ENSI Poitiers, pour son projet « Transmettons à la nouvelle génération ! »,
    • l’ENSTA Bretagne, pour son projet « L Codent L Créent » ;
  • prix de l’élève-ingénieure France :
    • Alix DUTHOIT, élève à Polytech Annecy-Chambéry,
    • Thiziri NAIT SAADA, élève à Télécom Paris,
    • Alexandra ROSU, élève aux Arts et Métiers d’Aix-en-Provence ;
  • prix de la femme ingénieure (deux femmes ingénieures seront récompensées) :
    • Sarah BOZZA, diplômée de l’université de technologie de Troyes et Senior Product Manager chez Amazon,
    • Florence GABORIT, diplômée d’AgroParisTech et des Mines ParisTech et ingénieure de recherche en hydrologie et télédétection au laboratoire mixte international TREMA,
    • Christelle OLALDE, diplômée de l’ISAE-Supméca et Head Of Digital Cabine et Architecture Électrique chez Airbus,
    • Maäréva PAYET, diplômée de l’INSA Strasbourg et ingénieure chargée de projet et doctorante en thèse CIFRE en collaboration avec le laboratoire d’écologie urbaine Réunion et le laboratoire de recherche PIMENT (Physique et ingénierie mathématique pour l’énergie, l’environnement et le bâtiment) de l’université de La Réunion,
    • Amélie RAMET, diplômée de l’ENSIC, intervenante à l’ESTP Paris – campus de Troyes et chargée de mission observatoire au CEIA (Club écologie industrielle de l’Aube).

Parallèlement, l’Agence universitaire de la Francophonie au Maghreb, partenaire de la CDEFI, statuera sur la lauréate du prix de l’élève-ingénieure Maghreb.

Les noms des écoles d’ingénieur·e·s, élèves-ingénieures (France et Maghreb) et femmes ingénieures lauréates dans chaque catégorie seront dévoilés lors de la cérémonie de remise des prix d’Ingénieuses, qui se tiendra le jeudi 20 mai 2021.

Des masques de protection qui allient filtration des agents pathogènes et décontamination

Créée en 2014, la start-up BioSerenity développe des dispositifs innovants pour réaliser des diagnostics médicaux, notamment des vêtements connectés. Dès le début de l’épidémie du Covid-19 en mai 2020, l’entreprise a pris contact avec deux unités de recherche où collaborent des chercheurs de l’université de Lille, du CNRS, de l’Inserm et du CHU de Lille, et a noué un partenariat avec eux. Depuis la grippe H1N1, ces derniers mènent un travail de recherche fondamentale sur le développement d’une technologie de fixation d’antivirus sur des fibres. Alors que cette technologie est encore à l’échelle du laboratoire, Bioserenity collabore à ce travail pour l’amener à maturité, jusqu’au stade industriel. Depuis février 2021, la start-up fabrique et commercialise des masques de protection à usage unique baptisés Cidaltex, qui en plus de filtrer les virus et les bactéries, ont une action de décontamination en les inactivant. Entretien avec Gaétan Gerber, docteur en physique de la filtration et manager du programme masques innovants chez BioSerenity.

Techniques de l’Ingénieur : Comment fonctionnent les masques décontaminants Cidaltex ?

Gaétan Gerber, manager du programme masques innovants chez BioSerenity Crédit photo : BioSerenity

Gaétan Gerber : Nous sommes partis du meltblown, un matériau utilisé pour concevoir nos masques chirurgicaux et FFP2 traditionnels, que nous avons commencé à fabriquer pour faire face à la crise sanitaire. Le meltblowm est composé de très petites fibres enchevêtrées les unes avec les autres qui laissent passer l’air tout en bloquant dans les deux sens les agents pathogènes. Notre innovation a consisté à enrober ces fibres à l’aide d’un polymère, la cyclodextrine, élaboré à partir de l’amidon de maïs. Cette molécule ressemble à une sorte de petite cage à l’intérieur de laquelle il est possible d’introduire un agent antiviral. La cyclodextrine est déjà utilisée dans le domaine médical, depuis plus de 15 ans, notamment pour fixer des biocides sur des prothèses. Notre travail a consisté à adapter cette technologie aux matières fibrées utilisées dans les masques.

Un biocide doit donc être ajouté à l’intérieur de cette molécule-cage ?

Oui, nous piégeons dans la cyclodextrine un agent antiviral de type ammonium quaternaire (AQ), déjà utilisé dans de nombreux produits pharmaceutiques et médicaux certifiés, dont des produits implantables. Cet antiviral possède un très large spectre et est donc dans un premier temps piégé par la cyclodextrine tout au long de la surface des fibres. Il va ensuite se libérer au contact des pathogènes qui passent au travers du masque.

Il existe d’autres techniques pour rendre des masques décontaminants, comme par exemple le dépôt de nanoparticules métalliques sur un masque. Ce dépôt de surface est beaucoup plus simple à réaliser techniquement, mais est, selon nous, peu efficace et surtout potentiellement dangereux pour l’utilisateur. Il est souvent appliqué sur la couche externe du masque, à un endroit où les fibres sont extrêmement larges et séparées et où le virus passe très facilement au travers sans s’arrêter. Notre innovation se différencie dans le fait que notre antiviral a des effets bien connus, qu’il est fixé à l’intérieur du masque, sur la couche qui a pour fonction de piéger les agents pathogènes et qu’il va se libérer dès qu’il sera au contact avec des virus ou des bactéries.

Le masque FFP Médical Cidaltex. Crédit photo : Bioserenity

Quelle est l’efficacité de vos masques décontaminants ?

La couche Cidaltex composée de ce matériau meltblown enrobé de cyclodextrine et à l’intérieur de laquelle se trouve le biocide a fait l’objet de plusieurs études dans un laboratoire français agréé pour manipuler des virus et des bactéries. Ces études ont démontré que lorsque des bactéries de référence sont au contact de cette couche, nous obtenons une réduction de 99,99 % du nombre d’E. coli en moins d’une heure et de S. aureus en moins de deux heures.

Nous avons aussi des résultats très récents qui simulent l’utilisation de ce masque dans des environnements contaminés comme peut l’être une pièce close dans un hôpital, où la charge virale dans l’air peut être très importante. Lorsqu’on fait passer un flux d’air contaminé à travers notre masque Cidaltex FFP Médical, nous obtenons une réduction de 99,995 % du nombre de virus en moins de 5 minutes. Ce résultat a été réalisé sur un coronavirus humain, il s’agit de la souche 229E, qui n’est pas celle du SARS-CoV-2, mais qui a une structure très similaire.

Quels types de masques commercialise BioSerenity ?

Nous avons une gamme de deux masques possédant cette matière filtrante et décontaminante. Ils sont à usage unique et ont une durée d’utilisation de 4 heures. Tout d’abord, le masque Cidaltex chirurgical de type IIR qui répond à la norme EN 14683 et vendu 44 centimes d’euros la pièce TTC pour les particuliers. L’innovation a un coût, mais nous avons souhaité rester proches du prix des masques traditionnels de bonne qualité, pour que ce niveau de protection supplémentaire n’entraîne pas un coût rédhibitoire pour le public.

Ensuite, nous vendons un masque Cidaltex FFP Médical qui remplit les conditions de filtration d’un masque FFP2. Il filtre bien plus efficacement toutes les particules de la taille des virus et offre un niveau de protection supérieur. Il est recommandé dans des environnements clos et contaminés, l’application principale étant les établissements de santé à destination du personnel de soins et des patients. Son prix est de 1,50 € par pièce TTC.

Quelles sont vos capacités de production ?

Nous pouvons fabriquer un million de masques par jour sur l’ensemble de notre gamme, qui comprend également nos masques chirurgicaux et FFP2 traditionnels. Depuis fin février, date du début de leur commercialisation, nous avons commencé à livrer nos premiers masques Cidaltex. Les volumes vont progressivement augmenter dans les mois à venir. Notre technologie est protégée par un brevet français et mondial. Nous sommes en discussion pour mettre en place une licence afin d’offrir la possibilité à d’autres entreprises de produire ces masques ou la matière Cidaltex elle-même et permettre à plus de personnes de bénéficier de ce niveau de protection supérieur.

Recycler les fibres de carbone des matériaux composites

Avec un taux de croissance annuel de 10 à 12 % en 2019, le marché émergent de la fibre de carbone se porte bien. La demande devrait continuer à croître, principalement grâce à l’éolien, l’aéronautique, le spatial et l’automobile. Trouver des méthodes de recyclage est donc tout autant un problème écologique qu’économique.

Recycler les composites à fibre de carbone : un défi

La majorité des déchets CFRP collectés, en France comme ailleurs, sont incinérés ou enfouis. Dans un communiqué de presse, Ali Hadigheh, responsable des travaux de recherche, explique pourquoi : « Jusqu’à présent, il était impossible de recycler des produits contenant des fibres de carbone. Comme la plupart des méthodes de recyclage impliquent des étapes de déchiquetage, de découpe ou de broyage, les fibres s’usent, ce qui diminue la viabilité du futur produit ».

Puis il ajoute : « Cela représente un énorme défi et une menace pour notre environnement, car cela conduit à la production de fibre de carbone vierge qui contribue de manière significative aux émissions de gaz à effet de serre. »

Par ailleurs, les méthodes de recyclage mécanique conventionnelles ont aussi l’inconvénient de « casser » les chaînes polymères, ce qui réduit les propriétés mécaniques et physiques des matériaux recyclés.

Sacrifier la matrice pour conserver les fibres

Pour le recyclage des fibres de carbone contenues dans les composites, l’équipe de chercheurs de l’université de Sydney propose un processus optimisé, en deux étapes.

La première étape, la pyrolyse, permet de détruire la matrice par dégradation thermique. Cette étape a l’inconvénient de déposer un résidu de carbonisation autour des fibres, ce qui empêche le développement d’une bonne liaison chimique lors de l’incorporation dans une matrice en résine.

Pour y remédier, une deuxième étape, l’oxydation à haute température, est employée pour éliminer ces résidus.

Attention cependant, pour être utilisable, un tel procédé doit être parfaitement maîtrisé, de façon à préserver l’intégrité des fibres de carbone et garantir un niveau de qualité constant.

Ali Hadigheh l’affirme : « Ce qui fait le succès de notre méthode, c’est que nous avons ajouté des paramètres spécifiques – tels que la température, la vitesse de chauffe, l’atmosphère, le temps d’oxydation ou de chauffe – qui permettent de préserver la fonctionnalité de la fibre de carbone. »

Une méthode de séparation parmi d’autres !

D’après le communiqué de presse de l’université de Sydney, cette méthode semble fonctionner puisqu’elle permettrait de recycler des CFRP en conservant 90 % de leur résistance d’origine. En revanche, cette solution n’est qu’un exemple parmi d’autres méthodes de séparation envisageables.

Une start-up française, Xcrusher, propose ainsi de fragmenter, séparer et pulvériser des produits en fin de vie, en utilisant la technologie des puissances pulsées. Ce procédé plus polyvalent permettrait aussi de dissocier le verre du plastique des pare-brises automobiles, mais aussi de séparer les plastiques multicouches.

L’action climatique locale, grande oubliée des stratégies nationales

Malgré la pandémie, les territoires s’impliquent de plus en plus dans l’action climatique. Au niveau européen, les résultats sont particulièrement encourageants. Selon le Bilan mondial de l’action climat des territoires de l’observatoire Climate Chance, 1 800 villes regroupées au sein des territoires européens engagés dans la Convention des Maires pour le climat et l’énergie ont réduit leurs émissions de 26 % entre 2005 et 2017. Une belle réussite alors qu’elles visaient une réduction de 20 % d’ici 2020. Ces villes regroupent environ 20 % de la population européenne et représentent environ 15 % des émissions de gaz à effet de serre de l’Union européenne.

Malgré ces bons résultats, les stratégies nationales des États n’accordent encore que trop peu de place aux stratégies locales. « Les premières analyses des nouvelles Contributions Déterminées au niveau National (CDN) qui doivent accompagner à la COP 26 le rehaussement de l’ambition montrent que les États n’intègrent toujours pas le potentiel d’action des territoires dans leurs plans nationaux », regrette ainsi Ronan Dantec, président de Climate Chance. Pour intégrer davantage le potentiel des politiques climatiques locales dans les stratégies nationales, les méthodes de suivi restent à consolider et à harmoniser, note l’observatoire.

Mieux intégrer la gouvernance climatique locale dans les stratégies nationales

Dans les pays du G20 examinés (Allemagne, Canada, France, Brésil), peu de villes sont soumises à des obligations réglementaires. Les collectivités françaises font figure d’exception via leurs obligations de réalisation des plans climat-air-énergie territoriaux (PCAET) intercommunaux et le volet climat des schémas régionaux d’aménagement, de développement durable et d’égalité des territoires (SRADDET).

En dépit de stratégies nationales les prenant en compte, les territoires s’intéressent de plus en plus aux mesures d’adaptation. Environ 70 % des villes de la Convention européenne des Maires examinées en 2020 élaborent des projets d’adaptation en cours d’élaboration. Une proportion similaire de régions de l’initiative RegionsAdapt disent avoir mis en place un plan d’adaptation.

La crise sanitaire a montré à quel point les territoires pouvaient être des lieux d’innovation et d’expérimentation pour les politiques climat. « L’urbanisme tactique » et les politiques vélo en ont été la manifestation la plus évidente. À l’échelle des villes, la densification et la répartition des services pour des territoires plus autonomes se pensent désormais comme le remède aux crises sanitaire et climatique.

Le transporteur de gaz GRTgaz se projette dans un avenir sans gaz naturel…

Selon le responsable de GRTgaz, à l’horizon 2050, la consommation de gaz aura reculé d’un tiers environ, pour atteindre 300 TWh par an. En outre, à cette date, le gaz circulant dans les gazoducs sera largement différent du méthane fossile actuel, puisque ce dernier laissera sa place à du gaz vert ou bas carbone. Un tiers de ce « nouveau » gaz vert sera issu de la méthanisation, un tiers pourrait provenir de la gazéification (pyrogazéification ou gazéification hydrothermale) et le dernier tiers sera constitué d’hydrogène, lequel sera produit grâce à des énergies renouvelables électriques ou du nucléaire.

Dans le prolongement de la raison d’être, GRTgaz a bâti un nouveau projet d’entreprise appelé CAP24, qui porte les ambitions et les objectifs stratégiques de l’entreprise pour la période 2021-2024.

« Le projet CAP24 augure des transformations à venir au service d’un mix gazier 100 % neutre en carbone en 2050, principalement d’origine renouvelable », a insisté Thierry Trouvé. Et d’ajouter : « A cet horizon, pour un volume de consommation sensiblement inférieur, GRTgaz prépare un réseau de transport dual fondamentalement différent : la totalité du gaz transporté sera d’origine renouvelable ou bas carbone, et une partie des canalisations actuelles auront été reconverties et dédiées à l’hydrogène. »

Pleins feux sur l’hydrogène

L’hydrogène devrait avoir un impact sur le réseau gazier de transport actuel. Les études en cours pour tester la part de l’hydrogène capable d’être transporté mixé au méthane devrait affiner les besoins futurs de canalisations dédiées à l’hydrogène. GRTgaz estime ainsi que sur les 32 000 km de réseau qui devraient continuer de fonctionner, un peu plus d’un dixième sera consacré uniquement à l’hydrogène à un horizon 2050.

Jusqu’à présent, l’aspect logistique a très peu été pris en compte dans l’élaboration de la Stratégie hydrogène de la France, juge Thierry Trouvé. L’hydrogène devra cependant être acheminé dans les stockages et transporté jusqu’aux points de consommation. Il faudra aussi assurer la sécurité d’approvisionnement des clients et leur permettre de faire jouer la concurrence entre les fournisseurs, rappelle-t-il.

Le développement de l’hydrogène devrait se faire en « taches de léopard », indique GRTgaz, dans des zones comme les plates-formes industrielles qui mélangent production et consommation. A partir de ces pôles, de véritables « vallées » d’utilisation et distribution d’hydrogène pourraient se constituer.

C’est autour de ces changements que GRTgaz s’est doté de son projet d’entreprise CAP24 et d’une « raison d’être » : « Ensemble, rendre possible un avenir énergétique sûr, abordable et neutre pour le climat ». Un projet qui repose sur cinq axes : « Au service de l’intérêt général ; acteurs responsables ; convaincus que la transition énergétique passe par l’innovation ; porteurs de valeurs humanistes ; engagés avec nos parties prenantes ». Depuis les quatre dernières années, GRTgaz s’est particulièrement rapproché des collectivités territoriales.

Misant par ailleurs sur le développement des filières gaz renouvelables et hydrogène, GRTgaz prévoit de diminuer de 20 % ses émissions de CO2 et de diviser par 5 ses émissions de méthane d’ici à 2024. Le réseau poursuit ainsi sa transformation, avec un objectif à l’horizon 2050 : être un opérateur totalement neutre en carbone.

« La priorité a été mise sur la production et la décarbonation, c’est normal, rappelle le directeur général de GRTgaz. Mais il faudra compléter assez vite. La Commission européenne a déjà lancé des consultations sur ces sujets. Les Allemands et les Hollandais commencent à avancer leurs pions ».

Une dimension européenne

Ensuite, viendra la nécessité de raccorder les « hubs hydrogène » et surtout de transporter ce gaz entre les centres de production (l’Italie et l’Espagne se positionnant comme producteurs à partir de renouvelables) vers les grands centres de consommation (Allemagne, Pays- Bas, Belgique).

Depuis juillet 2020, 12 transporteurs d’hydrogène de 11 pays ont porté un projet de « dorsale européenne hydrogène », ou EHB (en initiales anglaises). L’initiative a présenté le 13 avril 2021 une version actualisée de sa vision relative au développement d’un réseau de transport d’hydrogène dédié à travers l’Europe. Le groupement prévoit pour 2040 un réseau d’hydrogène de 39 700 km reliant 21 pays européens, avec une croissance supplémentaire attendue au-delà de cette date. La vision présentée ce jour fait suite au précédent rapport EHB publié en juillet 2020, qui a initié les échanges sur ce sujet en Europe. Ce rapport initial développait la vision d’un réseau de 23 000 km connectant dix pays européens.

Dans ce cadre, 69 % des canalisations d’hydrogène proposées sont constituées d’infrastructures gazières existantes reconverties. Les 31 % restantes sont de nouvelles canalisations, requises afin de pouvoir raccorder les nouveaux consommateurs et sont situées dans des pays dont les réseaux gaziers existants sont de taille limitée, mais qui devraient néanmoins bénéficier de niveaux élevés d’approvisionnement et de demande d’hydrogène au cours des années à venir, précise un communiqué de l’entité.

Avec près de 40 000 km, la Dorsale envisagée d’ici à 2040 nécessite un coût total d’investissement estimé entre 43 et 81 milliards d’euros. L’investissement par kilomètre de canalisation est inférieur à celui estimé dans le rapport EHB de l’an dernier.

Résultats 2020 de GRTgaz

Malgré la crise sanitaire, le groupe GRTgaz (composé de GRTgaz France, GRTgaz Deutschland et Elengy) affiche des résultats 2020 conformes aux attentes : un chiffre d’affaires de 2 279 millions d’euros, stable par rapport à 2019, et un résultat net qui s’élève à 341 millions d’euros (contre 325 M€ en 2019). Les investissements groupe s’élèvent à 415 M€ en 2020, traduisant les enjeux actuels de l’entreprise (maintenance-sécurité des installations, transition énergétique et numérique, continuité d’approvisionnement).

Avec 32 500 km de canalisations en France, 641 TWh de gaz transporté, 28 stations de compression (dont 2 rebours en 2020) et 945 clients (expéditeurs, distributeurs, industriels et producteurs de biométhane), GRTgaz affirme en 2020 sa place de 2ème opérateur européen d’infrastructures gazières résolument tourné vers la transition énergétique.

Véhicules électriques : l’UE est loin de l’objectif du million de bornes de recharge déployées d’ici à 2025

Le Pacte vert pour l’Europe annoncé en décembre 2019 implique de réduire, d’ici à 2050, les émissions de gaz à effet de serre (GES) du secteur des transports de 90 % par rapport à 1990, dans le cadre d’un effort plus vaste de transition vers une économie neutre pour le climat. Les transports représentant environ un quart du total des émissions de GES de l’UE, le transport routier pesant pour 72 % de cette part, une transition vers des carburants alternatifs à plus faible teneur en carbone, notamment l’électricité, constitue un levier essentiel pour réduire les émissions dues au transport routier.

En 2020, malgré un déclin global des nouvelles immatriculations dû à la pandémie de Covid-19, la part de marché des véhicules électriques et hybrides rechargeables a considérablement augmenté, insiste le rapport de la Cour des comptes EU. Cependant, les réseaux de recharge ne connaissent pas le même essor.

Certes, le nombre de points de charge est passé de 34 000 en 2014 (UE et Royaume-Uni) à 250 000 à fin septembre 2020, et trois pays (France, Allemagne, et Pays-Bas) représentent 60% des points de charge installés. La trajectoire actuelle ne permettra donc pas d’atteindre l’objectif, a indiqué Ladislav Balko, membre de la Cour responsable du rapport, lors de la présentation du document le 13 avril. En outre, face à la montée en puissance des véhicules électriques, il faudrait atteindre 3 millions de bornes d’ici à 2030 pour entrer dans le cadre. Il faut donc accélérer. Sans oublier qu’à peine 13% des bornes sont des charges rapides, freinant ainsi le développement d’une mobilité électrique pour de longs trajets sur les réseaux autoroutiers.

Et ce malgré plusieurs réussites à mettre au crédit de la stratégie européenne, comme l’émergence d’une prise standard commune au niveau de l’UE pour la recharge des véhicules électriques. Ainsi, même avec l’amélioration des conditions d’accès aux différents réseaux de recharge et l’interopérabilité des prises, parcourir l’UE au volant d’un véhicule électrique reste compliqué.

Les auditeurs européens constatent en effet que la disponibilité des bornes de recharge ouvertes au public varie considérablement d’un pays à l’autre, que les systèmes de paiement sont loin d’être harmonisés et que les utilisateurs n’ont pas suffisamment accès à des informations en temps réel, notamment sur le positionnement des points de charge.

« L’an dernier, une voiture sur dix vendue dans l’UE était un véhicule électrique rechargeable, mais les infrastructures de recharge sont inégalement réparties sur le territoire européen. Nous pensons que la Commission devrait soutenir davantage le développement du maillage au niveau européen et devrait s’assurer que le financement de l’UE parvienne là où le besoin est le plus impérieux », insiste le rapporteur.

D’après les auditeurs, aucune analyse approfondie du déficit n’a été réalisée afin de déterminer le nombre de bornes de recharge ouvertes au public nécessaires, l’endroit où elles devraient être installées et la puissance qu’elles devraient délivrer. Le financement au titre du mécanisme pour l’interconnexion en Europe (MIE) n’a pas toujours été acheminé là où le besoin était le plus aigu, et l’UE ne s’est dotée ni d’objectifs clairs et cohérents, ni d’exigences minimales communes en matière d’infrastructures, insistent les rapporteurs de la Cour. La multiplicité des systèmes de paiement et d’information complique l’expérience des utilisateurs. Par exemple, les informations sur la disponibilité en temps réel, la recharge et la facturation ne sont guère coordonnées entre les différents réseaux.

Cinq grandes recommandations

Dans l’optique de la révision actuelle du principal cadre stratégique et législatif régissant l’électromobilité, les auditeurs recommandent à la Commission européenne d’élaborer, d’ici à la fin de l‘année, une feuille de route stratégique pour atteindre les objectifs en matière d’infrastructures de recharge (recommandation 2). En outre, le rapport préconise d’établir des normes et des exigences minimales sur l’ensemble du réseau transeuropéen de transport, ou RTE-T (recommandation 1). Avec le concours des coordonnateurs des corridors du réseau central du RTE-T, la Commission devrait de plus élaborer une analyse du déficit d’infrastructures afin de déterminer, à l’aune des exigences de la directive sur le déploiement d’une infrastructure pour carburants alternatifs et du règlement RTE-T révisés, quels sont les tronçons du RTE-T équipés d’un nombre insuffisant de points de recharge, le nombre de points de recharge nécessaires et leur type (recommandation 3).

Les auditeurs préconisent également d’allouer le financement sur la base de critères objectifs et d’analyses du déficit et de veiller à ce que les projets cofinancés garantissent un accès durable et non discriminatoire à tous les utilisateurs (recommandation 4). Enfin, la recommandation 5 vise à « garantir un accès durable et équitable aux infrastructures cofinancées ».

Le rapport spécial n° 05/2021 de la Cour des comptes européenne, intitulé Infrastructures de recharge pour véhicules électriques : des bornes de recharge plus nombreuses mais inégalement réparties dans l’UE, ce qui complique les déplacements, est disponible sur le site eca.europa.eu dans 23 langues de l’UE (ici en français).

Un hydrogel photosensible imprimable en 3D à l’étude

En 2019, nous vous parlions déjà des chromatophores, dont le fonctionnement a inspiré une équipe de chercheurs de l’université de Californie pour la conception d’un matériau composite avec des propriétés de thermorégulation. Il est cette fois-ci question d’un gel photosensible intelligent destiné à l’impression 3D de muscles artificiels.

Les chromatophores, des cellules pour le camouflage et la communication

La peau de ce poulpe possède des cellules qui changent de couleur : les chromatophores. Ce phénomène étonnant a inspiré les ingénieurs de Rutgers. (Crédit : Noaa Okeanos Explorer Program, Galápagos Rift Expedition 2011.)

Ces cellules présentes dans le derme d’animaux comme les poulpes, sèches, calmars ou caméléons contiennent des pigments qui ont la particularité d’absorber ou de diffracter la lumière. En se déformant, chaque chromatophore peut modifier la distribution de ces pigments. C’est cette combinaison complexe de chromatophores qui permet aux animaux de se camoufler ou d’utiliser un mode de communication visuelle.

Un hydrogel photosensible intelligent

Une équipe d’ingénieurs de l’Université Rutgers s’est inspirée de cette spécificité pour mettre au point un hydrogel imprimable en 3D et contrôlable par la lumière.

Bien qu’ils contiennent de l’eau, les hydrogels sont des matériaux qui ont la particularité de garder leur forme et de rester solides. En incorporant un nanomatériau photosensible dans cet hydrogel, les ingénieurs ont ainsi créé une sorte de « muscle artificiel », qui se contracte en réponse à un changement de lumière.

D’après l’étude publiée dans le journal ACS Applied Materials & Interfaces, cet hydrogel composite intelligent est composé :

  • de nanoparticules de polydopamine (PDA-NPs) ;
  • d’un hydrogel d’acide acrylique ;
  • d’un diacrylate de polyéthylène glycol.

Pour créer ce matériau, les ingénieurs ont utilisé une technologie d’impression 3D particulière : la micro-stéréolithographie par projection de multimatériaux (MM-PμSL).

Des applications multiples

Howon Lee, professeur adjoint du Department of Mechanical and Aerospace Engineering de l’Université Rutgers et co-auteur de l’étude, affirme dans un communiqué de presse :

« Les écrans électroniques sont partout et malgré des avancées remarquables, comme le fait de devenir plus minces, plus grands et plus lumineux, ils sont basés sur des matériaux rigides, ce qui limite les formes qu’ils peuvent prendre et la façon dont ils s’interfacent avec les surfaces 3D. »

Les applications potentielles qui sont évoquées dans ce communiqué vont du camouflage militaire à la création d’écrans souples. Ces travaux se poursuivent et les prochaines étapes concerneront l’amélioration de la sensibilité, du temps de réponse, de l’emballage, de la durabilité et de l’évolutivité.

Ces plantes rendent l’architecture plus efficiente

Les bâtiments manquent souvent de lumière, celle-ci n’y pénétrant pas uniformément. De nombreux projets d’architecture se sont inspirés des plantes pour récupérer plus de lumière naturelle et ainsi diminuer l’éclairage artificiel. Gains à la clé : un bâtiment plus lumineux et une consommation d’énergie moindre. Dans une publication des Cahiers de la recherche architecturale urbaine et paysagère, trois chercheurs révèlent que la conception en architecture s’inspire des plantes selon « trois niveaux d’imitation » : l’organisme, le comportement et l’écosystème. Chaque niveau se compose de cinq dimensions : la forme, le matériau, la construction, le processus et la fonction. Focus sur quelques inspirations qui ont mené à la réalisation de projets.

La feuille de charme

Pour optimiser la consommation énergétique d’un bâtiment dans le 15e arrondissement de Paris, les frères Teva et Nicolas Vernoux, respectivement biologiste et architecte, ont installé sur sa façade une « double peau » en tissu sensible à la température. « C’est un système de store inspiré de la façon dont la feuille de charme se replie à l’intérieur du bourgeon », explique le biologiste, directeur de recherche au laboratoire Reproduction et développement des plantes.

© IN SITU LAB-1

Accroché à des baleines, le tissu se déploie selon la température et évite ainsi les phénomènes de surchauffe du bâtiment et optimise la consommation énergétique.

© IN SITU ARCHITECTURE

La phyllotaxie

Il ne s’agit pas d’une plante, mais de l’étude de la façon dont se disposent et arrangent ses feuilles. Cela s’appelle la phyllotaxie. Teva et Nicolas Vernoux se sont particulièrement inspirés de la structure en spirale des plantes. « On l’utilise pour différentes approches : soit sur un bâtiment en travaillant l’empilement géométrique sur plusieurs niveaux, soit sur une parcelle avec la disposition de plusieurs bâtiments », explique le biologiste.

© INSITU

Ils ont réalisé plusieurs projets, dont une maison spirale réalisée en 2007 à Malakoff (Hauts-de-Seine) et 49 logements décalés les uns des autres en hauteur, en 2012 à Vitry-sur-Seine (Val-de-Marne). Suite à ces réalisations, les frères ont développé en 2017 un algorithme pour faciliter leur conception. « Cette implémentation logicielle pour le calcul thermique permet d’atteindre un gain énergétique entre 20 et 50 % sur un bâtiment, explique Teva Vernoux. Et cela, juste en jouant de façon raisonnable sur la conception géométrique. »

© Arnaud Rinuccini

Le lotus

A Singapour, Moshe Safdie s’est inspiré de la fleur de lotus pour concevoir, en 2011, l’ArtScience Museum. Le bâtiment est composé de pétales – 10 extensions – reliés entre eux à un rond au centre formant le cœur du lotus. Chaque « pétale » constitue différents espaces de galerie avec des vitres aux extrémités pour faire entrer la lumière naturelle. La forme de la fleur architecturale – en forme de bol – est réalisée de façon à ce que les pétales récupèrent l’eau de pluie, la fassent s’écouler vers le milieu pour pouvoir la recycler (bâtiment, toilettes, etc.).

Vue aérienne de ArtScience Museum de Singapour, inspiré de la fleur de lotus © Pierrick Lemaret – CC BY 3.0

La pomme de pin

La pomme de pin réagit à son environnement, en fermant ses écailles par temps humide, et en les ouvrant lorsqu’il est ensoleillé. En 2013, elle a inspiré l’architecte allemand Achim Menges et son équipe pour créer un pavillon sensible à l’humidité. Baptisé Hygroskin, le pavillon s’ouvre et se referme sans intervention, ni énergie, mais en utilisant la capacité de réponse – l’élasticité – du matériau lui-même : le bois. L’architecte a utilisé « des feuilles de contreplaqué initialement planes pour former des surfaces coniques basées sur le comportement élastique du matériau », peut-on lire sur son site web. Chaque module a été fabriqué par un robot.

Pour créer son pavillon Hygroskin, l’architecte allemand Achim Menges s’est inspiré de la pomme de pin. ©capture d’écran tirée de la vidéo

La  vidéo est disponible ici.

Les plantes, une source d’inspiration et d’innovation

Lorsqu’on évoque la bioinspiration, on imagine souvent les pattes du gecko, l’araignée boiteuse, le vol en essaim ou la collaboration des fourmis. Des animaux. Pourtant, il existe une autre catégorie d’espèces qui inspire depuis très longtemps : les plantes. Plus discrètes sur le web, certaines réalisations bioinspirées sont utilisées ou visibles dans notre environnement. Le velcro (appelé plus communément « scratch »), les revêtements autonettoyants, la photosynthèse, les matériaux, les structures de bâtiment… Pour comprendre quelles sont les capacités de ces êtres vivants qui passent souvent inaperçus – un biais cognitif nommé « cécité botanique » ou invisibilité des plantes – et ce qui intéresse les chercheurs, nous avons échangé avec Agnès Guillot, docteure en psychophysiologie et biomathématiques. Elle a fait carrière en robotique bioinspirée à l’Université Paris-Ouest puis à l’Institut des systèmes intelligents et de robotique (ISIR) de l’Université Pierre et Marie Curie. Elle a également co-écrit avec Jean-Arcady Meyer un livre consacré aux innovations inspirées des plantes « L’or vert, quand les plantes inspirent l’innovation » aux éditions CNRS.

Techniques de l’Ingénieur : Quelles sont les spécificités des plantes ?

Agnès Guillot : Les plantes, contrairement aux animaux, ne se déplacent pas. Elles sont donc obligées d’analyser et de prévoir de multiples facteurs de l’environnement – biotiques (en rapport à la vie ou êtres vivants) et abiotiques (non vivants) – pour maximiser leurs chances de survie. Pour cela, elles doivent donc prendre de multiples décisions. Pour l’ingénierie, il est très intéressant de comprendre comment elles le réalisent sans système nerveux. Par ailleurs, les plantes ne se déplacent pas mais elles bougent constamment, sans équipement musculaire. Il est aussi intéressant de comprendre comment des machines pourraient se mouvoir sans avoir de moteurs complexes et énergivores. Enfin, les plantes sont autonomes énergétiquement, elles fabriquent leur carburant par photosynthèse, contrairement aux animaux qui ont besoin de manger des végétaux ou d’autres animaux. Pour l’instant, une photosynthèse artificielle n’est pas encore compétitive.

Toutes les parties de la plante sont-elles inspirantes ?

Oui ! La fleur par exemple : les fleurs blanches de Diphylleia deviennent transparentes quand la pluie tombe. Elle est appelée la « fleur squelette ». En s’en inspirant, des chercheurs chinois ont réalisé du verre parfaitement transparent sous l’eau en le bombardant avec un laser « femtoseconde » qui le rend poreux à l’échelle nanométrique. Il pourra équiper des instruments d’optique sous-marine ou médicale. Mais également la tige : un implant italien s’est inspiré du rotin pour remplacer les os lésés. Contrairement à d’autres implants artificiels, il laisse l’os humain se régénérer. Les feuilles évidemment, pour leur capacité d’auto-nettoyage ou pour la photosynthèse, et leurs nervures dont s’inspirent certains algorithmes. Enfin, les racines : le « cerveau » ou plutôt la « tour de contrôle » des plantes, qui se trouverait à l’extrémité des racines. Elles sont des têtes chercheuses aux sensibilités multiples. Certaines recherches montreraient même qu’elles se dirigeraient vers un son reproduisant de l’eau qui coule. Les racines sont des sources infinies de futures innovations !

Avez-vous des exemples de réalisations bioinspirées par le végétal ?

Dans notre ouvrage, nous en avons répertorié plus d’une centaine ! Les plus connues sont les textures autonettoyantes ou le velcro (très utilisé dans les vêtements d’astronautes), qui sont inspirées des aspérités des feuilles du lotus et de la fleur de bardane. Plus récente, une texture imitant les trichomes en forme de batteurs à œufs qui recouvrent les feuilles de la fougère aquatique Salvinia. Grâce à ces aspérités, la plante ne sombre jamais. En revêtant les bateaux de cette texture, ils économisent du carburant et dégagent moins de CO2. Cette texture pourrait aussi bloquer les ondes des sonars. D’autres inspirations, issues du cactus ou des racines de palétuviers, améliorent la récupération d’eau ou la désalinisation sans produits polluants. Je pense également à une entreprise suisse, qui a déjà commercialisé le textile C_change, constitué de fibre cellulosiques qui ouvrent des « micro-volets » permettant au tissu de « respirer ». Elle s’est inspirée de la pomme de pin qui ouvre et ferme ses écailles en fonction de la chaleur et de l’humidité ambiante.

Que reste-t-il à découvrir ? Où en est la recherche ?

Il y a encore beaucoup de recherches en devenir. Comme je l’ai évoqué, la reproduction artificielle de la photosynthèse est loin d’être résolue, les feuilles sont bien plus en avance que les ingénieurs ! La prise de décision sans cerveau et la motricité sans muscles ne sont pas encore tout à fait comprises. On y pense pour des applications en robotique, mais aussi en médecine, pour délivrer les médicaments dans le corps. Quant aux racines, le réseau complexe qu’elles forment avec les rhizomes de champignons et d’autres végétaux et que l’on nomme le Wood World Web pourraient bientôt concurrencer Internet, sans que l’on n’ait d’applications réelles pour le moment. Enfin, un aspect intriguant de la vie végétale n’ayant pas encore été exploitée est la gestion de leur temps, qui semble s’écouler beaucoup plus lentement que dans la vie animale. Beaucoup de leurs mouvements ne nous sont visibles que par un film en accéléré. Comment les végétaux font-ils pour « ralentir » le temps ? A ma connaissance, il n’y a aucune étude sur ce point et cela pourrait être une source de recherches bioinspirées pouvant avoir des retombées capitales, ne serait-ce que dans le domaine de la santé.

Le label bas-carbone pour préserver les herbiers marins des Calanques

Outre de nombreux services écosystémiques, les herbiers marins stockeraient de 3 à 5 fois plus de carbone qu’une forêt tropicale et de 7 à 10 fois plus qu’une forêt française de feuillus, selon EcoAct. Mais leur surface diminue rapidement dans le parc national des Calanques. Alors, EcoAct, société du groupe Atos, s’est associée à Interxion, Schneider Electric France et le Parc national des Calanques pour créer la première méthodologie dédiée à la protection des herbiers marins. Elle permettra la certification de projets bas-carbone en France via le label bas-carbone, créé par le ministère de la Transition écologique et solidaire.

Un projet pilote dans le Parc national des Calanques

Un premier projet pilote, unique en France, sera déployé sur les herbiers de Posidonie du Parc national des Calanques. François Bland, directeur du Parc national des Calanques, témoigne de la complexité des enjeux dans un territoire très occupé. « C’est un hot spot de biodiversité, avec une biodiversité soumise à de fortes pressions. Elles peuvent être liées aux pollutions, aux feux de forêts, à l’artificialisation, mais aussi à une fréquentation extrêmement forte par le public », explique-t-il.

Le Parc national est « un territoire de défi et un territoire de solutions ». Dans ce cadre, les herbiers de Posidonie représentent un écosystème majeur à protéger pour la Méditerranée et les espaces marins côtiers. « Ce sont des zones de nourriceries et de reproduction pour la faune marine. Ce sont des zones de production halieutique : 30 à 40 % des prises de pêche en Méditerranée sont liées à l’existence de ces herbiers. Ces zones contribuent aussi à la stabilisation du littoral. Et elles permettent la séquestration durable du carbone dans les racines ou les rhizomes de cette plante marine ». Mais les ancrages et le mouillage des plaisanciers accélèrent leur destruction.

Une méthodologie à construire d’ici 2022

EcoAct est en charge de définir une méthodologie globale qui puisse s’appliquer aux deux principaux herbiers que l’on trouve en France : les herbiers de Posidonie et la zostère marine. Cette méthodologie sera soumise à validation de la Direction générale de l’Énergie et du Climat (DGEC) du ministère de la Transition écologique et solidaire (MTES) dans le cadre du dispositif Label bas-carbone. Objectif : déployer les premiers projets pilotes en 2022.

Avant tout, l’entreprise doit synthétiser la littérature scientifique et technique autour de la dynamique carbone des herbiers et créer un outil de calcul carbone. Ensuite, la méthodologie devra retenir les critères d’éligibilité des projets et les vérifications que devront faire les auditeurs. Elle devra proposer les méthodologies de calculs, le prix de la tonne de CO2 et les bénéfices attendus.

« Pour les Calanques, nous avons estimé que nous pourrions compenser jusqu’à 10 000 tonnes de CO2 équivalent par an sur 20 ou 25 ans, le travail à venir permettra d’affiner cette évaluation, ajoute Roman de Rafael, responsable du développement de projet basés sur la nature chez EcoAct. Dans le label bas-carbone, on est entre 30 et 60 euros la tonne de carbone en fonction des projets : c’est beaucoup plus élevé que la compensation carbone sur des projets mangrove, qui peuvent tourner à 10 dollars la tonne. »

Le label bas-carbone pour compenser les émissions au niveau local

Le label bas-carbone est un outil qui flèche des financements additionnels dans les territoires via la compensation volontaire. Avec les différents projets proposés par le ministère, l’idée est plutôt de compenser les émissions en France au lieu de financer des projets à l’autre bout de la planète. « On a une action de conservation locale : l’objectif est d’arriver à une bulle de protection autour de ces écosystèmes grâce au financement carbone, prévient Roman de Rafael. Un autre objectif sera de tester aussi la restauration, avec un repiquage des herbiers, même si cela n’a pas été très concluant jusqu’à présent dans le parc des Calanques pour la Posidonie. »

Concrètement, quelle forme prendra la protection ?  Roman de Rafael détaille : « Le parc des Calanques a le savoir-faire : il s’agit de créer des zones de mouillage, de mettre en place des bouées auxquelles s’accrochent les bateaux de plaisance au lieu de jeter leurs ancres dans les fonds marins. C’est aussi payer des gardes côtiers qui vont faire le tour des zones pour veiller à la mise en place du bon ancrage. »

En plus du parc national des Calanques, le projet cherche au moins deux autres cas pilotes à lancer une fois la méthodologie prête. EcoAct serait notamment en discussion avec le Morbihan et La Rochelle. « Nous voulons développer la méthodologie avec des écosystèmes qui couvrent toute la façade côtière métropolitaine, précise Roman de Rafael. Il faut avoir le territoire avec nous dès le départ pour enclencher la dynamique et fonder le travail sur une réalité territoriale. »

Les entreprises françaises se préparent à la seconde révolution quantique

Le 21 janvier dernier, lors d’une conférence de presse au Centre de nanosciences et de nanotechnologies de l’université Paris-Saclay, Emmanuel Macron a annoncé la mise en place d’un Plan quantique français. « Le quantique fait partie des quelques clés du futur que la France doit avoir en main », avait alors indiqué le président de la République. Une enveloppe de 1,8 milliard d’euros sera ainsi consacrée au développement des technologies quantiques, suite aux recommandations du rapport rendu en janvier 2020 par la députée Paula Forteza, l’ancien PDG de Safran Jean-Paul Herteman et le chercheur au CNRS Iordanis Kerenidis.

Les financements permettront donc de développer les technologies quantiques, mais également celles dites « habilitantes », nécessaires au déploiement des systèmes quantiques. Pour mener à bien cette mission, l’État a fait appel au CNRS, à Inria et au CEA. « Le CNRS représente l’atout français majeur pour répondre efficacement aux défis des technologies quantiques de demain, et pour positionner la France au plus haut niveau de la compétition internationale », indiquait Sébastien Tanzilli, chargé de mission technologies quantiques au CNRS et membre de la task force pilotée par l’État.

L’intrication, clé de la révolution quantique

Directeur de recherche émérite et médaille d’or du CNRS, également professeur à l’Institut d’optique, Alain Aspect sait ce que la seconde révolution quantique pourrait apporter au domaine scientifique. « La première révolution quantique a permis le développement de la société d’information et de communication », a rappelé le membre de l’Académie des sciences, lors du sixième Sommet start-up et innovation. C’est ainsi que sont nées dans les années 1950 des inventions telles que le laser ou le transistor. Selon lui, deux concepts nouveaux permettront une seconde révolution quantique : l’intrication, propriété découverte par Albert Einstein en 1935, et le contrôle des objets quantiques individuels.

« Dans les années 1980, des théoriciens tels que Feynman, Shor et Deutsch ont réalisé que l’intrication ouvrait des voies totalement nouvelles dans le traitement de l’information », a indiqué Alain Aspect. Le physicien ajoute que grâce à la combinaison de l’intrication et des objets quantiques, il est possible de « faire des choses extraordinaires ». C’est ainsi que la puissance et la rapidité d’exécution de tâches complexes pourraient être multipliées. Une fois maîtrisée, cette technologie pourrait remettre en question des systèmes actuellement établis tels que la cryptographie. En effet, la cryptographie quantique rendrait obsolètes les systèmes de sécurité numériques classiques.

Les startups essentielles au quantique

Depuis plusieurs mois, de nombreuses sociétés travaillent au développement de machines quantiques. En octobre 2019, Google avait même annoncé avoir réussi à mettre au point un ordinateur quantique capable d’effectuer un calcul complexe en 3 minutes et 20 secondes grâce à son processeur Sycomore comptant 54 qubits. Le géant américain a affirmé dans le même temps que l’ordinateur binaire le plus puissant du monde, conçu par IBM, aurait besoin de 10 000 ans pour effectuer cette tâche. IBM a ensuite infirmé cette assertion en arguant qu’avec de grandes quantités de stockage, cette opération pourrait être réalisée en un peu moins de trois jours.

En France, le ton est davantage à la coopération. Atos, entreprise spécialisée dans la transformation digitale, a développé un langage appelé Atos Software Assembly Language pour coder des algorithmes quantiques. Selon Pierre Barnabé, directeur général big data et cybersécurité chez Atos, les résultats obtenus sont satisfaisants et proches de ceux obtenus par des machines quantiques en laboratoire. La société a décidé de partager son expertise en mettant en ligne sa Quantum Learning Machine, accessible librement. Ainsi, les étudiants et les ingénieurs peuvent s’entraîner à créer leurs propres algorithmes.

Et aux côtés des grandes entreprises, des structures de tailles plus modestes s’exercent au quantique. Pour Pierre Barnabé, cette dynamique est positive. « Les startups ont plus que jamais leur place dans la création de cet univers. On [les] invite à aller sur le site pour apprivoiser le langage, comprendre comment il fonctionne et faire des essais », a-t-il affirmé. Selon lui, l’objectif principal est de faire en sorte que les entreprises soient assez familiarisées avec le quantique pour pouvoir utiliser les machines lorsqu’elles seront prêtes. Alain Aspect pense également que le concours des startups est essentiel. Le physicien explique qu’à l’heure actuelle, nul ne sait quelle sera la meilleure application du quantique. Pour la trouver, il sera nécessaire que petites et grandes entreprises explorent « toutes les pistes ».

À la surface de Mars, l’eau n’a pas disparu en une fois

L’eau a disparu plus d’une fois à la surface de la planète Mars. C’est ce que révèlent des images captées par le rover Curiosity, en exploration depuis 2012, au cœur du cratère Gale, positionné près de l’Équateur martien. Les clichés ont permis à une équipe de recherche franco-américaine de procéder à une analyse de la stratigraphie du mont Sharp – ou Aeolis Mons – situé dans le cratère. Les résultats des travaux de ces chercheurs, venus de plusieurs centres de recherche en France et aux États-Unis, ont fait l’objet d’une publication dans la revue GeoScienceWorld.

Alternances d’humidité et de sécheresse

Les images du Mont Sharp, d’une hauteur d’environ six kilomètres, révèlent plusieurs couches sédimentaires. Une première strate d’argile lacustre témoigne de la période de création du cratère Gale, à l’époque où la zone était recouverte d’eau. Une deuxième couche est composée de sédiments éoliens, preuves de la présence de dunes façonnées par le vent. À cette période, la zone était donc complètement aride. Ensuite, une troisième couche atteste d’un retour de phase aqueuse. Enfin, un dernier niveau sédimentaire correspond à l’ultime état de sécheresse de la zone. L’assèchement actuel de Mars date d’environ trois milliards d’années.

« Le climat de Mars a donc vraisemblablement varié plusieurs fois entre des conditions sèches et des environnements de lacs et de fleuves, avant l’aridité générale que l’on connaît aujourd’hui », indique un communiqué du CNRS. L’alternance entre les phases humides et arides s’est produite dans un temps long. Selon William Rapin, chercheur CNRS à l’Institut de recherche en astrophysique et planétologie, ces différents épisodes ont eu lieu sur un temps long. « Nous sommes face à une fluctuation climatique de grand ordre. Bien que nous n’ayons pas d’outil de datation, l’observation effectuée sur plusieurs centaines de mètres indique que cette dernière a duré des centaines de millions d’années », précise-t-il.

ChemCam, télescope détourné de son usage

Pour la communauté scientifique, ces découvertes d’une grande précision sont inédites. « C’est la première fois que nous avons accès à 3,5 milliards d’années de vestiges sédimentaires », rappelle William Rapin. Pour cela, l’équipe de recherche a détourné l’usage de ChemCam, le télescope du rover Curiosity. L’outil d’observation a été fabriqué en France ; il est piloté conjointement depuis huit ans par le CNES et le Los Alamos National Laboratory situé au Nouveau-Mexique (États-Unis). À l’origine, ce dernier servait à focaliser un laser sur les roches. Mais pour les besoins de la recherche, « nous l’avons pointé sur les effleurements géologiques à quelques kilomètres de distance », révèle William Rapin.

C’est ainsi que les scientifiques ont pu observer en détail l’organisation des couches sédimentaires et révéler le contexte dans lequel elles se sont formées. Désormais, les chercheurs souhaitent en apprendre davantage sur cette composition géologique. Pour cela, des forages seront effectués au creux de ces différentes couches sédimentaires. L’objectif de ces travaux sera de tenter de caractériser avec précision les évolutions climatiques passées. Les scientifiques espèrent ainsi pouvoir découvrir l’origine de ces fluctuations majeures.

Développer des équipements industriels pour recycler les panneaux solaires en fin de vie

Avec une durée de vie d’environ 30 ans, le nombre de panneaux photovoltaïques arrivé en fin d’usage va exploser dans les années à venir. Ce volume est estimé à 5 tonnes cette année en France, mais devrait tripler d’ici à 2025. À l’échelle de l’Europe, des estimations tablent sur 10 millions de tonnes arrivés en fin de vie en 2050 et par an. Un projet européen baptisé Photorama va débuter, avec pour objectif de développer des équipements industriels pour recycler les panneaux solaires à partir d’une technologie développée par le CEA-Liten.

Les solutions de recyclage actuellement mises en œuvre pour recycler ces panneaux sont jugées insatisfaisantes. La plus courante consiste à broyer en petits morceaux les modules puis à séparer les différentes fractions de ces broyats. Quelques métaux ferromagnétiques peuvent ainsi être aimantés puis récupérés tandis que le verre et les plastiques sont séparés, mais la valorisation de ces deux matériaux est limitée. Le verre peut être utilisé comme remblais tandis que les plastiques sont brûlés pour fournir de l’énergie par incinération. Des procédés thermiques existent également mais ne sont pas sans conséquence sur l’environnement puisqu’ils nécessitent de brûler les plastiques pour récupérer le verre, le silicium et les différents métaux. Enfin, un procédé chimique peut être employé, mais est lui aussi nocif pour la planète puisqu’il emploie des produits polluants.

Une technologie efficace sur de nombreux types de modules

Le CEA-Liten a développé une technologie qui repose sur l’utilisation d’un fil diamanté obtenu à partir d’un fil en acier sur lequel sont électrodéposés des diamants. Le procédé consiste à passer ce fil le long du verre pour le séparer du polymère situé sur la face arrière. Le passage du fil entraîne la formation de copeaux à l’intérieur desquels se trouve du silicium, du cuivre, de l’étain, de l’argent… Certains matériaux dopants peuvent aussi être récupérés comme du bore, du phosphore ou du gallium. Par traitement hydrométallurgique, il est ensuite possible de séparer et de récupérer ces différents métaux.

Deux brevets ont été déposés en 2017 pour protéger cette technologie qui a fait l’objet d’une publication scientifique en 2019. Elle présente l’avantage d’être efficace sur de nombreux types de modules, y compris ceux intégrés que l’on peut retrouver sur des véhicules. Elle s’adapte aussi à toutes les tailles de panneaux, dont la tendance actuellement est à l’agrandissement.

« Aujourd’hui, nous sommes dans une phase de pré-industrialisation, déclare Jérémie Aimé, chef du laboratoire des systèmes photovoltaïques au CEA-Liten. Nous devons à présent optimiser les processus afin que l’équipement ne soit pas trop complexe tout en le rendant performant. L’un des enjeux est de réussir à augmenter les cadences. La vitesse est actuellement de 1 mètre carré par demi-heure. L’ambition de ce projet européen est de parvenir à traiter entre 6 et 12 modules par heure. »

Chaque équipement industriel devra respecter un cahier des charges avec notamment des exigences concernant le degré de pureté des matériaux. Pour l’argent, le cuivre et l’étain, ce taux devra par exemple être supérieur à 99 % tandis que pour le silicium, il devra dépasser 99,9 %. « Pour le polymère fluoré utilisé en face arrière des modules, un matériau relativement coûteux et technique à fabriquer, l’ambition est de retrouver le polymère d’origine pour le valoriser dans une autre application, explique Fabrice Coustier, ingénieur R&D au CEA-INES. Idem pour le verre, l’objectif est de le récupérer intact, nous pourrons le valoriser dans la filière du verre ou alors le réutiliser pour en refaire un panneau photovoltaïque. Nous avons déjà montré que c’était possible à petite échelle. »

Pour l’instant, toutes les pistes de valorisation sont ouvertes. Au côté du projet Photorama, un programme nommé ICARUS vise à trouver des débouchés pour le silicium issu de la découpe car aujourd’hui 35 % du silicium est perdu à cette étape. « Il faut que la filière soit économiquement viable et surtout ne pas déporter la contrainte environnementale, ajoute Fabrice Coustier. Pour le silicium, l’une des pistes évoquées serait de le recycler dans la filière photovoltaïque. »

Une autre méthode développée à base de fluides supercritiques

La liste des partenaires associés à ce projet européen n’est à ce jour pas connue, le processus de signature n’étant pas encore totalement achevé. Mais il devrait regrouper des acteurs des secteurs public et privé de nombreux pays tels que la France, la Norvège, l’Allemagne, les Pays-Bas, l’Autriche, la Belgique, l’Italie et l’Espagne.

En plus d’utiliser le procédé du fil diamanté, il est aussi prévu de développer une autre technologie mise au point par le CEA-Liten, à base de fluides supercritiques, mais dont le stade de maturité est moins élevé. Concrètement, des gaz sont d’abord liquéfiés à très forte pression pour que le liquide pénètre dans les différentes couches des modules. La seconde étape consiste à détendre ces gaz rapidement, entraînant une délamination des différentes couches à l’intérieur des panneaux photovoltaïques.

D’ici trois ans, ce projet européen devrait atteindre un volume de panneaux solaires recyclés de 1 200 tonnes par an. « Notre véritable cible se situe plutôt à l’horizon 2030 en termes de maturité des équipements de recyclage, mais aussi de préservation des stocks de matières premières critiques. Ce projet va en effet participer au plan stratégique lancé par l’Union européenne qui vise à sécuriser l’approvisionnement de ces matières premières à l’horizon 2030 », poursuit Jérémie Aimé.

Des générateurs thermomagnétiques pour convertir les faibles écarts de température en électricité

De nombreux procédés industriels sont conçus pour récupérer une partie de la chaleur qu’ils produisent. Si cette chaleur fatale peut être exploitée de différentes manières, plus la température est élevée, plus cette chaleur est facile à récupérer.

En revanche, la récupération d’énergie thermique sur la plage de température 10°C à 250°C est particulièrement difficile, car peu efficace. Bien que la production d’énergie thermoélectrique (TEG) soit la technologie de conversion la plus mature actuellement, elle s’avère fortement limitée sur cette gamme de température. Les systèmes TEG ont ainsi l’inconvénient de nécessiter des différences d’au moins 100°C pour atteindre un rendement de 5 %.

La génération d’énergie thermomagnétique : un concept ancien

Pour les différences de températures plus faibles, il existerait une solution plus efficace : utiliser des générateurs thermomagnétiques (TMG) basés sur des films d’alliages de Heusler.

Si les premiers brevets concernant les TMG ont été déposés il y a longtemps par Tesla et Edison, l’efficacité réelle des prototypes était bien en deçà des prédictions théoriques, car pour que cette solution soit efficace il faut :

  • disposer d’un matériau possédant un coefficient ΔΜ/ΔΤ élevé ;
  • un transfert thermique rapide.

Utiliser des films d’alliages de Heusler en Ni-Mn-Ga est la solution proposée par les chercheurs pour résoudre ces deux problèmes.

Dans une publication pour la revue Joule, l’équipe de chercheurs composée de membres de l’Institute of Microstructure Technology (IMT, Allemagne) et de la Tōhoku University (Japon) explique le fonctionnement de cette solution. Leur solution exploite les changements d’aimantation aux températures critiques des alliages de Heusler, des matériaux dont les propriétés magnétiques dépendent fortement de la température (coefficient ΔΜ/ΔΤ). Ces changements d’aimantation induisent un courant électrique dans une bobine, suivant le principe de l’induction.

TMG en cours d’oscillation (crédit : IMT/KIT)

Plus concrètement, le prototype qu’ils ont développé est assimilable à une poutre en porte-à-faux, sur laquelle est disposé un film d’alliage Ni-Mn-Ga. Ce film est à la fois utilisé pour convertir l’énergie thermique et provoquer une oscillation, sous l’effet d’un transfert thermique rapide.

Illustration du cycle thermomagnétique en 4 phases (crédit : IMT/KIT)

Des résultats encourageants

D’après le professeur Manfred Kohl, à la tête du Smart Materials and Devices Group de l’IMT, les résultats obtenus sont encourageants :

« Nous avons réussi à multiplier la puissance électrique par un facteur de 3.4, en faisant passer l’épaisseur du film de 5 à 40 µm, pour atteindre 50 mW/cm², avec une différence de température de seulement 3°C. Ces résultats représentent une étape importante dans la récupération de chaleur à basse température (<100°C). »

Les prochaines étapes incluent le développement d’architectures parallèles, mais aussi le développement de nouveaux alliages de Heusler plus performants en dessous de 100°C.

Doc&Quiz : des articles interactifs à découvrir, des quiz à faire !

Les traditionnelles ressources documentaires Techniques de l’Ingénieur évoluent : les offres intègrent dorénavant des articles interactifs, avec leurs quiz.

Conçus pour apporter une nouvelle dimension à cet outil d’enrichissement des connaissances, les quiz ont une double fonction :

  • appui à l’acquisition et la mémorisation des savoirs,
  • préparation à la certification Techniques de l’Ingénieur CerT.I.

Profitez d’une sélection d’articles interactifs en accès libre pour quelques semaines uniquement, le choix est large !

Véhicules autonomes : les risques liés à la cybersécurité doivent être mieux pris en compte

Tout système informatique est vulnérable : infection par un code malveillant, modification du code source, fuite de données… Les véhicules autonomes n’échappent pas à cette règle comme l‘ont démontré plusieurs hackers qui ont eu réussi à prendre le contrôle de tel ou tel modèle de voiture. Le piratage d’une Tesla 3 a même permis d’accéder à des informations critiques stockées dans le disque dur du véhicule.

Problème : l’intégration de l’IA rend plus complexe la protection du système informatique embarqué et des données plus ou moins sensibles qui y transitent. Un constat qui sert de « fil rouge » au récent rapport de l’ENISA (European Union Agency for Cybersecurity) et du CCR (un service scientifique et de production des connaissances de la Commission européenne).

Ce rapport « Cybersecurity Challenges in the Uptake of Artificial Intelligence in Autonomous Driving » analyse les risques de cybersécurité liés à l’IA (dus en partie à l’ajout d’algorithmes ML complexes et opaques), dans les véhicules autonomes et fournit des recommandations pour les atténuer.

« Les risques de cybersécurité dans les véhicules à conduite autonome peuvent avoir un impact direct sur la sécurité des passagers, des piétons, des autres véhicules et des infrastructures connexes. Il est donc essentiel d’étudier les vulnérabilités potentielles introduites par l’utilisation de l’IA », indiquent les auteurs du rapport.

Les véhicules autonomes sont également vulnérables aux défis de cybersécurité touchant les capteurs physiques, les contrôles et leurs mécanismes de connexion, selon le rapport.

Un rapport alarmiste et proche d’un scénario de science-fiction ? La réalité montre au contraire que la situation est alarmante. Par exemple, des voitures autonomes Tesla ont été trompées en accélérant au-delà des limites de vitesse affichées sur les panneaux de signalisation en modifiant le chiffre « 3 » pour lire 85 mph au lieu de 35 mph.

Enfin, des chercheurs de Tencent (un acteur chinois majeur de l’Internet et particulièrement de la publicité et des applications mobiles) ont trompé le système de pilotage automatique d’une Tesla en l’amenant à se tromper de voie à l’aide d’autocollants.

Situations inattendues et nouvelles attaques malveillantes

Afin d’améliorer la sécurité de l’IA dans les véhicules autonomes, le rapport contient plusieurs recommandations. La principale est que des évaluations de sécurité des composants de l’IA soient effectuées régulièrement tout au long de leur cycle de vie. Cette validation systématique est essentielle pour garantir que le véhicule se comporte toujours correctement face à des situations inattendues ou à de nouvelles attaques malveillantes.

L’ENISA recommande également aux parties prenantes de simuler divers scenarii d’attaque et de mettre en place des équipes de traitement et de réponse aux incidents de cybersécurité.

Comme pour les autres domaines de l’informatique et de l’IA, les experts insistent sur la mise en place d’une approche holistique de bout en bout pour intégrer la cybersécurité de l’IA aux principes traditionnels de cybersécurité : investissement dans la R&D, gouvernance des données afin d’être en conformité avec les règlementations (et notamment le RGPD) et adoption d’une culture de cybersécurité de l’IA dans l’ensemble du secteur automobile.

Une recommandation qui est, semble-t-il, entendue par ce secteur. L’Autonomous Vehicle Computing Consortium (consortium regroupant des industriels de l’automobile et des entreprises technologiques) et la SAE International (organisation internationale comptant plus de 84 000 ingénieurs, chefs d’entreprise, professeurs et étudiants de plus de 97 pays) viennent de décider de travailler ensemble. Parmi les thèmes prévus : l’amélioration de la cybersécurité des véhicules autonomes.

Déprogrammer l’obsolescence grâce à l’écoconception

« A l’échelle du monde, de la France, de l’entreprise ou du service numérique, les conclusions sont presque toujours les mêmes : c’est d’abord la fabrication des terminaux utilisateurs qui concentrent le gros des impacts », affirme Frédéric Bordage, créateur de la communauté GreenIT.fr spécialisée dans l’informatique durable. « De fait, lorsqu’on va écoconcevoir un service numérique, on va d’abord chercher à ne pas déclencher l’obsolescence du terminal de l’utilisateur. Le contenu ou le service doit pouvoir fonctionner sur un vieil ordinateur ou smartphone. »

Une proposition de loi a d’ailleurs été adoptée en première lecture au Sénat, concernant par exemple la limitation du renouvellement des terminaux, le développement des usages du numérique écologiquement vertueux ou encore les centres de données et réseaux moins énergivores. L’ensemble de ces propositions vous sont détaillées dans cet article publié sur Techniques de l’Ingénieur.

Un indice de réparabilité

Un des leviers d’écoconception est la durée de vie du matériel. Depuis le 1er janvier 2021, un indice de réparabilité est déployé sur cinq catégories de produits électroménagers et électroniques, comme le précise le Ministère de la transition écologique. C’est un outil de la loi anti-gaspillage pour une économie circulaire, qui repose sur 5 critères : la disponibilité de la documentation technique, la facilité de démontage du produit, la disponibilité des pièces détachées, leur prix, et d’autres sous-critères propres au produit.

« C’est essentiel, car il permettrait au consommateur d’avoir plus de transparence sur la réparation possible de son terminal en cas de panne, explique Raphaël Gustavi, chef de service adjoint Service Produits & Efficacité Matière de l’Ademe. Et c’est également un levier important pour les fabricants, car cet indice tirerait vers le haut les performances énergétiques de leur matériel. Comme ce qu’il s’est passé avec l’indice énergétique pour les réfrigérateurs par exemple… ». A horizon 2024, la loi prévoit que cet indice devienne un « indice de durabilité » permettant ainsi d’ajouter de nouveaux critères tels que la robustesse ou la fiabilité des produits.

« On a raison d’insister sur l’allongement de la durée de vie des équipements et la lutte contre leur obsolescence programmée, affirme Hugues Ferreboeuf à Libération. C’est un levier incontournable pour atténuer cette empreinte importée. Mais si on ne s’attaque pas également à la consommation d’énergie, on n’arrivera jamais à cette division par deux des émissions ». Il précise que, à son arrivée en France, un appareil a déjà les trois quarts de son empreinte carbone.

Un nouveau catalyseur pour la transformation chimique des plastiques à basse température

Les techniques de recyclage mécanique sont parfaitement adaptées à la valorisation des monomatériaux polymères et permettent ainsi de recycler la moitié des emballages plastiques utilisés par les ménages. Pour les 50 % restants, les méthodes de recyclage chimique apparaissent comme idéales et sont étudiées de près aussi bien par les industriels que par les chercheurs.

Le recyclage chimique des polyoléfines : une tâche difficile

Les polyoléfines constituent la famille la plus répandue de polymères, incluant par exemple le polypropylène (PP) et les polyéthylènes haute et basse densité (PEHD et PELD) entrant dans la composition de la plupart des emballages plastiques. Néanmoins, la transformation chimique de ces plastiques s’avère difficile, pour deux raisons.

D’une part, la forte énergie de liaison C(sp3)-C(sp3) nécessite généralement une température de transformation élevée ( ≥573 K). Afin de réduire la température de réaction, le développement de catalyseurs plus efficaces est donc nécessaire.

D’autre part, la dissociation sélective de la liaison C-C dans les plastiques s’avère difficile, ce qui donne souvent lieu à la production de gaz à faible valeur ajoutée (C1-C4), réduisant l’intérêt économique du recyclage chimique.

Un catalyseur à rendement élevé

Dans le papier publié dans le journal Applied Catalysis B: Environmental, les chercheurs de l’université d’Osaka expliquent avoir développé un nouveau système catalytique. Ce catalyseur hétérogène, composé de Ru/CeO2 et H2, permet l’hydrogénolyse de la liaison C-C. H2 joue ici un rôle essentiel, puisqu’il permet de maintenir actifs les sites catalytiques, facilitant la dissociation de la liaison C-C.

Le processus de transformation des polyoléfines en produits chimiques liquides utilise un catalyseur Ru/CeO2 composé de nanoparticules. Crédit : Masazumi Tamura

Selon Masazumi Tamura, professeur agrégé au Research Center for Artificial Photosynthesis de l’université d’Osaka*, ce catalyseur très sélectif permet une transformation avec un rendement élevé : « Notre méthode peut fournir des produits chimiques liquides de haute valeur, comme des cires (C22-C45) et des combustibles (C5-C21), avec un rendement élevé, supérieur à 90 %. Cette caractéristique vient du fait que notre catalyseur dissocie plus facilement les liaisons C-C internes que les liaisons externes. »

Une méthode prometteuse, mais pas encore industrialisable

Ce catalyseur a l’avantage de transformer les plastiques polyoléfiniques à 473 K, ce qui est beaucoup moins qu’avec les autres méthodes de catalyse hétérogène dont la température de réaction dépasse les 573 K. D’un point de vue de la consommation énergétique, c’est donc un avantage industriel. Par ailleurs, le catalyseur Ru/CeO2 est aussi très stable et réutilisable, en théorie, sans baisse d’activité catalytique et de sélectivité.

Néanmoins, l’industrialisation à grande échelle n’est pas encore d’actualité, d’après Masazumi Tamura : « Je pense que la réaction à échelle industrielle est difficile à atteindre avec ce seul catalyseur, et des développements seront nécessaires pour améliorer la durabilité du catalyseur. En général, les déchets plastiques sont composés de divers additifs, ce qui peut poser de sérieux problèmes de durabilité pour le catalyseur. La viscosité des plastiques peut également être problématique pour l’industrialisation et leur manipulation est susceptible de compliquer l’alimentation du procédé. »

Ainsi, d’autres travaux seront encore nécessaires pour améliorer les méthodes de purification et d’alimentation et arriver à un résultat industrialisable.

* OCU Advanced Research Institute for Natural Science and Technology (OCARINA)

Petites et moyennes entreprises s’associent pour l’avenir de l’hydrogène

Dans les prochaines années, l’hydrogène sera un acteur de la neutralité carbone. C’est le pari fait par plusieurs pays de l’Union européenne, qui comptent sur cette énergie pour repenser les usages dans de nombreuses filières. En ce sens, la France a annoncé en septembre dernier la mise en place d’un vaste plan national. 7,2 milliards d’euros seront déboursés sur dix ans pour produire un hydrogène décarboné et en démocratiser les utilisations. De son côté, la Commission européenne allouera un budget conséquent au développement de l’hydrogène sur le continent. Les investissements, à la fois publics et privés, devront être massifs. Selon la Commission, l’Europe aura besoin de 180 à 470 milliards d’euros pour atteindre ces objectifs d’ici 2050.

Ces investissements entrent dans le cadre de l’objectif d’atteindre le « zéro émission carbone » en 2050. En ce sens, l’hydrogène permettrait aux pays européens d’enclencher un virage. « Nous vivons avec l’hydrogène non pas une innovation incrémentale, mais une transformation fondamentale de notre système énergétique, de notre mobilité, mais aussi des filières industrielles qui sont derrière cette technologie », affirme Valérie Bouillon-Delporte, présidente d’Hydrogen Europe, lors d’une table ronde organisée dans le cadre du sixième Sommet Start-up et innovation. Elle explique également qu’aussi bien la France que l’Union européenne souhaitent que cet hydrogène soit produit par électrolyse. À l’heure actuelle, l’hydrogène est majoritairement produit à partir d’hydrocarbures. Or, cette source de production grise n’est pas compatible avec l’ambition zéro carbone.

Les futures licornes de l’hydrogène

Grâce à l’avantage écologique qu’il présente, l’hydrogène séduit. Il « était confidentiel, aujourd’hui, il est sous le feu de la rampe », constate Luc Bodineau, coordinateur du programme hydrogène de l’Ademe au sein de la direction des entreprises et transition industrielle. Ce dernier affirme que cette tendance est possible grâce aux travaux de plusieurs PME et startups au cours des dix dernières années. Ainsi, les petites entreprises ont fortement contribué à l’essor de l’hydrogène, notamment pour les usages stationnaires. « De nombreuses startups sont en train de devenir des futures licornes », félicite Valérie Bouillon-Delporte.

En France, pour favoriser leur développement, l’Ademe accompagne ces petites structures. Au cours de cette table ronde, Luc Bodineau a évoqué quelques-unes de leurs solutions. La start-up Powidian a développé une solution alliant hydrogène, batterie et photovoltaïque en remplacement des groupes électrogènes diesel. Ce service est destiné aux sites isolés, non reliés au réseau électrique, pour les alimenter de manière « sûre, autonome et propre ». Autre exemple, la PME Zent utilise l’hydrogène pour proposer un service d’hébergement numérique « tracé 100 % renouvelable et localisé sur le territoire ». Pour développer ce produit, la société a travaillé de concert avec le fournisseur d’énergie Enercoop et Biocoop Avignon.

L’hydrogène en remplacement du diesel

Il arrive aussi que des grands groupes s’associent avec des PME pour développer des solutions hydrogène. C’est ce qu’a fait notamment le groupe Michelin. « Quand on sait travailler ensemble, ça fait avancer les choses et ça déplace le curseur », explique Valérie Bouillon-Delporte, également directrice écosystème hydrogène chez le spécialiste français du pneumatique. Elle évoque la collaboration de la firme avec la startup Symbio. Ensemble, les deux entreprises ont mis au point une pile à combustible adaptable aux véhicules électriques en série, pour les faire basculer vers l’hydrogène. Ce module complémentaire permet d’allonger l’autonomie de ces voitures. Valérie Bouillon-Delporte explique que l’expertise de Michelin a servi à l’agencement des multiples composants dans la pile à combustible.

De son côté, Alstom planche sur l’utilisation de l’hydrogène dans le secteur ferroviaire. « On se doit de proposer des solutions pour aller vers zéro émission », a déclaré Brahim Soua, vice-président matériel roulant de la firme, durant la table ronde. Fort de l’expérience acquise grâce à son premier train hydrogène iLint, l’entreprise prévoit de remplacer les rames diesel roulant sur des tronçons non électrifiés longs de 80 à 300 kilomètres. Ces trains sont homologués en Allemagne et en Autriche depuis fin 2020. En France, ces véhicules devraient arriver en région dès 2023. La Bourgogne-Franche-Comté, l’Occitanie et la Normandie ont d’ores et déjà fait part de leur intérêt pour cette solution.

Quelle est la meilleure place boursière pour les licornes ?

L’avenir financier des licornes européennes peut-il se jouer à domicile ? Pour ces start-ups dont la valorisation a franchi la barre du milliard de dollars, la question de l’introduction en bourse se pose dans le cadre de leur développement. Souvent, les yeux de leurs dirigeants sont tournés vers le NASDAQ. Mais, au cours de ces cinq dernières années, Euronext, la place boursière européenne, a vu ses règles de fonctionnement évoluer. Aujourd’hui, elle souhaite attirer ces jeunes entreprises à succès, avides de rejoindre le marché américain.

Lors d’une table ronde organisée dans le cadre du sixième Sommet start-up et innovation, trois entrepreneurs européens se sont interrogés sur les perspectives d’évolution liées à une cotation au NASDAQ ou à Euronext. « Il est important de considérer que l’entrée en bourse est l’une des étapes dans la vision à long terme de la société », a confirmé Bertrand Diard, fondateur de Talend, l’une des trois sociétés françaises cotées au NASDAQ.

« C’est comme passer du collège au lycée »

Créée en 2005, la start-up leader de l’intégration de données a intégré la bourse américaine en 2016. En 2014, Bertrand Diard et son équipe ont choisi de transférer leur société aux États-Unis. Ils estimaient alors que le marché européen n’était pas assez mature pour leur projet, et que les perspectives d’avenir dans le domaine du software étaient plus faciles à envisager outre-Atlantique. « Nous envisagions un développement focalisé sur les États-Unis, car les analystes du NASDAQ étaient plus matures que ceux que l’on avait l’habitude de voir en Europe », a ajouté Bertrand Diard.

C’est aussi cette absence de frilosité des analystes boursiers américains qui a poussé Dataiku à quitter la France en 2015 pour s’installer aux États-Unis. La licorne fondée en 2013 est spécialisée dans l’extraction de données et a déjà réalisé plusieurs levées de fonds, notamment auprès de Serena, dont Bertrand Diard est partenaire. À l’heure actuelle, la start-up n’est pas encore cotée en bourse, mais elle s’y prépare. « Pour les sociétés du software, l’entrée en bourse est une étape supplémentaire dans le développement. C’est comme passer du collège au lycée », a expliqué Florian Douetteau, cofondateur de Dataiku. Pour lui, sa société aura de meilleures chances de tirer profit de son entrée en bourse aux États-Unis.

Les Américains comprennent mieux les licornes

Florian Douetteau ajoutait qu’une cotation en bourse au NASDAQ est également une manière de se positionner face à la concurrence. Ainsi, un effet de pôle s’est formé au sein de la place boursière américaine. « Une entrée en bourse fait surtout évoluer l’image d’une société sur un marché », a-t-il affirmé. L’entrepreneur estime donc qu’au-delà de la dimension financière, la cotation boursière est aussi un coup de projecteur qui relève de l’opération marketing. Pieter van der Does, lui, n’a pas ressenti ce même besoin de visibilité pour la licorne néerlandaise Adyen.

Fondée en 2005, la société commercialise une solution de paiement adoptée en France notamment par Boulanger et Etam. En 2018, elle est introduite à Euronext. « En 2014, nous avons réalisé une levée de fonds de 200 millions d’euros qui nous a permis d’acquérir une certaine notoriété », a-t-il expliqué. La crédibilité acquise lors de cette opération avait alors permis à la société de développer son réseau. « Avant l’entrée en bourse, nous avons consulté ce réseau qui nous a assuré qu’il investirait quel que soit le marché boursier sur lequel nous nous trouverons. Par simplicité, nous avons donc opté pour Euronext », a révélé le directeur général d’Adyen.

Pourtant, Pieter van der Does reconnaît que les investisseurs américains sont plus à même de financer start-ups et licornes. Après son entrée en bourse, il a effectivement remarqué que les investisseurs étaient plus souvent américains qu’européens. Florian Douetteau estime quant à lui que « les analystes de la tech en Europe ne comprennent pas le profil de certaines sociétés ». Une opinion partagée par Bertrand Diard. « Pour rivaliser avec de solides marchés comme ceux des États-Unis, l’Europe doit se renforcer et faire des efforts pour que les analystes comprennent mieux les activités de la tech », a précisé le fondateur de Talend. Mais à l’instar de Pieter van der Does, il considère que « cela prendra du temps ».

Ecoutez notre podcast Cogitons Sciences : Encadrer la recherche médicale [Sciences et éthique #2]

Comment fonctionne le secteur de la recherche médicale en France ? Quelles instances veillent à faire respecter une forme d’éthique ? Doit-on poser des limites à la recherche ?

Pour répondre à ces questions, Techniques de l’Ingénieur reçoit deux invités. Virginie Rage Andrieu est la présidente de la Conférence Nationale des Comités de Protection des Personnes. Elle est également membre de la Commission nationale des recherches impliquant la personne humaine auprès du ministère de la Santé et elle est aussi maître de conférences en droit de la santé et droit pharmaceutiques. Hervé Chneiweiss est le président du Comité d’Ethique de l’Inserm (Institut national de la santé et de la recherche médicale). Il est également président du Comité international de bioéthique de l’UNESCO et travaille comme neurobiologiste et neurologue.

Vous pouvez l’écouter ici.

La recherche médicale, un secteur encadré [1:45] – [14:08]

Il existe de nombreuses étapes entre le lancement d’une recherche et la commercialisation d’un médicament ou produit de santé. Pour qu’une recherche sur l’être humain débute en France, elle doit être validée en amont par un Comité de Protection des Personnes (CPP). Des principes éthiques, comme le respect du corps humain, le traitement des données personnelles, et la balance des bénéfices-risques réduite au minimum, doivent être respectés. L’ANSM (Agence nationale de sécurité du médicament et des produits de santé) doit également donner son accord. C’est elle aussi qui sera chargée de vérifier que les protocoles validés sont bien respectés dans les faits [1:45].

En amont de ces questions, le Comité d’Ethique de l’Inserm peut être saisi afin de s’interroger sur les questions éthiques soulevées par une recherche. Il est composé d’experts en médecine, biologie, mais aussi en sciences humaines et en philosophie. Les groupes de travail ne déterminent pas « ce qu’il faut penser » mais donnent de la « matière à penser » aux chercheurs et chercheuses [9:23].

Notre pratique de la recherche est-elle éthique ? [14:08] – [27:43]

La recherche médicale repose en grande partie sur les essais cliniques, mais est-il éthique de réaliser des tests sur l’humains ? Pour Virginie Rage Andrieu, c’est d’imaginer de commercialiser des médicaments sans tests préalables qui ne serait pas éthique. Hervé Chneiweiss partage une révélation : « L’homme n’est pas une souris ». Ainsi, les tests sur les animaux ne suffisent pas, il faut des preuves d’efficacité et de sécurité, et c’est pourquoi tous les tests sont très encadrés [14:08].

Du point de vue de la protection de la vie privée, les données recueillies par les centres d’investigation sont « pseudonymisées » et les promoteurs des recherches ne reçoivent que des codes. Les participants aux essais cliniques sont informés de leurs droits, peuvent agir sur le traitement de leurs données et peuvent retirer leur consentement à tout moment [20:23].

Hervé Chneiweiss reconnait que la France s’est dotée rapidement de comités consultatifs et de lois pour encadrer la recherche, qui évoluent continuellement. C’est pour cela que désormais, les CPP n’évaluent plus les dossiers dépendants de leur université, afin de limiter les liens d’intérêt [22.54].

Covid-19 : la recherche dans l’urgence [27:43] – [34.02]

Dès le début de la crise du Covid-19, il a rapidement été décidé de ne pas altérer la rigueur des processus d’évaluation et donc ne pas sauter d’étapes. En revanche, une accélération des processus était possible. Ainsi, le traitement des dossiers par les CPP a été accéléré avec des dialogues directs entre évaluateurs et promoteurs de recherches [27:43].

Hervé Chneiweiss pense qu’il est aujourd’hui trop tôt pour savoir s’il y a eu des manquements éthiques pendant la crise. En revanche, il pointe le manque d’accessibilité au vaccin pour nombre de personnes, ce qui est la question éthique majeure aujourd’hui [32:10].

Doit-on limiter la recherche ? [34:02] – [41:01]

Selon Hervé Chneiweiss et Virginie Rage Andrieu, la recherche est déjà limitée par de nombreuses lois. Cependant, un consensus à l’échelle internationale s’avère plus complexe, même s’il existe des lois à l’échelle européenne [34:02].

Ecoutez l’épisode !

Références citées :

  • Ciseaux CRISPR-Cas9 – travaux d’Emmanuelle Charpentier et Jennifer Doudna, prix Nobel de Chimie 2020
  • Loi Huriet-Sérusclat (1988) relative à la protection des personnes
  • Convention d’Oviedo (signée en 1997)
  • Charte des droits fondamentaux de l’Union européenne (2000)

Ressources pour aller plus loin :

  • Série documentaire Unnatural Selection
  • Traité de bioéthique d’Emmanuel Hirsch

Cogitons Sciences est un podcast produit par Techniques de l’Ingénieur.  Cet épisode a été réalisé par Alexandra Vépierre, en collaboration avec Intissar El Hajj Mohamed. Le générique a été réalisé par Pierre Ginon et le visuel du podcast a été créé par Camille Van Belle.

Geoflamme : étudier un volcan sous-marin tout juste né

Mi-avril, la campagne de recherche Geoflamme partira en mer durant 42 jours, à bord du Pourquoi pas ?, depuis la Réunion. Les 70 scientifiques étudieront plus en détail un nouveau volcan sous-marin au large de Mayotte. « Ce nouveau volcan a été découvert en mai 2019 et il est probablement né en juin 2018 à l’occasion d’une crise sismique sans précédent qui dure maintenant depuis plus de trois ans à Mayotte », explique Emmanuel Rinnert, de l’Ifremer et chef de mission de la campagne.

Il s’agit du quatrième volcan actif en France et du seul situé sous l’eau, à une profondeur de plus de 3 500 mètres. « Ce volcan fait un peu plus de 800 mètres de haut et environ 5 km de large, chiffre Emmanuel Rinnert. Depuis sa naissance, 6,5 km³ de lave ont été mis sur le fond : pour donner un ordre de grandeur, cela représente une épaisseur de 60 mètres de lave sur toute la surface de Paris. »

Aller au-delà du réseau de surveillance

Depuis mai 2019, un réseau de surveillance s’est mis en place. Des réseaux de mesures à terre suivent la sismicité et le déplacement de l’île qui s’est enfoncée jusqu’à 20 cm et déplacée de 20 cm vers l’Est. « Il y a un réseau de terre, mais aussi une batterie de mesures en mer qui nécessitent l’intervention de la flotte océanographique française, mais également des barges locales, des navires privées ou des navires de la marine nationale », détaille Emmanuel Rinnert.

Le chercheur part déjà pour la 18e mission de surveillance. Au-delà des besoins de la surveillance, il poursuivra cette mission par la campagne Geoflamme. Il s’agira de la première étude de recherche fondamentale consacrée au volcan. « C’est une chance énorme de pouvoir aller étudier un volcan sous-marin aussi près de sa naissance », explique-t-il. Des coulées de lave sont encore actives. « Sur cette mission, c’est la première fois aussi que l’on a la chance d’avoir le robot sous-marin Victor 6000 sur ce volcan, un submersible capable d’opérer jusqu’à 6 000 mètres de profondeur et qui va nous permettre de remonter à la fois des échantillons, et des observations par des images et des vidéos. »

La campagne a pu se maintenir malgré la crise sanitaire. Olivier Lefort, directeur de la flotte océanographique française, explique : « Il y a eu quasiment de mars à août un arrêt complet de l’activité. On a choisi de repartir en privilégiant des campagnes qui étaient au départ et à l’arrivée de la Métropole. Cette année on a choisi de programmer au départ de la métropole toujours et/ou au départ des Outre-mer françaises, en particulier la Réunion pour le Marion Dufresnes et le Pourquoi pas ? ».

Exploiter le potentiel géothermique du réchauffement des nappes d’eaux souterraines en ville

L’idée est originale et a d’abord germé il y a une dizaine d’années dans des laboratoires de recherche, notamment celui de l’Institut de technologie de Karlsruhe en Allemagne. Pourquoi ne pas se servir du réchauffement des nappes d’eaux souterraines dans les territoires urbanisés afin d’exploiter leur potentiel géothermique ? Car en ville, de nombreuses activités anthropiques contribuent au réchauffement du sous-sol. C’est le cas des phénomènes d’îlots de chaleurs aériens qui se répercutent sous terre. L’artificialisation et l’imperméabilisation du sol contribuent également à réchauffer le sous-sol, de même que tous les aménagements souterrains : lignes de métro, parcs de stationnement, réseaux d’assainissement…

Face à ce potentiel énergétique, la métropole de Lyon a mis en place une convention partenariale avec le Cerema, la Dreal (Direction régionale de l’Environnement, de l’Aménagement et du Logement) Auvergne Rhône-Alpes, l’Ademe et le BRGM (Bureau de recherches géologiques et minières) afin d’observer en détail le réchauffement de sa nappe d’eau souterraine et quantifier le gisement de chaleur fatale qui en découle. Ce travail, a priori inédit sur le territoire français, vise également à établir une stratégie de gestion et d’exploitation de cette ressource énergétique à l’aide de dispositifs géothermiques à basse température. « Exploiter les calories du proche sous-sol, c’est-à-dire à une profondeur de 10 à 200 mètres, est très pratique car les températures sont stables tout au long de l’année, analyse Guillaume Attard, chef de projet au Cerema. Ces conditions sont propices au fonctionnement de machines thermodynamiques de type pompe à chaleur pour produire du chauffage ou de la climatisation. »

Le sous-sol de Lyon-Villeurbanne découpé en 13 millions de portions

Le Cerema a donc développé un modèle numérique hydrogéologique afin de cartographier en 3D le secteur de Lyon-Villeurbanne. Le sous-sol de ce territoire, représentant environ 50 km², a été découpé en 13 millions de portions ; chacune d’entre elles prend en compte les caractéristiques physiques des matériaux géologiques en place ainsi que les différents aménagements apportant une source de chaleur et contribuant au réchauffement de la nappe d’eau. « Pour construire ce modèle, nous nous sommes appuyés sur les données de terrain des réseaux de surveillance gérés par la métropole et la ville de Lyon, explique Guillaume Attard. Ces données nous ont permis de reproduire les conditions actuelles des écoulements d’eau souterraine et les transferts thermiques dans le sous-sol. »

Carte interactive permettant de localiser le réchauffement de la nappe lyonnaise. Crédit photo : Cerema

Alors que les réseaux de surveillance ont mis en évidence depuis plusieurs années un réchauffement de la température des eaux souterraines, il est à présent possible d’identifier précisément, à l’aide d’une carte interactive, les secteurs les plus concernés par ce phénomène. L’un d’eux est par exemple localisé dans le quartier de la Part-Dieu, là où se situe la gare. À cet endroit, la nappe n’est située qu’à 5 mètres de profondeur et la présence du métro représente une source de chaleur. Globalement, tous les secteurs ayant une forte densité d’aménagements souterrains associée à une faible profondeur de la nappe sont confrontés au phénomène de réchauffement, comme dans le quartier Gerland ou sur la Presqu’île.

Au total, le gisement associé à ce flux de chaleur provenant des activités humaines a été évalué à environ 250 GWh par an. « Ce volume est loin d’être négligeable lorsqu’on le met en parallèle avec le schéma directeur des énergies de la métropole de Lyon qui indique une consommation d’énergie renouvelable de 500 GWh par an ces dernières années, poursuit Guillaume Attard. Mais ces 500 GWh s’appliquent à l’échelle de l’ensemble de la métropole alors que les 250 GWh se concentrent uniquement sur le secteur le plus urbanisé de Lyon-Villeurbanne ». Dans tous les cas, l’exploitation de ce potentiel géothermique est équivalent à la consommation en chauffage de plusieurs dizaines de milliers de ménages.

Une eau souterraine au-delà de 35 degrés pose problème

Cette étude va permettre de réunir les différents acteurs des filières professionnelles de la géothermie afin de mettre en place des règles de gestion pour exploiter de manière raisonnée cette nappe souterraine. Ce potentiel énergétique sera destiné à chauffer ou à refroidir les bâtiments et les habitations. Actuellement, environ 500 installations de géothermie à basse température sont dénombrées sur le territoire mais la puissance exploitée n’est pas connue.

Outre le potentiel géothermique, l’étude du Cerema devrait servir à mieux maîtriser la température de l’eau souterraine. En effet, lorsqu’elle est trop chaude, la qualité bactériologique peut se détériorer, ce qui la rend impropre à la consommation. « Il n’y a pas aujourd’hui de consensus scientifique pour situer précisément à quelle température le réchauffement devient particulièrement problématique pour la nappe, mais d’un point de vue pratique, on sait qu’une eau souterraine à 35 degrés pose problème », ajoute Guillaume Attard.

Swings : l’expédition de l’Ifremer qui revient de l’océan Austral

Du 11 janvier au 8 mars, près de 50 scientifiques ont scruté l’océan Austral dans le cadre de la campagne Swings sur le Marion Dufresne. « L’océan Austral participe à la régulation du climat puisqu’il absorbe jusqu’à un tiers du carbone atmosphérique, rappelle Hélène Planquette, océanographe du CNRS, co-cheffe de mission. Le processus principal qui permet à cet océan de capter le CO2 atmosphérique est la pompe biologique. »

La mission Swings visait justement à étudier cette pompe biologique, ces microalgues à la surface de l’océan qui séquestrent le carbone via la photosynthèse. « Dans l’océan Austral, les microalgues ont besoin d’éléments nutritifs pour faire la photosynthèse – des nitrates, des silicates, des phosphates – et le problème de l’Océan Austral est qu’il est carencé en ce qu’on appelle les métaux traces, les vitamines de l’océan, et notamment le fer, explique Hélène Planquette. Un des objectifs de Swings était d’aller traquer ces éléments traces, voir comment ils se transforment dans l’océan et surtout d’où ils proviennent. »

Étudier une source hydrothermale et le changement climatique

La mission a déjà fourni de premiers résultats. L’équipage était parti à la recherche d’une source hydrothermale sur la dorsale sud-est indienne. Riches en nutriments et éléments chimiques nécessaires à la pompe biologique, ces formations géologiques sont comparables à des geysers. Pour mieux comprendre ces zones, les chercheurs y scrutent la turbidité de l’eau, le niveau de radium 223 qui y présente des activités élevées et l’oxydation de l’eau. « Nous avons trouvé la présence d’une source hydrothermale et avons pu envoyer nos bathysondes pour aller récupérer de l’eau. Et les mesures à bord de radium 223 nous ont confirmé la présence de cette source », annonce Hélène Planquette. Mais le travail n’est pas fini. « De nombreux échantillons restent à analyser pour étudier la composition de l’eau de mer environnant cette source », précise-t-elle.

L’équipage a aussi pu voir l’impact du changement climatique sur la région.  « On a constaté que l’eau circulant au ras du fond, à plus de 4 000 mètres de profondeur, et qui se forme le long de la côte antarctique, là où la banquise et la glace fondent, se réchauffe, prévient l’océanologue géochimiste Catherine Jeandel, directrice de recherche au CNRS. Il y a plus d’eau douce liée à la fonte de la glace antarctique qu’il y a dix ans. »

Opérée par l’Ifremer, la Flotte océanographique française compte 18 navires et 6 engins sous-marins. La flotte compte parmi les trois plus grandes en Europe, aux côtés de celles de la Grande-Bretagne et de l’Allemagne. Avec la flotte allemande, elle est la seule à sillonner les trois grands océans du globe – Atlantique, Indien et Pacifique – au service d’une communauté nationale de plus de 3 000 scientifiques. Hors crise sanitaire, la flotte permet de réaliser plus de 110 campagnes par an.

Une membrane hybride pour la purification de l’hydrogène

Sur le papier, la séparation par membrane est une solution économique qui permet d’atteindre le degré de pureté 3N (>99,9 %) nécessaire au fonctionnement des piles à combustible. Cette technique hautement sélective, dont la mise en œuvre est apparemment simple, a également un coût énergétique faible. Néanmoins, les techniques de séparation membranaire actuelles sont confrontées à plusieurs challenges comme une perméabilité trop faible à l’hydrogène ou des problèmes de gonflement dû à l’eau, dans le cas des membranes polymères.

Une membrane hybride

La séparation par membrane est un procédé physique qui consiste à faire diffuser l’hydrogène au travers d’une membrane qui peut être en polymère, en métal, en céramique, ou même sous forme liquide.

La solution proposée par l’équipe de chercheurs du Nagoya Institute of Technology est une membrane hybride organique – inorganique constituée d’un film polymère polycarbosilane (PCS), lequel est déposé sur une couche d’oxyde d’aluminium (Al2O3) poreuse.

Dans un communiqué de presse, le professeur Yuji Iwamoto explique : « En utilisant un PCS de haute masse moléculaire avec un point de fusion supérieur à 200°C, nous avons montré qu’une membrane PCS superhydrophobe peut être déposée sur un support multicouche α-Al2O3 mesoporeuse/ γ-Al2O3 macroporeuse tubulaire. »

À gauche : Mécanisme de perméation sélective de l’hydrogène dans la membrane superhydrophobe et son support multicouche. À droite : vue en coupe (Crédit : Yuji Iwamoto from Nagoya Institute of Technology)

L’efficacité de ce nouveau système membranaire a ensuite été testée par séparation photoélectrochimique (PEC), avec les résultats suivants :

  • un caractère superhydrophobe pour la membrane PCS ;
  • une forte sélectivité H2/He et H2/N2 sur la plage 25°C-200°C ;
  • une excellente sélectivité H2/N2 en conditions d’humidité saturée, à 50°C ;
  • une prépondérance du mécanisme de diffusion sous forme de phase adsorbée dans la phase solide.

Les performances de cette membrane sont détaillées dans une étude récente, disponible dans le journal Separation and Purification Technology.

The Shift Project appelle à une nouvelle gouvernance du numérique

« Les progrès technologiques sur l’efficacité énergétique n’ont jamais conduit à compenser l’augmentation des usages, partage The Shift Project dans sa nouvelle étude « Impact environnemental du numérique : Tendances à 5 ans et gouvernance de la 5G ». Le constat est donc indéniable : l’impact du numérique ne fera qu’augmenter si nous ne nous donnons pas les moyens de le piloter ». Les nouveaux résultats confirment les tendances identifiées en 2018. Le numérique représentait 3,5 % des émissions mondiales de gaz à effet de serre en 2019. Cette part pourrait doubler d’ici 2025.

L’impact carbone du numérique s’intensifie

The Shift Project a élaboré quatre scénarios prospectifs de développement à l’horizon 2025. La croissance de l’impact carbone du numérique reste préoccupante : les émissions ont augmenté de +6 % par an entre 2013 et 2019, incompatible avec la trajectoire 2°C. « Ce taux de croissance va être fortement impacté par la façon dont nous allons  décider de nous servir du numérique à partir de 2021 ou 2022, prévient Hugues Ferreboeuf, chef de projet numérique à The Shift Project. Ce taux de croissance peut soit s’accélérer jusqu’à +12 % dans le scénario extrême, mais pas si extrême que ça, ou diminuer si l’on met en place un scénario de sobriété numérique. »

La tendance est similaire si l’on inspecte l’impact du numérique sous le prisme de l’énergie finale ou de la consommation d’électricité. « Si nous continuons sur la même pente, entre 2019 et 2030, nous pourrions avoir un doublement de la consommation d’énergie du numérique, c’est la magie des exponentielles, ajoute l’expert. L’électricité est liée à la phase d’usage des équipements et des services qu’ils permettent. Là aussi, on observe une hausse. »

Considérer les usages mobiles pour maîtriser l’impact du numérique

La multiplication des usages mobiles constitue une tendance jugée comme « insoutenable ». « Avec une augmentation moyenne de 34 % par an sur la période 2013-2019, la consommation électrique associée à nos usages mobiles dans le monde représente aujourd’hui 1,5 fois celle de nos usages fixes », détaille The Shift Project. Ce sont bien ces nouveaux usages qui motivent aujourd’hui le déploiement de la 5G. « Pour sortir de cette impasse, il n’y a qu’une seule solution : la sobriété, affirme Hugues Ferreboeuf. C’est une reprise de contrôle de nos usages en les priorisant et en essayant d’utiliser le moins possible nos ressources. »

Comme l’a montré récemment le Haut Conseil pour le Climat, l’impact carbone de la 5G pourrait ajouter en France entre 2,7 et 6,7 millions de tonnes de CO2 en 2030. La majeure partie proviendrait des émissions importées, le reste de l’augmentation de l’utilisation de l’électricité. L’organisme invitait à agir en amont du déploiement pour respecter les trajectoires climatiques.

La 5G : identifier le « pourquoi » et le « comment » du déploiement

Face à la contestation du déploiement de la 5G en 2020, The Shift Project propose la construction d’une nouvelle gouvernance du numérique, française puis européenne. Elle associerait les pouvoirs publics, les régulateurs, notamment l’Autorité de régulation des communications électroniques, des postes et de la distribution de la presse (Arcep), les opérateurs et les acteurs économiques, ainsi que la société civile.

Au niveau national, il s’agirait de définir les objectifs de décarbonation et d’harmoniser les outils d’évaluation et de suivis quantitatifs. Cette gouvernance se déclinerait au niveau des territoires en donnant aux élus les moyens d’organiser la concertation de la société civile. Ils auraient alors pour mission de déterminer les usages prioritaires et leurs modalités de déploiement.

Un mois dans l’espace #15

Perseverance : le drone Ingenuity bientôt testé

Depuis son atterrissage le 18 février dernier, le rover Perseverance a multiplié les tests : instruments, déplacement sur le sol martien, tirs laser…  les étapes d’étalonnage de chaque système sont nombreuses avant que Perseverance puisse réellement entrer dans une phase d’exploration et d’opérations à la surface de la planète rouge.

Le drone Ingenuity est visible, accroché au rover Perseverance, qui vient de faire tomber au sol la capsule protégeant jusqu’alors Ingenuity. ©Nasa

Dans les semaines qui viennent, c’est un dispositif dont on a peu parlé pour le moment qui risque d’occuper le devant, ou plutôt le dessus de la scène martienne. Ingenuity, c’est son nom, est un drone qui est pour le moment accroché sous le « ventre » de Perseverance. Son premier vol est prévu pour le 8 avril.  Actuellement en transit vers sa zone de décollage, Ingenuity est un démonstrateur destiné à valider l’intérêt de dispositifs aériens pour compléter le travail des rovers au sol.

Avant de décoller, Ingenuity devra valider le bon fonctionnement de trois paramètres de son dispositif :

  • les quatre jambes d’Ingenuity devront fermement être posées sur la surface martienne ;
  • le drone devra être disposé à une distance d’au moins cinq mètres par rapport au rover ;
  • la communication entre le drone et le rover devra être correctement établie.

Alors seulement débutera une période de 31 jours durant laquelle Ingenuity mènera toute une batterie de tests, au sol et en vol d’essai.

Si vous n’êtes pas encore familiarisés avec Perseverance, cet article résume – en vidéo et en deux minutes – les principales caractéristiques du rover martien.

Starship : atterrissage réussi… puis explosion

Les tests menés par SpaceX sur son modèle Starship passionnent les internautes depuis quelques mois. D’explosion en explosion, les fans perçoivent les progrès réalisés par les équipes d’Elon Musk. La cuvée SN10 a permis de constater que la fusée était désormais capable, après une ascension de quelques kilomètres, de redescendre et de se retourner en rallumant ses moteurs, pour revenir se poser sans dommages. Comme vous pouvez le constater sur la vidéo ci-dessous, le test s’est parfaitement déroulé, puisque SN10 est revenu se poser sans dommages. Les images de l’atterrissage permettent d’ailleurs d’observer le fonctionnement des moteurs raptor de la fusée. Les images sont saisissantes :

Mais quelques minutes après l’atterrissage, une violente explosion a détruit la fusée :

Comme lors des essais précédents, c’est un atterrissage trop violent qui aurait causé l’explosion, en endommageant lourdement les jambes de la fusée et sa jupe. Si la fusée n’a pas explosé immédiatement, les dégâts étaient suffisants et SN10 a fini par partir en fumée, peu après s’être immobilisée.

SN11, qui est déjà en préparation, tiendra compte des informations tirées des tests réalisés sur SN10. Les jambes de la fusée devraient être renforcées, et il est possible que SpaceX choisisse de rallumer deux moteurs pour l’atterrissage, afin de réduire la vitesse d’impact de la fusée avant son contact avec le sol.

Thomas Pesquet va commander l’ISS

Le Directeur Général de l’ESA a annoncé il y a quelques jours que l’astronaute français Thomas Pesquet sera lors de sa prochaine mission commandant de l’ISS, lors de la deuxième partie de celle-ci.

Thomas Pesquet

Une première pour un Français. Rappelons qu’à l’occasion du lancement de la mission Alpha à laquelle le Français participe, Thomas Pesquet sera également le premier européen à embarquer sur Crew Dragon, la capsule développée par SpaceX qui emmènera les astronautes de la mission Alpha jusqu’à bord de l’ISS.

La mission Alpha à laquelle participe le Français a une connotation très scientifique, avec un nombre important d’expériences autour des radiations, de la physiologie, du vieillissement du cerveau…

Thomas Pesquet devrait réaliser, pendant les six mois de sa mission, une centaine d’expériences, que vous pouvez découvrir dans le détail à travers cet article.

Par Pierre Thouverez

Image de Une : L’explosion de SN10 ©SpaceX

 

Les marges encore ténues sur le système électrique jusqu’en 2024

Comme cet hiver, le critère de sécurité réglementaire d’approvisionnement prévu par le code de l’énergie (3 heures maximum sur l’année) ne sera pas respecté l’hiver prochain non plus. RTE place ainsi à nouveau l’hiver 2021-2022 en « vigilance particulière », a insisté Xavier Piechaczyk, président du directoire de RTE, en présentant le bilan électrique prévisionnel à l’horizon 2030. Un bilan qui prend en compte, a insisté Thomas Veyrenc, responsable stratégie de RTE, également les bilans prévisionnels des pays voisins et donc des flux d’import-export.

RTE indique cependant que cette situation ne devrait pas perdurer au-delà. Trois périodes distinctes d’ici à l’horizon 2030 sont prises en compte : 2021-2024, 2024-2026 et 2026 à 2030. Sur la première période, RTE préconise de maintenir en service ou de convertir la centrale au charbon de Cordemais (qui alimente la Bretagne). En outre, d’ici à la fin de la seconde période, voire jusqu’à la fin de l’horizon de la Programmation pluriannuelle de l’énergie (PPE), en 2028, RTE estime plus que difficile d’arrêter d’autres réacteurs nucléaires, comme le prévoit sous conditions ladite PPE.

2021-2024, tous les dangers

Après la crise sanitaire, RTE s’attend entre 2021 et 2024, à une remontée de la consommation plutôt lente. Mais les marges resteront faibles, insiste RTE, car côté production, les moyens ne sont pas au rendez-vous. D’une part, les mesures sanitaires ont en effet désoptimisé le planning de maintenance du parc nucléaire. Sa disponibilité va ainsi demeurer moindre que sur les années précédentes et la mise en service du futur EPR de Flamanville n’est pas prévue dans cette période. En outre, les travaux pour prolonger la durée de vie des réacteurs, c’est-à-dire le programme de grand carénage d’EDF, atteindra un pic dans la période considérée. D’autre part, l’arrivée des énergies renouvelables dans le système électrique tarde trop. Les trajectoires actuelles restent sous celle de la PPE tant pour l’éolien que pour le solaire. Le président de RTE juge qu’il faut accélérer pour être à l’heure sur l’offshore éolien, mais aussi sur le photovoltaïque qui est très en deçà de sa trajectoire. Or, les ENR contribuent à la sécurité d’approvisionnement dorénavant, indique le président de RTE. C’est pourquoi, le GRT, même s’il juge que l’adaptation du planning de maintenance du parc nucléaire constitue un bon point de départ, estime qu’il faudrait cependant, sur la période, maintenir ou convertir à la biomasse la centrale au charbon de Cordemais, en Bretagne. C’est, indique Thomas Veyrenc, le responsable stratégie de RTE, une conjoncture locale qui conduit à ce constat. En outre, il juge qu’il faut accélérer la mise en place de solutions de flexibilité, telles que l’effacement.

2024-2026, toujours pas confortable

Entre 2024 et 2026, ce sera une « période de transition », indique Xavier Piechaczyk, « avec une consommation d’électricité qui devrait retrouver ses niveaux d’avant crise et un début de transferts d’usages vers l’électricité ». Le parc nucléaire devrait retrouver également une disponibilité conforme à l’habitude, et l’entrée en service de l’APR de Flamanville donnera aussi de la marge. Ainsi, même si le développement des ENR risque de rester sous la trajectoire prévue par la PPE, des marges de manœuvre devraient être gagnées et le système électrique français « retrouve(ra) des marges acceptables, sans toutefois être confortables ». Malgré tout, RTE estime que « les conditions prévues par la PPE pour la fermeture anticipée de réacteurs nucléaires pourront très difficilement être remplies ». La PPE prévoit en effet la possibilité – à certaines conditions que le GRT estime ne pas être remplies – d’un arrêt anticipé de deux tranches d’ici 2028 (échéance de la PPE).

2026-2030, l’éclaircie

L’horizon s’éclaircit néanmoins sur la période entre 2026 et 2030, même si la consommation d’électricité pourrait atteindre 500 TWh/an à l’horizon 2030, soit une hausse de 5 % par rapport à 2020. L’entrée à plein régime de Flamanville 3, les premiers parcs offshore éolien, et les objectifs globaux de la PPE en termes d’ENR proches d’être atteints, devraient redonner une sécurité d’approvisionnement renforcée et des marges « confortables », indique le bilan prévisionnel de RTE.

Autre constat positif : « un décrochage entre la hausse de la consommation et une baisse du pic de consommation est attendu, estimé à 3 GW environ », indique RTE. Une décorrélation qui est plus particulièrement liée au développement de nouvelles flexibilités (le recours aux batteries des véhicules électriques et l’effacement, indique Thomas Veyrenc) et aux nouveaux usages, notamment le recours à l’hydrogène, dont les projets montrent qu’il s’agit de les faire fonctionner en dehors des périodes de pointe, quand les renouvelables sont abondantes à délivrer de l’électricité.

Un bilan 2020 morose

RTE a publié début mars le bilan électrique français pour l’année passée. En 2020, la crise sanitaire de la Covid-19 a entraîné des conséquences importantes sur le système électrique français. La consommation d’électricité corrigée des variations météorologiques a chuté de 3,5 %, à 460 TWh, avec notamment une chute de 10 % de la demande industrielle.

Une moindre disponibilité du parc nucléaire a entraîné une baisse de la production d’électricité de 7 % par rapport à 2019. La part des énergies renouvelables est en hausse (+17 % pour l’éolien, +8 % pour l’hydraulique et +2,3 % pour le solaire). Avec une production de 39,7 TWh, soit 7,9 % de la production française, la production d’origine éolienne dépasse celle des centrales à gaz et devient la troisième source de production d’électricité en France. La production thermique à combustible fossile a diminué de 10,6 % avec une production à partir de charbon au plus bas depuis 1950.

Malgré un solde des échanges commerciaux en recul par rapport à 2019 (-7 % d’export), la France reste exportatrice sur l’ensemble de ses frontières et demeure le pays le plus exportateur d’électricité en Europe. Le solde positif des échanges s’établit à 43,2 TWh.

Une spécificité de la production d’électricité en France est son caractère très largement bas-carbone : en 2020, plus de 93 % de l’électricité produite sur le territoire n’était pas émettrice de CO2. Les émissions de CO2 du secteur électrique français diminuent de près de 9 % par rapport à 2019, et représentent ainsi seulement 5 % des émissions totales de CO2 en France.

Des peintures thermoélectriques pour convertir la chaleur en électricité

THERMOPRINT signifie THERMOelectric Paints for exterioR and Interior eNergy Transformation. Ce projet a reçu le soutien de l’Union européenne dans le cadre du programme Horizon 2020 et a été cofinancé par le programme Eurostars-2.

Natacha Duée (Crédit : Thermoprint)

Natacha Duée est chef de projets R&D chez Rescoll. La SRC RESCOLL est une société française de recherche privée, spécialisée dans l’étude des applications industrielles innovantes des matériaux polymères. Dans son domaine de compétence, RESCOLL réalise plusieurs types d’activités, dont des études d’innovation multi-partenaires comme le projet THERMOPRINT.

Techniques de l’Ingénieur : Le but du projet THERMOPRINT est de développer des peintures thermoélectriques. Comment cela fonctionne-t-il ?

Natacha Duée : L’effet thermoélectrique, ou effet Seebeck, repose sur l’apparition d’une différence de potentiel à la jonction de deux matériaux qui sont soumis à un écart de température. La valeur de cette tension qui apparaît par effet Seebeck varie fortement suivant les matériaux employés.

Deux matériaux en particulier sont reconnus pour leurs propriétés thermoélectriques : les alliages de silicium-germanium et le tellurure de bismuth (Bi2Te3). Les peintures que nous sommes en train de développer sont principalement composées d’un liant chargé avec une poudre « active », élaborée à partir de ces matériaux.

Concept de bardeau de toit thermoélectrique (crédit : Thermoprint)

Quels sont les bénéfices attendus pour ces modules thermoélectriques d’un nouveau genre ?

Par nature, les générateurs thermoélectriques sont extrêmement fiables, ne nécessitent aucune maintenance et fonctionnent sur une large gamme de température et d’humidité. Parce qu’ils sont basés sur une peinture, les modules que nous sommes en train de développer dans le projet THERMOPRINT seront en plus à géométrie adaptable et auront un encombrement réduit tout en étant légers.

Cette particularité vise à faciliter leur installation, que ce soit dans des lieux traditionnellement exploités par des panneaux solaires comme les toitures, ou les surfaces inexploitables actuellement pour des raisons d’encombrement et de géométrie (murs, tuyaux, surfaces complexes, etc.).

Cette technologie est-elle applicable à grande échelle, à un coût abordable ?

Oui, c’est tout à fait applicable à grande échelle et nous espérons être capables de commercialiser ces modules à des coûts inférieurs à ceux des panneaux solaires. Il y a beaucoup d’applications industrielles envisageables, car toutes les surfaces où de la chaleur est perdue sont potentiellement exploitables.

Nous en sommes cependant encore au début du projet et nous espérons pouvoir en dire plus lorsque nous aurons avancé d’un point de vue technique. Nous travaillons actuellement sur deux prototypes : nous développons d’une part des panneaux intérieurs qui se prêteront à de multiples applications, et d’autre part des tuiles pour la conversion de la chaleur à l’extérieur des bâtiments.


Le consortium THERMOPRINT, en quelques mots

THERMOPRINT est un consortium qui réunit trois entités européennes autour d’un projet commun, chacune ayant un rôle spécifique :

  • La société allemande PANCO GmbH, spécialisée dans le développement de techniques de mesure avancées et experte en thermoélectricité, développera et produira les dispositifs de contrôle et la partie électronique du système de peinture thermoélectrique.
  • La société espagnole CIDETE INGENIEROS SL, acteur expérimenté en thermoélectricité, est en charge de la préparation des poudres thermoélectriques N et P.
  • Enfin, le rôle de la SRC RESCOLL concerne la formulation des peintures thermoélectriques et la coordination du projet.