Polar Pod : une expédition inédite au coeur du plus grand puits de carbone au monde

Le médecin et explorateur de 73 ans Jean-Louis Étienne se lance un nouveau défi d’envergure, plus de trente ans après sa traversée en solitaire du Pôle Nord. Cette fois-ci, cela se passera dans l’hémisphère Sud. Baptisée Polar Pod, tout comme le navire qui servira à la traversée, cette expédition au cœur de l’océan Austral débutera en 2023. Cette plateforme océanographique dérivante (ou « pod ») hors du commun sera le siège d’observations scientifiques diverses. Au cours d’une traversée de 22 000 kilomètres au plein cœur des cinquantièmes hurlants, ce navire, qui a la particularité d’être vertical et d’être plus grand que la statue de la Liberté, traversera tour à tour l’océan Indien, l’Atlantique et le Pacifique.

Lors d’un entretien accordé à Ouest France, Jean-Louis Étienne a confié que ce projet fait suite à une attente de la communauté scientifique : « Toutes les publications sur l’océan Austral se terminent par la même phrase : on a besoin de mesures in situ de longue durée ». En France comme à l’étranger, l’intérêt porté au projet ne se dément pas. Le CNRS, le Cnes, l’École polytechnique de Lausanne, ou encore la Nasa font partie des institutions intéressées par ces recherches. Un enthousiasme partagé par la chimiste de l’atmosphère au Massachusetts Institute of Technology (MIT) et prix Nobel de la Paix 2007, Susan Solomon. « Pour nous, c’est comme si vous alliez sur la Lune », a-t-elle déclaré, rapporte l’Express.

L’océan Austral, plus grand puits de CO2 au monde

Au-delà de son intérêt scientifique indéniable, Jean-Louis Étienne souhaite donner à cette traversée de l’océan Austral une dimension militante. L’explorateur espère que les observations de Polar Pod contribueront à éveiller les consciences face aux effets du réchauffement climatique, notamment au sujet de la disparition des glaces pluriannuelles, qui ne fondent pas d’une année sur l’autre. De plus, le médecin rappelle qu’avec ses eaux froides et sa vaste étendue, l’océan Austral est le plus grand puits de carbone de la planète. Le dioxyde de carbone se dissout en priorité dans ses eaux froides. Donc, observer la concentration du CO2 ainsi que la dilatation de ces eaux qui se réchauffent permettrait aux scientifiques d’encore mieux appréhender les mécanismes du réchauffement climatique. « On va mesurer la capacité de cet océan à absorber le CO2 aux quatre saisons », précise Jean-Louis Étienne.

Lors de la dernière édition du Change Now Summit qui a eu lieu à Paris du 30 janvier au 1er février, l’explorateur a voulu faire une mise au point quant à ce que représente le réchauffement du climat d’un degré. En prenant un degré en un siècle, « la Terre a une légère fièvre », à l’origine d’un « dérèglement sérieux », explique-t-il. Pour mieux comprendre ce que cela implique et représente, Jean-Louis Étienne a établi un parallèle avec la fièvre humaine. « Lorsque notre température corporelle passe de 37,5 à 38,5 degrés, cela cause des désagréments et nous nous sentons fébriles. Pourtant, la variation n’est que d’un degré. Pour la planète, c’est la même chose », avait-il méthodiquement expliqué. Pour lui, « il est fondamental de limiter les émissions de gaz carbonique », et de le faire rapidement car, selon lui, il faudra a minima trente ans pour commencer à constater une amélioration.

Polar Pod, un navire vertical unique conçu à Lorient

Et dans le but de mener cette mission à bien, Jean-Louis Étienne a fait appel au bureau d’études Ship ST pour concevoir ce navire unique. Difficulté notoire : concevoir une structure qui puisse résister aux conditions climatiques tempétueuses de l’océan Austral. Ainsi, l’ingénieur Laurent Mermier, directeur général de Ship ST, a suggéré la confection d’un navire qui prendrait la forme d’un grand tube vertical, conçu sur le même principe qu’un flotteur. À la surface, un treillis permettra aux vagues de ne pas buter sur le navire vertical, pour favoriser sa stabilité. Le vaisseau est conçu pour assurer la sécurité et le confort d’une équipe de 8 personnes. L’équipage sera composé de trois officiers de marine marchande, quatre ingénieurs scientifiques, et Jean-Louis Étienne lui-même. Les relèves d’équipage auront lieu tous les deux mois.

D’une taille de cent mètres et pesant 1 000 tonnes, le Polar Pod sera immergé à 80 mètres sous le niveau de la mer. L’intérêt d’aller à 80 mètres sous la surface est de retrouver des eaux calmes. Cette stabilité retrouvée permet de faciliter les analyses. À cette profondeur seront immergés des micros appelés hydrophones pour écouter la faune. L’autre grand objectif de l’expédition sera d’établir un inventaire des espèces qui composent la faune aquatique australe.

Calcul quantique : les premières applications à court terme

Les performances de l’informatique quantique donnent le tournis. Grâce à l’ordinateur quantique D-Wave 2X, la Nasa et Google seraient parvenus à atteindre des vitesses de calcul 100 millions de fois plus rapides que les ordinateurs classiques.

Mais cette puissance de calcul ne signifie pas pour autant la mort de l’informatique «classique», ni même des supercalculateurs. Le calculateur quantique doit être vu comme un coprocesseur qui accélérera certains calculs bien spécifiques.

Dans des cas précis, « le gain de temps sera exponentiel (passage de plusieurs milliers d’années à quelques heures), rendant accessibles certains calculs irréalisables en pratique à ce jour », peut-on lire dans le rapport « Quantique : le virage technologique que la France ne ratera pas », remis au gouvernement début janvier dernier(1).

Des gains d’efficacité substantiels

Mais au-delà de ces prouesses, quelles pourraient être les premières applications ? L’un des premiers secteurs qui devraient en profiter est la chimie. Même avec les plus puissants ordinateurs actuels, l’étude des molécules produit d’importantes approximations. C’est encore plus vrai dès que la taille du système étudié augmente.

Des calculs quantiques pourraient entraîner un changement de paradigme dans la chimie moléculaire et les domaines connexes tels que les processus de fixation de l’azote, la conception de médicaments, l’élucidation des mécanismes catalytiques des enzymes, etc.

De nouveaux procédés chimiques présenteraient des gains d’efficacité substantiels. Par exemple, « l’élaboration d’un nouveau catalyseur pour la fabrication d’engrais pourrait potentiellement permettre de réduire de 5% la consommation énergétique mondiale », découvre-t-on dans le rapport « Quantique : le virage technologique que la France ne ratera pas ».

Mais des défis majeurs restent à relever. C’est le cas du développement d’algorithmes quantiques pour la résolution de problèmes chimiques considérés comme insolubles pour les ordinateurs classiques.

Comprendre les mutations des protéines

Autre domaine pour lequel l’informatique quantique présente un grand intérêt : la biologie. Une étude menée en Californie (2) a démontré comment un processeur quantique pouvait être utilisé comme outil de prédiction pour évaluer un processus fondamental en biologie : la liaison des protéines régulatrices des gènes au génome.

C’est l’un des premiers exemples dans lequel un calculateur quantique (en l’occurrence le D-Wave 2X) s’est appuyé sur des données biologiques réelles. Une connaissance plus précise de la transcription de l’ADN et de la formation des protéines est essentielle pour que les scientifiques parviennent à mieux comprendre comment les mutations des protéines conduisent à la maladie.

Le calcul quantique pourrait être utilisé pour modéliser les réactions chimiques à l’échelle moléculaire afin de prédire avec plus de précision l’interaction protéines-médicaments. Cette meilleure compréhension et détection mèneraient à de nouvelles méthodologies pharmaceutiques qui accéléreraient la mise sur le marché de médicaments personnalisés.

Logiquement, le troisième domaine qui pourrait tirer profit des calculateurs quantiques est la médecine. Les chercheurs passent en moyenne 12 ans à comparer les interactions et les effets de différents médicaments sur une série de maladies afin de déterminer le meilleur médicament. Ce processus pourrait être considérablement raccourci grâce aux ordinateurs quantiques.

Différents partenariats ont été signés entre des laboratoires pharmaceutiques et des éditeurs de logiciels quantiques. Ainsi en juin dernier, Merck annonçait un partenariat de trois ans avec la start-up HQS Quantum Simulations basée à Karlsruhe en Allemagne pour le développement d’algorithmes quantiques de simulation chimique.

Des matériaux disruptifs

Enfin, le calcul quantique pourrait être aussi utilisé pour découvrir plus rapidement de nouveaux matériaux disruptifs dans plusieurs secteurs économiques. Il pourrait permettre également d’accélérer la résolution de problèmes d’optimisation complexes, notamment pour la distribution d’énergie, contrôle et reroutage du trafic, et la planification des tâches.

Même si la recherche fondamentale dans le domaine de l’informatique quantique a connu un essor important cette dernière décennie, il reste encore d’importants défis à relever (problèmes de décohérence et de complexité, corrections des erreurs…).

 

  • (1) Rapport remis par Paula Forteza, Députée des Français d’Amérique latine et des Caraïbes, Jean-Paul Hertaman, Président d’Honneur du GIFAS, Président-directeur général, du Groupe SAFRAN, et Iordanis Kerenidis, Directeur de recherche au CNRS.
  • (2) Étude de l’USC Center for Quantum Information Science & Technology de la Viterbi School of Engineering et de l’USC Dana and David Dornsife College of Arts.

Deux startups innovent pour une agriculture durable et sans produit phytosanitaire

Selon un rapport publié par l’ONU en juin 2019, la population mondiale pourrait atteindre 9,7 milliards d’individus en 2050. D’ici une trentaine d’années, le défi majeur pour le monde agricole sera de pouvoir nourrir deux milliards de personnes de plus qu’aujourd’hui. Or, l’Organisation des Nations Unies pour l’alimentation et l’agriculture (FAO) indique que « ces dernières années, les taux de croissance de la production agricole et du rendement des cultures, au niveau mondial, ont baissé ».

Dans ce contexte, les agriculteurs pourraient avoir besoin d’utiliser davantage de produits phytosanitaires pour ne pas voir les rendements de leurs exploitations baisser. Mais pour certaines startup du secteur, une telle décision ne pourrait être compatible avec le développement d’une agriculture durable. Ainsi, lors de la dernière édition du Change Now Summit, deux d’entre elles, Solubio et Bioma, ont présenté leurs solutions pour concilier la nécessité de nourrir une population grandissante et limiter le recours aux produits phytosanitaires.

Favoriser la « microbiologie autochtone »

« Aujourd’hui, les multinationales défendent leurs intérêts en promouvant la consommation de produits phytosanitaires. Mais nous avons les technologies pour faire autrement, et c’est aux consommateurs de faire en sorte qu’elles soient appliquées », déclare Paolo Bassanini, PDG de Bioma. Cette société suisse, soutenue par la Solar Impulse Foundation, met au point des produits garantis sans OGM et sans pesticide chimique de synthèse pour favoriser « la microbiologie autochtone », et destinés à intensifier les rendements. Ces substituts aux pesticides de synthèse doivent être épandus sur les terres cultivées ou dans les exploitations agricoles, selon le terrain à traiter. Bioma propose un produit spécifique pour chaque type de culture, et même des solutions pour réduire le recours aux sulfites dans les vignes.

Dans les élevages, le principal atout des produits de Bioma est de réduire les émissions d’ammoniac, et ce jusqu’à 95%. Paolo Bassanini atteste que cela a un effet direct sur l’état de santé des animaux dans les élevages et sur la qualité des produits finaux. Selon ses propres chiffres, la startup affirme que ses solutions permettent une augmentation de 7% des productions de lait et de 10% du rapport viande/gras dans les exploitations bovines. Paolo Bassanini indique que dans les exploitations animalières où sont utilisés ces produits, « les animaux vont mieux et n’ont plus besoin d’antibiotiques ». Au Mexique, les élevages de porcs clients de Bioma ont enregistré un recul de la mortalité des porcelets de 40%.

Des biopesticides créés directement sur les exploitations

Bioma prévoit de se développer en Amérique du sud, car selon son PDG, « c’est le continent qui nourrit le monde ». Et c’est de cette région du monde qu’est originaire Solubio. Née au Brésil, cette startup a développé une technologie permettant aux agriculteurs de créer eux-mêmes les produits dont ils ont spécifiquement besoin sur leurs exploitations. Ainsi, les exploitants peuvent réaliser leurs propres biopesticides et autres fongicides bio sans produit chimique de synthèse. « Grâce à nous, le volume de produits phytosanitaires utilisés au Brésil a diminué en 2019 », affirme Mauricio Schneider, directeur des stratégies et des opérations chez Solubio. De plus, cette solution permettrait de réduire de 40% le budget destiné au traitement des cultures.

L’objectif de Solubio est de réduire l’usage des pesticides de synthèse qui renforcent la résistance de certaines bactéries, pouvant ainsi causer des problèmes sanitaires. Aujourd’hui, Solubio équipe des exploitations brésiliennes de plus de 1 000 hectares. Pour Mauricio Schneider, les agriculteurs seraient prêts à changer de modèle s’ils sont correctement accompagnés. « Il ne suffit pas de dire ‘on arrête les pesticides’ du jour au lendemain. Le challenge, c’est d’implémenter les technologies sur le terrain en veillant à bien accompagner les agriculteurs ». Prochainement, Solubio s’attaquera au marché paraguayen, puis à l’Europe.

Energy Observer : l’hydrogène maritime à l’assaut du monde

Energy Observer a déjà parcouru plus de 18 000 nautiques soit environ 33 000 km depuis 2017 grâce aux énergies renouvelables. Il a fait escale dans 25 pays, navigué le long des côtes françaises et dans tout le bassin méditerranéen. En 2019, il a vogué en Europe du Nord jusqu’en Arctique. Sa nouvelle odyssée devrait débuter le 17 février afin de parcourir le monde durant 4 ans jusqu’à fin 2023. Ces nouvelles navigations seront beaucoup plus intenses et longues, avec déjà trois traversées océaniques en 2020. Direction le Maroc pour commencer, puis les Canaries, le Cap-Vert, les Antilles, Panama, Hawaï et enfin Tokyo, du 24 juillet au 16 août, pendant les Jeux Olympiques. « En une seule année, il parcourra l’équivalent de ce qu’il a parcouru depuis 3 ans », fait savoir l’équipage.

L’équipe parie sur l’amélioration continue des différents systèmes combinant trois sources d’énergies renouvelables (solaire, éolien, hydrolien) et deux formes de stockage (batteries et hydrogène). Le système de contrôle commandes, qui pilote l’ensemble des systèmes entre eux, est aussi en perpétuelle évolution logicielle. « Sortir des systèmes de leurs laboratoires feutrés et normés, les démonter, les modifier pour anticiper, puis les emmener dans du très chaud, du très froid, du trempé et du hautement corrosif pour voir par où ils vont commencer à craquer », voici le défi, explique l’équipe du projet. Cette nouvelle odyssée sert de banc d’essais incomparable pour l’ensemble des technologies embarquées.

Energy Observer Productions – Antoine

Des énergies renouvelables de plus en plus fiables

Toute la chaîne de production d’hydrogène, des dessalinisateurs développés par la société française SLCE jusqu’à la pile à combustible originale développée par le CEA-Liten, est en amélioration constante. Les ingénieurs optimisent ainsi l’électrolyseur de Proton Onsite, le compresseur à 350 bars de NovaSwiss et le stockage à 350 bars dans les bouteilles de Luxfer.

Pour cette nouvelle expédition, une pile à combustible de grande série supplémentaire, développée par Toyota, a été installée afin d’évaluer son fonctionnement en milieu salin et humide. « C’est un produit industriel, destiné à être produit en très grande quantité et donc à un prix concurrentiel, explique Louis-Noël Viviès, directeur général d’Energy Observer. Nous avons développé avec Toyota un système complet avec des périphériques adaptés au milieu marin (Blower, onduleur), le tout dans un bloc compact et léger, mais maintenant il faut qu’il tienne quelques dizaines de milliers de milles marins ! »

Des ailes verticales automatisées baptisées « OceanWings » et développées par VPLP design et CNIM sont testées à bord depuis 2018. Elles permettent d’économiser jusqu’à 44% d’énergie sur un parcours type, d’accélérer la vitesse du navire, d’augmenter la production d’hydrogène pendant les navigations. Une nouvelle version optimisée et fiabilisée est remontée début 2020, afin d’augmenter la production d’hydrogène et la vitesse de compression.

En 2020, Energy Observer embarque davantage de panneaux solaires. La surface a été à nouveau augmentée de 36,8 m², pour une puissance supplémentaire de 5,6 kWc et une surface totale de 202 m². La puissance maximum s’élève désormais à 34 kWc, le double depuis 2017, avec des panneaux de Solbian.

Des hélices innovantes pour une meilleure hydrogénération

Des hélices prototypes dont l’angle des pales est adaptable seront testées. Leur promesse est d’adapter en permanence l’angle des pales des hélices de façon optimale. L’objectif est d’améliorer la vitesse lorsque le bateau est propulsé par ses ailes et de disposer de plus de couple lorsque le bateau franchit une vague, ou de plus d’allonge lorsqu’il est poussé par les vagues.

Ces hélices innovantes peuvent également se retourner et optimiser l’hydrogénération, c’est-à-dire la production d’électricité au moyen d’une hélice grâce au déplacement du navire. Le système testé sur Energy Observer permet de retourner complètement les pales, qui deviennent donc aussi efficaces dans un sens comme dans l’autre. « Il faut trouver le meilleur compromis de gestion des hélices à pas variable en hydrogénération, pour justement pouvoir électrolyser en route, détaille Louis-Noël Viviès. Si vous cherchez à produire beaucoup d’électricité, vous freinez votre arbre d’hélice, donc créez de la traînée, donc ralentissez et baissez le rendement des ailes. »

Sur l’ensemble de l’année 2019, le bateau a produit environ 12 000 kWh d’électricité. Les OceanWings auraient permis d’économiser 9000 kWh. 63% de l’électricité a été produite par le photovoltaïque, 34% par la pile à combustible et 3% par l’hydrogénération. 305 kg d’hydrogène ont été produits à bord. Côté consommation, l’électricité a servi à 54% à la propulsion électrique, 26% à la vie à bord, 11% au contrôle des commandes et 9% aux servitudes.

Les défauts dans les batteries Li-Ion pourraient-ils améliorer leurs performances ?

Ajouter des défauts dans les batteries Li-Ion pourrait améliorer leurs performances. Cela dit, grâce à des simulations numériques, des chercheurs ont également montré qu’un trop grand nombre de ces défauts pouvait fragiliser les batteries et réduire leur durée de vie. Un équilibre reste donc à trouver.

Des défauts dans les batteries

Parue fin 2019 dans npj Computational Materials, une première étude réalisée à l’université de Rice (Etats-Unis) a démontré qu’en ajoutant volontairement des défauts dans la microstructure des particules constituant la cathode, on facilitait la circulation du lithium.

Ces défauts cristallographiques, connus sous le nom “d’antisites” se forment lorsque des atomes sont placés en mauvaise position sur un réseau cristallin. Dans le cas de ces travaux, des atomes de fer viennent ainsi perturber la structure en LiFePO4 en prenant la place du lithium, ce qui était jusqu’ici considéré comme défavorable pour la performance des batteries.

Les défauts : bonne ou mauvaise chose ?

D’après l’étude de 2019, les antisites seraient donc une bonne chose, car ils accélèrent la cinétique d’intercalation du lithium. Cependant, les travaux publiés en janvier 2020 dans le Journal of Materials Chemistry A et réalisés par la même équipe viennent nuancer leurs propos. L’étude met en évidence un fait : un trop grand nombre d’antisites au sein des particules constituant la cathode peut générer trop de contraintes et provoquer la détérioration de la batterie.

Pour démontrer cela, l’équipe de Ming Tang a utilisé une méthode de simulation numérique de l’évolution de la microstructure (phase-field simulation) du LiFePO4. Elle a ensuite corrélé les résultats obtenus avec ceux issus d’une étude expérimentale concernant la microscopie par rayons X du LiFePO4 (Ohmer et al. Nature Communications 6, 6045 (2015)). Le couplage de ces résultats a ainsi permis d’obtenir la première illustration du phénomène “d’instabilité par contraintes induites” (Stress-induced instability) de l’intercalation du lithium.

La maîtrise des défauts est la clé

Comme souvent, c’est donc une affaire de maîtrise et de compromis. Les travaux conduits à l’université de Rice indiquent qu’introduire volontairement des antisites au sein d’une cathode est bénéfique jusqu’à un certain point.

La difficulté sera maintenant de trouver le bon « dosage », ce qui va nécessiter de nombreux essais expérimentaux qui pourront s’appuyer sur ces travaux de simulation.

Source

D’après les travaux de Ming Tang et Kaiqi Yang de l’Université de Rice.

L’autoconsommation solaire ne décolle pas en France

Selon le Baromètre des énergies renouvelables électriques en France d’Observ’ER, l’autoconsommation s’installe bien dans le paysage énergétique français. Plus de 85 % des installations faites en 2018 et 2019 sur le marché résidentiel sont en autoconsommation avec ou non revente de l’électricité en surplus. Toutefois, les volumes totaux de puissance annuels ne progressent pas.

« Il y a eu un effet de substitution entre les opérations faites en revente totale de l’électricité produite sur le segment de plus de 3 kilowatts [kW] jusqu’à 9 kW pour des installations en autoconsommation qui se font majoritairement sur la tranche de moins de 3 kW », observe le Baromètre. Désormais, les Français préfèrent majoritairement autoconsommer au moins une partie de leur production photovoltaïque plutôt que de la revendre intégralement à EDF. Pour autant, cela n’a pas permis d’augmenter les volumes d’installation.

Autoconsommer, l’assurance d’un prix connu

Pourquoi autoconsommer ? « La première motivation n’est pas la rentabilité économique mais le fait de produire son électricité verte qui va être autoconsommée et valoriser le surplus », détaille Richard Loyen, délégué général d’Enerplan, le syndicat de l’énergie solaire renouvelable. Le retour sur investissement varie aujourd’hui entre 10 et 15 ans en fonction de l’ensoleillement, au prix actuel de l’électricité. La rentabilité économique réelle dépendra demain fortement du pourcentage de l’inflation du prix de l’électricité sur les 20 prochaines années. « Aujourd’hui, l’installation de panneaux solaires en autoconsommation offre une assurance contre l’inflation du prix de l’électricité », prévient l’expert.

La France compte un total de 52 000 installations solaires en autoconsommation pour une puissance de 194 mégawatts (MW) dont 158 MW avec injection de surplus. Les trois quarts de cette puissance proviennent de sites ayant une puissance égale ou inférieure à 6 kW, donc relatifs au segment du résidentiel. Toutefois, l’installation de nouveaux panneaux sur le marché résidentiel individuel plafonne entre 80 et 100 mégawatts (MW) chaque année. « Ce rythme reste poussif au regard du potentiel du pays et des tendances observées dans d’autres pays voisins, confirme le rapport. En Espagne, 236 MW ont été installés en 2018, et le pays en attend 400 MW en 2019. »

Des volumes supplémentaires pour l’autoconsommation

Plusieurs facteurs permettent d’expliquer ce retard. Ainsi, Enerplan met en avant les complexités administratives et réglementaires pour les particuliers. Les particuliers peuvent mettre jusqu’à 7 mois pour obtenir le raccordement d’un panneau en autoconsommation avec vente de surplus. En plus, la TVA est de 10 % sur les puissances inférieures à 3 kW mais de 20 % sur celles au-dessus, ce qui favorise les installations de petite puissance. Les professionnels évoquent aussi des aides peu lisibles, des abattements fiscaux différenciés en fonction de la quantité de courant revendu, ainsi que l’impact négatif sur l’image de la filière de l’action des éco-délinquants.

Des freins à lever sur l’autoconsommation collective

La France est particulièrement en retard sur l’autoconsommation collective. En septembre 2019, le secteur ne comptait que 16 sites en service, 2 en démarrage et une file d’une centaine de projets en préparation. L’une des principales barrières avancées par Enerplan est une fiscalité encore trop dissuasive.

« Pour les opérations de moins de 30 kW, la fiscalité et le tarif d’utilisation des réseaux d’électricité (Turpe) appliqués engendreraient des temps de retour sur investissement trop longs, autour de vingt-cinq ans », calculent les auteurs du rapport. Enerplan demande donc une réforme du Turpe, une exonération de la taxe intérieure sur la consommation finale d’électricité (TIFCE) et une multiplication de primes à l’investissement.

Avec son robot, Robocath déporte l’acte chirurgical

La société française Robocath a mis au point une solution d’assistance robotique dédiée au traitement des maladies cardiovasculaires, qui vise à augmenter le geste réalisé par le professionnel. Baptisé R-One, l’assistant robotique permet de sécuriser et d’optimiser l’angioplastie coronarienne.

Fondée en 2009 par le docteur Philippe Bencteux, la société basée à Rouen a réalisé en septembre dernier ses deux premières interventions. Toutes deux ont été effectuées au CHU de Rouen et à la clinique Pasteur de Toulouse.

Une intervention précise

L’angioplastie coronarienne est une procédure médicale qui consiste à revasculariser le muscle cardiaque grâce à l’implantation d’un ou plusieurs stents dans les artères qui l’irriguent. Pour ce faire, une sonde est introduite par ponction au niveau du poignet ou de l’aine avant de remonter les artères et atteindre la lésion pour la pose du stent.

Peu invasive, cette intervention présente des bénéfices pour le patient, comme la diminution de la douleur, la réduction du temps d’hospitalisation ou encore la baisse des séquelles pariétales (cicatrices) par rapport aux interventions plus invasives. Cependant, elle induit des risques pour le personnel soignant : pour visualiser les lésions, l’utilisation d’un scanner de radiologie – qui émet des rayons X responsables de troubles et pathologies – est nécessaire. L’exposition à ces rayons requiert un équipement particulier, composé notamment d’un tablier plombé qui peut à terme causer des troubles musculosquelettiques aux cardiologues.

Grâce au robot R-One, les médecins peuvent manipuler à distance leurs instruments depuis une station de contrôle située à proximité de la table d’intervention. L’assistance robotique réduit le stress et la fatigue des opérateurs grâce à une position assise plus ergonomique, tout en les protégeant des radiations. La station de contrôle comprend un écran mobile de protection des rayons X et une unité de commande composée de joysticks et de moniteurs haute-définition. Le fil guide et le cathéter sont tous les deux introduits dans le robot et pénètrent dans le système vasculaire grâce à la télémanipulation. Les joysticks permettent de contrôler et de sécuriser la progression des instruments dans le système vasculaire jusqu’à la lésion à traiter.

 

Le robot R-One est dirigé grâce à deux joysticks / Robocath

Le robot s’appuie sur deux technologies : R-Grasp et R-Lock. La première, anthropomorphique, permet de reproduire les mouvements de la main (rotation et translation indépendante ou simultanée). Le joystick de droite permet à lui seul de faire naviguer le guide. Celui de gauche entraîne le cathéter stent/ballon qui a été préalablement positionné sur le guide. Ainsi, elle permet une précision accrue grâce à une avance millimétrique. La deuxième permet le verrouillage du guide dans l’unité robotique afin d’assurer sa parfaite stabilité pendant l’intervention et ne pas perdre l’accès à la lésion. Cette technologie prévient donc les contraintes de la méthode manuelle et élime les tremblements de main par exemple.

Des opérations à distance

A terme, Robocath ambitionne de développer de nouvelles solutions pour la prise en charge des urgences vasculaires à distance (AVC). « Nous développerons les interventions à distance pour qu’un patient ait la possibilité d’être opéré le plus rapidement possible, précise Morgane Le Mellay, responsable marketing et communication chez Robocath. Nous imaginons un robot dans les petits centres, avec des spécialistes dans les plus grands centres qui effectueront l’opération à distance. Nos robots sont une partie de la réponse aux déserts médicaux. »

R-One est actuellement dans deux centres en Europe. Une zone géographique visée grâce à l’obtention du marquage CE en février 2019. « Nous avons débuté une étude clinique qui porte sur six centres européens : Luxembourg, Belgique, Pays-Bas et trois en France, ajoute la responsable. Nous sommes les seuls à développer ce type de robot en Europe pour cette intervention ». L’entreprise n’a qu’un seul concurrent américain. Une dizaine de robots seraient également en cours de construction pour équiper des centres européens.

Crédit Photo Une : Robocath

Air France et KLM investissent dans la réduction de l’empreinte carbone de l’aviation

Sera-t-il bientôt possible pour un usager de concilier sa volonté de réduire son empreinte carbone et son envie de prendre l’avion ? C’est le défi que veulent relever plusieurs entreprises du secteur aéronautique. Aujourd’hui, à cause du « flygskam », qui désigne en suédois la honte de prendre l’avion, de nombreux usagers renoncent à ce moyen de locomotion au nom de leur empreinte carbone. Selon l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe), un vol Paris Orly-Nice génère 86 kilos de CO2 par passager, contre 2,1 kilos pour le même trajet effectué en train.

Pour pallier ce phénomène, certaines compagnies aériennes affirment compenser l’empreinte carbone de leurs utilisateurs. Ainsi, Air France s’est engagée à compenser les émissions de dioxyde de carbone de tous ses vols intérieurs à compter du 1er janvier 2020. Pour ce faire, la compagnie française investira notamment dans des programmes de conservation de forêts primaires en Amérique du Sud. Cependant, de nombreux acteurs s’évertuent à rechercher des solutions pour réduire l’utilisation de kérosène, et ainsi parvenir à réduire les émissions de CO2.

Changer et alléger les appareils

Lors de l’édition 2020 du Change Now Summit qui s’est tenue à Paris, Barbara Van Koppen, membre du comité exécutif de la compagnie aérienne KLM Royal Dutch Airlines, a concédé que si la compensation carbone peut sembler être une solution de court terme, elle n’est pas pour autant une solution durable pour le verdissement de l’aviation. « L’industrie aéronautique doit investir dans davantage d’appareils plus respectueux de l’environnement, qui consommeraient moins de kérosène », a-t-elle déclaré. Mais pour elle, les acteurs de l’industrie aéronautique ne sont pas les seuls à devoir prendre des mesures fortes : « Les gouvernements ont également leur rôle à jouer, et doivent prendre des décisions. »

Afin d’illustrer l’implication de KLM, Barbara Van Koppen a évoqué Flying-V, un avion aux allures futuristes en forme de V. Sur l’idée d’un étudiant de l’Université technique de Berlin, cet appareil a été développé par des chercheurs aux Pays-Bas, avec le soutien de la firme néerlandaise. L’engin a besoin de 20% de kérosène de moins qu’un appareil classique et possède un fuselage plus léger. Une avancée prometteuse, mais actuellement impossible à commercialiser. De nombreux tests sont encore nécessaires, et le Flying-V ne pourra pas voler avant au moins une vingtaine d’années. À terme, il pourrait faire voyager environ 300 personnes.

Au-delà de ses engagements en termes de compensation carbone, Air France affiche également ses ambitions en termes de réduction de la consommation de carburant. « Nous passerons à une consommation de carburant inférieure à trois litres par passager aux 100 kilomètres d’ici 2030 », affirme Anne Rigail, directrice générale d’Air France. Pour cela, la firme envisage de remplacer 50% de sa flotte par des appareils comme le A220, qui consomme environ 20% de carburant de moins que les modèles employés précédemment.

Le biocarburant, une solution très prisée

KLM Royal Dutch Airlines a annoncé en mai 2019 vouloir investir durablement dans les biocarburants. Pour ce faire, la compagnie aérienne a conclu un accord avec l’entreprise néerlandaise SkyNRG, leader mondial du marché des carburants d’aviation durables. Cette solution permettrait de réduire les émissions de CO2 de 85 % par rapport au carburant traditionnel. À l’horizon 2022, SkyNRG prévoit d’ouvrir une nouvelle usine à Delfzijl aux Pays-Bas. « À partir de 2022, l’usine produira 100 000 tonnes par an, dont KLM achètera 75 000 tonnes. Cela réduira nos émissions de CO2 de 200 000 tonnes par an, ce qui équivaut aux émissions de 1 000 liaisons entre Amsterdam et Rio de Janeiro » explique Pieter Elbers, PDG de KLM. « Je suis fier de notre collaboration pour lancer un projet qui verra le développement de la première unité de production européenne de carburant d’aviation durable », ajoute-t-il.

Air France mise également sur le développement de l’usage de biocarburants. Selon Nathalie Simmenauer, directrice environnement et développement durable chez Air France, cela pourrait permettre de réduire les émissions de CO2 jusqu’à 80% par rapport à l’usage de carburants classiques. Par ailleurs, la compagnie aérienne a annoncé que dès le 1er juin 2020 et pour une durée de seize mois, toutes ses liaisons au départ de San Francisco seraient alimentées par du biocarburant à base d’huile et de graisses non comestibles. Pour mettre au point ce carburant, Air France collabore avec la compagnie pétrolière Shell. « Cette initiative permettra d’économiser environ 6 000 tonnes de CO2 sur le cycle de vie du carburant », indique Air France.

Le biocarburant que la compagnie française utilisera pour ses vols au départ de San Francisco sera produit par la société américaine World Energy. En réalité, il ne s’agira pas de totalement remplacer le kérosène par ce nouveau carburant, mais de procéder à un mix entre les deux, dont les proportions ne sont pas précisées. Anne Rigail se réjouit de la réalisation de ce projet. « Cette initiative que nous lançons en Californie est la preuve que quand les États mettent en place des mesures incitatives, la production augmente et les compagnies aériennes ont les moyens d’agir. C’est un exemple à dupliquer à travers le monde et notamment chez nous, en France », estime-t-elle.

Des moteurs moléculaires aux matériaux actifs et intelligents

Les structures biologiques peuvent être assimilées à des assemblages dynamiques de blocs moléculaires. Pour s’adapter à leur environnement, ces blocs intègrent divers systèmes de détection et de réaction aux stimuli extérieurs. S’inspirer de ces propriétés pourrait permettre de créer des matériaux intelligents. Comment ? Par exemple, à l’instar des systèmes vivants, en utilisant des moteurs moléculaires comme blocs de construction.

Ces moteurs moléculaires pourraient par exemple servir à concevoir des nanorobots utilisables dans les systèmes d’administration ciblée de médicaments, mais aussi des matériaux macroscopiques capables de produire un travail mécanique à partir d’énergies propres.

Qu’est-ce qu’un moteur moléculaire ?

Un moteur moléculaire est une molécule capable de produire un travail mécanique contrôlé à l’échelle du nanomètre. L’assemblée moléculaire en mouvement est considérée comme un moteur. Comme tout moteur, il nécessite un apport d’énergie extérieur : cette énergie peut être thermique, électrique, photonique, chimique, etc.

Le concept de moteur moléculaire ouvre une multitude de portes. L’équipe du professeur Nicolas Giuseppone l’a récemment détaillé dans deux articles extrêmement denses, publiés pour les revues Advanced Materials (Wiley) et Chemical Reviews (American Chemical Society).

Ainsi, en partant d’un moteur moléculaire, il est possible de créer de nombreux matériaux 1D, 2D, et 3D (polymères, cristaux liquides, etc.).

Prenons le cas d’une molécule capable de se contracter ou de s’étendre sous l’effet d’un changement, telle une variation de pH.

Exemple d’une machine moléculaire : structure chimique constituée d’anneaux moléculaires « glissants » sensibles au pH. 1 : position contractée ; 2 : position étendue

“Imaginons un assemblage de 1 000 de ces nanomachines moléculaires. Les mouvements infimes de 1 nm produits par chaque machine s’additionnent alors pour former en quelque sorte un vérin dont la course sera de 1 µm”, détaille Nicolas Giuseppone.

Est-il possible de créer des machines plus grandes ? Cela est possible en combinant ces processus microscopiques avec d’autres niveaux d’organisation hiérarchique, par exemple en agrégeant ces chaînes polymères en fibres, un peu à l’image de ce qui est mis en œuvre dans la contraction musculaire.

“Ici, il est nécessaire de coupler la chimie moléculaire à des procédés de mise en forme issus de l’ingénierie des matériaux”, remarque le professeur Giuseppone.

Passer à l’échelle macroscopique, un défi

À l’heure actuelle, “on a compris comment fonctionne le mouvement à l’échelle moléculaire et on sait contrôler mécaniquement la matière à l’échelle nanométrique”, souligne Nicolas Giuseppone.

Son équipe travaille actuellement sur deux axes de recherche. Il s’agit d’une part de répondre à la question « comment transformer un moteur moléculaire en moteur macroscopique ? » et d’autre part d’utiliser les machines moléculaires pour “s’intéresser à la transmission de messages vers des cellules vivantes”.

Ce deuxième point, à l’interface entre la chimie et la biologie, est particulièrement passionnant : “Ça ouvre beaucoup de perspectives, car les cellules sont très sensibles à leur environnement mécanique”, ajoute le professeur Giuseppone.

Un champ de recherches émergent, mais déjà nobélisé

Ces travaux s’inscrivent dans la continuité de ceux de Jean-Pierre Sauvage, Fraser Stoddart et Bernard Feringa, récompensés en 2016 par le prix Nobel de chimie en tant que pionniers de ce domaine émergent.

En effet, bien que les principes de fonctionnement des nanomachines aient été discutés dès la fin des années 50 par le physicien Richard Feynman, c’est seulement en 1983 que Jean-Pierre Sauvage a ouvert la voie à la fabrication de machines moléculaires en mettant au point une méthode chimique permettant d’imbriquer des anneaux moléculaires les uns avec les autres.

Le professeur Giuseppone précise : “C’est un prix Nobel qui a été donné assez tôt par rapport aux avancées technologiques produites. Souvent, les prix Nobel viennent récompenser des travaux ayant déjà démontrés leur utilité d’un point de vue applicatif. Ce qui a été récompensé ici concerne les premières réalisations de machines et de moteurs à l’échelle moléculaire avec la promesse d’applications qui seront en rupture”.

Des applications partout

Ce “pari sur l’avenir” de la part du comité Nobel n’est pas anodin, car les applications potentielles de ces moteurs moléculaires sont nombreuses. Des domaines comme la mécanique, la médecine, l’électronique, l’optique ou la plasmonique sont autant d’exemples expliqués en détail dans les deux rapports publiés en janvier 2020.

Les fonds durables se développent pour les particuliers

« Tous les voyants sont au vert pour le marché des fonds durables, prévient Anne-Catherine Husson-Traoré, directrice générale de Novethic. Il émerge une dynamique de marché pionnière sur les fonds qui ont conscience que pour répondre à la demande d’un certain nombre de clients, il faut pouvoir attester de qualités ESG [Environnementales, Sociales et de Gouvernance, ndlr] et ne pas uniquement se baser sur du déclaratif. »

Selon l’Indicateur annuel du marché des fonds relevant de la finance durable en France publié par Novethic, les fonds relevant de la finance durable ayant au moins une part accessible aux particuliers ont quasiment doublé en un an. Entre fin décembre 2018 et 2019, ils passent de 488 fonds pour un encours de 149 milliards d’euros à 704 fonds pour 278 milliards d’euros.

Des conditions favorisant le développement des fonds durables

Novethic identifie trois moteurs principaux à ce développement. En premier lieu, la loi PACTE oblige désormais la diffusion d’au moins un produit labellisé dans le cadre de l’assurance-vie. En deuxième lieu, les sociétés de gestion développent des offres de gamme labellisées. C’est le cas d’au moins trois d’entre elles – BNP Paribas AM, La Banque Postale AM et Natixis IM – qui ont fait labelliser plus de 20 fonds chacune.

Le troisième moteur principal vient d’une compétition féroce en Europe, chaque pays espérant imposer son standard. Novethic a d’ailleurs mis à jour son panorama des labels de la finance durable en janvier 2020 pour témoigner de cette diversité, avec les 7 labels reconnus. Au niveau européen, le label français ISR se tire la vedette avec le belge Towards Sustainability.

Deux labels d’État en complément

La France compte deux labels officiels : le label public ISR [Investissement Socialement Responsable] et le label public Greenfin. Le label ISR se développe fortement, avec 117 fonds supplémentaires, portant le total à 263 fonds labellisés pour un encours de 128 milliards d’euros. La présence des acteurs étrangers se renforce avec 62 fonds labellisés ISR gérés par des sociétés domiciliées hors de France, témoignant de l’attractivité du marché français.

Toutefois, la terminologie ISR reste assez confuse pour les fonds labellisés. En l’absence de critère d’exclusion, le label ISR rassemble des fonds intégrant des dimensions ESG larges. Il s’agit d’ailleurs du seul label européen de finance durable à ne pas exclure le financement des énergies fossiles (pétrole, gaz et charbon). En plus, 179 fonds n’emploient pas le terme ISR dans leur nom, et parmi eux, 64 sont des fonds thématiques dont 19 environnementaux. Ainsi, le label présente « une injonction paradoxale », estime Anne-Catherine Husson-Traoré. Il souhaite développer l’ESG, mais sans rien exclure, tout en gardant des performances du CAC40.

Pour garantir des projets respectant l’environnement, l’Europe compte une trentaine de fonds verts. Le français Greenfin Label va plus loin que le label ISR : il repose sur une taxonomie d’éco-activités excluant les énergies fossiles, le nucléaire et les entreprises controversées. S’il reste beaucoup moins développé que le label ISR, il labellise désormais 18 fonds dont l’encours a quadruplé en un an, atteignant 6 milliards d’euros fin décembre 2019.

L’Europe a finalement défini une taxonomie liée à la finance durable. « La taxonomie européenne va permettre de déterminer quels actifs verts sont éligibles à un Ecolabel, avec un dispositif qui peut ressembler au Greenfin », prévient Anne-Catherine Husson-Traoré. Le défi reste de définir des seuils minimums de part verte à respecter dans le portefeuille des entreprises pour pouvoir prétendre au futur écolabel européen. « Il y a une demande, il y a des standards, il manque un peu les entreprises capables de dire qu’elles sont plus vertes que vertes », avertit-elle.

Les fonds thématiques plébiscités

Environ un quart des fonds durables (183 fonds pour 64 milliards d’euros) sont des fonds thématiques, majoritairement environnementaux. Les fonds thématiques environnementaux se développent fortement, particulièrement sur la gestion de l’eau, les énergies renouvelables, l’efficacité énergétique et les services environnementaux. Sur ces fonds environnementaux, la performance moyenne en un an augmente de +29%, supérieure au CAC40 (+26%).

Le rapport note également la résurgence des fonds à thématiques sociales : 9,4 milliards d’euros, pour 31 fonds. Le thème de l’éducation émerge particulièrement, avec une collecte de près d’un milliard d’euros en 2019. Les autres thématiques sociales privilégiées vont de la santé et l’alimentation saine aux les meilleures pratiques RH en passant par l’égalité hommes/femmes. La performance de ces fonds atteint +22% sur un an.

Des services additionnels offerts au réseau électrique

Créée en octobre 2019, Beoga est une jeune start-up lauréate d’un prix de l’innovation au salon Energaïa en décembre dernier. Incubée au Business & Innovation Centre de Montpellier, l’entreprise développe un écosystème informatique afin de valoriser les ressources d’électricité produites ou stockées des consommateurs-producteurs et favoriser l’achat et la revente d’électricité entre eux. Malgré son jeune âge et un modèle économique qui reste à consolider, elle est sur le point de tester son modèle dans une commune du Gard. Elle affiche aussi dès le début des ambitions internationales car les co-fondateurs et investisseurs de cette société viennent de pays différents. Entretien avec Amaury Pachurka, CEO et co-fondateur de Beoga.

Techniques de l’Ingénieur : Pouvez-vous nous décrire votre système ?

Amaury Pachurka, CEO et co-fondateur de Beoga : Nous développons un nouveau modèle économique, plus éthique et partagé, qui se présente sous deux axes. Le premier : nous permettons l’agrégation de ressources d’électricité distribuées de production ou de stockage, en fixe ou mobile en provenance d’énergies renouvelables mais aussi de stockage stationnaire, de voitures électriques… Concrètement, un particulier producteur d’énergie renouvelable et qui part en vacances pourra mettre à disposition sa batterie au gestionnaire d’approvisionnement. Ce dernier pourra par exemple l’utiliser pour stocker l’énergie verte produite par un autre membre du réseau puis la redistribuer vers un troisième. Notre second axe consiste à développer des échanges d’énergie de pair à pair. Nous souhaitons créer une communauté d’énergie entre des auto-consommateurs. Par exemple : plutôt que deux particuliers achètent chacun de leur côté une batterie pour stocker l’énergie de leurs panneaux photovoltaïques, ils pourront investir en commun dans une seule.

Quels bénéfices pensez-vous apporter au réseau ?

Nous avons réalisé une veille concurrentielle et technologique de 180 sociétés à travers le monde et, à notre connaissance, nous sommes la seule société à proposer l’ensemble de nos services. Nous ne nous positionnons pas en concurrence avec les fournisseurs d’électricité, notre objectif étant de créer de la co-valeur en apportant des services additionnels à l’ensemble du réseau. Nous nous adressons aux fournisseurs, aux agrégateurs, aux gestionnaires d’équilibre et aux distributeurs. Face à la décentralisation qui implique l’intégration de plus en plus de sources de production, nous apportons plus de flexibilité et davantage de stabilité au réseau. Un consommateur-producteur pourra réaliser jusqu’à de 20% d’économies grâce à notre solution.  Les gestionnaires seront également gagnants en tirant partie des ressources de leurs utilisateurs et en les optimisant.

A quelle phase de votre projet en êtes-vous ?

Nous avons développé plusieurs prototypes ; notre projet rentre à présent dans une phase de démonstration grandeur nature. Sur la commune de Le Cailar dans le Gard, nous allons tester différentes combinaisons possibles sur un lotissement d’une dizaine de résidences dès cette année. Notre objectif est de faire des réglages et valider nos hypothèses économiques. Nous sommes agnostiques vis-à-vis de la technologie blockchain, c’est le gestionnaire d’approvisionnement qui assure le rôle de tiers de confiance et notre écosystème la traçabilité. Nous souhaitons commercialiser notre offre dès 2021 et visons une communauté de 25 000 membres en France d’ici 4 ans. Nous travaillons déjà en collaboration avec des acteurs tels qu’Enedis et en partenariat avec des gestionnaires d’approvisionnement comme Planète Oui. Nous sommes aussi en discussion avec des groupes automobiles et des entreprises qui gèrent des bornes de recharges pour véhicules électriques ou encore des laboratoires publics. Notre volonté est de nous développer rapidement à l’international car notre système a un fort potentiel de réplicabilité sur d’autres marchés. Notre équipe, co-fondateurs et investisseurs, vient de 17 nationalités différentes. Notre société n’a que 4 mois mais cela fait plus de 3 ans que nous travaillons sur notre projet.

Crédit photo de Une : Région Occitanie – Laurent Boutonnet

Les jeux vidéo en quête de sciences à l’Ecole Polytechnique

Techniques de l’ingénieur : Vous venez d’ouvrir la Chaire « Science et jeu vidéo » à l’Ecole Polytechnique. Quel est son but ?

Raphaël Granier de Cassagnac : Il y a une trentaine de chaires à l’Ecole Polytechnique. À chaque fois, un industriel donne de l’argent à l’école sous forme de mécénat pour une cause ou un sujet. Notre nouvelle chaire « Science et jeu vidéo » financée par Ubisoft vise à développer des actions de recherche, d’enseignement et de communication liées aux jeux vidéo. Il ne s’agit pas d’un vrai contrat de partenariat avec propriété industrielle. Dans ce cadre, des professionnels indépendants du jeu vidéo travaillent en résidence dans un centre de recherche pluridisciplinaire, le Laboratoire Leprince-Ringuet. L’école Polytechnique a ainsi créé un gamelab hébergé dans ce centre de recherche en septembre 2019. L’équipe est composée d’un graphiste, d’un développeur, d’un game designer et d’une cheffe de projet.

Comment s’imbrique cette chaire avec le programme des étudiants ?

25 étudiants suivent cette chaire, ce qui nous permet de développer 5 projets scientifiques collaboratifs. Chaque année, il y aura de nouveaux projets. Ils portent sur deux aspects : rendre les jeux plus réalistes ou améliorer le gameplay. Il y a un projet sur les dialogues, un autre pour incorporer plus de physique dans un jeu en 3D – de la thermodynamique, de l’électromagnétisme, de la corrosion, de la chimie… Deux projets sont liés à des productions d’Ubisoft concrètes, donc nous ne communiquons pas sur leur sujet. Le dernier projet concerne le cartable connecté, en lien avec une association. Ce projet permet à des enfants malades d’assister à une classe à distance. L’association a déjà un protocole d’interaction à distance avec leurs camarades grâce à la combinaison de tablettes, caméra et micro. Mais nos étudiants réfléchissent à la récréation. Ils inventent des jeux de récréation dans lesquels l’enfant à distance prendra sa part.

Qu’est-ce que le jeu vidéo a apporté à la science et inversement ?

Il est clair que le jeu vidéo a été un moteur de science pour l’informatique graphique. Elle s’est beaucoup développée avec les besoins du jeu vidéo et du cinéma d’animation, avec des problématiques différentes. Pour le jeu vidéo, c’est du temps réel, il faut que cela aille très vite. En particulier la course aux processeurs a été poussée par les jeux vidéo.

Le jeu vidéo a aussi aidé à la démocratisation de l’intelligence artificielle mais dans une moindre mesure. L’IA dans les jeux vidéo est rarement très poussée. Dans l’autre sens, le jeu vidéo a besoin de sciences pour modéliser les mondes ouverts. Comment simuler la météo, l’aspect visuel des nuages ? Voici des défis importants. Il peut y avoir des informations sur l’écosystème pour mieux prendre en compte l’interaction avec la faune et la flore. Dans des jeux où l’on modélise des populations, des éléments de sciences humaines peuvent être cruciaux.

Je pense que les applications les plus intéressantes concernent les sciences humaines et sociales. Pour notre projet sur les dialogues, nous travaillons avec un linguiste. Il y a un gros enjeu sur le jeu vidéo dans l’avenir proche sur les grandes questions sociétales comme le réchauffement climatique et les mouvements de population. Il y a plein de choses à développer grâce au jeu vidéo pour sensibiliser à des problématiques qui ont un fond scientifique fort.

Comment voyez-vous le futur de cette chaire ?

La chaire concerne 25 étudiants sur environ 550 élèves. L’idée est d’augmenter l’offre liée aux jeux vidéo dans l’enseignement au fur et à mesure des années. Du 14 février jusqu’à la fin de l’année, nous démarrons un cours sur le jeu vidéo pour 12 élèves sur 60 heures d’enseignement. En fonction des développements, nous pourrions imaginer développer à l’Ecole Polytechnique un master spécialisé jeux vidéo à l’international avec des composantes ingénieurs très fortes.

Nous avons fait un premier colloque en novembre dernier. Pour cette première édition, nous avons eu 120 inscrits, essentiellement des chercheurs et des experts de l’industrie. Nous nous sommes limités à Ubisoft du côté de l’industrie et des chercheurs de l’école Polytechnique pour cette première édition. Mais pour cette année, l’idée est d’ouvrir au niveau national à d’autres studios de jeux vidéo et d’autres centres de recherche, puis à l’international l’année suivante. L’idée de développer un grand congrès international sur le jeu vidéo m’intéresse.

Enfin, n’oublions pas de dire qu’il y a beaucoup de débouchés dans le jeu vidéo pour les ingénieurs. C’est la plus grosse industrie du divertissement, devant le cinéma. Avec des besoins techniques et scientifiques forts dans plein de domaines : data analytics, informatique, IA… Pensez-y…

Propos recueillis par Matthieu Combe

Un procédé Power to gas couplé à une unité de bio-méthanation

Créée en 2009 et toujours indépendante, Arkolia Energies est spécialisée dans la construction de sites de production d’électricité verte : solaire, éolien et biogaz. Située dans l’Hérault, la société emploie 90 salariés et consacre un budget de 1 à 2 millions d’euros par an à la R&D avec le soutien de l’ADEME et AD’OCC, l’agence de développement économique de la région Occitanie. L’entreprise a déposé un brevet pour un procédé Power to gas.

Laurent Bonhomme, Président et fondateur d’Arkolia Energies. CP : Arkolia Energies

Son originalité est de coupler un électrolyseur et un capteur de CO2 avec une unité de bio-méthanation afin de produire du méthane de synthèse. L’électricité produite par les énergies renouvelables étant irrégulière et ne coïncidant pas avec les besoins, ce procédé permettra de transformer l’énergie en gaz puis de le stocker ou alors de l’injecter directement dans le réseau gazier. La société a remporté le premier prix des trophées Energaïa en décembre dernier et est présente dans le palmarès 100brevets.tech des inventeurs de la French Tech en 2019.  Entretien avec Laurent Bonhomme, Président et fondateur d’Arkolia Energies.

Techniques de l’Ingénieur : Pourriez-vous nous présenter votre technologie ?

Laurent Bonhomme, Président et fondateur d’Arkolia Energies : Notre procédé Power to gas fonctionne en trois étapes. Dans un premier temps, grâce à un électrolyseur, nous réalisons l’électrolyse de l’eau pour produire de l’hydrogène. Parallèlement, un équipement vient capter le CO2 de l’air. Et enfin, le CO2 et l’hydrogène sont injectés dans une unité de bio-méthanation pour produire du méthane. Notre système peut être autonome en eau puisque celle du capteur de CO2 est récupérée pour alimenter l’électrolyseur. Pour une molécule emprisonnée, une molécule d’eau est produite. L’eau est aussi récupérée à la sortie de l’unité de bio-méthanation puisque, à l’intérieur, la réaction de Sabatier permet de produire deux molécules d’eau pour une molécule de méthane produite. Grâce à ces deux équipements, 50% des besoins de l’électrolyseur sont couverts. L’eau de ruissellement des panneaux photovoltaïques peut également être fournie pour couvrir le reste des besoins. Concernant la chaleur, le captage de CO2 en postcombustion par adsorption chimique aux amines est réalisé à l’aide d’une membrane qui a besoin d’être chauffée à 100 degrés à chaque cycle. Cette chaleur est récupérée en sortie de l’électrolyseur et de l’unité de bio-méthanation.

Pouvez-vous nous décrire le processus de méthanation ?

Notre n’utilisons pas la méthanation par la voie catalytique qui est le procédé le plus ancien et le plus développé. Il fonctionne grâce à des réacteurs à catalyseurs métalliques sous haute température, sous haute pression, et nécessite l’emploi de métaux assez coûteux comme par exemple le nickel. Ce genre d’installation est souvent alimentée par un courant électrique continu. Nous souhaitons que notre installation soit autonome en électricité. Celle-ci provient de l’énergie renouvelable au tout début de la chaîne et se caractérise donc par son intermittence. Nous avons couplé notre procédé à une unité de méthanation biologique qui consiste à produire du méthane par hydrogénation du CO2 à partir de populations microbiennes, des archées méthanogènes. Lorsque l’électricité provient de panneaux photovoltaïques et que le soleil cesse, les microorganismes ne sont donc plus alimentés en hydrogène et CO2. Ils reprennent leurs activités et la production de méthane repart lorsque le soleil revient.

Quelles sont les prochaines étapes de votre projet ?

Nous avons mis en place un pilote en modèle réduit à l’INSA (Institut national des sciences appliquées) de Lyon. Après cette phase d’expérimentation en laboratoire, nous allons installer l’année prochaine un pilote grandeur nature sur la commune de Saint-Côme-et-Maruéjols dans le Gard. L’investissement se chiffre à 1,6M€ et la centrale produira 100 KW d’électricité grâce à des panneaux photovoltaïques. Ce méthane, qui présente un taux de pureté important, sera directement injecté dans le réseau gazier.  En 2025, nous souhaitons construire une unité industrielle de 10 mégawatts sur la commune du Cros où nous avons un important projet de ferme solaire appelé SoLarzac. Enfin, sur le plan de la R&D, nous souhaitons augmenter le rendement de conversion d’électricité en gaz actuellement compris entre 50 à 60%. Nous pensons qu’il est possible d’aller au-delà.

Propos recueillis par Nicolas Louis

Vote électronique : un casse-tête en matière de sécurité

Mauvais départ pour le parti des Démocrates américains à la course à l’élection présidentielle ? Début février, les caucus (près de 1 700 réunions publiques où les électeurs sont regroupés physiquement pour désigner leur candidat lors de deux tours de scrutin) dans l’Iowa ont tourné au fiasco.

En cause, l’application mobile qui a été utilisée pour gérer le reporting du vote initial obtenu par chaque candidat, le deuxième choix des membres et enfin la liste des délégués finaux ayant gagné. Des responsables de circonscription ont rapporté des bugs, certains n’ont pas pu se connecter voire même télécharger l’application, et les résultats n’ont pas pu être connus le soir même ni plusieurs jours après l’élection.

En théorie, le recours à cette application devait faciliter les décomptes, accélérer la publication des résultats et garantir la transparence. Mais comme d’autres avant eux, le Parti Démocrate et l’éditeur (Shadow, Inc) de cette application ont confondu vitesse et précipitation. À moins qu’ils aient fait preuve d’amateurisme et/ou de naïveté…

Des failles qui existent depuis des années

Manifestement, cette application n’avait pas été assez testée pour vérifier ses performances et son ergonomie, mais surtout renforcer sa sécurité. Elle n’avait d’ailleurs pas été approuvée par le Département de la sécurité intérieure (Homeland Security Department).

Ce couac n’est pas le dernier. Il rappelle que le recours aux nouvelles technologies n’est pas une panacée en soi et qu’elles complexifient un processus électoral.

Or, son intégrité dépend de trois domaines clés : la sécurité des bases de données des électeurs, les urnes électroniques elles-mêmes, ainsi que les ordinateurs qui compilent les votes et diffusent les résultats.

C’est la raison pour laquelle les systèmes de vote américains restent toujours vulnérables aux cyberattaques depuis plusieurs années. Ce n’est pas faute d’avoir mis en garde les responsables politiques et les entreprises intervenant dans les processus électoraux.

Depuis 2017, des hackers se réunissent au DEF CON Voting Village. Ils peuvent tester des équipements de vote, notamment des carnets de vote électronique, des dispositifs de vote sur papier à balayage optique et des machines de vote électronique à enregistrement direct – tous certifiés pour une utilisation dans au moins une juridiction de vote américaine.

À chaque fois, les participants de ce Village ont trouvé de nouvelles façons de compromettre chacun des dispositifs présents de manière à pouvoir modifier les décomptes de vote stockés, changer les bulletins de vote affichés aux électeurs, ou modifier le logiciel interne qui contrôle les machines.

Concours de hackers

Rien de surprenant lorsque l’on découvre que de nombreuses vulnérabilités ont été signalées près d’une décennie plus tôt et qu’elles ne sont toujours pas corrigées…

Au-delà de l’intégration de correctifs de sécurité, quelles sont les solutions envisageables ? La première est de mettre de gros moyens. Un prototype de machine de vote dite sécurisée a été développé avec le soutien de la Darpa (Defense Advanced Research Projects Agency) et… 10 millions de dollars. Reste à savoir si ce prototype résistera aux hackers.

La Chancellerie fédérale suisse et la Poste misent aussi sur l’argent. Un faux scrutin a été organisé en février 2019 avec 130 000 euros de lots promis aux hackers du monde entier. Le gros lot, de 44 000 euros, revenait à celui qui parviendrait à manipuler des suffrages de façon indétectable.

Plus de 3 000 hackers (3 187 précisément), dont 13 % de Français, se sont inscrits et ont découvert près d’une vingtaine de failles. En particulier, une erreur critique dans le code source a été repérée. Dès cette annonce, la Poste avait demandé à Scytl, son partenaire technologique et responsable du code source, qu’il « mette en œuvre immédiatement l’intégralité de la rectification requise ».

La publication de ces vulnérabilités confirme que la sécurité du vote électronique est très compliquée. Finalement, on constate que les bulletins de vote en papier sont fiables à presque 100 % et fournissent une trace écrite vérifiable par l’électeur…

Néonicotinoïdes : un risque pour les abeilles malgré leur interdiction

On les appelle les tueurs d’abeilles : une étude révèle la présence de trois néonicotinoïdes sur des champs de colza en France alors qu’un moratoire de Union Européenne interdit leur utilisation depuis 2013 sur toutes les cultures mellifères, c’est à dire celles produisant du nectar et du pollen. Ces insecticides -la clothianidine, l’imidaclopride et le thiaméthoxame-, ont pour effet d’attaquer le système nerveux central des pollinisateurs et provoquer leur paralysie mortelle.

De 2014 à 2018, des chercheurs du CNRS, de l’INRA et l’Institut de l’abeille (ITSAP) ont étudié le nectar de 291 parcelles de colza d’hiver et analysé 536 échantillons. «Les trois néonicotinoïdes étaient présents mais c’est surtout l’imidaclopride qui a été détecté chaque année» souligne Vincent Bretagnolle, chercheur au CNRS. «Au total, 43 % des prélèvements analysés contenaient cette molécule, ce qui représente 48% des parcelles».

Aucune tendance à la baisse au cours des années n’a été observée mais une importante variation interannuelle l’a été. Ainsi en 2016, plus de 90 % des parcelles étaient positives, contre seulement 5 % en 2015.

L’eau diffuserait les molécules

L’hypothèse la plus probable serait que l’eau diffuserait ces insecticides dans l’environnement. L’étude a démontré que ces résidus augmentaient lorsqu’il avait plu les jours précédents les prélèvements. «Nous pensons que l’eau, par ruissellement, contamine les sols. Pour fabriquer son nectar, la plante absorbe l’eau du sol grâce à ses racines qui est ensuite transportée par la sève pour produire le nectar, un mélange de sucre et d’eau» poursuit Vincent Bretagnolle.

Une variation des niveaux de néonicotinoïdes en fonction de la composition de la terre vient conforter cette supposition. Les travaux montrent que les sols rouges (argilo-calcaire) sont les plus susceptibles de retenir ces molécules. Or l’argile a une bonne capacité de rétention en eau.

La proximité avec d’autres cultures traitées ne semble pas être un facteur explicatif. Ni même l’utilisation de ces insecticides sur les parcelles avant l’implantation des colzas étudiés. Ainsi, l’imidaclopride a été retrouvé dans des champs qui n’avaient jusque-là jamais reçu ces néonicotinoïdes, y compris dans certains cas cultivés en agriculture biologique. «Cette molécule n’est pas pulvérisée mais enrobée dans la graine de blé avant le semis. Nous savons que 80 à 90% de l’enrobage reste dans le sol et n’est pas capté par la plante» précise Vincent Bretagnolle. «Un autre facteur de diffusion pourrait aussi être la poussière». Si 92 % des échantillons positifs ne contenaient qu’entre 0,1 et 1 ng/mL d’imidaclopride, les concentrations maximales dépassaient dans quelques cas celles rapportées dans les parcelles traitées, allant jusqu’à 70 ng/mL.

En s’appuyant sur ces données, l’évaluation de la mortalité sur les abeilles a été réalisée à partir de modèles et paramètres conçus par l’EFSA, l’European Food Safety Authority. «Ce sont des simulations assez prudentes» analyse Vincent Bretagnolle. Résultat, le risque est loin d’être négligeable puisqu’en 2014 et 2016, environ 50 % des abeilles domestiques étaient susceptibles de mourir de l’imidaclopride dans 12 % des parcelles étudiées. Ces mêmes années, entre 10 et 20 % des parcelles présentaient un niveau de contamination associé à un risque de mortalité équivalent pour les bourdons et abeilles solitaires.

Une persistance de plusieurs années

Ces résultats apportent un soutien à la décision de l’Union Européenne en 2018 d’interdire ces néonicotinoïdes sur toutes les cultures extérieures. La France est allée plus loin en interdisant deux molécules supplémentaires : l’acétamipride et le thiaclopride. «Lorsque l’industrie agrochimique a commercialisé ces insecticides dans les années 90, elle s’est montrée très rassurante en déclarant qu’ils avaient une persistance dans le sol et les plantes de quelques semaines seulement», affirme Vincent Bretagnolle. «Nous démontrons qu’ils sont encore présents plusieurs années après leur usage.»

Malgré ces mesures, des dérogations peuvent être accordées. Et partout dans le monde, ces néonicotinoïdes sont très largement employés, que ce soit sur le maïs, les céréales ou encore sur une culture que l’on soupçonne moins comme le thé.  «Alors qu’ils sont censés être très sélectifs et agir seulement sur les invertébrés, des chercheurs commencent à démontrer qu’ils agissent aussi sur les oiseaux et les mammifères. Et donc potentiellement sur l’homme…» alerte  Vincent Bretagnolle. L’étude va se poursuivre avec un observatoire, appelé Néonet, en France et en Suisse, sur les cultures mellifères de plein champ.

Crédit photo Une : INRAE – RENARD Michel

Ces travaux sont publiés sur le site Science of the Total Environment

24% de charbon en moins pour l’électricité européenne en 2019

« L’Europe mène le monde en remplaçant rapidement la production de charbon par l’énergie éolienne et solaire », estime Dave Jones, analyste énergétique chez Sandbag. « En conséquence, les émissions de CO2 du secteur de l’électricité au cours de la dernière année ont chuté plus rapidement que jamais [au moins depuis 1990, ndlr]. »

Le nouveau rapport d’Agora Energiewende et de Sandbag fait le point sur le secteur électrique européen en 2019. L’année dernière, les émissions du CO2 du secteur électrique européen ont baissé de 120 millions de tonnes. Soit une réduction de 12 %. En parallèle, la part des énergies renouvelables dans la production d’électricité a atteint 34,6 % au niveau européen (+1,8 point).

Une baisse du charbon dans tous les pays

La production d’électricité à partir de charbon et de lignite a diminué dans tous les pays de l’Union Européenne (UE) – Royaume Uni compris –, de 24 % au total. Soit une baisse d’environ 150 térawattheures (TWh). Désormais, le charbon et le lignite représentent 14,6% du mix électrique européen. Côté charbon, 80% de la baisse s’observe en Allemagne, en Espagne, aux Pays-Bas, au Royaume-Uni et en Italie. Pour le lignite, presque deux tiers de la baisse s’est déroulée dans deux pays : l’Allemagne et la Pologne. Le rapport attribue cette baisse, dans une large mesure, à l’augmentation du prix des émissions de CO2 à environ 25 euros la tonne. Cela a rendu l’électricité provenant des centrales au charbon les plus émettrices plus chère que celle provenant de centrales au gaz, d’éoliennes ou de panneaux solaires.

L’étude montre par ailleurs que cette électricité a été remplacée pour moitié par de l’éolien et du solaire (+64 TWh) et pour moitié par du gaz (+73,5 TWh). En fin de compte, l’électricité d’origine éolienne a augmenté de 14 %, le solaire de 7 % et le gaz de 12 %. À l’exception de la République tchèque, tous les États membres de l’UE ont vu une part croissante de l’énergie solaire et éolienne dans leur mix électrique. Pour la première année, les centrales éoliennes et solaires ont fourni plus d’électricité que les centrales à charbon dans l’UE, dépassant la production de 100 TWh.

Mettre fin au charbon en Europe

La tendance devrait se poursuivre en 2020 et ensuite. « Vingt et un États membres européens et le Royaume-Uni ont adopté des plans d’élimination du charbon ou n’utilisent plus de centrales électriques au charbon dans leur mix électrique domestique, et deux autres pays sont en train de discuter d’une élimination du charbon », se félicite Matthias Buck, responsable de la politique énergétique européenne à Agora Energiewende. Et Dave Jones de Sandbag appelle les pays restants à l’action. « La Pologne, la République tchèque, la Roumanie et la Bulgarie continuent de dépendre fortement de l’électricité au lignite et n’ont pas encore élaboré de plans d’élimination », rappelle-t-il.

Malgré la bonne dynamique, il faut aller encore plus vite pour atteindre les objectifs. D’ici 2030, près d’un tiers de l’énergie totale dans l’UE devra provenir des énergies renouvelables. Cela nécessite une croissance de 97 TWh par an jusqu’en 2030, note le rapport. Soit 33 TW de plus que celles ajoutées en 2019. Dans ce cadre, il faudrait que le prix des émissions de CO2 reste élevé et que l’UE réduise plus rapidement que prévu le nombre de permis distribués afin que le système d’échange de quotas d’émission de l’UE encourage l’investissement dans les renouvelables.

L’Afrique, un continent tourné vers le ciel et la course aux satellites

Techniques de l’Ingénieur : « Aucun pays africain ne dispose d’une industrie qui lui permette de développer ses propres ressources spatiales » disait Christian Feichtinger, directeur exécutif de la Fédération internationale d’astronautique (IAF) en 2015. Cette allégation est-elle toujours d’actualité aujourd’hui ?

Sékou Ouedraogo : Il faut se demander ce qui est entendu par industrie, car c’est quelque chose de vaste. S’il est question de la capacité d’un pays à concevoir un lanceur, des satellites, ou à maîtriser toutes les sciences connexes à l’espace, alors il a raison. Cependant, ces propos sont un petit peu clivants, et il est nécessaire de les nuancer. De toute manière, il n’y a que très peu d’industries spatiales dans le monde, au-delà même du continent africain.

Combien de satellites africains sont actuellement en orbite ?

Durant les deux dernières décennies, plusieurs pays africains ont été à l’origine du lancement de 41 satellites. Le premier a été mis en orbite en 1998. Sur l’ensemble de ces satellites, 21 ont été lancés durant ces cinq dernières années. Ce chiffre montre bien le dynamisme africain dans le secteur, avec cette augmentation de 100% en cinq ans.

Actuellement, quel est le pays africain le plus à la pointe en termes de technologie spatiale ?

Je préfère mettre en avant le fait que onze pays ont lancé des satellites. Ce sont les suivants : le Soudan, le Rwanda, l’Égypte, l’Éthiopie, l’Afrique du Sud, le Nigeria, l’Angola, le Ghana, le Kenya, le Maroc et l’Algérie. Il existe une corrélation entre leurs capacités spatiales, et le fait qu’ils détiennent des satellites. En somme, les leaders sont ceux qui possèdent des satellites nationaux. Néanmoins, il est vrai que plusieurs pays ont investi dans le domaine, certains même depuis longtemps.

L’Afrique du Sud, par exemple, travaille sur les thématiques spatiales depuis les années 1960, et dispose de trois satellites. Le Nigeria en a quatre. Des ingénieurs ghanéens ont mis au point le GhanaSat-1. Le Maroc se distingue également, notamment du fait de l’acquisition d’un satellite, le Mohamed VI A, d’une valeur de 500 millions de dollars. Ce satellite effectue des vols stationnaires destinés aux télécommunications.

Est-il envisageable que les pays africains mettent en orbite de nouveaux satellites dans les prochaines années ?

C’est certain. Cela passe notamment par ce que l’on appelle le new space, cette capacité à concevoir des nanosatellites peu coûteux. C’est aussi grâce à cette baisse des coûts que durant ces cinq dernières années, beaucoup de satellites ont été mis en orbite. Dans les prochaines années, chaque pays voudra avoir son satellite. Des grandes nations encouragent cela, à l’image du Japon qui propose aux pays africains d’effectuer gratuitement des lancements.

Aujourd’hui, les satellites africains sont essentiellement lancés de Baïkonour en Russie, de Chennai en Chine, parfois même de Kourou en Guyane. Serait-il envisageable et pertinent que l’Afrique se dote de sa propre base de lancement ?

Pour des raisons de sécurité, une base de lancement doit impérativement se trouver dans une zone politiquement stable. D’un point de vue géographique et grâce à sa proximité avec l’océan Indien, la Corne de l’Afrique, près de l’équateur, comprend des zones très favorables au lancement d’un satellite. Au moins en cas de problème, le satellite et le lanceur retomberaient dans l’eau. De plus, le fait d’être au plus près de l’équateur réduirait les besoins en carburant. Donc il y aurait également un intérêt économique. Mais aujourd’hui, les conditions géopolitiques ne sont pas optimales pour installer une base de lancement en Afrique.

L’Afrique aura-t-elle un jour les moyens de rattraper le reste du monde en termes de conquête spatiale ? En réalité, cette question a-t-elle réellement lieu d’être ?

Il est erroné de parler de conquête spatiale, car l’enjeu n’est pas là. Le but pour les pays africains est d’utiliser des outils satellitaires pour leur développement. La question que ces pays doivent se poser serait plutôt « comment utiliser les outils satellitaires pour se développer ? ». Il faut se rappeler que le fait d’avoir une politique spatiale coûte extrêmement cher. C’est pourquoi ce n’est pas nécessairement une priorité. Les pays africains investiront dans des satellites pour servir leurs intérêts en termes d’amélioration de leur quotidien. Mais il ne s’agira très probablement pas d’une course vers la Lune ou vers Mars, car cela ne revêt que très peu d’intérêt au regard des défis de toutes natures auxquels l’Afrique est confrontée.

Qu’attendre et espérer de l’Agence spatiale africaine, créée en avril 2019 ?

C’est une bonne chose, cela va permettre aux chercheurs de se réunir, de travailler ensemble. Cette agence va permettre la mise en place d’une politique spatiale commune à tous les pays africains. Les cinquante-quatre pays africains ont tous donné leur accord pour sa création. Les quatre piliers de l’agence sont la navigation et le positionnement, les télécommunications, l’observation de la Terre, et l’astronomie et les sciences spatiales. Cela correspond aux objectifs fixés par l’Agenda 2063 de l’Union africaine, la feuille de route du développement africain. Le siège de cette nouvelle instance se trouvera au Caire, en Égypte.

Propos recueillis par Chaymaa DEB

UWB : des connexions sans fil plus performantes et plus sûres

Le service marketing d’Apple a toujours de l’imagination. Pour évoquer l’intérêt du protocole sans fil UWB (Ultra Wide Band), il parle de « conscience spatiale ». Cette expression définit la capacité de votre téléphone à « reconnaître » son environnement et les objets qui s’y trouvent. Concrètement, l’iPhone 11 peut repérer un autre modèle de la marque pour transférer un fichier ou une photo en quelques secondes.

L’intégration de l’U1 témoigne du retour en grâce d’une technologie utilisée au début des années 2000 dans les radars militaires et les communications cryptées. Elle a également été utilisée brièvement dans l’imagerie médicale et des systèmes de surveillance cardiaque à distance.

Connexions plus performantes

L’UWB est un protocole de communication sans fil à courte portée (norme IEEE 802.15.4a). Comme le Bluetooth et le Wi-Fi, il utilise les ondes radio, mais à une très haute fréquence (canal de 500 MHz dans la gamme de 6 GHz à 10 GHz). Un émetteur UWB peut envoyer des impulsions toutes les deux nanosecondes. Il agit comme un radar capable de balayer en permanence une pièce et de se « verrouiller » avec précision – et en temps réel – sur un objet. Un peu comme un rayon laser.

Même si les dernières normes Wi-Fi et Bluetooth ont permis de bénéficier de connexions plus performantes (en termes de précision dans la localisation d’autres appareils et la connexion), l’UWB se montre donc plus précis et consomme moins d’énergie.

Résultat, les plus grands fabricants de smartphone (Samsung, Apple et Huawei) sont tous impliqués dans des projets UWB, y compris la production de puces et d’antennes. Mais Apple est le premier à le déployer réellement dans un téléphone.

D’autres marques (Samsung, Xiaomi, NXP, Sony, Bosch…) se sont regroupées au sein du Consortium FiRa (Fine Range), qui travaille au développement de la norme existante citée plus haut. Son principal but est de favoriser l’émergence de nouveaux usages et services en plus du simple transfert de données d’un appareil à un autre.

Plus de sécurité

Concernant justement le transfert de données de point à point, l’UWB présente plus de garanties en termes de sécurité des connexions. La précision et la rapidité de la connexion empêcheraient toute personne malveillante d’intercepter la connexion comme cela est possible avec le Wi-Fi.

Comme la transmission est programmée à des intervalles spécifiques, elle empêche l’interception des informations dans ce que l’on appelle une attaque de type « homme au milieu » (man-in-the-middle-MITM). Pour schématiser, un pirate installé à une terrasse de café peut intercepter la connexion Wi-Fi établie entre un client et la borne de l’établissement, car les fréquences sont faciles à trouver.

De quoi favoriser l’intégration de l’UWB dans les futures clés de voiture ou de bâtiment.  Autres usages envisagés : la détection des glissements de terrain et la localisation précise à l’intérieur des bâtiments (avec des précisions de 10 à 0,5 cm).

Encore faut-il qu’un écosystème interopérable, holistique et interconnecté se mette en place. Cela nécessitera des programmes de conformité et de certification qui seront certainement moins rapides à se concrétiser qu’une liaison UWB…

Lhyfe : une production modulaire d’hydrogène grâce aux ENR

Techniques de l’ingénieur : Pouvez-vous nous présenter votre solution ?

Matthieu Guesné : Notre solution se connecte directement aux énergies renouvelables intermittentes, en particulier les éoliennes et les panneaux solaires. L’idée est bien d’exploiter directement l’électricité produite par les parcs et non pas d’aller chercher l’électricité sur le réseau, pour garantir un hydrogène propre et des électrons totalement verts (sans recourir au réseau et à l’achat de certificats verts). Nous n’entrons pas en concurrence avec le développement des énergies renouvelables dans le mix électrique, mais en complément. En effet, nous pouvons utiliser des éoliennes dites de réforme ou utiliser des énergies renouvelables de projets qui ne se seraient pas faits sans nous. Souvent, la taille des parcs éolien est conditionnée par les données du réseau électrique. Nous offrons la possibilité de rajouter d’autres éoliennes pour produire de l’hydrogène local.

En quoi consiste votre premier site industriel en Vendée ?

La construction de notre premier site industriel débutera en Vendée au cours du premier semestre 2020, à proximité du parc éolien de Bouin. Nous avons levé 8 millions d’euros et avons 3 millions d’euros de financements supplémentaires amenés par la Communauté de Commune de Challans Gois sur laquelle nous nous implantons, de la région Pays de la Loire et de BPI France. Cela permettra de financer l’équipe et le premier site en Vendée. Nous aurons 4 000 m2 de bâtiments : 1 500 m² dédiés à la production, le reste à notre centre de R&D. Grâce à ce parc éolien, nous avons un important potentiel de production d’hydrogène. Notre système est évolutif et modulaire, de 300 kg d’hydrogène par jour jusqu’à plusieurs tonnes, sachant qu’une éolienne suffira à produire l’hydrogène au départ. Alors que notre premier site ouvrira en 2021, nous avons déjà plusieurs demandes en France de la part de régions dotées de plans hydrogène et de pays du nord de l’Europe.

À quoi servira l’hydrogène produit ?

Notre solution est compétitive pour la mobilité par rapport au diesel et à l’essence. Faire un plein pour parcourir 700 km reviendra à 70 euros pour 3 minutes de temps de recharge. Pour cette application, nous produisons donc de l’hydrogène à prix compétitif sans aide particulière au développement des énergies renouvelables. Pour certaines collectivités, il peut toutefois être intéressant d’avoir des aides de l’Ademe ou de la région à l’achat de véhicules hydrogène, comme les bus, car les solutions hydrogène sont encore plus chères que les solutions carburant au gasoil.

Vous développez aussi une solution offshore…

Nous croyons beaucoup au développement de petits champs éolien offshore à plusieurs dizaines de km des côtes. Notre site de Vendée intégrera un pôle R&D qui développera le cœur de technologie, avec un démonstrateur à l’échelle 1/50e. La construction du premier site offshore devrait débuter en 2025. Au lieu de ramener l’électricité des éoliennes avec de gros câbles très chers, nous produirons de l’hydrogène par électrolyse d’eau de mer. Un bateau se chargera de ramener à terre l’hydrogène produit.

Le développement de l’hydrogène par électrolyse de l’eau ne pourrait-il pas poser des problèmes de ressources en eau ?

Pour produire 300 kg d’hydrogène, il faut entre 10 et 20 mètres cubes d’eau par jour. Pour éviter d’impacter les ressources en eau potable, nous faisons le choix d’utiliser de l’eau de mer dans nos sites proches des côtes. Cela sera le cas en Vendée. Mais il est vrai que si l’on développe l’hydrogène à très large échelle, on peut imaginer des problèmes sur les ressources en eau potable. En particulier, Alain Leboeuf président du SyDEV, le syndicat d’énergie de Vendée, martèle que dans certains départements, le développement de l’hydrogène obtenu par électrolyse de l’eau pourrait entraîner des tensions sur les ressources en eau au niveau local, d’où a nécessité d’envisager des solutions qui s’approvisionnent autrement qu’avec de l’eau du réseau.

Propos recueillis par Matthieu Combe.

Le marché français des dispositifs médicaux, un secteur entre croissance et fragilité

 

L’année 2019 a été bonne pour le secteur français du dispositif médical. C’est ce qui est ressorti d’une étude menée pour le compte du Syndicat national de l’industrie des technologies médicales (Snitem), qui a été en partie réalisée sur 21 entreprises représentatives du secteur. Parmi ces dispositifs médicaux se trouvent le matériel médical, les différents implants, l’équipement médical, ou encore les logiciels. Alors qu’en 2016 le chiffre d’affaires global du secteur français s’élevait à 28 milliards d’euros, ce dernier est passé à 30 milliards d’euros en 2019. Le nombre de structures a, quant à lui, augmenté avec 201 nouvelles entreprises en trois ans.

Un dynamique bassin d’emplois

Aujourd’hui, 1 502 entreprises, dont 93% de PME, exercent dans ce secteur et créent près de 90 000 emplois directs. Par ailleurs, plus de la moitié des employés ont un diplôme supérieur ou égal au BAC+4. Malgré tout, 70% des entreprises interrogées disent avoir des difficultés à recruter des profils qualifiés. Ces entreprises sont réparties partout en France, «mais il y a une forte densité sur l’est du territoire, et notamment en Île-de-France et dans la région Auvergne-Rhône-Alpes» précise Dominique Carlac’h, présidente de la société D&Consultants, en charge de réaliser l’étude pour le Snitem. Un quart d’entre elles sont étrangères et sont généralement de grosses structures. 30% sont américaines, 52% européennes.

Les différents chiffres avancés par le Snitem indiquent que le secteur est mu par un dynamisme certain. De plus, 54% des entreprises se reconnaissent comme acteurs du système de santé. Dans le monde des dispositifs médicaux, les produits ont généralement un cycle de vie court. Cela explique en partie le fort dynamisme du secteur en termes d’innovations, si bien que 3 750 brevets sont déposés chaque année. Les dispositifs médicaux ont une nette tendance à la digitalisation, car 51% des entreprises déclarent développer des produits connectés. Il apparaît également que 6% du chiffre d’affaires global est alloué à la R&D, qui s’appuie sur des partenariats publics/privés. Les deux tiers des entreprises ont un volet recherche et développement. 13% des structures, des startups, sont exclusivement actives en R&D.

Un fort marché de l’export

Toutes ces entreprises, françaises ou étrangères, ne limitent pas leurs activités aux frontières de la France. Le marché de l’export représente pratiquement un tiers des recettes du secteur, et est reconnu comme un réel moteur de croissance. L’internationalisation des activités se généralise, si bien que la croissance de l’export est bien plus forte que la croissance du marché lui-même. Le taux de croissance de l’export en 2019 était de 10%, là où celui du marché s’élevait à 3,7%. Ainsi, l’année dernière, 9 milliards d’euros du chiffre d’affaires global ont été gagnés sur des marchés étrangers. Cette tendance se retrouve dans l’ensemble des structures. Le Snitem indique également que selon les structures interrogées, «70% de la croissance anticipée serait générée par l’export».

Les trois marchés privilégiés sont l’Asie, l’Amérique du Nord et l’Europe. Les échanges internationaux devraient se poursuivre, car 84% des entreprises disent vouloir conquérir «davantage de nouveaux marchés». Il semblerait par ailleurs que les dispositifs les plus coûteux seraient plus naturellement destinés à un marché étranger, où la pression de la réglementation tarifaire est moins forte qu’en France. «Il y a des produits qui n’entrent pas en France, comme ce qui se rapporte à l’électrophysiologie, car les prix pratiqués sont trop bas» déplore Philippe Chêne, nouveau président du Snitem depuis juin 2019.

La réglementation française laisse planer des inquiétudes

De manière générale, il semblerait que les entreprises du secteur regrettent que le marché français ne soit pas plus facilement accessible. Selon le Snitem, ces entreprises seraient 23% à estimer que «les pouvoirs publics ne valorisent que très faiblement la contribution de leurs produits à l’amélioration de la prise en charge du patient, ainsi que leur participation à l’amélioration de l’économie française». Pourtant, 69% d’entre elles estiment contribuer à l’amélioration de la prise en charge des patients par le biais de leurs produits.

De plus, plusieurs acteurs jugent négativement l’impact de la réglementation sur leurs activités. Ainsi, 90% des entreprises disent avoir constaté un accroissement du niveau d’exigence des organismes attribuant des certifications. 44% dénoncent un non-respect des délais d’attribution de ces certifications, qui engendrent des retards de mise sur le marché de leurs produits. Philippe Chêne estime également le fait que la clause de sauvegarde en vigueur depuis septembre dernier n’est «pas tenable, car certains produits risqueraient de sortir du marché».

 

Des batteries-diamants à partir de matières radioactives

La demi-vie du carbone 14 (C14) est de 5 730 ans, ce qui implique que les batteries-diamants fabriquées à partir de cet isotope radioactif auraient une durée de vie particulièrement longue. De quoi équiper notamment des appareils nécessitant une autonomie importante, comme les pacemakers ou encore les prothèses auriculaires.

Selon les chercheurs de l’Université de Bristol, qui ont travaillé en commun avec l’Université d’Oxford sur le projet « Aspire », ces batteries pourraient également avoir une application dans le domaine spatial.

Les réacteurs britanniques de type « graphite » sont en effet en train d’être arrêtés les uns après les autres outre-Manche. Or, les chercheurs estiment pouvoir extraire les isotopes du carbone 14 des réacteurs graphites irradiés, réduisant simultanément la radioactivité des « déchets » nucléaires à stocker.

Au départ, en 2017, le projet Aspire a débuté autour du développement de capteurs sans fil utilisables en environnement extrême pour permettre la surveillance des colis de déchets nucléaires dans leurs sites de stockage intermédiaires et finaux. La solution proposée repose sur l’utilisation de batteries au diamant : des dispositifs diamantés radio-voltaïques avancés capables de « collecter » l’énergie de la désintégration radioactive pour alimenter de petites unités portables contenant plusieurs capteurs qui transmettent des données sur des réseaux sans fil. La batterie au diamant est techniquement un bêta-voltaïque, soit un cousin du photovoltaïque, mais au lieu de convertir le rayonnement de la lumière, il convertit le rayonnement bêta pour produire de l’électricité.

Ces batteries-diamants sont fabriquées à l’aide d’un processus appelé dépôt chimique en phase vapeur (CVD, en initiales anglaises) qui est largement utilisé pour la fabrication du diamant et utilise un plasma mixte d’hydrogène et de méthane pour faire croître des films de diamant à des températures très élevées.

Les scientifiques d’Aspire ont en outre modifié le procédé CVD pour permettre la croissance du diamant radioactif, en utilisant un méthane radioactif contenant l’isotope radioactif C14, qui est présent sur des blocs de graphite des réacteurs irradiés.

Les batteries devraient produire au moins 2 V d’énergie. Avec 1 g de carbone 14, elle pourrait délivrer environ 15 Joules (J) d’énergie par jour pendant 5 730 ans. A titre de comparaison, une pile alcaline AA standard pesant environ 20 g a une capacité de stockage d’énergie de 700 J/g, et utilisée en continue, elle s’épuiserait en 24 heures.

Régler une partie de la gestion des déchets nucléaires

« En retirant le carbone 14 du graphite irradié directement du réacteur, cela rendrait les déchets résiduels moins radioactifs et donc plus faciles à gérer et à éliminer », a déclaré le professeur Tom Scott, directeur du Southwest Nuclear Hub, à Nuclear Energy Insider. « Les coûts estimés pour l’élimination des déchets de graphite sont de 46 000 livres (environ 54 000 €) par mètre cube pour les déchets de niveau intermédiaire (MA) et de 3 000 livres (environ 3 500 €) par mètre cube pour les déchets de faible activité (FA) ».

« Par conséquent, si le traitement des déchets pour éliminer le C14 reclasse les déchets en déchets de type TFA, alors tout coût inférieur à 43 000 livres (51 000 €) par mètre cube représentera une économie pour le contribuable britannique. De même, si nous pouvons traiter le graphite de manière à ce qu’il n’exige pas d’élimination géologique, nous pouvons économiser considérablement en construisant une installation de stockage géologique plus petite », estime le chercheur.

La tranche de Berkeley, dans le Glouscestershire, à l’arrêt depuis 1989, et dont les matériaux radioactifs du réacteur peuvent commencer à être extraits, constituerait ainsi à la fois un site pour extraire la matière première pour le procédé, mais aussi pour y installer une usine de production de batteries-diamants. De même, le site d’Oldbury qui vient de s’arrêter pourrait lui-aussi constituer un site adéquat pour déployer cette technologie.

Le ransomware au coeur des cyberattaques 2019

Le ransomware (ou rançongiciel en français) est un moyen d’attaque très privilégié par les cyberattaquants. Après les campagnes d’attaques non ciblées qui ont débuté en 2014, les attaques massives à propagation automatique en 2017 (comme Wannacry), le monde fait face à une nouvelle typologie d’attaques depuis 2018 connue sous le nom de “Big Game Hunting”. “Cette dernière met en œuvre des méthodes et techniques d’attaques auparavant réservées à des opérations d’espionnage informatique opérées par des attaquants étatiques (exploitation de vulnérabilité 0-day, propagation manuelle et furtive)”, précise l’Anssi dans son document “Etat de la menace rançongiciel”. Elles ciblent de grandes entreprises et institutions en capacité de verser de grosses sommes d’argents.

Depuis fin 2019, le mode opératoire varie : l’exfiltration des données avant chiffrement pour s’en servir comme moyen de pression sur les entreprises touchées. “L’attaquant contacte le chef d’entreprise pour payer la rançon” explique Jérôme Notin, directeur général du dispositif Cybermalveillance.gouv.fr. “S’il ne paie pas, il diffuse des informations de l’entreprise comme les fichiers clients ou de propriété intellectuelle. Le patron prend peur, à la fois pour sa réputation mais également de payer une amende [pour non-respect du RGPD, ndlr]. Cette technique risque de démultiplier le nombre de personnes qui payent les rançons.”

69 incidents gérés par l’Anssi

En France, en 2019, l’Anssi a traité pas moins de 69 incidents relatifs à des attaques par rançongiciels. Parmi elles, on note celles des sociétés Altran en janvier, Fleury Michon en avril, Ramsay Général de Santé en août et le CHU de Rouen en novembre. Les collectivités territoriales et le secteur de la santé sont les principaux visés par les attaques. “Une quinzaine de rançongiciels sont concernés par ces incidents, laissant envisager que plusieurs dizaines de rançongiciels différents impactent réellement l’ensemble de l’espace économique français”, ajoute l’Anssi.

Pour prendre l’exemple du CHU de Rouen, touché le 15 novembre 2019 par le rançongiciel Clop [voir page 26 du rapport de l’Anssi], la compromission s’est réalisée via l’ouverture d’un courriel malveillant qui a permis à l’attaquant de déployer différents outils de reconnaissance et de propagation manuelle. Parmi ces outils : SDBBot, Metasploit, CobaltStrike ou encore Mimikatz. “Ces actions manuelles lui ont permis de prendre le contrôle du domaine et de déployer dans la nuit de vendredi à samedi le code de chiffrement sur la majorité du parc informatique, précise l’Anssi. Les investigations ont permis d’associer l’attaque à une large campagne ciblant des universités européennes, opérée par l’important groupe cybercriminel russophone TA505 et ayant notamment touché les universités d’Anvers fin octobre et de Maastricht en décembre”. Car ce type d’attaques par ransomwares est d’envergure mondiale : l’industriel norvégien Norsk Hydro en mars, la municipalité de Baltimore en mai, les laboratoires de recherche Eurofins Scientific en juin ou encore la compagnie américaine Southwire en décembre.

De l’exécutable à l’url piégée

Un autre gros changement a été relevé au cours de l’année 2019 : le passage de l’exécutable à l’url “piégée”. “Il n’y a quasiment plus de mails envoyés avec un exécutable compromettant, mais des messages avec l’intégration d’une simple url sur lequel le destinataire est invité à cliquer”, précise Loïc Guézo, spécialiste en cybersécurité au sein de Clusif. “Les attaquants font beaucoup plus de social engineering pour que l’e-mail semble venir d’un vrai sous-traitant ou partenaire”. Cette url est plus difficile à détecter par le système d’analyse qui essaie de prédire le niveau de nocivité d’un contenu, car celle-ci peut être envoyée “sans charge négative”, c’est-à-dire sans adresse vers un site compromettant. “L’attaquant peut par exemple mettre cette charge 3h après avoir envoyé le mail” ajoute l’expert. “Le fait de passer par des url permet de passer sans problème beaucoup de ces technologies.”

Bien que l’utilisation du rançongiciel se développe de façon exponentielle, il ne faut cependant pas oublier que “l’espionnage reste l’activité de base dans le domaine de l’attaque informatique” met en garde Guillaume Poupard, directeur général de l’Agence nationale de la sécurité des systèmes d’information. “Cette attaque est toujours sous-estimée. On en parle très peu car on ne sait pas évaluer son impact économique. Ces attaques se font via les prestataires, la supply chain, en tirant partie des écosystèmes complexes.”

Techniques de l’Ingénieur et Quick-FDS se rapprochent en 2020

Les deux sociétés faisaient déjà partie du même groupe, WEKA.  Chacune partenaire de longue date des industriels, et notamment dans les secteurs utilisant des produits chimiques, elles ont décidé d’unir leurs forces en 2020 afin de proposer des solutions complémentaires.

En effet, créée en 1993, CMT SAS éditait la solution Quick-FDS® de distribution réglementaire des Fiches de Données de Sécurité (FDS) aux clients de produits chimiques. De son côté, Techniques de l’Ingénieur est la plus importante ressource documentaire technique et scientifique en langue française et accompagne les industriels dans leurs projets de développement depuis plus de 70 ans, en apportant une réponse sur mesure aux problèmes les plus complexes.

Cette fusion permet au groupe WEKA de centraliser dans une entité juridique unique, Editions T.I., ses activités d’édition et de service pour les clients industriels. Par ailleurs, la similarité des marchés et la connexité des problématiques traitées par les deux « business unit » vont permettre d’exploiter de nombreuses synergies, notamment en mutualisant des contenus réglementaires sur les thématiques liées aux produits chimiques.

Quick-FDS conforte ainsi sa position de leader et continue à être porteur d’innovations en proposant des prestations personnalisées et des solutions en ligne à la carte, pragmatiques et bon marché pour une gestion optimisée des FDS et du risque chimique.

De son côté, Editions T.I. renforce son offre sur les sujets de la sécurité, de l’environnement et du risque chimique.
Plus généralement, ce rapprochement s’inscrit dans une stratégie de développement des gammes dédiées aux services QHSE et réglementation produits des entreprises.

 

Un casque autonome pour voir la réalité mixte autrement

Stan Larroque, fondateur de Lynx Mixed Reality.

C’est en 2017 que Stan Larroque, alors à ses études d’ingénieur, crée la start-up SL Process (puis Lynx Technologies et maintenant Lynx Mixed Reality), avec l’aide de l’entreprise GFI. Son idée ? Fabriquer un casque autonome de réalité mixte – à la croisée de la réalité virtuelle et de la réalité augmentée – de type «video see through». Cette technique, choisie aussi par les Finlandais de Varjo pour leur casque XR-1, diffère du procédé «optical see through» retenu par Microsoft pour ses lunettes Hololens : la réalité n’est pas vue au travers d’une visière optique transparente, mais filmée par des caméras puis reproduite sur l’écran interne du casque. Les objets 3D s’incrustent alors naturellement dans cette image numérique, au lieu d’être projetés sur la visière. Le prototype séduit les professionnels, à tel point que Stan Larroque a pu lever deux millions d’euros en août 2019 et recruter une équipe d’une dizaine de personnes. Désormais finalisé, le Lynx R1 a été présenté officiellement ce lundi 3 février au salon SPIE Photonics West, à San Francisco. Il coûte 1499$ (1354.80 €), soit deux fois moins que les Hololens. Explications avec son géniteur.

Techniques de l’Ingénieur : Quels sont les usages possibles de ce casque ? Et qui s’y intéresse ?

Stan Larroque : La formation et la téléassistance font partie des principales applications. Du côté de la clientèle, la SNCF expérimente le Lynx R1 dans ses opérations de maintenance sur la ligne RER B, avec l’ambition de réduire la durée de la procédure. En association avec l’Hôpital Bichat, nous avons fait une démonstration de télémédecine. Equipé du casque, le chirurgien peut aussi afficher en surimpression le dossier médical du patient pendant l’opération. A plus long terme, les gestes des chirurgiens pourraient être enregistrés via les caméras intégrées, pour aider au choix des stratégies opératoires et former les nouveaux praticiens. Enfin, nous menons des essais avec la Direction générale de l’armement, en France, et l’armée américaine. Mais je ne peux pas en dire plus (sourire)…

Pourquoi avoir opté pour le procédé «video see through» ?

Pour élargir le champ de vision, qui atteint 90×90° sur le Lynx R1 (contre 54° sur les Hololens 2, ndlr). Ensuite, la luminosité de l’image 3D reste uniforme et les couleurs ne s’affadissent pas, ce qu’une visière optique transparente ne permet pas d’obtenir. Ce dernier point est important dans le contexte d’une opération chirurgicale par exemple. Quant à l’occlusion, elle est parfaite : les objets 3D s’affichent sans la moindre transparence et se positionnent avec exactitude dans la scène 3D. Enfin, deux modes de fonctionnement – réalité virtuelle et réalité augmentée – sont possibles : pour une entreprise ou un industriel, la gestion du parc se simplifie.

Mis à part le «video see through», comment le Lynx R1 se distingue-t-il de la concurrence ?

C’est le premier casque à bénéficier du Snapdragon XR2, le jeu de composants électroniques que Qualcomm a conçu pour la réalité virtuelle (dévoilé le 5 décembre dernier, ndlr). Ce «chipset», très puissant, réduit la latence entre 12 et 15 millisecondes (décalage entre l’image filmée et l’image traitée puis reproduite sur l’écran interne, ndlr). Il prend en charge le Wifi, le Bluetooth et nous travaillons avec Qualcomm sur la 5G. D’autre part, nos lentilles spéciales, différentes des classiques lentilles de Fresnel, suppriment l’effet «grille de pixels». Les deux écrans LCD octogonaux de 1600×1600 pixels ont même été «taillés» pour être adaptés à la forme atypique de ces lentilles. S’ajoutent deux caméras infrarouges pour le suivi oculaire et le rendu fovéal, deux caméras noir et blanc pour le positionnement spatial et la détection du mouvement des mains, et les deux caméras couleur pour filmer l’environnement. Malgré tout, le Lynx R1 possède des dimensions raisonnables, la visière étant deux à trois fois plus fine que celle du Varjo XR-1. Et il ne pèse que 600 grammes.

Microsoft adjoint à ses lunettes Hololens 2 un environnement logiciel (Dynamics 365 notamment) facilitant leur déploiement, ce qui est primordial. Qu’envisagez-vous de votre côté ?

Notre écosystème reposant sur Android, nous prévoyons une place de marché (marketplace), consacrée au téléchargement d’applications professionnelles, et nous mettons à disposition notre SDK (software development kit). Tout est dans les mains des développeurs.

Après cette présentation officielle, quel est votre calendrier ?

A partir de mars/avril, nous allons initier des projets avec l’industrie aéronautique et la SNCF. La production et la commercialisation du casque – directe et indirecte via GFI – commenceront à partir de juin/juillet. Nous travaillons déjà sur la deuxième version, avec l’intention d’éliminer le conflit de vergence-accommodation (discordance entre la distance d’un objet 3D et le plan de netteté de la vision, qui peut embrouiller la perception du cerveau, ndlr).

Propos recueillis par Frédéric Monflier

Crédits photos : Lynx Mixed Reality

Le label RGE fait la chasse aux éco-délinquants

Techniques de l’ingénieur : Pouvez-vous rappeler l’intérêt du label RGE ?

Alain Maugard : Le label RGE est le premier rempart mis en avant par les pouvoirs publics en 2011 pour contrer l’insuffisance des compétences de certaines entreprises de la rénovation énergétique. Les travaux éligibles aux certificats d’économie d’énergie (CEE), au crédit d’impôt transition énergétique ou aux primes versées par l’Etat, doivent désormais être effectués par des entreprises labellisées RGE pour pouvoir bénéficier de ces aides. C’est l’éco-conditionnalité. Pour obtenir la qualité RGE, le professionnel doit suivre une formation agréée par domaine d’activité et constituer un dossier de candidature auprès de l’organisme délivrant le signe de qualité RGE souhaité. Dans le cadre de ce label, un organisme certificateur, comme Qualibat, Qualibat’Enr ou Qualifelec vérifie que les travaux sont efficaces et que l’entreprise travaille dans les règles de l’art.

Beaucoup d’articles ont alerté ces derniers temps contre des arnaques à l’isolation…

Si la majorité des entreprises RGE travaillent bien, certaines sont opportunistes, malhonnêtes et font de l’éco-délinquance. Il s’agit généralement d’entreprises qui ont leur siège en région parisienne, mais qui proposent des travaux partout en France. Elles font du démarchage téléphonique agressif et comptent souvent plus de commerciaux que de techniciens. Alors que label RGE demande que moins de la moitié des travaux soient sous-traités, ces entreprises sous-traitent presque systématiquement. Et rien ne garantit qu’elles fassent réellement réaliser leurs travaux par des entreprises RGE.

Les entreprises éco-délinquantes parviennent à passer entre les mailles du filet, car elles semblent sérieuses en apparence. Mais dans la pratique, elles ne mènent pas toujours à bien l’ensemble des travaux, réalisent les travaux dans la précipitation et n’organisent pas la réception des travaux. Les domaines critiques sont l’isolation des combles et des planchers bas, l’installation de pompe à chaleur et de chauffe-eau thermique, ainsi que l’installation de chauffage au bois et d’inserts. En 2020 justement, l’accent est mis sur la lutte contre ces entreprises pour leur retirer leur label.

Concrètement, quelles sont les nouvelles mesures mises en place ?

Afin de lutter contre les éco-délinquants qui n’ont pas leur place parmi nous, le label RGE franchit une nouvelle étape. L’Etat renforce le label sur la qualité des travaux effectués. Désormais, dès lors qu’un organisme certificateur bénéficiera d’un faisceau d’informations qui montrent qu’une entreprise semble mal travailler, il aura la possibilité de réaliser tous les contrôles nécessaires dans l’entreprise concernée. Avant, il fallait qu’un particulier porte plainte. Mais ils le faisaient très rarement, limitant la lutte contre ces mauvaises pratiques.

Quelles sont les autres nouveautés ?

Afin de gagner en précision, nous passons aussi de 12 à 19 domaines de travaux. Par exemple, le domaine général «isolation» se divise désormais en «isolation par l’intérieur», «isolation par l’extérieur», «isolation des planchers bas» et «isolation des combles». Il faut désormais demander à être reconnu RGE pour chacun de ces domaines. Cela permet de mieux contrôler que les entreprises labellisées connaissent bien les règles.

De plus, au lieu d’un audit tous les 4 ans, nous en ferons deux. Nous aurons désormais la liste complète des chantiers et pourrons choisir un audit de façon aléatoire dans cette liste. À l’issue de cet audit, si l’auditeur a un doute, il aura le droit de réaliser un audit complémentaire. S’il s’avère que l’entreprise ne travaille pas bien, l’auditeur soumettra le dossier à une commission régionale pour retirer son label RGE. Si l’entreprise ne présente que quelques défauts, mais montre sa bonne foi, le label RGE lui sera retiré mais lui sera rendu une fois une formation complémentaire suivie.

Enfin, nous donnons désormais une place plus importante à la réception des travaux. Les particuliers n’y connaissent pas forcément grand-chose. Nous allons donc leur fournir des informations sur ce qu’il convient de vérifier à la réception des travaux pour s’assurer de leur bon déroulé.

Propos recueillis par Matthieu Combe

Fin de vie des circuits imprimés : enfin une méthode de traitement non polluante ?

Hors composants, les circuits imprimés contiennent 70 % de particules non métalliques et 30 % de métaux. Si le démantèlement des appareils électroniques permet de récupérer une partie des métaux par séparation magnétique ou électrostatique, la toxicité du mélange de résines, de fibres et d’additifs qui perdurent n’est pas un secret, mais un problème à résoudre.

Les composés bromés : des produits dangereux

Pour éviter les risques d’incendie, les résines des cartes électroniques contiennent des retardateurs de flamme, notamment des ignifugeants bromés comme les PBDE (Polybromodiphényléther). Très utilisés dans l’industrie, ces composés bromés sont suspectés d’être des perturbateurs endocriniens et d’être bioaccumulables : on les retrouve ainsi tout au long de la chaîne alimentaire. Autant dire que leur élimination est un casse-tête, surtout qu’on les retrouve un peu partout puisqu’ils représentent environ 30 % des ignifugeants du marché.

Méthode d’élimination du brome

Une équipe de chercheurs de la Sun Yat-sen University de Canton (RPC) s’est ainsi attaquée au problème de l’élimination du brome des déchets de cartes électroniques. La méthode qu’ils ont développée consiste dans un premier temps à concasser les circuits imprimés et à séparer la partie métallique du reste, par des procédés de séparation conventionnels.

Les particules non métalliques (résines phénoliques et époxy, fibres, PBDE, etc.), d’une taille de 1 à 2mm, sont ensuite broyées à l’aide d’un broyeur à boulets, une machine en rotation dans laquelle sont placées des billes d’agate permettant de transformer les matériaux en de fines poudres.

Jusqu’ici, rien d’extraordinaire : la subtilité de la méthode qu’ils ont développée vient de l’ajout de “Nanoscale zero-valent iron (nZVI)”, une poudre de fer pur nanométrique (50nm). En effet, des études précédentes ont montré l’efficacité du nZVI en tant que réactif dans le cobroyage de composés organiques halogénés (chlorés, bromés ou fluorés).

Un mécanisme efficace, mais améliorable

L’étude qu’ils ont publiée dans le journal ACS Sustainable Chemistry & Engineering montre ainsi que le nZVI fournit des électrons aux liaisons chimiques C-Br, ce qui permet de favoriser la débromation. Le brome se retrouve ensuite “piégé” autour des nanoparticules de fer, sous forme de phases inorganiques FeBr2.

Après broyage, la quantité de brome présente en surface des particules a ainsi diminué de 50 %. Bien qu’améliorable, ce résultat est tout de même encourageant. Par ailleurs, la transformation des granulats en molécules organiques de quelques dizaines de microns est en soi intéressante, car elle facilite leur éventuelle élimination future.

D’après les travaux de Xi Chen, Jie Zhu, Jujun Ruan, Ye-tao Tang et Rong-liang Qiu (Guangdong Provincial Key Laboratory of Environmental Pollution Control and Remediation Technology, School of Environmental Science and Engineering, Sun Yat-sen University, 135 Xingang Xi Road, Guangzhou 510275, People’s Republic of China).

Source : ACS news service

Le conditionnement des déchets nucléaire pour l’enfouissement questionné ?

Une étude pilotée par l’université américaine de l’Ohio, et publiée dans la revue Nature Materials, sur le comportement des verres utilisés pour confiner les déchets nucléaires à vie longue (des milliers d’années) montre que la corrosion est « accélérée de façon significative » dans certaines conditions. Xiaolei Guo, principal auteur de l’étude, signale dans un communiqué que « cela indique que les modèles actuels ne sont peut-être pas suffisants pour garantir la sûreté du stockage de ces déchets. »

Plus précisément, il y aurait interaction entre l’acier des fûts et le verre ou la céramique, sous l’influence de l’eau d’infiltration (l’eau finit en effet toujours par atteindre, un jour, les stockages), accélérant le processus de dégradation des fûts et risquant de libérer des éléments radioactifs (d’abord dans le sol, puis, potentiellement remontant à la surface).

Le Commissariat à l’énergie atomique et aux énergies alternatives (CEA), dont l’un des représentants a participé à l’étude, rappelle que celle-ci « s’inscrit dans le cadre du projet américain de stockage géologique à Yucca Mountain ». Un projet arrêté, puis récemment repris (mais toujours pas abouti), qui vise à stocker en profondeur, comme dans Cigéo en France, des déchets radioactifs de haute activité. Néanmoins, signale Frédéric Plas, directeur R&D de l’Agence nationale des déchets radioactifs (Andra), interrogé par Techniques de l’Ingénieur, Yucca Mountain, dans le Nevada, « est un site particulier, puisqu’il est situé dans la roche volcanique, et il s’agit d’un milieu non saturé avec des poches d’eau ». En général, les trois grandes roches envisagées pour de tels stockages sont l’argile, le granit, voire le sel. D’où les études américaines sur le sujet.

En outre, aux Etats-Unis, insiste le responsable de l’Andra, « comme les combustibles usés ne sont pas retraités comme en France, la majeure partie des déchets à stocker sont constitués de combustibles usés, qui sont aujourd’hui entreposés près des centrales américaines. »

Des conditions très différentes en France

Par ailleurs, indique le CEA, « les conditions expérimentales des travaux correspondent aux conditions d’environnement attendues à Yucca Mountain : expériences conduites sous air et donc en présence d’oxygène, avec une concentration élevée d’ions chlorures favorisant la corrosion par piqûre des aciers inoxydables ». Or, insiste le CEA, « les conditions étudiées dans cet article ne sont pas représentatives de celles de Cigéo. En effet, dans Cigéo, l’oxygène apporté par la ventilation du stockage sera consommé très rapidement par réaction avec les minéraux, une fois le stockage fermé. L’eau qui arrivera au contact du colis primaire en inox ne contiendra pas d’oxygène. De plus, les concentrations en ions chlorures des eaux présentes dans la couche argileuse du Callovo-Oxfordien de Cigéo sont très largement inférieures à la concentration prise en compte dans l’étude de Nature Materials. Dans ces conditions, le mécanisme de corrosion par piqûre est très peu probable et serait limité à la surface du colis vitrifié, si ce phénomène devait se produire. »

Le CEA rappelle qu’en lien étroit avec l’Andra, il « mène depuis de nombreuses années des travaux sur la dissolution du verre dans les conditions du stockage profond Cigéo et sur les mécanismes de corrosion spécifiques des aciers. Ces phénomènes sont pris en compte dans les calculs de performances de l’Andra pour Cigéo. »

En outre, le procédé de vitrification permet d’intégrer les éléments radioactifs dans un verre, qui présente de bonnes propriétés de confinement. « En France, les déchets vitrifiés de haute activité sont issus du traitement des combustibles usés, mis en œuvre à La Hague. Une fois les matières valorisables extraites, les déchets sont mélangés à très haute température dans un verre en fusion. La formulation du verre est adaptée selon la composition chimique des solutions à vitrifier : elle dépend donc de la nature des combustibles traités. »

Ensuite, « le verre est placé dans un conteneur en inox, ce qui constitue le colis primaire » pour le stockage futur dans Cigéo, indique Frédéric Plas. « Ce colis primaire est introduit dans un conteneur de stockage en acier bas carbone d’une épaisseur de 55 à 60 mm », qui constitue une barrière supplémentaire grâce à sa résistance à la corrosion, et à sa grande ductilité. Et le directeur R&D de l’Andra de préciser que l’analyse de sûreté ne prend pas en compte l’acier du colis primaire pour réaliser l’étanchéité du stockage final.

Puis ces conteneurs sont placés dans des alvéoles creusées dans la couche argileuse du Callovo-Oxfordien, de la région de Bure, saturée en eau et en milieu réducteur, qui joue ainsi un rôle de barrière également sur 130 à 140 m en moyenne. « Les alvéoles elles-mêmes sont d’ailleurs chemisées d’acier, et d’un coulis cimentaire au PH bas », ajoute Frédéric Plas. Le tout assure ainsi une étanchéité pour des centaines d’années.

A noter qu’en Finlande, où est implanté le site de stockage pour déchets à vie longue d’Onkalo, ou en Suède, la couche externe est granitique et laisse passer l’eau. Les Finlandais et les Suédois placent leurs déchets (là encore beaucoup de combustibles usés, puisqu’ils ne font pas de retraitement) dans des fûts en cuivre (d’environ 70 mm d’épaisseur), lesquels sont insérés dans des mini-puits couronnés de bentonite.

Cybersécurité : l’Anssi annonce ses mesures et ambitions au FIC

Lors du forum international de la cybersécurité (FIC), qui s’est déroulé du 28 au 30 janvier à Lille, Guillaume Poupard, directeur général de l’Agence nationale de la sécurité des systèmes d’information (Anssi) a profité de l’occasion pour annoncer ses nouvelles mesures et ambitions pour les années à venir, dont une critique pour les opérateurs d’importance vitale et les opérateurs de services essentiels et administrations : la sécurité de l’Active Directory (AD).

L’Active Directory est un annuaire qui répertorie les éléments d’un réseau administré tels que les comptes utilisateurs, les serveurs, les postes de travail, les dossiers partagés ou encore les imprimantes. Son objectif principal est de fournir des services centralisés d’identification et d’authentification à un réseau d’ordinateurs. Il est, selon l’Anssi, “un élément critique permettant la gestion centralisée de l’ensemble des permissions sur les différents domaines qui composent un système d’information (SI) Microsoft. L’obtention de privilèges élevés sur l’AD entraîne par conséquent une prise de contrôle instantanée et complète de tout le SI”. L’Agence a ainsi développé un service ADS (Active Directory Security) orienté clients pour les aider à durcir le niveau de sécurité de cet annuaire.

“L’Active Directory est au centre d’un nombre incroyable d’affaires”, confie Guillaume Poupard lors du Forum international de la cybersécurité. “Les attaquants qui entrent dans les réseaux et prennent le contrôle de l’AD sont les rois du pétrole. La bonne configuration de l’AD est centrale”. A cet effet, l’Anssi met à disposition l’outil de collecte ORADAD pour récupérer l’ensemble des données permettant d’évaluer le niveau de sécurité des acteurs dits critiques – opérateurs d’importance vitale, opérateurs de services essentiels, administrations – de manière concrète, en lui donnant une note entre 1 à 5. Le niveau obtenu dépend de la gravité des vulnérabilités : 1 est synonyme de défauts critiques, 5 de haute sécurité. “La première fois, le partenaire a 1”, ajoute Guillaume Poupard. “Et je n’ai pas beaucoup de contre-exemple.”

Un outil complexe à paramétrer

Une question se pose : est-ce l’Active Directory le problème ? “Quand on sort l’AD de sa boîte, lorsqu’on l’installe, l’outil ADS lui donne une note de 3. C’est lorsque celui-ci est paramétré par l’utilisateur qu’il descend à 2 voire 1. C’est une technologie complexe à mettre en œuvre” justifie Guillaume Poupard. “En général, les utilisateurs qui le déploient dégradent involontairement la sécurité. Ce n’est pas un produit mal fichu de base, ce n’est pas un produit non sécurisable. C’est un outil difficile à maîtriser.”

L’objectif pour l’Anssi est de mettre à disposition des outils pour assurer l’audit de ces entreprises et des solutions “toutes prêtes” pour les personnes qui ne savent pas configurer leur AD. Selon le constat de l’Anssi : la majorité. “Le problème est à la fois sa complexité mais également son rôle central” détaille Guillaume Poupard. “On ne peut pas enfermer un AD sous une cloche de verre pour que ses problèmes de sécurité n’aillent pas contaminer le reste. Il est connecté à beaucoup de choses.”

Faire de la sécurité positive

L’évaluation par note permettrait de faire passer un message clair au décideur qui ne sait pas forcément ce qu’est un AD : le message est vite compris lorsque le niveau de sécurité est à 1 sur une échelle de 5. “Nous apportons un service, en expliquant les mesures à prendre pour passer au niveau 2, et suivants” ajoute Guillaume Poupard. En effet, chaque niveau donne accès à une liste de recommandations adaptées pour corriger les problèmes importants et autres points d’attention à intégrer. Une nouvelle évaluation est faite, avec une nouvelle note. “Notre méthode est globalement efficace” se réjouit le représentant. “Nous faisons de la sécurité positive, avec des progrès concrets qui se réalisent”.

Un portail en ligne appelé Club SSI, regroupant des outils d’accompagnement à la sécurisation des opérateurs réglementés et à la sphère publique, est en cours de développement. Une première version est déjà disponible pour les entités publiques, via le Réseau interministériel de l’Etat (RIE).

Ces autres mesures de l’Anssi…

Lors du FIC, l’Anssi a également rappelé l’importance de se rapprocher des spécialistes d’autres filières technologiques. Le directeur de l’Agence cite celle de l’intelligence artificielle en exemple, de plus en plus utilisée par les cyberattaquants et les opérateurs de défense. “Nous avons un écosystème en intelligence artificielle qui ne parle presque pas de sécurité alors que c’est un sujet fondamental pour le développement d’une activité. Et de notre côté, nous avons besoin d’intégrer les évolutions de cette technologie dans notre métier. Les attaquants ont compris cette importance.”

Former à ces compétences est également crucial. A la rentrée prochaine, l’Anssi va travailler en étroite collaboration avec l’Education Nationale pour former les lycéens de seconde et première en sécurité numérique. L’Anssi rebondit également sur la création du service national universel (SNU) pour “faire passer des messages utiles aux jeunes”.

L’ambition de l’Anssi et des acteurs de la cybersécurité est de construire sa souveraineté avec le soutien de l’Europe. “Notre souveraineté nationale dépend de l’Europe, tout comme l’Europe a besoin de la France pour se développer dans les domaines du numérique et de la cybersécurité”, affirme Guillaume Poupard. En témoignent les actions mises en place : Cyber Act, directive NIS, règlement eIDAS… La souveraineté européenne passera par les technologies. Première mise sur la table : la 5G. “Nous avons réalisé une analyse de risques commune sur la 5G” ajoute le directeur. “La Toolbox 5G de la Commission européenne montre ce que l’on peut faire dans les années à venir pour compter sur une 5G robuste, permettant le développement économique et d’assurer une souveraineté. Même si tous les composants ne sont pas européens.”

Optimiser le spectre solaire grâce à des films maraîchers

Des films plastiques roses capables d’améliorer les rendements et la qualité des cultures sous abris, tel est l’aboutissement d’un projet mené par la société Cascade, en collaboration avec l’IRHS (Institut de recherche en horticulture et semences) et l’IMMM (Institut des molécules et des matériaux du Mans). A l’origine de ce matériau adapté aux cultures maraîchères, une spécificité des plantes lorsqu’elles captent l’énergie lumineuse pour produire des métabolites carbonés. «Au moment de la photosynthèse, les végétaux absorbent préférentiellement certaines longueurs d’onde du spectre solaire tels que le bleu et le rouge, explique Soulaiman Sakr, enseignant-chercheur à Agrocampus Ouest. A l’inverse, d’autres sont peu utiles à la plante comme le vert, voire néfastes comme les ultra-violets».

Des substances optiquement actives ont donc été incorporées dans les films traditionnels. Classées dans la catégorie des fluorophores et aux propriétés fluorescentes, elles ont la capacité d’absorber le vert pour le convertir dans le rouge, tandis que l’ultra-violet est transformé en bleu. «Nous ne pouvons pas en dévoiler davantage sur notre technologie que nous avons brevetée» confie Séverine Lemarié, Ingénieur R&D Agronome à la société Cascade.

Des fruits plus sucrés et une maturité avancée

Plusieurs essais menés dans des stations d’expérimentation et chez des producteurs ont validé le procédé et son efficacité. Le premier a débuté en 2013 sur le melon en France puis en Espagne et au Maroc. « Sur une période de 6 ans, nous avons constaté, en moyenne, une augmentation du rendement de 7 à 10% comparé aux melons cultivés sous films plastiques traditionnels », déclare Soulaiman Sakr. « Ces fruits se sont aussi révélés être plus sucrés et sont arrivés à maturité quelques jours avant les autres. Les bénéfices sont d’autant plus importants que les conditions de production ne sont pas optimales, comme par exemple face à un manque d’ensoleillement ». Seul bémol, les fluorophores introduits dans le plastique perdent leurs propriétés après une année d’utilisation sous l’effet des facteurs environnementaux. Une contrainte mineure puisque les producteurs de melon n’utilisent pas plus d’une année les films traditionnels car ils ont l’habitude de les percer de trous au fur et à mesure de l’avancée de la saison.

Pour chaque culture, une nouvelle formulation à base d’additifs est développée et incorporée aux films pour s’adapter aux spécificités de la plante. Lors d’essais conduits en France sur la pomme de terre primeur, de 2016 à 2018, un gain de rendement moyen de 9% a été observé ainsi qu’une croissance végétative plus rapide permettant une récolte avancée d’une semaine. Et grâce aux travaux de recherche, la durée d’utilisation des films s’est prolongée pour cette culture. «Ils sont 100% efficaces jusqu’à la fin de la première saison puis commencent à perdre en efficacité sans que nous ayons encore mesuré précisément le degré», complète Séverine Lemarié. «La 3ème année, les propriétés deviennent inactives mais le film peut être utilisé comme une protection traditionnelle».

/ société Cascade

Des recherches étendues à l’Italie et l’Amérique du Sud

Commercialisés depuis 2018, la société Cascade conçoit les additifs capables d’agir sur les longueurs d’onde puis les vend à des fabricants de films plastiques qui les incorporent aux films traditionnels par un procédé d’extrusion. L’entreprise annonce un surcoût compris entre 2 à 3% de la valeur de la culture. «Pour des melons dont le produit par hectare est d’environ 20 000 euros, la dépense supplémentaire est d’environ 400 €» ajoute Séverine Lemarié. Dans le passé, d’autres sociétés ont commercialisé des films capables d’agir sur le spectre solaire. «Le procédé n’était pas le même. Ils fonctionnaient grâce à un système de filtre qui abaissait l’ensemble des longueurs d’onde. Ils se sont révélés trop chers et ont progressivement disparu. Notre technologie fonctionne par conversion du spectre solaire» précise Séverine Lemarié.

Le projet de recherche va se prolonger jusqu’en 2022. L’objectif sera de mieux mesurer l’impact de ces films sur la qualité sanitaire des plantes ainsi que de définir les besoins en intrants, en eau et minéraux en conditions d’utilisation. Des essais doivent aussi s’étendre en Italie et en Amérique du Sud. «Cela fait plus de 5 ans que nous travaillons sur ces films, nous avons suffisamment de recul pour savoir dans quelles conditions ils sont les plus efficaces. Nous sommes satisfaits car l’augmentation des rendements n’est pas réalisée au détriment de la qualité. Nous souhaitons à présent concevoir un modèle pour prédire les résultats» conclut  Soulaiman Sakr.

Crédits photo de Une : société Cascade

Un raid scientifique à la découverte du plateau Antarctique

Pendant plus d’un mois, du 7 décembre au 17 janvier, des scientifiques du CNRS, de l’Université Grenoble Alpes, en collaboration avec le programme antarctique italien, ont réalisé un raid qui renoue avec les expéditions de très grande ampleur du siècle passé. Le point de départ ? Le station franco-italienne Concordia, en direction du pôle Sud. La mission visait à faire différentes mesures et à prélever des calottes de glace pour mieux comprendre l’évolution historique de l’Antarctique et mieux prévoir la hausse du niveau des mers.

Par des températures oscillant entre -25°C et -45°C, le convoi de 243 tonnes a parcouru près de 1 350 km en totale autonomie, à une vitesse moyenne de 10 km/h. À bord, cinq scientifiques, un mécanicien et un médecin. « Ce raid est une grande réussite », se félicite Joël Savarino, directeur de recherche CNRS à l’Institut des géosciences de l’environnement et responsable scientifique du raid.

Estimer les précipitations au cœur du continent blanc

Le projet scientifique souhaite vérifier à quel point l’accumulation de neige sur le plateau Antarctique permet de contrebalancer la fonte accrue de la calotte, notamment sur les côtes. Selon le rapport spécial du GIEC sur les océans et la cryosphère, l’Antarctique est en effet l’une des plus grandes incertitudes sur la montée des eaux sur le prochain siècle. « L’une des composantes de la montée du niveau des mers est la capacité qu’a le continent à accumuler de la neige : est-ce qu’il va le faire plus ou moins dans les années à venir ? C’est une question importante qui va jouer sur la vitesse de montée du niveau des mers », prévient Joël Savarino.

Le projet s’intéresse aussi au paléoclimat, ainsi qu’à la façon dont les informations climatiques et environnementales sont enregistrées dans la glace. Le raid s’est donc rendu dans les endroits les plus arides du continent. Les scientifiques y ont exploré les « surfaces vitrées » et ses mégadunes. La glace y est à nu et forme des ondulations de grande échelle, observables par satellite. Les scientifiques y ont extrait des carottes de glace pour mieux comprendre les archives du climat. La zone aride du plateau antarctique est considérée comme le meilleur analogue actuel des périodes glaciaires, avec des accumulations de neige extrêmement faibles : moins de 2 cm d’eau par an. « L’idée est de voir si dans les premiers mètres, la même histoire est enregistrée dans les zones de mégadunes que dans les calottes des autres zones de l’Antarctique », précise Joël Savarino

Au total, près de 900 mètres de carottes de glace ont été prélevées sur différents sites, soit 6 tonnes. « J’ai été particulièrement surpris par la dureté de la neige, explique Philippe Possenti, ingénieur d’étude CNRS à l’IGE et foreur du raid. Je n’avais jamais foré de la glace aussi difficile que dans les zones de mégadunes et de surfaces vitrées : la dureté de la glace y est presque tout de suite équivalente à celle que l’on observe généralement à partir d’une centaine de mètres. »

Sur place, le raid a aussi réalisé des profils radars pour sonder l’empilement des couches de neige dans les différentes zones traversées. Et ils ont déployé des instruments de mesures autonomes : six stations sismiques, cinq stations GPS pour étudier l’épaisseur de la glace, la sismicité et les microdéformations liées à la dynamique glaciaire. En plus, deux stations météo automatiques et deux stations neige permettront de mieux prévoir la météo dans l’hémisphère sud et de mieux suivre l’évolution de la neige. Des piquets ont été plantés dans la neige pour suivre l’accumulation de la neige dans le temps et l’espace. Les premiers résultats sont attendus pour l’année prochaine. Il faudra alors retourner sur place pour relever les données des stations sismiques, soit par avion si possible, soit par l’organisation d’un nouveau raid.