Pour une réfrigération efficace : un défi mondial pour le climat

Techniques de l’Ingénieur se faisait récemment l’écho d’une nouvelle étude montrant que la climatisation pourrait devenir inévitable à Paris dans les prochaines décennies. Aujourd’hui, le Programme des Nations unies pour l’environnement (PNUE) et l’Agence Internationale de l’Energie (AIE) appellent, dans un nouveau rapport, à rapidement mettre en place un refroidissement respectueux du climat pour réduire les émissions de gaz à effet de serre.

Des appareils qui se multiplient à vitesse grand V

3,6 milliards d’appareils de réfrigération – climatiseurs, réfrigérateurs… – sont utilisés dans le monde aujourd’hui, et ce nombre augmente de 10 appareils par seconde. En 2018, le stock mondial d’équipements de refroidissement a consommé environ 3 900 térawattheures d’électricité sur l’année (TWh/an). Cela représente environ 17 % de la demande mondiale en électricité. La climatisation représente la plus grande part et consomme actuellement environ 2 000 TWh/an.

Ce rapport de synthèse portant sur les émissions et les politiques de refroidissement prévoit la généralisation de ces équipements. Ils devraient plus que tripler pour atteindre 14 milliards en 2050. Selon l’AIE, le doublement de l’efficacité énergétique de l’industrie du refroidissement et la transition vers des réfrigérants plus respectueux du climat permettraient de réduire le besoin de 1 300 gigawatts de capacités de production d’électricité supplémentaires pour répondre au pic de demande en 2050. Cette mesure permettrait d’économiser jusqu’à 2 900 milliards de dollars au même horizon.

Des liens étroits entre refroidissement et réchauffement

Les systèmes de refroidissement contribuent à amplifier le changement climatique à deux niveaux. Ils utilisent des hydrofluorocarbures (HFC), des gaz à effet de serre extrêmement puissants. En plus, ils nécessitent beaucoup d’électricité pour fonctionner, principalement obtenue par des énergies fossiles. À mesure que le climat se réchauffe, la demande croissante en refroidissement renforce le réchauffement dans une boucle de rétroaction destructrice. « Sans intervention politique, les émissions directes et indirectes de la climatisation et de la réfrigération devraient augmenter de 90 % par rapport aux niveaux de 2017 d’ici 2050 », prévient le rapport.

En améliorant l’efficacité énergétique des systèmes de réfrigération dès aujourd’hui, grâce aux plans de relance, le rapport estime qu’il serait possible de réduire de 210 à 460 milliards de tonnes d’émissions de CO2 au cours des 40 prochaines années. C’est l’équivalent de 4 à 8 ans d’émissions mondiales de gaz à effet de serre, sur la base de 2018.

Apprendre de la crise sanitaire

« Alors que les gouvernements mettent en place des plans de relance économique massifs pour faire face aux conséquences économiques et sociales de la crise de la COVID-19, ils ont une occasion unique d’accélérer les progrès en matière de refroidissement efficace et respectueux du climat, alerte Fatih Birol, directeur exécutif de l’AIE. En améliorant l’efficacité du refroidissement, ils peuvent réduire le besoin de nouvelles centrales électriques, diminuer les émissions et faire économiser de l’argent aux consommateurs. »

La crise sanitaire a montré l’importance du refroidissement afin de protéger les plus vulnérables. Il faudra demain assurer le refroidissement lors des vagues de chaleur pour protéger les plus fragiles, et plus généralement l’ensemble des populations des pays chauds. Le refroidissement est capital pour stocker les aliments frais, assurer un approvisionnement énergétique stable et continu, mais aussi pour protéger les vaccins sensibles à la température.

Des pistes politiques et commerciales

Les solutions politiques sont déjà sur la table. En 2016, les 197 Parties au Protocole de Montréal sur la protection de la couche d’ozone ont adopté l’amendement de Kigali. Il programme la fin progressive des HFC d’ici 2050. La suppression des HFC devrait permettre de réduire de 0,4°C le réchauffement de la planète d’ici à 2100. Le rapport incite à la ratification et la mise en œuvre universelle de cet amendement. Le PNUE et l’AIE appellent en plus les pays à prendre en compte des engagements sur le refroidissement dans le cadre de la mise à jour des contributions nationales (NDC) à l’Accord de Paris.

Afin d’accélérer la transition, il faut facilement identifier les produits les plus performants. Le rapport invite à élaborer des normes minimales de performance énergétique, ainsi qu’un étiquetage de l’efficacité énergétique. Il propose de déployer des campagnes de sensibilisation pour « mettre fin au dumping de produits nocifs pour l’environnement » et « éviter le fardeau des technologies de refroidissement obsolètes et inefficaces ».

L’AIE et le PNUE promeuvent des codes de construction pour réduire les besoins en réfrigérant. Cela passe par l’intégration du refroidissement des quartiers dans la planification urbaine, l’amélioration de la conception des bâtiments, le déploiement des toitures végétales et l’ombrage des arbres. En plus, il faudra améliorer les chaînes du froid pour réduire les pertes de denrées alimentaires et réduire les émissions liées.

Pour le solaire agricole, l’OPECST mise sur l’agrivoltaïsme

Le document rappelle tout d’abord : « À la croisée des enjeux climatiques et énergétiques, l’agriculture doit relever les défis de la production végétale et animale indispensable pour notre alimentation, de la moindre émission de gaz à effet de serre, du stockage du carbone dans les sols, du maintien voire de la reconquête de la biodiversité, de la récupération des déchets mais aussi de la production d’énergies renouvelables. L’agriculture permet de mobiliser des terres et des matières premières nécessaires à la production d’électricité, de gaz, ou de carburants. »

Les rapporteurs énoncent 20 propositions pour développer la production d’énergie dans le secteur agricole ; un secteur qui représente déjà environ 20 % de la production renouvelable en France répartis sur quelque 50 000 exploitations, soit 3,5 % de la production nationale d’énergie. Certaines énergies sont davantage produites dans le secteur agricole : 96 % de la production nationale de biocarburants, 83 % pour l’éolien, 26 % pour le biogaz, 13 % pour le solaire photovoltaïque et 8 % pour la biomasse (bois, déchets, etc.) productrice de chaleur.

Des mesures sectorielles

L’OPECST énonce 11 propositions d’ordre sectoriel. D’abord (5 propositions sur les onze), les parlementaires jugent qu’il faut développer de manière prioritaire la méthanisation (fabrication de méthane à partir de déchets organiques) et la coupler le plus souvent possible à la méthanation (fabrication de méthane, en associant hydrogène et CO2). Il est donc nécessaire d’accroître les ambitions « trop modestes » de la Programmation pluriannuelle de l’énergie (PPE) sur le biogaz. Il faut en outre défendre le droit à l’injection du biogaz dans le réseau national. En parallèle, les parlementaires réclament une traçabilité des intrants, notamment pour la bonne qualité des digestats (pour l’épandage), ainsi qu’un suivi régulier de ces installations. Enfin, l’OPECST souligne la nécessité de réduire les fuites indésirables lors du process.

Parmi les autres mesures sectorielles, deux intéressent le stockage. L’OPECST estime que le stockage constitue le seul moyen de résoudre les problèmes d’intermittence des filières photovoltaïque et éolienne. Par ailleurs, l’OPECST juge qu’il faut développer les technologies et les infrastructures de stockage d’énergie via le « power-to-gas », notamment en produisant plus particulièrement de l’hydrogène voire du méthane de synthèse. Reste qu’il faut que ceux-ci soient issus de sources d’énergie renouvelable, voire du nucléaire, option que n’exclut pas l’Office parlementaire, car bas-carbone, a indiqué Jean-Luc Fugit.

En matière d’électricité, l’Office propose de « rehausser les limites des travaux de renforcement prévus par le compte d’affectation spéciale (CAS), nommé Financement des aides aux collectivités pour l’électrification rurale (Facé). »

Le rapport mise par ailleurs, pour le solaire, sur l’agrivoltaïsme. Rappelant que l’agriculture représentait, en 2015 quelque 13% de la production PV (photovoltaïque) du pays, le rapporteur indique en effet que ce type de déploiement du PV ne va pas à l’encontre de la consommation de terres de qualité (première proposition du rapport), limitant ainsi l’artificialisation des sols.

Il permet en outre de mettre l’accent sur l’innovation. Le rapporteur juge ainsi que les seuils proposés lors des appels d’offres pourraient être relevés en la matière.

Côté biocarburants, l’Office signale qu’il faut passer aux technologies innovantes, notamment pour l’aéronautique, en prenant en compte le retour d’expérience de la première génération de biocarburants.

Enfin, l’OPECST s’interroge sur le bien-fondé de continuer à soutenir autant l’éolien terrestre.

Ces mesures impliquent de redéployer les soutiens aux différentes filières, signale Jean-Luc Fugit, par exemple en « donnant » moins pour l’éolien terrestre alors que la R&D, l’agrivoltaïsme et la méthanisation nécessitent plus d’aides.

Neuf propositions d’ordre général

Au titre des mesures d’ordre général, le rapporteur a souligné d’abord la nécessité de concilier la production destinée à l’alimentation et l’artificialisation des sols avec les besoins énergétiques. Ensuite, l’OPECST estime qu’il faut clarifier la stratégie de développement énergétique dans le monde agricole et avoir une meilleure cohérence des politiques, avec un renforcement du rôle du parlement, notamment au moment de la deuxième période de la Programmation pluriannuelle des investissements (PPE), en 2023. Il faut plus de « transversalité », estime le rapporteur, entre les différents ministères concernés (Transition écologique, Agriculture et Economie), évoquant la possibilité de travailler en « mode projet ». Troisième point évoqué, la nécessité d’un soutien plus fort à la recherche en la matière. Ensuite, « il faut des données quantitatives, avec une approche cycle de vie (ACV) » insiste le rapporteur. La cinquième proposition vise à mettre en avant des circuits courts dans l’énergie, à l’image de ce qui se fait dans d’autres domaines ; ce qui impliquerait d’adapter les tarifs réglementés, insiste Jean-Luc Fugit. Puis, il faudrait déployer un projet de territoire, afin de concilier les différents acteurs. Et de demander, en outre, une « démarche de certification », en mettant en avant un « label agroénergie », par exemple. Egalement, il est nécessaire, estime l’OPECST, de disposer d’une offre de formation ad hoc pour répondre à l’enjeu. Et enfin, une réforme du foncier agricole doit pouvoir être envisagée d’ici à la fin du quinquennat.

*L’OPECST est composé de 18 députés et de 18 sénateurs. Son président est le sénateur de la Meuse, Gérard Longuet (LR), et le vice-président est le député de l’Essonne, Cédric Villani.

Revue du Web #136 : les vidéos les plus étonnantes du mois

Le robot-pince du MIT

Le laboratoire de l’université du MIT a développé un robot-pince capable de se saisir d’objets déformables et de les manipuler avec précision. Ce robot est doté d’une telle précision qu’il est capable de saisir délicatement un câble de casque audio, de glisser jusqu’à la prise jack, et d’insérer cette dernière dans le port auxiliaire d’un baladeur.  Il est équipé de pinces dotées de capteurs tactiles qui permettent d’ajuster en permanence la force de frottement sur le câble, et de le centrer entre les pinces pour éviter de le laisser tomber lors des manipulations.

Un nouveau dauphin pour les parc aquatiques

Les parcs aquatiques sont loin d’être un environnement idéal pour les créatures marines. Une entreprise d’effets spéciaux propose une alternative avec un animatronique qui pourrait remplacer les dauphins lors des spectacles aquatiques et des séances de nage. Ce dauphin robotique se déplace sous l’eau et reproduit précisément les mouvements de nage semblables et le comportement d’un vrai dauphin. Grace à une commande dédiée, un opérateur contrôle le dauphin qui peut interagir avec les potentiels visiteurs.

Comment les serpents peuvent-ils voler ?

Des ingénieurs ont cherché à comprendre comment des serpents peuvent effectuer des vols planés sur plus de 10 mètres. Ils ont porté leur attention sur Chrysopelea paradisi, un serpent capable de se mouvoir dans la canopée des arbres et qui ondule d’une façon spécifique lorsqu’il vole d’une branche vers une autre.
Ces contorsions sont spécifiquement adaptées à l’aérodynamisme du corps du serpent. Sans elles, il ne pourrait pas voler. Elles lui permettent de ne pas tomber en vol et de parcourir de longues distances. Ce travail de recherche devra être poursuivi pour comprendre davantage le rôle de ces ondulations spécifiques : saisir les mécanismes merveilleux que permet la nature, et pourquoi pas développer du biomimétisme sur cette base.

La viande végétale 3D

Les technologies d’impressions 3D sont une alternative à l’élevage de bétail et les conséquences négatives de cette production. Depuis, plusieurs procédés et techniques existent et plus récemment, la start-up Redefine Meat a présenté le Alt-Steak, une viande à base de plantes qui reproduit la texture, la saveur et l’apparence du steak. La marque promet que cette viande végétale a un impact environnemental 95 % inférieur à celui de son alter ego animal et qu’elle ne comporte pas de cholestérol.  Cette viande devrait être testée dans plusieurs restaurants haut de gamme à un coût permettant son lancement sur le marché à grande échelle.

Un robot piloté par des ondes lumineuses.

Une équipe de l’Université de technologie d’Eindhoven (Pays-Bas) a mis au point un robot qui réagit à la lumière et au magnétisme.
Il est capable de s’ouvrir et se refermer pour, respectivement, relâcher ou attraper des particules sous l’eau. Le principe d’activer ainsi un tel matériau est connu, mais c’est en réalité la chaleur générée par la lumière. Les chercheurs ont donc modifié la structure du robot pour qu’il s’active à l’onde lumineuse seulement. Une fois la position ouverte ou fermée obtenue, le robot se maintient dans sa position, jusqu’à ce qu’une nouvelle onde lumineuse vienne le faire changer d’état. Ce projet pourrait servir à capter des particules contaminant l’eau, notamment en utilisant simultanément plusieurs de ces robots mous.

La plus grande carte en 3D de l’Univers jamais réalisée

Des astrophysiciens du monde entier ont publié la plus grande carte en 3D de l’Univers jamais réalisée, résultant de l’analyse de plus de quatre millions de galaxies. La carte montre des filaments de matière et des vides définissant la structure de l’Univers dès ses prémices. Pour la partie de la carte relative à l’Univers d’il y a six milliards d’années, les chercheurs ont observé les galaxies les plus anciennes et les plus rouges. Pour les époques plus lointaines, ils se sont concentrés sur les galaxies les plus jeunes, bleues.
La carte confirme donc que l’expansion de l’Univers s’est accélérée et continue de le faire. Cette accélération semble être due, selon les chercheurs, à la présence d’énergie noire, un élément invisible qui s’intègre à la théorie générale de la relativité d’Einstein mais dont l’origine n’est pas encore comprise.

Des livraisons mieux gérées grâce à l’IA

« Livraison gratuite en 24 h en point-relais » pour Zalando, « Livraison express et gratuite » avec la carte Fnac+, « Livraison le soir même » pour Amazon dans certaines grandes villes… Les sites d’e-commerce se livrent une guerre sans merci. Et leur capacité à livrer le plus rapidement possible est devenue l’un de leurs principaux arguments.

Si les prix attractifs et l’optimisation de l’expérience client restent déterminants, le nerf de la guerre commerciale est de maîtriser ses stocks. Mais la variabilité de la demande, devenue plus forte et moins prévisible ces dernières années, est un vrai casse-tête pour les entreprises ! Cette perte de visibilité, combinée aux nouvelles opportunités de marché, rend le pilotage de l’activité industrielle et logistique de plus en plus difficile à maîtriser.

Et la pandémie du Covid-19 a mis en lumière les points faibles de la chaîne d’approvisionnement (ou supply chain en anglais) de nombreux secteurs d’activité.

Certes, la situation était exceptionnelle et donc impossible à anticiper. Résultat, de nombreux produits étaient en rupture de stock ou pas prioritaires. Cependant, cette crise sanitaire a révélé la trop grande dépendance (surtout dans le domaine du frais) vis-à-vis du personnel saisonnier et que la gestion en flux tendu oblige les entreprises à bénéficier d’une vue complète de leur inventaire, mais également de celui de leurs partenaires.

Tous les grands sites intègrent en effet une market place permettant à des indépendants ou des petits fournisseurs de vendre leurs produits. Si cette intégration permet aux sites d’e-commerce d’élargir leur offre, elle les oblige à suivre de près leurs partenaires pour qu’ils ajustent en temps réel leurs offres en fonction de leurs stocks. Autre casse-tête, les géants du e-commerce exploitent des centaines d’entrepôts répartis dans le monde.

« Aujourd’hui, nous avons besoin d’aller au-delà du calcul de la demande mensuelle sur un article. Nous devons être capables d’exploiter une multiplicité de données pour tendre vers une hyper-segmentation sur la demande et les produits. La gestion de la supply chain entre dans une nouvelle ère de par la finesse de gestion et même l’automatisation de certaines actions répétitives simples de pilotage », explique Laurent Penard, président de Citwell, un cabinet de conseil en management spécialisé notamment en supply chain.

D’où la nécessité de déployer des solutions d’intelligence artificielle (IA) afin d’évaluer les tendances et être capables de répondre à des pics soudains d’activité.

L’IA peut générer deux types de gains en supply chain :

  • l’amélioration du service au client ou même le développement de nouveaux services ;
  • l’amélioration de la performance opérationnelle (productivité, qualité, stocks, fin de vie…).

Pour atteindre ces deux objectifs, l’IA doit être capable d’extraire les informations les plus importantes, de les structurer et de les classer de manière automatique. Dans certains entrepôts, tous les mouvements effectués par des robots autonomes ou des opérateurs sont analysés en temps réel. Selon DHL, l’utilisation de chariots élévateurs autonomes a « atteint un niveau de maturité ».

Afin de ne pas perdre de temps dans les livraisons, les informations les plus récentes concernant le trafic sont interprétées pour corriger les trajets en temps réel et définir les meilleurs itinéraires. Toutes ces données sont ensuite intégrées à l’ordinateur de bord des camions.

Les premiers apports de l’intelligence artificielle au service de la Supply Chain et de ses nombreux défis. Copyright : Citwell/Appolo

Mais seulement 12 % des professionnels de la chaîne d’approvisionnement affirment que leur organisation utilise actuellement l’intelligence artificielle (IA) dans leurs opérations, selon le dernier rapport annuel du Material Handling Industry (MHI) (principale association professionnelle représentant l’industrie de la manutention et de la logistique).

Les résultats de cette étude menée auprès d’un millier de professionnels montrent que l’intégration de l’IA progresse très lentement. Les impacts de la crise sanitaire sur les livraisons devraient encourager ces professionnels à passer la vitesse supérieure puisque 60 % indiquent qu’ils s’appuieront sur l’IA d’ici cinq ans.

L’IA peut-elle aider les DRH à gérer le premier capital de l’entreprise : l’humain ?

Selon le cabinet d’analystes Bersin, un des poids lourds américains des RH, presque la moitié du temps des responsables des ressources humaines est accaparée par des tâches répétitives : gérer les contrats de travail, gérer les fiches de paie, développer les compétences individuelles et collectives, repérer les talents, les fidéliser…

Autant de tâches qui peuvent être automatisées entièrement ou partiellement. L’automatisation de la gestion administrative et l’aide au recrutement sont d’ailleurs les premiers objectifs de l’IA selon une étude menée par Axys Consultants auprès de 128 DRH en octobre 2019.

Les DRH estiment en effet que l’IA sera indispensable pour :

  • simplifier et optimiser la gestion administrative en automatisant les tâches (bulletins de salaire, congés…) ;
  • permettre aux salariés de gérer leurs congés, leur carrière et leur formation…
  • donner un feed-back sur l’entreprise grâce à un assistant personnel ;
  • améliorer le matching entre les candidats (l’analyse par l’IA d’un entretien d’embauche permet parfois de repérer des informations qui n’auront pas nécessairement été repérées par le DRH à ce moment-là) et les postes à pourvoir.

« Les DRH peuvent bénéficier d’un retour sur investissement immédiat avec l’automatisation de processus régis par des règles standardisées contenant peu d’exceptions et reposant sur des données structurées. C’est le principal atout de la RPA (Robotic Process Automation) “classique”, explique Jean-Luc Marini, directeur du Lab d’IA d’Axys Consultants. C’est simple à mettre en place et peu coûteux. Par exemple, les chargés de recrutement reçoivent énormément d’emails de candidatures spontanées. L’IA leur permet d’affiner le reroutage des courriers en adressant des profils adéquats à la bonne personne dans une entreprise ». 

Analyser les entretiens d’embauche

La nouvelle étape qui se profile est la RPA dite « cognitive ». Mais cette méthode est plus complexe, car la donnée à traiter n’est plus seulement structurée. Elle peut être semi-structurée ou non structurée (c’est-à-dire contenue dans des textes ou des emails, voire des vidéos).

« Il s’agit d’aller fouiller automatiquement un certain nombre de contenus pour en extraire de l’information et alimenter ensuite des fichiers ou des applications. Mais c’est plus coûteux et lourd à déployer », prévient Jean-Luc Marini.

L’étude d’Axys a également constaté que les DRH ont conscience que l’IA est synonyme de data et qu’il leur faudra se former pour en tirer parti. Si seulement un quart a peur qu’elle déshumanise leur métier (selon l’étude d’Axys), ils sont vigilants quant à sa mise en œuvre : 83 % d’entre eux s’en déclarent garants et 81 % veilleront au respect des conditions de travail.

« Les DRH ont besoin de savoir comment l’IA marche afin de comprendre pourquoi telle ou telle information est mise en avant. C’est la raison pour laquelle ils sont très attentifs aux outils qui leur sont proposés », reconnait Jean-Luc Marini.

Comprendre et exploiter les données produites par un algorithme est essentiel pour les DRH. Or, dans un premier temps, beaucoup de solutions d’aide à la décision ont été expérimentées et transposées au monde des RH. Mais ces outils génériques présentaient des limites, en l’occurrence ils ne repéraient pas des informations pertinentes que les DRH avaient justement remarquées !

« Les entreprises veulent des solutions qui répondent à leurs besoins, elles ne veulent plus tester », précise Jean-Luc Marini. Mais là aussi, il ne faut pas espérer (ou craindre) voir une IA capable de gérer entièrement toute la gestion du personnel. Une machine aura encore beaucoup de mal à capter la subtilité humaine, sa créativité, sa sensibilité.

Autre limite : les mauvaises interprétations à cause de biais discriminatoires. « Il faut être extrêmement vigilant lors de la constitution du corpus afin d’éviter ces biais. Les métiers – et les RH ne font pas exception à la règle, car ce ne sont pas des techniciens – ne sont souvent pas en capacité de juger comment a été formé le corpus d’entrainement ; or celui-ci peut présenter un biais », prévient Jean-Luc Marini.

Plus que jamais, l’intuition et l’expérience des DRH resteront encore longtemps primordiales.

Cartographie 3D de l’univers : seulement un début pour l’astrophysicien Jean-Paul Kneib

Une cartographie de l’univers sans nul autre pareil a été dévoilée par des astrophysiciens du monde entier ce lundi 20 juillet 2020. Après une vingtaine d’années de travaux réalisés dans le cadre du projet international Sloan Digital Sky Survey (SDSS), ces scientifiques ont réussi à mettre au point une carte 3D répertoriant plus de quatre millions de galaxies et de quasars, sur les deux cents milliards que compte l’univers, et couvrant près de 90 % du volume de l’univers visible. Un modèle de cette carte de l’univers, en 3D et manipulable, est à explorer ici.

Pas moins d’une centaine de chercheurs issus d’une trentaine d’institutions à travers le monde ont été mobilisés pour mener ces travaux à bien. Jean-Paul Kneib, astrophysicien à l’École polytechnique fédérale de Lausanne, est à l’origine du sondage cosmologique nommé « The extended Baryon Oscillation Spectroscopic Survey » (eBOSS) sans lequel cette cartographie spatiale n’aurait pas été complète.

Techniques de l’Ingénieur : Pouvez-vous détailler le contexte dans lequel a été conçu ce projet de cartographie de l’univers en 3D ?

Jean-Paul Kneib : Le projet Sloan Digital Sky Survey (SDSS) a commencé il y a une vingtaine d’années, et se découpe en plusieurs phases. Je l’ai rejoint en 2009, lorsque débutait la troisième. En 2011, mon rôle a été de bâtir un projet conçu pour aller couvrir les régions de l’univers qui n’étaient pas encore cartographiées. C’est ainsi qu’est née l’idée du sondage cosmologique eBOSS, le quatrième temps du projet SDSS. Avec mes collaborateurs, nous avons décidé d’observer les galaxies et les quasars les plus lointains, couvrant la région encore inexplorée distante de six à onze milliards d’années-lumière de nous. La lumière intense des quasars est due à des trous noirs super-massifs situés au cœur des galaxies très lointaines. À l’époque du lancement du projet, il n’existait que peu d’observations de ce type. Il nous a fallu cinq années pour effectuer les nôtres, de 2014 à 2019.

Quels moyens matériels et humains ont été nécessaires à la réalisation du projet ?

Cette cartographie 3D a été réalisée à l’aide d’un télescope équipé de mille fibres optiques, situé dans le désert du Nouveau-Mexique, aux États-Unis. De nombreuses institutions venues des États- Unis, de Chine, du Japon et d’Europe ont contribué à la réussite du projet. Plusieurs universités, dont notamment celles de l’Utah, de Berkeley, de New-York, Portsmouth, Paris ainsi que l’École Polytechnique Fédérale de Lausanne (EPFL) ont également apporté leur concours.

Comment avez-vous procédé pour réaliser cette cartographie ?

La première étape de notre travail a été de réaliser une cartographie de la voûte céleste en imagerie. Cela signifie que nous avons cherché à connaître les positions angulaires des galaxies. Nous avons déterminé la latitude et la longitude dans le ciel de dizaines de millions de galaxies visibles, qui ne sont pas cachées par la Voie Lactée. Cela nous a permis d’accéder à des informations en 2D. Cependant, comme lorsque l’on prend une image avec un appareil photo, la distance des objets n’est pas retranscrite. En ce sens, la distribution en 2D ne nous fournit qu’une partie des données. Pour avoir la troisième dimension, il faudrait prendre d’autres données. En pratique sur Terre, il suffit de prendre une autre photo depuis un point de vue différent. Mais, dans notre cas, nous ne pouvions pas nous déplacer suffisamment loin de la Terre.

Comment faire alors pour obtenir la troisième dimension ?

Pour faire une mesure en trois dimensions, nous avons fait des mesures de vitesse. Ce sont des mesures d’effet Doppler, comme celles qui sont faites sur la route par des détecteurs de vitesse. Nous avons donc capté la lumière de chaque galaxie de manière individuelle, et nous avons envoyé chaque signal lumineux dans un spectrographe, qui disperse la lumière. Ensuite, nous avons analysé le spectre de chaque galaxie en fonction de sa longueur d’onde. Les longueurs d’ondes nous permettent d’évaluer la vitesse d’éloignement des galaxies. Le signal lumineux varie du bleu au rouge. Plus il se déplace vers le rouge, plus la galaxie est lointaine. L’ensemble de ces informations, ajoutées au modèle d’expansion de l’univers décrit au premier ordre par la constante de Hubble, nous a permis de tracer la carte en trois dimensions.

Quelles conclusions avez-vous tirées de vos observations ?

Nous pouvons constater que la répartition des galaxies dans l’univers est hétérogène. Certaines zones sont moins denses en nombre de galaxies. À l’inverse, les filaments sont les premiers signes de concentrations de galaxies. À leur intersection se trouvent des amas dans lesquels la concentration de galaxies est la plus grande. La distribution des galaxies nous donne donc une image très structurée à grande échelle de la distribution de la masse dans l’univers.

Vos travaux vous permettent-ils d’accéder à d’autres données cosmologiques ?

Il y a une vingtaine d’années, nous avons découvert que l’expansion de l’univers était accélérée. La variation de la vitesse d’expansion de l’univers nous renseigne sur le contenu en masse et en énergie de l’univers. L’accélération récente de l’univers suggère la présence importante d’une composante d’énergie dans ce bilan. On la nomme « énergie noire », car on ne connaît pas sa nature physique. Cette composante d’énergie noire intervient dans les équations d’Einstein qui décrivent l’évolution temporelle de l’univers. L’énergie noire est invisible et très faible en densité, et n’a aucune interaction avec la matière à l’échelle terrestre. Pour y être sensible, il faut faire des observations cosmologiques. Notre cartographie de l’univers nous permet donc d’être sensibles à cette composante fondamentale de la physique. Il est important de noter que nos travaux sont aussi sensibles à la valeur de la constante de Hubble qui définit la vitesse d’expansion de l’univers aujourd’hui, et cette valeur diffère de celle mesurée localement par d’autres travaux.

D’autres projets de cartographie de l’univers sont-ils prévus ?

Plusieurs nouveaux projets nous permettront d’accéder prochainement à de nouvelles informations. En septembre 2020 débutera le projet DESI. Grâce à un nouvel instrument robotisé de 5 000 fibres installé sur le télescope Mayall de 4m de diamètre installé dans le désert de l’Arizona aux États-Unis, nous pensons pouvoir mesurer d’ici 2024 trente-cinq millions de nouvelles distances de galaxies. D’autre part, dans le cadre du projet européen 4MOST (4-metre Multi-Object Spectroscopic Telescope), une autre expérience de cartographie sera installée en 2022 sur le télescope VISTA. Celui-ci se trouve dans l’hémisphère sud, au Chili, et permettra d’accéder à de nouvelles régions du ciel accessibles seulement depuis cette zone géographique. 2022 sera également marqué par le lancement du télescope spatial européen Euclid, dont les observations contribueront à la recherche sur l’origine de l’accélération de l’expansion de l’univers.

Image de une : La carte de l’univers apparaît comme un spectre de couleurs, sphérique. Nous nous trouvons en son centre.  / Capture d’écran Youtube : « SDSS releases largest 3D map of the universe ever created » (Perimeter Institute for Theoretical Physics)  

Les ENR surclassent les combustibles fossiles en Europe

Un nouveau rapport du think tank Ember montre que les énergies renouvelables – éolien, solaire, hydroélectricité et bioénergies – ont généré 40% de l’électricité produite dans les 27 États membres de l’Union européenne (UE-27) au premier semestre 2020. En plein cœur de la crise sanitaire, « les énergies renouvelables se sont révélées plus résilientes que les combustibles fossiles face à cette crise », observe le rapport.

Les énergies renouvelables devant les énergies fossiles

Dans le détail, l’éolien et le solaire ont généré 21 % de l’électricité européenne, l’hydroélectricité 13 % et les bioénergies 6 %. La production d’énergies renouvelables a augmenté de 11 % au premier semestre 2020, par rapport à la même période l’an dernier. Celle-ci est tirée par la croissance de l’éolien et du solaire (respectivement 11 % et 16 %), avec de nouvelles installations et des conditions météorologiques favorables.

Les énergies renouvelables surpassent pour la première fois les combustibles fossiles (34 %) dans la génération d’électricité européenne. La part de marché du charbon dans la production d’électricité de l’UE-27 est passée de 23 % en 2016 à 12 % au premier semestre 2020. En conséquence, les émissions de CO2 du secteur électrique ont chuté de 23 % au premier semestre 2020 par rapport au premier semestre 2019.

Part des énergies renouvelables, des combustibles fossiles, du charbon, de l’éolien et du solaire dans la production électrique des 27 États membres de l’Union européenne. PHOTO//Ember

Les fossiles reculent, charbon en tête

L’injection d’électricité d’origine renouvelable sur le réseau européen est prioritaire. Avec une production d’énergies renouvelables en hausse et une baisse de la demande électrique de 7 %, la part de marché restante pour les combustibles fossiles était déjà réduite. Cela a entraîné une baisse de 18 % de la production de combustibles fossiles au premier semestre 2020, par rapport au premier semestre 2019.

Selon le rapport, le charbon a été le premier à souffrir de la situation. La production de charbon a chuté de 32 %. Plus précisément, la production de houille a baissé de 34 % et le lignite de 29 %. La production de gaz a enregistré pour sa part une baisse de 6 %.

La production électrique à base de charbon continue de diminuer dans tous les pays européens. PHOTO//Ember

L’Allemagne passe derrière la Pologne

Le charbon allemand a été le plus durement touché, la production s’effondrant de 39 %, pour atteindre 47,7 térawattheures (TWh). « Ce n’est pas seulement dû à une augmentation de la production d’énergie renouvelable, mais aussi parce que l’Allemagne a exporté beaucoup moins d’électricité en raison de besoins inférieurs », prévient le rapport.

Pour la première fois, l’Allemagne a produit moins d’électricité au charbon que la Pologne (50,5 TWh). La Pologne produit désormais autant d’électricité au charbon que l’ensemble des 25 autres pays de l’UE, hors Allemagne (51,1 TWh). Ember rappelle que, contrairement à la plupart des autres pays, dont l’Allemagne, la Pologne n’a pas de plan d’élimination progressive du charbon. Sa transition reste essentielle pour une Europe neutre en carbone.

Innovantes #1 : Un pancréas bioartificiel pour traiter le diabète de type 1

Titulaire d’un doctorat en biologie cellulaire et neurosciences, Séverine Sigrist a coordonné un projet de recherches autour du diabète avant de fonder en 2011 la start-up Defymed, dans le but de simplifier le quotidien des patients.

Defymed développe des dispositifs médicaux pour améliorer la délivrance des médicaments et avoir une approche plus physiologique du traitement des maladies. « Nous avons mis en place un dispositif médical implantable dans lequel on place des cellules qui vont sécréter de l’insuline en fonction du taux de sucre du patient », explique la fondatrice. L’entreprise a levé 1,8 million d’euros fin avril 2020.

Un dispositif invisible et biocompatible

Naturellement, lorsque le taux de sucre augmente dans le sang, le pancréas produit de l’insuline pour réguler la glycémie. Or chez les patients diabétiques de type 1, les cellules du pancréas ne remplissent plus cette fonction. Le dispositif de Defymed vient donc jouer le rôle du pancréas, et les patients n’ont plus besoin de s’injecter de l’insuline pluriquotidiennement.

Le dispositif est un disque de 8 cm de diamètre qui s’implante durant un acte chirurgical d’une quinzaine de minutes puis demeure totalement invisible. Il est fabriqué à base de thermoplastiques avec des membranes poreuses, ce qui lui permet d’être biocompatible et d’empêcher les rejets.

Les phases de test à venir

Aujourd’hui, toutes les étapes pour valider le dispositif ont été franchies. En tant que medtech, donc fournisseur de technologies de santé, et non biotech, Defymed est maintenant en discussion pour réaliser un partenariat avec un fournisseur de cellules souches. Les phases de test pourront alors commencer.

Cette technologie pourra également être utilisée pour traiter d’autres maladies comme l’hémophilie A. « C’est encore plus simple que pour le diabète. Parfois, je dis qu’on a commencé par le plus compliqué car dans le cadre du diabète, c’est le glucose entrant qui définit la quantité d’insuline qui va sortir. Dans le cas de l’hémophilie, on va juste avoir besoin d’une sécrétion continue d’un facteur », raconte Séverine Sigrist.

Defymed travaille aussi sur d’autres dispositifs médicaux pour le diabète, notamment ExOlin qui est entré en phase clinique en juin 2020. Implanté dans l’abdomen, ce dispositif permet ensuite la délivrance exogène de l’insuline par injection à travers la peau.

Cet épisode fait partie de la série Innovantes.

Innovantes, les vidéos de femmes scientifiques à l’origine de technologies novatrices

Selon les chiffres dévoilés par l’IESF dans le cadre de sa 31ème enquête socio-professionnelle sur la situation des ingénieurs et scientifiques, fin 2019, 23 % des ingénieurs et 28 % des nouveaux diplômés en France étaient des femmes. Les différences entre hommes et femmes concernent également les salaires. Si les jeunes diplômés reçoivent approximativement la même rémunération, à 50 ans les femmes perçoivent un salaire brut annuel d’environ 75 000 € contre environ 90 000 € pour les hommes.

Disparités et stéréotypes

Selon Anne de Cagny, vice-présidente de l’association Femmes ingénieurs, ces disparités sont également visibles dans les choix des filières. Les étudiantes sont majoritaires en biologie et chimie alors qu’elles sont presque absentes en électronique et mécanique. « Ce choix est très stéréotypé. On imagine que les femmes doivent se diriger vers le soin donc elles se tournent vers ce qui touche à la médecine ou la biologie. Par contre en informatique, elles sont entre 4 et 10 % alors qu’historiquement, l’informatique était très prisée par les femmes, jusqu’à ce que l’image du ‘geek’ les fasse fuir », explique la vice-présidente.

Cependant, des initiatives tendent à favoriser la parité. « Même si les chiffres stagnent depuis 2013, de plus en plus d’écoles et d’entreprises sont impliquées pour l’égalité. Les améliorations dans la société touchent également les métiers scientifiques », affirme Anne de Cagny. Des associations comme Femmes ingénieurs ou Elles bougent ont l’ambition de faire connaître les métiers d’ingénieurs aux lycéennes. « À niveau égal, les femmes ont moins confiance en elles que les hommes pour aller vers des études scientifiques. Mais les freins viennent également de la famille : la distribution des rôles est parfois encore très traditionnelle, et c’est encore plus compliqué dans les milieux défavorisés », ajoute la vice-présidente de Femmes ingénieurs.

Innovantes, des vidéos de femmes qui innovent

Conscient des progrès qui restent à faire avant d’atteindre la parité dans les sciences, Techniques de l’Ingénieur s’engage pour donner davantage de visibilité aux femmes qui travaillent et innovent dans les sciences. Les interviews vidéo mettront en lumière des chercheuses, ingénieures, entrepreneuses qui innovent et font progresser leur discipline. Outre mettre en avant les femmes scientifiques trop souvent invisibilisées dans leur profession et dans les médias, ces vidéos valoriseront l’innovation dans des secteurs variés à travers les témoignages de spécialistes.

Les épisodes :

Innovantes #1 : Un pancréas bioartificiel pour traiter le diabète de type 1

Innovantes #2 : Lutter contre les biais de genre dans l’innovation [Innovations genrées 1/2]

Innovantes #3 : Des intelligences artificielles plus équitables [Innovations genrées 2/2]

Innovantes #4 : Fabriquer des diamants en laboratoire

Innovantes #5 : Déployer des ballons à l’hélium sur des sites isolés

Innovantes #6 : Une solution digitale pour la déconstruction

Innovantes #7 : Evaluer la toxicité de produits sans passer par l’animal

Le seuil d’indécence énergétique bientôt défini par décret

Un projet de décret introduisant un critère de performance énergétique en énergie finale dans la définition des critères de décence d’un logement en France métropolitaine est soumis à consultation publique jusqu’à fin juillet. Il prévoit « la consommation pour le chauffage, le refroidissement, la production d’eau chaude sanitaire, l’éclairage artificiel des locaux, les auxiliaires de chauffage, de refroidissement, d’eau chaude sanitaire et de ventilation, exprimée en énergie finale par mètre carré et par an, est inférieure à 500 kWh par mètre carré de surface habitable et par an pour les nouveaux contrats de location conclus à compter du 1er janvier 2023 ». La consommation mentionnée est celle évaluée dans le diagnostic de performance énergétique (DPE).

La notion de logement décent conditionne l’autorisation de location d’un bien. Cette notion découle de la loi de transition énergétique pour la croissance verte d’août 2015 qui avait donné lieu à un premier décret (décret du 9 mars 2017). Ce dernier intégrait la performance énergétique aux caractéristiques du logement décent. Il imposait notamment des critères d’étanchéité à l’air et d’aération. Puis, l’article 17 de la loi relative à l’énergie et au climat (LEC) du 8 novembre 2019 a imposé de fixer par décret, au plus tard en 2023, un seuil maximal de consommation énergétique à partir duquel un logement peut être considéré comme indécent.

Passoires thermiques contre logements indécents

Les passoires thermiques sont des logements mal isolés qui comportent des ponts thermiques : ils laissent entrer l’air froid l’hiver et l’air chaud l’été. Leur consommation est supérieure à 330 kilowattheures d’énergie primaire par mètre carré et par an (kWh/m2/an). Ces logements sont donc étiquetés F et G sur le DPE, les consommations s’échelonnant entre 331 et 450 kWh/m2/an (F) et dépassant les 450 kWh/m2/an (G). « Cette mesure n’a pas vocation à considérer les passoires thermiques, dans leur intégralité, comme des logements indécents, prévient le ministère de la Transition écologique et solidaire. Une mesure d’interdiction des logements F et G, même à moyen terme, apparaîtrait en l’état trop brutale. Il s’[agit] (…) plutôt de viser à travers les critères de décence les logements les plus énergivores au sein de la classe G. »

Alors qu’il y a environ 7 millions de passoires thermiques en France, le seuil d’indécence énergétique introduit par le projet de décret ne concernerait que 250 000 logements. Pour que ces logements indécents ne soient plus considérés comme passoires thermiques, il faudrait donc qu’ils gagnent deux classes énergétiques. « Pour que ce décret serve à quelque chose, il doit fixer le seuil au niveau des étiquettes F et G actuelles, et l’abaisser progressivement ensuite », alerte Marie Moisan, responsable de projets Précarité énergétique au Réseau pour la transition énergétique (Cler).

La loi prévoit par ailleurs d’éradiquer toutes les passoires thermiques, consommant plus de 330 kWh/m2/an d’ici 2028. À cet horizon, une obligation de rénovation est prévue. Un autre décret prévoira dans les prochains mois comment échelonner les seuils d’indécence énergétique pour atteindre cet objectif. Enfin, le projet de décret en consultation concernant la France métropolitaine, un autre projet de décret devrait prochainement voir le jour pour les outremers.

La tomographie ptychographique, outil d’observation inédit des microfossiles précambriens

Une publication dans la revue Scientific Reports fait état d’une avancée technologique remarquable dans l’univers de la paléontologie. Une équipe de chercheurs brésiliens et français a utilisé la tomographie ptychographique pour observer des microfossiles, une application jusque là inédite. Leurs observations ont porté sur des fossiles de bactéries vieux de 1,88 milliard d’années, issus de la formation géologique de Gunflint. Elle se trouve à Ontario, au Canada, dans la région des Grands Lacs, non loin de la frontière avec les États-Unis. L’analyse de ces microfossiles datant du Précambrien, la première ère géologique terrestre, est essentielle pour la communauté scientifique car elle apporte des informations capitales sur la formation de la vie sur notre planète.

« Une équipe du CNRS Orléans avait effectué la recherche sur le terrain, et nous a apporté les microfossiles », explique Lara Maldanis, diplômée d’un doctorat en physique appliquée à l’université de São Paulo, à la tête de l’équipe de recherche. L’ensemble des travaux a été réalisé dans plusieurs centres de recherche européens appelés synchrotrons. En leur sein se trouvent des accélérateurs de particules qui produisent le rayonnement synchrotron : une lumière extrêmement brillante rendant possible l’exploration de la matière. « Une partie des expériences de Lara Maldanis a été effectuée en France. Le reste a été mené en Suisse », ajoute Loïc Bertrand, ancien directeur de l’unité CNRS Ipanema et co-auteur de la publication. Il est question du synchrotron Swiss Light Source (SLS), situé près de Zurich.

Observer la matière sans la détruire

Pour étudier convenablement des objets aussi petits que des fossiles de bactéries, une résolution très haute, de l’ordre du nanomètre, est nécessaire. « L’étude de ces systèmes fossiles relève généralement de la microscopie électronique », explique Loïc Bertrand. Cependant, cette technologie revêt un inconvénient de taille : tout échantillon observé est inexorablement détruit. De plus, les méthodes de microscopie électronique à transmission ou à balayage ne permettent pas l’observation en 3D. Par conséquent, les scientifiques sont contraints de creuser la matière, et donc d’y faire un trou, dans laquelle se trouve la bactérie fossilisée pour réaliser une série d’images. Ensuite, la 3D est récupérée par la compilation de ces dernières.

Pour éviter ces pertes de matières, l’équipe de recherche s’est tournée vers une autre méthode d’observation. « La ptychographie n’est pas nouvelle. Les premiers travaux théoriques qui en parlent datent de la fin des années 60. Cette méthode apporte un complément important à la microscopie électronique », précise Loïc Bertrand. Mais sa capacité d’imagerie à l’échelle nanométrique explique son développement actuel dans les synchrotrons. Avec cette technologie qui fonctionne à l’aide de rayons X dits cohérents, une image 3D de l’échantillon eut être reconstruite sans avoir à le couper. « Cette méthode d’analyse convient donc bien mieux aux échantillons précieux. En effet, il serait inenvisageable de détruire d’éventuels échantillons venus de Mars », affirme Lara Maldanis. Cette dernière souligne qu’à la différence des électrons, les rayons X peuvent pénétrer dans la roche.

Reconnaître efficacement la matière organique

La ptychographie permet d’obtenir des informations précises sur la densité des matériaux, et donc d’identifier clairement leur nature. « L’utilisation de cette source cohérente fait qu’on va pouvoir reconstruire l’objet à extrêmement haute résolution. On reconstruit à la fois sa capacité à absorber les rayons X, mais aussi à les défléchir », affirme Loïc Bertrand. Dans le cas des microfossiles de Gunflint, une découverte a été faite au sujet d’un oxyde de fer. « Observés au microscope optique, les microfossiles altérés sont rouges. D’anciens travaux avaient conclu que la matière organique avait été substituée par un oxyde de fer, l’hématite. Mais grâce à l’analyse de la densité, nous avons pu constater qu’il ne s’agissait pas d’hématite, mais d’un autre oxyde de fer inattendu, la maghémite », explique Lara Maldanis.

De plus, cette méthode d’analyse permet d’interroger la biogénicité (l’origine organique) des échantillons observés. « Sur beaucoup de fossiles de ces périodes très anciennes, nous nous interrogeons sur l’origine de la matière. Nous cherchons à savoir si elle est d’origine biologique, ou si ce sont des artefacts ou des croissances cristallines qui pourraient donner l’apparence du vivant alors que ça n’en est pas », précise Loïc Bertrand. Ainsi, Lara Maldanis espère que l’imagerie par rayons X cohérents permettra de mettre fin à certaines controverses. « En 1996, des scientifiques auraient découvert les microfossiles les plus vieux au monde, 3,8 milliards d’années, dans les roches du Groenland. Mais jusqu’à aujourd’hui, nous n’avons pas la confirmation qu’il s’agisse bien de matière organique. La question reste ouverte », confie-t-elle, laissant ainsi penser que de nouvelles recherches pourraient prochainement être effectuées sur ce point.

Première européenne : l’implantation d’une prothèse grâce à la réalité mixte

La chirurgie de l’épaule est difficile, en raison notamment d’une exposition limitée de l’omoplate et de sa localisation anatomique profonde. La réalité mixte apparaît comme une technologie capable d’aider les chirurgiens à réaliser leurs opérations. Un chirurgien sera théoriquement en mesure de réaliser plus précisément l’intervention qu’il aura planifiée en amont.

La réalité mixte offre en effet une solution interactive pour reproduire au bloc opératoire le positionnement prévu lors de la planification. C’est ce qui s’est passé mi-juillet au CHRU de Tours. Deux opérations ont été menées par le Pr Julien Berhouet, du Centre de Chirurgie Orthopédique et Traumatologique de Tours Universitaire (CCOTT-U).

La première opération concernait une patiente qui avait une arthrose relativement modérée et qui ne nécessitait pas un gros travail de reconstruction. Par contre, le second patient présentait une usure et une déformation très avancées de son épaule, beaucoup plus difficile à prendre en charge sur le plan technique.

« La réalité mixte appelée Blueprint Mixed Reality Technology (Wright), utilisant notamment le casque HoloLens 2 de Microsoft, m’a été très utile, car cela m’a sécurisé dans mon geste, en particulier pour ce second cas pour lequel je devais positionner mes instruments de façon inhabituelle par rapport à un cas standard », nous a expliqué le Pr Julien Berhouet.

 

Grâce à des lunettes de réalité mixte (HoloLens 2, Microsoft), le chirurgien visualise simultanément l’épaule opérée du patient et une représentation holographique tridimensionnelle de l’épaule associée au planning préopératoire.

Une opération fonctionnelle dès septembre prochain

En amont de ces deux opérations, le chirurgien avait fait une planification préopératoire avec un logiciel dédié permettant une reconstruction en 3D des squelettes des patients. Le chirurgien implante virtuellement une prothèse dans l’épaule du patient reconstruite en 3D et optimise son positionnement. La réalité mixte offre ainsi une solution interactive pour reproduire au bloc opératoire le positionnement prévu lors de la planification.

En pratique, les données 3D du plan préopératoire sont projetées dans les lunettes du chirurgien. En utilisant des gestes de la main et des commandes vocales, le chirurgien affiche, fait pivoter et analyse la représentation holographique de l’articulation, à proximité immédiate du champ chirurgical réel. La comparaison en direct de l’épaule holographique en 3D et de l’épaule opérée guide le chirurgien dans le positionnement de la prothèse.

« Il s’agit donc d’une représentation en parfaite adéquation avec la situation des patients et ce qui a été préparé et décidé pour eux en amont. C’est en ce sens que c’est une première européenne. Il s’agit en effet d’une opération concrète et fonctionnelle que nous mettrons en place à partir de septembre prochain au CHU de Tours », précise le Pr Julien Berhouet.

En France, 18 000 patients bénéficient d’une prothèse d’épaule chaque année. La première européenne réussie à Tours facilitera le travail des chirurgiens.

Depuis près de 8 ans, l’utilisation de la réalité mixte en chirurgie de l’épaule a été l’un des principaux axes de recherche du Pr Julien Berhouet. La chirurgie prothétique de l’épaule a toujours été une expertise importante de ce service hospitalo-universitaire, grâce à l’expérience mondialement reconnue du Pr Luc Favard.

Pour construire ce projet d’application de la réalité mixte, désormais international sous l’égide du groupe Wright, l’équipe chirurgicale de Tours s’est successivement associée sur le plan scientifique fondamental à un autre acteur académique local d’importance : l’équipe de recherche Reconnaissance de Formes et d’Analyse d’Images (RFAI) du Laboratoire d’Informatique Fondamentale et Appliquée de Tours (LIFAT), actuellement dirigée par le Pr Jean-Yves Ramel, de l’École Polytechnique Universitaire de Tours (Polytech’Tours), puis une jeune start-up brestoise, IMASCAP, dirigée par le Dr Jean Chaoui.

Radar de recul

Les prochaines étapes de développement sont déjà en cours. La « spectator vision » est l’une d’elles. « Il ne s’agira pas de partager la vision de l’opérateur via un ordinateur installé dans le bloc opératoire et que tout le monde peut consulter, mais d’une communication entre deux casques, l’un porté par le chirurgien et le second par un assistant ou une infirmière du bloc opératoire », explique le Pr Julien Berhouet.

Une autre étape prévue, probablement la plus déterminante sur le plan technologique, sera la superposition de l’hologramme sur la scène réelle, ce qui implique une initialisation et un matching parfait entre le virtuel et le réel pour avoir une correspondance anatomique parfaite. Cela constituera une base pour ensuite y ajouter des outils chirurgicaux virtuels qui serviront de guides aux outils réels manipulés par l’opérateur.

Comme avec un radar de recul installé sur les véhicules, les chirurgiens pourront savoir si leur instrument est parfaitement aligné (grâce à des marqueurs positionnés sur l’omoplate et sur les instruments) et s’il peut « lancer » le geste.

« Nous savons le faire, mais c’est une solution qui n’est pas assez robuste. Nous sommes au stade d’expérimentation cadavérique pour notamment valider la précision de la superposition entre réel et virtuel », déclare le chirurgien.

Ces étapes devraient être effectives pour partie au début de l’année prochaine.

À terme, la réalité mixte pourrait être utilisée dans l’enseignement au sein d’un CHU. Un chirurgien senior serait dans son bureau pendant qu’un « junior » ferait ses premiers cas. Les deux praticiens pourraient converser à distance sans que le senior descende au bloc.

Cette technologie pourrait être également utilisée en téléchirurgie-téléexpertise, entre deux hôpitaux.

Les Objectifs de Développement Durable restent méconnus en France

« Les Nations Unies se sont données en septembre 2015 un cadre [l’Agenda 2030, ndlr] contenant 17 ODD pour que le développement puisse s’accompagner de réductions des inégalités, de lutte contre la pauvreté, d’amélioration de l’accès aux soins, à la santé, à l’éducation et pour que ce développement soit plus durable, c’est-à-dire qu’il se fasse dans un lien plus respectueux de la biodiversité et en prenant en compte la lutte contre le réchauffement climatique », rappelle Brigitte Béjean, directrice de la communication de l’Iddri, lors de la conférence « Pourquoi le cadre des Objectifs de développement durable (ODD) est-il aussi peu utilisé en France ? ». Cet agenda s’applique à l’ensemble des pays, des moins avancés aux plus développés, et à toutes les organisations.

Des pays engagés pour l’Agenda 2030

L’Agenda 2030 pour le développement durable est devenu une référence pour les organisations internationales et les entreprises. Mais force est de constater que l’appropriation des ODD par les politiques et l’opinion publique varie énormément selon les pays.  « L’agenda 2030 incite chaque pays à dessiner sa propre trajectoire de transformation, rappelle Damien Barchiche, directeur du programme Gouvernance du développement durable de l’Iddri. C’est un aspect fondamental pas assez mis en avant ». Quelques pays utilisent ainsi l’Agenda 2030 comme outil d’évaluation des budgets nationaux. « La Finlande est l’un des exemples les plus complets d’intégration des ODD dans les processus budgétaires, avance Damien Barchiche. Parmi les mesures prises, le ministère des finances s’intéresse aux taxes et subventions dommageables à l’environnement ou qui ne peuvent soutenir les ODD.  »

Dans une vingtaine de pays, la Cours des comptes examine la mise en œuvre des ODD. « L’Allemagne se distingue par un cadre de suivi particulièrement robuste qui inclut des rapports de progrès réguliers et une revue indépendante par des experts internationaux sur ce sujet de l’Agenda 2030, détaille Damien Barchiche. Ce panel d’experts a le mandat de formuler des recommandations et le gouvernement s’oblige à répondre. La Cour des comptes allemande s’est aussi saisie des ODD pour examiner les progrès qui restent à accomplir ». En France, Michèle Pappalardo, la rapporteure générale du comité du rapport public auprès de la Cour des Comptes, serait favorable à l’inclusion des ODD dans les grilles de lecture des analyses de politiques publiques.

Les Français connaissent encore trop peu les ODD

Les ODD restent peu connus dans la population française et demeurent peu appropriés par les responsables politiques. Une étude d’Ipsos parue l’année dernière montre que 51 % des Français n’avaient jamais entendu parler des ODD. Des chiffres qui montrent une opposition claire avec les pays du Sud. En effet, seulement 11 % des Indiens, 8 % des Turcs et 17 % des Sud-Africains n’en avaient jamais entendu parler. Pour Najat Vallaud-Belkacem, directrice France du mouvement ONE, anciennement ministre chargée des Droits des femmes et ministre de l’Education nationale : « On est dans des appropriations extrêmement différentes du Nord au Sud. Je suis persuadée que l’on n’est pas à la hauteur des espérances de ces gens qui, dans ces pays du Sud, n’ont que ce droit international auquel se raccrocher pour que progresse le monde. »

Un cadre qui se structure peu à peu en France

Dans un contexte de relance, les ODD apparaissent comme un chemin de résilience. Plusieurs associations s’engagent pour une meilleure prise en compte des ODD en France. Mais ceux-ci peinent à entrer dans le débat politique français par manque de portage politique. La feuille de route de la France pour l’Agenda 2030 adoptée en septembre 2019 a mobilisé des parlementaires, des ONG, des entreprises, des ministères et des collectivités territoriales. Mais pourra-t-elle jouer son rôle ? « Le cadre français a fait des ODD un processus parallèle qui ajoute une couche supplémentaire aux dispositifs existants, note Damien Barchiche. Il faudrait réfléchir dans quelle mesure les ODD pourraient être l’occasion de converger les différents objectifs et stratégies existants pour assurer un meilleur suivi et une évaluation des engagements qui sont mal tenus. Il manque un diagnostic plus stratégique sous la forme d’un état des lieux des pratiques que l’on devrait vraiment remettre en cause et les changements nécessaires pour répondre aux défis des ODD et à leur transversalité. »

En 2018, le gouvernement avait formellement annoncé que la France intégrerait, quand cela est pertinent, des ODD dans la construction des lois. Cette décision n’a pas encore été mise en œuvre, mais plusieurs groupes parlementaires ont récemment fait des propositions en ce sens. « C’est la seule grille de lecture qui va nous permettre de répondre aux futures crises, estime le député LREM Pierre-Alain Raphan. On en entend un peu plus parler dans le milieu politique, dans les questions au gouvernement, on voit qu’il y a des propositions qui viennent de divers groupes politiques et c’est tant mieux ». Avec 8 autres parlementaires, le député a d’ailleurs lancé la consultation « Faire des objectifs de développement durable notre boussole pour l’après » sur la plate-forme Parlement&Citoyens.

Par Neptune, le noyau d’une planète se montre à nu !

Connaître vraiment les noyaux des planètes est une quête compliquée : enfouis sous plusieurs couches de roches dures ou en fusion ou alors cachés par des atmosphères gazeuses de plusieurs kilomètres d’épaisseur, ils sont presque inaccessibles aux moyens d’observation et de mesure des scientifiques… C’est pourquoi la découverte de TOI-849b est tellement extraordinaire.

Cette géante gazeuse, située à quelques 730 années-lumière de la Terre, orbite autour d’une étoile semblable au Soleil. Mais elle est si proche de lui qu’elle en fait le tour en 18 heures (au lieu de nos 365 jours) et la température de sa surface atteint les 1500°C. Elle est donc située dans ce que les astronomes désignent sous le nom de « désert des Neptunes chauds ». Une région à proximité des étoiles, où les planètes font le tour de leur étoile en seulement quelques jours ou moins et où il est peu probable de trouver des planètes de densité intermédiaire (comprise entre celle des planètes rocheuses comme la Terre mais sans atmosphère et celle des planètes avec une atmosphère très étendue comme Jupiter). La découverte de TOI-849b suit celle de NGTS-4b, présentée l’année dernière, et qui était déjà une anomalie : cette mini-Neptune était trop grosse pour se trouver là. Les hypothèses à son sujet étaient que soit elle venait de migrer près de son étoile (moins d’un million d’années auparavant), soit elle était autrefois beaucoup plus grosse et n’avait pas fini de perdre son atmosphère.

Les télescopes de NGTS, qui permettent de détecter les transits de planètes devant une étoile. Crédit photo : ESO/R. West

Une planète vraiment singulière

Publiées dans la revue Nature, les premières données et la découverte de TOI-849b sont le fruit d’une équipe d’astronomes internationale menée par l’Université de Warwick (Royaume-Uni). TOI-849b a été détectée par le satellite de la Nasa, TESS (Transiting Exoplanet Survey Satellite), qui utilise la méthode des transits – il détecte les éclipses provoquées par le passage des planètes devant leur étoile. Quand un tel signal est détecté, les astronomes utilisent ensuite d’autres outils d’observation pour le confirmer et le compléter. Pour TOI-849b, ce travail a été effectué par les douze télescopes de NGTS (Next-Generation Transit Survey), un ensemble de télescopes basés à l’Observatoire européen austral (ESO) au Chili et par ESO HARPS, un instrument qui évalue la masse des exoplanètes via l’influence gravitationnelle de la planète sur son étoile.

Et les données ont étonné les chercheurs : bien que son rayon soit un peu plus petit que celui de Neptune, la masse de cette planète, elle, est deux à trois fois supérieure. Ce qui lui confère une densité exceptionnelle. Les chercheurs ont donc émis deux hypothèses : soit c’est une géante gazeuse telle Jupiter qui a été dépouillée de son atmosphère, soufflée par les radiations de son étoile, soit elle n’a pas réussi à en former une au début de sa vie. En effet, on s’attend à ce qu’une planète de cette masse ait accumulé de grandes quantités d’hydrogène et d’hélium dans son atmosphère lors de sa formation, se transformant en quelque chose de similaire à Jupiter. « Le fait que nous ne voyons pas ces gaz suggère qu’il s’agit d’un noyau planétaire mis à nu, explique Stéphane Udry, astronome professeur au département d’astronomie de l’UNIGE (Université de Genève) et co-auteur de l’étude. C’est la première fois que nous découvrons un noyau intact d’une géante gazeuse autour d’une étoile ». Cette fenêtre ouverte sur la composition des noyaux de géantes gazeuses est aujourd’hui unique. Mais il faudra encore beaucoup de temps avant d’en savoir un peu plus : les outils nécessaires sont récents ou même seulement en projet !

Patience et longueurs de temps…

L’étude des exoplanètes est un travail minutieux et où la plupart des données sont indirectes. Ainsi, nous explique Stéphane Udry, « la caractérisation d’une exoplanète reste très difficile car, à part pour quelques cas très massifs, on ne les voit pas. Seule une partie des exoplanètes connues ont une mesure de masse et de rayon. En effet, la masse est estimée via le changement de vitesse de l’étoile centrale induit par la perturbation gravitationnelle de la planète. La précision nécessaire ne peut être atteinte que quand les étoiles hôtes sont brillantes (proches de nous) et ont des caractéristiques physiques favorables (faible rotation, pas trop chaudes, etc.). Et leur rayon est mesuré en cas d’éclipses (transits) quand une partie de la lumière de l’étoile est cachée par la planète qui passe devant le disque stellaire. Cela n’arrive que dans des configurations particulières, avec l’étoile, la planète et l’observateur presque parfaitement alignés. »

Pour TOI-849b, pour aller plus loin dans sa caractérisation (chimique), il faut donc encore réussir à récolter des données supplémentaires. Et là, il faut des outils d’une extrême précision pour séparer les signaux émis par l’étoile et ceux de la planète. Des instruments et des méthodes encore très récents ou à l’étude sont nécessaires, nous précise Stéphane Udry. « Pour l’imagerie directe, explique-t-il, nous utilisons les télescopes géants comme l’ELT de 39m de l’ESO allié à des systèmes permettant de limiter au maximum les perturbations de l’atmosphère terrestre et de distinguer les signaux de l’étoile et de la planète pour cacher ensuite ceux de l’étoile. On commence tout juste à l’utiliser sur des géantes gazeuses. Pour les planètes plus petites comme les mini-Neptunes (planètes entre 2-3 et une quinzaine de masses terrestres possédant une atmosphère étendue) ou les superterres (planètes entre 2-3 et une quinzaine de masses terrestres mais sans une atmosphère étendue), il faudra attendre au moins une dizaine d’années pour que l’instrumentation soit développée ». L’autre moyen de scruter ces exoplanètes, est de scruter la lumière de l’étoile modifiée par l’atmosphère de la planète. L’effet, bien que minime peut être mesuré par une analyse à haute résolution spectrale (spectroscopie de transmission). « Cette approche a été démontrée pour les planètes géantes gazeuses avec le spectrographe HARPS sur le 3.6m de l’ESO, détaille l’astronome. Elle est maintenant poussée au niveau supérieur avec le spectrographe ESPRESSO installé fin 2017 sur les VLT à Paranal (ESO) et devrait atteindre son efficacité maximum avec l’instrument HiRES (High resolution spectrograph) sur l’ELT vers la fin de la décennie. Pour le moment, quelques Neptune gazeux ont pu être étudiés avec le télescope spatial Hubble et les spectrographes à haute résolution au sol. Dans le cas où l’atmosphère est ténue (planètes terrestres et cœurs à nu comme TOI-849 b), les mesures sont encore beaucoup plus difficiles, mais seront très certainement essayées, aujourd’hui avec ESPRESSO ou Hubble et demain avec HiRES/ELT et le JWST – Jame Webb Space Telescope (télescope spatial notamment spécialisé dans l’astronomie de l’infrarouge) et dont le lancement est prévu en 2021 ».

L’instrument ESPRESSO, pour une spectrographie encore plus fine. Crédit photo : Université de Genève

A terme, d’ambitieux projets souhaitent coupler les techniques d’imagerie directe et de spectroscopie de transmission pour affiner encore les signatures des planètes.

Attributions du ministère de la Transition écologique : l’énergie bien sûr !

Barbara Pompili, nommée à la tête du ministère de la Transition écologique, est accompagnée de deux ministres délégués, Emmannuelle Wargon, pour le logement, et de Jean-Baptiste Djebbari, aux transports. L’ex-députée présidente de la commission du développement durable et de l’aménagement du territoire de l’Assemblée nationale a notamment pour mission générale de préparer et mettre en œuvre la politique du gouvernement dans tous les domaines liés à l’écologie, la transition énergétique et à la protection de la biodiversité. A ce titre, elle retrouve quasiment le périmètre dont disposait Nicolas Hulot en début de quinquennat.

Le décret du 15 juillet stipule que la ministre de la Transition écologique « prépare et met en œuvre la politique du gouvernement dans les domaines du développement durable, de l’environnement, notamment de la protection et de la valorisation de la nature et de la biodiversité, des technologies vertes, de la transition énergétique et de l’énergie, notamment en matière tarifaire, du climat, de la prévention des risques naturels et technologiques, de la sécurité industrielle, des transports et de leurs infrastructures, de l’équipement et du logement. Il élabore et met en œuvre la politique de lutte contre le réchauffement climatique et la pollution atmosphérique. Il promeut une gestion durable des ressources rares. »

En outre, comme sa prédécesseure, la ministre de la Transition écologique, « en concertation avec le ministre de l’Europe et des affaires étrangères », est chargée des relations internationales sur le climat et sur la biodiversité. C’est donc elle qui conduira les négociations, y compris européennes, et veillera à la mise en œuvre des accords conclus.

Elle aura aussi comme prérogative de mettre en œuvre la politique en matière d’urbanisme et d’aménagement en liaison avec le ministre de la Cohésion des territoires et des relations avec les collectivités territoriales.

Suivant ses attributions, elle participera enfin à l’élaboration des programmes de recherche, d’enseignement et d’encouragement de l’innovation.

En revanche, elle devra partager les compétences sur la mer et perdra ses compétences sur l’économie sociale et solidaire, qui part au ministère de l’Economie.

La transition énergétique

Au titre de l’énergie et du climat, le ministère de la Transition écologique « élabore et met en œuvre la politique de l’énergie, afin, notamment, d’assurer la sécurité d’approvisionnement, la lutte contre le réchauffement climatique ainsi que l’accès à l’énergie et de promouvoir la transition énergétique, notamment la rénovation et la qualité énergétique des bâtiments ». Conjointement avec le ministre de l’Economie, des finances et de la relance et, le cas échéant, avec la ministre de la Mer, le ministère de la Transition écologique est compétent pour la politique des matières premières et des mines, en ce qui concerne les matières énergétiques.

Le ministère délégué aux transport aura la charge des transports ferroviaires, guidés et routiers, y compris les transports publics particuliers, des voies navigables, de l’aviation civile, des applications satellitaires, de la météorologie et de l’organisation des transports pour la défense. En liaison avec le ministre du Travail, de l’emploi et de l’insertion, il prépare la réglementation sociale dans le domaine des transports et suit les questions sociales du secteur.

En matière d’énergies marines, le ministère de la Transition écologique conserve ses prérogatives, malgré l’existence d’un ministère de la Mer de plein droit.

Le ministère de la Transition écologique exerce, « conjointement avec le ministère de la Mer, les attributions relatives aux ports, aux transports maritimes, à la marine marchande et à la réglementation sociale dans le domaine maritime. Conjointement avec le ministre de la Mer, il définit la politique en matière d’attractivité des métiers dans le domaine maritime ». Il dispose également d’une structure interministérielle, le Secrétariat général de la mer, qui assure la cohérence des politiques maritimes.

Quant au ministère délégué au logement, « il prépare et met en œuvre la politique du gouvernement dans le domaine du logement et de la construction ainsi que dans le domaine de la lutte contre la précarité et l’exclusion. Il est chargé des politiques menées en faveur de la qualité du logement et de l’habitat, notamment en ce qui concerne les règles relatives à l’efficacité énergétique et à la performance environnementale de l’habitat neuf ou rénové et, en lien avec le ministre des solidarités et de la santé, à la lutte contre l’habitat indigne. »

La particularité de ce ministère est qu’il dispose d’un réseau de douze écoles, dont cinq écoles d’ingénieurs, qui constituent des établissements publics sous tutelle. L’École nationale des Ponts et Chaussées (ENPC) et l’École nationale de l’aviation civile (ENAC) font par exemple partie de ce réseau des écoles supérieures du développement durable.

En 2017, le budget du ministère de la Transition écologique s’élevait à 35 milliards d’euros, dont plus de 14 milliards consacrés à la transition énergétique.

Une pince acoustique pour le largage ultra localisé de médicaments

Diego Baresch (© Romain Fazilleau)

En 2016, Diego Baresch a participé à la création de la première pince acoustique, utilisée pour manipuler des objets élastiques de taille submillimétrique. Cette nouvelle étude fait suite à ces travaux et porte sur la manipulation de microbulles.

Techniques de l’Ingénieur : Votre dernière étude utilisant une pince acoustique concerne les microbulles. Quelle est leur utilité ?

Diego Baresch : Il est déjà arrivé que des microbulles se forment dans le flux sanguin lors d’une perfusion. Si la présence de ces bulles n’est pas souhaitable (voilà pourquoi les infirmier(e)s “débullent” leur seringue avant perfusion), elle a permis de faire une découverte : dans le contexte de l’imagerie médicale ultrasonore, ces microbulles ont tendance à apparaître de manière très brillante dans les images échographiques.

Très vite, des gens se sont rendu compte que des bulles microscopiques pouvaient éventuellement être utilisées en tant qu’agent de contraste pour l’échographie ultrasonore. Bien évidemment, ce n’est qu’après avoir réussi à produire des bulles stables, d’une taille maîtrisée (entre 1 et 10 µm de diamètre) que les médecins ont pu envisager de perfuser des patients avec une dose de cet agent de contraste.

Cette technique est particulièrement utile en imagerie cardiaque, pour rendre visibles les zones non échogènes (qui renvoient peu d’écho) et apparaissent habituellement de manière assez sombre. L’injection de microbulles permet ainsi de mettre en évidence tout le circuit des vaisseaux sanguins.

Pourquoi ces microbulles peuvent-elles être utilisées comme vecteurs d’agents thérapeutiques ?

Depuis 20 ans, il y a un effort de recherche important pour doper ces bulles en médicaments et développer des thérapies très localisées. Ce principe permettrait notamment d’éviter de nombreux effets secondaires associés aux techniques invasives comme la radiothérapie.

Les bulles sont de bons candidats pour le largage de médicaments, car elles sont d’une part très visibles en imagerie, d’autre part elles ont la particularité de réagir aux ultrasons. On s’est ainsi rendu compte qu’en imageant ces bulles, on les faisait vibrer très fortement. Ces vibrations sont suffisantes pour déformer les bulles et générer un largage.

D’une manière générale, où en est la recherche sur le largage localisé par microbulles ?

Pour le moment, les microbulles sont autorisées en imagerie médicale, mais leur utilisation dans le domaine thérapeutique n’est pas encore d’actualité. Destruction de caillots sanguins, thrombose, largage ultra ciblé de médicaments font partie des potentielles applications.

On en est actuellement à des tests pré-cliniques sur des animaux proches de l’homme, donc le lancement d’essais cliniques ne saurait tarder.

Vos travaux consistent à étudier la manipulation de ces microbulles en utilisant des ondes acoustiques. Comment cela fonctionne-t-il ?

Nous avons dans un premier temps cherché à contrôler une microbulle seule. Pour cela, j’ai mis en place un dispositif permettant de piéger une microbulle et de la manipuler dans l’espace en trois dimensions.

Largage local et assisté par une pince acoustique de nanoparticules transportées par des microbulles © Diego Baresch, Institut de mécanique et d’ingénierie de Bordeaux (CNRS/Université de Bordeaux/Arts et Métiers Paristech/Bordeaux INP)

Tout repose sur le principe de force de radiation acoustique, c’est-à-dire qu’une onde acoustique est capable d’exercer une force sur un objet. Pour ce faire, nous utilisons des vortex acoustiques, ce qui permet de piéger des objets à la manière d’une pince. Les travaux présentés dans cette étude consistaient à piéger une bulle et à la positionner près d’un tissu élastique pour comprendre comment elle pouvait vibrer dans un milieu naturel. Nous avons ensuite piégé des nanoparticules en surface de ces bulles afin de comprendre quels paramètres acoustiques étaient prépondérants pour le largage de médicaments.

Quel est l’intérêt des pinces acoustiques par rapport aux pinces optiques ?

Cette pince acoustique a été développée dans le sillage de la pince optique d’Arthur Ashkin, qui a reçu le prix Nobel de physique en 2018. Par rapport à cette dernière, la pince acoustique a trois avantages.

D’une part, les ondes acoustiques peuvent pénétrer les corps opaques (le corps humain en fait partie), ce qui n’est pas le cas de la lumière.

D’autre part, les ondes acoustiques peuvent exercer des forces 1 000 fois supérieures aux forces optiques, ce qui ouvre la porte à la manipulation d’objets in vivo, car le sang exerce lui aussi des forces importantes par écoulement.

Enfin, les fréquences acoustiques utilisées (entre 1 et 20 MHz) sont celles de l’imagerie biomédicale, donc bien connues.

La pince acoustique est ainsi un bon outil de contrôle spatial, sans contact et non invasif.

Quelle suite désirez-vous donner à ces travaux ?

Nous allons continuer à travailler sur la manipulation acoustique des microbulles et voulons aller un peu plus loin sur le largage de médicaments. J’aimerais beaucoup que ces travaux suscitent de la curiosité auprès de collègues biophysiciens et d’ingénieurs biomédicaux, pour voir si des collaborations proches des réalités de terrain de la médecine et de la biologie sont possibles.

Propos recueillis par Arnaud MOIGN

Construction de la plus grande unité au monde de stockage d’énergie cryogénique

D’une capacité de 250 MWh, la plus grande installation au monde de stockage d’énergie par cryogénie va être installée au Royaume-Uni. Sa mise en route est programmée en 2022 et elle sera couplée au Trafford Energy Park près de Manchester, un parc dont une partie de la production d’électricité est assurée par des panneaux photovoltaïques et des éoliennes. Ce stockage permettra de pallier l’intermittence de ces énergies renouvelables. Le principe de fonctionnement de cette centrale sera fondé sur deux cycles de changements d’état de l’air. Le premier interviendra lorsque l’électricité deviendra excédentaire. Cette électricité servira alors à prélever l’air puis à le refroidir à très basses températures (-196 degrés) jusqu’à ce qu’il devienne liquide. Le cryogène ainsi obtenu sera ensuite stocké dans de grands réservoirs isothermes à basse pression, spécifiquement adaptés à cet usage. Le second cycle interviendra en cas de besoin d’électricité. Le cryogène sera réchauffé au moyen d’un échangeur de chaleur pour procéder à son évaporation et afin qu’il retrouve son état gazeux. Cette transformation provoquera une expansion de son volume de 700 fois et servira à faire tourner des turbines qui produiront de l’électricité.

L’unité, d’une capacité de 250 MWh, sera couplée à un parc d’énergies renouvelables au Royaume-Uni / Highview Power

Jusqu’à 200 000 foyers alimentés en énergie

Leader mondial de cette technologie, la société britannique Highview Power s’est associée au développeur britannique de centrales électriques, Carlton Power, pour entreprendre ce projet.  « Cette installation de stockage par cryogénie aura une puissance instantanée de 50 MW, déclare Highview Power. Elle sera directement connectée au réseau national d’électricité au Royaume-Uni et permettra d’alimenter en énergie jusqu’à 200 000 foyers pendant cinq heures en même temps ».

Alors que le stockage d’énergie cryogénique obtient généralement un faible rendement de conversion de l’électricité, de l’ordre de 10 %, l’entreprise annonce un rendement jusqu’à 60 % grâce à un système de récupération des flux. En effet, lors de la phase de liquéfaction de l’air par compression, de la chaleur est générée et sert à alimenter l’échangeur de chaleur du second cycle. Inversement, le second cycle, qui conduit à l’évaporation du cryogène, produit du froid et sert à refroidir l’air à très basses températures lors du premier cycle. « Lorsque de grandes quantités de chaleur ou de froid résiduels sont disponibles à côté de notre installation, notre système peut intégrer ces flux et les utiliser pour augmenter encore l’efficacité, précise la société. Le rendement peut alors dépasser 70 %, sous réserve de la qualité et de la quantité de ces flux disponibles. » 

Sans fournir de données chiffrées, Highview Power met en avant un coût de stockage inférieur à celui des batteries lithium-ion ainsi qu’une durée de stockage plus longue. « Notre technologie ne connaît pas de dégradation de sa performance dans le temps, déclare l’entreprise. Notre installation est principalement fabriquée à partir de l’acier qui a une durée de vie de 30 à 40 ans, contre seulement 10 ans pour les batteries. De plus, aucun métal rare ou produit chimique nocif n’est impliqué dans notre technologie. »

En cas de besoin d’énergie, l’évaporation du cryogène provoque une expansion de son volume et fait tourner des turbines qui produisent de l’électricité / Highview Power

Trois autres installations pourraient voir le jour

Le projet d’un montant d’environ 85 millions de livres (95 M€) a reçu le soutien du gouvernement britannique qui a versé une subvention de 10 M£ (11 M€). Trois autres unités avec la même capacité et utilisant cette technologie pourraient voir le jour dans les années à venir, cumulant ainsi une capacité totale de stockage de 1 GWh. Le Royaume-Uni vise la neutralité carbone d’ici 2050. Selon le Committee for Climate Change (CCC), le pays devra quadrupler sa capacité de production d’énergie renouvelable d’ici là s’il veut atteindre cet objectif. Afin d’apporter une flexibilité au réseau électrique, une augmentation significative de la capacité de stockage des énergies renouvelables sera nécessaire pour compléter cette transition.

Transformer les émissions de CO2 en produits chimiques

Comment produire du carburant et des plastiques à partir de CO2 ? Grâce à des nanoparticules d’oxyde de zinc, répondent des chercheurs australiens dans un article publié dans la revue Advanced Energy Materials. Ils ont fabriqué les nanoparticules en question par la technique qualifiée de « pyrolyse par pulvérisation à la flamme » (FSP) à partir d’un précurseur : du 2-éthylhexanoate de zinc. Les nanoparticules agissent ensuite comme catalyseur pour la génération simultanée d’hydrogène et de monoxyde de carbone pendant les réactions de réduction électrochimique du CO2.

Jouer aux Lego pour obtenir différentes molécules

« Nous avons utilisé une flamme qui brûle à 2 000 degrés, pour créer des nanoparticules d’oxyde de zinc qui peuvent ensuite être utilisées pour convertir le CO2, en utilisant l’électricité, en gaz de synthèse, un mélange d’hydrogène et de monoxyde de carbone utilisé dans la fabrication de produits industriels », résume Emma Catherine Lovell, co-autrice de l’étude et chercheuse à l’École de génie chimique de l’UNSW Sydney.

« Le gaz de synthèse est souvent considéré comme l’équivalent chimique du Lego parce que ses deux blocs constitutifs – l’hydrogène et le monoxyde de carbone – peuvent être utilisés dans des proportions différentes pour fabriquer des produits comme du diesel synthétique, du méthanol, de l’alcool ou des plastiques », poursuit-elle.

Tester la méthode en milieu industriel

Dans un environnement industriel, un électrolyseur contenant les nanoparticules d’oxyde de zinc produites par FSP pourrait être utilisé pour convertir le CO2 provenant, par exemple, d’une centrale électrique ou d’une cimenterie, en différents mélanges de gaz de synthèse. Les chercheurs espèrent ainsi fermer la boucle du carbone dans les procédés industriels qui créent des gaz à effet de serre.

En jouant sur la vitesse d’injection en précurseur dans la flamme, les chercheurs jouent sur les propriétés des catalyseurs obtenus. « La vitesse a été fixée à 5, 7 et 9 mL/min pour donner des catalyseurs étiquetés ZnO-5, ZnO-7 et ZnO-9, respectivement », précise l’étude. En faisant des mélanges de catalyseurs, il est possible d’obtenir des mélanges différents d’hydrogène et de monoxyde de carbone, suivant l’industrie visée. « Par exemple, un rapport 1/1 entre le monoxyde de carbone et l’hydrogène se prête au gaz de synthèse qui peut être utilisé comme carburant. Mais un rapport de 4/1 pour le monoxyde de carbone et l’hydrogène convient à la création de plastiques », explique Rahman Daiyan, auteur principal, chercheur à l’École de génie chimique de l’UNSW Sydney.

Le catalyseur d’oxyde de zinc constitue une solution alternative moins chère que les recherches passées dans ce domaine qui ont utilisé des matériaux coûteux tels que le palladium. Un pilote industriel est désormais à l’étude. L’équipe réfléchit à tester ses nanomatériaux dans les gaz à la sortie d’une centrale électrique au charbon, une centrale à gaz ou une mine de gaz naturel.

Adaptation au changement climatique : la climatisation inévitable à Paris

Une équipe interdisciplinaire de l’École des Ponts ParisTech, du CNRS, de Météo-France et du CSTB, a voulu savoir s’il était possible de faire face aux canicules à Paris sans climatisation d’ici la fin du siècle. « Nous avons utilisé TEB-SURFEX, le modèle de climat urbain de Météo-France qui simule le microclimat sous l’effet d’îlot urbain, et l’avons couplé avec un modèle énergétique des bâtiments, explique Vincent Viguié, chercheur à l’École des Ponts ParisTech et auteur principal de l’étude parue dans Environmental Research Letters. Nous avons en plus exploré l’évolution du risque de canicule à Paris dans les bases de données de projections climatiques, étudié comment l’urbanisation pouvait évoluer en Île-de-France et exploré différents scénarios de mesures d’adaptation. »

Pour chaque scénario étudié, le modèle a ainsi pris en compte la typologie de la ville – son plan, les types de bâtiments et leurs matériaux, ainsi que l’étendue des espaces verts. Et il a calculé les températures futures dans les bâtiments et dans les rues de la capitale. En absence de climatisation, les mesures d’adaptation peuvent-elles suffire ? « La réponse est non à la fin du siècle », répond Vincent Viguié.

Mettre en place des stratégies d’adaptation

« Alors qu’en 1960-1989, les canicules s’observaient en région parisienne environ tous les 9 ans, à la fin du siècle actuel (2070-2099), une ou deux canicules sont à prévoir chaque année », prévient l’étude. Dans ce cadre, il faut mettre en place des stratégies d’adaptation pour limiter les consommations électriques dues à la climatisation et ses effets sur la température extérieure.

L’étude explore les consommations énergétiques des climatiseurs, l’influence sur la température de l’air extérieur et le confort thermique des bâtiments. Le scénario de référence correspond au scénario d’émission médian du GIEC (RCP 6.0) qui prévoit une concentration en gaz à effet de serre stabilisée à 850 ppm équivalent CO2 après 2100. Il considère la généralisation des climatiseurs dans tous les logements et tous les bureaux, avec une consigne à 23°C en période de canicule. La consommation due aux climatiseurs s’élève alors à 1,1 térawattheure (TWh). « 1,1 TWh, c’est la consommation due uniquement à la canicule qui ne dure que quelques jours par an, prévient Vincent Viguié. Sur un été entier, elle serait en pratique beaucoup plus importante car les habitants ne vont a priori pas utiliser la climatisation qu’au moment de la canicule. »

L’étude explore l’efficacité de trois stratégies d’adaptation pour réduire l’utilisation de l’air conditionné à Paris. La première développe fortement les espaces verts, en les portant à 10 % de la surface de la ville. La deuxième isole les bâtiments et les recouvre de toitures réfléchissantes. La première stratégie permet 2 % d’économies d’énergie, la deuxième 17 %. Le fait de multiplier le nombre de parcs et d’isoler les bâtiments ne suffit pas pour pouvoir se passer de climatisation. La dernière stratégie fait donc le pari de viser une température de 28°C dans les habitations et de 26°C dans les bureaux, au lieu des 23°C du scénario de référence. Cette stratégie engendre la plus forte baisse de consommation électrique, évaluée à 43 %.

Baisser la consommation électrique tout en assurant le confort thermique

« En absence de climatisation, les mesures d’adaptation explorées sont insuffisantes pour assurer la santé des habitants dans leurs logements », prévient Vincent Viguié. Il faudra donc réfléchir rapidement aux pistes pour réduire l’impact des climatiseurs. Celui-ci dépendra de la consommation électrique globale et du taux de pénétration des énergies renouvelables dans le mix électrique. « Plus la quantité totale de la demande électrique pour les climatiseurs sera faible, plus on peut s’attendre à ce qu’elle soit produite avec des énergies renouvelables. »

Les chercheurs ont limité leur étude aux mesures facilement déployables. « Nous n’avons pas regardé les mesures de type organisationnelles qui consisteraient à évacuer les personnes vulnérables et les maisons de retraites vers les zones les moins chaudes, en dehors de Paris, ou à ne climatiser que de façon ciblée les hôpitaux et les maisons de retraites », précise Vincent Viguié. Les chercheurs continuent d’étudier l’impact futur de la climatisation sur d’autres villes. Ils souhaitent notamment savoir si la situation serait comparable dans d’autres villes européennes, par exemple à Lyon, Londres ou encore Berlin.

Applications de contact-tracing : une sécurité prise à la légère

L’étude de Guardsquare (spécialisé dans la protection des applications pour smartphone) est sans appel : la majorité de ces applications ne sont pas suffisamment protégées contre la rétro-ingénierie et l’exploitation malveillante.

Appelée « Reverse engineering » par les hackers, la rétro-ingénierie consiste à étudier un logiciel ou un équipement pour comprendre comment il a été développé, son fonctionnement et ses faiblesses. Cette méthode est notamment employée par des pirates pour contourner des systèmes de sécurité ou créer des clones malveillants.

Dans le cas présent, les développeurs de ces applications n’ont pas vraiment renforcé la sécurité. Moins de la moitié (41 %) est protégée contre « l’obfuscation de code ». Ce processus consiste à rendre un programme inintelligible ou du moins le plus difficilement compréhensible en cas d’analyse binaire.

Un tiers seulement intègre un chiffrement et seuls 18 % incluent la détection d’un émulateur (technique utilisée pour simuler un système d’exploitation par exemple et tester ensuite l’application pour repérer ses vulnérabilités).

Les révélations sur les faiblesses de ces applications se sont multipliées ces dernières semaines. En mai, Amnesty International avait identifié des failles de sécurité majeures dans une application obligatoire d’alerte d’exposition aux virus au Qatar. Le gouvernement avait rapidement publié une mise à jour avec de nouvelles fonctionnalités de sécurité.

Le même mois, le hacker français Baptiste Robert avait découvert une faille dans l’application de contact-tracing indienne nommée Aarogya Setu. Dans le principe, elle permettait de savoir si on avait croisé un malade, mais elle permettait aussi à l’État de savoir qui il est et où il habite.

La chasse aux failles

Les développeurs de l’application australienne ont également fait preuve de légèreté concernant la protection des données et du code lui-même. Même la Suisse est épinglée pour son application SwissCovid dont le niveau de sécurité et de transparence inquiète des spécialistes ainsi qu’une équipe du Laboratoire de sécurité et de cryptographie (Lasec) de l’École polytechnique fédérale de Lausanne.

Selon les experts et les chercheurs en cybersécurité, les données provenant des applications de recherche de contacts pourraient constituer une cible particulièrement intéressante pour toute une série de groupes.

Des hacktivistes pourraient supprimer ces applications des App Stores pour tenter de se faire connaître. Des cybercriminels pourraient récupérer des informations personnelles qui seraient ensuite revendues. Enfin, des dictatures et même des États démocratiques pourraient s’en servir comme outil de surveillance.

Selon une étude d’Amnesty International, les applications de contact-tracing de la Norvège, du Bahreïn et du Koweït sont les plus dangereuses, car elles suivent en temps réel ou presque la localisation de leurs utilisateurs.

Pour limiter ces risques, il est indispensable de renforcer la sécurité et d’appliquer le principe de « Privacy by Design ». Cette approche consiste à adopter dès la conception d’un logiciel et par défaut, des mesures organisationnelles et techniques appropriées pour garantir la protection de la vie privée et des libertés fondamentales.

Comme de nombreux principes présents dans le Règlement général sur la protection des données personnelles (RGPD), le principe de « Privacy by Design » n’est pas nouveau. Certains éléments étaient déjà présents au sein de la Directive de 1995 qui précisait que les mesures de protection des données doivent s’appliquer tant au moment de la conception qu’à celui de la mise en œuvre du traitement.

Mais il ne semble pas encore appliqué par tout le monde. C’est la raison pour laquelle la CNIL a publié un « Guide RGPD du développeur ».

La sécurité de ce type d’application sensible ne doit pas être négligée. Elle doit être testée par des experts ou des hackers afin de repérer d’éventuelles faiblesses dans sa conception.

La France est l’un des rares pays connus pour avoir effectué des tests de piratage approfondis de StopCovid lancée le 2 juin dernier. Deux concours de « bug bounty » ont été organisés, l’un avant sa sortie et le second après son lancement. À la clé, une récompense pouvant atteindre 2000 euros.

Restent les questions légitimes vis-à-vis de la gouvernance des serveurs de ces applications : qui fait tourner le serveur où les identifiants sont divulgués ? Qui est en charge de la supervision d’un tel système ? Comme le recommande à nouveau le Chaos Computer Club (l’une des organisations de hackers les plus influentes en Europe), le stockage des données de ces dispositifs doit être décentralisé par nature pour garantir le respect de la vie privée.

Pour une surveillance pérenne des pesticides dans l’air

Il n’existe pas de réglementation encadrant la présence des pesticides dans l’air. Seules les AASQA fédérées au sein d’Atmo France mesurent depuis 2002 les concentrations de ces substances sur l’ensemble du territoire. En attendant la surveillance généralisée des pesticides dans l’air, celles-ci ont d’ailleurs récemment ouvert au public PhytAmo, leur base de données de mesure des pesticides dans l’air. Entre 2002 et 2015, pas moins de 321 matières actives ont été recherchées, à travers 6 837 prélèvements, effectués sur 176 sites.

Une nouvelle campagne nationale menée par l’Anses, l’Ineris et Atmo France entre juin 2018 et 2019, a permis de mesurer la présence de 75 pesticides dans l’air ambiant à l’échelle nationale. Au total, la campagne a permis de collecter 100 000 données, d’analyser 1 800 échantillons sur 50 sites. Bonne nouvelle : cette campagne identifie de faibles indices du risque sanitaire. Elle cible tout de même 32 substances nécessitant un examen approfondi pour évaluer la nécessité de leur intégration dans la surveillance nationale des pesticides dans l’air. Parmi ces substances, le lindane fait tâche. Son interdiction sur le territoire date de 1998. Pourtant, la campagne de mesures le quantifie dans « près de 80 % des échantillons analysés », s’inquiète l’Anses. L’évaluation de ce pesticide devient une priorité de l’agence pour identifier les motifs de persistance.

De la mesure volontaire à la mesure réglementaire

Sur la base de ce diagnostic partagé, Atmo France et les AASQA rappellent la nécessité d’instaurer une surveillance nationale réglementaire adossée à des valeurs de gestion. « L’élaboration de ces dernières est incontournable afin de répondre aux questionnements et problématiques locales des territoires », prévient Atmo France. Les AASQA réaffirment le besoin de multiplier le nombre des sites de mesures pérennes afin de produire une information locale, fiable et représentative. En plus, elles appellent à prendre en compte la mesure des pesticides dans l’air ambiant comme indicateur de suivi dans les dispositifs actuels de réduction de l’usage des pesticides. Pour l’instant, le principal indicateur lié au plan Ecophyto pour mesurer cette évolution reste le Nodu, le nombre de traitements « moyens » appliqués annuellement sur l’ensemble des cultures, à l’échelle nationale.

Les AASQA invitent par ailleurs à mettre en place une plate-forme nationale d’enregistrement des pesticides. Elle permettrait de centraliser les achats de pesticides et leur utilisation recommandée par le rapport parlementaire de la mission d’information commune sur le suivi de la stratégie de sortie du glyphosate de novembre 2019. Enfin, les associations invitent à prendre en compte le suivi des pesticides dans l’air dans les politiques de santé environnementale.

L’Anses formulera dans les prochains mois une proposition de surveillance nationale pérenne des pesticides dans l’air. Il s’agira de réaliser des analyses plus fines des situations locales ou de proximité qui n’ont pas été abordées dans cette première étape. L’étude approfondira les complémentarités avec les autres dispositifs de surveillance et les comparera aux recommandations déjà formulées par l’agence. Enfin, elle s’attachera à évaluer les impacts environnementaux de la présence des pesticides dans l’air.

Techniques de l’Ingénieur partenaire de IoT World +MtoM Embedded

En 2020 les IoT foisonnent !

En vagues successives, portés par d’indéniables succès, poussés par les avancées technologiques, promis à dix mille cas d’usage… les objets connectés n’ont de cesse de conquérir de nouveaux territoires. Ils s’inventent et se constituent en métiers, en industrie, en marchés, en services, aux entreprises comme aux humains !

Dans ce bouillonnement se forme, se transforme sous nos yeux une galaxie IoT expansive et gloutonne d’innovations. En 2020, elle se nourrira notamment des défis que lui pose la cybersécurité, de l’avènement de la 5G, de l’IA appliquée aux objets et systèmes connectés, du edge computing ainsi que des nouvelles approches énergétiques de récupération (energy harvesting).

C’est pourquoi Techniques de l’Ingénieur est partenaire de cet événement-leader permis par la fusion de IoT World et MtoM Embedded Systems. Au final ce sont les 230 exposants, les 9000 visiteurs et les auditeurs du programme de conférences qui vont bénéficier de cette énergie hors du commun !

Les animations et événements du salon

Le salon tournera autour d’expositions, de tables rondes, d’ateliers et de conférences, sans oublier les Rendez-vous Business. Vous pourrez également retrouver les animations listées ci-dessous :

IoT Awards

Fiers de votre projet IoT ? Présentez-le gratuitement aux IoT Awards 2020 !

Pour la 4ème année consécutive, un jury de professionnels attribuera le 24 septembre prochain les IoT Awards. Ces prestigieux trophées récompenseront les meilleurs projets IoT (high‐tech, innovant, ambitieux, compliant, Prix du jury). En 2020 un 6ème prix est créé : « l’IoT Lab award » récompensant un projet réalisé au sein d’un laboratoire de recherche. Concourir est gratuit, simple et rapide, directement sur le site :  www.iot‐awards.fr

IoT Financing Desk

Vous cherchez des conseils avisés pour bien financer votre projet IoT ?

Prenez rendez-vous avec nos consultants spécialisés à l’occasion du salon, l’opération IoT Financial Desk consiste à mettre gratuitement à disposition des entreprises une expertise en ingénierie du financement de l’IoT, pour leur permettre d’identifier les dispositifs de financement et en bénéficier pleinement en toute sécurité.

IoT Legal Desk

Vous avez un projet IoT ? Pensez « légal » le plus tôt possible et profitez d’un rendez-vous privé, gratuit et confidentiel avec un cabinet d’avocats présent sur le salon.

Highlight your Deeptech

Vous menez projet, aidez, hébergez ou avez découvert une startup dont vous êtes fier, qui a développé un produit ou une solution en rapport avec l’IoT, le MtoM, les objets connectés ?
Vous estimez qu’elle mérite d’être (re)connue ? Inscrivez-la à l’Opération Highlight your Deep-Tech 2020.
Nous allons la rendre visible, de deux manières :
• Sur le salon : votre startup filleule bénéficiera d’un tarif spécialement étudié pour exposer dans le « Village startup » situé au cœur du salon
• Dans les conférences : la société pourra présenter son activité, ses produits ou services. En tant que parrain, vous aurez l’occasion de présenter votre startup préférée, d’exposer ses atouts et/ou de parler d’un projet conduit en commun avec elle sous forme de pitch.

Rendez-vous Business gratuit

 Seulement 5 minutes pour vous inscrire ! Vous sélectionnez les exposants que vous souhaitez rencontrer sur le site. Les rendez-vous sont organisés avec les exposants que vous aurez sélectionnés. Les rendez-vous de 30 minutes se déroulent directement sur les stands des exposants

Inscrivez-vous ou demandez votre badge visiteur gratuit et découvrez l’intégralité des programmes de conférences via les sites : www.salon-IoT-MtoM.com ; www.datacenter-cloud.com

Trois défis à relever pour une transition réussie vers le 100% énergies renouvelables

Adoptée en novembre 2019, la loi Énergie et Climat vise la neutralité carbone à l’horizon 2050, tandis que la programmation pluriannuelle de l’énergie fixe l’objectif d’atteindre une part des énergies renouvelables dans le mix énergétique en France de 33 % d’ici à 2030. Mais face à l’épuisement des stocks de pétrole, de gaz, de charbon et d’uranium, une transition vers des énergies 100 % renouvelables est inéluctable à plus ou moins long terme. Avant cette échéance, viendra également un moment où ces ressources seront si difficiles à extraire que leur coût ne sera plus assez compétitif comparé aux énergies vertes. Si le passage au 100 % énergies renouvelables est techniquement possible, plusieurs points critiques devront être surmontés pour le concrétiser, dont les trois suivants.

Atténuer les pics de consommation

La plupart des scénarios de transition énergétique projettent une baisse future de la consommation d’énergie. Pour y parvenir, ils en appellent à la sobriété des consommateurs et des entreprises ; ces dernières devront par exemple éteindre les vitrines et les bureaux la nuit. Ils comptent aussi sur une meilleure efficacité énergétique du rendement des appareils électriques, mais aussi des bâtiments, grâce à l’isolation de ceux considérés comme des passoires thermiques. Même si tous ces changements s’opèrent, la question de la gestion des pics de consommation reste un point crucial à considérer. Alors que RTE a constaté une augmentation de la pointe journalière de la consommation électrique de 33 % en 10 ans, les scénarios développés n’ont pas réellement modélisé dans le détail l’équilibre futur entre l’offre et la demande. « Il va être nécessaire de maîtriser la demande énergétique et notamment le besoin instantané de puissance, analyse Philippe Blanc, Directeur de recherche MINES ParisTech et Responsable adjoint du département Energétique et Procédés. Il ne sera plus possible de se permettre de consommer d’importantes quantités d’énergie à tout moment. L’industrie devra adapter sa consommation à la production. »

Multiplier les sources d’énergies vertes

Quand on parle d’énergies renouvelables, on pense aussitôt au photovoltaïque et à l’éolien. Mais ces deux modes de production d’électricité ne pourront pas être les uniques sources d’énergies vertes sur le territoire sinon leur intermittence nécessitera le recours à d’importantes solutions pour stocker l’énergie produite. La multiplication des autres sources d’énergies renouvelables sera alors l’une des alternatives pour limiter la dépendance au vent et au soleil. Dans son dernier scénario, l’association negaWatt, qui regroupe plusieurs experts des questions de l’énergie, prévoit que la biomasse issue de la filière bois-énergie restera la première source d’énergie verte en 2050, juste avant l’éolien. « La France ne pourra pas se passer de gaz, ajoute Philippe Blanc. Étant donné qu’il ne pourra plus être d’origine fossile, des unités de biogaz vont devoir être installées sur le territoire même si pour l’instant ce mode de production d’énergie coûte relativement cher. La capacité de production de chacune de ces installations devra rester limitée afin de ne pas dévoyer la mission première de l’agriculture qui est celle de nourrir la population ». Quant à l’hydroélectricité, ses capacités de production devraient peu évoluer dans les trente prochaines années puisque les principaux grands ouvrages ont déjà été construits ; il s’agit à présent de les maintenir en place.

Repenser l’aménagement le territoire

L’installation de panneaux solaires sur les toits ne sera pas suffisante pour couvrir l’ensemble des besoins en France. Alors qu’un hectare de terre est nécessaire pour produire 1 MW d’électricité, le déploiement du photovoltaïque nécessitera d’importantes surfaces. La question du partage du territoire avec l’agriculture va donc devenir de plus en plus prégnante. « Les secteurs de l’énergie et l’agriculture vont devoir se parler, explique Philippe Blanc. Des solutions existent comme l’agrivoltaïsme qui consiste à produire une denrée agricole et de l’électricité à partir de panneaux solaires sur une même surface. Mais la ligne de crête entre ces deux productions est difficile à tenir et beaucoup de projets actuels se font au détriment de l’agriculture. Malgré tout, le photovoltaïque peut aider à redynamiser l’agriculture dans certains endroits ». En attendant, de nouvelles idées apparaissent pour conquérir de nouveaux espaces comme l’installation de panneaux photovoltaïques flottants sur des plans d’eau. Concernant l’éolien, la question de l’espace disponible est également importante, compte tenu des difficultés liées à l’acceptabilité. De plus en plus de personnes ne veulent pas voir d’éolienne près de chez eux, car elles considèrent qu’elles dégradent le paysage. La capacité à développer massivement de l’éolien est donc restreinte. Reste l’option de l’éolien offshore, qui pourrait offrir un relais de croissance.

Un nouveau catalyseur en graphène pour la production d’hydrogène

Les piles à hydrogène cristallisent les espoirs et font l’objet de beaucoup de recherches à travers le monde, car les promesses sont immenses. Les piles à combustible deviendront-elles un jour la source d’énergie propre tant attendue qui supplantera définitivement les énergies fossiles ?

Cela fait bientôt 20 ans que la technologie des piles à combustible est considérée comme mature. Les piles à combustible alcalines (AFC) étaient même déjà utilisées par la NASA dans les années 60 ! Pourtant, le développement de cette technologie à grande échelle est confronté à un problème : le coût des catalyseurs. En effet, les électrocatalyseurs actuels sont constitués de métaux nobles et rares (Pt, Ru, Ir…), ce qui fait exploser leur prix, tout en augmentant considérablement l’impact environnemental de cette technologie.

La solution : trouver de nouveaux catalyseurs

Les travaux dirigés par le docteur Mohammad Tavakkoli de l’université finlandaise d’Aalto et publiés dans la revue ACS Catalysis ont pour objectif de remplacer ces catalyseurs par des matériaux alternatifs, composés d’éléments abondants sur terre.

Cette équipe a ainsi développé, en collaboration avec un laboratoire français du CNRS (le CIRIMAT) et un laboratoire autrichien, un matériau hybride très poreux, constitué de graphène, de nanotubes de carbone et dopé par des atomes simples tels que N, Co ou Mo.

Structure du catalyseur à double paroi graphène/nanotubes de carbone. Crédit : Dr.Mohammad Tavakkoli / Aalto Univesity

Une méthode de production innovante

Ces matériaux n’ont pas été choisis au hasard : le graphène, comme les nanotubes de carbone (CNT) sont tous deux des formes allotropiques du carbone dont les propriétés intéressent le monde de la recherche depuis des décennies.

Les chercheurs ont ainsi trouvé une méthode simple et évolutive permettant de faire croître ces nanomatériaux ensemble, de manière à former un produit unique, en une seule étape, ce qui permet de réduire les coûts. Ils sont ainsi l’une des rares équipes au monde à savoir synthétiser de manière évolutive des nanotubes de carbone à double paroi.

Le matériau support a aussi son importance

Les catalyseurs traditionnels sont déposés sur un matériau substrat, dont la réactivité est habituellement considérée comme négligeable. Le catalyseur hybride dont il est question ici se comporte différemment, puisque l’équipe de chercheurs a démontré que le substrat joue un rôle important dans son efficacité. En effet, la structure poreuse du catalyseur donne désormais accès à l’interface catalyseur/substrat, ce qui veut dire qu’en optimisant le substrat, les performances pourraient encore être améliorées.

Pour en savoir plus :

https://pubs.acs.org/doi/10.1021/acscatal.0c00352

https://www.aalto.fi/en/news/new-material-developed-could-help-clean-energy-revolution

Des vitrages photovoltaïques dont la transparence s’adapte à la luminosité

Renaud Demadrille, Ingénieur-chercheur au CEA. Crédit photo R. Demadrille CEA-IRIG-1

Développées au début des années 1990, les cellules solaires fabriquées à partir de colorants organiques présentent l’avantage d’être peu coûteuses à fabriquer, mais surtout d’être semi-transparentes. Grâce à un processus photoélectrochimique directement inspiré par la photosynthèse végétale, ces colorants photosensibles sont capables de produire de l’électricité lorsqu’ils sont exposés au soleil. Une équipe du CEA, en collaboration avec l’Université Pablo de Olavide (Séville, Espagne) et l’entreprise suisse Solaronix, a inventé une nouvelle famille de colorants dont la couleur varie en fonction de l’intensité lumineuse. Le résultat de ce travail, publié dans Nature Energy, ouvre la voie à la conception de vitrages photovoltaïques dont la transparence varie selon l’ensoleillement. Renaud Demadrille, ingénieur-chercheur au CEA, nous parle de cette nouvelle technologie.

Techniques de l’Ingénieur : Présentez-nous votre innovation.

Renaud Demadrille : Nous développons des cellules solaires semi-transparentes composées d’une nouvelle famille de colorants organiques dont la particularité est d’être photochrome. Ce terme signifie que leur couleur et leur transparence varient en fonction de l’intensité lumineuse. Lorsque l’ensoleillement est élevé, ces cellules solaires deviennent moins transparentes afin de filtrer davantage de lumière et ainsi produire plus d’électricité. Inversement, lorsque l’ensoleillement est faible, ces cellules deviennent plus transparentes afin de laisser traverser la lumière mais produisent tout de même un peu d’énergie. Sur le plan international, c’est la première fois qu’une équipe de recherche démontre une performance électrique de ces cellules photosensibles associée à une capacité à changer de couleur et de transparence.

Quelles sont les applications futures de ces cellules solaires ?

Le premier usage concerne les vitres des façades de bâtiments afin de produire de l’électricité. La couleur de ces vitrages photovoltaïques s’auto-adaptera en fonction de la lumière extérieure transmise avec une transparence qui variera de 30 à 60 %. À l’intérieur du bâtiment, la luminosité sera donc suffisante afin que la visibilité dans les pièces soit acceptable. Dans le passé, d’autres technologies à base de cellules semi-transparentes ont été développées, comme les cellules de Grätzel, mais leur couleur et leur transparence ne varient pas. Pour les architectes à la recherche de vitres qui produisent de l’énergie, ces cellules de Grätzel se révèlent contraignantes puisque, pour atteindre des performances électriques correctes, elles doivent être peu transparentes alors qu’ils recherchent des vitrages laissant traverser suffisamment la lumière.

Une seconde application potentielle concerne l’équipement des toits ouvrants des véhicules électriques. Nos cellules solaires permettront de recharger les véhicules en énergie tout en apportant un confort à l’intérieur puisque la lumière de l’habitacle se régulera automatiquement selon les conditions météorologiques.

Comment fonctionnent ces vitrages photovoltaïques photochromiques ?

Ils sont fabriqués à partir de deux pièces de verre recouvertes d’un oxyde transparent conducteur et qui servent chacune d’électrode. L’une des pièces est également recouverte de dioxyde de titane (TiO2). Nous incorporons, à l’intérieur de ces deux plaques de verre, un colorant organique qui va se greffer au dioxyde de titane. Nous injectons aussi un électrolyte liquide, cela peut être également un liquide ionique ou prendre la forme d’un gel polymère. Grâce à la combinaison des électrodes, du colorant et de l’électrolyte, un courant électrique va être généré. Concrètement, le colorant absorbe la lumière (les photons) et son état va alors transiter vers une forme « excitée » et ainsi injecter un électron dans l’une des électrodes. Ce colorant change alors d’état pour se présenter sous une forme « oxydée » puis, grâce à une réaction d’oxydo-réduction avec l’électrolyte, il va se régénérer, c’est-à-dire qu’il va récupérer un électron en provenance de l’autre électrode. Ce circuit électrique permet ainsi de produire de l’énergie et, au final, c’est le colorant qui est le siège de la conversion des photons en électrons. En changeant de couleur, il absorbe plus de photons pour produire plus d’électricité. Ces colorants photochromes sont actuellement utilisés pour fabriquer certains verres de lunettes dont la teinte, plus ou moins foncée, varie en fonction de l’intensité lumineuse.

Vitres photovoltaiques photochromiques – Crédit photo R. Demadrille CEA-IRIG-1

Quelles sont les performances électriques obtenues ?

Dans le cadre de ce travail de recherche, nous avons démontré une efficacité énergétique de 4 %. Nous sommes très loin des résultats des cellules de Grätzel, dont les performances en laboratoire peuvent atteindre 14 %, mais nous voulions uniquement démontrer une preuve de ce concept. L’an dernier, l’ERC (European Research Council) m’a attribué une bourse de 2,5 M€ afin de continuer à développer ce projet. D’ici 4 à 5 ans, je pense qu’il est possible de doubler la performance de cette technologie afin d’atteindre une efficacité comprise entre 8 et 10 %.

Quels sont les autres axes de recherche de vos travaux ?

Nous développons de nouvelles colorations. Pour l’instant, nous avons élaboré des colorants dont la couleur varie du jaune au rouge ou du jaune au vert. Nous travaillons sur des cellules aux teintes beaucoup plus neutres telles que le gris afin que la filtration du spectre solaire soit plus agréable pour l’utilisateur. Un peu comme avec les verres des lunettes de soleil.

Un autre axe de recherche concerne la vitesse de transition. Actuellement, ces cellules solaires se colorent assez vite en quelques minutes, mais la décoloration prend plus de temps : de quelques dizaines de minutes à quelques heures. Nous développons donc de nouveaux colorants dont la cinétique de coloration et décoloration est plus rapide, ce qui permettra d’obtenir une meilleure adaptabilité de la transparence en fonction des conditions météorologiques.

Nous travaillons également sur la stabilité et la robustesse de ces cellules. Pour certains colorants non photochromes, nous avons réussi à obtenir une durée de vie de plus de 10 ans en laboratoire. La mesure a été réalisée à partir d’un procédé de vieillissement accéléré. Pour améliorer ce résultat, nous pouvons encapsuler ces cellules afin de les protéger.

Regards de dirigeants #5 : Jérôme Duprez, président du Cetim

Spécialisé dans l’agro-industrie de première et deuxième transformation, le groupe Moret a connu une forte croissance ces trois dernières décennies.

Jérôme Duprez est président du Cetim.

Le chiffre d’affaires du groupe est en effet passé de 5 millions d’euros en 1987 à plus de 250 millions en 2018, entre croissance externe, croissance organique et internationalisation.

Surtout l’internationalisation d’ailleurs, puisqu’aujourd’hui le chiffre d’affaires est réalisé à hauteur de 87 % à l’étranger.

L’expérience de Jérôme Duprez et son engagement pour l’industrie l’ont conduit à accepter la présidence du Cetim qui, comme tous les acteurs du monde manufacturier, a subi le confinement de plein fouet… Il s’est confié aux Techniques de l’Ingénieur sur cette période et plus largement sur les services que le Cetim, dont les entreprises cotisantes sont à 90 % constituées de PME, s’efforce de mettre en place, sur le court mais aussi sur le long terme.

Yves Valentin: Comment l’annonce du confinement le 16 mars dernier a-t-elle affecté l’activité du Cetim que vous présidez ?

Jérôme Duprez : Nous avons décidé, dans un premier temps, de ne pas mettre en place de chômage partiel. Nous avons mis en place le télétravail pour 70 % de nos salariés. De part notre mission de centre technique, nous nous devions d’être présents pour les entreprises durant cette période. Nous avons ainsi tout fait pour maintenir l’ensemble de nos sites ouverts, en France, au Maroc et à Singapour.

J’ai pu observer une très grande motivation des équipes du Cetim à travailler pour la communauté que constituent nos cotisants durant cette période. Nous avons notamment renforcé notre activité d’études collectives.

Nous avons également eu de nombreux rendez-vous avec les cotisants, mais aussi avec la FIM (fédération des industries mécaniques) pour trouver des solutions communes à un certain nombre de problématiques.

Quelles actions avez-vous mises en place pour vous adapter à cette situation inédite ?

La mise en place de webinars, en partenariat avec les Techniques de l’Ingénieur d’ailleurs, nous a permis d’accentuer la diffusion, le conseil ou la formation à distance. La période de confinement s’y prêtait, et cela a été l’occasion pour nos cotisants de s’informer sur certaines évolutions technologiques comme le stockage des énergies, les machines connectées, la dématérialisation… La montée en compétence sur ces sujets transverses est souvent difficile en temps normal, faute de temps justement. Ce format a fait ses preuves, et nous allons en tirer les leçons pour l’utiliser plus largement dorénavant.

Le Cetim a-t-il également mis ses compétences au service de la lutte contre le Covid-19 ?

Tout à fait. Nous avons contribué à la lutte contre le Covid-19 avec nos armes. Nous avons conçu un pousse-seringue électrique, avec l’appui de l’industriel CMC. C’est un élément dont les stocks se sont retrouvés en tension durant le pic épidémique. Les équipes du Cetim ont mis au point et assuré la validation mécanique d’un prototype en seulement huit jours, ce qui est remarquable. Elles ont également contribué à la production de visières et de granulés plastiques entrant dans la fabrication de dispositifs médicaux.

Le Cetim a aussi joué le rôle d’intermédiaire pour la fourniture de masques à certaines de nos entreprises cotisantes, qui avaient du mal à passer commande, étant donné la tension sur les stocks.

Pour ce qui est des activités industrielles critiques, nous avons, avec la FIM, lancé un recensement et tenu à jour une liste des entreprises en activité, notamment dans les domaines de l’usinage et du travail des métaux en feuilles.

Et aujourd’hui, 11 juin 2020, où en êtes-vous ?

Aujourd’hui, le travail sur site aura totalement repris à fin juin. Vous savez qu’au Cetim notre volume d’activité repose sur deux piliers : une partie action collective et une partie prestations commerciales.

La part collective est directement liée au niveau d’activité de la mécanique qui est lourdement touchée. Les prestations commerciales peinent également à redémarrer. Pour toutes ces raisons, nous pressentons que la baisse du chiffre d’affaires sur l’ensemble de l’année devrait atteindre 25 %.

Quelle est la priorité pour les entreprises cotisant au Cetim en cette période de déconfinement ?

Il faut être clair. La priorité numéro un de nos cotisants, c’est de remettre leur outil de production en route, pour revenir à la normale. C’est loin d’être le cas aujourd’hui. Il y a aussi un besoin crucial au niveau de la gestion du cash. A partir de là, le reste, comme la R et D, est mis de côté. Il faut souhaiter que cela soit temporaire.

Je suis également juge au tribunal de commerce, et nous nous attendons à une hausse substantielle de dépôts de bilan cet automne, qui concernera un certain nombre de PME. L’urgence aujourd’hui se situe là pour les PME qui, je le rappelle, représentent 90 % de nos cotisants.

Et pour les entreprises de plus grande taille ?

Les grands groupes qui sollicitent le CETIM via son activité marchande ont déjà repoussé ou annulé un certain nombre d’études qu’ils avaient commandées avant le début de la crise. Dans ce contexte inédit, il nous faut donc adapter notre offre et diversifier nos marchés clients.

Ces problématiques de gestion du cash ont tendance à geler les investissements en R et D au niveau de nombreuses entreprises. Comment cela impacte-t-il les missions du Cetim ?

Par nature, le Cetim doit travailler énormément sur la R et D pour venir au soutien des entreprises. Cela est difficile pour le moment. Mais le Cetim est également là pour soutenir les entreprises en les aidant à revoir leur stratégie et développer leur capacité d’innovation. C’est là-dessus que nous devons passer à la vitesse supérieure.

En 2008 avait été mis en place par le Cetim, avec la FIM, le programme d’accompagnement Acamas. Cette action avait pour finalité d’accompagner les chefs d’entreprises dans la réorientation de leurs choix stratégiques et l’intégration des innovations technologiques. Ce fut un succès puisqu’ environ 2000 PME ont été accompagnées. C’est ce type d’action que nous voulons remettre en place pour contribuer à la relance.

Comment cela va-t-il se matérialiser ?

La première action concrète que nous avons mise en place est un plan d’urgence, « Résilience 4.0 », pour aider les entreprises à la fois sur des problématiques de court et de long termes. Nous sommes en train de faire évoluer la proposition du Cetim en intégrant cette approche stratégique, qui est fondamentale.

Quelles sont à vos yeux les pistes pour relancer l’industrie française ? On parle beaucoup de relocalisation. Quelle est votre opinion ?

Il ne faut pas se leurrer. J’entends beaucoup parler d’une volonté de relocaliser. Cela peut faire sens stratégiquement, pour produire nous-mêmes nos médicaments par exemple, ou certaines substances chimiques entrant dans leur fabrication. Le problème, est que ces relocalisations devront être compétitives pour qu’elles aient un avenir

Quelles sont les pistes alors, dans le contexte très incertain que nous traversons ?

Il est aujourd’hui très difficile de se projeter. Cela va beaucoup dépendre des politiques menées dans chaque pays. Mais ce que l’on va voir dans un premier temps, c’est une tendance de tous les pays à se refermer sur eux-mêmes. Cela peut avoir des conséquences en termes de fiscalité aux frontières. Il faut suivre cela de près.

Il est probable également, comme je l’ai dit un peu plus tôt, que beaucoup de pays décident de relocaliser stratégiquement une partie de leur production. Cela devrait concerner des productions de niche, pas des productions de masse. C’est une tendance que l’on pourrait voir se développer, en réponse à la crise du Covid-19.

Vous évoquez les taxations qui pourraient être la variable d’ajustement des Etats pour relocaliser et être plus compétitifs. Que peut faire la France sur la taxation des entreprises et des importations ?

Avec la FIM et l’UIMM, nous travaillons d’arrache-pied sur ce qui est pour nous la priorité des priorités : la réduction des taxes de production, en particulier de la C3S et de la CVAE. C’est ce qui nous empêche d’être compétitifs, déjà au niveau européen.

Concernant la mécanique, la FIM et le Cetim plaident pour un élargissement aux produits importés de la taxe affectée aux CTI du secteur. Aujourd’hui, une entreprise chinoise qui exporte vers la France des pièces mécaniques n’est pas assujettie, contrairement à une entreprise produisant la même pièce en France. Cela n’est pas logique et pousse à favoriser les importations. Nous regardons, avec le gouvernement, ce qu’il est possible de faire pour rééquilibrer la situation et renforcer, par là même, le rôle des CTI à la montée en gamme des produits et la compétitivité des mécaniciens du site France.

La crise du Covid-19 est-elle l’occasion de se pencher sur ces problématiques fiscales et stratégiques pour faire évoluer radicalement les modèles industriels ?

La crise du Covid-19 constitue plus un traumatisme qu’une révolution pour les entreprises. Je veux dire par là que la crise sanitaire n’a pas détruit notre industrie, elle l’a mise à l’arrêt. Aujourd’hui, nous le souhaitons tous, les entreprises vont repartir. Avec le modèle qu’elles avaient avant la crise, en le faisant évoluer. Pas en le changeant radicalement. Mais il ne faut pas oublier qu’il est compliqué, pour les chefs d’entreprises, de prendre du recul sur leurs modèles de production, pour réorienter leur stratégie et faire les choix qui s’imposent à travers une vision de long terme. Ces derniers sont toujours « le nez dans le guidon », si je puis dire. C’est sur ces points que le Cetim doit pouvoir mieux aider les entreprises. C’est dans ce sens que nous travaillons.

Comment faire pour que les entreprises et leurs dirigeants soient plus aptes à se projeter sur des stratégies de long terme ?

Aujourd’hui, 30 % des chefs d’entreprises ont plus de 65 ans. Une crise comme celle que nous vivons se révèle compliquée pour cette catégorie de dirigeants. Se projeter, investir sur le long terme, n’est pas pour eux une priorité, car la situation est trop fragile. Il y a aussi une question de taille critique pour les entreprises. C’est un peu la même problématique que pour l’agriculture. Le paysan seul, isolé, à la tête d’une petite exploitation, n’a plus d’avenir. Dans l’industrie, c’est la même chose, il faut une taille critique pour les entreprises, que je situerais autour de 100 personnes. A partir de cette taille la structure permet de développer des stratégies sur le moyen long terme. Or, aujourd’hui, la moyenne est plus autour de 40 salariés, c’est trop peu pour pouvoir se projeter.

D’ailleurs, cela se ressent dans les chiffres : dans un sondage Ipsos de 2018, 70 % des patrons de PME n’envisageaient pas de formaliser de plan stratégique. Seulement 30 % envisageaient de céder leur PME à un autre membre de la famille, c’est à dire d’appréhender le futur concrètement. Que veulent faire les 70 % restant ? La plupart du temps, ils n’ont pas de plan établi par rapport à ces questions, pris par l’immédiateté des problématiques liées à la survie directe de l’entreprise. Sur ces sujets aussi les organisations professionnelles ont un rôle de conseil et d’accompagnement à jouer.

Propos recueillis par Yves Valentin, directeur général de Techniques de l’Ingénieur, et Pierre Thouverez, journaliste. 

Bruxelles dote l’Europe d’une stratégie hydrogène propre et d’une « alliance »

Bruxelles couple cette stratégie hydrogène propre à celle en faveur de l’intégration du système énergétique, cadrant la transition vers une énergie verte. Une stratégie d’intégration qui vise à mettre en œuvre « une planification et une exploitation globales du système, associant différents vecteurs énergétiques, infrastructures et secteurs de consommation. Un tel système, connecté et flexible, sera plus efficace et permettra de réduire les coûts supportés par la société », indique la CE.

La CE estime qu’il « faut changer de paradigme pour atteindre les objectifs de 2030 et 2050 » en termes d’émissions de CO2. Et la production d’énergie, qui représente 75 % des rejets de gaz à effet de serre, est largement appelée à se transformer.

L’exécutif européen indique notamment que « l’électricité alimentant les voitures en Europe pourrait provenir des panneaux solaires se trouvant sur nos toits, tandis que nos bâtiments pourraient être chauffés en utilisant la chaleur produite par une usine voisine, laquelle pourrait être approvisionnée en hydrogène propre produit à partir d’énergie éolienne en mer. »

Un système énergétique mieux intégré

Pour la commissaire européenne à l’Energie, Kadri Simson : « Le système énergétique de l’UE doit être mieux intégré, plus flexible et capable d’accueillir les solutions les plus propres et les plus rentables. L’hydrogène jouera un rôle clé à cet égard, car la baisse des prix des énergies renouvelables et l’innovation continue en font une solution viable pour une économie climatiquement neutre ».

La stratégie promeut des combustibles plus propres, notamment de l’hydrogène renouvelable ainsi que des biocarburants et biogaz durables. La Commission proposera un nouveau système de classification et de certification des combustibles renouvelables à faible teneur en carbone.

L’hydrogène, un vecteur énergétique

Comme l’électricité, l’hydrogène est un vecteur énergétique, et non directement une source d’énergie provenant de la nature. Pour miser sur ce vecteur, il faut donc qu’il soit lui-même produit à partir de sources d’énergie décarbonées. À ce jour, l’hydrogène utilisé majoritairement dans l’industrie est produit à partir de composés carbonés. Avantage du vecteur hydrogène, il n’émet pas de CO2 et ne pollue pas l’atmosphère. En outre, l’hydrogène peut servir de matière première, de carburant et de solution de stockage.

Ainsi, l’hydrogène peut alimenter des secteurs qui ne se prêtent pas à l’électrification, comme certains process industriels (fabrication de l’acier notamment), ou encore les transports (poids lourds, navire, voire aviation surtout), la production d’électricité (pour autant que l’hydrogène soit issu de sources renouvelables) et même la construction.

L’hydrogène peut notamment offrir des possibilités de stockage pour compenser les variations des flux d’énergies renouvelables, « mais cela requiert une action coordonnée entre les secteurs public et privé, au niveau de l’UE », insiste la CE.

La priorité est de développer l’hydrogène renouvelable, produit principalement à partir des énergies éolienne et solaire. « Toutefois, à court et à moyen terme, d’autres formes d’hydrogène bas carbone seront nécessaires pour réduire rapidement les émissions et soutenir le développement d’un marché viable  », indique l’exécutif européen. Ce qui ouvre la voie à la production d’hydrogène via le nucléaire et via le biogaz, avec stockage et capture du carbone émis. L’objectif est de parvenir à porter la part de l’hydrogène à 13 %-14 % d’ici 2050, alors que ce vecteur ne représente aujourd’hui que moins de 2 % du mix énergétique européen.

D’où une stratégie par étapes. D’abord, de 2020 à 2024, un soutien de Bruxelles à l’installation d’une capacité d’au moins 6 GW (gigawatts) d’électrolyseurs pour la production d’hydrogène renouvelable dans l’UE, soit six fois plus qu’aujourd’hui, avec l’objectif de produire jusqu’à un million de tonnes d’hydrogène renouvelable par an en fin de période. Ensuite, de 2025 à 2030, « l’hydrogène devra faire partie intégrante de notre système énergétique intégré, avec une capacité d’au moins 40 GW d’électrolyseurs pour la production d’hydrogène renouvelable et une production allant jusqu’à 10 millions de tonnes d’hydrogène renouvelable dans l’UE ». Enfin, de 2030 à 2050, Bruxelles estime que « les technologies utilisant l’hydrogène renouvelable devraient atteindre leur maturité et être déployées à grande échelle dans tous les secteurs difficiles à décarboner. »

Une alliance européenne pour l’hydrogène propre

Afin de contribuer à la réalisation de cette stratégie, la CE lance, en parallèle, une « alliance européenne pour un hydrogène propre » avec des acteurs de premier plan du secteur, la société civile, des ministres nationaux et régionaux et la Banque européenne d’investissement. Thierry Breton, commissaire au marché intérieur, cité par la CE, précise : « L’alliance européenne pour un hydrogène propre (…) permettra d’orienter les investissements vers la production d’hydrogène. Elle constituera une réserve de projets concrets destinés à soutenir les efforts de décarbonation des industries européennes à forte intensité énergétique, telles que les industries sidérurgique et chimique. Cette alliance revêt une importance stratégique pour la réalisation des ambitions que nous nourrissons dans le cadre de notre pacte vert et pour la résilience de notre industrie. »

La Commission proposera par ailleurs des mesures stratégiques et réglementaires visant à assurer la sécurité des investisseurs, à faciliter l’utilisation de l’hydrogène, à promouvoir les infrastructures et réseaux logistiques nécessaires, à adapter les outils de planification des infrastructures et à soutenir les investissements, notamment dans le cadre du plan de relance « Next Generation EU ».

Un tel développement de l’hydrogène « propre » aura néanmoins un coût. La CE l’évalue entre 180 et 470 milliards d’euros d’ici 2050 à la fois pour la mise en œuvre des électrolyseurs (10 % environ de ce coût) mais aussi pour raccorder ceux-ci aux renouvelables. En outre, il s’agit aussi de créer les infrastructures de distribution et de stockage, sans oublier les systèmes de capture du CO2 (dans le cas de recours au biogaz).

Pour l’heure, 14 États membres de l’UE ont inclus dans leurs propres plans de relance une stratégie pour l’hydrogène ; le but est désormais de créer un effet de levier pour le secteur privé, en alliant financements nationaux et européens. L’Allemagne vient de mettre sur la table quelque 9 milliards pour développer une telle filière. Dans l’attente du plan de relance français, le seul chiffre mis en avant est celui du « plan hydrogène » présenté par l’alors ministre chargé de l’écologie, Nicolas Hulot, avec 100 millions d’euros à la clé. Dans les starting-blocks, la filière française représentée par l’Aphypac attend ainsi beaucoup des annonces du gouvernement à venir.

Techniques de l’Ingénieur partenaire de Big Data Paris

En 2020, le big data entre dans l’âge de raison

Cette nouvelle édition du salon Big Data Paris s’ouvre dans un contexte de remise en question des modèles de développement big data en place, laissant apparaître des questionnements de fond de la part des porteurs de projets et de leurs partenaires sur le « mieux faire ».

A l’heure où les algorithmes sont toujours plus puissants, les questions éthiques viendront compléter les réflexions autour du respect de la vie privée et de l’aspect qualitatif de la donnée. Profilage, fake news, fiabilité des algorithmes : comment encadrer le développement de ces technologies ?

Une prise de hauteur, à l’aube de cette nouvelle décennie, qui amène les organisations à se recentrer sur les fondamentaux du big data, en orientant leurs feuilles de route sur 3 enjeux clés :

  • une culture de la donnée portée et partagée par tous
  • une gouvernance de la donnée favorisant l’empowerment et la collaboration des métiers
  • une donnée de qualité, traitée de manière transparente, dans le respect de principes éthiques

Les speakers et grands témoins de cette édition 2020

Pour ouvrir la réflexion sur les technologies de demain et leur impact pour les utilisateurs et acteurs du big data, le salon a également convié des top speakers inspirants :

  • Maud Vinet, Quantum computing program manager du CEA LETI
  • Cédric O, secrétaire d’Etat chargé du Numérique
  • Aurélie Jean, Ph.D, Docteur en sciences et entrepreneur
  • Christina Poirson, Group chief Data Officer, SOCIETE GÉNÉRALE

Big Data Paris est le rendez-vous incontournable pour ceux qui souhaitent faire de leurs données un véritable levier de croissance pour leur entreprise. Une centaine de conférences et d’ateliers en accès libre, près de 370 sponsors et exposants et plus de 20 000 visiteurs sont attendus. Une occasion unique de vous informer, de benchmarker et d’échanger avec les acteurs, experts et leaders sur le marché en pleine expansion du big data.
Plus d’informations et inscriptions sur le site Big Data Paris 2020

Conquête spatiale : futurs matériaux pour enjeux nouveaux

Nous avons interrogé Peter Weiss, directeur du Département Espace de COMEX S.A et coordinateur du projet PEXTEX, à ce sujet.

Pionnière mondiale du développement des technologies pour l’intervention humaine robotique dans les environnements extrêmes, COMEX est une entreprise française fondée en 1961. COMEX participe à plusieurs projets concernant le développement de technologies permettant le retour de l’homme sur la lune, avec l’Agence Spatiale Européenne (ESA).

Combinaison spatiale “du futur”, pour sortie extravéhiculaire, design par COMEX et KEDGE (crédit : COMEX, KEDGE, Valentin Tabary, Thomas Le Roy, Elie Verneau)

Techniques de l’Ingénieur : Quel est le contexte actuel de la conquête spatiale ?

Peter Weiss : Le projet PEXTEX, auquel COMEX participe, s’inscrit dans un contexte où l’initiative est de retourner sur la Lune de manière durable. La NASA appelle cela “sustainable presence on the surface”. Il ne s’agit plus seulement d’y aller pour “planter un drapeau”, mais bien d’y installer des équipements de manière permanente. C’est le but que poursuit la NASA avec le projet ARTEMIS.

Pourquoi la Lune a-t-elle un rôle si important dans cette “nouvelle conquête spatiale” ?

L’Europe a longtemps défendu cette idée [d’implantation lunaire durable, NDLR] avec le Lunar Village du DG Wörner de l’ESA : pour permettre une exploration spatiale lointaine, il faut d’abord retourner sur la Lune et ensuite aller plus loin. La Lune peut être « le laboratoire » ou le « banc de test » de la Terre vers des contrées plus lointaines. Il serait ridicule de réfléchir à des missions habitées vers Mars si nous n’avons pas de solution permettant de retourner sur la Lune et d’y rester pour des périodes supérieures à quelques jours.

Mais il y a aussi un autre enjeu : construire une « économie lunaire ». C’est dans ce sens que j’interprète le projet du Moon Village de Wörner.

Quelle est la place de l’Europe dans ces nouveaux enjeux d’économie lunaire ?

Si on regarde aujourd’hui comment notre économie dépend des ressources extraites des profondeurs des mers, il est concevable d’imaginer que nous chercherons, à l’avenir, des ressources dans « les profondeurs » de l’espace.

L’Europe doit trouver sa place dans cet enjeu. Il n’est pas possible que le continent des explorateurs et inventeurs ne joue pas un rôle important à côté des américains, russes, chinois, indiens …

Il n’est pas concevable qu’une start-up américaine comme SpaceX arrive à faire ce que tout un continent n’arrive pas à faire. Nous avons un devoir historique de jouer un rôle fort dans cette aventure.

L’objectif du projet PEXTEX est l’identification de nouveaux matériaux et textiles pour la conception de combinaisons spatiales, susceptibles d’être utilisées pour les futures missions lunaires. Pourquoi a-t-on besoin de nouveaux matériaux pour la conquête lunaire ? Les vols habités ne datent pourtant pas d’hier ?

Le projet PEXTEX doit servir aux futurs scaphandres lunaires. Il faut souligner le mot “lunaire”, car nous ciblons en particulier des matériaux qui peuvent être une réponse à la problématique de la poussière lunaire (celle-ci est constituée de régolithe, un matériau très abrasif).

On sait aujourd’hui que les scaphandres de l’ère Apollo ont subi des dommages significatifs lors des EVA (sorties extravéhiculaires). Donc si on veut, dans l’avenir, rester plus longtemps sur la lune, il nous faut développer des équipements qui résistent à une exposition prolongée aux conditions lunaires (régolithe, nuit lunaire, radiations, températures extrêmes, etc.).

Quelles sont les caractéristiques de ces “nouveaux” textiles que vous étudiez ?

Gant intelligent, intégrant des capteurs et permettant le contrôle d’un rover lunaire ou d’un drone martien (Crédit : COMEX, Agatha Médioni)

Nous n’étudions pas seulement les matériaux résistants aux conditions lunaires. Nous regardons également du côté des « smart materials », afin d’amener d’autres fonctionnalités. On sait, par exemple, que certains textiles peuvent faire office d’affichage électronique. D’autres peuvent protéger modérément des radiations ou servir d’écran contre les impacts de micrométéoroïdes. Il y a aussi des textiles qui arrivent à s’autoréparer ou encore d’autres qui peuvent monitorer les mouvements d’un astronaute. Bien évidemment, nos choix incluent également les « matériaux classiques » que l’on trouve dans un scaphandre. Ce que nous proposons est un assemblage de matériaux, dans un ordre précis, ce qu’on appelle « un stack ».

Où en est le projet PEXTEX actuellement ?

Le projet PEXTEX est en deux phases. La première concernant l’identification des matériaux est terminée. Nous sommes dans la deuxième phase : nous proposons à l’Agence Spatiale Européenne un programme de test ou de validation qui permettra de voir si les matériaux choisis résistent à l’environnement lunaire. Pour le moment, nous avons réalisé des tests relativement classiques de l’industrie textile. En parallèle, nous sommes en train de concevoir un banc de test spécifique qui simule les conditions réelles de la surface lunaire.

Nous travaillons avec deux entités spécialisées dans ce secteur : le DITF en Allemagne qui est un des leaders Européens dans la conception et caractérisation des matériaux et textiles, ainsi que le ÖWF qui a beaucoup travaillé sur d’autres scaphandres et pour des missions analogues.

Verra-t-on un jour apparaître un scaphandre européen ?

L’Europe n’a pas, pour l’instant, vocation à développer un scaphandre. J’espère que ça changera un jour, mais ce n’est pas encore d’actualité. En revanche, les matériaux que nous étudions dans le cadre du projet PEXTEX pourraient être utilisés en tant qu’éléments dans des scaphandres développés par d’autres nations. Il y a aussi d’autres applications potentielles, comme la fabrication d’habitats gonflables ou d’autres types d’installations lunaires.

Enfin, il n’y a pas que le spatial : nous sommes en train de regarder les applications terrestres de notre étude, car les situations dans lesquelles un sujet se retrouve exposé à un environnement hostile ne manquent pas, y compris sur terre.

Propos recueillis par Arnaud MOIGN

Pour en savoir plus, c’est par ici