L’industrie française face aux pénuries d’eau

En France, le secteur qui consomme le plus d’eau, pour son fonctionnement, est celui des centrales électriques. Nucléaires ou autres, les centrales de production d’électricité ont besoin d’eau pour refroidir les systèmes. Ces besoins représentent 49 % du total prélevé en France en 2019. 90% de cette eau retourne ensuite dans le milieu naturel, non loin de l’endroit où elle a été prélevée. Il est à noter qu’en France, si la production d’électricité est le secteur qui utilise les plus grandes quantités d’eau, 80 % de ces prélèvements se concentrent sur quatre sites seulement, tous équipés de circuits de refroidissement ouverts. Ces derniers consomment en moyenne vingt fois plus d’eau que les circuits fermés. La différence entre un système fermé ou ouvert pour le refroidissement est la sortie de l’eau. Réinjectée directement dans le milieu – à plus haute température – dans les circuits ouverts, elle sera évacuée sous forme de vapeur via une tour aéroréfrigérante dans les circuits fermés.

Viennent ensuite deux secteurs, l’alimentation en eau potable (17% des volumes prélevés), et l’alimentation des canaux de navigation (16% des volumes prélevés). Comme c’est la tendance depuis le début des années 2000, la quantité d’eau prélevée pour l’eau potable tend à diminuer. On estime cette diminution à 14% par rapport aux prélèvements d’eau douce pour la potabilisation réalisés en 2003.

Le secteur agricole représente 10% des volumes prélevés, toujours en 2019. La majorité de ce volume d’eau est consacré à l’irrigation, mais les agriculteurs utilisent aussi des volumes d’eau non négligeables pour abreuver les bêtes et nettoyer les bâtiments. Dans ce secteur d’activité, la contrainte dans la gestion de l’eau réside dans le fait que parmi tous les usages, l’usage agricole est celui dans lequel le volume d’eau restitué aux milieux aquatiques est le plus faible. De plus, la période où les agriculteurs ont le plus besoin d’eau, entre avril et septembre, est celle où la tension sur la ressource en eau est maximale.

Les autres usages, à l’origine d’environ 8% des prélèvements, ont pour origine les activités industrielles. Le secteur de la chimie est le principal en termes de prélèvement d’eau douce dans le milieu naturel. Viennent ensuite les industries papetières et agroalimentaires. Mais il faut bien dire que toute activité de production industrielle consomme de l’eau, à un moment donné : en tant que solvant, liquide caloporteur… produire, au sens large, nécessite de l’eau. 25 000 litres d’eau sont nécessaires pour produire une tonne de papier, 10 000 litres pour un jean

Au vu de la raréfaction de la ressource eau, et même des épisodes de sécheresses qui se succèdent depuis plusieurs années, l’industrie se prépare à tenter de produire autant, en utilisant moins d’eau. Une ambition complexe, car les industriels œuvrent déjà beaucoup pour dépolluer leurs eaux usées, selon des normes extrêmement strictes. De plus en plus, il va leur falloir démontrer qu’ils sont en mesure de continuer à traiter leurs eaux usées, tout en diminuant les prélèvements dans le milieu naturel.

Pour cela, les industriels développent des méthodes pour récupérer et traiter les eaux usées, à des fins de réutilisation. Aujourd’hui en France, le cadre légal autour de la réutilisation des eaux traitées par l’industrie est très strict. Il ne permet au secteur industriel tricolore dans son ensemble que de réutiliser 1% des eaux usées pour les traiter et les réinjecter dans le milieu. Dans les autres pays européens comme l’Espagne ou l’Italie, ce chiffre est respectivement de 15 et 8 %.

Si l’industrie veut faire drastiquement évoluer ses pratiques en termes de gestion de l’eau, il apparaît donc nécessaire de revoir le cadre légal autour de la réutilisation des eaux usées après traitement. Ces assouplissements, dont certains sont en cours, permettront aux acteurs industriels d’imaginer des procédés plus économes en eau, en circuits fermés, afin d’anticiper une France où l’eau devient, de plus en plus vite, une ressource rare.

Comment l’intelligence artificielle devine-t-elle facilement vos mots de passe ?

Le 4 mai 2023 a eu lieu la journée mondiale du mot de passe. Comme chaque année, cette journée a été occasion de rappeler la nécessité d’avoir des mots de passe compliqués et uniques pour chacun de ses comptes.

Pourquoi cette nécessité absolue ? Si un pirate ou une personne malveillante de votre entourage connaît l’un de vos mots de passe, il peut s’en servir pour commander en ligne en utilisant votre compte bancaire, usurper votre identité pour constituer un dossier de prêt, accéder à des données sensibles de votre entreprise…

Or, trop de personnes minimisent ce risque. La réalité montre pourtant que ce risque est élevé. Pour deux raisons principales. Premièrement, trop de mots de passe sont trop simples. Une récente étude de NordPass (éditeur de logiciels de sécurité) a constaté que les trois mots de passe les plus utilisés sont 123456, 123456789 et azerty. Autant dire, des mots de passe qui n’apportent aucune sécurité, car tout le monde peut les deviner et les tester…

Deuxième facteur à risque : ces mêmes mots de passe trop basiques sont utilisés pour différents comptes. Résultat, on peut facilement les tester pour accéder à vos différents comptes personnels ou professionnels.

ChatGPT

Mais la situation devient cauchemardesque lorsqu’on apprend que des logiciels basés sur l’intelligence artificielle peuvent en deviner des millions en une poignée de minutes ! Immédiatement, on pense à ChatGPT. L’intelligence artificielle dite générative est-elle capable de trouver des mots de passe ? Normalement, cet outil est utilisé pour créer du contenu, faire des résumés, écrire des e-mails…

Des experts en cybersécurité ont voulu en savoir plus et la réponse est surprenante.

Dans un premier temps, ChatPGT fournit une réponse standard du genre : « il ne serait pas éthique de fournir une liste de mots de passe couramment utilisés, car elle pourrait potentiellement être utilisée à des fins malveillantes telles que le piratage ou l’usurpation d’identité ».

Mais dès que vous lui demandez de jouer le rôle d’un chercheur en cybersécurité qui met en garde les utilisateurs contre l’utilisation de mots de passe courants et dangereux, il affiche une liste de termes courants.

Et cette situation devient encore plus catastrophique lorsqu’on utilise une solution basée sur l’apprentissage automatique fondé sur la théorie. Cette démarche est exploitée depuis 2019 par Home Security Heroes et son outil PassGAN.

Selon une étude de cette entreprise spécialisée dans la sécurité informatique, 51 % des mots de passe étaient craqués en moins d’une minute, 65 % en moins d’une heure, 71 % en moins d’un jour et 81 % en moins d’un mois.

« Nous avons pris une liste de 15 680 000 mots de passe courants de l’ensemble de données Rockyou et l’avons utilisée pour l’entraînement et les tests. Nous excluons tous les mots de passe de plus de 18 caractères ou de moins de 4 caractères du champ d’application de cette expérience. La liste finale est ensuite divisée en sous-catégories de longueurs et de types de caractères différents », explique Home Security Heroes sur son site.

Gestionnaires de mots de passe : la solution à tous les maux

Comment cet outil est-il plus efficace que des solutions qui existent déjà depuis des années comme HashCat et John the Ripper ?

Home Security Heroes
Copyright : Home Security Heroes

À la différence de ces deux programmes qui testent des mots de passe en se référant à des dictionnaires et des règles de génération de mots de passe, PassGAN utilise un réseau adversarial génératif (Generative Adversarial Network-GAN) pour apprendre de manière autonome la distribution de vrais mots de passe à partir de fuites avérées de mots de passe, et pour générer des suppositions de mots de passe de haute qualité.

Si PassGAN peut deviner facilement des mots de passe trop simples, cette étude permet également de savoir quel type de mot de passe est le plus difficile à trouver. Comme le montre le tableau ci-dessus, les mots de passe qui comprennent plus de 18 caractères (symboles, chiffres, lettres minuscules et majuscules) sont généralement sûrs, car il faut à PassGAN au moins 10 mois pour le trouver.

En d’autres termes, plus votre mot de passe est dit « fort » (soit plus de 18 caractères), plus la probabilité que des personnes ou des systèmes d’intelligence artificielle puissent le déchiffrer est faible.

Pour de nombreuses personnes (les mêmes qui utilisent des mots de passe trop simples ou identiques pour différents comptes…), créer et mémoriser un mot de passe de 18 caractères s’apparente à un défi insurmontable. C’est oublier qu’il existe des logiciels dédiés à cette problématique.

Appelés gestionnaires de mots de passe, ils gèrent et sauvegardent eux-mêmes tous vos mots de passe. Vous n’en avez qu’un seul à connaître, celui qui permet d’ouvrir ce fameux logiciel.

Le Top 50 de l’entrepreneuriat à impact dévoilé

L’entrepreneuriat à impact se développe. Mais quelles sont les structures les plus engagées et les plus impactantes ? Pour y voir plus clair, le média Carenews a lancé la 3ᵉ édition de son « Top 50 de l’entrepreneuriat à impact en France ». « Entre l’impact washing et l’impact mania, il est difficile aujourd’hui d’avoir des repères sur ce secteur engagé, explique Flavie Deprez, directrice générale et co-fondatrice de Carenews via communiqué. Ce Top 50 a été créé pour confronter la réalité des données chiffrées aux grands discours. » En haut du podium, le Top 5 récompense Lemon Tri, Corecyclage, HelloAsso, makesense et Konexio.

TOP50 entrepreneurs impact

Ce top 50 comprend 60 % d’entreprises et 40 % de structures associatives ; leur moyenne d’âge est de 11 ans et celle de leurs fondateurs 43 ans. Il récompense les structures dans 10 catégories d’impact. Tour à tour, elles soutiennent ainsi la formation professionnelle et l’accès à l’emploi, l’accès au logement, à l’éducation et à la culture ou encore à la santé. Elles accompagnent les porteurs de projet à impact, favorisent la consommation et production responsables, luttent contre le gaspillage, réduisent les déchets, les recyclent et les valorisent. D’autres participent enfin à une agriculture plus respectueuse de l’environnement ou à la transition énergétique.

Le nouveau classement partage également trois enseignements. Premièrement, le secteur montre sa résilience face à la pandémie de Covid. Le chiffre d’affaires moyen des 30 sociétés lauréates atteint en effet 2,7 millions d’euros, en hausse de 17 % par rapport à 2021. Ensuite, la mesure d’impact s’impose comme un outil incontournable :  100 % des lauréats et 80 % des candidats en ont réalisé au moins une. Et enfin, 19 des 30 entreprises lauréates disposent de l’agrément « Entreprise solidaire d’utilité sociale » (ESUS).

Une évaluation sur 100 points

Le classement repose sur un questionnaire d’évaluation de 80 questions, notées sur 100 points. Il porte sur la solidité du modèle économique des structures (10 points), leurs pratiques en termes de gouvernance, d’égalité, de transparence et d’implication des parties prenantes (11 points), ainsi que l’intensité et la maturité de leur engagement (18 points). Le caractère innovant de leur solution, sa réplicabilité et son potentiel de changement d’échelle compte pour 23 points. L’évaluation de l’impact dépend pour sa part de la catégorie d’impact considéré et totalise 38 points.

En tête de classement, Lemon tri parvient à récolter un total de 91,9 points. « Étonnamment, la dimension sur laquelle les lauréats doivent le plus progresser, ce sont les “pratiques responsables” avec une note moyenne de 5,8/11, prévient Guillaume Brault, président et co-fondateur de Carenews. À l’inverse, la dimension sur laquelle les lauréats sont le plus performants, ce sont la “qualité et la pertinence de leur solution” avec 20,7/23. »

STOLECT teste le stockage par batterie de Carnot

Alors que les batteries électrochimiques sont souvent présentées comme la solution pour intégrer les énergies renouvelables électriques, d’autres technologies sont plus pertinentes pour des durées de décharges plus longues. C’est le cas du stockage d’électricité par conversion thermique, que présente Jean-François Le Romancer, président de STOLECT.

Techniques de l’ingénieur : En quoi consiste la technologie de la batterie de Carnot ?

Jean-François Le Romancer, président de STOLECT
Jean-François Le Romancer, président de STOLECT. © Laurence Laborie

Jean-François Le Romancer : Ce terme de « batterie de Carnot » a été proposé par l’Agence internationale de l’énergie pour désigner le stockage d’électricité par conversion thermique. Il s’agit d’utiliser de l’électricité pour comprimer de l’air en le réchauffant beaucoup ; cette chaleur sensible est stockée dans deux enceintes de matériaux réfractaires puis extraite de nouveau sous forme d’air chaud détendu dans une turbine qui fait tourner un alternateur et produit de l’électricité. Il faut bien différencier cela d’un stockage thermique qui restitue de la chaleur. Ici, l’électricité est le produit d’entrée et le produit final, avec un rendement visé de 70 %.

Avec quels matériaux se fait ce stockage de chaleur sensible et sous quelles contraintes ?

Nous avons testé différents types de matériaux réfractaires, qu’ils soient d’origines naturelles ou fabriqués industriellement, pour évaluer leur capacité à supporter l’amplitude de température. Il ne faut pas qu’ils se détériorent, en particulier à cause de la dilatation, puisque le cyclage varie entre 50 et 600°C. Parmi les options retenues, la moins chère est un basalte extrait dans le Cantal. L’intérêt de la batterie de Carnot, à la différence d’une batterie électrochimique, c’est qu’il n’y a pas de corrélation entre la puissance, qui est fixée par les turbomachines, et l’énergie stockée qui dépend de la taille des enceintes contenant les matériaux réfractaires. Cela permettra à terme d’adapter des sites à l’évolution des besoins : pour un même lot compresseur/turbine, il suffira d’ajouter des enceintes de matériaux pour stocker et déstocker deux fois plus d’électricité. Les autres avantages sont la durabilité de cette technologie, estimée à 30 ans, et le fait qu’elle a un impact carbone 7 à 30 fois moindre que les batteries électrochimiques, selon la taille de l’installation.

Où en est STOLECT du développement de cette technologie ?

STOLECT a été créée en 2019 pour porter cette technologie qui avait fait l’objet de premiers développements près de dix ans plus tôt : le projet avait été lauréat du concours mondial de l’innovation en 2014 et avait été incubé chez Keynergie. Après un premier prototype, et des études d’avant-projet soutenues par les Investissements d’Avenir et l’ADEME, nous avons décidé de lancer un démonstrateur. Il est en cours de construction à Rennes, au Technicentre Maintenance Bretagne de la SNCF, avec le soutien de BPI France, du réseau Smile Smart Grids des régions Bretagne et Pays de la Loire, ainsi qu’un apport décisif de 2 millions d’euros du fonds FEDER de la Région Bretagne. L’installation a une empreinte au sol réduite, d’environ 400 m², incluant les turbomachines (1 MW électrique de puissance) et les deux réservoirs cylindriques de matériaux réfractaires, chacun d’un diamètre de 5 mètres et d’une hauteur de 6 mètres. Au total, ils contiennent 400 tonnes de matériaux et permettent de stocker 5 MWh. D’ici mi-2024, ce démonstrateur va permettre de tester les procédures d’exploitation pour les optimiser et nous conduire vers un modèle commercial plus grand (5 MWe et 50 MWh). Nous avons une collaboration de R&D avec l’IFPEN qui a réalisé des simulations dynamiques du comportement de l’ensemble du système de stockage et qui analysera les données issues de ce démonstrateur pour en vérifier la pertinence et l’optimiser.

À quel marché s’adresse votre solution de stockage d’électricité ?

Les batteries électrochimiques réagissent en quelques millisecondes et peuvent répondre presque instantanément aux besoins de réserves primaires du réseau électrique pour contrôler la fréquence du réseau. Le stockage d’électricité par conversion thermique se positionne de manière complémentaire : il démarre moins vite, mais peut répondre à un besoin de fourniture d’électricité sur une durée dépassant 4 à 6 heures. La solution de STOLECT va donc être propice pour des industriels qui veulent décarboner leur électricité en installant des énergies renouvelables et ont besoin de les compléter avec du stockage pour satisfaire tous leurs besoins de consommation. C’est le cas par exemple de la SNCF qui dispose de réserves foncières et envisage d’installer du solaire photovoltaïque : avec notre solution de stockage, elle pourrait disposer toute la nuit de l’électricité stockée le jour. À l’échelle d’une zone d’activité, nous pensons que nous pouvons réellement aider à la massification des énergies renouvelables. C’est bien sûr évident pour les zones non interconnectées, mais pourrait se généraliser sur tout le territoire vu les objectifs de développement des EnR et les tensions sur les prix de l’électricité.

Jérôme Royan : « notre plateforme de réalité augmentée permet de bénéficier d’une cartographie à grande échelle »

En 2001, Jérôme Royan a obtenu un diplôme d’Ingénieur en Sciences de l’Informatique à l’Institut National des Sciences Appliquées (INSA) ainsi qu’un Master de recherche à l’Université de Rennes 1. Quatre ans plus tard, il obtient sa thèse en Sciences de l’Informatique, toujours à l’Université de Rennes 1. Parallèlement et jusqu’en 2013, il est ingénieur R&D chez Orange Labs à Rennes.

Chez b<>com depuis 2013, il a dirigé le laboratoire Interactions Immersives. Il est aujourd’hui architecte principal, en charge des sujets réalité augmentée, réalité virtuelle et machine learning appliqué à la vision par ordinateur. Ces principaux travaux de recherche incluent la vision par ordinateur, la réalité augmentée, les technologies cloud et l’interopérabilité.

Techniques de l’ingénieur : Il existe différentes solutions de réalité augmentée ; quels sont les points disruptifs de votre plateforme ?

Jérôme Royan
©Fred Pieau

Jérôme Royan : La réalité augmentée (RA) permet d’afficher de l’information contextuelle qui est perçue par l’utilisateur comme parfaitement localisée dans l’environnement réel à travers, entre autres, un affichage visuel. Pour se localiser dans l’espace en temps réel, ces systèmes s’inspirent de l’être humain en comparant ses observations visuelles avec une cartographie mentale de l’environnement réel. Les dispositifs de RA intègrent donc des caméras pour établir une cartographie en 3D tout en se localisant.

Les lunettes de RA présentent le double avantage d’être portables et mains libres. Mais elles présentent des limites. L’ensemble des calculs étant embarqués dans le dispositif, les capacités de calcul sont assez limitées. Les cartographies embarquées dans les Microsoft HoloLens, un casque de réalité augmentée (bien que Microsoft parle de réalité mixte pour des raisons commerciales, ce sont bien techniquement des lunettes de réalité augmentée), sont donc réduites, à l’échelle d’un bureau ou d’une machine, ce qui oblige à créer de nombreuses sous-cartographies sans continuité réelle.

À l’avenir, le déport de calculs dans le cloud ou sur des serveurs à proximité permettra d’alléger les dispositifs. Ils intégreront des capteurs (inertiels, caméras), un encodeur et une connectivité sans fil afin de transmettre les données capturées dans le cloud. En retour, les images des informations contextuelles 3D calculées dans le cloud n’auront plus qu’à être décodées et affichées. En un mot, ces lunettes n’ont qu’à décoder des images reçues et les afficher sur des petits écrans transparents. Autre atout : une amélioration de la durabilité de ce dispositif, car toutes les évolutions technologiques seront mises à jour dans le cloud. Différentes paires de lunettes sont en cours de développement, mais leur niveau de maturité est moindre comparé à celui des casques RA.

Comment votre solution permet-elle de bénéficier d’une cartographie globale ?

/AR Cloud/ permet la création et la mise à jour d’une cartographie 3D de l’environnement réel à partir de l’ensemble des dispositifs de RA qui y sont connectés (Hololens, tablette IOS ou Android), tout en localisant précisément ces mêmes dispositifs dans l’environnement réel.

Lorsqu’un dispositif a créé une cartographie locale, il va la transmettre à un autre service qui va la fusionner à une cartographie à plus grande échelle, un bâtiment ou une usine. Cette méthode SLAM (Simultaneous Localization and Mapping ou Cartographie et Localisation Simultanées) permet de maintenir à jour la cartographie globale, ce qui peut être pratique et même indispensable pour suivre l’évolution de la construction d’une usine. En s’appuyant sur un jumeau numérique et cette cartographie globale, un chef de chantier peut rapidement vérifier la conformité ou non d’un bâtiment (le passage d’une canalisation qui n’est pas bien fait, une fenêtre mal positionnée…). En affichant la maquette numérique sur le bâtiment réel, il pourra constater les problèmes et les faire corriger rapidement.

Quels sont les défis à relever pour optimiser des expériences de RA dans des environnements complexes ?

Qu’il s’agisse d’un être humain ou d’un système de RA, il est plus difficile de se relocaliser dans des environnements faiblement éclairés ou qui, à l’opposé, présentent de nombreuses surfaces réfléchissantes ou de multiples motifs répétitifs. C’est pour relever ce challenge d’environnements changeants que nous avons développé notre solution de cartographie en continu. Nous intégrons également dans nos composants du deep learning afin de mettre en correspondance des données capturées à un instant donné avec une cartographie mise à jour capturée deux ou trois jours auparavant.

Quels sont les cas d’usage de votre plateforme ?

Les domaines d’application sont très vastes. Cela va de la maintenance à l’assemblage en passant par la logistique dans l’industrie. Autre usage possible : des interventions dans des zones à risques comme les réacteurs nucléaires, où un guidage en réalité augmentée permet de réduire les temps d’intervention. La formation pourra utiliser notre plateforme /AR Cloud/ en complément de formations en réalité virtuelle.

Quand sera commercialisé votre dispositif ?

Notre plate-forme est issue de plusieurs projets européens. Nous visons un « minimum viable product » (MVP) pour mi-2024. En attendant cette première version, nous avons des collaborations pour continuer des expérimentations et améliorer la robustesse de la solution.

AG 2023 : Sortir enfin du soutien à l’expansion pétrolière et gazière ?

« Cela fait maintenant deux ans que l’agence internationale de l’énergie a projeté l’arrêt du développement de nouveaux projets de production pétrolière et gazière dans son scénario visant une limitation du réchauffement à 1,5°C, rappelle Lucie Pinson, fondatrice et directrice de Reclaim Finance. Malgré la guerre en Ukraine, l’AIE a réitéré ce message dans son second scénario NZE (« Net Zero Emissions », zéro émissions net d’ici 2050, NDLR), publié en octobre 2022. Le scénario projette en plus l’arrêt de nouveaux terminaux méthaniers, d’importation ou d’exportation de gaz naturel liquéfié. »

Pourtant, alors que les alertes des scientifiques invitent à réduire les émissions de gaz à effet de serre, à diminuer la production pétrolière et gazière, et éviter tout nouveau projet d’énergie fossile, les institutions financières françaises défendent le maintien de leur soutien à l’expansion pétrolière et gazière au nom de la sécurité énergétique. L’ONG Reclaim Finance compte profiter de la saison des assemblées générales (AG) 2023 pour dénoncer cette position. Après les AG d’Engie et d’Axa les 26 et 27 avril, le plus gros reste à venir : l’AG d’Amundi, société de gestion du groupe Crédit Agricole, se tiendra le 12 mai. S’ensuivront les AG de BNP Paribas (16 mai), du Crédit Agricole (17 mai), de la Société Générale (23 mai), puis de Scor (25 mai) et de TotalEnergies (26 mai).

Interpeller les banques, assureurs et TotalEnergies

Ces grandes banques, sociétés d’assurance et TotalEnergies font partie d’alliances pour l’atteinte de la neutralité carbone. « Pendant cette saison des assemblées générales, on va de nouveau les interpeller sur leur greenwashing et la différence entre leurs pratiques et leurs discours, prévient Lucie Pinson. On souhaite leur rappeler que derrière le maintien de leur soutien à l’expansion pétrolière et gazière, il y a des écosystèmes et il y a surtout des vies humaines déjà impactées. »

L’ONG a fait venir des représentants de communautés locales impactés et mobilisés contre de grands projets d’énergie fossile pour interpeller les acteurs financiers, TotalEnergies en tête. « Pour le secteur bancaire ou financier, nous irons interpeller les directions des entreprises sur leur soutien à des projets contre lesquels sont mobilisés les représentants invités », prévient Lucie Pinson.

Reclaim Finance espère pouvoir poser une question complémentaire portant sur le soutien de ces acteurs financiers à l’expansion pétrolière et gazière, mais aussi sur leur manque de soutien à la transition énergétique. Car il s’agit bien de réorienter les financements des énergies fossiles vers les solutions alternatives, notamment la production d’électricité renouvelable. Lucie Pinson rappelle : « Selon le scénario Net-Zero de l’agence internationale de l’énergie, il faut tripler les investissements dans la transition énergétique d’ici 2030. Pour un euro dans les énergies fossiles, il faut en mettre cinq dans la production et la distribution d’énergies renouvelables. »

Un signal encourageant : alors que BNP Paribas est la première banque européenne à financer l’expansion des énergies fossiles, selon le rapport Banking On Climate Chaos publié par plusieurs ONG en avril 2023, elle a annoncé le 11 mai 2023 avoir mis à jour jeudi sa politique climatique. « BNP Paribas n’accorde plus de financements dédiés au développement de nouveaux champs pétroliers ou gaziers, quelles que soient les modalités de financement », annonce-t-elle via communiqué. Autrement dit, elle ne financera plus directement ces projets, mais pourra toutefois continuer à financer les entreprises qui portent ces projets. D’ici 2030, l’objectif de réduction des financements de BNP Paribas est de 80 % pour l’exploration-production pétrolière, 30 % pour l’exploration-production gazière par rapport à fin septembre 2022.

Des panneaux solaires ultralégers composés de thermoplastique recyclé

Annoncée lors du salon JEC World 2023 qui s’est tenu à Paris, cette innovation permettrait aussi d’améliorer les propriétés mécaniques des panneaux, d’offrir une meilleure résistance aux UV et une conductivité thermique nettement supérieure à celle des panneaux en verre.

panneau-solaire-Solo
Panneau solaire ultraléger de la gamme SOLO® (Crédit : Solarge)

Les installations solaires en toiture : une masse non négligeable et des risques à considérer !

S’il varie suivant les modèles, le poids d’un module photovoltaïque est généralement compris entre 12 et 18 kg. Selon le type de toit et le système de pose (en surimposition, intégré au bâti, ou sur support lesté), la charge totale de l’installation peut ainsi varier de 15 à 60 kg/m² !

Toutes les toitures ne sont pas capables de supporter une telle charge, si bien que les assureurs demandent parfois de faire réaliser, avant installation, un diagnostic ou une étude de structure afin de s’assurer de la résistance mécanique de la charpente, ce qui représente un coût supplémentaire.

Mais au-delà des contraintes supplémentaires susceptibles de menacer l’intégrité des toitures et des charpentes, le poids des panneaux est avant tout problématique pour les artisans et ouvriers chargés de leur installation !

En effet, en plus d’être exposés aux risques de brûlure, d’électrisation et à toutes les contraintes liées au travail en extérieur, les installateurs de panneaux solaires thermiques et photovoltaïques intervenant en toiture sont soumis à un risque élevé de chute. Le poids des panneaux est ainsi une contrainte supplémentaire, susceptible d’aggraver le risque d’accident, mais aussi d’apparition de TMS chez les installateurs professionnels.

Selon le BLS[1], aux États-Unis, le nombre d’accidents mortels chez les couvreurs américains aurait d’ailleurs augmenté de 15 % en 2020 et certains n’hésitent pas à faire la corrélation avec la progression fulgurante du solaire, les pouvoirs publics ayant pour ambition de faire du photovoltaïque leur première source d’énergie d’ici 2050.

Quand un leader du thermoplastique nid d’abeille s’associe avec un spécialiste des panneaux légers

Compte tenu de leurs domaines de compétence respectifs, il paraissait logique que ces deux entreprises néerlandaises collaborent. D’une part, EconCore propose des technologies de pointe pour la production continue de panneaux sandwich et de pièces à âmes en nid d’abeilles thermoplastiques.

L’entreprise n’en est d’ailleurs pas à son coup d’essai, puisqu’en 2012 elle prouvait déjà que ses panneaux nid d’abeille ThermHex offraient une parfaite structure d’accueil pour modules solaires.

De son côté, Solarge est un spécialiste des panneaux légers 100 % recyclables, sans aluminium ni verre.

Selon un communiqué de presse récent, cette nouvelle gamme de panneaux nid d’abeille serait jusqu’à 65 % plus légère et facilement recyclable, puisque constituée d’un monomatériau thermoplastique.

Par ailleurs, ces panneaux bénéficient des propriétés mécaniques exceptionnelles des structures nid d’abeille, c’est-à-dire une meilleure résistance aux chocs et une bonne rigidité.

Le développement massif du solaire a besoin de panneaux ultralégers

Selon une étude réalisée par SYSTEMIQ et EversPartners, 45 à 60 % des bâtiments industriels et commerciaux néerlandais souffriraient de limitations structurelles les empêchant d’accueillir des panneaux solaires classiques.

Mais ce n’est pas un problème spécifique à ce pays. Partout, le poids des installations est un frein au développement du solaire, notamment en ce qui concerne les toitures existantes des entreprises, car ces structures sont généralement pensées pour être légères, rarement pour accueillir des installations lourdes. Par exemple, l’ajout de panneaux sur une charpente métallique s’avère souvent problématique, qu’elle soit couverte de tôle ou qu’il s’agisse d’une toiture-terrasse.

Les prochaines années, les solutions solaires de ce type vont donc se multiplier, le déploiement massif de l’énergie solaire en toiture faisant partie des objectifs inscrits dans la stratégie solaire européenne.

D’autres entreprises travaillent ainsi au développement de solutions légères, notamment en France. La startup Heliup, un spin-off du CEA-INES créé en 2022 commercialisera[2] d’ailleurs prochainement des panneaux ultraminces parfaitement adaptés aux limitations structurelles de nombreux bâtiments.


[1] US Bureau of Labor Statistics

[2] Heliup exploite 3 brevets du CEA et détient une licence exclusive

La microbiologie du sol au service d’une société durable : diagnostics et solutions innovantes

Sous la direction scientifique de Lionel Ranjard, Directeur de recherches à l’INRAe Dijon, ce colloque réunira des acteurs académiques, industriels et des agriculteurs concernés par la question cruciale de l’amélioration de la qualité des sols, en particulier de leur qualité microbiologique, et traitera deux grands volets :

  1. Comment diagnostiquer la qualité microbiologique des sols agricoles ?
  2. En quoi une meilleure biodiversité des sols peut apporter des solutions innovantes, notamment en matière de lutte contre les maladies des plantes cultivées, mais aussi de l’amélioration de la fertilité et de la durabilité des sols agricoles.

Le colloque comprendra des interventions plénières d’acteurs de la recherche académique, mais aussi d’industriels et des premiers utilisateurs concernés, à savoir des agriculteurs. Le colloque sera suivi d’une table ronde avec participation de l’audience et des intervenants, et sera animée par un journaliste expert des questions environnementales.

Date et lieu : 27 et 28 juin 2023  |  Biocitech.  Romainville-Paris, Métro Ligne 5 Bobigny-Pantin-Raymond Queneau

 

PROGRAMME ET INSCRIPTION

 

Néonicotinoïdes : « victoire posthume » pour les ONG écologistes

Le 19 janvier 2023, la Cour de justice européenne publiait un arrêt rappelant aux 27 pays membres de l’Union européenne l’interdiction des semences enrobées de néonicotinoïdes. Il juge les dérogations systématiques octroyées par le gouvernement comme illégales au regard du droit européen. Dans la foulée, le 23 janvier, le ministre de l’Agriculture, Marc Fesneau, a déclaré renoncer à autoriser par dérogation les néonicotinoïdes en France immédiatement.

Depuis 2018, l’UE a interdit ces insecticides de mise sur le marché au sein de son territoire. Pourtant, une dizaine de pays, dont la France, avaient pris des dérogations pour préserver les rendements sucriers grâce à ces insecticides. Alors que le Conseil d’État avait rejeté à deux reprises les requêtes d’ONG écologistes et de représentants du monde agricole et apicole, il reconnaît finalement dans une décision du 3 mai que « les dérogations permettant leur utilisation pour les cultures de betteraves sucrières accordées en 2021 et 2022 étaient […] illégales ». Et pour cause, « aucune dérogation n’est en effet possible si la Commission européenne a formellement interdit un pesticide », confirme le Conseil d’État.

L’association Agir pour l’environnement y voit une « victoire posthume », mais au « goût amer ». En effet, elle souligne que « la réautorisation illégale des néonicotinoïdes a permis aux betteraviers de semer près de 100 milliards de graines et d’ainsi polluer illégalement la nature ».

Retour sur des dérogations françaises

Le 4 novembre 2020, la France adoptait une loi autorisant l’usage de néonicotinoïdes en cas de danger sanitaire pour les betteraves sucrières. Suite à ce vote, 60 députés et 60 sénateurs avaient saisi le Conseil Constitutionnel pour suspendre l’autorisation dérogatoire de leur usage sur les betteraves jusqu’en 2023. Le 10 décembre, le Conseil Constitutionnel jugeait toutefois la loi conforme à la Constitution. Mais il rappelait que celle-ci devait se faire dans les conditions prévues par le règlement européen.

L’arrêté du 5 février 2021 autorisait les « semences de betteraves sucrières traitées avec des produits contenant les substances actives imidaclopride ou thiamethoxam ». L’association Agir pour l’environnement, la Confédération paysanne, la fédération Nature et progrès (UNAF) et la Fédération française des apiculteurs professionnels (FFAP) avaient demandé au juge des référés du Conseil d’État de suspendre cet arrêté. Le Conseil d’État a rendu sa décision en référé n°450194 le 15 mars 2021. Il jugeait l’arrêté conforme à la Constitution et au droit européen. « L’arrêté attaqué, qui se borne à mettre en œuvre cette autorisation pour la campagne 2021, ne porte, par lui-même, aucune atteinte grave et manifestement illégale à la liberté du commerce et de l’industrie et au droit de propriété des éleveurs d’abeilles », expliquait alors le Conseil d’État.

Rebelote en 2022. Dans sa décision en référé n°461238 du 25 février 2022, le juge des référés estime qu’en l’absence de solution alternative, la dérogation autorisant les néonicotinoïdes pour les betteraves sucrières en 2022 est légale. Ce n’était finalement pas le cas.

Cette interdiction définitive des néonicotinoïdes « va empêcher l’ajout de nouvelles pollutions » se félicite pour sa part l’ONG Pollinis, dans un communiqué. Elle prévient toutefois : « L’agriculture conventionnelle les a utilisés pendant 20 ans. Ce sont des molécules qui persistent dans l’environnement. Cela va prendre un certain nombre d’années avant que la France ne soit plus polluée, tant nous étions arrivés à un niveau de pollution important ».

3Deus Dynamics : l’impression 3D sans limites

Officiellement créée en octobre 2020, 3Deus Dynamics est le fruit de travaux de recherche menés quelques années auparavant par le Dr Christophe Marquette et le Dr Edwin-Joffrey Courtial, co-fondateurs de la start-up aux côtés de son PDG Julien Barthès. C’est en effet fin 2017 que les deux chercheurs CNRS de l’Institut de Chimie et Biochimie Moléculaires et Supramoléculaires[1] (ICBMS) ont développé, au sein de la plateforme technologique innovante 3d.FAB, un procédé d’impression 3D particulièrement innovant, résolvant les problématiques de l’impression de matériaux viscoélastiques tels que le silicone en matière d’effondrement de structure. Le procédé repose sur l’utilisation, en guise de moule, d’une poudre capable de s’adapter dynamiquement à la forme de l’objet en cours d’impression. Une approche ainsi baptisée « Moulage Dynamique ».

Flairant son potentiel en matière d’applications industrielles, les pères de la technologie se lancent alors en 2018 dans un programme de maturation financé par la SATT[2] lyonnaise Pulsalys. Tant technologique qu’entrepreneuriale, cette phase de développement se révèle « un franc succès », comme s’en félicite le Dr Edwin-Joffrey Courtial, actuel directeur technique de la jeune pousse. Une réussite qui aboutit, fin 2020, à la création de 3Deus Dynamics, à la faveur d’un transfert de technologie réalisée par l’Université de Lyon, détentrice des deux brevets internationaux protégeant le procédé.

Six mois à peine après sa naissance, la jeune pousse lyonnaise réalise une première levée de fonds et devient lauréate du concours d’innovation français i-Lab. Un premier succès pour l’entreprise, confirmé en 2022 par l’obtention d’une subvention de plus de deux millions et demi d’euros dans le cadre du concours européen d’innovation EIC Accelerator.

Actuellement en phase de certification ISO 13485[3], 3Deus Dynamics compte ainsi mettre à profit ces fonds pour accélérer son développement sur un marché prioritaire : celui des dispositifs médicaux. Cofondateur et actuel directeur technique de la jeune pousse, le Dr Edwin-Joffrey Courtial nous dévoile quelques-uns des secrets de la technologie qu’il a contribué à mettre au point, et nous livre les perspectives qu’elle ouvre en matière d’applications industrielles.

Techniques de l’Ingénieur : Comment fonctionne le procédé que vous avez mis au point ? Quel rôle la poudre joue-t-elle dans cette technologie ?

DEUS-Dynamics impression 3D - Dynamic Modling
Dr Edwin-Joffrey Courtial, Ingénieur de Recherche CNRS, co-inventeur du Moulage Dynamique cofondateur & directeur technique de 3Deus Dynamics. © 3Deus Dynamics

Edwin-Joffrey Courtial : Le Moulage Dynamique est un procédé freeform, c’est-à-dire sans limite de géométrie, dans lequel la poudre joue le rôle de moule dynamique. Cela signifie tout d’abord qu’elle permet de lutter contre la gravité. Sans la poudre, le fluide s’effondrerait sous l’effet de son propre poids, et perdrait ainsi la forme qu’on lui a conférée lors de l’impression. La poudre peut aussi jouer le rôle de charge : en fonction de leur nature, les fluides peuvent avoir tendance, ou non, à faire corps avec la poudre, à la faveur de phénomènes d’imbibition. Nous avons donc développé une profonde connaissance des couples qui peuvent engendrer un mariage intime entre fluide et poudre, ou au contraire pas du tout. On peut ensuite faire appel à des étapes de post-traitement pour retirer l’un ou l’autre. On peut choisir de ne garder que la poudre. On se rapproche alors de ce qui se fait en binder jetting[4] : on ne conserve que l’objet fait de poudre fusionnée. Par ailleurs, l’utilisation de la poudre en tant que moule permet de n’utiliser aucune structure support et donc de réduire considérablement la quantité de déchets industriels.

C’est une approche extrêmement versatile, qui permet de travailler avec de nombreux matériaux autres que le silicone : plastiques, métal, matériaux inorganiques, céramiques… et ce sans aucune reformation chimique. On peut aussi imprimer dans des poudres sacrificielles, que l’on va retirer post-impression. Notre procédé est donc très complet. Ses multiples variantes font qu’il s’adresse à un très grand nombre d’applications.

3DEUS-Dynamics impression 3D - Dynamic Modling
3Deus Dynamics a été créée en 2020 par les docteurs Edwin-Joffrey Courtial, Christophe Marquette et Julien Barthès. © 3Deus Dynamics

D’un point de vue très concret, imprimer dans la poudre consiste à utiliser une tête de dépose qui se meut au sein même de ce milieu granulaire. Cela implique donc que la poudre doit se réparer rapidement après le passage de cette tête, afin d’éliminer les crevasses qui se forment. Imaginez, par exemple, imprimer dans de la Maïzena… Cela ne serait pas du tout évident ! Le choix de la poudre repose donc essentiellement sur des questions d’écoulements, de paramètres rhéologiques. Nous savons aujourd’hui définir très rapidement si une poudre peut faire office ou non de moule dynamique, et quels seront les matériaux que l’on pourra imprimer à l’intérieur. Sans en dire trop pour des questions de protection de propriété intellectuelle, je peux simplement indiquer que ces poudres peuvent être de nature organique ou inorganique.

Votre procédé n’implique aucune limite en matière de géométrie… Qu’en est-il des dimensions de l’objet à imprimer ?

C’est effectivement une question très importante, sur laquelle nous nous sommes penchés. En sondant le monde économique, nous avons identifié une forte demande en matière de scalabilité[5] de l’impression 3D. Les industriels ont besoin de pouvoir réaliser en impression 3D des objets de plus en plus grands, mais aussi de petits objets très détaillés… Voire un mélange des deux : de très grands objets avec certaines parties très finement imprimées. De manière assez surprenante, notre procédé se révèle capable de répondre à ces besoins. Nous sommes tout d’abord en mesure d’imprimer des objets avec une résolution inférieure à 50 microns. Cela équivaut à ce qui se fait de mieux sur le marché, avec des technologies sur lit de poudre notamment. Mais nous sommes aussi capables d’imprimer de grands objets, qui tiennent dans un moule dynamique de plus d’un mètre cube.

Il s’agit d’un volume d’impression considérable, avec, en plus, des vitesses d’impression qui sont importantes : on peut atteindre des vitesses linéaires de l’ordre de 500 mm/s, là où les autres approches se cantonnent généralement à des vitesses d’environ 10 à 20 mm/s, voire une cinquantaine pour les plus performantes.

Cela est rendu possible par les propriétés rhéologiques des poudres que nous sélectionnons : elles sont capables de se réparer vite, donc de contenir rapidement le fluide d’impression, et de reprendre leur état statique tout aussi rapidement.

Nous sommes aussi capables – et cela a été l’objet de notre deuxième brevet – de rajouter de la poudre au cours de l’impression. Cela permet donc d’imprimer de très grands volumes, sans les remplir entièrement de poudre dès le départ.

Et nous avons encore plein de cartes à jouer : aller plus loin sur le plan de la résolution, imprimer des multi-matériaux… Nous avons de nombreux projets en cours, qui devraient aboutir à de grandes innovations dans les années à venir. Elles devraient ainsi contribuer à faire du Moulage Dynamique l’une des grandes technologies d’impression 3D.

Quels marchés visez-vous ?

santé - 3DEUS-Dynamics
Parmi les trois marchés prioritaires qu’elle a définis, 3Deus Dynamics compte dans un premier temps adresser celui de la santé, en produisant notamment des modèles anatomiques préopératoires. © 3Deus Dynamics

Nous avons défini trois marchés prioritaires : santé, aéronautique et défense. Parmi eux, il en est un que nous avons choisi d’adresser en premier : celui de la santé. Les fondateurs de 3Deus Dynamics sont en effet très impliqués dans cette communauté ; ils disposent d’un important réseau et d’une reconnaissance dans ce domaine.

Le financement que nous avons obtenu dans le cadre du concours européen EIC Accelerator va donc être mis à profit pour concevoir et fabriquer une ligne de production dédiée à ce secteur de la santé. Elle fonctionnera en environnement propre et permettra de réaliser des dispositifs médicaux conformément à la norme ISO 13485 et au règlement européen 2017/745.

Que représente, concrètement, une telle ligne de production, en matière d’équipements et d’infrastructures ?

Nous sommes tout simplement sur le point de déménager… Nous étions en effet pour l’heure hébergés au sein d’Axel’One Campus de l’Université Lyon 1, aux côtés de la plateforme 3d.FAB. Les mètres carrés y sont limités : nous avions jusqu’à présent à disposition une soixantaine de mètres carrés, sans salle propre. Nous allons donc, dans les trois mois qui viennent, déménager dans des locaux de plus de 1 500 m², dont 500 à 600 m² seront dédiés à la santé. Nous aurons des salles propres, dans lesquelles la ligne de production pourra être intégrée.

imprimante 3D - 3DEUS-Dynamics
Le concours i-Lab a permis à l’entreprise de concevoir et de fabriquer sa première imprimante 3D industrielle adaptée à son procédé de Moulage Dynamique : la Deus Light. © 3Deus Dynamics

D’autre part, le concours i-Lab nous a permis de concevoir et de fabriquer notre première imprimante 3D industrielle adaptée à notre procédé de Moulage Dynamique. Il s’agit de la Deus Light. Cette machine tourne déjà dans notre laboratoire. Elle est donc éprouvée, et nous permettra de répondre à des besoins de prototypage ou de petite série, pour des applications dans l’aéronautique et la défense. Cette machine pourra par ailleurs tout à fait être mise à l’échelle pour être utilisée dans des productions industrielles de plus grande série. Nous sommes pour cela accompagnés par un partenaire de longue date, expert de la machine spéciale.

Quel modèle économique comptez-vous mettre en place, à terme ?

Nous avons avant tout vocation à être un apporteur de solutions. Nous développons des produits à très haute valeur ajoutée pour tous les marchés porteurs. Nous n’écartons toutefois pas la possibilité de déployer notre outil de production industrielle directement chez le client avec accord de sous-licences et location d’instruments.

Quelles sont vos perspectives en matière de poursuite de la R&D ?

La R&D de 3Deus Dynamics provient, au départ, de l’université, du CNRS et de sa plateforme 3d.FAB. Ce lien se verra renforcer par la création d’un laboratoire commun de recherche et permettra d’accélérer le transfert des grandes innovations qui feront le Moulage Dynamique de demain.

Pour conclure, je dois dire que je suis moi-même impressionné par l’atteinte, en l’espace de 3 ans seulement, de la phase d’industrialisation de notre procédé. Cela n’a pas été de tout repos, mais le chemin parcouru a été passionnant !


[1] UMR5246, Université Claude Bernard Lyon1, INSA Lyon, CPE Lyon et CNRS

[2] Société d’accélération du transfert de technologies

[3] La norme ISO 13485 est un référentiel de certification volontaire de la démarche qualité développé pour le secteur des dispositifs (Source : AFNOR Certification)

[4] Projection de liant sur lit de poudre.

[5] Possibilité de monter en échelle

Webinar : de la réalité virtuelle aux métavers, finalités et usages

Retrouvez cet événement en replay

Quels sont les usages pertinents pour identifier les contre-vérités qui circulent sur Internet ?

Animé par Philippe Fuchs, ancien professeur de Réalité Virtuelle à l’école des Mines de Paris, ce webinaire clarifie les domaines que sont la VR, l’AR et les Métavers. Les confusions ne sont en effet pas rares. Ces définitions permettent d’apporter les connaissances afin d’analyser les usages présents et futurs qui répondront à de véritables besoins pour notre société, tout en étant économiquement viables.

Cette analyse ne peut pas se réaliser sans un minimum de connaissances sur le comportement humain, en particulier sensorimoteur et cognitif, en regard des caractéristiques technologiques des interfaces.

Voir le replay

Sécuriser l’approvisionnement des matières premières critiques en Europe

Au cours des prochaines décennies, la transition vers les énergies renouvelables et la numérisation des économies va provoquer une augmentation drastique de la demande en matières premières critiques. Le lithium par exemple, devrait voir sa demande mondiale multipliée par 89 d’ici 2050. Quant aux terres rares, la demande européenne devrait être multipliée par six à sept d’ici la même échéance. L’Europe est fortement dépendante des importations pour s’approvisionner, et ces matières premières proviennent souvent de fournisseurs d’un pays tiers en situation de quasi-monopole. Face à cette situation, la Commission européenne propose un règlement afin de garantir un approvisionnement sûr, diversifié, abordable et durable en matières premières critiques. Avant son entrée en vigueur, il devra être approuvé par le parlement européen et le Conseil de l’Union européenne.

En annexe de ce texte, une liste de matières premières critiques a été mise à jour, de même qu’une autre relative à celles dites stratégiques. Ces dernières ont la particularité d’être essentielles pour les ambitions écologiques et numériques de l’Europe ainsi que pour des applications spatiales et de défense, mais leur approvisionnement futur n’est pas sûr. Ce nouveau règlement prévoit ensuite des objectifs chiffrés pour réduire les importations. Ainsi, à l’horizon 2030, l’extraction devra permettre à l’Europe de produire au moins 10 % de sa consommation annuelle, et le recyclage, 15 %. La transformation des matières premières critiques effectuée sur le territoire européen devra aussi représenter au minimum 40 % de la consommation annuelle.

Les États membres devront mettre en œuvre des mesures nationales visant à améliorer la collecte des déchets riches en matières premières critiques et à garantir leur recyclage. Ils devront également étudier les possibilités de récupération de ces matières provenant de déchets d’extraction des activités minières actuelles, mais aussi d’anciens sites miniers. Les produits contenant des aimants permanents, utilisés notamment dans les éoliennes ou les véhicules électriques, devront satisfaire aux exigences en matière de circularité et être accompagnés d’informations sur leur recyclabilité et leur teneur en matières recyclées.

97 % de l’approvisionnement en magnésium provient de Chine

Un autre point important concerne la dépendance vis-à-vis de pays fournisseurs. En 2030, la consommation annuelle de l’Union de chaque matière première stratégique ne devra pas provenir à plus de 65 % d’un seul pays tiers, et ce, quel que soit le stade de transformation. Il faut savoir qu’actuellement, l’UE achète 97 % de son magnésium en Chine et les terres rares lourdes, utilisées dans les aimants permanents, sont exclusivement raffinées dans ce pays.

La commission met aussi l’accent sur la nécessité de consolider les chaînes d’approvisionnement européennes. Pour cela, elle souhaite réduire la charge administrative et simplifier les procédures d’autorisation des projets liés aux matières premières critiques. Les projets stratégiques sélectionnés bénéficieront en plus d’un soutien pour l’accès au financement et les délais d’autorisation seront raccourcis : 2 ans pour les permis d’extraction et 1 an pour les permis de traitement et de recyclage. Par ailleurs, les États membres devront élaborer des programmes nationaux d’exploration des ressources géologiques.

Pour atténuer les risques liés à l’approvisionnement, le texte prévoit un suivi des chaînes d’approvisionnement en matières premières critiques et la coordination des stocks de matières premières stratégiques entre les États membres. Certaines grandes entreprises devront notamment réaliser un audit de leurs chaînes d’approvisionnement en matières premières stratégiques, celui-ci comportant un test de résistance à l’échelle de l’entreprise.

Créer un club des matières premières critiques au niveau international

Il est aussi question d’investir dans la recherche, l’innovation et les compétences. Le déploiement de technologies de pointe devra être renforcé et une académie des matières premières va être créée pour promouvoir la montée en compétences de la main-d’œuvre travaillant dans les chaînes d’approvisionnement. La protection de l’environnement est aussi inscrite dans ce texte, avec notamment une demande d’accroître la circularité et la durabilité des matières premières critiques.

Étant donné que l’Europe ne couvrira jamais ses propres besoins et qu’elle continuera de dépendre des importations pour la majeure partie de sa consommation, ce nouveau règlement prévoit de développer des actions commerciales sur le plan international. Il est par exemple prévu de créer un club des matières premières critiques avec tous les pays partageant les mêmes valeurs et ceux désireux améliorer les chaînes d’approvisionnement mondiales. Un autre point concerne le renforcement du rôle de l’OMC, avec la volonté d’élargir son réseau d’accords de facilitation des investissements durables et de libre-échange, mais aussi d’insister davantage sur l’application de la législation pour lutter contre les pratiques commerciales déloyales.

Vulkam : Une gamme de métaux amorphes aux propriétés spécifiques

Inventés dans les années 1960, les métaux amorphes présentent une structure atomique modifiée, leur permettant d’acquérir des propriétés bien spécifiques. Aujourd’hui, ils sont principalement utilisés pour fabriquer de fines bandelettes (rubans) possédant des propriétés magnétiques et que l’on retrouve dans des transformateurs électriques. Fondée en 2017, la start-up Vulkam a développé une technologie pour concevoir des petites pièces en métaux amorphes. Son procédé est le fruit de plus de 30 ans de recherche sur les alliages métalliques amorphes au sein du laboratoire SIMAP (Science et Ingénierie de Matériaux et Procédés) à Grenoble. Après avoir travaillé 15 ans dans ce laboratoire, Sébastien Gravier a cofondé Vulkam. Il en est aujourd’hui le président et il nous présente le procédé développé par son entreprise, ses applications et ses perspectives.

Techniques de l’Ingénieur : Décrivez-nous ce que sont les métaux amorphes et quels sont leurs principaux intérêts ?

Sébastien Gravier, cofondateur et président de Vulkam. Crédit : Vulkam
Sébastien Gravier, cofondateur et président de Vulkam. Crédit : Vulkam

Sébastien Gravier : Ce sont des alliages métalliques qui possèdent une structure atomique désorganisée, à l’inverse de tous les métaux industriels, dont la structure est cristalline avec des atomes positionnés de manière organisée et structurée. Ce positionnement aléatoire des atomes présente deux intérêts. Sur le plan des procédés de fabrication, la structure amorphe permet de mouler des pièces dont la géométrie peut être très complexe, et avec une très grande précision. Lorsque l’on sort les pièces du moule, elles sont totalement terminées et sont utilisables directement, ce qui n’est pas le cas avec le moulage traditionnel des métaux. Ensuite, les propriétés mécaniques de ces métaux amorphes sont multipliées par deux ou trois comparées aux métaux traditionnels, que ce soit sur le plan de la résistance pure, de la capacité de déformation et de l’élasticité, de la dureté,… Les propriétés physiques et chimiques se trouvent également fortement impactées par cette nouvelle structure atomique.

Quel est le savoir-faire développé par Vulkam autour des métaux amorphes ?

Sur le plan scientifique, nous développons et optimisons une large gamme de métaux amorphes ; chacune ayant des propriétés bien spécifiques qui répondent aux demandes de nos clients.

L'alliage primaire se présente sous la forme de petites billes. Crédit : Vulkam
L’alliage primaire se présente sous la forme de petites billes. Crédit : Vulkam

Nous avons développé une première machine capable de fabriquer l’alliage primaire qui se présente sous la forme de petites billes. Dans cette machine, les différents métaux utilisés sont montés en température, jusqu’à la fusion, et mélangés dans un environnement ultra-propre. Nous utilisons des alliages à base de niobium, de zirconium, de cuivre, de nickel, de palladium… Chacun représente l’élément principal auquel nous ajoutons quatre ou cinq constituants supplémentaires, en fonction des propriétés recherchées par nos clients, mais je ne peux pas vous dévoiler la recette exacte.

Les pièces finales sont fabriquées à l’aide d’une seconde machine de thermomoulage qui fonctionne intégralement sous vide secondaire. Ce dernier permet de limiter les défauts dans la matière étant donné que l’oxygène est présent en très petite quantité. Nous fabriquons ainsi des pièces de très bonne qualité, sans perte de matière, ce qui est très important, indépendamment de l’aspect économique, pour la sauvegarde des ressources naturelles. Les billes sont fondues à environ 1 000 degrés puis sont injectées dans un moule métallique. La structure amorphe est obtenue grâce au refroidissement par le contact du métal liquide avec le moule métallique. Le passage rapide de l’état liquide à l’état solide se déroule à une vitesse d’environ 100 degrés par seconde, et permet aux atomes de ne pas s’organiser. Les caractéristiques des métaux amorphes permettent d’obtenir directement des pièces finies et de haute précision sans traitement ultérieur.

Quelles sont les applications de votre technologie ?

Dans l’horlogerie, nous avons développé une gamme de matériaux qui servent à fabriquer l’habillage de montres. Ces matériaux sont trois fois plus résistants à la rayure que les aciers inoxydables actuels, et plus résistants à la corrosion. Nous fabriquons également des pièces de mouvement horloger extrêmement petites, puisqu’elles ne mesurent que quelques millimètres de diamètre et dixièmes de millimètre d’épaisseur. En sortie de moule, nous parvenons à obtenir une précision de plus ou moins trois microns. Elles sont trois fois plus résistantes à l’usure liée aux frottements et aux aspects de tribologie ainsi que deux fois plus flexibles, dans le cas de mécanismes déformables.

Dans le domaine médical, nous fabriquons entre autres des pinces utilisées pour la chirurgie optique. Ici, l’un des intérêts se situe au niveau de notre procédé de fabrication. Actuellement, ces pièces sont fabriquées en Asie, car elles nécessitent de nombreuses étapes manuelles. Le fait d’être capable de sortir ces pièces directement du moule, permet de réduire le coût de la main-d’œuvre et d’être suffisamment compétitif pour relocaliser leur fabrication en Europe.

Dans le spatial, plusieurs applications sont en cours de développement, et l’une d’elles concerne la cryogénie. Nous développons un matériau ultra-isolant sur le plan thermique, capable de limiter les pertes de froid, et donc de limiter les besoins énergétiques et la taille des systèmes de refroidissement pour la gestion des basses températures. Nous gagnons un facteur 4 sur cet aspect isolant.

À quel stade se trouve le développement de votre projet ?

Nous travaillons déjà avec de nombreux clients. Dans le domaine de l’horlogerie par exemple, nous collaborons avec environ 80 % des horlogers présents dans le monde. Mais pour l’instant, nous fabriquons uniquement des pré-séries et des prototypes de quelques dizaines à quelques centaines de pièces. Nous sommes dans une phase d’industrialisation et avons lancé une campagne de levée de fonds, pour nous permettre de construire notre usine et produire de gros volumes. Elle devrait être opérationnelle en fin d’année 2024, et notre première ligne de production devrait arriver à saturation en 2025 et produire plus d’un million de pièces par an. En 2026, nous devrions entamer la parallélisation de cette ligne de production afin d’augmenter les volumes, grâce à une extension de notre bâtiment déjà programmée. Notre entreprise compte environ 25 personnes, et nous comptons doubler nos effectifs d’ici 2025, puis atteindre rapidement 100 personnes.

Il existe dans le monde quatre ou cinq start-up qui travaillent à la conception de pièces en métaux amorphes. Nous faisons partie de celles qui sont les plus avancées dans la maîtrise de cette technologie, car nous sommes capables d’utiliser une large gamme de matières premières afin d’optimiser les propriétés des pièces recherchées par les clients. Les autres entreprises ont tendance à se restreindre à une gamme limitée de matériaux. Cet avantage est lié à notre process de fabrication que nous avons breveté.

Industrie verte : L’enjeu majeur du foncier se pose

Le projet de loi Industrie verte attendu pour juin prochain doit engager une réindustrialisation de la France. Parmi les cinq chantiers préparés par des groupes de travail thématiques, le premier est d’« ouvrir des usines, réhabiliter des friches, mettre à disposition des terrains ».

Sébastien Martin est président d’Intercommunalités de France, fédération de près de 1 000 intercommunalités représentant 80 % de la population française. Il souligne l’enjeu majeur de cette réindustrialisation : trouver du foncier disponible, en quantité et surtout en qualité suffisante. En 2022, 67 % des intercommunalités ont refusé des implantations ou ont fait face à des départs d’entreprises faute de foncier économique disponible. Pour participer à l’élaboration de la loi, Sébastien Martin a remis début mars au ministre de l’Économie Bruno Le Maire 20 propositions, avec pour objectif de concilier réindustrialisation et transition écologique, tout en assurant la compétitivité et l’innovation. Entretien.

Techniques de l’ingénieur : Comment Intercommunalités de France participe-t-elle déjà à la réindustrialisation de la France ? Quelles propositions défendez-vous dans le projet de loi industrie verte ?

Sébastien Martin - Intercommunalités de France
Sébastien Martin est président d’Intercommunalités de France. Crédit : Grand Chalon / C. Geoffray

Sébastien Martin : Nous sommes parties prenantes du programme Territoires d’industrie, qui vise à consolider les tissus industriels « par le bas », au travers d’alliances entre élus locaux et industriels. Ils réalisent avec l’ensemble des acteurs locaux des stratégies de réindustrialisation répondant à des difficultés industrielles concrètes : densifier un site industriel comme c’est le cas dans le Grand Orly, ouvrir une école de production pour former des techniciens comme le Choletais-Mauges [en région Pays de la Loire, ndlr], mettre à disposition des industriels des équipements numériques mutualisés comme sur mon territoire du Grand Chalon (71)…

Sur la base de cette expérience inédite de politique publique, dont nous sommes à l’origine, nous appuyons désormais pour que la politique industrielle nationale ait un véritable volet territorial, de manière à répondre aux difficultés concrètes des entreprises, et les accompagner dans leurs mutations, dans les Territoires d’industrie et partout en France. Nous avons remis à Bruno Le Maire une contribution au projet de loi Industrie verte qui s’inscrit dans cette logique. Les entreprises ont besoin de foncier aménagé, dépollué, prêt à l’emploi : nous proposons donc de massifier les « sites clefs en main ».

Nous proposons une politique de modernisation, site industriel par site industriel, fondée sur nos documents d’urbanisme qui recensent toutes les entreprises. Notre rôle est donc de dire qu’il faut penser et aider tous les industriels, les petits comme les grands, et même surtout les petits, qui sont très présents au cœur des territoires, mais qui n’ont pas toujours les moyens en ingénierie pour candidater aux grands appels à projets nationaux comme France 2030.

Qu’est-ce donc que ces sites « clefs en mains » ? Est-ce un dispositif à même de répondre fortement à l’enjeu de réindustrialisation ?

Les sites « clés en main » sont une initiative inspirée par le programme Territoires d’industrie. Il s’agit de parcelles de foncier industrielles aménagées, et pour lesquelles un certain nombre d’études environnementales et archéologiques ont été réalisées. L’industriel n’a plus qu’à déposer un permis de construire et répondre aux autorisations environnementales, ce qui prend environ 9 mois. Les sites clefs en main sont proposés par nos intercommunalités et labellisés par Business France, en partenariat avec les régions qui pourront ensuite proposer ces sites aux prospects nationaux et internationaux.

Je pense que cette initiative est excellente de tout point de vue : économique, car cela raccourcit les délais d’implantation des entreprises et renforce notre attractivité, environnemental, car nous accélérons nos implantations sans réduire nos exigences, administratif, car nous favorisons la coordination entre intercommunalité, région et État. Le dispositif Territoires d’industrie s’inscrit aussi dans cette logique : aujourd’hui ce qu’il nous manque, ce n’est pas de la compétitivité, des moyens financiers… mais un portage et une coordination politiques efficaces.

Pourquoi l’intercommunalité serait-elle l’échelon à privilégier pour favoriser les implantations industrielles ?

Nos intercommunalités sont occupées à temps plein depuis la loi NOTRe dans la modernisation des zones d’activités économiques, dont elles sont responsables de manière exclusive. Ce sont elles qui sanctuarisent le foncier industriel grâce au PLUI [Plan Local d’Urbanisme intercommunal, NDLR], qui requalifient les friches, qui supervisent le raccordement aux réseaux d’eau, d’assainissement, de fibre…

Nous sommes aussi des interlocuteurs de proximité : si un industriel souhaite s’implanter, les intercommunalités l’accueillent, lui proposent un terrain et répondent à ses besoins en termes de recrutement, moyens de transport, liens avec les partenaires économiques, fournisseurs d’énergie… Cela ne signifie pas que l’on fait tout, nous sommes des « catalyseurs », et proposons de mettre en cohérence, de rendre visible ce que font les régions, l’État et ses opérateurs, mais aussi les autres acteurs économiques au niveau local.

Selon une enquête réalisée par l’association, en 2022, 67 % des intercommunalités ont refusé des implantations ou ont fait face à des départs d’entreprises faute de foncier économique disponible. 28 % des parcs d’activités sont déjà saturés, 93 % le seront à horizon 2030. La Zéro artificialisation nette (ZAN) à l’horizon 2050 augmentera la pression sur le foncier. Dans ces conditions, comment trouver le foncier disponible ?

La question n’est pas tant de savoir si le foncier disponible existe, mais si du foncier disponible et prêt à accueillir des activités industrielles prochainement existe. On dénombre 2 400 friches industrielles, couvrant entre 90 000 et 150 000 hectares du territoire national. L’enjeu réside dans la requalification de ces friches. De même, la majorité de nos ZAE (Zone d’Activités économiques, NDLR) ont en réalité de l’espace disponible à terme, puisqu’elles sont densifiables, comportent des dents creuses, etc. Les solutions sont là, mais il nous faut les moyens de les mettre en place : de l’ingénierie et des moyens financiers.

L’intercommunalité permet désormais de gérer de manière unifiée le foncier des ZAE : c’est un progrès considérable. En ce sens, nous avons récemment obtenu pour nos adhérents un soutien national à la réalisation des inventaires de ZAE, opéré par la Banque des Territoires et le CEREMA, de manière à ce que même les petites intercommunalités disposent d’une stratégie de gestion du foncier industriel.

Comment la fiscalité peut-elle jouer un rôle pour favoriser ces implantations et éviter la vacance ou la reprise des locaux industriels ?

La fiscalité, ce sont tout d’abord des recettes, qui permettent aux intercommunalités de financer leurs politiques d’aménagement. Or, la suppression de la CVAE (cotisation sur la valeur ajoutée des entreprises, NDLR) et donc du lien fiscal entre intercommunalité et implantations d’entreprises est un signal très négatif, puisqu’elles ne seront plus incitées, voire ne pourront plus porter les politiques d’aménagement préalables à l’installation des industriels ! Nous avons en ce sens proposé un partage obligatoire de la taxe d’aménagement entre communes et intercommunalité, concernant les opérations dans les ZAE, car il me semble essentiel que les intercommunalités qui investissent dans leurs parcs industriels bénéficient d’un retour fiscal.

La majorité des intercommunalités sont-elles demandeuses de nouveaux sites industriels ?

Au fil de mes déplacements dans les territoires, je remarque une chose : l’envie d’industrie est là. Dans un contexte de montée des votes extrêmes, beaucoup d’élus locaux sont très volontaristes, mais pas à n’importe quel coût social ou environnemental. Et notre contribution au projet de loi Industrie verte s’inscrit dans ce sens : nous voulons une réindustrialisation, mais celle-ci ne peut s’inscrire que dans un cadre d’excellence environnementale, précisément pour des raisons d’acceptabilité.

Nous avons ainsi défendu l’idée d’excellence industrielle concrète : notre réindustrialisation ne doit pas reposer sur un nivellement par le bas de notre exigence environnementale ou de nos salaires, mais au contraire s’appuyer sur des sites industriels d’excellence, avec un bâti à forte qualité énergétique, une main-d’œuvre qualifiée… Les intercommunalités sont justement au cœur de ces exigences au travers de leurs compétences.

Débris spatiaux : cartographier pour mieux les éviter

Suivre en quasi temps réel les débris spatiaux, c’est ce que propose Steve Wozniak, le cofondateur d’Apple, avec le lancement l’année dernière de son application en ligne Wayfinder via sa start-up Newspace Privateer Space. Autour d’un globe en 3D, on peut voir la position des satellites ainsi que les débris spatiaux grâce aux données de l’US Space Command et des satellites opérationnels. Aujourd’hui, la plus grosse base de données des objets spatiaux est américaine. Des startups Françaises, comme Look Up Space et Share My Space, se positionnent sur le marché de la surveillance en proposant leurs propres données ainsi que des services de surveillance associés. À ce sujet, nous avons interviewé Alexis Petit, directeur technique de Share My Space pour nous expliquer les enjeux et les défis techniques.

Techniques de l’Ingénieur : Quels sont les enjeux de créer sa propre cartographie des objets spatiaux ?

Alexis Petit : Aujourd’hui, les États-Unis possèdent le plus gros réseau de télescopes et radars dédiés à la surveillance de l’espace. Leurs données sont accessibles gratuitement, mais filtrées. Ils ont le monopole, car peu d’États ont la capacité de voir ce qui se passe en orbite. En faisant la cartographie des objets spatiaux, nous en avons près d’un millier aujourd’hui, notre objectif est d’établir le catalogue le plus étendu possible en se rapprochant dans un premier temps de l’américain (soit 25 000 objets) puis d’atteindre les 100 000 objets à plus long terme.

Quels sont les objets cartographiés ?

Le catalogue contient des satellites manœuvrant ou non manœuvrant, des étages de lanceurs abandonnés en orbite ou des débris. Actuellement le catalogue américain contient des objets de plus de 10 cm. Si nous souhaitons observer plus d’objets, il faut pouvoir observer les objets plus petits. C’est la raison pour laquelle Share My Space développe un télescope de 1 m de diamètre afin de pouvoir détecter des objets aussi petits que 2 cm en orbite basse.

Comment comptez-vous dépasser le catalogue américain ?

Nous souhaitons développer un réseau de télescopes propriétaires pour produire des mesures sur les objets, de façon quotidienne. Ces mesures permettraient de suivre les satellites, les débris spatiaux et de prédire leurs futures positions. Pour l’instant, nous ne possédons que deux stations avec un télescope : l’un dans le sud de la France, l’autre en Amérique du Sud. Et nous sommes en train d’installer notre première station multitélescope en Europe.

ShareMySpace téléscope
Share My Space réalise une cartographie de l’espace en développant ses propres télescopes. Crédit : Share My Space

Quel est l’intérêt d’une station multitélescopes ?

Pour faire de la veille en orbite basse, il faut regarder tout le ciel en même temps. Et pour cela, il faudrait plusieurs centaines de télescopes, car ils ont un angle de vue de 2 à 3°. Un satellite géostationnaire est facile à cartographier parce qu’il reste toujours au-dessus d’un même point au sol, ce qui n’est pas le cas du satellite en orbite basse. Ce dernier tourne autour de la terre une dizaine de fois par jour et il faut plusieurs stations pour l’observer suffisamment. Et tout l’enjeu réside dans notre capacité de revisite, c’est-à-dire de voir le même objet le plus souvent possible. Et ça, ça dépend du réseau de télescopes que l’on a.

Et justement, l’une des innovations que l’on a développées et brevetées chez Share My Space, c’est utiliser des stations de quatre télescopes qui balayent le ciel. Au lieu de pointer une zone fixe du ciel, ils vont balayer une couronne du ciel suffisamment vite pour pouvoir observer tout objet traversant cette bande. Toutes les secondes, chaque télescope va pointer dans une direction opposée, à 90° l’un de l’autre. Toutes les secondes ils vont se repositionner pour acquérir une nouvelle image etc.

Utilisez-vous des télescopes spécifiques ?

Nous avons développé nos propres caméras, avec des capteurs Cmos 60/60mm, plus grands qu’un capteur photo. Nous avons également codéveloppé avec notre partenaire Accor une monture suffisamment puissante pour qu’elle puisse se repositionner rapidement. Cela reste des composants simples, que ce soit la monture, le télescope ou encore la caméra. Mais l’enjeu est de les faire fonctionner de façon synchronisée et suffisamment vite pour les faire balayer la couronne du ciel.

Un second enjeu est de traiter les images capturées en temps réel, car nous avons besoin des informations le plus rapidement possible. Et capturer une image par seconde… fois quatre… c’est assez conséquent ! Et il faut traiter chaque image en temps réel. Nous avons donc un ordinateur dédié pour le contrôle et le traitement de chaque monture. Ce qui demande des compétences en computer vision puisqu’on fait de la détection d’objets dans les images. Et les images… c’est un fond d’étoile avec un objet qui passe dans le champ en faisant une traînée lumineuse. À part que le champ d’étoiles n’est pas homogène et la traînée non plus. Alors on a développé un algorithme de machine learning.

Quelles sont les données produites pour cartographier un objet ?

Nous produisons deux types de données : astrométrique et photométrique. La donnée astrométrique permet d’avoir les coordonnées angulaires – la position – d’un satellite dans le ciel, et la donnée photométrique le flux de lumière mesuré. Avec ces données, on peut restituer des orbites et estimer si l’objet est en rotation grâce à ses variations de luminosité. Chaque nouvelle mesure nous permet de calculer une position et une vitesse à un instant T. L’objet détecté peut être corrélé à un objet existant dans un catalogue public, sinon c’est un nouvel objet dans notre catalogue. Si des manœuvres sont détectées, alors on suppose que c’est un satellite manœuvrant. S’il a des variations de luminosité importantes, on peut supposer qu’il n’est plus contrôlé et passe dans la catégorie débris.

En effet, la trajectoire d’un satellite est déterminée. Si celui-ci manœuvre, c’est plus compliqué : il peut y avoir des cas où on pense observer un nouvel objet, alors qu’il a manœuvré. Et d’ailleurs, l’un de nos objectifs est de prédire les positions futures de tous les objets en orbite. C’est-à-dire connaître les positions de ces objets jusqu’à un horizon de 5 à 10 jours, ce qui permettrait de prédire les risques de rapprochement dangereux et d’estimer le risque de collision. À partir des données américaines, on propose aujourd’hui un service de gestion de risque de collision. Si on estime un risque au-delà d’un certain seuil de sécurité, on propose à l’opérateur d’effectuer une manœuvre d’évitement.

La manœuvre d’évitement se fait combien de temps avant ?

Quelques heures avant. Mais ça dépend des opérateurs : certains vont attendre le dernier moment pour avoir la donnée la plus fraîche possible, car une manœuvre coûte du carburant. Notre rôle est donc d’apporter la donnée la plus fiable pour éviter les faux positifs et éviter une manœuvre non nécessaire.

Et lorsque le risque est avéré, c’est-à-dire sous la centaine de mètres, l’opérateur va modifier la distance relative entre les objets de plusieurs dizaines voire centaines de mètres. Cependant, ce n’est pas vraiment la distance entre objets que l’on va regarder le plus, mais la probabilité de collision. Si on a une très forte connaissance des deux orbites, même proches, on est sûr qu’il n’y aura pas de collision. Mais s’il y a une incertitude très forte, le risque va être plus élevé.

La première giga-usine de panneaux photovoltaïques d’Europe sera française

Pierre-Emmanuel Martin - Carbon
Pierre-Emmanuel Martin est président et cofondateur de CARBON (Crédit : Carbon)

 CARBON est une société industrielle française à dimension européenne portée par une alliance inédite d’entrepreneurs, d’industriels et d’experts de l’énergie solaire.

Elle a annoncé l’implantation de sa première giga-usine de produits photovoltaïques dont la mise en service est prévue pour le 2e semestre 2025 et sera suivie d’une montée en puissance industrielle d’un an, au terme de laquelle 5GW de cellules seront produites chaque année.

D’ici 2030, CARBON ambitionne de produire et commercialiser 30 GW de wafers, 20 GW de cellules et 15 GW de modules photovoltaïques grâce à la construction, en Europe, de plusieurs gigas-usines du même type.

Techniques de l’ingénieur : Pourquoi est-il essentiel de construire des giga-usines de produits photovoltaïques ?

Pierre-Emmanuel Martin : Cette giga-usine sera la première du genre en France, mais aussi en Europe.

Il s’agit de la réponse française à une question cruciale pour l’Europe : comment réduire notre dépendance à la Chine pour la fourniture de panneaux et de cellules photovoltaïques ? Car ce sont des briques essentielles de notre système énergétique.

Pour l’Europe, la construction de giga-usines intégrées a donc pour vocation de reprendre en main notre indépendance énergétique. Ce sont de très gros objets industriels, dont le but est de produire en forts volumes pour approvisionner en priorité la France et le marché européen en produits photovoltaïques compétitifs, performants et très bas carbone.

Cette première giga-usine de 60 hectares, d’une capacité de production annuelle de 5 GW de cellules et 3,5 GW de modules, sortira de terre en 2025. Elle sera implantée à Fos-sur-Mer, sur le Grand Port Maritime de Marseille (GPMM) et permettra de produire 12 millions d’unités par an[1].

chaîne de valeur de Carbon
La chaîne de valeur de CARBON : du polysilicium au module photovoltaïque (Crédit : CARBON)

Sur quoi misez-vous pour développer la filière solaire européenne ?

CARBON est le vaisseau amiral qui va permettre de renforcer l’écosystème français et européen en termes de R&D[2]. Nous amorcerons une réindustrialisation profonde en consolidant et en développant la filière, en amont comme en aval.

En amont, nous agirons sur le volet équipements industriels pour la production de composants photovoltaïques et sur les matières premières (silicium, verre, aluminium, etc.).

En aval, il s’agira de consolider un écosystème existant et résilient, sur l’assemblage de modules, car les quelques industriels ayant résisté à la concurrence chinoise en ce qui concerne l’assemblage de modules[3] manquent cruellement de cellules produites en Europe. Une partie des cellules produites par notre usine servira ainsi à construire nos propres modules, alors qu’une autre partie sera vendue à des assembleurs.

Enfin, les équipes R&D travailleront également sur de nouvelles applications, notamment les produits photovoltaïques intégrés aux bâtiments (BIPV) et le photovoltaïque intégré aux véhicules (VIPV).

Quelle sera la place de l’innovation et de la R&D ?

Cette usine sera d’un nouveau genre. D’une part ce sera une usine 4.0 entièrement électrifiée, intelligente, robotisée et avec 0 émission de CO2.

D’autre part, nous ne voulions surtout pas construire une grosse boîte posée sur un terrain lambda. L’usine s’intégrera de manière harmonieuse sur le site et les bâtiments seront organisés en plusieurs blocs de différentes tailles, articulés entre eux avec des espaces verts, des circulations, des respirations, etc.

Ce site de 60 hectares sera ainsi organisé comme une petite ville, un campus industriel qui accueillera également des équipes de R&D, puisqu’il est prévu que 3 % du chiffre d’affaires annuel soit réinvesti en R&D et pas uniquement sur de la rupture technologique.

Nous miserons aussi sur de l’innovation incrémentale, car cela permet de progresser petit à petit, sur tous les stades de la chaîne de valeur. Nous travaillerons sur l’amélioration de la cellule (architecture, métallisation, traitement chimique, qualité du silicium…), mais aussi sur les modules (qualité du verre, cadre, encapsulants…), en gardant toujours à l’esprit l’aspect prix et compétitivité.

Les technologies que nous utiliserons seront donc tout à la fois innovantes et « bankables ».

Comment rendre compétitive la filière PV européenne ?

Pour être compétitive, la filière française et européenne doit passer à l’échelle, c’est-à-dire faire du volume.

C’est le même problème qu’en électronique : en multipliant par dix la capacité de production, vous réduisez par deux le coût de production. C’est le principe qu’ont appliqué les Chinois. En 15 ans, ils ont réussi à atteindre de très gros volumes et à baisser drastiquement le coût du panneau, si bien que l’énergie photovoltaïque est devenue l’énergie la plus compétitive du marché.

C’est ce type de modèle industriel, le passage à une échelle énorme en intégrant toute la chaîne de valeur, qu’il nous faut maintenant appliquer, afin de réduire les marges d’intermédiation, de peser sur le marché vis-à-vis de l’achat des matières premières et d’augmenter la capacité de négociation.

Par ailleurs, produire les panneaux en Europe permet d’enlever une grosse part du coût financier du transport, ce qui compense tout ou partie du surcoût du travail vis-à-vis de la Chine, qui n’est d’ailleurs pas aussi important que certains aiment à le dire.

Vous parliez de 0 émission de carbone. Y a-t-il d’autres objectifs en termes de performance environnementale ?

Les bénéfices environnementaux de cette gigafactory seront multiples.

D’une part, les panneaux, cellules et modules qui seront produits bénéficieront d’un mix énergétique bas carbone, ce qui n’est pas le cas des panneaux chinois. Ensuite, l’usine utilisera les panneaux qu’elle fabrique pour produire une partie de son énergie.

D’autre part, les procédés seront optimisés du point de vue énergétique et étudiés pour avoir un maximum de circularité. L’eau de refroidissement sera en circuit fermé, les eaux industrielles seront traitées et recyclées à 80 %, les chutes de silicium seront recyclées et nous serons attentifs à l’ensemble de nos consommations en ressources.

Travaillerez-vous également sur la recyclabilité des panneaux en fin de vie ?

La question de la recyclabilité a été intégrée dans la conception des produits, dès l’origine du projet et les panneaux seront au maximum recyclable. En France, grâce à SOREN, les panneaux peuvent déjà être recyclés à 95 %.

Nous travaillerons aussi sur la délicate et (à ce stade), coûteuse récupération du silicium des cellules en fin de vie, qui nécessite la mise en place de techniques avancées. S’il est relativement simple de délaminer un panneau en fin de vie, la récupération du silicium des cellules en vue d’une réutilisation implique des opérations minutieuses et complexes.

Des initiatives sont en cours en Europe et en particulier en France sur ce volet. Nous espérons en être capables d’ici quelques années, car la circularité est un enjeu important.


[1] 5GW de modules = environ 12 millions de panneaux, soit 25 km²

[2] via des partenariats avec le CEA, l’INES, l’ISC Konstanz, l’IPVF, le Becquerel Institute, etc.

[3] En France, par exemple, Systovi et Voltec.

DRIAS-Eau : prédire l’évolution de la ressource en eau pour s’adapter

Alors que le gouvernement a présenté son Plan eau le 30 mars dernier et que la sécheresse touche toujours une grande partie de la France, Météo-France lance Drias-Eau. Ce portail régional permet de visualiser, à l’aide de cartes, l’évolution locale des ressources en eau suivant l’évolution future du climat. Les projections sont disponibles à court, moyen et à long terme, jusqu’en 2100.

Les données hydrologiques du climat futur s’inscrivent dans le cadre des scénarios élaborés par le GIEC. L’objectif ? « Permettre à tous les acteurs, les usagers, les élus locaux, les chercheurs, les professionnels, de mieux appréhender l’évolution des ressources en eau dans les années à venir, à l’échelle de leur territoire, pour mieux s’y préparer », explique Christophe Béchu, ministre de la transition écologique et de la Cohésion des territoires, dans le dossier de présentation du projet.

Le portail a été développé dans le cadre du projet européen LIFE Eau&Climat coordonné par l’OiEau. Il intègre les premiers résultats du projet Explore2, piloté par INRAE et l’OiEau, qui a pour but de mettre à jour les projections hydrologiques. D’ores et déjà, il intègre des simulations sur le débit des cours d’eau sur près de 850 points du réseau métropolitain. Il comprend aussi des données sur l’évapotranspiration, l’humidité des sols et le ruissellement. Enfin, il prédit l’équivalent en eau du manteau neigeux, soit la quantité d’eau potentiellement disponible au moment de la fonte, ainsi que le drainage (la quantité d’eau qui s’infiltre dans le sol). Dès l’été 2024, il intégrera en plus les données concernant les eaux souterraines et atteindra près de 4 000 points de simulations sur l’ensemble des cours d’eau du territoire.

DRIAS-Eau : prédire l’évolution de la ressource en eau

Depuis quelques décennies, la disponibilité en eau diminue en France. En particulier, « la ressource en eau renouvelable, c’est-à-dire l’eau fournie par les précipitations qui ne retournent pas à l’atmosphère et celle des cours d’eau, a baissé de 14 % en France métropolitaine, en moyenne annuelle, entre les périodes 1990-2001 et 2002-2018 », avance Météo-France, selon des chiffres du ministère de la transition écologique. Et « entre 2017 et 2020, plus de 30 % du territoire a été concerné chaque année par des restrictions d’usages de l’eau », ajoute l’organisme.

Le cycle de l’eau et la disponibilité en eau est bien amenée à évoluer dans les prochaines décennies. D’après Météo-France, il faut notamment s’attendre, d’ici 2050, à « une hausse des débits des cours d’eau en hiver, une baisse importante en été » dans le cas d’un scénario modéré d’émission de gaz à effet de serre. L’établissement prévoit aussi « jusqu’à deux fois moins d’eau dans le manteau neigeux dans les Alpes » et « une forte augmentation du nombre de jours de sol sec », entre +10 et +25 jours dans toutes les régions, dans le même scénario.

Drias-Eau s’ajoute ainsi au portail Drias-climat, lancé en 2012. Ce dernier modélise également sous forme de carte, région par région, différentes données associées au climat futur de la France jusqu’en 2100.

CADFEM donne rendez-vous aux utilisateurs d’Ansys lors de la Simulation Conference

Rendez-vous le 8 juin 2023 pour le premier évènement dédié à la simulation numérique avec Ansys en France ! Dans un cadre spacieux et convivial, nous vous attendons nombreux lors de cet évènement en présentiel au Campus Veolia à Jonage (près de Lyon).

Les présentations techniques

Lors de cette journée, diverses présentations seront données par des conférenciers issus du monde industriel. La pluralité des physiques ainsi que des domaines d’activités représentés garantiront une journée riche en contenu à haute valeur ajoutée concernant les dernières avancées dans la simulation.

Les présentateurs des conférences travaillent sur les interfaces Ansys afin de développer de nouveaux produits. Quels étaient les enjeux au début du projet, quelle a été la méthode employée afin de résoudre les problématiques, quelles étapes clés dans le développement ont été franchies pour aboutir à l’innovation ? Que ce soit en dynamique des structures, des fluides, des particules… tous les jours les industriels perfectionnent leurs produits. Les présentations faites par des ingénieurs vont vous montrer leurs résultats obtenus grâce à la simulation réalisée dans Ansys. Un temps d’échange est prévu à la fin de chaque présentation.

Un rendez-vous convivial entre passionnés de la simulation numérique

Le format de la Simulation Conference 2023 vous permettra d’échanger en toute convivialité avec vos pairs ainsi que l’équipe CADFEM. En effet, retrouvez dans le hall Panorama les stands de nos sponsors pour cet évènement : Ansys, FRA-SYS, Mécanium ainsi que Techniques de l’Ingénieur. Les ingénieurs CADFEM seront aussi présents pour chaque pôle de physiques afin de vous montrer les possibilités des logiciels Ansys. C’est l’occasion d’échanger sur vos challenges, vos enjeux, dans un environnement convivial.

Vous pourrez voter pour la présentation technique la plus ambitieuse selon vous et en fin de journée le trophée CADFEM récompensera le choix plébiscité par le public. L’an dernier c’était la start-up CIXI qui avait remporté le trophée pour l’étude dynamique de la sécurité passive d’un véhicule actif avec Ansys LS-Dyna. La remise du trophée de la présentation technique la plus innovante clôturera l’évènement lors du verre de l’amitié.

>>> Informations et inscriptions

Chaque inscription est individuelle, assurez-vous de bien remplir le formulaire.

>>> Visionner la vidéo souvenir de l’édition précédente 

 

L’agenda de la CADFEM Ansys Simulation Conference Lyon 2023

9h30 | Accueil

10h00 | Présentations du matin
Nicolas Goreaud – Framatome 
Utilisation de réseaux de neurones pour créer un métamodèle de calculs Fluent d’injection d’eau froide dans un réacteur nucléaire 
Quentin Racat – Gerflor 
Simulation du poinçonnement sur des sols PVC multicouches avec Ansys Mechanical
Hugues Lemaistre – Calderys
Utilisation de la méthode DEM pour l’optimisation de produits réfractaires avec Ansys Rocky

12h30 | Cocktail déjeunatoire

14h00 | Présentations de l’après-midi
Josselin Guedon – TSE
➤ Développement d’une structure agrivoltaïque innovante : la canopée agricole avec Ansys Mechanical
Thierry Adane – SKF
Évaluation numérique de la résistance des boulons dans les grands assemblages mécaniques avec Ansys Mechanical et l’extension BAIA
Jean Contet – Oreca
Développement aérodynamique sur Prototype LMP1 pour les 24h du Mans avec Ansys Fluent
Philippe Rohart – CETIM
Dimensionnement des équipements sous pression et réutilisation de canalisation avec Ansys Mechanical

17h15 | Remise du trophée et verre de l’amitié

A propos de CADFEM

CADFEM, dont le siège est en Allemagne depuis 1985, est une société de logiciels de simulation, d’intégration et de services d’ingénierie. L’entreprise distribue les logiciels de simulation Ansys et est certifiée « Elite Channel Partner ». La simulation numérique permet aux industriels d’optimiser le développement de leurs produits : gain de temps, performance, réduction des coûts, dans des secteurs phares comme la mobilité, l’énergie, les procédés…

Partenaire de proximité, CADFEM transmet les compétences nécessaires à l’utilisation optimale des outils auprès de ses clients. Guided-work, développements d’applications métiers, support technique, formations sur-mesure ou inter-entreprise, en présentiel ou hybride, CADFEM est un organisme de formation certifié Qualiopi qui ne cesse de diversifier son catalogue.

Ansys

Qualiopi - Bureau Veritas

 

 

 

 

Le groupe CADFEM est fortement implanté en Suisse, en Allemagne, en Autriche et au Royaume-Uni et dispose de 200 ingénieurs experts de la simulation multi-physique.

Pierre-Emmanuel Dumouchel : « L’aide à la décision par des bots permet aux ingénieurs de se concentrer sur l’innovation »

Incubée à Télécom ParisTech, cette start-up créée en 2017 a bénéficié d’une levée de fonds de 5,5 millions d’euros en 2021. Explications avec Pierre-Emmanuel Dumouchel, fondateur de Dessia

Techniques de l’Ingénieur : Comment des « bots » peuvent-ils aider des ingénieurs dans leurs prises de décision ?

Pierre-Emmanuel-Dumouchel-Dessia
Titulaire d’un DEA « Dynamique des Structures et des Systèmes couplés », Pierre-Emmanuel Dumouchel a passé dix ans chez PSA avant de fonder son entreprise avec un associé, Steven Masfaraud. Photo copyright : © Alexis Guinet

Pierre-Emmanuel Dumouchel : je vais prendre comme exemple le cas de Renault avec lequel nous avons travaillé à définir l’architecture de refroidissement. Lorsque vous placez votre moteur thermique, la boîte de vitesse et d’autres éléments comme la climatisation, les ingénieurs ont le choix entre des millions de façons de router tous les systèmes de refroidissements, de placer les échangeurs… Dans ce cas précis, nous avons développé un bot qui va générer de façon exhaustive tous les chemins possibles et qui en proposent au final une centaine qui sont très intéressants, dont les trois premières qui sont considérées comme les plus optimisées. C’est ce qu’on appelle l’aide à la décision.

L’intégration de ces « compagnons virtuels » a-t-elle été facilement acceptée ?

Au départ, notre objectif était de tout automatiser dans la recherche d’une solution optimale. Cependant, nous avons réalisé qu’il était crucial de permettre à l’ingénieur de choisir la solution à adopter afin de garantir l’acceptabilité de l’approche. En général, nous constatons que les ingénieurs sont disposés à adopter de nouvelles méthodes de travail en déléguant certaines tâches de génération exhaustive à un bot. Toutefois, il est essentiel pour eux de reprendre le contrôle en fin de processus.

En réduisant la durée d’une itération de design, votre solution pourrait inciter les entreprises à réduire leurs équipes d’ingénieurs ?

C’est une façon de voir les choses, mais toutes les grandes entreprises avec lesquelles nous travaillons dans l’automobile (Renault), l’aéronautique (Airbus) et le ferroviaire ne sont pas dans cette logique-là. Elles veulent libérer les ingénieurs des bureaux d’études et autres pour pouvoir les mobiliser sur des tâches à plus forte valeur ajoutée telle la recherche et l’innovation de rupture à plus long terme comme la propulsion à l’hydrogène. Pour les constructeurs français, le principal défi est de ne pas prendre trop de retard par rapport à Tesla et aux marques chinoises qui arrivent sur le marché.

Il faut repenser la façon de concevoir les produits si l’on veut être compétitif

Oui. Pour l’instant, nous déployons des bots chez nos clients sur des métiers isolés dans un premier temps. Mais rapidement, les industriels se rendent compte que cette intégration présente des avantages. Avec une reformulation du savoir de leurs différentes équipes, l’entreprise est amenée à des réflexions plus profondes afin de revoir sa façon de travailler des différents métiers et de modifier ses interfaces.

Quels nouveaux métiers pourraient apparaître grâce à l’IA ?

Dans l’industrie, il y a déjà des distinctions entre département « méthodes » et « opérationnel ». Nos clients veulent évoluer en augmentant considérablement la taille des départements « méthodes » et réduire l’autre partie opérationnelle. Celle-ci serait de plus en plus avec des processus automatisés. Les départements « méthodes » comprendraient des data scientists qui seraient en quelque sorte les « artisans » chargés d’outiller tous les processus automatisés. Si l’on regarde la façon de travailler chez Tesla, on constate que les services qui pensent à l’intégration de l’IA sont très développés.

Quels sont vos projets ?

Dans un premier temps, notre objectif est de nous développer à l’échelle européenne. Notre défi technique consiste à améliorer nos approches pour nous orienter vers le Low-code, de manière à ce que les ingénieurs généralistes, qui ne sont pas des experts en data-science et qui travaillent dans des ETI où il y a peu, voire pas du tout, de profils de data scientist, puissent utiliser nos outils pour développer leur propre bot. En proposant des solutions Low-code, nous visons à améliorer l’accessibilité et l’usage de nos bots dans les entreprises.

Création de MECALLIANS : la FIM, le CETIM et l’UNM unissent leurs forces pour faire rayonner l’industrie mécanique française

Ce rassemblement d’une fédération (la FIM), de son centre technique (le CETIM) et de son bureau de normalisation (l’UNM) est inédit en France.

Quand les acteurs historiques veulent donner un nouveau souffle à l’industrie mécanique

Mecallians est l’union de trois entités majeures, qui ont contribué à l’histoire du secteur mécanique français et y contribuent toujours.

La Fédération des Industries Mécaniques (FIM) est une fédération industrielle qui rassemble 19 syndicats professionnels de la mécanique et dont les origines remontent à 1840. Véritable porte-voix des entreprises qu’elle représente, elle constitue un levier d’influence, de puissance, de notoriété et d’attractivité.

Au sortir de la Seconde Guerre mondiale, l’industrie française est à reconstruire et dans une large mesure à développer. C’est dans ce contexte que la loi du 22 juillet 1948 acte la création du statut juridique de centre technique. En 1961, la FIM décide alors de doter toutes ses professions de centres techniques, des structures de recherche technologique jouant un rôle majeur dans les processus de transferts technologiques et d’innovations.

Ceci conduira, en 1965, à la création du Centre Technique des Industries Mécaniques (CETIM), le centre d’expertise mécanique français.

Enfin, en 1977, afin de répondre aux besoins croissants de la mécanique en matière de normes, la FIM et le CETIM créent l’Union de Normalisation de la Mécanique (UNM)[1], le bureau de normalisation sectoriel travaillant par délégation de l’AFNOR.

En annonçant la création de Mecallians en mars 2023, la FIM, le CETIM et l’UNM réaffirment un fait historique, qui est l’appartenance à une même famille, avec la volonté de se projeter vers l’avenir.

Une bannière commune pour faire rayonner l’industrie mécanique française

Dans une interview récente, Christophe Garnier, le directeur de la communication du CETIM, nous confiait que la raison d’être de Mecallians est de « montrer aux politiques comme aux professionnels qu’il existe en France une vraie structure capable de défendre la profession et de la projeter vers l’avenir. »

Cette bannière commune a notamment comme objectifs de :

  • porter les combats de l’industrie mécanique en France comme ailleurs ;
  • protéger notre industrie ;
  • renforcer l’innovation ;
  • faire de la pédagogie, afin de renforcer l’attractivité de secteur vis-à-vis des plus jeunes ;
  • dessiner un futur positif qui réconcilie industrie et écologie.

Les acteurs de la mécanique sont en effet au cœur des enjeux énergétiques et environnementaux, car une grande partie des défis actuels sont des défis mécaniciens.

Selon Christophe Garnier, « la stratégie technologique et d’accompagnement des PME du CETIM est fixée par des contrats de performance cosignés par le CETIM, la FIM et l’État. Si le contrat actuel se termine fin 2023, nous savons déjà que, sans surprise, la transition environnementale et énergétique figurera dans les axes principaux du prochain contrat. Cette thématique sera bien évidemment portée par Mecallians ».

Mecallians se tourne vers l’avenir et vers les jeunes

À l’instar de nombreux secteurs industriels, le monde de la mécanique a aussi besoin d’attirer de nouveaux talents. Si la mécanique souffre d’un manque de visibilité, elle est pourtant indispensable, car elle sert tous les pans de l’industrie.

Dans le communiqué de presse annonçant la création de Mecallians, Henri Morel, Président de la FIM, explique que « dans le développement de nos sociétés, dans la marche du progrès humain, la mécanique a toujours joué un rôle décisif. À l’image du moteur, qui a transformé à jamais la mobilité, c’est elle qui met le monde en mouvement. Au cœur de toutes les révolutions industrielles, de la machine à vapeur, jusqu’au numérique et à l’interconnectivité, en passant par la robotique, elle a permis le développement de l’industrie et a façonné notre mode de vie. Cette bannière commune doit nous permettre de créer les nouvelles conditions, solutions et normes d’un avenir positif ».

Au cours de la révolution industrielle, la mécanique était alors une technologie de pointe et on parlait de mécanisation de la société. Avec le temps, la mécanique est devenue une technologie de base et elle s’est tellement bien intégrée qu’on ne la voit plus.

Christophe Garnier précise : « À nous de prouver que la mécanique est un élément de solution aux défis de demain. D’où le slogan de Mecallians : la mécanique fait bouger le monde, à nous de faire bouger la mécanique. »

Pour remettre en avant la mécanique, Mecallians devra donc faire de la pédagogie et montrer aux jeunes générations qu’elle est aussi attractive que les technologies numériques, qui sont les technologies de pointe actuelles. Cela se fera notamment au travers de l’industrie 4.0.

Enfin, si Mecallians n’en est qu’au début de son histoire, l’alliance est appelée à se renforcer et à évoluer, car selon Christophe Garnier, Mecallians a été créée avec une volonté d’ouverture.

« L’alliance devrait encore se renforcer prochainement, avec l’arrivée d’autres partenaires. L’idée est que l’ensemble des acteurs de l’écosystème mécanicien qui le souhaitent se raccrochent à cette bannière commune. »


[1] L’UNM

Des impulsions laser pour traiter des matériaux contaminés au tritium

Le tritium est un isotope de l’hydrogène, produit en grande quantité dans les centrales nucléaires. Sa radioactivité est relativement faible puisque après un peu plus de 12 ans, la moitié de ses atomes sont désintégrés et transformés en hélium. Sa surveillance est malgré tout importante sur le plan sanitaire. Des doses de tritium peuvent, entre autres, se trouver en quantités importantes dans certains matériaux ayant été en contact prolongé avec un environnement tritié. Au sein d’un projet baptisé Padawann, des scientifiques de l’Université de Rouen Normandie ont développé une méthode basée sur le pouvoir du laser pour les décontaminer.

Le procédé consiste à réaliser une interaction entre des faisceaux laser impulsionnels et les matériaux contaminés. Le rayonnement laser doit être suffisamment énergétique, et la température qui résulte de l’interaction doit dépasser le point de fusion, et peut même aller jusqu’au point d’ébullition, voire au-delà pour que le matériau passe à l’état de gaz et qu’une fine couche de métal se retire de la surface de ce dernier. Cette technique est donc destructive, mais seulement en surface. La petite épaisseur de matière à retirer ne fait que quelques dizaines de microns, et dépend de la profondeur de pénétration du tritium.

« L’innovation vient du fait qu’en même temps que l’on retire cette couche, on parvient à vérifier la quantité de tritium encore présent, explique Arnaud Bultel, maître de conférences en physique à l’université de Rouen Normandie du Carnot ESP. Grâce au processus d’interaction laser-matière, la température devient très élevée et une lumière est émise, et l’on réussit à l’analyser par spectroscopie. C’est ainsi qu’on obtient un moyen de mesurer la quantité de tritium en direct, pour vérifier qu’on a retiré une couche suffisante de matière et qu’il n’y a plus de tritium sur le matériau. »

Des tests au CEA Saclay, habilité à manipuler des échantillons contenant du tritium, ont déjà été réalisés. Encore au stade du laboratoire, l’objectif est à présent d’industrialiser cette technologie. Elle devrait principalement être utilisée pour décontaminer des matériaux métalliques, qui sont le plus souvent en interactions avec des environnements tritiés. Et notamment l’acier 316L, très employé dans l’industrie nucléaire, ainsi que le tungstène, classé dans la catégorie des métaux réfractaires, comme l’explique le chercheur : « L’interaction laser-matière est très bien placée en termes d’efficacité, car l’on peut très facilement atteindre le point d’ébullition du tungstène qui est très haut [il est atteint à 5 555 degrés, Ndlr]. Ces matériaux réfractaires, qui sont difficiles à traiter d’un point de vue thermique, le sont facilement avec des impulsions laser. »

Extraire le tritium des micros et nanoparticules de matière

Les scientifiques ne veulent pas s’arrêter là. Car si le matériau se trouve décontaminé, la couche superficielle de retrait, qui se présente sous la forme d’une poudre, reste quant à elle contaminée. Dans une deuxième étape, les chercheurs veulent traiter les micros et nanoparticules de matières obtenus lors de la première étape, et en extraire le tritium. Là encore, le procédé de traitement reposera sur les propriétés des impulsions lasers, mais les chercheurs souhaitent rester discrets sur cette technologie, qui fait l’objet d’un brevet.

« Il s’agit d’un travail prospectif, complète Arnaud Bultel. Sur le papier, il fonctionne, mais on peut ne pas avoir pensé à tous les problèmes potentiels et la preuve de concept doit encore être réalisée. Si on se contente d’enlever la couche de tritium du matériau, on a en quelque sorte déplacé la contamination, car le tritium est toujours présent dans un matériau sous forme de poudre. C’est pour cela que nous souhaitons aller au bout, et le retirer de ces microparticules et récupérer les atomes de tritium pour les réemployer dans d’autres process, par exemple pour les injecter dans un réacteur de fusion nucléaire. »

Le projet Padawann a remporté un appel à projet France 2030. D’une durée de quatre ans, il doit s’achever en janvier 2027.

Transition énergétique : mieux comprendre la diversité des pays

L’attention se focalise actuellement sur les risques géopolitiques et sur l’inflation, à juste titre. Le besoin de réduire les émissions de gaz à effet de serre et de sécuriser l’approvisionnement en énergie ne peut néanmoins pas être reporté. Dans un rapport publié fin 2022, le cabinet de conseil McKinsey a rappelé le besoin d’agir rapidement en ce sens dans le monde entier, tant pour des mesures de court terme que pour des actions coordonnées de long terme. Il pointe en particulier les différences de modalités entre régions du monde pour que soit mise en œuvre une transition énergétique la plus ordonnée possible.

La prise de décision dans le secteur de l’énergie doit être d’autant plus rapide que les process sous-jacents dans ce secteur évoluent lentement. Et la tendance est encore loin des objectifs de décarbonation. Dans le monde, la part des énergies renouvelables est certes passée de 9 % à 13 % entre 2011 et 2021 dans la consommation globale d’énergie primaire. Mais, simultanément, les énergies fossiles sont restées dominantes (82 %) et elles ont augmenté en valeur absolue puisque la consommation mondiale est passée de 521 à 595 exajoules. En conséquence, en 10 ans, les émissions de CO2 dues à l’énergie ont augmenté de 5 %. Les engagements pris à la COP27 par les pays sont encore insuffisants : selon le GIEC, les politiques actuelles mèneraient à un réchauffement planétaire moyen de 2,4°C à 3,5°C d’ici 2100, bien loin du 1,5°C souhaitable. Selon McKinsey, l’écart entre ces deux scénarios revient à réduire les émissions de gaz à effet de serre de 2,4 Gt CO2e par an. Soit un effort correspondant à une baisse de 7 % des émissions mondiales du secteur de l’énergie en 2021, tous les ans !

Des pays logés à différentes enseignes

Pour atteindre ce niveau de baisse, McKinsey évalue que les capacités éolienne et solaire photovoltaïque installées chaque année devraient tripler, en passant d’environ 180 GW ces dernières années à plus de 520 GW la prochaine décennie. Le niveau d’accélération est différent selon les régions du monde. Le facteur multiplicateur pour le solaire photovoltaïque va de 1,4 au Japon à 11 en Afrique, l’Europe étant à 3,7. Pour l’éolien, on va de 1,8 en Chine à 16 pour l’Afrique, l’Europe étant à 2,3.

La capacité de chaque pays à engager cet immense chantier dépend de trois conditions selon McKinsey : l’accès à des ressources naturelles sur son territoire (soleil, vent, eau, terrains, minéraux, etc.), la capacité de son économie et de son industrie à être moins dépendantes des énergies fossiles et le cas échéant de leur importation, la possibilité d’engager de forts investissements et de les tenir sur la durée, le temps d’en récolter les fruits (réduction des dépenses d’exploitation, amélioration de la résilience, baisse des coûts). À l’aune de ces critères, on peut distinguer cinq catégories de pays :

  • les pays riches et dont l’approvisionnement en énergie est sécurisé, comme l’Australie, l’Arabie Saoudite, les États-Unis, le Canada, la Suède ou la France. Comptant pour 8 % de la population mondiale et 22 % des émissions de gaz à effet de serre, ils ont les moyens de mettre en œuvre une transition tout en restant exportateurs d’énergie ;
  • les pays riches plus exposés à des risques d’approvisionnement qui doivent augmenter leur production domestique pour être moins dépendants d’importations et « verdir » leurs industries. Il s’agit par exemple de l’Allemagne, de l’Italie, du Japon, de l’Espagne, de la Pologne, d’Israël ;
  • les grands pays aux économies fortement carbonées que sont la Chine, l’Inde et l’Afrique du Sud. Avec 37 % de la population mondiale et 40 % des émissions de gaz à effet de serre, leur défi est immense pour trouver un équilibre entre croissance de la demande en énergie et décarbonation de leurs moyens de production ;
  • les économies en cours de développement disposant d’importantes ressources naturelles utiles à la transition énergétique, tels le Brésil, les Philippines, le Mexique, l’Égypte ou l’Argentine ;
  • les pays en cours de développement dont l’économie repose beaucoup sur l’agriculture et qui sont fortement exposés aux bouleversements climatiques. Des pays d’Afrique, d’Asie du Sud-est et les nations insulaires sont très concernées, avec des moyens d’action limités.

Cette analyse de McKinsey se concentre trop sur les moyens de production d’électricité et semble oublier que la baisse de la demande d’énergies – par efficacité et sobriété – réduirait le niveau de l’effort pour décarboner la production. Néanmoins, elle liste plusieurs types d’action qui aideraient tous les pays à progresser. Il s’agit tout d’abord de rendre physiquement possible le développement des énergies renouvelables, en donnant plus facilement accès à des terrains, en faisant évoluer les réglementations y compris pour utiliser de nouvelles technologies (batteries, hydrogène), en sécurisant les chaînes d’approvisionnement des ressources stratégiques (minéraux, composants électroniques, etc.) par du recyclage et des partenariats de long terme, et en investissant dans les solutions connexes (efficacité énergétique, hydrogène, captage-utilisation-stockage du CO2, mobilité électrique, etc.). En second lieu, les incitations économiques doivent réduire le recours à de nouveaux moyens utilisant les énergies fossiles, et des mécanismes de compensation (coût de l’énergie, changement de compétences) doivent être mis en place pour aider les populations impactées par la transition. Enfin, McKinsey rappelle que le cadre global des institutions (privées et publiques) doit soutenir la transition, notamment par des mécanismes de marché adaptés et la généralisation d’un prix du carbone.

Le premier textile du marché capable de capter et détruire les polluants organiques de l’air

Manon-Vaillant-PureNat
Manon VAILLANT est Directrice générale et cofondatrice de PureNat

PureNat est une start-up cofondée par la chercheuse Natacha Kinadjian Caplat et Manon Vaillant.

Elle propose une rupture technologique majeure en matière de qualité de l’air intérieur avec une commercialisation pour 2024.

PureNat est incubée par la Communauté d’Agglomération Pays basque, au générateur d’activités Arkinova (Technopole Pays basque), ainsi que par Bordeaux Technowest.

PureNat est soutenue par l’ADEME, Bpifrance, l’ADI Nouvelle-Aquitaine, la Région Nouvelle-Aquitaine, et est membre de la FrenchTech Pays basque et FrenchTech Bordeaux.

La sart-up a été récompensée par le global award (catégorie Jeune Pousse) lors de l’édition 2023 du salon Global Industrie.

Techniques de l’ingénieur : En quoi la solution développée par PureNat se démarque-t-elle des autres techniques de dépollution de l’air ?

Manon Vaillant : Les solutions de traitement de l’air actuellement sur le marché sont à 90 % de la filtration mécanique. Les polluants sont emprisonnés dans des filtres. Cela fonctionne très bien, en revanche pour que cela reste efficace, il faut très régulièrement les remplacer. Ces filtres sont des consommables, cela coûte cher et leur manipulation nécessite des précautions, l’opérateur étant particulièrement exposé aux polluants lors de la maintenance.

Il y a aussi un risque de relargage des polluants lors du remplacement des filtres et leur fin de vie est également problématique au niveau de l’impact environnemental, puisqu’il n’y a aucun recyclage possible.

Nous exploitons la technologie de photocatalyse, dont l’efficacité dans la destruction des polluants est reconnue pour de nombreuses applications, mais qui est encore peu utilisée dans le traitement de l’air. En effet, les solutions mises en place jusqu’à présent sont souvent inefficaces, car elles ont l’inconvénient d’utiliser des matériaux recouverts, imprégnés ou revêtus d’un agent photocatalytique.

Pourquoi l’utilisation de matériaux revêtus est-elle problématique ?

Cette méthode de traitement a plusieurs défauts majeurs. D’une part, on se retrouve avec un matériau dont le principe actif est déposé à la surface. Avec le temps, le passage de l’air à l’intérieur du matériau provoque une érosion qui a tendance à relarguer dans l’air l’agent photocatalytique sous forme de nanoparticules de TiO2 potentiellement dangereuses pour la santé.

En plus d’être dangereuse, cette érosion diminue également l’activité photocatalytique du matériau.

D’autre part, ce mode de traitement limite la quantité de particules photocatalytiques que l’on peut intégrer à un matériau. Dans la majorité des cas, ces quantités sont insuffisantes pour traiter l’ensemble des polluants à éliminer et les réactions d’oxydation sont alors partielles. Non seulement c’est peu efficace, mais il y a en plus création de polluants secondaires qui sont parfois plus dangereux que le polluant d’origine.

En quoi consiste la solution que vous proposez ?

Au cours de sa thèse, mon associée Natacha Kinadjian Caplat a compris que malgré ses défauts, la technologie de photocatalyse restait très prometteuse. Elle a donc cherché à éliminer les défauts dans sa mise en œuvre, ce qui l’a conduite à créer le premier filament photocatalytique du marché. À la différence des autres solutions que nous venons de citer, il s’agit d’une fibre composée de l’agent photocatalytique, et non pas d’une fibre revêtue.

Partir d’un fil nous permet ainsi de réaliser un maillage qui maximise la teneur en agent photocatalytique, en utilisant les mêmes technologies de fabrication des filtres textiles. En revanche, contrairement à un filtre classique, les polluants emprisonnés dans le maillage sont ici totalement dégradés, à condition que la source lumineuse soit suffisante.

Quels types de polluants arrivez-vous à dégrader avec cette solution ?

Parce que l’oxydation est totale, cette technologie est efficace pour dégrader tout contaminant organique, y compris les virus, les bactéries et les COV. Nous avons prouvé que l’activité photocatalytique est au moins 20 % supérieure en comparaison au filtre photocatalytique de référence sur le marché.

Nous avons aussi testé l’efficacité de la filtration : aucun relargage de polluants n’a été constaté, seulement des émissions liées à la dégradation complète, c’est-à-dire du CO2 et de la vapeur d’eau.

Quels sont les avantages par rapport à d’autres technologies de dépollution de l’air émergentes ?

D’autres solutions alternatives à la filtration, comme la dépollution par UV-C, sont en train d’émerger. Nous ne considérons pas ces autres solutions comme concurrentes, mais plutôt comme complémentaires. En effet, en traitement de l’air on recherche toujours une combinaison de solutions, car chacune possède son champ d’application.

Par exemple, notre technologie ne détruit pas les polluants minéraux ni les grosses poussières et l’utilisation d’un préfiltre reste nécessaire. Les UV-C sont très efficaces contre les polluants biologiques, mais pas pour éliminer les polluants chimiques. Enfin, avec les UV-C, il y a aussi la problématique du relargage d’ozone, qui est un gaz dangereux.

Quelles sont les applications visées ?

De manière générale, nous visons l’ensemble des applications qui impliquent l’utilisation de filtres pour la dépollution de l’air et en particulier de filtres à charbon actif. Néanmoins, comme nous venons toutes les deux du monde du bâtiment, nous avons commencé par approcher les fabricants de purificateurs d’air et de centrales de traitement d’air (CTA), pour des applications tertiaires.

Nous nous intéressons également à d’autres secteurs d’activité, notamment l’industrie, car nous estimons qu’il y a un énorme potentiel.

Comme notre fibre est souple et ressemble à du coton, cela nous permet de fabriquer un textile très flexible, semblable à de la ouate et donc d’imaginer des géométries personnalisées, de la miniaturisation, et d’adapter le produit aux caractéristiques de chaque procédé industriel.

Enfin, nous avons identifié de nombreuses applications spécifiques : traitement de l’air dans les cabines d’avions, les habitacles automobiles, pour les procédés de dépollution des sols, etc.

La commercialisation est-elle pour bientôt ?

Suite à la réalisation d’un premier pilote industriel, nous travaillons maintenant à l’élaboration d’une machine pour l’activation du textile en série, une étape cruciale de notre procédé.

L’objectif est d’arriver à suivre les cadences de production du CETI, notre partenaire chargé de la transformation des granulés de matière (élaborés par la plateforme CANOE) en bobines de fil puis en rouleaux de textile non tissé.

La question du financement de la partie industrialisation est d’ores et déjà réglée, grâce à notre levée de fonds de 1,1 M€ et nous espérons mettre en route cette machine au dernier trimestre 2023, ce qui nous permettra de lancer la production en grande série en 2024.

Les thèses du mois : Le pari de l’hydrogène vert

Pour notre dossier d’avril, « Le pari de l’hydrogène vert », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

 

Le rôle de l’hydrogène dans la transition énergétique
Sai Bravo Melgarejo
Thèse de doctorat en Sciences économiques, soutenue le 17-12-2021.
Transitions Énergétiques et Environnementales

 

Tidal stream energy integration with green hydrogen production : energy management and system optimisation
Ansu Alex
Thèse de doctorat en Mécanique des fluides, énergétique, thrmique, combustion, acoustique soutenue le 24-06-2022.
Laboratoire universitaire des sciences appliquées de Cherbourg

 

Multiphysics modelling for online diagnosis and efficiency tracking : application to green H2 production
Sumit Sood
Thèse de doctorat en Automatique, productique, Soutenue le 07-12-2021.
Centre de recherche en informatique, signal et automatique de Lille

 

Recycling of high temperature solid oxide electrolyzers or fuel cells and recovery of waste materials
Gudaysew Tsegaye Yenesew
Thèse de doctorat en Chimie des matériaux, Soutenue le 16-12-2022.
Institut des Matériaux Jean Rouxel

 

Sustainable Hydrogen Production on PGM-free Electrocatalytic Materials in Anion Exchange Membrane Water Electrolyzer (AEMWE)
Carlos Victor Mendonca Inocencio
Thèse de doctorat en Chimie théorique, physique, analytique, Soutenue le 08-12-2022.
Institut de Chimie des Milieux et Matériaux de Poitiers

 

Étude expérimentale d’une cellule d’électrolyseur à membrane échangeuse de protons (PEMWE) : contribution à l’optimisation d’une Pile A Combustible Réversible (PAC-R), pour le stockage d’énergie solaire
Sébastien Boulevard
Thèse de doctorat en Énergétique, Soutenue le 28-05-2021.
SLaboratoire d’énergétique, d’électronique et procédés

 

Élaboration, caractérisation et évaluation photocatalytique de matériaux de type TiO2 dopé – graphène
Hamza El Marouazi
Thèse de doctorat en Chimie physique, Soutenue le 13-12-2021
Institut de chimie et procédés pour l’énergie, l’environnement et la santé

 

Stockage solide réversible de l’hydrogène : Étude et modélisation du comportement de la particule isolée de composés intermétalliques lors de l’absorption
Ludovic Bebon
Thèse de doctorat en Mécanique, soutenue le 02-07-2021
FEMTO-ST : Franche-Comté Electronique Mécanique, Thermique et Optique – Sciences et Technologies

 

Nanomatériaux pyroélectriques pour la production d’hydrogène vert
Salma Touili
Projet de thèse en Physique Physique de la Matière Condensée, depuis le 01-09-2022
Laboratoire de physique de la matière condensée

 

Optimisation de la production d’hydrogène vert sous incertitudes
Victor Spitzer
Projet de thèse en Informatique mathématique, depuis le 01-03-2023
Laboratoire Interdisciplinaire des Sciences du Numérique

Le véritable coût de l’hydrogène vert

Un extrait de Applications mobiles et stationnaires de l’hydrogène dans la transition énergétique par André RAHIER

 Le coût du dihydrogène obtenu par vaporeformage du méthane varie entre 1,5 et 2,5 €/kg. Il passe au moins à 3,5 €/kg lorsqu’on utilise de l’électricité nucléaire pour électrolyser de l’eau. Il s’accroît encore à plus de 5 €/kg si l’électricité est d’origine éolienne ou photovoltaïque. Les contraintes environnementales et, principalement, les objectifs de réduction des relâchements de gaz à effet de serre (CO2) obligent toutefois à viser la production d’hydrogène vert par électrolyse de l’eau en utilisant des énergies renouvelables. Cette transition devra inévitablement passer par une diminution du prix du kg d’hydrogène vert, quoiqu’en parallèle, le coût réel des énergies actuellement exploitées ne cesse d’augmenter lorsqu’on prend en compte l’impact sur l’environnement.

Hydrogène : vers une production à grande échelle ?

Selon l’Association française pour l’hydrogène et les piles à combustible, la production mondiale de dihydrogène était de 60 Mt/an en 2014 et serait passée à 74 Mt/an en 2018. Ces chiffres restent des estimations qui varient d’ailleurs très légèrement selon les sources d’information. On peut affirmer avec certitude qu’en 2020, le dihydrogène était soit produit à la demande en vue de réaliser la synthèse d’autres agents chimiques (ammoniac, méthanol, hydrocarbures légers), soit obtenu en tant que sous-produit de la synthèse de la soude et du chlore ou de la gazéification du charbon. La production d’hydrogène par électrolyse de l’eau reste actuellement très marginale et ne représente que 4 % de la production totale.

Pour couvrir la consommation actuelle à l’aide d’hydrogène, la production annuelle mondiale de ce nouveau vecteur énergétique devrait être portée à 880 Mt/an, soit environ 15 fois plus que la capacité de production mondiale totale actuelle, et 367 fois plus que la capacité mondiale actuelle de production par électrolyse de l’eau. Quant à la puissance électrique nécessaire, en supposant que le rendement de l’électrolyse est d’au moins 70 %, on serait amené à consommer 4,8 TW, soit approximativement 13 fois la puissance électrique nucléaire installée dans le monde en 2015. Ces chiffres sont même très optimistes, car ils ne tiennent pas compte de l’évolution démographique et de la demande énergétique qui aura lieu pendant la période nécessaire pour réaliser la transition. À titre informatif, en 2019, la puissance électrique photovoltaïque exploitée dans le monde était estimée à 0,06 TW…

Une veste chauffante pareille à une fourrure d’ours polaire

Les ours polaires sont soumis à des conditions environnementales parmi les plus difficiles sur Terre, avec des températures pouvant descendre jusqu’à -45°C ! L’évolution les a donc dotés d’un mécanisme de thermorégulation basé sur des matériaux polymères optiques, capable d’engendrer un effet « de serre » sur le corps même de l’animal. Au lieu de simplement s’isoler des conditions environnementales, la faune polaire use activement de la lumière solaire pour maintenir sa température. Chez l’ours polaire, sa fourrure blanche lui permet de transmettre le rayonnement incident à sa peau noire. Une fois que cette dernière a absorbé l’énergie entrante, la fourrure l’empêche de la rayonner vers l’extérieur. Résultat : des animaux magnifiquement adaptés à leur milieu, qui ne craignent pas le moins du monde le froid polaire.

La chaleur de la fourrure, sans la fourrure…

Les humains comptent sur leurs vêtements pour stabiliser leur température corporelle dans des environnements extrêmes. Malheureusement, les fenêtres thermiques des tissus utilisés sont limitées. C’est pourquoi trois ingénieurs de la University of Massachusetts Amherst ont travaillé sur la conception d’une veste censée imiter l’adaptation au froid des ours polaires. Présentée le 5 avril 2023 dans ACS Applied Materials & Interfaces, leur idée repose sur l’emploi de deux couches de tissu afin d’empêcher la dissipation de chaleur corporelle tout en maximisant l’absorption du rayonnement visible. Les tissus en question sont ultralégers et munis de fonctions optiques complémentaires. La partie externe du vêtement se compose de fils isolants transparents en polypropylène (PP), un polymère thermoplastique possédant une grande résistance à la fatigue. La partie interne, elle, consiste en un nylon absorbant la lumière visible et réfléchissant l’infrarouge recouvert d’un polymère noir, le PEDOT. Ces tissus ont pour but d’égaler les fonctions tenues respectivement par la fourrure et par la peau de l’ours polaire.

Polar_Bear_Cloth
Inspiré des ours polaires, le nouveau vêtement crée un effet « de serre » sur le corps pour garder le porteur au chaud. Crédits : Viola et al., 10,1021/acsami.2c23075/University of Massachusetts Amherst.
Transmitter = transmetteur
Absorber = absorbeur
Skin = peau
Hair fibers = fourrure
Melanin darkened skin = peau foncée par la mélanine

Sous une illumination modérée de 130 W/m², les ingénieurs de la University of Massachusetts Amherst ont ainsi obtenu un chauffage supérieur de 10°C à celui fourni par un T-shirt en coton classique (pourtant 30 % plus lourd). Et ce, tant que le porteur se trouve à la lumière solaire… ou dans une pièce bien éclairée ! Plutôt que de s’évertuer à réchauffer des pièces entières, l’usage à l’avenir pourrait consister à gérer son propre « climat personnel » à l’aide de vêtements conçus en ce sens. Une adaptation dont la nécessité ne cesse de croître avec les effets de plus en plus importants du changement climatique. Des start-ups comme Soliyarn ne s’y trompent pas, et ont déjà débuté la production de vêtements couverts en PEDOT…

La Chine, arbitre du duel entre Airbus et Boeing

Cette annonce n’a rien d’anodin. L’avionneur européen va ainsi doubler sa capacité de production d’avions sur le sol chinois, se mettant ainsi en position de répondre à l’immense demande locale en nouveaux appareils. Aussi, le carnet de commande d’Airbus affiche complet : Pas moins de 7300 appareils à livrer, et des délais d’attente de plus en plus longs. L’annonce faite en début de mois doit également permettre à Airbus de monter en cadence de production, et donc de répondre plus rapidement aux commandes des clients internationaux.

L’usine de Tianjin, inaugurée en 2008 a depuis son démarrage produit 600 appareils, soit quatre par mois. L’installation prochaine d’une seconde ligne de production permettra de passer à une cadence de huit appareils produits par mois, ce qui fera du site le second en termes de production, derrière celui de Hambourg.

Dans le même temps, Boeing pâtit du contexte géopolitique extrêmement tendu entre les Etats-Unis et la Chine. Une compagnie chinoise (la China Southern Airlines) a à nouveau fait voler un Boeing 737 MAX dans le ciel chinois en début d’année, près de quatre ans après son interdiction de vol dans le pays suite à deux accidents successifs, qui avaient coûté la vie à 346 personnes. C’est tout pour les bonnes nouvelles. Côté commercial, les ventes de l’avionneur américain en Chine s’effondrent. En 2022, Boeing a livré 12 appareils à des clients chinois, contre 95 pour Airbus. Un gouffre. L’appareil étatique chinois est conscient du rôle majeur qu’il peut jouer dans la guerre commerciale que se livrent les deux géants de l’aéronautique mondiale.

En effet, la demande en nouveaux appareils va exploser en Chine dans la décennie à venir. Airbus a estimé ce besoin à 8 500 appareils dans les vingt prochaines années. Une aubaine donc pour l’avionneur européen, qui a déjà signé plusieurs gros contrats de livraisons d’A320 NEO, A320 et A350, le total des commandes représentant plusieurs centaines d’appareils, produits en partie sur le site de Tianjin.

En effet, conformément à un accord entre Airbus et le gouvernement chinois, les compagnies aériennes chinoises sont autorisées à passer commande auprès de l’usine de Tianjin, pour maintenir une activité minimale sur le site. Tout porte à croire qu’Airbus a raflé la mise, laissant à Boeing des miettes, et prenant clairement une longueur d’avance sur son concurrent, grâce à la bienveillance commerciale chinoise. Si la situation actuelle permet à Airbus de se projeter avec espoir sur un marché aéronautique qui va déployer des appareils de plus en plus « décarbonés », la Chine n’est pas en reste. En effet, le constructeur d’état chinois, COMAC, a inauguré son premier avion, l’équivalent chinois du A320, en fin d’année dernière.

Un processus long, maintes fois retardé, mais qui permet aujourd’hui à la Chine d’envisager se frotter, dans le futur, à Airbus et Boeing. Pour le moment, le C919, c’est son nom, est équipé de moteurs développés par Safran, et de nombreux équipements le composant sont fabriqués par des fournisseurs étrangers. Ceci dit, près de 1 100 commandes ont déjà été enregistrées pour le C919, ce qui ressemble à un beau tremplin pour faire de la COMAC, dans les années qui viennent, un acteur majeur d’un marché aéronautique mondial qui tente d’opérer une transition énergétique à marche forcée.

Par Pierre Thouverez

 

Un meilleur chiffrage des stocks de carbone des arbres d’Afrique subsaharienne

Les arbres situés dans les zones sèches d’Afrique subsaharienne représentent non seulement un stock de carbone, mais fournissent également des services écosystémiques précieux. Ils participent en effet à la protection des sols contre l’érosion, les fertilisent, apportent de l’ombrage aux cultures arboricoles, et peuvent aussi servir de bois d’œuvre et de chauffage aux populations locales. Étant donné qu’ils sont très dispersés, leur étude à grande échelle est difficile. Des scientifiques de la Nasa et de l’université de Copenhague, avec la participation de ceux de l’INRAE, du CEA et du CNRS, ont développé une nouvelle méthode de comptage et de caractérisation de ces arbres. Leur travail de recherche a été publié dans Nature et permet de mieux comprendre le rôle de ces arbres dans la protection écologique, l’atténuation du changement climatique et la restauration de ces écosystèmes.

Les chercheurs ont utilisé des images satellitaires de haute résolution (50 cm) ainsi que des enquêtes sur le terrain réalisées à l’échelle de la parcelle pour mener à bien leur étude. Et grâce à l’utilisation d’algorithmes d’intelligence artificielle, ils sont parvenus à identifier et à caractériser chaque arbre un à un. Le modèle d’apprentissage automatique a d’abord été entraîné sur près de 90 000 arbres qui ont chacun fait l’objet d’une identification et une délimitation manuelle. Puis il a été capable d’identifier chaque arbre dont la cime verte est supérieure à 3 m2 sur plus de 320 000 images satellites et d’observer leurs caractéristiques : hauteur, surface de la couronne, biomasse… Même les arbres groupés ont ainsi pu être identifiés de manière individuelle.

Au final, plus de 9,9 milliards d’arbres ont été comptabilisés sur une surface de près de 10 millions de km2. Des équations allométriques ont ensuite été utilisées pour estimer les stocks de carbone correspondant aux masses sèches du feuillage, du bois et des racines de chaque arbre. Résultat, les stocks s’élèvent en moyenne à 63 kg pour chaque arbre situé dans la zone aride, et à 98 kg pour ceux implantés dans la zone subhumide, qui est dotée d’un climat intermédiaire entre semi-aride et humide.

Observer en temps quasi réel l’évolution de ces arbres

Au total, les stocks de carbone ont été chiffrés à 0,84 milliard de tonnes dans cette région d’Afrique subsaharienne qui s’étend au nord de l’équateur. Un chiffre qui apparaît faible au regard de la plupart des précédentes estimations réalisées par des modèles utilisés dans le cadre de simulations sur le climat. L’étude démontre que ces derniers ont tendance à surestimer les stocks de carbone des arbres isolés en zones arides. Cette surestimation pourrait s’expliquer, entre autres, par le fait qu’ils considèrent des groupes d’arbres comme étant équivalent à des forêts denses.

La prochaine étape de ce travail de recherche va consister à ajouter une dimension temporelle à cette cartographie pour observer l’impact des sécheresses et des politiques de restauration entreprises sur l’évolution individuelle de ces arbres. « Une résolution spatiale élevée est la clé de l’amélioration des inventaires d’arbres dans les zones arides, écrivent les auteurs de cette étude. La disponibilité toujours croissante d’images satellitaires rendra réalistes, en temps quasi réel, les évaluations à l’échelle continentale des réservoirs de carbone et de la dynamique au niveau de chaque arbre. Cela sera essentiel pour développer des programmes solides de gestion des terres arides nécessaires pour atteindre les objectifs de développement durable des Nations Unies. Notre article est une étape dans ce processus. »

Pour Jean-Pierre Wigneron, chercheur à l’INRAE et coauteur de l’article : « cette étude est exceptionnelle, car elle est pionnière dans un type d’approche qui va révolutionner le suivi des arbres et des forêts à l’échelle de notre planète : à court terme, il va devenir possible de cartographier les arbres de la planète depuis le centre de l’Amazonie jusqu’à nos cours d’école. Beaucoup de champs d’applications vont devenir beaucoup plus efficaces et précis : suivi des stocks de carbone, biodiversité, monitoring des coupes, protection vis-à-vis des dégradations forestières illégales, etc., en temps quasi réel. »

Pompes à chaleur : les ventes décollent !

L’État soutient le développement des pompes à chaleur (PAC) air/eau ou eau/eau via la prime « Coup de pouce chauffage » afin de remplacer les anciennes chaudières fonctionnant au gaz, au charbon ou fioul. En parallèle, la directive RE2020 limite désormais l’utilisation des technologies au gaz dans les nouvelles constructions. Associé à la guerre en Ukraine et aux économies d’énergie qu’ils permettent, ces dispositifs entraînent le décollage des ventes de pompe à chaleur, selon une nouvelle étude de LCP Delta, société européenne d’études et de conseil spécialisée dans la transition énergétique.

Ainsi, 550 000 PAC ont été vendues en 2022 en France dont 346 700 PAC air/eau. En 2021, ces chiffres atteignaient respectivement 400 000 et 267 200. Le marché augmente donc de 30 % sur un an pour les PAC air/eau. « Grâce à des réglementations favorables, le marché français des pompes à chaleur croît à un rythme rapide, réagit Arthur Jouannic, directeur du bureau français de LCP Delta. De plus en plus de produits électriques vont être préconisés pour les logements, notamment des pompes à chaleur, des panneaux photovoltaïques, et des voitures électriques. »

Pompes à chaleur : Objectif 2030 !

En plus du remplacement des anciennes chaudières, les PAC se retrouvent de plus en plus dans les bâtiments neufs. Sur ce segment de marché, les ventes progressent de +14,2 % en 2022 par rapport à 2021. Pour les logements résidentiels, les ventes ont progressé de +10 % en 2022, lorsque le nombre de chaudières à gaz vendu a diminué (-15 %). Pour 2023, LCP Delta table sur une nouvelle hausse des ventes de PAC de 13 %.

La loi veut contraindre la rénovation des logements consommant plus de 450 kWh/m²/an (classe G du DPE), soit environ 1,7 million de résidences en France. Les propriétaires pourraient être tentés par l’installation de pompe à chaleur pour améliorer la classe de leur logement. Dans un avis paru en février 2023, les associations négaWatt et CLER-Réseau pour la transition énergétique mettent toutefois en garde sur le fait que la substitution des chaudières à gaz ou au fioul par des PAC dans des passoires thermiques n’a d’intérêt que si le geste est accompagné de la réalisation d’une rénovation globale et performante.

D’ici 2030, LCP Delta prédit que le marché des pompes à chaleur double sa croissance grâce aux subventions disponibles. À cet horizon, les PAC domineront largement le marché de la construction neuve. « La France pourrait être le premier marché en Europe à ne plus installer de chaudières à gaz », prédit LCP Delta. En 2030, plus d’un million de pompes à chaleur devraient être vendues chaque année sur le territoire. Le bureau d’études et de conseil estime que 745 000 de ces installations seront des PAC air/eau.

Les soutiens diffèrent selon le type de PAC installée, l’énergie utilisée dans la chaudière remplacée et le profil des ménages. L’aide atteint par exemple 4 000 € pour les pompes à chaleur air/eau qui remplacent une chaudière au gaz ou au charbon pour les ménages modestes, 2 500 € pour les autres. Dès lors que cette PAC vient en remplacement d’une chaudière fonctionnant au fioul, l’aide atteint 5 000 € pour les ménages modestes, 4 000 € pour les autres. Et quelle que soit la chaudière remplacée, depuis le 1er mars 2023, l’aide atteint 5 000 € pour tous les ménages jusqu’à fin 2025 lorsqu’il s’agit d’installer une PAC eau/eau.


Crédit visuel de une : freepik