Ce projet de démonstration a été sélectionné par la Commission européenne le 20 juillet 2022 suite à un appel à projets collaboratifs de recherche et développement en matière de défense lancé par le Fonds européen de défense (FED).
Dirigé par Thales Alenia Space (TAS), le consortium EuroHAPS (High-Altitude Platform Systems) compte 21 partenaires répartis dans 11 pays de l’UE, dont le CIRA, Elettronica et Leonardo pour l’Italie, l’ONERA et le CEA pour la France, l’INTA pour l’Espagne, et ESG et TAO pour l’Allemagne.
EuroHAPS cherchera à développer et à démontrer trois plates-formes distinctes, mais complémentaires de renseignement, de surveillance et de reconnaissance (ISR) à haute altitude, notamment un dirigeable à énergie solaire, un dirigeable hybride doté d’une voilure et un système de ballon stratosphérique.
Dans le détail, ce projet effectuera des démonstrations en vol pour :
un Stratobus à échelle réduite de Thales Alenia Space : il s’agit d’un dirigeable solaire conçu pour des missions de longue durée et offrant une grande capacité de charge utile allant jusqu’à 250 kg. Sa conception a été optimisée autour d’un dirigeable d’environ 140 mètres de long. Mais l’EuroHAPS reposera sur « un Stratobus à échelle réduite » ;
un dirigeable hybride de haute altitude (HHAA ou HAPS tactique) du CIRA : il sera capable de générer une portance supplémentaire grâce à un profil d’aile ;
un système de ballon stratosphérique autonome (ASBaS) de l’ESG et du TAO, composé d’une série de trois ballons contrôlables en altitude.
Ces trois types de plates-formes seront en effet complémentaires, car elles présentent des durées d’exploitation, des capacités et des restrictions opérationnelles très différentes. Elles permettront ainsi à l’Europe de disposer d’un large éventail de solutions pour répondre à des besoins variés et visant à assurer sa souveraineté.
Dans cette optique, des missions de renseignement COMmunications (COMINT) et de renseignement électronique (ELINT) seront également testées, ainsi qu’un réseau de communication maillé à large bande pour les acteurs aériens et terrestres.
EuroHAPS apparaît également comme un moyen de compléter les moyens terrestres, satellitaires ou aériens par des capacités uniques adaptées aux besoins opérationnels. La stratosphère reste en effet un domaine largement ignoré jusqu’à présent alors qu’elle présente deux intérêts majeurs.
Premièrement, elle permet des missions de très longue durée (jusqu’à un an). Deuxièmement, ces plates-formes sont placées à des altitudes relativement basses (environ 20 km), ce qui permet de bénéficier d’une excellente résolution pour les missions d’observation et des bilans de liaison robustes pour les missions de communication.
Des vols de démonstration sont prévus en Sardaigne et à Fuerteventura en 2024.
La façon dont nous communiquons et collaborons a évolué rapidement ces dernières années. Les entreprises cherchent à réunir leurs équipes de manière plus efficace dans le monde numérique, mais aussi à améliorer la formation, la maintenance et la conformité.
D’où le recours aux technologies immersives, telles que la réalité étendue, pour recréer un sentiment de présence et d’engagement qui fait défaut dans de nombreuses interactions à distance. Le Laval Virtual, qui a fêté ses 25 ans d’existence, a été l’occasion de faire le point sur les innovations dans ce domaine.
Déambuler entre les stands est toujours indispensable pour constater par soi-même les dernières applications et usages. Ce fut le cas sur le stand de Valeo qui a participé pour la première fois à ce salon.
L’équipementier a montré comment la réalité virtuelle (RV) et la réalité mixte (RM) s’avèrent être des outils précieux pour les concepteurs et les ingénieurs automobiles. Ils facilitent la conception, la visualisation et la validation des prototypes en temps réel, ce qui réduit considérablement les coûts et les délais de développement.
La RA à large échelle
Comme toujours, les casques étaient à l’honneur, car ce secteur devrait connaître un taux de croissance annuel de 70,3 % d’ici 2026, selon IDC. Une partie du Top 5 2022 du marché mondial de la RV/RA était présente avec Meta (casques Quest) qui détient 80 % de ce marché et ByteDance (Pico).
Le chinois Pico a notamment dévoilé son nouveau casque VR tout-en-un : le PICO G3 (400 euros). Conçu pour les applications d’entreprise 3DoF, il répond aux besoins des clients issus d’un large éventail de secteurs, notamment l’éducation, la santé, la formation et le marketing.
La start-up française Lynx Mixed Reality a dévoilé à Laval la version finale du Lynx-R1, son casque de réalité mixte. Une première attendue depuis trois ans et qui devrait conduire à une levée de fonds de 30 millions d’euros d’ici à l’été pour notamment implanter l’assemblage du casque en France.
En complément des casques, b<>com a présenté plusieurs démonstrations technologiques axées sur la réalité augmentée et la réalité virtuelle au service du jumeau numérique. Cet institut de recherche technologique privé ouvre une voie intéressante pour combler les limites des casques actuels qui intègrent la technologie et les calculs nécessaires à la RA.
Baptisée /AR Cloud/, sa plateforme de RA déportée sur le cloud ou en bordure permet de disposer d’un casque plus léger. Basée sur un réseau privé 5G ou wifi privé, cette technologie permet des expériences de réalité augmentée à large échelle, par exemple l’affichage du jumeau numérique d’un bâtiment en construction afin de contrôler la conformité des travaux.
Enfin, les conférences BtoB de Laval Virtual ont été particulièrement intéressantes cette année. Six thèmes ont été mis en avant : L’avenir de la XR, l’Immersive Digital Learning (innovations en termes d’Éducation, de Formation et d’Apprentissage), le Métaverse Dilemmas (sécurité de données, souveraineté…), les bénéfices pour son business de la VR / AR, l’Industrie à 360° (comment les technologies immersives ont-elles révolutionné l’Industrie) et enfin l’XR for Good (l’impact positif des technologies immersives dans notre société).
Les techniques habituelles de mesure de la concentration de substances polluantes dans l’eau consistent à réaliser un prélèvement, puis à envoyer l’échantillon dans un laboratoire pour analyse. Elles permettent d’obtenir une bonne sensibilité de la mesure, mais se révèlent coûteuses, et surtout il n’est pas possible d’obtenir le résultat des analyses sur place et en continu. Des dispositifs de mesure in situ existent, proposés principalement par des fournisseurs non européens, mais ces solutions coûtent chers, ou sont peu fiables, consomment beaucoup d’énergie, et ne détectent qu’un faible nombre de polluants à la fois. Un projet européen baptisé IBAIA1, coordonné par le CNRS et rassemblant dix-sept partenaires dont huit entreprises, vient de débuter et a pour objectif de développer un système multicapteurs de nouvelle génération, permettant la surveillance précise d’une large gamme de paramètres in situ.
Au total, quatre modules de capteurs vont être intégrés dans ce nouveau système, comme l’explique Virginie Nazabal, coordinatrice de ce projet de recherche et chercheuse CNRS à l’Institut des sciences chimiques de Rennes : « À l’origine, nous avons répondu à un appel à projet sur la photonique, il y aura trois capteurs optiques, mais j’ai voulu ajouter un dernier basé sur l’électrochimie, car je souhaitais associer des méthodes qui sont souvent présentées comme concurrentes, pour qu’elles soient plutôt complémentaires. Il n’y a jamais de système idéal, selon les molécules que l’on souhaite détecter, parfois la méthode électrochimique est la plus adaptée, et dans d’autres cas, mieux vaut utiliser l’optique. »
Détecter des résidus médicamenteux et des pesticides
Un premier capteur optique dans l’infra-rouge moyen aura pour rôle de détecter des contaminants organiques. Le choix s’est porté sur la détection d’hydrocarbures, en lien avec les problématiques rencontrées par Cedre, une association experte en pollutions accidentelles. Un prototype va être développé pour détecter le toluène, en sachant que s’il est capable d’identifier ce composé, il pourra détecter tous les types d’hydrocarbures. Ce capteur devra aussi détecter le S-métolachlore, un herbicide, dont des résidus ont été retrouvés dans les nappes phréatiques à des niveaux dépassant les normes de qualité. Le diclofénac, un anti-inflammatoire utilisé dans différents médicaments et dont des traces ont été retrouvées dans les eaux destinées à la consommation humaine, sera lui aussi détecté.
Un second capteur dans le domaine du visible et du proche infra-rouge aura pour fonction d’identifier la présence de microplastiques dans l’eau ainsi que son niveau de salinité. « Nous souhaitons développer la technologie de la photonique sur verre, pour des aspects de respect de l’environnement, car les substrats utilisés sont hautement recyclables. Nous sommes au tout début de ce travail de recherche et le challenge est élevé. Nous allons commencer par mesurer la salinité, puis les microplastiques. »
Un dernier capteur optique, appelé optode, sera chargé de contrôler différents paramètres physico-chimiques dans l’eau tels que le pH, l’oxygène et le CO2. Fonctionnant à l’aide d’un transducteur chimique, ce type de capteur existe déjà, mais présente l’inconvénient de manquer de stabilité. « Nous allons développer des fluorophores, ce sont des membranes que l’on intègre dans ces optodes, pour améliorer les problèmes de dérive de la mesure dans le temps. Nous sommes très avancés et testons un prototype pour la mesure de l’oxygène et le pH. Il fonctionne, mais il faut l’optimiser et développer de nouveaux fluorophores dans le but d’obtenir un capteur très robuste, et qui s’adapte à n’importe quel type d’eau, qu’elle soit saline ou douce. »
Renforcer la surveillance de l’eau dans le cadre du Pacte Vert européen
Enfin, le capteur électrochimique sera utilisé pour quantifier des sels nutritifs (nitrate, phosphate) et des métaux lourds (arsenic, cadmium). Il est développé en partenariat avec Klearia, une start-up française, qui a déjà développé un prototype pour détecter l’arsenic. « Sur les nitrates, nous sommes bien avancés sur la détection en laboratoire, et nous débutons les phosphates, avant de poursuivre sur le cadmium. »
Ce projet de recherche doit s’achever dans quatre ans et est doté d’un budget de 4,8 millions d’euros. Plusieurs des quatre modules de capteur développés devraient atteindre un niveau de maturité technologique classé 4 voire 5 sur l’échelle TRL (Technology Readiness Level) qui en compte 9. Le projet IBAIA s’inscrit dans le cadre d’un renforcement des réglementations sur la qualité de l’eau en lien avec les objectifs du Pacte Vert européen, et répond à la nécessité de trouver des solutions innovantes pour leur surveillance.
1 Ce projet réunit un consortium composé du CNRS, via l’Institut des sciences chimiques de Rennes et l’Institut Foton, le LAAS-CNRS (France), l’Ifremer (France), le BRGM (France), Itodys (Partenaire CNRS Associé), l’université de Tampere (Finlande), l’université de Mons (Belgique), l’université de Pardubice (République Tchèque), l’université de Duisbourg et Essen (Allemagne), l’Institut Leibniz de technologie photonique (Allemagne), l’université de l’est de la Finlande, ainsi que les entreprises Klearia (France), Mirsense (France), Modus Research & Innovation limited (Royaume-Uni), Argotech (République Tchèque), Microliquid Sl (Espagne), Vigo System (Pologne). L’association Cedre et l’entreprise Scirpe font également partie du projet.
Il convient de souligner que si l’hydrogène n’est pas un gaz à effet de serre en tant que tel, il est considéré comme un gaz climatique indirect : c’est-à-dire qu’il induit des perturbations sur d’autres gaz, comme le méthane, l’ozone et la vapeur d’eau dans l’atmosphère, trois puissants gaz à effet de serre.
Tout un ensemble de recherches et de simulations permettent d’anticiper les conséquences pour le climat et les températures d’une hausse de la concentration atmosphérique en hydrogène, qui résulterait de l’usage massif de cette molécule dans le mix énergétique européen, mais aussi mondial.
Ainsi, les deux problématiques majeures concernant la massification de l’hydrogène en tant que vecteur énergétique résident dans les méthodes de production, et donc dans les conséquences de l’augmentation de sa concentration atmosphérique sur les autres GES.
Les émissions liées à la production
Vecteur principal de la transition énergétique en cours, l’hydrogène peut être produit par différentes méthodes. La plus connue est l’électrolyse de l’eau, qui permet, si l’énergie nécessaire à l’électrolyse est d’origine renouvelable, d’obtenir de l’hydrogène “vert”.
La seconde technologie de production est le vaporeformage de l’hydrogène, qui permet de produire de l’hydrogène “bleu”, si du carbone est séquestré lors de cette phase de production, ou “gris” (pas de séquestration de carbone).
En 2020, 94 % de l’hydrogène en France était gris, c’est-à-dire produit à partir d’énergies fossiles. On voit bien que la méthode de production, au-delà des effets de l’hydrogène sur les autres gaz à effet de serre, induit déjà des conséquences sur l’atténuation des émissions de GES via les méthodes de production d’hydrogène. Les investissements actuels, notamment via le PIIEC sur l’hydrogène, visent à produire un maximum d’hydrogène décarboné, notamment en France en utilisant de l’électricité “nucléaire” pour l’électrolyse de l’eau. On parle d’hydrogène « jaune ».
L’hydrogène, gaz climatique indirect
La seconde source d’augmentation des GES de par l’utilisation massive de l’hydrogène concerne les effets induits par une augmentation du taux d’hydrogène dans l’air atmosphérique. Cette augmentation serait principalement liée à des fuites de la molécule. Naturellement présent dans l’atmosphère mais sous forme de traces – environ 0,510 ppm – l’hydrogène a une durée de vie longue, ce qui lui permet de rejoindre les plus hautes couches de la stratosphère. Lorsque c’est le cas, le gaz réagit avec les radicaux hydroxyles (OH) pour former de la vapeur d’eau, ce qui a tendance à refroidir la stratosphère et ralentit la reconstitution de la couche d’ozone.
En réagissant avec les radicaux hydroxyles, l’hydrogène se substitue à d’autres gaz, qui réagissent habituellement avec ces radicaux, comme le méthane (mais aussi les molécules type CO et NOx). Il convient donc, pour analyser l’impact de l’hydrogène en tant que gaz climatique indirect, d’évaluer quelle pourrait être le volume des fuites de H2 dans l’atmosphère, pour évaluer la quantité de gaz à effet de serre “produite” par la massification de H2 en tant que vecteur énergétique.
Le CNRS a, en simulant les effets que nous venons de mentionner, évalué que le rejet d’une tonne d’hydrogène “vert” dans l’atmosphère correspondrait à l’équivalent de 13 tonnes de CO2 émises.
En ce qui concerne l’hydrogène “bleu” ou “gris”, les émissions de méthane et de CO2 associées à leur production et à leur transport rendent leur bénéfice climatique quasi nul.
Mehdi Ferhan, Directeur général en charge des opérations chez HYVIA, a expliqué à Techniques de l’Ingénieur la stratégie de l’entreprise pour devenir un leader sur le marché des véhicules utilitaires à hydrogène, dans un contexte de mise en place par l’Europe des briques pour développer une véritable filière européenne autour de l’hydrogène.
Techniques de l’Ingénieur : Quels sont les enjeux aujourd’hui autour du développement de la mobilité hydrogène pour Hyvia ?
Mehdi Ferhan : L’hydrogène vert pour la mobilité constitue à lui seul un écosystème, avec sa chaîne de valeur. Cela concerne les véhicules, mais aussi les piles à combustible, les stations de recharge, et la production d’hydrogène à partir d’électrolyseurs. Il s’agit donc de développer cet écosystème dans son ensemble, et c’est la raison d’être d’HYVIA.
Aujourd’hui, HYVIA dispose d’une usine à Flins pour l’assemblage des piles à combustible et d’un site partenaire, PVI, situé à Gretz-Armainvilliers, pour l’intégration des piles à combustibles sur les Renault Master H2-TECH. C’est sur ce dernier site que sont fabriqués les Renault Master H2-TECH dont la version Van « grand fourgon » vient d’être homologuée pour l’ensemble du marché européen.
Hyvia a été sélectionnée pour bénéficier du PIIEC européen sur l’hydrogène. Dans quelle mesure cela va-t-il accélérer le développement de l’entreprise ?
Le PIIEC hydrogène est un des mécanismes mis en place au niveau européen pour accélérer le développement de la chaîne de valeur autour des technologies hydrogène.
Mehdi Ferhan, Directeur général en charge des opérations chez Hyvia
L’ambition étant de mettre en place au niveau européen toutes les briques technologiques qui constitueront une filière à part entière, sur l’ensemble de la chaîne de valeur de l’hydrogène, notamment en développant de nouvelles technologies.
Dans le cas d’HYVIA, qui a été notifié de sa sélection à l’automne dernier[1], le PIIEC va permettre de mettre en place tout l’écosystème nécessaire à la production de piles à combustible, produites sur le site de Flins, où HYVIA vient d’ailleurs tout juste d’installer son premier électrolyseur livré par PLUG. Cela consist dans un premier temps à l’assemblage des systèmes à pile à combustible puis à l’intégration réalisée dans les véhicules. Cette accélération est donc également un moyen de favoriser la réalisation d’opérations industrielles localement, sur les territoires.
Dans une seconde étape, ces développements vont se matérialiser par la construction d’une gigafatory, qui sera en mesure de fabriquer des piles à combustibles à l’échelle industrielle, pour un marché du véhicule utilitaire léger qui devrait décoller dans les prochaines années.
Quelles sont les étapes qui vont aboutir à la mise en route de cette gigafactory ?
La mise en place de cette gigafactory s’inscrit dans un processus par étapes. Nous avons démarré au mois de mars 2022, par l’inauguration de notre usine pilote à Flins : les premiers 3500 mètres carrés d’infrastructure industrielle nous permettent d’assembler une première génération de systèmes à pile à combustibles PEM « ProGEN », délivrant une puissance de 30 kW.
Ces piles sont vouées à s’intégrer dans des systèmes de propulsion hybrides. L’architecture des véhicules, que l’on appelle “dual power”, est constituée de la pile à combustible d’un côté, avec des bonbonnes stockant de l’hydrogène à 700 bars, et également d’une batterie, ce qui permet de bénéficier de différents modes de propulsion et de recharge. Ceci est très important pour proposer des véhicules dont l’utilisation ne soit pas uniquement dépendante de l’hydrogène. En effet, les infrastructures de recharge en hydrogène ne sont pour le moment pas suffisamment déployées sur le territoire, et cela ne doit pas brider l’usage des véhicules. L’idée est donc de pouvoir faire une recharge en électricité quand la recharge en hydrogène n’est pas possible, tout en conservant un véhicule zéro émission. Tout cela constitue la première étape pour HYVIA. Aujourd’hui, le site de Flins dispose d’une capacité de production de 1000 systèmes piles à combustible par an.
Et sur le plus long terme ?
D’ici à 2030, l’objectif pour l’entreprise est d’être un des leaders européens du véhicule utilitaire à hydrogène, avec une ambition chiffrée. Nous voulons capter 30% du marché sur le véhicule utilitaire à hydrogène d’ici à la fin de la décennie. En cela, l’usine pilote de Flins constitue la première brique qui doit nous mener, d’ici 7 à 8 ans, à l’ambition que je viens d’évoquer. La seconde brique est la gigafactory, qui nous permettra de massifier la production, et de localiser les technologies nécessaires au déploiement de tout l’écosystème hydrogène sur le territoire, aux niveaux français et européen.
Comment va s’opérer le déploiement de votre flotte de véhicules utilitaires à hydrogène ?
Nous allons passer par un déploiement de nos véhicules utilitaires par le réseau Renault, dans un premier temps. Ce réseau est constitué de concessionnaires agrémentés du label PRO+ avec une gamme de services adaptés aux professionnels. Ce réseau opère en France, mais également dans des pays comme l’Allemagne et les Pays-Bas, qui sont très actifs en matière de décarbonation par l’hydrogène. L’étape suivante consistera à poursuivre ce déploiement européen en passant par la Grande Bretagne, l’Espagne, le Portugal, les pays scandinaves, la Suisse, la Pologne, et la République Tchèque… d’ici à deux ans, l’objectif sera donc de déployer dans une douzaine de pays européens des capacités de commercialisation, mais aussi d’assurer la maintenance et tous les services associés : réparation, mise à disposition de véhicules de prêt, pièces de rechange, recharge via de stations à hydrogène… le tout en restant compétitifs, bien sûr.
Quels sont les freins persistants au développement de la mobilité hydrogène ?
Une des problématiques spécifiques à notre activité est aujourd’hui de créer le marché en apportant toutes les briques. Nous sommes au début de l’aventure des véhicules à hydrogène, il est donc difficile de prévoir exactement comment va évoluer la demande de la mobilité hydrogène. A l’heure actuelle, nous disposons de technologies robustes et éprouvées, notamment grâce au savoir-faire de PLUG sur cette molécule. D’ailleurs la plupart des solutions ont déjà été industrialisées dans le domaine du transport logistique des marchandises . Néanmoins, pour les rendre disponibles au plus grand nombre dans le secteur de la mobilité, il existe encore un certain nombre de verrous technologiques, économiques et réglementaires notamment. Le déploiement de la filière européenne est par exemple un grand défi : nous avons besoin de partenaires, de fournisseurs ayant une expertise automobile, afin de développer nos technologies avec les standards automobiles bien connus pour les moteurs thermiques. L’objectif est également de développer cette filière localement, au niveau européen, à des fins de compétitivité, mais aussi dans un souci de limiter notre empreinte environnementale tout en renforçant notre autonomie.
L’ambition européenne, à travers les grands programmes de décarbonation, notamment Fit for 55, est très importante. Cela bouleverse le paysage automobile, et rend particulièrement attractives les solutions de propulsion à l’hydrogène comme celles proposées par HYVIA. A un niveau plus local, les réglementations concernant par exemple les zones à faibles émissions (ZFE) qui vont se mettre en place progressivement dans les centres-villes des grandes villes, puis dans les zones périurbaines, vont nécessiter des solutions palliatives aux véhicules thermiques. Là aussi, nous pensons qu’HYVIA peut se faire une place de leader, notamment sur tout ce qui touche aux cas d’usage de la livraison de matériel et de colis, notamment sur la problématique du dernier kilomètre.
Pour terminer, quelle est votre stratégie en termes de formation aux nouveaux métiers liés aux technologies hydrogène ?
Chez HYVIA, nous avons un questionnement permanent sur ce que seront les compétences clés dont nous aurons besoin dans les années qui viennent pour développer la mobilité hydrogène. L’hydrogène est un gaz qui nécessite d’être appréhendé de façon sécuritaire, avec tous les moyens de contrôle qui sont développées autour de son usage. Créer les métiers de demain au sein de cette filière est donc un enjeu énorme.
Sur le site de Flins, cela fait deux ans que des ouvriers, opérateurs, ou techniciens, qui évoluaient pour certains depuis plusieurs années au sein de l’usine de Renault, ont migré chez HYVIA pour poursuivre leur carrière. Nous les avons accompagnés dans des parcours de formation pour leur permettre de développer des compétences en rapport avec les nouvelles technologies de l’hydrogène. Certains ont même eu l’opportunité de se rendre chez notre autre partenaire, PLUG, aux Etats-Unis, pour se former spécifiquement aux techniques de montage des piles à combustible.
Toutes ces actions nous permettent de développer des parcours de formation spécifiques à l’hydrogène et qui respectent les standards liés à l’automobile, pour préparer les ressources dont nous allons avoir besoin dans les prochaines années.
Face à l’impact négatif des pesticides sur l’environnement et la santé humaine, l’Europe s’est fixé l’objectif de réduire de moitié leur utilisation d’ici à 2030. Pour encore aller plus loin dans cette démarche, plus d’une centaine d’experts européens ont réalisé une étude prospective afin de les bannir complètement de l’agriculture en Europe à l’horizon 2050, en détaillant les modalités pour y parvenir. Ils sont partis du constat que les politiques publiques européennes menées jusqu’ici ont eu des effets limités et ont donc changé de paradigme, en imaginant une démarche disruptive visant à construire des systèmes de culture innovants. Ils ont aussi déployé une vision systémique, en transformant simultanément les différentes composantes des systèmes alimentaires. Au final, trois scénarios de passage à une agriculture sans pesticides ont été explorés.
Le scénario 1 part de l’hypothèse qu’en 2050 des normes internationales du marché garantiront des produits alimentaires provenant d’une agriculture sans pesticides. Des standards et des certifications seront contractualisés avec les agriculteurs pour leur proposer des prix bonifiés de façon à compenser les risques liés à la transition. Ces derniers seront poussés à produire sans pesticides, et auront recours au numérique, à l’automatisation et à la robotisation, pour notamment surveiller les bioagresseurs (ravageurs, agents pathogènes et adventices). Ils utiliseront également des variétés résistantes et tolérantes aux bioagresseurs, et auront accès à des intrants tels que des produits de biocontrôle, pour par exemple procéder à l’inoculation de microorganismes. La stratégie de protection des cultures consistera principalement à renforcer l’immunité de chaque plante cultivée en anticipant l’arrivée des bioagresseurs et en mesurant l’état physiologique des plantes.
Dans le scénario 2, l’objectif d’atteindre des régimes sains et une production sans pesticides au milieu du 21e siècle va mobiliser tous les acteurs du système alimentaire. Une politique européenne holistique va être mise en place dans les domaines de l’agriculture, de l’alimentation, de la nutrition et de la santé, de la biodiversité, des sols et de l’eau. Les consommateurs européens, bien informés des bienfaits d’une alimentation saine, sont encouragés à adopter des régimes plus diversifiés et plus équilibrés. Ils seront aidés par des subventions sur les aliments sains et des taxes seront appliquées sur les aliments contribuant à des régimes néfastes pour la santé. Les agriculteurs vont utiliser de nouveaux outils pour surveiller la santé des microbiomes (l’ensemble des micro-organismes) des sols et de l’holobionte (l’hôte et tous ses microbes) des plantes. Ils mettront en place des pratiques culturales spécifiques comme le recours à des amendements organiques provenant de l’élevage, la diversification et la rotation des cultures, le travail du sol, les cultures de couverture, et l’ensemble de ces techniques permettront de renforcer les interactions positives entre la plante et le microbiome.
Une refonte du système agricole basée sur des paysages diversifiés
Le scénario 3 part du principe que la transition va s’opérer à la faveur d’une demande en une alimentation locale, saine et sans pesticides d’une part, et d’une prise de conscience de la nécessité de préserver la biodiversité et de la santé de l’environnement d’autre part. Dans les territoires de toute l’Europe, une refonte des systèmes de production agricole va être réalisée et reposera sur la complexité des paysages, des microbiomes du sol et la diversification des cultures. Des politiques seront menées par les autorités territoriales pour réaménager les paysages, protéger les sols, l’eau et la biodiversité, et relocaliser les chaînes de valeur alimentaires grâce à l’aménagement du territoire. Les systèmes de culture et la protection des cultures s’appuieront sur des mécanismes biologiques de régulation au niveau des paysages et des sols, avec peu d’intrants exogènes. Des stratégies de diversification des cultures seront entre autres adoptées, avec la sélection de variétés adaptées à la diversification (mélange d’espèces et de variétés), par le développement d’habitats semi-naturels (20 % des terres dédiées aux habitats naturels et semi-naturels), et par le développement partiel de systèmes agricoles mixtes réintégrant la production animale dans les exploitations.
Les auteurs de cette prospective ont aussi évalué l’impact de cette transition sur la production agricole européenne, en termes de calories. Résultat, celle-ci varie de –5 % à +12 % selon les scénarios, en sachant qu’un équilibre sera à trouver entre la réduction de la consommation de produits animaux et le maintien des prairies. Sur le plan des gaz à effet de serre, les trois scénarios permettent de réduire les émissions, plus précisément de 8 % dans le scénario 1, 20 % pour le scénario 2, et jusqu’à 37 % pour le dernier scénario.
Initiative de la CDEFI, la 13ème édition d’Ingénieuses a été lancée le 16 janvier 2023 avec l’ouverture des candidatures au concours. Suite à la clôture des candidatures, les jurys ont été réunis les 5, 10 et 11 avril pour sélectionner les nominées de cette année.
Pour cette nouvelle édition, c’est 178 dossiers qui ont été reçus pour le concours Ingénieuses afin de promouvoir l’égalité des genres et la mixité dans les formations et les métiers d’ingénieur·e·s. Le but est d’attirer plus de jeunes filles vers l’ingénierie.
Les dossiers ont été étudiés par différents jurys :
Le nouveau jury lycéen, composé de 26 élèves du lycée Camille Claudel de Pontault-Combault (77), s’est réuni le 5 avril pour étudier 54 projets d’école.
Le jury du prix de l’élève-ingénieure Maghreb, composé de représentantes de l’Agence universitaire de la Francophonie – Afrique du Nord et de membres de la Commission régionale des experts économiques et scientifiques (CREES), s’est réuni le 10 avril pour étudier 13 candidatures.
Le jury principal était composé de représentant·e·s de la CDEFI et de partenaires et de soutiens d’Ingénieuses. Techniques de l’Ingénieur a eu le plaisir de participer à ce jury. Il s’est réuni le 11 avril pour étudier 165 projets et candidatures.
Et les nominées sont :
pour le prix à destination des écoles d’ingénieur·e·s (cinq prix seront décernés) :
Bordeaux Sciences Agro, pour son projet « Empower women »,
l’Efrei, pour son projet « Program’her »,
ESIEE Paris, pour son projet « Et Si Ingénieur s’Ecrivait avec un E »,
Grenoble INP – Ense3, pour son projet « Epopées de Femmes »,
l’INSA Hauts-de-France, pour son projet « Filles, osez les sciences »,
Mines Saint-Étienne, pour son projet « Sciences en tous genres »,
Toulouse INP – ENSEEIHT, pour son projet « WomeN7 »,
l’UTC, pour son projet « Mois de l’égalité » ;
pour le prix de l’élève-ingénieure France :
Léa GAONAC’H, élève-ingénieure à Chimie ParisTech – PSL,
Audrey TEIXEIRA, élève-ingénieure à Centrale Lyon,
Zoé TOINEAU, élève-ingénieure à Polytech Sorbonne ;
pour le prix de la femme ingénieure (deux prix seront décernés) :
Julia CANTEL, diplômée de l’ENSCR et titulaire d’un master de Chimie ParisTech – PSL, cheffe de projet chez EDF Energy (Royaume-Uni),
Marjorie CAVARROC WEIMER, diplômée de Polytech Orléans, ingénieure recherche et technologie et expert Matériaux et Procédés chez Safran,
Victoria DA POIAN, diplômée de l’ISAE-SUPAÉRO, Data Scientist et ingénieure en aérospatial au Goddard Space Flight Center de la NASA (États-Unis),
Gaëlle RONDEPIERRE, diplômée de CentraleSupélec (ex-Centrale Paris) et docteure de l’ESPCI Paris, ingénieure de recherche avancée en physico-chimie chez L’Oréal,
Sophie TONNOIR, diplômée de l’ISEP, Cloud Solution Architect chez Microsoft France
Les projets et portraits seront à découvrir progressivement sur le site Ingénieuses.
Le prochain rendez-vous est le 11 Mai 2023 en présentiel de 14 h à 19 h au Ministère de l’Économie, des finances et de la souveraineté industrielle et numérique pour la remise des prix d’Ingénieuses 2023.
Passée relativement inaperçue fin 2022, une nouveauté européenne va avoir de l’effet sur les échanges internationaux et leur impact climatique : la mise en place d’un mécanisme d’ajustement carbone aux frontières (MACF ou bien CBAM en anglais pour Carbon Border Adjustement Mechanism). Prévu pour se mettre en place progressivement, ce mécanisme va concrétiser un projet vieux de 15 ans. En effet, depuis 2006, la France a porté l’idée d’une taxation « carbone » des produits importés en Europe. Cette taxe aux frontières était imaginée pour donner un coût au CO2 émis dans les pays hors de l’Union, alors qu’à l’époque, l’Europe démarrait justement son marché carbone interne, le fameux ETS (European Trading Scheme). Nicolas Sarkozy avait défendu l’idée plusieurs fois, avec l’argument que « ceux qui produisent sale doivent payer », et surtout pour que les industriels européens ne se retrouvent pas trop défavorisés face à la concurrence mondiale moins contrainte par ce type de réglementation environnementale.
Risque de fuites de carbone
Comment va fonctionner ce mécanisme d’ajustement carbone aux frontières ? Pour le comprendre, il faut revenir à la façon dont l’ETS est structuré et a évolué pour devenir le marché carbone le plus ambitieux du monde – il couvre 39 % des émissions de l’Union européenne – et celui où le niveau de prix du carbone est le plus élevé. « Créé en 2005, l’ETS fait émerger un prix du carbone en deux temps. Il y a tout d’abord une allocation initiale de quotas de CO2 pour chaque entité soumise à l’ETS :cette allocation a d’abord été gratuite et ensuite elle est passée par une mise aux enchères, ce qui a créé le prix du marché primaire. Ensuite, il y a une allocation finale lors des échanges de quotas entre participants, selon qu’ils en ont trop ou pas assez par rapport aux émissions de gaz à effet de serre qu’ils doivent compenser, ce qui génère le prix du marché secondaire » explique Marc Baudry, professeur des universités et responsable du pôle « tarification du CO2 et innovation carbone » à la Chaire Économie du climat. Si on regarde l’ensemble des industriels soumis à l’ETS, chaque transfert sur ces marchés a un coût, en plus du coût d’abattement, c’est-à-dire celui de l’effort pour réduire ses émissions. Pour limiter ces coûts, une partie peut être répercutée sur les consommateurs. Si ce n’est pas possible, notamment en cas de forte concurrence internationale, le système prend le risque de voir apparaître des « fuites de carbone » : on nomme ainsi principalement les phénomènes de délocalisation des industriels dans des pays non soumis à la contrainte carbone, et l’achat de produits importés moins cher depuis ces mêmes pays. Mais il en existe d’autres formes détaillées par Marc Baudry et Aliénor Cameron dans un article récemment publié par ces deux chercheurs de la Chaire Économie du Climat.
« Sans coordination internationale, ces fuites de carbone réduisent l’efficacité de la politique climatique de l’Union européenne. L’allocation gratuite des quotas a limité ce risque de fuites, en particulier les délocalisations, durant la phase II (2008-2012) et la phase III (2013-2020) de l’ETS. Mais désormais, en phase IV (2021-2030), avec les enchères de quotas et l’augmentation des objectifs climatiques, le marché a regagné en crédibilité et on voit le prix spot varier autour de 80 €/tCO2. Le risque de fuites devient plus grand, il y a donc besoin de ce mécanisme d’ajustement carbone aux frontières, et de réfléchir au maintien de la compétitivité des industriels européens » analyse Anna Creti, professeure titulaire à l’université Paris Dauphine et directrice de la Chaire Économie du climat.
Respecter les règles de l’OMC
Si la mise en place du MACF a été si longue, c’est parce que le mécanisme corrige directement les termes des échanges commerciaux, se mettant ainsi en danger vis-à-vis de l’Organisation mondiale du commerce. Pour être compatible avec les règles de l’OMC, le mécanisme doit donc créer une contrainte sur les produits sans viser des pays en particulier. Il ne doit agir que sur les importations sans créer de subventions à l’export pour les entreprises européennes, et il doit s’assurer que la régulation touche autant les produits locaux du marché intérieur européen que les produits importés.
Pour se plier à ces règles, le mécanisme d’ajustement carbone aux frontières va :
mettre progressivement fin aux allocations gratuites de quotas dans l’ETS pour n’avoir plus que des enchères à terme (voir schéma) ;
couvrir les importations d’un premier panel de secteurs déjà soumis à l’ETS (engrais, aluminium, sidérurgie, ciment, électricité, hydrogène) avant de l’élargir à d’autres ;
demander aux entreprises concernées hors Europe de comptabiliser les émissions de gaz à effet de serre par unité de produit importé durant la période transitoire 2023-2025 ;
faire payer à ces mêmes entreprises le prix du contenu carbone des produits importés en Europe lors de la période suivante (2026-2035). Ce ne sera pas un tarif douanier soumis à un pouvoir discrétionnaire, car le niveau de prix sera celui constaté sur le marché spot de l’ETS.
Les différentes phases passées de l’ETS et la suite prévue avec le mécanisme d’ajustement carbone aux frontières (CBAM en anglais). Source : Anna Creti et Marc Baudry, Chaire Économie du climat
Suite au Green Deal et au lancement des réformes du paquet Fit for 55 par la Commission européenne, le MACF est sur les rails et la phase transitoire devrait réellement démarrer en octobre 2023. Plusieurs aspects seront à surveiller. Si les entreprises hors UE soumises au MACF n’ont pas à acquérir de quotas sur l’ETS, elles doivent néanmoins bien comptabiliser leurs émissions, ce qui exigera une certaine rigueur (benchmark, contrôle). Se pose aussi la question du « reshuffling », c’est-à-dire un report des fuites de carbone en aval des chaînes de valeur : il pourrait s’agir, par exemple, d’une baisse des importations d’acier soumise au MACF en les reportant sur des importations de produits finis (comme de la tuyauterie) qui, eux, n’y sont pas soumis. « Il est anticipé d’imaginer ce phénomène, pour lequel on pourra concevoir des mécanismes complémentaires si besoin. Il me semble plus important de jauger l’impact du MACF sur les plus petits pays en développement : le cas échéant, en vertu du principe des responsabilités communes, mais différenciées de l’Accord de Paris, on pourrait consacrer une partie des revenus du mécanisme au fonds d’aide à la décarbonation des pays en développement » précise Anna Creti. Et la spécialiste d’ajouter qu’il faut avant tout voir l’aspect positif du mécanisme d’ajustement carbone aux frontières : il va inciter les entreprises hors UE à réduire le contenu carbone de leurs produits d’ici 2026 ; et, en mettant fin aux allocations gratuites de l’ETS, il va pousser à l’accélération de la décarbonation dans l’Union européenne.
Les cyberattaquants scannent en permanence l’internet pour repérer des failles de sécurité dans les réseaux informatiques des entreprises. Le moindre appareil connecté peut être exploité pour infiltrer un système informatique et violer ensuite des données.
En 2018, des pirates étaient parvenus à accéder frauduleusement aux données d’un casino en s’appuyant sur une faille de sécurité d’un thermomètre d’aquarium connecté situé dans le hall d’entrée de cet établissement.
« Les réseaux d’entreprise sont si complexes à administrer que les trous dans la raquette sont inévitables. C’est sans compter le fait qu’ils s’appuient sur des protocoles aussi anciens qu’Internet, et misent sur des successions de solutions cyber pour combler leurs lacunes en matière de sécurité », expliquent Guillaume-Alexandre Chaizy-Gostovitch et Gabriel Ladet.
Ces deux experts en cybersécurité ont créé Chimere, une spin off soutenue par Thales et la Thales Digital Factory. Ils ont développé un concept original et efficace pour renforcer la sécurité des entreprises.
Un château fort ébranlé
Depuis les années 1980, la sécurité informatique était « périmétrique ». L’entreprise, ses principaux salariés (administratifs, comptables, RH…) et ses données sensibles sont au siège social, l’équivalent du donjon.
Entouré de remparts, le château apparaît comme une forteresse imprenable. Toute entrée et sortie y était filtrée par des gardes au niveau du pont-levis. Rapporté à la sécurité informatique, des logiciels ad hoc comme le pare-feu et l’antivirus assurent ce filtrage et cette surveillance.
Mais ce concept de structure fortifiée ne permet plus aujourd’hui de protéger efficacement les données des entreprises. Depuis la pandémie, beaucoup d’entreprises ont découvert qu’elles avaient énormément de connexions avec des tiers, mais aussi avec des salariés en télétravail.
Par ailleurs, les cybercriminels développent des méthodes d’infiltration (dont des attaques de phishing usurpant à la perfection la terminologie et la charte graphique d’une marque) toujours plus sophistiquées et variées. Résultat, les entreprises subissent des cyberattaques quotidiennes qui sont de plus en plus difficiles à repérer et à bloquer.
Le concept original de Chimere consiste donc à rendre invisibles les applications utilisées par des salariés, mais également ces salariés eux-mêmes, en mettant en place un darknet. Mais pour éviter que ce darknet ne soit utilisé pour masquer l’identité d’utilisateurs et donc à des fins malveillantes, le réseau Chimere ne permet pas d’être anonyme (mais seuls les administrateurs connaissent l’identité des salariés qui utilisent une application).
Des machines qui jouent les intermédiaires
Le réseau de Chimere a déployé sur le cloud d’Amazon, et prochainement sur celui d’OVH, des machines qui servent d’intermédiaires. Pour qu’un utilisateur puisse accéder à l’un de ses logiciels en ligne, sa connexion doit d’abord passer par l’un des intermédiaires choisis aléatoirement (en priorisant le chemin le plus performant à un instant T) du réseau de Chimere. Installé sur les ordinateurs des utilisateurs, un petit programme assure la liaison vers la machine sélectionnée.
Ce principe de micro-segmentation et de connexion point à point des services et des utilisateurs redéfinit le principe de sécurité périmétrique. « Avec Chimere et le principe de darknet, nous souhaitons réinventer la notion d’interconnexion sécurisée et créer une véritable communauté d’entreprises et d’organisations qui prendront part au réseau pour le renforcer. Avec cette vision nous souhaitons démocratiser les notions de confiance zéro et de confiance distribuée » précisent Guillaume-Alexandre Chaizy-Gostovitch et Gabriel Ladet.
Le bonus réparation repose sur une idée simple : pour inciter les Français à réparer leurs appareils électriques et électroniques, plutôt que de les jeter, il faut leur donner un coup de pouce à la décision. Celui-ci prend la forme d’une réduction immédiate de leur facture de réparation, comprise entre 10 et 45 € (hors garantie), auprès des réparateurs labellisés QualiRépar. En quatre mois, le dispositif a commencé à trouver son public. Voici l’annonce majeure faite, mercredi 12 avril, par ecosystem, principal éco-organisme en charge de la collecte et de la valorisation des appareils électriques et électroniques.
Un premier bilan encourageant
Le réseau des réparateurs labellisés atteint désormais plus de 1 220 sites répartis partout en France, contre 500 avant le lancement du dispositif. Regroupant déjà 4 500 techniciens, le réseau devrait doubler d’ici la fin de l’année. « Près de 21 000 réparations ont été déclarées par le réseau en un trimestre, correspondant à une prise en charge de plus de 500 000 € par les éco-organismes, soit 24 € en moyenne par acte de réparation », partage ecosystem. L’éco-organisme en question a versé 79 % de ce bonus pour 81 % des réparations effectuées. Ecologic, le second éco-organisme en charge du fonds réparation, a couvert le reste.
Pour développer le dispositif, ecosystem identifie trois enjeux majeurs. Le premier : recruter et former de nouveaux réparateurs. « Il s’agit d’un métier d’avenir au cœur de la transition écologique », assure Nathalie Yserd, directrice générale d’ecosystem. Elle ajoute l’importance de fidéliser les labellisés et de développer la notoriété du bonus pour « faire de la réparation un acte simple et intégré dans le quotidien des Français » d’ici 2027.
Quels appareils sont le plus réparés par les Français ?
Dans le trio de tête des appareils les plus réparés en faisant appel au fonds réparation se trouvent des lave-vaisselle (22 %), des lave-linge (21 %) et téléphones portables (17 %). Les sèche-linge, les aspirateurs et les fours se retrouvent à égalité, représentant chacun 6 % des réparations. Puis, le fonds a permis de réparer des réfrigérateurs/congélateurs (5 %), des machines à café (4 %), des télévisions (3 %) et 4 % d’autres appareils. Près d’une réparation sur deux (53 %) n’a pas nécessité de pièce détachée.
Les éco-organismes visent plus de 500 000 réparations prises en charge d’ici fin 2023. Ce dispositif est financé par le « fonds réparation » doté de 410 millions d’euros pour six ans (2022-2027). Les dépenses engagées pour le moment restent donc encore très modestes par rapport à l’enveloppe globale. Dans sa feuille de route 2022-2027 dévoilée en mars 2022, ecosystem indique viser 2 millions de réparations supplémentaires d’ici 2027.
Sur les autoroutes et certains périphériques des grandes agglomérations, sont installés des panneaux de signalisation avec des inscriptions lumineuses pour limiter la vitesse habituelle des véhicules en cas de forte affluence, dans le but d’éviter les bouchons. Ce type de dispositif a pour effet de réduire la pollution, car la diminution de la congestion permet de réduire les consommations de carburant et au final les émissions polluantes des véhicules. Pour l’instant, il n’est pas mis en œuvre en ville, un lieu où il est beaucoup plus complexe à installer, étant donné les multiples voies de circulation à contrôler. En collaboration avec le Gipsa-lab1, l’IFPEN (IFP Énergies nouvelles) a développé un outil de régulation des limitations de vitesse pour les zones urbaines, qui s’adapte à la densité du trafic en temps réel.
Cet outil a fait l’objet de plusieurs expérimentations grâce à des simulations numériques réalisées sur un réseau routier simplifié de type Manhattan, constitué d’artères toutes perpendiculaires les unes par rapport aux autres. Un simulateur de trafic a été utilisé pour reproduire la dynamique des véhicules selon différents niveaux de congestion, avec une prédiction de l’évolution du trafic sur les minutes à venir. Il a été couplé à un modèle numérique développé par l’IFPEN permettant d’estimer les niveaux de consommation de carburant ainsi que les émissions de polluants associés, à partir du profil de vitesse de chaque véhicule.
L’outil de régulation a été mis à l’épreuve en le soumettant à un plus ou moins grand nombre de véhicules au même moment. Résultat, alors qu’une limitation de vitesse de 50 km/h apparaît plus efficace sur le plan des consommations de carburant lorsque la densité du trafic est faible en raison du régime du moteur plus favorable, une limitation de 20 km/h devient moins énergivore lorsque le trafic se densifie. La limitation de vitesse permet en effet de retarder l’apparition de l’effet « accordéon » observé en cas d’embouteillage et donc de limiter les accélérations associées, qui sont grandement responsables de la surconsommation.
Une baisse des émissions polluantes de plus de 15 %
Dans le cadre de ces expérimentations, les scientifiques ont calculé que cet outil permettait de réduire la consommation de carburant et les émissions d’oxyde d’azote de plus de 15 % en moyenne en zone urbaine. « En pratique, le régulateur est très efficace quand on l’utilise en anticipation de la congestion, explique Bassel Othman, ingénieur recherche et développement à l’IFPEN. Lorsque le trafic est déjà congestionné, l’intérêt du régulateur est assez faible, car les véhicules sont quasi à l’arrêt. Il en est de même quand le trafic est très fluide. » Certains pourraient alors se poser la question de l’intérêt d’un tel outil, qui ne va servir que quelques heures par jour, aux heures de pointe ? « Mais c’est justement là que la pollution est la plus importante et qu’il faut intervenir », argumenteGiovanni de Nunzio, chef de projet et ingénieur recherche et développement à l’IFPEN.
L’enjeu est donc d’identifier les zones qui vont être congestionnées, puis de tenter de réguler leur accès. « On peut le faire en augmentant la durée des feux rouges sur les brins routiers qui donnent accès à ces voies congestionnées, mais le problème est que l’on va accentuer le phénomène d’arrêt et redémarrage, analyse Bassel Othman. Il est préférable de réguler les véhicules en limitant leur vitesse. On réduit ainsi le débit pour rester à peu près fluide, cela permet de diminuer les consommations et les émissions polluantes. »
Cet outil a été expérimenté sur un cas-type où l’on connaît en avance les itinéraires de tous les véhicules. Pour l’utiliser en condition réelle dans une ville, il serait nécessaire d’obtenir des données sur les flux des véhicules. Ces données existent dans les métropoles, qui ont l’habitude d’installer des boucles de comptage sur des grands axes stratégiques, pour connaître les débits réels aux différentes heures de la journée. Sauf qu’ensuite des investissements seraient nécessaires sur l’infrastructure pour changer les panneaux de limitations de vitesse, afin de les rendre dynamiques en fonction de la congestion d’une zone. Dans le futur, la solution pourrait venir des véhicules connectés, qui recevraient les informations en temps réel sur les nouvelles limitations de vitesse pour éviter les embouteillages.
1 Le laboratoire GIPSA-lab (Grenoble Images Parole Signal Automatique) est une unité mixte du CNRS, de Grenoble-INP et de l’Université de Grenoble-Alpes, qui mène des recherches sur les signaux et les systèmes
Si tous les goûts sont dans la nature… sans doute les couleurs le sont-elles également ! C’est en effet ce que tend à démontrer Pili, start-up fondée en 2015 avec l’objectif de produire des colorants et des pigments issus non pas de la pétrochimie, mais de ressources vivantes.
« Nous nous sommes appuyés sur la vague de ce que l’on appelle la biologie synthétique, qui consiste à produire des molécules par fermentation de microorganismes, et ce à l’échelle industrielle », dévoile Guillaume Boissonnat-Wu, directeur scientifique et industriel de Pili. Une approche comparable à celle adoptée, depuis des millénaires, pour obtenir par fermentation des produits tels que le vin ou la bière… À ceci près que la start-up toulousaine fait appel, quant à elle, à des microorganismes obtenus par ingénierie génétique, comme l’explique le responsable : « Nous avons créé un microorganisme capable, après insertion de gènes, de produire une molécule aromatique, un type de molécule souvent à la base de la chimie des colorants. Il s’agit, à notre connaissance, d’une première ».
Pili produit à la fois des colorants solubles dans l’eau, et des pigments, qui sont quant à eux insolubles dans leur milieu. (photo Marie-Sarah Adenis)
Autre spécificité de la technologie développée par Pili : à la brique technologique de fermentation s’ajoutent des procédés innovants de synthèse organique, visant à convertir ces fameuses molécules aromatiques en colorants et pigments. « Nous sommes capables de produire les deux », souligne Guillaume Boissonnat-Wu. « Nous faisons à la fois des colorants, qui sont des molécules solubles dans l’eau, et des pigments, qui sont quant à eux insolubles dans leur milieu », précise le directeur scientifique et industriel.
Les principes de la chimie verte
Pour obtenir ces molécules colorées, les équipes de Pili ont ciblé des molécules aromatiques connues du monde de la pétrochimie, tout en adaptant à la marge leurs procédés de transformation. « Nous commençons par faire de la synthèse organique classique, mais nous lui appliquons les principes de la chimie verte, qui consistent à réduire l’impact des procédés chimiques sur l’environnement », décrit le responsable. Plutôt que d’utiliser les réactifs en proportions stœchiométriques, Pili fait appel à des catalyseurs. Elle utilise également des solvants verts – qu’elle recycle – et parvient également à diminuer drastiquement les consommations énergétiques des procédés de transformation qu’elle met en œuvre.
La jeune pousse estime ainsi à au moins 50 % la réduction des émissions de CO₂ permise par son procédé, par rapport à la synthèse de colorants par la voie de la chimie conventionnelle. « Cela est toutefois dépendant de la molécule visée », note Guillaume Boissonnat-Wu.
Pili s’est en tout cas, pour l’heure, concentrée sur la production d’un pigment particulier : l’indigo.
Vers l’indigo, et au-delà !
Si elle se concentre pour l’heure sur l’industrialisation de la production d’indigo, la start-up est déjà parvenue à produire n’importe quelle couleur, qu’il s’agisse de pigment ou de colorant, dans ses laboratoires de R&D. (photo Marie-Sarah Adenis)
« Cette couleur était jusqu’à présent produite à partir de composés CMR[1], qui peuvent se retrouver dans le produit final. Nous n’en utilisons tout simplement aucun », se félicite le responsable.
L’étendue des possibilités de la technologie développée par Pili va toutefois bien au-delà de ce seul pigment utilisé notamment par l’industrie textile. Dans ses laboratoires de R&D, la start-up est en effet déjà parvenue à produire n’importe quelle couleur, qu’il s’agisse de pigment ou de colorant. « Nous avons pour l’instant prouvé que cela était possible à petite échelle. Notre objectif est désormais de porter cela à l’échelle industrielle, en développant notamment la trichromie : un ensemble de trois couleurs qui, comme dans une imprimante à jet d’encre, permettrait de produire l’ensemble des couleurs du spectre », dévoile Guillaume Boissonnat-Wu.
En matière de débouchés, Pili vise essentiellement, pour l’heure, l’industrie textile, très grande consommatrice de colorants. Côté pigments, la jeune pousse envisage d’investir le champ des peintures et encres, mais aussi celui des revêtements ou encore des polymères plastiques. « Beaucoup d’encres ou de peintures sont aujourd’hui déjà en grande partie biosourcées. Le seul élément qui ne l’est toutefois pas, en général, est justement le principe actif assurant la fonction colorante », observe le directeur scientifique et industriel de Pili, qui souligne également l’importance de développer des procédés biosourcés qui soient également vertueux sur le plan de leur empreinte carbone. Ce qui ne va pas forcément de soi…
Du pilote au démonstrateur
À l’issue de plusieurs années de R&D, Pili a aujourd’hui atteint le stade du pilote industriel. L’entreprise parvient ainsi, grâce à une installation opérationnelle depuis 2022 dans la vallée de la chimie, au sud de Lyon, à produire à une échelle d’un à cent kilogrammes. Fin février, la jeune pousse a toutefois annoncé avoir levé pas moins de 14,5 millions d’euros, avec un objectif : poursuivre sa dynamique d’industrialisation. « L’un des buts principaux de cette levée de fonds est de développer un démonstrateur permettant une production de l’ordre de la tonne, proche de l’échelle commerciale », projette Guillaume Boissonnat-Wu. Une étape qui ne sera toutefois pas encore un véritable aboutissement en soi, si on la compare aux capacités de production du marché : l’indigo, par exemple, est produit au niveau mondial à raison de plusieurs dizaines de milliers de tonnes chaque année… « Ce démonstrateur va toutefois nous permettre de développer nos procédés dans l’optique de construire ensuite un outil industriel de grande capacité », souligne le responsable. Une perspective que la jeune pousse toulousaine espère voir se concrétiser à l’horizon 2026-2027.
« Pili a une véritable vocation industrielle. Nous avons une volonté forte de développer notre propre site de production, au moins en France pour commencer », explique Guillaume Boissonnat-Wu, qui espère par ailleurs atteindre une échelle suffisante pour, in fine, rendre la technologie Pili compétitive face à ses équivalents pétrosourcés.
L’entreprise peut pour cela compter sur des partenaires de qualité, tels que les décrit Guillaume Boissonnat-Wu : le Toulouse White Biotechnology (TWB), le Cnam de Paris, mais aussi la plate-forme industrielle des Roches-Roussillon, en Isère. C’est là, en effet que Pili a installé son pilote, qui sera bientôt rejoint par le démonstrateur industriel que prévoit de développer la jeune pousse.
[1] Agents chimiques cancérogènes, mutagènes ou toxiques pour la reproduction
Satellites hors service, étages de fusées, morceaux explosés… les débris spatiaux ont toujours attisé la curiosité du grand public. Ces déchets de l’espace, s’ils se mettent sur la trajectoire de satellites opérationnels, peuvent leur causer de graves dégâts, voire causer leur perte immédiate. Nous faisons le point sur ces objets inertes avec Pierre Omaly, chef de projet Tech for SpaceCare au CNES, et sur les solutions possibles pour les éviter. Il développe notamment des briques technologiques afin de rendre les satellites réparables et éviter ainsi de créer de nouveaux déchets.
Techniques de l’ingénieur : Quand s’est-on aperçu que les débris spatiaux étaient problématiques ?
Pierre Omaly : Dans les années 1950, on estimait qu’il n’était pas nécessaire de désorbiter des objets envoyés dans l’espace, car ce dernier était suffisamment vaste. Mais la prise de conscience de la densification des objets dans l’espace a commencé dans les années 2000, avec deux événements qui ont généré des milliers de débris qui constituent toujours, de nos jours, un problème. Le premier est un test antisatellite réalisé par les Chinois pour montrer leurs capacités. Le deuxième, en 2009, est la collision entre le satellite opéré Iridium-33 et un vieux satellite russe en panne Kosmos-2251. Et puis, depuis les années 2020, le NewSpace a augmenté, de façon exponentielle, le nombre d’objets en orbite.
Et donc de débris potentiels ?
En effet. L’arrivée des acteurs du NewSpace a engendré un transfert rapide de l’activité spatiale du secteur public vers le privé. Par exemple des financeurs qui ont fait fortune dans le numérique et qui investissent dans l’espace, parce que c’est cool et qu’il y a de l’argent à faire. Je parle notamment de SpaceX et sa constellation Starlink. Cette société a envoyé plus de satellites dans l’espace que la majorité – à part les plus grands – des pays mondiaux.
Il y a eu une explosion du nombre d’acteurs qui ont voulu entrer dans le spatial. Cela est dû au fait que les technologies sont suffisamment matures pour être mises à disposition de personnes non spécialistes de l’espace. Ce qui a provoqué, de ce fait, une réduction des coûts, une augmentation exponentielle des lancements et par conséquent un risque désormais avéré de saturation des orbites, de collisions entre les objets, et de prolifération accrue des débris spatiaux.
Par le fait d’avoir multiplié le nombre d’objets par 100, les probabilités de collision entre objets ont augmenté aussi. Un débris spatial qui se déplace à la vitesse élevée de 7 km/s et qui entre dans n’importe quel objet génère une explosion, et donc plein de petits débris pouvant provoquer des collisions en chaîne. Une fois générés, ils sont là-haut pendant très longtemps. Un objet de quelques centimètres à 800 km va rester un danger en orbite pendant des décennies. Mais les objets du NewSpace ne sont pas encore des débris. Ce qui est différent avec le newSpace des universités par exemple.
C’est-à-dire ?
Eh bien… je suis tout à fait favorable à ce que des étudiants se fassent la main en faisant voler des cubsats. Mais le problème c’est leur fiabilité. De nombreux cubsats sont des débris dès le départ. Ce sont des cubes de 10 cm³ à peine visibles des radars dont les deux tiers sont malheureusement en panne dès le lancement. C’est très bien de former les jeunes, de trouver une motivation pour travailler dans ce domaine en fabriquant un objet qui vole, car mine de rien vous avez le droit à l’erreur dans un contexte étudiant, mais c’est un débris. Cependant, on sent que les nouvelles générations d’étudiants ont cette fibre « écolo » et que la problématique des débris les préoccupe. L’apprentissage par l’échec pose de nos jours de gros problèmes et les premières générations d’ingénieurs spatiaux qui ont dû découvrir que l’environnement spatial est austère et difficile ont déjà produit leur lot de débris. Ce n’est pas la peine de continuer, il faut apprendre des échecs passés.
Est-ce qu’on les a quantifiés ?
Les chiffres évoluent chaque mois. On considère qu’on a environ 32 000 débris plus gros que 10 cm. 10 cm, c’est la taille que les radars au sol sont capables de détecter. Mais on estime à plusieurs centaines de millions le nombre de débris sous le centimètre. Comme on ne les voit pas, ce sont des statistiques réalisées par l’ESA et mises à disposition à travers la base de données Master. Comment ils ont fait ? En fait, ils ont regardé tout ce que l’homme a lancé, ce qui a explosé, et avec des modèles de simulation, ils estiment le nombre d’objets. Maintenant, plusieurs start-up en France travaillent sur la cartographie des objets visibles.
Est-ce qu’un débris de moins d’un centimètre est dangereux pour un satellite ?
Oui ! On sait qu’un débris de quelques centimètres peut faire exploser un satellite. Tout comme un débris de 5 millimètres peut être, in fine, lui aussi létal s’il arrive sur le réservoir ou sur l’ordinateur de bord. Et c’est un gros problème, car on ne les voit pas ! On a eu le cas documenté en 2016, d’un satellite de l’ESA, le Sentinelle 1A, qui a été impacté sur un panneau solaire par un débris de quelques millimètres. Les équipes s’en sont aperçues en détectant dans les télémesures un mouvement anormal du satellite. En regardant les images d’une caméra à bord du satellite, elles ont vu qu’il y avait un trou dans le panneau solaire. Après analyse, elles ont admis que son origine était due à la collision avec un petit débris. Même si ce débris n’a pas détruit le satellite, il a endommagé un panneau solaire et donc réduit l’énergie produite par celui-ci. Cet incident a contribué à la décision prise par l’ESA de lancer l’initiative « zéro net débris » qui a pour ambition de ne plus faire un seul débris avec ses missions après 2030.
Et en France, y a-t-il également des initiatives ?
Oui, en France, nous avons été les premiers à vouloir prendre en main cette problématique avec la mise en place d’une loi sur les opérations spatiales. Les opérateurs français qui veulent envoyer un lanceur ou des satellites doivent respecter un certain nombre de règles. Par exemple, le satellite ne doit bien sûr pas exploser en orbite. Mais aussi, une fois la mission terminée, il faut le passiver, c’est-à-dire arrêter tout système énergétique pour éviter tout risque d’explosion. Il doit aussi réduire l’altitude de son orbite afin qu’il y ait suffisamment de frottements pour que celui-ci redescende en moins de 25 ans. Des discussions sont en cours pour réduire ce nombre d’années à 5, notamment avec les constellations du NewSpace. Il faudrait même que ce soit immédiatement. Tout cela a pour but de minimiser la génération de débris en orbite. On voit même apparaître des publications d’acteurs privés se revendiquant plus vertueux que les règles en vigueur. Ils vont au-delà de la réglementation, car c’est dans leur intérêt de pérenniser leur installation.
Aujourd’hui, nous sommes encore perfectibles, car tous les pays ne respectent pas de façon égale les règles. Cependant, cela peut ouvrir la porte à de nouveaux business, d’aller chercher les véhicules en panne des opérateurs de constellation par exemple. Quand vous voyez des opérateurs du NewSpace investir massivement des dizaines de milliards pour mettre en place des constellations, ils n’ont pas intérêt qu’elles explosent. Les start-up pourraient ainsi trouver des solutions innovantes et des business plans associés pour nettoyer à la fois les nouveaux débris, mais aussi ceux qu’ont faits nos grands-parents dans le passé. Il y a quelques start-up sur le sujet, mais rien d’opérationnel aujourd’hui.
Et ce ne serait pas possible de recharger ou réapprovisionner les satellites ?
Pour l’instant en France non, mais on y travaille. Aller refaire le plein d’un satellite qui fonctionne toujours serait logique. Mais aujourd’hui ce n’est pas fait, car ce n’est pas forcément le manque de carburant qui fait qu’un satellite tombe en panne, mais les autres systèmes comme l’ordinateur de bord ou les systèmes de commandes. Et puis l’autre difficulté est la complexité de se rapprocher d’un véhicule qui se déplace à 7km/s. Ce sont des manœuvres délicates qui demandent des niveaux de technologies importantes. Et jusqu’à présent, la réparabilité d’un satellite n’était pas prévue dans sa conception. Il n’y a pas, par exemple, de vanne qui s’ouvre facilement pour faire le plein. Mais installer des vannes automatiques fait partie désormais des nouveaux programmes de recherche.
L’État investit d’ailleurs beaucoup d’argent avec France 2030 pour faire de l’In Orbit Servicing, afin par exemple de refaire le plein du satellite, changer un équipement ou un capteur défaillant. Il y a d’ailleurs eu deux démonstrations avec les missions MEV 1 et 2, deux satellites fabriqués par Northrop Grumman et opérés par SpaceLogistics récemment. Le satellite MEV s’est attaché à un satellite géostationnaire en panne sèche pour lui fournir la capacité de continuer à pointer ses antennes au bon endroit et ainsi poursuivre sa mission. Ce sont les missions civiles les plus évoluées à ma connaissance. Le recyclage, la réutilisation ou encore la réparation font partie des solutions pour réduire l’empreinte du spatial, au lieu de faire descendre un véhicule et le faire brûler dans l’atmosphère. C’est la suite logique de l’aventure industrielle spatiale.
Et au CNES, vous travaillez à ces solutions technologiques ?
Oui. Je travaille sur la conception des satellites pour qu’ils soient facilement réparables par les futurs services… qui n’existent pas encore. Et ce sont des choses toutes simples : par exemple mettre une poignée au satellite, conçue de façon à résister aux efforts inertiels des mouvements relatifs aux deux véhicules, pour que l’engin robotique puisse s’y agripper et tenir. C’est tout bête, mais aujourd’hui les satellites n’en possèdent pas systématiquement. Mais également les équiper de numéro de série ou de systèmes d’identification pour être approchés en toute sécurité. Cela fait partie des solutions que l’on essaie d’imaginer et de standardiser pour que cela devienne une norme afin que tout le monde puisse les utiliser.
En fait, on essaie de développer des technologies génériques pour qu’elles soient à la disposition de tous. On le fait avec des entreprises françaises pour que ce soient elles qui les commercialisent. Et ainsi montrer à l’international que concevoir des satellites à faible impact sur l’environnement spatial c’est possible, car on le fait en France.
Et mutualiser via une autre mission, ce ne serait pas moins coûteux ?
On peut en effet imaginer qu’un véhicule qui va faire une mission d’observation standard ramène un débris avec lui lorsqu’il se désorbite. Cependant, votre mission va sûrement coûter au moins deux fois plus cher. Il faudrait imaginer cette espèce de satellite « bicéphale » capable de remplir deux missions bien différentes… En plus il faudra décider qu’à un moment, on arrête la mission d’observation pour aller récupérer un débris. Et ça… allez dire à des scientifiques sur une super mission avec des résultats extra qu’il faut désorbiter alors qu’ils ont encore du carburant ! Tout le monde veut continuer d’utiliser ces instruments extraordinaires au maximum…
D’ailleurs si certains de vos lecteurs ont des idées innovantes, qu’ils m’écrivent. Je suis à l’affût d’idées révolutionnaires, qui changent la donne, des solutions techniques qu’on n’aurait pas vues, des systèmes disruptifs pas imaginés…
Qui paie pour les débris aujourd’hui ?
Personne pour les 20 000 objets envoyés là-haut pendant toute l’ère spatiale de 1957 à nos jours, qui appartiennent pour la majorité aux Américains, Chinois, Russes… La question se pose : est-ce que les Français devraient payer ? Dans mon projet « Tech for Space Care » au CNES, j’ai une activité sur les moyens financiers à imaginer pour monétiser les débris. En effet, si on se dit qu’on va dépenser 50 à 100 millions d’euros pour aller chercher une poubelle, personne ne le fera. Mais si vous considérez que cette poubelle peut exploser si vous ne l’enlevez pas et produire 10 000 débris qui vont potentiellement détruire 4 à 5 satellites à 200 000 millions d’euros, ce n’est peut-être plus la même chose. Mais il s’agit de probabilité… et aujourd’hui, aller investir 100 millions pour enlever un débris qui ne nous a pas encore fait de mal, c’est compliqué !
Aujourd’hui, quand on parle de nettoyer l’espace, on ne peut pas l’imaginer comme sur terre se débarrasser des déchets. Dans l’espace, c’est une mission, un débris, c’est bien cela ?
Oui c’est ce qu’on imagine. Les débris qui nous posent des problèmes aujourd’hui, sont ceux qui sont en clusters. Pendant la guerre froide, les Russes et Américains envoyaient plus ou moins un satellite militaire par semaine. Et les derniers étages des fusées sont toujours là, sur les mêmes altitudes. Il y a des clusters de 4 à 5 objets, des cylindres de 3 à 4 m de diamètre sur quelques dizaines de longueur qui tournent aux mêmes altitudes, qui se croisent plusieurs fois par jour. À plusieurs centaines de mètres parfois. Et plus le véhicule est gros, plus il est une réserve de débris quand il explose.
Pour l’instant pas de collision. Mais le jour où il y a collision, on pollue ces altitudes (800 km), à savoir l’une des plus utilisées pour faire de l’imagerie. Pour l’instant on vit avec une épée de Damoclès au-dessus de la tête.
La loi Climat et Résilience prévoit de façon échelonnée la création de Zones à faibles émissions mobilité (ZFE-m) un peu partout en France. D’ici début 2025, les véhicules Crit’Air 3, 4, 5 ne pourront plus circuler dans 43 agglomérations de plus de 150 000 habitants. Ce sera aussi le cas des véhicules Crit’Air 2 en Île-de-France en 2025 et en Rhône-Alpes en 2028. Selon l’Observatoire des Zones à Faibles Émissions et des véhicules électriques, conduit pour la deuxième année consécutive par l’institut de sondage CSA, auprès de plus de 10 000 Français, 37 % des véhicules en circulation seront impactés par ces ZFE-m et devraient être renouvelés dans moins de deux ans.
Des millions de véhicules concernés
« Aujourd’hui, environ 12 millions de véhicules Crit’Air 3, 4, 5 circulent en France, rappelle Xavier Terryn, directeur du pôle Connect de CSA. En 2025, selon notre estimation, nous serons à 9 millions. » Et 36 % des Français déclarent qu’ils continueront à utiliser leur véhicule faute de budget pour l’achat d’un nouveau véhicule.
Pour la première fois, l’étude projette le parc automobile susceptible de se rendre dans les ZFE-m. Franck Cazenave, expert en mobilité, détaille ces résultats : « Au 1er janvier 2025, même si l’interdiction de circuler dans 43 ZFE pour les Crit’Air 3 est mise en place, il restera 4,1 millions de véhicules qui pourraient continuer à se rendre dans les ZFE faute d’autres solutions alternatives pour les conducteurs. Sur la même logique, pour les véhicules Crit’Air 4, 5 et non classés, on passe de 3,4 millions à moins de 2 millions de véhicules qui pourraient encore entrer dans les ZFE. »
Nous sommes face à une problématique sociale et environnementale. CSA souligne l’importance de développer une aide aux ménages pour retirer prioritairement les 2 millions de véhicules Crit’Air 4 et 5 susceptibles d’entrer dans les ZFE-m en 2025. Face à l’ampleur du défi, l’institut recommande de reporter l’entrée en vigueur de l’interdiction pour les véhicules Crit’Air 3 de 2025 à 2027.
Des Français réfractaires
À mesure que les premiers déploiements se déroulent, les Français connaissent de mieux en mieux les ZFE-m. 51 % des Français en donnent désormais la bonne définition (+14 points par rapport à 2022). Les personnes les mieux informées sont ainsi celles qui sont directement concernées par les régulations déjà en cours. En Île-de-France, 60 % des Franciliens connaissent par exemple la ZFE du Grand-Paris. Le constat est le même dans la région Rhône-Alpes avec 70 % pour la ZFE de Lyon et 56 % pour la ZFE de Grenoble.
Cependant, les Français expriment un sentiment persistant de manque d’information concernant les ZFE et les Crit’Air. Seuls 36 % des sondés ont su attribuer le bon Crit’Air à leur véhicule. « Plus problématique, quand on est sur la base des seules voitures impactées par les ZFE, seulement 29 % des véhicules ont été attribués aux bons Crit’Air », renchérit Xavier Terryn.
En fin de compte, 51 % des Français se disent favorables aux ZFE. C’est une baisse de 6 points par rapport à 2022. Ainsi, lorsqu’ils prennent connaissance du dispositif, la défiance s’installe. La confiance baisse d’autant plus chez les personnes qui détiennent un véhicule polluant ou qui sont directement concernées par ce dispositif. « Ce rejet est particulièrement fort chez les personnes dont au moins un véhicule est concerné : 49 % d’entre elles y sont réfractaires, ce chiffre grimpant à 62 % chez les détenteurs de voitures Crit’Air 4,5 ou non classés », avertit CSA.
Au niveau industriel, France Hydrogène regroupe plus de 110 grands groupes industriels, des secteurs de la mobilité, de l’industrie ou de l’énergie, ainsi que plus de 200 PME ayant des activités sur la chaîne de valeur industrielle de l’hydrogène. Un écosystème en pleine effervescence depuis quelques années, et l’engagement national et européen sur les technologies hydrogène, le vieux continent voulant faire de la molécule le vecteur énergétique de la prochaine décennie.
Christelle Werquin, déléguée générale de France Hydrogène, a expliqué à Techniques de l’Ingénieur comment les investissements massifs autour de l’hydrogène en France et en Europe, notamment via le PIIEC hydrogène, sont un tremplin pour la filière, sous certaines conditions.
Techniques de l’Ingénieur : Sur le terrain, quelles sont les conséquences des investissements massifs annoncés pour déployer une filière européenne des technologies hydrogène ?
Christelle Werquin : La dynamique actuelle autour de l’hydrogène s’incarne aujourd’hui beaucoup au niveau d’écosystèmes territoriaux, c’est pourquoi nous avons, dès 2020, créé des délégations régionales, qui sont aujourd’hui au nombre de 14. Cette action au niveau des régions nous permet d’aider à fédérer les acteurs de la filière au niveau territorial ; notre rôle fondamental étant d’être l’interlocuteur des pouvoirs publics sur le déploiement dans tous les secteurs des technologies hydrogène, au plan national comme local.
Nous agissons également au niveau européen, et même mondial pour porter la voix de la filière française à l’international, puisque le déploiement de l’hydrogène connait une accélération partout dans le monde.
Quel rôle joue le PIIEC par rapport aux autres dispositifs mis en place pour développer la filière hydrogène ?
Le PIIEC est un outil utilisé par l’Etat français dans le cadre de la stratégie nationale hydrogène, aux côtés du PEPR hydrogène, ou encore des appels à projet pilotés par l’ADEME.
Christelle Werquin, déléguée générale de France Hydrogène.
Il permet aux pays européens qui le souhaitent, d’identifier des entreprises leader sur les technologies hydrogène et de leur apporter un appui financier, à certaines conditions. L’objectif étant de faire du déploiement de la filière hydrogène une ambition commune au niveau de l’Europe.
Le processus de sélection des industriels bénéficiant du PIIEC a été long, près de 18 mois, durant lesquels les projets ont été sélectionnés, en deux vagues. La première vague a permis de sélectionner des projets recouvrant l’ensemble de la chaîne de valeur technologique de l’hydrogène, et a vu 10 projets français sélectionnés sur un total de 35. La seconde vague a vu deux projets français de décarbonation de l’industrie être à leur tour sélectionnés. Deux autres vagues de sélection sont prévues, sur les aspects infrastructure et mobilité. Les 10 premiers projets français sélectionnés représentent 2,1Md€ d’argent public, pour un investissement global de 5,2Md€. Ce soutien public génère ainsi de l’investissement privé. Cela doit permettre de faire passer de nombreux projets à l’échelle industrielle sur le court terme.
Le déploiement en cours permettra-t-il d’atteindre les objectifs écologiques fixés par l’Europe ?
L’Europe s’est fixée des objectifs climatiques très ambitieux à travers le paquet de propositions “Fit for 55”, puis le “REPowerEU”, mis en place à l’aune de la situation en Ukraine et des incertitudes en termes d’approvisionnement énergétique qui en découlent. L’idée étant de sortir le plus vite possible de notre dépendance au gaz fossile.
Pour atteindre ces objectifs, il va donc falloir être en mesure de produire et d’importer de grandes quantités d’hydrogène dans les années qui viennent. L’objectif fixé est de produire 10M de tonnes d’hydrogène renouvelable au sein de l’Union européenne, et d’en importer 10M de tonnes, pour répondre aux besoins estimés à 20Mt en 2030 à l’échelle européenne.
Il faut donc une qualification claire de l’hydrogène renouvelable, et des règles pour répondre aux enjeux de décarbonation sectorielle fixés par l’UE. Les règles européennes mettent la plupart du temps un long moment avant d’être adoptées, car elles sont le fruit de nombreuses négociations. L’adoption mi-février[1] des deux premiers actes délégués requis au titre de la directive sur les énergies renouvelables (RED2), et qui permettent de qualifier l’hydrogène d’origine renouvelable et de connaître la méthodologie carbone associée, a été largement saluée malgré certaines réserves, tant l’ensemble des acteurs industriels ont besoin d’un cadre règlementaire clair et stable, notamment face aux ambitions américaines ou chinoises.
Des discussions ardues sont en cours pour finaliser l’adoption de la directive révisée RED3. Celles-ci fixent des cibles de décarbonation par secteur (industrie et transport), à atteindre via l’hydrogène renouvelable ou ses dérivés. Dans ce contexte la France défend la possibilité d’utiliser l’hydrogène produit à partir d’électricité nucléaire pour répondre aux ambitions.
L’immense chantier mis en place pour déployer une filière hydrogène au niveau européen constitue-t-il un risque industriel ?
Le risque ne réside pas dans le fait d’avoir des ambitions importantes, mais plutôt dans le fait de prendre garde à ne pas mettre en place des contraintes qui empêcheraient d’atteindre ces objectifs. Par exemple, si on veut, ce sont les objectifs, produire 10 millions de tonnes d’hydrogène renouvelable sur le sol européen à l’horizon 2030, cela signifie qu’il nous faut produire près de 550 TWh additionnels d’électricité renouvelable. Ce qui est énorme. Au vu des difficultés à implanter de nouveaux ENR, avec les règlements sur l’addition et la temporalité notamment, on voit bien que la difficulté principale ne se situe pas sur un plan technique mais plutôt règlementaire. Comme souvent, on observe un tiraillement entre l’ambition politique affichée, et les règles concrètes qui sont mises en place pour les acteurs industriels.
Sur l’hydrogène, le cadre européen n’est aujourd’hui pas clair sur beaucoup de points, avec pour conséquence le fait de voir certains projets dans le flou, et des décisions d’investissements qui ne sont pas prises. L’aboutissement d’un cadre clair autour de l’hydrogène et de son utilisation, le plus rapidement possible, est fondamental au déploiement et à la compétitivité de la filière en France et en Europe.
L’hydrogène peut-il permettre de décarboner substantiellement le secteur très émetteur des transports ?
Il faut raisonner en termes d’objectifs et d’usages. Si l’objectif est de décarboner massivement les transports, il existe plusieurs possibilités, pas seulement l’hydrogène. Donc il faut qu’un ensemble de solutions soient développées. Dans un contexte de mobilité zéro émission à l’échappement ou d’incorporation d’énergie renouvelable dans le transport, l’hydrogène joue un rôle essentiel. Il permet en effet de décarboner tout en préservant la facilité d’usage (autonomie, temps de recharge) d’un véhicule thermique. Il y a de la place à la fois pour les véhicules électriques à batterie et hydrogène dans ce cadre-là.
Si on sort de l’industrie des transports pour se projeter sur l’industrie tout court, il y a de nombreux process industriels qui seront difficiles à électrifier, donc là encore, on peut imaginer plusieurs solutions, dont l’hydrogène, afin de décarboner ces processus dans le futur.
Quel est l’état d’esprit de la filière aujourd’hui ?
Le lancement de la stratégie hydrogène en 2020 a créé un réel enthousiasme. Beaucoup d’appels à projets se sont lancés, rapidement. Aujourd’hui, avec la révision stratégique en cours sur l’hydrogène, nous sommes un peu plus en alerte. Avec la volonté de relier la stratégie hydrogène à la décarbonation des 50 sites les plus émetteurs sur le territoire, nous risquons de cantonner l’hydrogène à la décarbonation. Or, c’est aussi une filière industrielle créatrice d’emplois dans les territoires. Nous sommes donc attentifs aux révisions qui vont être faites sur la stratégie hydrogène cet automne{2].
Au-delà, il est vital pour la France de développer sur son territoire des technologies performantes autour de l’hydrogène pour pouvoir ensuite les valoriser. Pour en arriver là, il est nécessaire que le pays soit une vitrine pour ces technologies, avec des projets importants développés sur notre sol. C’est tout un tissu économique local, sur les territoires, qu’il faut déployer et pérenniser autour de l’hydrogène, pour être également acteur de la réindustrialisation de l’hexagone, voulue par le Président de la République.
C’est aussi pour cela qu’il faut songer à développer des projets de taille intermédiaire, qui peuvent être mis en route rapidement, pour mailler le territoire et développer localement des nouveaux usages. Il y a un enjeu de temporalité, entre la mise en place de très gros électrolyseurs pour la décarbonation de sites industriels, et des équipements ou des projets – notamment en mobilité -, déjà prêts à être lancés. Le déploiement de l’hydrogène répond à des enjeux structurants tant en termes de souveraineté énergétique que de souveraineté industrielle ou technologique.
Face aux défis énergétiques qui s’annoncent et au contexte géopolitique persistant, les Français s’inquiètent de plus en plus pour leur facture énergétique. Cela a une conséquence : ils s’intéressent de plus en plus aux enjeux de l’énergie. Voici l’une des conclusions du baromètre 2023 consacré à la perception qu’ont les Français de l’énergie, élaboré par Teréga, l’un des deux gestionnaires du réseau de transport de gaz en France, en partenariat avec Harris Interactive.
Ainsi, selon l’enquête réalisée en ligne du 17 au 23 février 2023 auprès de 1 025 Français représentatifs de la population française âgée de 18 ans et plus, 77 % des Français déclarent s’intéresser aux enjeux de l’énergie, contre 65 % en mai 2021. Et désormais, près de 60 % d’entre eux se déclarent « bien informés » sur ces thématiques, contre 53 % en 2021.
Un avis sur les différentes sources d’énergie
Les Français développent ainsi leur propre avis sur les différentes sources d’énergie. Le baromètre fait ressortir quatre blocs d’opinion. Le premier regroupe l’énergie solaire et hydraulique avec respectivement 84 % et 77 % de bonne opinion. Ensuite se trouvent le gaz naturel, l’énergie éolienne et la géothermie avec une bonne opinion, entre 58 et 68 %. Puis, près d’un Français sur deux déclare avoir aussi une bonne opinion de l’énergie nucléaire (57 %) et du biométhane (45 %). Enfin, que cela soit, le pétrole, le fioul et le charbon, les opinions favorables ne dépassent pas les 25 %.
« Le baromètre nous montre qu’à certains égards, nous avons des formes de stabilité du regard de l’opinion qui peut être portée à l’égard des différentes formes d’énergie, réagit Jean-Daniel Lévy, directeur délégué d’Harris Interactive. La différence majeure est le regard à l’égard de l’énergie nucléaire. » Les opinions favorables vis-à-vis de l’énergie nucléaire progressent en effet de 6 points cette année.
Des Français de plus en plus critiques
Toutefois, dans le contexte d’inflation, 68 % des sondés estiment que la France n’en fait toujours pas assez pour garantir des tarifs accessibles aux particuliers, malgré la mise en place du bouclier tarifaire. « L’État est identifié comme un acteur de l’énergie à part entière et il est critiqué pour ses choix actuels et passés, observe Jean-Daniel Lévy. L’énergie devient un enjeu politique. »
En particulier, entre la moitié et deux tiers des Français estiment que la France n’en fait pas assez pour développer la recherche sur l’énergie ou pour encourager la rénovation énergétique. Nos compatriotes ne font pas preuve de plus de bienveillance lorsqu’il s’agit de juger la politique nationale de développement des énergies renouvelables ou de développement de l’offre de transports en commun peu polluants.
Dans le contexte actuel, 92 % des Français avancent surveiller leur consommation d’énergie pour des raisons financières, 77 % pour des raisons environnementales. Et 73 % évoquent la combinaison de ces deux justifications. « L’opposition fin du monde – fin du mois ne se justifie pas toujours aux yeux de nos compatriotes » soulève Jean-Daniel Lévy. Les Français suivent notamment leurs consommations grâce au compteur Linky, et favorisent à nouveau l’utilisation de leurs appareils en heures creuses lorsque cela est possible.
Toute la chaîne de valeur du Composites sera présente, du 25 au 27 Avril à Paris Nord Villepinte. Cet événement réunit plus de 1200 exposants et avec plus de 36 000 visiteurs professionnels venant des quatre coins du monde. JEC WORLD est le lieu idéal pour trouver l’inspiration, accéder à un savoir-faire industriel mondial et trouver des solutions et des innovations composites pour tous les marchés.
Pour cette nouvelle édition, un nouveau programme a été organisé pour permettre aux décideurs et ingénieurs d’aborder les principaux défis et repérer les tendances clés qui façonnent l’avenir de l’industrie des composites.
le Village Startup ou vous y trouverez les projets innovants des finalistes du JEC Composites Startup Booster, le plus grand concours international de startups dans ce domaine,
JEC Composites Exchange, des ateliers pour présenter des solutions, des produits et des études de cas.
Des zones de rencontres et de débats :
JEC Composites Conférences et JEC Composites Sessions by, des conférences et tables rondes sur des sujets clés seront traités allant de l’allègement des pièces et structures aux avions du futur, en passant par les nouveaux matériaux, l’hydrogène, le recyclage et l’économie circulaire.
JEC Composites Business Meetings pour mettre en relation des acheteurs de l’industrie des composites avec les exposants du salon,
JEC Composites Country On Stage, des présentations et des échanges sur l’industrie des composites dans des pays et régions spécifiques.
JEC Composites Innovation Awards, rencontrez le meilleur de l’innovation et de l’entrepreneuriat avec les onze lauréats de l’édition 2023.
Ne manquez pas cette occasion unique pour développer vos activités, anticiper la prochaine évolution de l’industrie et trouver des solutions plus légères, plus intelligentes et plus durables. Techniques de l’ingénieur sera également présent au stand 5A64, pour vous accompagner dans vos réalisations.
Et si, tel le gasoil ou l’essence, l’hydrogène pouvait transiter à bord de simples camions-citernes, à pression et température ambiantes… ? Séduisante, la perspective peut toutefois – a priori – sembler irréaliste. Désigné comme « fondement d’un cercle économique et environnemental vertueux » dans le Plan de déploiement de l’hydrogène pour la transition énergétique, présenté mi-2018 par le ministre de la Transition écologique et solidaire d’alors Nicolas Hulot, ce vecteur énergétique se révèle en effet synonyme de contraintes en matière de stockage, mais aussi de transport : pour être acheminé de son lieu de production jusqu’à l’endroit où il sera utilisé, l’hydrogène est généralement comprimé à des pressions de plusieurs centaines de bars.
C’était sans compter sur les vertus de la sérendipité. Une réaction chimique réalisée fortuitement dans un laboratoire français il y a plus de dix ans est en effet à l’origine d’une solution innovante, qui semble aujourd’hui en passe de faire avancer d’un grand pas le domaine du transport de l’hydrogène. Son nom : Hydrosil.
Un double fruit du hasard
Pierre-Emmanuel Casanova, président et co-fondateur d’HySiLabs.
« Hydrosil est le fruit de la rencontre du hasard avec le hasard ! », glisse Pierre-Emmanuel Casanova président et co-fondateur de l’entreprise qui porte cette innovation, HySiLabs. « Une réaction fortuite a été réalisée par des chercheurs d’Aix-Marseille Université. Cette réaction entre des liquides s’est en effet révélée produire un gaz, de manière inattendue. Pour caractériser ce gaz, l’équipe de recherche a employé un moyen simple : ils ont craqué une allumette. Cela a provoqué une détonation, mais aussi généré des gouttelettes d’eau sur les parois du tube à essai… Ils pressentaient donc qu’il puisse s’agir d’hydrogène, ce qu’une caractérisation plus formelle a ensuite confirmé. Sauf qu’ils ne travaillaient pas du tout dans ce domaine, mais plutôt dans le secteur du médicament. L’hydrogène n’était par ailleurs pas un sujet aussi important à l’époque qu’il ne l’est aujourd’hui » retrace le chef d’entreprise.
La découverte est donc un temps laissée de côté… Jusqu’à ce que le hasard s’en mêle donc de nouveau, comme l’explique Pierre-Emmanuel Casanova : « Un concours de circonstances nous a fait rencontrer, mon associé Vincent Lôme et moi-même, cette équipe de recherche, qui nous a alors fait part de la découverte de cette réaction laissée en sommeil ». Les deux associés flairent le potentiel de la chose, et décident alors, sur leurs propres deniers, de partir pour un parcours à travers l’Europe à la rencontre des acteurs du monde de l’hydrogène. « Nous nous sommes notamment rendus dans des salons, qui étaient à l’époque encore assez confidentiels et peu nombreux. Nous y avons toutefois présenté la découverte, face à des pionniers du secteur visiblement séduits : ils y ont tout de suite vu une bonne façon de transporter l’hydrogène », se remémore le co-fondateur d’HySiLabs. Seule la moitié du chemin était toutefois franchie, comme le concède Pierre-Emmanuel Casanova : « Si la réaction permettait effectivement de libérer de l’hydrogène, il nous restait à trouver le moyen de “charger” chimiquement le liquide avec ce gaz ». Un défi à l’origine de la création, en 2015, d’HySiLabs.
Un vecteur liquide « chargé » et « déchargé » en hydrogène
Outre la partie « décharge » de son vecteur liquide, HySiLabs travaille activement au process qui permettra de charger l’Hydrosil en hydrogène.
« Depuis 2015, nous nous efforçons, bien évidemment, de continuer à travailler sur la partie relargage de l’hydrogène, sur la base de la réaction découverte à l’Université d’Aix-Marseille. Mais ce sur quoi nous passons le plus clair de notre temps est désormais la partie “charge” de l’hydrogène dans notre vecteur », assure Pierre-Emmanuel Casanova. Un vecteur – l’Hydrosil – composé d’hydrure de silicium (SiH), et qui présente l’avantage majeur de demeurer liquide dans des conditions de pression et de température ambiantes, qui plus est à long terme. « Cette stabilité dans le temps lui permet d’être facilement manipulable », souligne le co-fondateur d’HySiLabs.
Composé au départ de silice (SiO2), le vecteur peut être « chargé » via une opération consistant, schématiquement, à y substituer l’oxygène par de l’hydrogène. Une « greffe chimique », telle que la décrit Pierre-Emmanuel Casanova, qui nécessite toutefois un apport d’énergie. « Nous travaillons à optimiser l’impact énergétique de cette étape. Nous dérivons pour cela des technologies existantes afin de créer quelque chose de complètement nouveau. Cela fera prochainement l’objet d’un brevet », dévoile le président d’HySiLabs. Le dirigeant envisage ainsi d’ores et déjà la possibilité d’adosser des installations de « charge » à des infrastructures de production d’énergies renouvelables, elles-mêmes associées à des électrolyseurs. « Cela serait particulièrement cohérent : nous utiliserions ainsi de l’énergie propre, là même où l’hydrogène est produit », note Pierre-Emmanuel Casanova.
D’autant qu’une fois cette première étape franchie, le reste des opérations se poursuit sans le moindre apport énergétique. La décharge du vecteur, notamment, est en effet réalisée simplement en mélangeant l’Hydrosil à de l’eau, additionnée d’un catalyseur. « Il s’agit de cette fameuse réaction découverte par hasard par des chercheurs d’Aix-Marseille, rappelle le co-fondateur d’HySiLabs. La production d’hydrogène est simple, instantanée, sans aucun apport d’énergie. »
Autre vertu : une fois déchargé de son hydrogène, le vecteur silicé peut être récupéré, puis rechargé, sans générer le moindre déchet. Une circularité à laquelle s’ajoute l’avantage de la compatibilité de la solution avec l’ensemble des infrastructures et équipements actuels de transport de carburant : cuves, pipelines, mais aussi, donc, les fameux camions-citernes amenant essence ou gasoil jusqu’aux stations-service. « Si l’on se base sur un transport d’hydrogène à une pression de 200 bars, un camion-citerne d’Hydrosil représentera l’équivalent de sept camions de transport d’hydrogène à haute pression… », estime Pierre-Emmanuel Casanova, qui souligne également l’intérêt social et sociétal de l’approche : « Cela va permettre de garder tous les métiers liés au transport de liquides, sans avoir besoin de formation supplémentaire, coûteuse et contraignante ». Un avantage que l’entrepreneur espère voir s’illustrer dans les années à venir.
Prochain objectif : passer du kilo à la tonne…
À l’origine de douze familles de brevets – soit près de 70 brevets déposés à travers le monde –, HySiLabs a atteint en juin 2022, grâce à un premier démonstrateur, un stade de production de son vecteur de l’ordre du kilogramme quotidien. Quelques mois plus tard, fin janvier 2023, l’entreprise basée à Aix-en-Provence a par ailleurs annoncé la réalisation d’une levée de fonds de pas moins de 13 millions d’euros[1]. Objectif principal : multiplier d’un facteur mille l’échelle de sa production, comme l’explique Pierre-Emmanuel Casanova : « Nous espérons passer du kilo à la tonne… Et ce d’ici deux ans, deux ans et demi ». Le co-fondateur d’HySiLabs entrevoit ainsi d’ores et déjà la possibilité d’une nouvelle levée de fonds à cet horizon, afin de réaliser un nouveau saut d’échelle, et d’atteindre, in fine, une capacité de production d’Hydrosil de plusieurs centaines de tonnes par jour.
HySiLabs compte aujourd’hui une vingtaine de collaborateurs, et espère doubler cet effectif dans les mois à venir.
« Nous visons notamment le secteur de la mobilité, des stations-service, sur un modèle bulk to retail[2]. Nous avons toutefois aussi la volonté d’aller vers le transport lourd, notamment le maritime et le train diesel, pour lesquels il existe une forte demande », dévoile Pierre-Emmanuel Casanova.
Des ambitions qu’HySiLabs espère pouvoir concrétiser en nouant des partenariats stratégiques, comme l’explique son président : « Nous avons notamment un partenariat d’envergure avec le port d’Amsterdam, qui importe des quantités massives d’hydrogène, et nous sommes par exemple également impliqués dans le projet Sun-to-X, qui développe une nouvelle approche de production d’hydrogène. Notre volonté est de venir nous greffer à ces sites de transit ou de production innovante d’hydrogène. Ces partenariats stratégiques vont nous permettre de créer un environnement complet, une véritable chaîne de valeur qui fonctionne de A à Z ».
Mais pour aboutir, la solution a aussi besoin de bras – et de cerveaux – comme le souligne finalement le président et co-fondateur d’HySiLabs Pierre-Emmanuel Casanova : « Nous sommes à la recherche de nombreux profils… Nous sommes actuellement une vingtaine de collaborateurs, des ingénieurs à plus de 85 %, et nous visons un doublement de cet effectif d’ici un an ou deux ». L’appel est lancé !
[1] Opération de financement menée par Equinor Ventures, rejoint par le Fonds du Conseil européen de l’innovation (CEI), EDP Ventures et PLD Automobile, ainsi que des investisseurs de la première heure : Kreaxi, Région Sud Investissement et CAAP Création.
Quinze États membres sont impliqués : l’Allemagne, l’Autriche, la Belgique, le Danemark, l’Espagne, l’Estonie, la Finlande, la France, la Grèce, l’Italie, les Pays-Bas, la Pologne, le Portugal, la Slovaquie et la Tchéquie.
Les 41 projets sélectionnés couvrent l’ensemble de la chaîne de valeur des technologies hydrogène : production, pile à combustible, stockage, transport, distribution, et applications d’utilisation finale, en particulier pour le secteur de la mobilité. Cette offensive sur l’hydrogène va créer de l’emploi (on parle de 100 000 postes d’ici à 2030 sur l’ensemble de la filière au niveau européen), et permettre aux pays membres de l’UE d’accélérer leur transition énergétique, en remplaçant, quand cela est possible, la consommation d’énergies fossiles par celle de l’hydrogène. C’est particulièrement vrai pour un secteur comme l’automobile et les transports en général, qui génère à lui seul près du quart des émissions de gaz à effet de serre au niveau européen.
Concrètement, quelle est la raison d’être de ce PIIEC sur l’hydrogène ? Tout d’abord sa dimension : en formalisant au niveau européen des investissements massifs autour de l’hydrogène, les acteurs continentaux sont plus à même de mettre les différents projets en cohérence, et au-delà éviter des distorsions de concurrence.
Côté français, les 10 projets retenus, et financés à hauteur de 2,1 milliards d’euros, constituent le tremplin tricolore vers une économie hydrogène décarbonée. C’est ainsi que sept gigafactories doivent voir le jour, réparties sur le territoire français, créant au passage 5200 emplois directs. Ces giga usines assureront la production d’électrolyseurs, de piles à combustible, de réservoirs d’hydrogène, mais aussi de véhicules (trains et automobiles) et de matériaux.
Les plus grandes entreprises françaises sont impliquées sur le PIIEC : Air Liquide, McPhy, Alstom, Renault, Faurecia, et d’autres fleurons de l’industrie française sont ainsi engagés sur les 10 projets prenant place sur le territoire. Les autres projets européens, sont eux aussi portés par des grands groupes industriels, accompagnés de quelques jeunes pousses.
Pour l’Europe, le pari sur l’hydrogène est risqué et extrêmement ambitieux. En effet, selon les estimations, l’hydrogène pourrait représenter jusqu’à 20 % du mix électrique européen à l’horizon 2050. Partant de là, l’hydrogène pourrait couvrir 2 à 50 % de la demande énergétique dans les transports, et entre 5 et 20 % de la demande énergétique pour l’industrie.
Pour atteindre ces objectifs, la contrainte majeure consiste à produire de l’hydrogène décarboné, dit vert, voire jaune dans le cas de l’électrolyse de l’eau alimentée par de l’électricité nucléaire. Le PIIEC et les investissements européens ont pour objectif de produire de l’hydrogène décarboné, seul hydrogène permettant de réduire efficacement les émissions de gaz à effet de serre.
Seconde contrainte, les fuites d’hydrogène potentielles, liées au déploiement massif de la molécule. Les simulations démontrent que les effets indirects d’une augmentation du taux d’hydrogène atmosphérique sur les autres gaz à effet de serre peuvent rendre le bilan global des technologies hydrogène négatif en termes de bilan GES global.
Les objectifs élevés de la France et de l’Europe sur l’hydrogène vont, d’ici à 2030, révolutionner le mix énergétique continental, à condition de lever les deux verrous technologiques que constituent la production décarbonée de l’hydrogène, et la limitation des fuites potentielles dans l’atmosphère.
En France, près de 53,8 millions de pneus ont été mis sur le marché en 2021 selon l’Ademe. La même année, seules 572 000 tonnes ont pu être traitées et en majorité pour être revalorisées énergétiquement ou dans des cimenteries. Le recyclage représente seulement 36 % des traitements. Afin de rendre circulaires les pneus en fin de vie, le fabricant Michelin, en partenariat avec douze autres entreprises, lançait en mai 2020 le consortium européen BlackCycle. Cette initiative est financée par l’Union européenne dans le cadre du programme Horizon 2020, à hauteur de 12 millions d’euros, sur un total de 16 millions d’euros.
L’objectif de ce projet est de mettre en place une économie circulaire autour des pneumatiques en Europe, depuis la collecte jusqu’au réemploi dans des pneus neufs. D’ici à cinq ans, les partenaires souhaitent qu’un pneu en fin de vie sur deux soit intégré dans une nouvelle chaîne de valeur circulaire. Le programme, d’une durée de 44 mois, se terminera en 2023 et devrait pouvoir valider une technologie de pyrolyse d’un TRL 6-7.
Un procédé complexe
L’objectif du projet BlackCycle est de remplacer certaines des matières premières des pneumatiques par des alternatives issues du recyclage. Pour comprendre comment recycler un pneu, déjà faut-il apercevoir toute la technicité que cet objet requiert. Les matières qui le composent sont étudiées de manière à adapter l’usure, la résistance, l’adhérence ou l’élasticité à la partie correspondante.
Lorsque les roues sont collectées, les pneus sont démembrés pour en séparer les différents éléments tels que les métaux, les tissus ou la gomme. Cette dernière est réduite en morceaux qui seront ensuite dépolymérisés par une pyrolyse à des températures supérieures à 400°C. À la fin du processus, trois fractions sont obtenues : du gaz, de l’huile et une partie solide. Le gaz sera condensé, et en partie réutilisé pour alimenter le process en énergie. Le reste sera revendu à des partenaires. L’huile, quant à elle, contient un mélange des différents noirs de carbone du pneu ainsi que divers minéraux tels que la silice ou l’oxyde de zinc. L’objectif du consortium est de parvenir à utiliser cette huile de pyrolyse comme matière première dans la production de noir de carbone. Une innovation puisque personne auparavant ne s’était intéressé de si près à son recyclage.
Focus sur le noir de carbone
Mais qu’est-ce que le noir de carbone ? Ce matériau sert de charge renforçante (composée de carbone et d’hydrogène ou même d’oxygène, de soufre ou d’azote) qui permet d’augmenter la résistance mécanique de la gomme d’un pneu. Caractérisé par de très fines particules sphériques, il va se lier aux élastomères de la gomme afin de consolider la matrice. À chaque partie du pneu correspond un noir de carbone spécifique, indispensable pour atteindre les performances recherchées. Par exemple, les flancs doivent être capables de supporter la fatigue tout en limitant la résistance au roulement ; la bande en contact avec la route devra résister à l’usure tout en ayant un niveau d’adhérence irréprochable. Toutes ces variations techniques sont apportées par des noirs de carbone spécifiques.
En 2021, le consortium avait annoncé qu’il avait réussi à produire son premier noir de carbone durable, baptisé « Recovered Carbon Black » et fabriqué à partir d’huile pyrolitique de pneus en fin de vie à l’échelle du laboratoire. Un an plus tard, une autre étape est franchie : c’est cette fois à l’échelle de plusieurs tonnes que ce matériau est produit. Il a ensuite été intégré dans la bande de roulement d’un pneu d’autobus Michelin et a remplacé 100 % du noir de carbone conventionnel (fossile). D’après BlackCycle, ce noir de carbone obtient les mêmes propriétés que celui issu de matières fossiles.
Inventé dans les années 1990, le soudage par friction malaxage, également appelé FSW pour Friction Stir Welding, est un procédé de soudage à l’état solide, sans ajout de métal d’apport. Depuis 2017, la start-up Stirweld a développé un système pour installer cette technologie directement sur un centre d’usinage. Son ambition est de démocratiser l’utilisation du FSW en divisant par dix son coût d’acquisition. Son système est issu de travaux de recherche appliquée au sein de l’Institut Maupertuis et de l’École normale supérieure de Rennes. Installée dans la périphérie de Rennes, l’entreprise commercialise son procédé de soudage FSW partout dans le monde. Entretien avec Laurent Dubourg, le CEO et cofondateur de Stirweld.
Techniques de l’Ingénieur : Comment fonctionne le soudage par FSW et quel est son intérêt ?
Laurent Dubourg, CEO et cofondateur de Stirweld. Crédit : Stirweld
Laurent Dubourg : Il s’agit d’une fraise qui tourne et que l’on plonge dans les pièces. Le frottement provoque de la chaleur et permet de mélanger et de malaxer les deux pièces à souder. Cette technologie fonctionne avec des matériaux ductiles tels que l’aluminium, le cuivre, le magnésium, l’étain et le plomb. Elle représente une révolution dans la soudure de l’aluminium, un matériau très compliqué à souder. Le soudage conventionnel, de type TIG (Tungsten Inert Gas), MIG (Metal inert gas) ou laser, provoque en effet plusieurs défauts avec des problèmes de porosité, de collage, de fissure, et une forte baisse des résistances mécaniques. Grâce au FSW, on parvient à annuler ces défauts, car le soudage est réalisé jusqu’à une température de 500 degrés, alors que le point de fusion de l’aluminium est à 600 degrés. Étant donné que l’on chauffe beaucoup moins, le matériau n’est presque pas dégradé.
Comment avez-vous réussi à adapter cette technologie sur un centre d’usinage ?
Nous ajoutons quatre fonctions sur les machines-outils. Tout d’abord, un contrôle d’effort, car le soudage par FSW nécessite d’appliquer une pression constante sur la pièce, alors qu’en usinage, la position reste constante. Pour solutionner ce problème, nous avons intégré un piston qui monte et qui descend et dont le rôle est d’assurer une pression constante et un plaquage de l’outil sur la pièce.
Une tête FSW fabriquée par l’entreprise Stirweld et installée sur une machine-outil à commande numérique. Crédit : Stirweld
Ensuite, un système de refroidissement de l’outil a été intégré pour éviter qu’il ne chauffe et que la température atteigne le point de fusion du matériau, alors que l’on soude toujours à l’état solide. Pour pallier cette difficulté, nous avons intégré un double refroidissement de la tête, avec de l’eau et de l’air, associés à des capteurs de température.
La troisième fonction a pour but de protéger le centre d’usinage contre les forces de soudage et les vibrations qui risqueraient de l’endommager. Concernant les forces, nous avons ajouté trois roulements dans la tête, dont le rôle est de supporter les efforts de soudage, puis de les transmettre directement dans la structure solide du centre d’usinage. Pour les vibrations, je préfère ne pas rendre publique notre solution technologique, pour des raisons de confidentialité.
Enfin, la dernière fonction concerne le contrôle de qualité. Notre tête est équipée de capteurs qui enregistrent la force et différentes températures pour nous permettre de réaliser un contrôle à 100 % de la qualité de la soudure en cours de soudage.
Quels sont les avantages de votre solution technologie ?
Notre procédé coûte 97 000 €, alors qu’il faut débourser près d’un million d’euros pour utiliser le FSW chez nos concurrents. En divisant par dix son coût d’acquisition, notre ambition est de démocratiser cette technologie, dont le prix était jusqu’ici le principal frein à son utilisation. Reste ensuite à la faire connaître et à former des personnes. Cette technologie est encore peu connue, car elle est nouvelle, mais je pense qu’il va se passer la même chose qu’avec l’impression 3D métallique, un domaine dans lequel j’ai fait ma thèse de doctorat. Il y a 10 ans, à part quelques experts, personne ne connaissait cette technologie, alors que maintenant, elle est présente dans tous les salons professionnels. Il y a malgré tout une différence entre ces deux technologies : les pièces fabriquées grâce à notre procédé de soudage par FSW coûtent moins cher que les autres solutions déjà existantes, ce qui n’est pas le cas de l’impression 3D métallique.
Ensuite, le soudage FSW va permettre de pallier en partie le manque de main-d’œuvre, en automatisant la soudure. Dans les 5 prochaines années, il va manquer environ 400 000 soudeurs en Europe et le même nombre en Amérique du Nord. C’est une catastrophe pour l’industrie. Grâce à notre technologie, le besoin en opérateur sera moins important, et en plus les compétences recherchées sont décalées, puisque l’on va davantage recruter des programmateurs de centres d’usinage.
Auprès de qui commercialisez-vous votre procédé ?
Il existe une grande variété d’industries susceptibles d’être concernées par le soudage FSW. Aujourd’hui, nous avons commercialisé 32 têtes FSW partout dans le monde, dont 7 en France. Nos trois premiers clients en France sont Ariane, Valeo et Airbus. Chez Valeo, notre procédé est utilisé pour souder des boîtiers électriques qui régulent les moteurs électriques de voitures. Notre procédé est aussi utilisé pour souder certains boîtiers de contrôle de voitures électriques du fabricant Tesla aux États-Unis. Pour Airbus, notre technologie va servir à souder les réservoirs dans lesquels sera stocké l’hydrogène liquide à température cryogénique de leur futur avion. Ces réservoirs sont en aluminium et la soudure FSW est la plus performante pour ce type de matériau.
Quelles sont les perspectives de votre entreprise ?
Nous sommes dans une phase de très forte croissance, puisque nous prévoyions de commercialiser 24 têtes FSW cette année. En ce moment, nous installons une tête en Corée du Sud, et une autre bientôt au Mexique. Nous livrons nos clients et les formons à l’utilisation de notre procédé. Pour l’instant, nous sommes la seule entreprise dans le monde à proposer l’utilisation du FSW sur un centre d’usinage, et nous avons protégé notre technologie par un brevet mondial. Mais nous savons que nous allons être copiés, et l’innovation est une course permanente, il ne faut pas se reposer sur ses lauriers. En 2017, nous avons lancé notre première tête FSW standard, et depuis nous avons développé trois nouvelles têtes, avec de nouvelles fonctionnalités d’usage pour nos clients. L’une d’elles est une tête rétractable, pour éviter qu’à la fin d’une soudure FSW, lorsque l’outil se retire de la pièce, il laisse un trou. Dans 95 % des applications, nous avons différentes solutions pour que ce défaut ne soit pas apparent. Par contre, sur les réservoirs à hydrogène, il peut entraîner une fuite. Nous avons donc développé une tête à pion rétractable qui permet de boucher le trou. Nous continuons notre travail de R&D afin de sortir de nouvelles versions de têtes FSW.
Faut-il réguler l’aviation internationale ? Interdire les vols intérieurs ? Avoir honte de prendre l’avion ? Ou au contraire miser sur l’avion à hydrogène et les autres technologies de décarbonation ? Les interrogations entourant le transport aérien se multiplient. Pour sa part, l’Académie des technologies veut croire à la décarbonation de l’aviation grâce au « carburant d’aviation durable », compatible avec les infrastructures et les avions existants.
« Les carburants durables pourraient permettre de diviser par 10 les émissions d’un vol », partage Daniel Iracane, expert du pôle énergie de l’Académie des technologies, pilote du rapport La décarbonation du secteur aérien par la production de carburants durables. Un aller-retour Paris-New York propulsé au kérosène synthétique émettrait ainsi autour de 100 kg de CO2 contre plus d’une tonne aujourd’hui. De quoi rendre l’aviation compatible avec le respect d’un budget carbone de 2 tonnes par Français en 2050.
Pour fabriquer du « kérosène durable » à large échelle dans de grandes installations industrielles, l’Académie identifie « trois ingrédients clés », à savoir « le carbone, l’hydrogène et l’énergie pour les produire ». Pour cette production, il faudra mobiliser la biomasse d’origine animale et végétale qui apporte l’ensemble de ces trois ingrédients : l’huile de cuisson usée, la graisse animale et les résidus forestiers et agricoles. Le potentiel de cette biomasse reste limité et soumis à de nombreuses incertitudes. Il faudra donc en plus produire de l’hydrogène par électrolyse de l’eau, et l’associer à du CO2 capturé dans les rejets industriels ou extrait de l’air. Cette option nécessitera beaucoup d’électricité.
Une électricité décarbonée pour décarboner l’aviation
Aujourd’hui, la France utilise moins de 0,1 million de tonnes de kérosène synthétique chaque année. Elle a produit 532 térawattheures (TWh) d’électricité en 2021. « En considérant que l’on puisse consacrer au secteur de l’aviation 10 % de la biomasse destinée à faire de l’énergie, il faudrait 20 TWh d’électricité pour produire 2 millions de tonnes de kérosène durable en 2035 et 170 TWh en 2050 pour 6 millions de tonnes de kérosène durable », calcule Daniel Iracane. La majorité du carburant serait alors obtenu par électrolyse de l’eau et capture du CO2.
Si le trafic venait à diminuer de quelques dizaines de pour cent, cela ne changerait pas l’ampleur du défi. « On est peu dépendants des hypothèses de trafic », assure Daniel Iracane. L’Académie se défend de ne pas avoir exploré la voie d’un encadrement beaucoup plus strict du transport aérien à venir, car elle ne semble pas se profiler au niveau européen et mondial.
L’Académie identifie donc deux défis majeurs : un accès facilité à la biomasse et à l’électricité décarbonée, ainsi qu’une importante industrialisation dès 2030. « Grâce à son électricité déjà décarbonée, la France a les moyens d’initier une filière industrielle de kérosène durable dès 2030, là où la majorité des pays européens devront d’abord décarboner leur mix électrique ou dépendre totalement d’importations massives de carburant durable », défend l’académicien qui a fait une grande partie de sa carrière dans l’énergie nucléaire.
Quelles que soient les innovations technologiques, il faudra multiplier les capacités de production électriques. L’électricité sera notamment nécessaire pour faire voler des avions, pour déplacer les navires et pour produire les engrais azotés, avertit l’Académie des technologies. « À terme, un doublement de la production électrique sera nécessaire en 2050 pour décarboner les différents secteurs de l’économie », partage Daniel Iracane. Le secteur aérien mobiliserait de 10 à 15 % de cette nouvelle production électrique issue des énergies renouvelables et de nouveaux réacteurs nucléaires.
À maturité technologique, l’Académie des technologies estime le coût de production du kérosène synthétique à 2,5 € par litre, soit plus du double du coût d’extraction du kérosène fossile actuel. Cela correspond à un coût d’abattement carbone de l’ordre de 300 € la tonne de CO2.
La question de la disponibilité de l’eau fait la Une des journaux ces dernières semaines suite à la sécheresse hivernale et à la mobilisation contre les méga-bassines agricoles. Jeudi 30 mars, lors d’un déplacement à Savines-le-Lac (Hautes-Alpes), le président de la République Emmanuel Macron a présenté le Plan Eau, « un plan d’action pour une gestion résiliente et concertée de l’eau ».
Ce nouveau plan collectif associe l’État, les collectivités locales, les acteurs économiques, les associations et les citoyens. Il veut répondre à trois enjeux majeurs : « organiser la sobriété des usages pour tous les acteurs », « optimiser la disponibilité de la ressource » et « préserver la qualité de l’eau ». France Nature Environnement salue « plusieurs bonnes nouvelles » et « l’effort écologique affiché par le gouvernement ». « Le chef de l’État a (enfin) parlé de sobriété », se félicite la fédération d’associations écologistes dans un communiqué.
Organiser la sobriété pour tous les acteurs
Le plan pose plusieurs objectifs chiffrés. La France prélève chaque année 32,8 milliards de m³ d’eau douce dans la nature (en moyenne sur la période 2010-2019). Plus de la moitié (51 %) servent au refroidissement des centrales électriques, 16 % à l’alimentation des canaux, 16 % à la production d’eau potable, 9 % aux usages agricoles et 9 % aux usages industriels. Au global, le plan ambitionne une réduction des prélèvements d’eau de 10 % dans le pays d’ici 2030.
Afin d’atteindre cet objectif, toutes les filières économiques devront présenter un plan de sobriété d’ici l’été. En plus, le gouvernement mise dès cette année sur l’accompagnement d’au moins 50 sites industriels avec le plus fort potentiel de réduction. En 2024, de nouveaux travaux seront lancés pour réduire la consommation d’eau dans les bâtiments neufs.
Ce plan de gestion de l’eau entre dans une logique de planification écologique. Pour cela, chaque grand bassin versant adoptera un plan d’adaptation au changement climatique. Il précisera la trajectoire de réduction des prélèvements au regard des projections d’évolution de la ressource en eau et des usages.
Optimiser la disponibilité de la ressource
Pour sécuriser l’approvisionnement en eau potable, la première piste consiste à réduire les fuites dans les canalisations. Sur les 500 millions d’euros supplémentaires accordés chaque année par ce plan aux agences de l’eau, 180 millions d’euros par an serviront à résorber « en urgence » les fuites d’eau en France dans les points les plus sensibles. Via communiqué, la Fédération professionnelle des entreprises de l’eau (FP2E) salue « les mesures concrètes du plan Eau » et appelle à « leur mise en œuvre complète et sans délai ». Si ces moyens supplémentaires vont dans le « bon sens », elle estime que la France a besoin de 15 milliards d’euros sur cinq ans pour adapter la gestion de l’eau au dérèglement climatique.
L’optimisation de l’usage de l’eau passera aussi par la valorisation des eaux usées et pluviales. Le gouvernement espère développer 1 000 projets de réutilisation sur le territoire, d’ici 202. Il espère passer d’un taux de réutilisation des eaux usées traitées (REUT) de 1 % à 10 % d’ici 2030. D’autres projets permettront d’améliorer le stockage dans les sols, les nappes et les ouvrages. En particulier, un fonds d’investissement hydraulique agricole sera abondé à hauteur de 30 millions d’euros par an pour moderniser les ouvrages existants (curages de retenues, entretien de canaux…) et développer de nouveaux projets.
Préserver la qualité et restaurer les écosystèmes
Le troisième axe du plan vise à prévenir les pollutions des milieux aquatiques et, en particulier, renforcer la protection des aires d’alimentation de captage. Il devrait notamment favoriser l’agroécologie et l’agriculture biologique dans ces zones et soutenir les pratiques agricoles à bas niveau d’intrants. 30 millions d’euros par an soutiendront dans le secteur agricole le développement de pratiques agricoles économes en eau. En plus, le déblocage d’un fonds de 30 millions d’euros pour l’hydraulique agricole facilitera l’utilisation des ouvrages existants et améliorera l’infiltration dans les nappes phréatiques.
L’association Générations Futures regrette des mesures cantonnées aux seules aires de captage. Elle souligne l’absence d’« interdiction par exemple d’utilisation des pesticides de synthèse(particulièrement ceux néfastes pour les milieux aquatiques) à moins de 100 mètres de ces zones ». « Au-delà de ces aires de captage, rien sur les usages de ces polluants près des cours d’eau et des étendues d’eau, rien sur les usages en zones côtières », ajoute-t-elle.
Parmi les aides supplémentaires aux agences de l’eau, 50 millions d’euros par an seront néanmoins consacrés à la mise aux normes des stations d’épuration prioritaires. Dès 2023, 100 millions d’euros serviront à financer des projets de renaturation et de désimperméabilisation des collectivités dans le cadre du Fonds vert.
L’intégration de systèmes et objets connectés est un enjeu majeur pour l’avenir de l’industrie française. En effet, le futur est tourné vers l’IoT, la cybersécurité, l’intelligence embarquée pour répondre aux nouvelles exigences des marchés et des nouveaux projets. Le salon S.O.C (Systèmes et Objets Connectés) est l’événement qui s’inscrit dans cette dynamique, et permet de rencontrer, d’échanger avec les acteurs et décideurs des systèmes et objets connectés et de s’imprégner des savoir-faire, des technologies et de la culture de ce secteur. Cette vitrine, repensée à partir du salon IoT World & MtoM – Embedded, se tiendra les 19 et 20 avril à porte de Versailles, en même temps que le Forum Cloud+Security.
Au cours de ces deux jours, vous aurez l’occasion de découvrir les nouvelles tendances, de participer à des ateliers, à des tables rondes et des conférences pour enrichir vos connaissances, choisir les solutions adaptées à vos besoins et trouver des réponses sur des sujets tels que :
L’industrialisation des données IoT : un enjeu majeur pour les entreprises françaises !
La sécurité des données : une épine dans le pied des entreprises !
Cloud public ou privé ?
Le Chiffrement Homomorphe une valeur sûre pour le futur ?
Techniques de l’ingénieur sera également sur le salon au stand G16, pour vous accompagner dans vos réalisations.
Le Président chinois Xi Jinping a mis en œuvre depuis plus d’une décennie une stratégie de développement du trafic aérien sur le territoire chinois, mais aussi à l’international. Le but est double. Il s’agit de moderniser la mobilité dans le pays où en plus des mégalopoles historiques se développent de nouvelles villes, de taille inférieure mais occupant une place de plus en plus importante dans l’économie chinoise actuelle.
Aussi, la Chine veut s’exporter, et voir son influence économique, culturelle et commerciale grandir à l’international.
La capacité du pays à développer de manière autonome une filière aéronautique civile la plus complète possible constitue le marche-pied de cette ambition. En moins de quinze ans, la Chine a réalisé une grande partie de cet objectif.
La tête de gondole de cette évolution majeure est le développement par la Comac du C919. Ce gros porteur aux performances comparables à celles des Airbus A320 et des Boeing 737, a obtenu en septembre 2022 la délivrance de sa certification par l’aviation civile chinoise. Elle a donné à ce nouveau venu dans le monde du transport aérien civil l’autorisation officielle à embarquer ses premiers passagers.
Si à ce jour les deux géants mondiaux que sont Airbus et Boeing n’ont pas grand chose à craindre de la concurrence du C919, les choses risquent d’être différentes sur le moyen terme. En effet, pour le moment, la Comac s’est engagée à produire quelques 150 avions par an jusqu’à 2030, alors que le besoin chinois en avions neufs d’ici 2040 est estimé à environ 9 000 appareils ! Le pays ne pourra donc pas satisfaire lui-même à ses propres besoins dans l’immédiat.
L’enjeu actuel pour la Chine est de produire elle-même des moteurs d’avions compétitifs. Le C919, équipé par un moteur franco-américain, illustre l’absence de solutions made in China pour le moment. Comme pour le développement du C919, qui avait pris beaucoup de retard, la mise au point de ces moteurs se fait attendre. Mais nul doute que cette ambition finira par se matérialiser, sur le court ou moyen terme.
Le contexte international, lui, pourrait être un frein au développement exponentiel du trafic aérien et des capacités chinoises dans ce domaine. En effet, la décarbonation des activités humaines oblige le secteur aérien à revoir sa copie : les innovations attendues en Europe concernent le développement d’avions ayant un fonctionnement plus neutre pour l’environnement. Ainsi, les motoristes travaillent sur des moteurs nouvelle génération permettant de réduire les émissions liées au transport aérien.
Si tant est qu’il soit possible de réduire les émissions de ce secteur sans en limiter le volume du trafic, qui continue à augmenter depuis la parenthèse liée à la crise sanitaire et aux confinements successifs.
Ainsi, l’avance actuelle des motoristes européens et américains en termes de motorisation pourrait voir les moteurs chinois presque obsolètes avant même d’entrer en service. Ceci dit, il faudra voir dans quelle mesure, d’ici à 2030 en Europe, les acteurs de l’aviation civile mettent effectivement en place des modes de transport aérien qui permettent concrètement de réduire l’impact du secteur dans les émissions de GES.
Il n’est pas certain que l’enjeu écologique constitue un frein identique au développement du secteur aérien civil, que l’on soit en Chine ou en Europe.
Pour les habitués du secteur de l’énergie, la récente prise de parole de la filière hydroélectricité en direction des médias signe probablement un tournant. Jusque-là discret, le monde des centrales hydroélectriques veut faire valoir plus fortement l’importance de son rôle pour une gestion responsable de la ressource en eau et pour une production d’électricité décarbonée. Une prise de parole qui a eu lieu lors de la journée mondiale de l’eau et alors que le GIEC venait juste de rappeler l’urgence climatique : le timing était parfait.
Simultanément, trois entités regroupant les professionnels ont mis en avant les qualités de la filière : France Hydro Électricité (FHE), le Syndicat des énergies renouvelables (SER) et l’Union française de l’électricité (UFE). Ce besoin d’unité fait sens, non seulement par la taille des enjeux à adresser, mais aussi parce que la filière est parfois oubliée par les pouvoirs publics : ainsi, le récent projet de loi d’accélération des énergies renouvelables ne prévoyait initialement aucun dispositif pour améliorer le déploiement de l’hydroélectricité. La mobilisation des hydroélectriciens a permis d’amender le texte afin que des facilités soient envisageables pour leurs actifs de production, en particulier en leur ouvrant la reconnaissance à la raison impérative d’intérêt public majeur, un décret devant encore préciser si un seuil minimum de puissance s’appliquera pour bénéficier de cet avantage.
Encore du potentiel à développer
Le poids de l’hydroélectricité n’est plus à prouver : avec 25,7 GW de capacités installées fin 2022 et 60 TWh de production annuelle moyenne, elle est un pilier du système électrique français. La « houille blanche », comme on l’appelait par contraste avec le charbon dans la première moitié du XXe siècle, est répartie sur tout le territoire et mobilise une multitude d’entreprises, des TPE et groupes familiaux aux très grands groupes comme EDF, la Compagnie nationale du Rhône et la Shem (Engie), en passant par des opérateurs publics et des entreprises de différentes tailles. La diversité géographique se retrouve dans la répartition des puissances : environ 2 300 centrales dites de « petite hydroélectricité » et situées en France ont une puissance inférieure à 10 MW ; près de 300 centrales de « grande hydroélectricité » dépassent ce niveau, dont une grande partie entre 10 et 300 MW et quelques-unes allant jusqu’à 1 000 MW, principalement dans les massifs montagneux.
La diversité des types d’exploitation vient du fait que certains ouvrages sont avec des réservoirs permettant du stockage, d’autres sont des ouvrages de plaine permettant un fonctionnement au fil de l’eau, et d’autres sont des ouvrages de haute chute. « Ses faibles émissions de CO2 estimées à 10 gCO2/kWh, son emprise au sol limitée, son bon facteur de charge qui peut aller jusqu’à 3 500 heures par an, la durabilité de ses installations, etc. font que l’hydroélectricité est une énergie stratégique à développer, défend Xavier Casiot, président de FHE. De plus, elle participe à la sécurité du réseau électrique en aidant à la régulation de la fréquence et de la tension, ce qui sera de plus en plus important avec le développement des autres énergies renouvelables plus variables. »
Cette forme décentralisée de production pourvoit de l’emploi local, repose principalement sur du « Made in France ». De plus, elle partage de la valeur avec les collectivités via les taxes, redevances et la fiscalité. Elle est aussi l’énergie préférée des Françaises et des Français (9 sur 10 en ont une bonne image selon un sondage IFOP d’octobre 2021). L’hydroélectricité peut-elle encore se développer ? « Oui, mais moins vite que prévu » semble dire le ministère en charge de l’énergie puisqu’il veut repousser l’objectif de l’actuelle programmation pluriannuelle de l’énergie (PPE) – qui prévoit environ 26,5 GW en 2028 – à 2033. Ce décalage de cinq ans vient en partie du fait que les pouvoirs publics n’ont pas mis en place un arrêté permettant de rénover les installations de plus de 1 MW. Mais la filière hydroélectrique, elle, estime que la PPE devrait maintenir l’objectif de 2028 à 26,3 GW et rehausser celui de 2033 à 27,1 GW. Elle identifie en effet un gisement potentiel de 12 TWh supplémentaires, porté à 85 % par la création de nouveaux ouvrages (2 885 MW) et à 15 % par l’équipement d’ouvrages existants (477 MW).
Même si tout ce potentiel ne pouvait être atteint, il reste néanmoins beaucoup à faire pour que ces objectifs soient atteignables. Pour les installations sous le régime des concessions – lorsque la puissance est supérieure à 4,5 MW – il faut que le marché envoie des signaux économiques de long terme pour permettre de nouveaux investissements, ce qui n’est pas encore acquis. Pour les puissances inférieures à 4,5 MW, sous le régime de l’autorisation, les appels d’offres annuels de 35 MW lancés par la CRE doivent ouvrir des opportunités. Mais les derniers appels ont été sous-souscrits, montrant que là aussi, les conditions économiques de déploiement ne sont pas encore au rendez-vous.
L’hydroélectricité doit aussi composer avec le respect de contraintes environnementales, notamment sur la biodiversité de la faune aquatique. « Nous renforçons notre plaidoyer pour que l’hydroélectricité se développe, mais cela se fera dans le respect des réglementations environnementales, dans un esprit de co-construction avec tous les acteurs de l’eau », précise Anne Penalba, vice-présidente de FHE. La filière dispose d’ailleurs de technologies permettant le respect de la biodiversité et compte sur son esprit d’innovation pour les améliorer.
Dans cet autre article consacré aux nouvelles pratiques en matière de soudage, Christophe Jouve, responsable robotique chez Fronius France, nous expliquait les avantages de la cobotique et des nouvelles technologies de générateurs pour la production et comment elles pouvaient contribuer à attirer de nouveaux collaborateurs. Nous verrons ici pourquoi la robotique collaborative doit être perçue comme un outil d’aide et non de remplacement, la place des cobots étant dans le box, aux côtés du soudeur-roboticien.
Soudeur et cobot : des compétences complémentaires pour les petites séries
De l’avis de Christophe Jouve, si la cobotique permet d’améliorer considérablement les conditions de travail des soudeurs, en revanche les cobots ne remplaceront jamais les soudeurs, dont le savoir-faire est indispensable, notamment lorsqu’il s’agit de qualifier les paramètres de soudage.
« Lorsqu’on est en cobotique, on a toujours besoin du savoir-faire du soudeur, peut-être même encore plus qu’en robotique, car les projets associant soudage et robotique concernent la production de grandes séries de pièces.
Ce sont donc de gros projets, avec des phases de tests et pendant lesquels les soudeurs peuvent s’appuyer sur une équipe d’ingénieurs. Comme la cobotique concerne essentiellement les petites séries, elle s’adresse donc principalement aux sociétés de type PME qui ne disposent pas d’une telle infrastructure. Pour ces sociétés, les calculs de structure et les essais ne sont pas monnaie courante : c’est le soudeur qui décide comment il faut travailler, souvent à partir d’un plan, en respectant les règles de l’art. »
L’exemple F/i cobot : un équipement capable de recréer le geste du soudeur !
Pour qu’une solution cobotique soit efficace, elle doit ainsi permettre de reproduire la précision, la répétabilité et la dextérité du soudeur. C’est ce que propose Fronius avec sa solution de soudage robotisée appelée F/i cobot, créée en association avec FTS Welding.
La principale force de cette solution est la fonction Imite® qui permet, comme son nom l’indique, d’imiter le geste du soudeur et dont le fonctionnement est on ne peut plus simple.
L’opérateur commence tout d’abord par souder une première pièce, en utilisant la torche fixée au cobot, ce qui permet au cobot d’enregistrer les mouvements effectués. Une fois cette première soudure réalisée, le cobot est ainsi en mesure de reproduire le geste du soudeur sur les pièces suivantes !
D’après Christophe Jouve, le soudage par apprentissage est une solution efficace, car elle repose sur le savoir-faire du soudeur : « Quand un soudeur soude, il ne se pose jamais la question de savoir s’il se déplace exactement à 25 cm/min ou s’il est à 15 ou 17 mm de la pièce. Il soude, tout simplement, en vérifiant que la soudure correspond à ce qui est demandé. Comme en peinture, le soudage est un domaine qui nécessite un certain savoir-faire et souder de l’acier, de l’aluminium ou de l’inox, ce n’est pas la même chose. »
En outre, le F/i cobot a un énorme avantage pour l’opérateur : il n’a pas besoin de disposer de notions de programmation, ce qui rend cette technologie accessible à n’importe quel soudeur, tout en lui laissant la possibilité de se concentrer sur les pièces à forte valeur ajoutée, les séries étant réalisées par le cobot qui devient un véritable assistant de production.
Cobotique et fabrication additive métallique : des technologies qui s’industrialisent
Enfin, Christophe Jouve voit également une analogie entre la cobotique et la fabrication additive métallique, une niche qui était, il y a encore quelques années, au stade du laboratoire et qui, petit à petit, se développe en rentrant dans l’industrie.
« La fabrication additive vient combler une partie de ce que faisait la fonderie auparavant, mais avec plus de souplesse. D’un autre côté, la cobotique vient combler une plage de petite et moyenne série qui n’était pas rentable en robotique et mobilisait beaucoup de personnel pour des opérations manuelles. Fronius reçoit régulièrement des demandes concernant des projets de fabrication additive comme de cobotique. »
Dans cet épisode, Grégory Richa, directeur associé de la société de conseil OPEO nous détaille ce qu’est l’économie circulaire et Agnès Crépet, responsable de la longévité des logiciels chez Fairphone et porte-parole France, nous explique la circularité de son smartphone modulaire.
Qu’est-ce que l’économie circulaire ? [1:00 – 15:18]
Modèle économique le plus répandu aujourd’hui, l’économie linéaire est basée sur une boucle d’extraction, de durée de vie très courte et un produit-déchet. A contrario, l’économie circulaire vise à minimiser le plus possible la consommation de ressources (matière, eau, énergie). L’économie se base sur trois grandes boucles de circularité : la réduction des ressources, la réparabilité des ressources et la récupération des matériaux. Le recyclage vient, quant à lui, en tout dernier recours. Fairphone est un modèle d’économie circulaire avec son smartphone modulaire dont les éléments peuvent être changés. “Le design modulaire a l’avantage d’être démontable, ce qui est bien pour la fin de vie, qui n’est pas que le recyclage mais également la réutilisation de certaines pièces” détaille Agnès Crépet, porte-parole France. Les smartphones intègrent des métaux issus de recyclage.
L’économie circulaire permet aux entreprises de se différencier : pour les grandes de changer les modes de consommation, pour les plus petites d’émerger assez vite, et d’être compétitifs sur les ressources en étant plus résilientes et moins soumises aux variations des coûts de matières premières. L’empreinte CO² est meilleure car des produits remanufacturés consomment moins d’énergie. La création d’emplois locaux est favorisée car dans la circularité, la matière circule localement. Dans l’entreprise, on observe un phénomène de fuite des talents : une démission consciente par rapport au climat. Les équipes souhaitent se réengager
Concevoir un produit circulaire [15:27 – 28:24]
L’écoconception n’est pas nécessairement synonyme de circularité. On peut écoconcevoir un gobelet jetable en réduisant la consommation d’eau ou de matières premières. La grande tendance dans les industries, c’est de toujours fabriquer une nouvelle version d’un produit. Et on ajoute le plus souvent de la technologie, les produits sont de plus en plus grands, de plus en plus connectés. Ces produits tendent à être de plus en plus fermés. Dans les appareils, numériques par exemple, des éléments comme la batterie ou l’écran, sont collés et lorsque ceux-ci ne fonctionnent plus, c’est l’appareil entier qui n’est plus utilisable et doit être remplacé remplacé par un neuf ! Choisir des produits ouverts permet de pérenniser leur usage. Il s’agit là d’un défi passionnant pour les ingénieurs !
Passer à l’économie circulaire [28:29 – 42:56]
Grégory Richa recommande de ne pas attendre pour passer au circulaire : “quand on est un industriel dans un monde linéaire, on est voué à ne plus pouvoir opérer dans les 5 ans”. Revenir à des chaînes de valeurs plus locales, autonomes et résilientes est nécessaire. Et c’est probablement les réglementations en cours et à venir qui vont pousser dans ce sens. L’un des avantages d’un produit circulaire, c’est sa réutilisation qui peut être un atout pour un industriel. Il est disponible plus rapidement qu’un neuf, puisqu’il existe déjà, et peut être proposé à un prix équivalent. Un autre avantage concernant le recrutement de l’industrie circulaire est qu’elle se révèle en fait plus attractive pour les employés et les clients, “on a envie de s’engager” affirme Grégory Richa.
Haulotte, Valrhona, SEB, Décathlon, Renault Trucks, réseau ENVIE, Murfy, Saint-Gobain Glass, Tesla, Volvo, Backmarket.
Fairphone, Google Ara et Nokia 3310.
Et aussi iPhone, SpaceX, Vinted, Foxconn
Le podcast :
– Circular4good, un podcast de Grégory Richa et Aurélien Gohier
Le site web :
– Association SystExt et l’ingénieure géologue minier Aurore Stéphant
Cogitons Sciences est un podcast produit par Techniques de l’Ingénieur. Cet épisode a été réalisé par Séverine Fontaine, en collaboration avec Marie-Caroline Loriquet. Le générique a été réalisé par Pierre Ginon et le visuel du podcast a été créé par Camille Van Belle.
Dans un précédent article consacré au soudage et à la cobotique, nous avions évoqué l’analogie entre cobotique et fabrication additive (FA), car à l’instar de la cobotique, la FA sort peu à peu du laboratoire pour rentrer dans l’industrie, ce qui est en particulier le cas de la technologie WAAM.
Qu’est-ce que le procédé WAAM ?
Le procédé WAAM est un procédé de fabrication additive métallique directement dérivé du soudage, qui consiste à générer un arc électrique entre un substrat et un fil métallique pour former un cordon.
Il y a peu de différences entre soudage robotisé et WAAM, puisqu’on retrouve les torches de soudage traditionnelles que l’on utilise dans l’industrie pour l’assemblage de pièces. Néanmoins, des améliorations technologiques développées pour le soudage permettent d’optimiser le procédé.
Le système de soudage MIG CMT Twin de Fronius (Crédit : Fronius France)
C’est notamment le cas de la technologie CMT, développée par Fronius. Nous avons demandé à Guillain Hardy, ingénieur-soudeur et chargé d’affaires chez Fronius International, de nous en expliquer le fonctionnement :
« En WAAM, Fronius se distingue avec une technologie appelée CMT, pour Cold Metal Transfer. Cela consiste à générer un arc électrique très stable de façon à produire moins de projections lors de la phase de dépose et à limiter la quantité d’énergie apportée à la pièce. En CMT le fil avance et se rétracte mécaniquement environ 120 fois par seconde, ce qui coupe l’arc électrique et limite l’apport de chaleur au fur et à mesure que le dépôt se forme. »
Pour en savoir plus au sujet de la technologie CMT, nous vous invitons à visionner cette vidéo.
La fabrication additive WAAM a de nombreuses applications industrielles
La fabrication additive métallique est de plus en plus utilisée pour le reengineering et la reproduction de pièces qui n’existent plus. Ces technologies permettent ainsi de continuer à faire fonctionner des machines anciennes, en reproduisant des pièces traditionnellement réalisées en fonderie ou par d’autres procédés, avec des délais et coûts de fabrication réduits pour des pièces unitaires ou en petite série.
Par ailleurs, comme tout procédé de fabrication additive, son point fort est la flexibilité et il devient possible de fabriquer des pièces possédant des designs non accessibles par fonderie.
Pour gagner en productivité, il est également possible d’utiliser deux sources de courant et deux fils de soudage sur une même torche. C’est le cas du mode Twin de la technologie CMT, qui double la cadence de production et permet d’atteindre des taux de déposition de l’ordre de 10 kg/h.
À gauche : pièce obtenue en WAAM, au centre : pièce en cours d’usinage, à droite : la pièce finale (Crédit : Fronius)
En revanche, comme pour tout procédé de fabrication additive, une fois les pièces réalisées, un post-traitement par usinage reste nécessaire afin d’obtenir des pièces aux cotes voulues. Cet usinage robotisé peut être réalisé directement après l’étape de fabrication, en utilisant un second robot, ou dans certains cas, il peut même être envisagé de le mettre en œuvre directement lors du WAAM.
Cellule bi-robots pour l’usinage externe et interne d’une pièce pendant le processus WAAM (Crédit : VLM robotics). Voir la vidéo.
Voici un exemple d’une cellule bi-robots qui combine fabrication additive et usinage in-process. La torche de soudage, fixée à un robot, dépose la matière sur une table rotative et en parallèle, un autre robot est utilisé pour usiner la face extérieure.
L’exemple de Naval Group
L’application industrielle qui fait actuellement le plus parler d’elle concerne la production d’hélices de sous-marin et de bâtiments de surface, notamment par Naval Group.
Pour la réalisation d’hélices, la fabrication WAAM a ainsi de nombreux avantages par rapport au moulage :
une bonne compacité de la matière ;
pas de problèmes de criques[1] ;
pas de retassures ou de particules de sable résiduelles provenant du moule ;
une réduction des coûts et des délais de production, par rapport à la fonderie.
Par ailleurs, Naval Group semble croire en cette technologie et continue ses travaux d’innovation en l’adaptant à d’autres matériaux métalliques. Un projet européen concernant le développement de WAAM multimatériaux est d’ailleurs en cours, le projet GRADE2XL, ayant pour objectif de développer le changement du métal d’apport en cours de production afin d’apporter localement des propriétés spécifiques (mécaniques, anticorrosion, résistance au frottement…). Cela permettrait ainsi de réserver les matériaux « nobles », donc plus chers à certaines zones spécifiques, et donc de réduire les coûts de fabrication.
Applications en plasturgie : réalisation de moules
Moule de rotomoulage en cours de fabrication WAAM (Crédit : VLM Robotics). Voir la vidéo
Le WAAM est particulièrement adapté à la fabrication de pièces complexes de grande dimension et notamment de moules pour le rotomoulage de pièces plastiques.
Moule fabriqué en WAAM (à gauche), la pièce obtenue après rotomoulage (à droite). Crédit : VLM Robotics
Fronius a par exemple travaillé avec VLM Robotics sur un projet de fabrication de cuves à vin par rotomoulage. Ce type de pièce étant difficile à mettre en œuvre en chaudronnerie, notamment à cause de la présence de nervures sur la pièce, la fabrication WAAM apparaissait comme une solution idéale, surtout que l’usinage n’était pas nécessaire pour cette application.
Une technologie qui a de l’avenir !
Selon Guillain Hardy, « il est très difficile de faire réaliser des pièces forgées et matricées en Europe, car il reste peu de fournisseurs et le savoir-faire s’est perdu. Développer des cellules de fabrication additive WAAM pour réaliser des pièces de quelques grammes à plusieurs tonnes permet ainsi de trouver une alternative compétitive sur le sol européen. »
Compte tenu de ses avantages, la technologie WAAM devrait donc continuer de s’imposer dans l’industrie, bien que la fabrication en grande série ne soit pas encore d’actualité : « Pour le moment, le WAAM n’est pas encore au stade de la production en série et sert surtout à la réalisation de prototypes. De grands groupes comme Naval Group, SNCF, ALSTOM et EDF travaillent activement sur le sujet ainsi que de nombreuses universités et écoles d’ingénieurs. La formation se développe également, tout comme les aspects, certification et normalisation. »
[1] Fissure superficielle dans une pièce métallique