Dès 2017, Élodie Paquet, maîtresse de conférences dans l’équipe ROMAS (Robots and Machines for Manufacturing, Society and Services) du LS2N (Laboratoire des Sciences du Numérique de Nantes), participe à YHNOVA. Il s’agit du premier habitat social bâti par un robot-imprimante 3D. Ce dernier fonctionnait en déposant trois couches de matériaux : deux de mousse expansive en polyuréthane (l’isolation), servant de coffrage pour une troisième de béton (la structure). « Notre réalisation a été saluée, mais on nous a aussi fait remarquer que les isocyanates présents dans notre mousse étaient des polluants potentiellement dangereux pour la santé », se souvient Élodie Paquet. Ni une ni deux, l’équipe de recherche se met en collaboration avec celle d’Arnaud Perrot de l’IRDL (Institut de Recherche Dupuy de Lôme) en quête d’un matériau plus durable. « Nous nous sommes finalement arrêtés sur la terre crue, qui a longtemps été utilisée en torchis ou en bauge dans des régions comme l’Alsace, la Bretagne et les Pays de la Loire », rappelle la chercheuse. Le béton n’a en réalité pris le monopole qu’après la fin de la Seconde Guerre mondiale, quand sa rapidité d’exécution permettait de reconstruire efficacement par-dessus les ruines.
Terre crue : la robotisation comme gage de simplicité d’utilisation
L’usage de terre crue souhaité par l’équipe d’Élodie Paquet et de Benoit Furet (LS2N) en 2017 suit un mouvement lancé la même année avec le Projet National Terre. Celui-ci vise en effet à redéployer à grande échelle la construction en terre crue. Mais qu’a donc ce matériau de si intéressant ? D’abord, un faible coût environnemental. L’énergie grise, c’est-à-dire l’énergie consommée durant l’ensemble du cycle de vie d’un matériau, incorporée dans une paroi de terre crue locale est ainsi près de 20 fois moindre que pour un matériau conventionnel ! Ensuite, la terre crue présente une inertie thermique et une capacité de régulation de l’humidité qui la rendent particulièrement attrayante au vu des vagues de chaleur dues au changement climatique. C’est pourquoi Élodie Paquet et son équipe l’ont sélectionnée pour leur projet JCJC « SmartAMP » financé par l’ANR (Agence nationale de la recherche), dans lequel il est question de développer la technologie pour imprimer des îlots de fraîcheur végétalisés. Le tout en collaboration avec l’école d’architecture de Nantes Université et l’École de design Nantes Atlantique.
Paroi de terre crue imprimée dans le cadre d’une formation aux étudiants du master ITI (Interdisciplinaire en Technologies Innovantes) de l’IUT de Nantes. Crédits : Master ITI de l’IUT de Nantes/LS2N.
« Nous avons eu l’idée de faire appel à la société SAPRENA pour réaliser le test sur l’île de Nantes », indique Élodie Paquet. Une entreprise inclusive spécialisée dans la création et l’entretien d’espaces verts, et dont 70 % des salariés sont des personnes en situation de handicap. Le robot capable d’imprimer de la terre crue en 3D reposait sur le concept « déplaçable et repositionnable ». Autrement dit, les membres de SAPRENA poussaient un chariot muni d’un mât vertical motorisé, portant lui-même un cobot polyarticulé – l’imprimante. « Cette expérience nous a également permis de valider la simplicité de prise en main de l’outil », souligne la chercheuse. « Aujourd’hui, nous nous focalisons sur la formation à l’impression robotisée dès le lycée. Nous organisons par exemple des travaux pratiques basés sur la terre crue, qui permettent d’illustrer notre propos sans risque majeur ». Dans la lignée de ces efforts, une bourse AMI (Appel à manifestation d’intérêt) « Bâtisseur » de 5 millions d’euros devrait mener au recrutement de trois nouveaux doctorants au sein d’équipes de recherche de Nantes Université dans les années à venir.
Le congrès s’articulera autour de deux journées thématiques :
#1 – Éco-Chimie pour des produits durables®
Cette journée sera consacrée aux leviers d’innovation permettant de transformer l’industrie chimique en générant une réelle valeur environnementale. Les échanges porteront notamment sur les axes suivants.
Gérer les risques : stratégies d’adaptation aux évolutions réglementaires et élaboration de politiques de durabilité.
Réduire les impacts : méthodologies et outils pour un suivi rigoureux des performances environnementales.
Créer des opportunités : contributions de l’intelligence artificielle, de la bio-inspiration et de la catalyse dans l’innovation durable.
Succès et retours d’expérience : exemples concrets d’innovations durables et économiquement viables.
Culture de la durabilité : intégration de l’éco-innovation dans les pratiques et les structures organisationnelles.
Les outils de recherche par IA gagnent en popularité. Près d’un Américain sur quatre utilisant l’IA à la place des moteurs de recherche traditionnels. Cependant, contrairement aux moteurs de recherche traditionnels qui dirigent les utilisateurs vers les sites d’actualités, les outils de recherche génératifs analysent et reconditionnent eux-mêmes les informations.
Et c’est là que le bât blesse. Une étude récente du Tow Center for Digital Journalism de la Columbia Journalism Review pointe du doigt des problèmes de précision concernant les modèles d’IA génératifs utilisés pour les recherches d’actualités. Pour arriver à ce constat, les chercheurs ont testé huit outils de recherche basés sur l’IA en leur fournissant des extraits d’articles de presse réels. Ils leur ont ensuite demandé d’identifier le titre original, l’éditeur, la date de publication et l’URL de chaque article.
Le résultat ? Peu mieux faire ! Les modèles d’IA citent des sources incorrectes dans plus de 60 % des cas, soulevant des inquiétudes quant à leur fiabilité pour attribuer correctement le contenu de l’actualité.
La plupart des outils testés ont présenté des réponses inexactes avec une confiance alarmante, utilisant rarement des expressions qualificatives ou reconnaissant des lacunes dans leurs connaissances. ChatGPT, par exemple, a incorrectement identifié 134 articles, mais n’a signalé un manque de confiance que 15 fois sur 200 réponses, et n’a jamais refusé de fournir une réponse. À l’exception de Copilot de Microsoft, qui a refusé plus de questions qu’il n’a répondu, tous les outils ont été plus enclins à fournir une réponse incorrecte qu’à reconnaître leurs limites.
Bonnet d’âne pour les versions Premium !
Autre exemple significatif, Perplexity a répondu incorrectement à 37 % des requêtes, tandis que Grok 3 a enregistré un taux d’erreur de 94 %. Sur son site, Perplexity est pourtant présenté comme « un moteur de recherche IA gratuit conçu pour révolutionner la façon dont vous découvrez l’information ».
Dans le détail, on apprend que les chatbots ont tendance à fournir des réponses incorrectes ou spéculatives plutôt que de refuser de répondre lorsqu’ils ne peuvent pas le faire avec précision. Pire, les versions premium (comme Perplexity Pro ou Grok 3) fournissent des réponses incorrectes avec plus d’assurance que leurs homologues gratuits et leurs taux d’erreur sont plus élevés !
L’étude a également montré que cinq des huit chatbots testés ont rendu publics les noms de leurs crawlers, permettant aux éditeurs de les bloquer. Cependant, en pratique, les chatbots n’ont pas toujours respecté ces préférences. Les résultats des chatbots d’IA citent souvent des sources externes pour légitimer leurs réponses. Même Grok, qui encourage les utilisateurs à obtenir des mises à jour en temps réel de X, cite encore massivement des organismes de presse traditionnels, selon un récent rapport de Reuters. Cela signifie que la crédibilité des éditeurs est souvent utilisée pour renforcer la crédibilité de la marque d’un chatbot.
Par exemple, DeepSeek a mal attribué la source des extraits fournis dans nos requêtes 115 fois sur 200. Cela signifie que le contenu des éditeurs de presse est le plus souvent attribué à la mauvaise source…
Bref, la situation n’évolue pas vraiment dans le bon sens. Une précédente étude sur ChatGPT, publiée en novembre 2024, était arrivée à des schémas similaires : présentations confiantes d’informations incorrectes, attributions trompeuses à des contenus syndiqués et pratiques incohérentes de recherche d’informations.
Au final, les résultats de cette étude doivent inciter les entreprises et les particuliers à utiliser ces outils avec précaution (notamment en recoupant les informations avec différentes sources fiables et reconnues). Les chercheurs notent en particulier que les éditeurs développant ces outils n’ont pas toujours exprimé leur intérêt à travailler avec les éditeurs de presse. Même ceux qui le font ne parviennent pas toujours à produire des citations précises ou à respecter les préférences indiquées dans le protocole d’exclusion des robots.
L’événement était attendu, son issue l’est moins. Après plusieurs années de négociations, l’Organisation maritime internationale (OMI), une agence spécialisée de l’ONU, vient d’adopter un mécanisme de tarification du carbone applicable au transport maritime mondial. Une première dans l’histoire de ce secteur crucial pour le commerce mondial, mais longtemps laissé à l’écart des efforts climatiques. Son objectif est de réduire les émissions de 20 % d’ici à 2030 et de parvenir à la neutralité carbone d’ici à 2050.
L’accord prévoit la mise en place d’un système de contribution financière par tonne de CO₂ émise à partir de 2028, applicable aux navires de plus de 5 000 tonnes, qui représentent 85 % des émissions du transport maritime international. Les propriétaires de navires ne respectant pas des seuils d’émissions seront soumis à des pénalités de 100 dollars par tonne de CO₂, et qui pourront même grimper à 380 dollars, si des niveaux d’exigences moins élevés ne sont pas respectés. Par exemple, en 2030, le premier seuil le plus strict oblige les navires à réduire l’intensité des émissions de 21 % par rapport à la référence de 2008, tandis que la norme la moins exigeante appelle à une réduction de 8 %.
Les recettes générées par cette nouvelle taxe, estimées entre 11 et 13 milliards de dollars par an, alimenteront un « fonds zéro émission nette » au sein de l’OMI et seront utilisées pour soutenir la transition vers des technologies maritimes plus propres, ainsi qu’aider les pays en développement à s’adapter aux nouvelles normes. Les navires qui réduisent les émissions en dessous de la limite la plus stricte seront récompensés par des crédits qu’ils pourront vendre à des navires non conformes.
Ce compromis, arraché au terme de longues tractations entre États membres, vise à inciter les armateurs à décarboner leurs flottes, dans un secteur qui représente environ 3 % des émissions mondiales de gaz à effet de serre. Mais derrière l’annonce, le texte laisse un goût d’inachevé. La Commission européenne a qualifié l’accord de « non significatif » vers la réalisation des objectifs de l’Accord de Paris sur le changement climatique, tout en ajoutant qu’il ne garantit pas encore la pleine contribution du secteur aux objectifs affichés. De nombreux petits États insulaires, particulièrement vulnérables aux effets du changement climatique, se sont quant à eux abstenus lors du vote final, pour signifier leur déception et leurs préoccupations face à l’efficacité du mécanisme proposé et la répartition des revenus générés.
Les nations exportatrices de pétrole opposées à cette nouvelle taxe
Le texte a surtout été édulcoré sous la pression de plusieurs États, notamment des États-Unis, qui se sont retirés des négociations et ont exhorté les autres pays à faire de même. D’autres pays, notamment des nations exportatrices de pétrole, comme l’Arabie saoudite, la Russie, les Émirats arabes unis et plusieurs autres pétro-États se sont opposés à ces nouvelles règles. Quant à la Chine, elle a finalement voté en faveur de ce compromis.
Parmi les critiques, l’absence de normes technologiques contraignantes ou d’objectifs de réduction clairs à court terme alimente les inquiétudes. Le texte n’impose pas de calendrier strict pour l’adoption de carburants alternatifs. Les défenseurs de la taxe mettent néanmoins en avant un progrès historique, puisque c’est la première fois que l’OMI s’accorde sur une tarification mondiale du carbone.
Reste que le chemin est encore long pour décarboner un secteur où l’essentiel des navires fonctionnent au fioul lourd. La lenteur de la transition pose la question du rôle que pourrait jouer l’Union européenne, qui a déjà intégré le transport maritime dans son propre marché carbone (EU ETS pour European Union Emissions Trading System) depuis janvier 2024. À l’heure où les émissions du secteur peinent à baisser et que la demande mondiale de fret continue de croître, l’adoption de cette taxe ressemble davantage à un premier pas, dont l’efficacité dépendra de l’engagement continu des parties prenantes. Sa mise en œuvre reste encore en suspens, car les pays membres de l’OMI doivent encore procéder à une approbation finale de ce texte au cours d’une réunion qui se tiendra en octobre.
Une étude menée par le CNRS et l’université de Toulouse, publiée en janvier 2025, révèle que 98 % des microplastiques contenus dans l’eau potable ne sont pas détectés avec les méthodes actuelles.
Cette étude récente, qui n’a pas fait grand bruit, remet en cause les méthodes actuelles de détection des microplastiques dans l’eau potable, en démontrant que la grande majorité de ces particules sont plus petites que le seuil de 20 micromètres actuellement fixé par la directive européenne 2020/2184.
L’étude analyse onze échantillons d’eau potable – dix provenant de bouteilles en plastique PET de marques différentes, et un du robinet – et révèle que 98 % des microplastiques détectés mesuraient moins de 20 micromètres, et 94 % moins de 10 micromètres.
Ces résultats suggèrent que les méthodologies actuellement envisagées par les régulateurs sous-estiment largement la présence réelle de microplastiques dans notre eau de consommation. Pourtant, ce sont précisément ces particules de petite taille qui posent les plus grands risques pour la santé humaine, en raison de leur capacité à traverser la barrière intestinale et à s’accumuler dans les organes.
L’équipe a utilisé une technique d’analyse avancée, la microspectroscopie Raman automatisée, combinée à un traitement informatique spécifique, pour identifier les particules plastiques jusqu’à 1 micromètre de diamètre. Grâce à cette méthode, les chercheurs ont analysé plus de 660 000 particules, dont près de 2 000 se sont révélées être des microplastiques. Les concentrations détectées varient considérablement selon les marques, allant de 19 à 1 154 particules par litre d’eau (soit 0,001 à 0,25 microgramme par litre). L’eau du robinet de Toulouse présentait, elle, une concentration de 413 particules par litre, supérieure à huit des dix marques de bouteilles testées.
Autre constat important, le plastique utilisé pour fabriquer les bouteilles, le PET, n’est pas le principal contributeur aux microplastiques détectés. Il n’a été retrouvé que dans 7 échantillons sur 10, et dans des proportions très faibles (moins de 5 % dans trois d’entre eux). Les polymères les plus fréquents étaient le polyéthylène, le polypropylène et le polyamide 6. Cela suggère que l’origine de ces particules pourrait provenir d’autres étapes de production, ou de contamination environnementale.
L’étude va plus loin en comparant ces résultats à ceux d’autres pays européens. Elle montre ainsi que les niveaux de microplastiques dans l’eau du robinet à Toulouse sont comparables à ceux observés en République tchèque ou en Norvège (entre 338 et 628 particules par litre), mais dix fois plus élevés que ceux relevés dans les eaux souterraines du Danemark, probablement en raison de différences dans les sources d’approvisionnement et les traitements de l’eau.
Des leçons à tirer pour les futures réglementations
Les auteurs de l’étude insistent sur l’importance d’inclure les particules de 1 à 20 micromètres dans les futures réglementations. Ce sont précisément celles qui, selon l’OMS, ont le plus fort potentiel d’effets toxiques, en raison de leur capacité à atteindre les tissus humains profonds. Ces particules peuvent contenir ou libérer des additifs chimiques perturbateurs endocriniens, agir comme vecteurs de polluants organiques persistants, ou induire des réponses inflammatoires, oxydatives, voire cancérigènes.
Est également évoqué le lien possible entre la présence de microplastiques dans le corps humain et certaines pathologies émergentes, comme l’infarctus ou l’accident vasculaire cérébral, bien que les preuves toxicologiques restent encore limitées. À l’instar des pesticides dans l’eau potable, dont les seuils ont été définis dès 1998 malgré des incertitudes initiales, les chercheurs plaident pour une approche de précaution dans le cas des microplastiques : fixer un seuil bas mais réaliste, en attendant des données toxicologiques complètes.
La rédaction a demandé à un agent d’IA générative de dégager les informations principales du rapport.
Le texte résultant a été dument relu, analysé, et modifié de façon à proposer au lecteur un contenu à la hauteur de la qualité attendue par le Magazine d’Actualité.
Ils constituent l’une des clés de voûte de la transition en cours vers la mobilité électrique. Et pour cause : le nickel et le cobalt entrent dans la composition des cathodes des batteries équipant la plupart[1] des véhicules électriques circulant actuellement en Europe, mais aussi bon nombre de ceux qui y rouleront demain[2]. Deux métaux devenus, de ce fait, des matières premières stratégiques, pour lesquelles l’Europe et la France aspirent à davantage de souveraineté.
Une souveraineté qui porte bien entendu tant sur l’approvisionnement en minerais que sur leur raffinage, mais aussi – un cran plus en aval sur la chaîne de valeur – sur leur conversion en sulfates métalliques[3]. Une étape sur laquelle la Chine conserve aujourd’hui la mainmise, aux côtés de la Corée. Mais la donne pourrait bien finir par changer.
L’usine EMME pourrait entrer en service à l’horizon 2028.
Dans le cadre d’un projet baptisé EMME, pour « Electro Mobility Materials Europe », c’est en effet au sein de la zone industrialo-portuaire de Grattequina, en Gironde, que pourrait bientôt voir le jour – aux côtés d’un laboratoire de R&D axé autour de la science des matériaux et du génie des procédés, mais aussi d’un terminal portuaire et logistique – une unité de conversion de nickel et de cobalt d’une capacité de production annuelle de 89 000 tonnes de sulfate de nickel et de 9 000 tonnes de sulfate de cobalt. Des produits issus de la conversion de quelque 20 000 tonnes de nickel et de 3 000 tonnes de cobalt, introduits dans le process sous forme d’hydroxydes métalliques[4].
Les porteurs du projet espèrent lancer les travaux de construction en début d’année prochaine.
Si ce projet initié en 2023 aboutit, cette future usine serait alors la seule en France, et l’une des rares en Europe[5], avec à la clé, plus de souveraineté, certes – avec une production qui devrait à elle seule permettre de couvrir les besoins annuels en batteries pour véhicules électriques d’environ 20 % du marché français, soit 400 000 véhicules[6] – mais aussi moins d’émissions de gaz à effet de serre.
… et d’impacts écologiques réduits
« Grâce à une électricité peu carbonée, à sa technologie de pointe, mais aussi à ses achats sélectifs de matières premières[7], l’usine EMME permettrait d’éviter l’émission annuelle d’1,6 million de tonnes d’équivalent CO2 », notent en effet les porteurs du projet[8] dans le dossier de concertation publié à l’occasion de l’ouverture, le 24 mars dernier, de cette procédure dont dépend en grande partie l’acceptabilité de cette potentielle première usine française de conversion de nickel et de cobalt. Chapeautée par la Commission nationale du débat public (CNDP) cette phase de concertation s’achèvera le 15 mai prochain, à l’issue, donc, d’une période de sept semaines ponctuée de réunions publiques, ateliers thématiques, et autres conférences scientifiques et techniques.
S’il se concrétise, comme l’espèrent ses initiateurs, à l’horizon 2028[9], ce projet à 500 millions d’euros devrait alors permettre la création d’environ 500 emplois, dont 200 directement liés aux activités de l’usine. Une usine prévue pour être implantée sur une surface de 33 ha, dont 24 ha de bâtiments et espaces de stockage, et classée Seveso seuil haut, en raison notamment des quantités de nickel et de cobalt qui y seront stockées. « Ce classement SEVESO n’est pas lié à des risques physiques ou de toxicité pour l’humain, mais à des risques environnementaux pour le milieu aquatique en cas d’accident », précise le dossier de concertation cité ci-dessus.
Une phase de concertation à l’issue de laquelle la SAS EMME prévoit de déposer ses demandes de permis de construire et d’autorisation environnementale unique, dans une perspective de lancement des travaux au début de l’année prochaine.
[1] En Europe, 55 % des véhicules électriques sont équipés de batteries NMC (nickel-manganèse-cobalt) auxquels s’ajoutent 40 % de véhicules utilisant des batteries NCA (nickel, cobalt, aluminium), les 5 % restant faisant appel à des batteries LFP. Source.
[2] La part de marché européenne des batteries NMC au sein du parc de véhicules électriques est estimée à environ 40-45 % en 2030.
[3] Ingrédients de base utilisés dans la fabrication des produits précurseurs des matériaux actifs de cathode (P-CAM), et donc, in fine, des CAM eux-mêmes.
[7] Le projet vise également l’intégration des pertes matières des « giga-factories » européennes, et de la black mass prétraitée issue du recyclage des batteries en fin de vie.
[8] Sarah Maryssael, directrice de la stratégie chez Arcadium Lithium ; Lucas Dow, directeur général de Sayona Lithium ; et Antonin Beurrier président du fonds KL 1, actionnaire majoritaire du projet ; épaulés notamment par Hatch, société d’ingénierie canadienne, le bureau d’études Français Artelia, ainsi que le cabinet d’architectes JDS Architects.
[9] Les porteurs du projet tablent sur une construction étalée sur la période 2026-2027.
Les communications sous-marines représentent un enjeu majeur pour les échanges entre les pays, les entreprises, mais aussi les forces armées. Plus de 400 câbles sous-marins reposent au fond des océans, assurant 99 % du transit des télécommunications plus ou moins confidentielles. Résultat, ce maillage représente une cible régulière des États dans le cadre d’actions hostiles (coupures, pratiques de renseignement, censures…).
Les informations reçues et émises par les sous-marins constituent également une cible de choix. Ces données sont très sécurisées. Leur confidentialité repose sur l’incapacité du son à traverser la surface de l’eau. Les ondes sonores sous-marines rebondissent généralement à la surface, mais en 2018, le MIT a découvert qu’elles laissent des vibrations détectables. En utilisant un radar monté sur un drone et des algorithmes spécifiques, ils ont pu décoder ces signaux.
La méthode développée récemment par des chercheurs de Princeton et du MIT repose sur un radar pour capter les signaux acoustiques sous-marins, ou sonar, en décodant les minuscules vibrations produites à la surface de l’eau. Ils ont également découvert que certains types de modulation sont plus vulnérables aux interceptions.
Vulnérabilité des transmissions sous-marines
Leur technique pourrait également permettre de localiser approximativement un émetteur sous-marin. Un adversaire pourrait intercepter des informations sensibles transmises par des capteurs climatiques, des plateformes pétrolières et gazières, ou même des sous-marins.
Ce dispositif a été testé avec succès sur le lac Carnegie à Princeton : il pouvait déterminer les paramètres inconnus et décoder les messages malgré les interférences. Le système a identifié le type de modulation avec une précision de 97,58 %.
Bien que son application en haute mer soit plus complexe, les chercheurs estiment qu’elle est réalisable avec des avancées techniques. Leur objectif est non seulement d’alerter sur la vulnérabilité des transmissions sous-marines, mais aussi de proposer des stratégies pour prévenir les interceptions.
Ce n’est pas la première fois que des doutes et inquiétudes concernant la sécurité des sous-marins sont évoqués publiquement. En 2016, l’organisation britannique European Leadership Network (ELN) avait publié le rapport « Is Trident safe from cyber attack ? » d’Andrew Futter (professeur de politique internationale à l’université de Leicester) qui s’interrogeait sur la vulnérabilité aux cyberattaques de Trident, un système opérationnel de quatre sous-marins.
L’annonce récente de la nouvelle stratégie nationale pour l’hydrogène a redonné un peu de visibilité au secteur. Mais à bien y regarder, certains volets de cette stratégie semblent encore incomplets pour arriver à faire émerger une réelle économie de l’hydrogène décarboné.
Certes, la stratégie révisée confirme le souhait de développer une filière domestique robuste en France, en continuant de soutenir les projets de production d’hydrogène par électrolyse à hauteur de 4 milliards d’euros sur 15 ans. L’orientation des usages vers l’industrie et les mobilités lourdes et intensives est clairement affichée.
Le Gouvernement estime que les soutiens apportés depuis 2020 ont eu de « premiers résultats encourageants », avec environ 150 projets soutenus. Mais en réalité, le déploiement est bien moins rapide que prévu, d’où l’abaissement de l’objectif de la puissance d’électrolyse visée en 2035, de 6,5 à 4,5 GW. Surtout, l’arrêt de plusieurs projets industriels laisse l’avenir de la filière incertain : la construction de l’usine d’électrolyseurs prévue à Vendôme par Elogen est suspendue ; la gigafactory de McPhy à Belfort ne serait plus finançable et l’entreprise est en vente. Côté mobilité, l’entreprise Hyvia (véhicules utilitaires) a été liquidée et Safra (bus hydrogène) est en redressement judiciaire.
Une aide majoritairement tournée vers la production
Dans ce contexte très délicat, la stratégie cherche à améliorer le cadre général : faciliter les autorisations pour les projets industriels ; adapter le cadre réglementaire, notamment en matière de sécurité ; assurer un comptage loyal de l’hydrogène ; développer des formations ; en termes de transport par canalisations et de stockage, donner la priorité à des réseaux locaux d’hydrogène au sein des grands bassins industriels (Fos-Marseille, Dunkerque, Havre-Estuaire de la Seine, Vallée de la chimie).
Des dispositifs annoncés dans la stratégie doivent rendre plus concrète la consommation de l’hydrogène décarboné dans la mobilité. Par exemple, le Gouvernement prévoit un dispositif de soutien au déploiement de véhicules utilitaires légers. Par ailleurs, la TIRUERT (taxe incitative relative à l’utilisation des énergies renouvelables dans le transport) doit mieux intégrer la composante hydrogène pour pousser au développement d’infrastructures de recharge ; mais elle est dépendante de la définition de l’hydrogène renouvelable et de l’hydrogène bas carbone à venir dans le droit européen et national.
Dans l’idée de faire un lien avec les consommateurs industriels, la stratégie confirme par exemple le soutien aux projets Masshylia et Green Horizon, via le PIIEC Hydrogène (projets importants d’intérêt européen commun). Le premier concerne une usine d’électrolyse portée par Engie au sein de la bioraffinerie de TotalEnergies à La Mède. Le second est aussi une usine d’hydrogène, à proximité d’un site de Yara, un fabricant d’ammoniac/engrais qui devrait être acheteur de la molécule. Mais à coups de centaines de millions d’euros de soutien public, dans les deux cas, c’est la production qui est principalement aidée.
Difficile équation économique
Ne serait-il pas plus judicieux de subventionner directement la demande d’hydrogène décarboné, afin d’assurer un débouché aux producteurs ? Pour l’instant, la nouvelle stratégie n’a pas pris cette direction. « Comme aux États-Unis avec l’Inflation Reduction Act, la France et l’Europe veulent soutenir la production d’hydrogène décarbonée, mais cela ne devrait pas compenser entièrement le différentiel de coût avec les procédés traditionnels, et encore moins l’écart avec les coûts de nos concurrents internationaux. Il n’est pas envisagé de soutenir le consommateur final qui, de son côté, n’est a priori pas disposé à payer plus cher son produit, comme les agriculteurs pour les engrais dont ils ont besoin » rappelle Sylvain Le Net, responsable politiques Énergies et changement climatique chez France Chimie. Cet exemple des engrais – fabriqués à partir d’ammoniac et donc à partir d’hydrogène – montre d’ailleurs la spécificité des process industriels à prendre en compte : « Chez les fabricants d’ammoniac, le vaporeformage du méthane permet d’obtenir de l’hydrogène, mais aussi de la chaleur qui sert dans les process. Monter une unité d’électrolyse oblige à trouver une nouvelle source de chaleur. Il faut donc prévoir ces projets de décarbonation en repensant l’ensemble de l’intégration énergétique de l’usine, et ceci dans le cadre d’une concurrence internationale exacerbée », précise Sylvain Le Net.
L’affaire est complexe, et la rentabilité des projets d’électrolyse reste le nerf de la guerre. Fin 2023, lors de la construction du projet de loi de finances, le rapport sur l’impact environnemental du budget de l’État avait justement pointé le coût d’abattement de la tonne de CO2 pour différentes options dans le secteur de la chimie : l’hydrogène était de loin la plus chère (un peu moins de 300 euros/tonne) quand d’autres affichaient moins de 100 euros/tonne (biomasse, combustibles solides de récupération, baisse des émissions de protoxyde d’azote, une partie de l’électrification) voire des coûts d’abattement négatifs pour l’efficacité énergétique.
Valoriser la flexibilité des électrolyseurs ?
Les regards se tournent donc vers deux autres leviers. On pourrait assurer la compétitivité de l’hydrogène produit par électrolyse en lui permettant d’accéder à une électricité moins chère. La nouvelle stratégie française pointe certaines solutions (contrats de fourniture de long terme, exonérations fiscales, compensation du coût indirect du carbone). Mais rien n’est encore fait… D’autant plus que les nouvelles propositions d’EDF sous forme de mise aux enchères des contrats de long terme ont mécontenté les industriels électro-intensifs, à l’instar de France Chimie, France Ciment, A3M et Aluminium France, ce qui n’oriente pas vers une électrolyse abordable.
L’autre opportunité serait de valoriser financièrement la flexibilité des électrolyseurs, soit pour consommer plus d’électricité en période de forte production électrique, soit pour stopper l’électrolyse lors d’une demande très forte sur le réseau. Le sujet est sérieusement envisagé dans la stratégie française. Mais là aussi, dans quelles conditions économiques ? La rémunération de l’effacement des électrolyseurs du réseau suffirait-elle à justifier un fonctionnement à taux de charge réduit ?
Tout est encore à construire pour la jeune filière de l’hydrogène décarboné, qui est pourtant une brique essentielle de la transition énergétique.
« Frappée par une crise inédite, la Chimie tire la sonnette d’alarme ». Tel est le titre d’un communiqué publié le 16 octobre 2024 par l’organisation professionnelle représentant les entreprises de la chimie hexagonale, France Chimie. Et pour cause.
Alors qu’elle connaissait une période de croissance quasi ininterrompue depuis dix ans, cette filière clé de l’industrie française – 4 000 entreprises environ, pour près de 229 000 salariés – est entrée depuis 2023, et plus encore début 2024, dans une véritable zone de turbulences, marquée par une série de mauvaises nouvelles : mise à l’arrêt définitif de l’usine Syensqo de production de vanilline à Saint-Fons, dans le Rhône, en février ; annonce de la cessation de l’ensemble des activités chimiques d’ExxonMobil sur son site de Notre-Dame-de-Gravenchon, à Port-Jérôme-sur-Seine, en Seine-Maritime, au mois d’avril ; ou encore arrêt de la production par Solvay d’acide trifluoroacétique sur son site de Salindres, dans le Gard, en septembre. Trois exemples parmi d’autres des secousses qui ébranlent la chimie française depuis des mois maintenant, et ce d’autant plus violemment que c’est notamment sa partie amont qui est touchée. « 2024, annus horribilis pour la chimie en France », titrait ainsi le magazine Infochimie, fin décembre, concluant à un avenir incertain pour la filière. À juste titre, visiblement.
Quelques mois plus tard, le 16 avril dernier, France Chimie a, en effet, de nouveau alerté sur la persistance de cette crise qui affecte aujourd’hui encore l’ensemble de la filière, à l’occasion de la présentation de son bilan annuel, menée dans le cadre de son assemblée générale.
Une situation plus alarmante que jamais
« Après plus de deux ans de crise inédite, la Chimie en France reste affectée par l’absence de reprise de la demande industrielle européenne », constate d’emblée l’organisation professionnelle dans un nouveau communiqué publié pour l’occasion. Une situation alarmante, qui se reflète dans les chiffres dévoilés par France Chimie, à commencer par le recul de la production de la filière en 2024, évalué à – 0,3 %, hors chimie fine et pharmaceutique.
Autre signe inquiétant : le taux d’utilisation des capacités industrielles de la filière française, chiffré à 75 %, demeure en deçà du seuil de rentabilité de 80 %. « Cette sous-activité affecte en particulier la Chimie “amont” (chimies minérale et organique) et se traduit par une baisse du chiffre d’affaires global de 5 %, et des investissements de 15 % », révèle France Chimie.
Des indicateurs qui virent au rouge, et qui font ainsi craindre une hécatombe, tant à l’échelle de la France qu’au niveau européen d’ailleurs.
Sur la base, notamment, d’une étude menée récemment, portant sur la compétitivité de la filière en Europe, France Chimie alerte en effet sur la potentielle disparition de pas moins de 47 sites de production en France – sans compter sur un possible effet domino, comme le précise l’organisation – avec, à la clé, la probable destruction de 15 à 20 000 emplois directs. À l’échelle européenne, des menaces pèseraient sur 200 à 350 sites, faisant craindre la perte de 150 à 200 000 emplois directs.
Une crise multifactorielle
Pour expliquer l’ampleur et la persistance de cette crise qu’elle traverse désormais depuis de longs mois, la filière chimie pointe une série de facteurs économiques, réglementaires, et géopolitiques : surcapacités mondiales, faible demande aval, hausse des coûts de l’énergie, charge réglementaire et fiscalité défavorables… Le tout, conjugué à la concurrence pour le moins agressive de la Chine, mais aussi à la guerre commerciale déclarée par les États-Unis. Une véritable « prise en étau », qui met sous haute pression cette filière déjà fragilisée.
« Face à la domination de la Chine et à la guerre commerciale avec les États-Unis, la Chimie en France n’est pas en mesure de résister », prévient ainsi, sans ambages, France Chimie.
Une organisation qui appelle ainsi à la mise en œuvre d’un plan d’action national et européen, axé autour de six aspects prioritaires : réduction durable des coûts de l’énergie pour l’industrie, accélération et renforcement des mesures de défense face à une concurrence jugée déloyale, adaptation et simplification de la réglementation, baisse de la fiscalité industrielle française, relance de l’investissement dans l’innovation, la conquête de nouveaux marchés, la modernisation et la décarbonation des sites de production, mais aussi, enfin, accompagnement du renouvellement des compétences des salariés de la filière. « Il faut se réarmer sans attendre pour préserver l’atout indispensable qu’est la Chimie en France », plaide ainsi le président de France Chimie, Frédéric Gauchet.
Un appel visiblement entendu par le ministre français de l’Industrie et de l’Énergie Marc Ferracci, qui a en effet convié, le 25 avril dernier, les représentants de la filière chimie hexagonale à une réunion à Bercy visant à échanger sur ces six grands axes prioritaires évoqués ci-dessus.
« Notre ligne est claire : la chimie est un secteur stratégique, et nous devons investir pour sa compétitivité. Soutenir la chimie, c’est soutenir tous les écosystèmes industriels et construire la souveraineté économique de demain », a déclaré le ministre dans un message publié pour l’occasion sur les réseaux sociaux. Marc Ferracci qui, ainsi, l’assure : « l’État se tient aux côtés » des acteurs de cette filière en pleine tempête. Reste à voir les actions qui découleront de cette promesse de soutien, et à espérer, surtout, qu’elles soient suivies d’effets.
Une coupure de courant « massive » a touché l’Espagne et le Portugal le 28 avril dernier. Cette coupure a paralysé l’activité des deux pays. De nombreuses villes ont vu leurs transports publics paralysés, dont les métros. Même impact pour les aéroports.
Rapidement, des médias ont évoqué une cyberattaque qui aurait touché les gestionnaires du réseau électrique espagnol et portugais. Cette hypothèse serait écartée au profit de variations extrêmes de température en Espagne qui auraient provoqué des oscillations anormales sur les lignes à très haute tension.
Les causes exactes n’étaient pas encore connues au moment de l’écriture de cet article. Ce black-out met cependant en évidence la forte dépendance des États vis-à-vis des infrastructures critiques comme les réseaux énergétiques.
C’est pour limiter les risques de panne, involontaire ou malveillante, que différentes mesures sont prises notamment en Europe. De cyberattaques ont déjà visé de tels réseaux.
Face à cette menace, l’Europe peut s’appuyer sur la directive NIS2 qui devrait être prochainement transposée dans le droit français. Elle remplace la directive NIS adoptée en 2016 et introduit des exigences plus strictes en matière de cybersécurité. Elle élargit le champ d’application à de nouveaux secteurs, tels que les services publics, les infrastructures numériques et les services de gestion des déchets.
Selon une étude de l’Agence européenne pour la cybersécurité (ENISA), la directive NIS2 a été mise en œuvre afin de réduire de 30 % le nombre d’incidents de cybersécurité dans les infrastructures critiques.
Les infrastructures critiques sont également des cibles de choix pour le cyberespionnage et le sabotage orchestrés par des États. Une étude récente de la société de cybersécurité FireEye révèle que 40 % des cyberattaques contre les infrastructures critiques en 2022 étaient attribuables à des groupes soutenus par des États.
Ces attaques visent souvent à perturber les services essentiels, à voler des informations sensibles ou à déstabiliser les gouvernements.
Le cyberespionnage, par exemple, peut permettre à des États hostiles d’accéder à des informations stratégiques, telles que les plans de réponse aux crises ou les vulnérabilités des systèmes. Le sabotage, quant à lui, peut entraîner des pannes majeures, comme ce fut le cas en 2015 et 2016 en Ukraine, où des cyberattaques ont provoqué des coupures de courant affectant des centaines de milliers de personnes.
Face à ces menaces, le niveau de protection de ces réseaux essentiels à l’activité d’un pays a fortement augmenté. En Europe, les dépenses en cybersécurité pour les infrastructures critiques ont augmenté de 15 % par an jusqu’en 2025.
Malgré ces investissements, les défis restent nombreux. Les disparités entre les pays en termes de ressources et de maturité en cybersécurité pourraient entraîner des failles exploitables par les cyberattaquants. Une attaque visant un pays pourrait avoir des effets en cascade sur d’autres pays étant donné les interconnexions entre les réseaux. La panne en Espagne a ainsi eu un impact sur le réseau français.
Autre raison d’être inquiet, une étude de PwC indique que 60 % des entreprises des infrastructures critiques estiment ne pas être suffisamment préparées pour faire face à une cyberattaque sophistiquée. Cette insuffisance est souvent due à un manque de ressources, de compétences spécialisées et de sensibilisation aux risques.
Les maladies inflammatoires chroniques de l’intestin (MICI) touchent quelque 300 000 personnes en France, avec près de 8 000 nouveaux cas recensés chaque année. Les traitements actuels à base de corticoïdes ou d’immunosuppresseurs, visant principalement à soulager les symptômes (douleur et gêne), sont lourds et ont tendance à perdre de leur efficacité avec le temps. Pour les personnes atteintes de MICI, le dernier recours est une opération, lourde également. « On retire le tissu nécrosé du fait d’une trop longue inflammation. Si l’ablation a lieu au niveau de l’intestin grêle, la capacité d’absorption des nutriments peut être diminuée. Si l’ablation concerne plutôt la partie basse de l’intestin, des problèmes de transit peuvent apparaître et il peut être nécessaire d’installer une poche ventrale pour recueillir les selles », explicite Chloé Terciolo, chercheuse postdoctorale de l’Inserm au laboratoire INCIT (Immunologie et Nouveaux Concepts en Immunothérapie) à Nantes. Elle participe avec son équipe au projet européen MITI2 (mai 2023–avril 2027), dont un des objectifs est de reproduire les principaux composants de l’intestin (système immunitaire, épithélium, réseau neuronal). Le but final étant de parvenir à de nouvelles solutions thérapeutiques plus efficaces. Pour ce faire, Chloé Terciolo et ses collègues étudient de près les organoïdes d’intestin…
Une médication personnalisée pour lutter contre les inflammations de l’intestin ?
Un organoïde est une structure en trois dimensions mimant la morphologie et la fonction d’un organe. Il se forme à partir de cellules souches prélevées sur un patient. Ces cellules « immatures » se multiplient (pratiquement) à l’infini. Le premier organoïde au monde (déjà tiré d’un intestin) a été créé en 2009. L’intestin est un bon client, car il se régénère entièrement tous les 4 à 5 jours et possède de nombreuses cellules souches. Au sein du laboratoire INCIT, ces organoïdes atteignent environ 200 µm de diamètre, soit presque dix fois la taille d’une cellule ! « Dès la réception des cellules souches, nous les enrobons dans une matrice de gel riche en facteurs de croissance », commence Chloé Terciolo. « Placés dans des incubateurs à 37°C, soit la température interne du corps humain, les organoïdes grandissent et se développent dans les trois dimensions de l’espace ». Tous les 2 à 3 jours, leur milieu de culture est réenrichi en nutriments avec différents facteurs de croissance. Le but ? Provoquer la différenciation des cellules, et par la même leur activation. « On obtient ainsi des cellules entérocytaires (de l’épithélium), en gobelet (sécrétrices de mucus), entéro-endocrines (sécrétant les hormones de la satiété notamment), de Paneth (sécrétrices de peptides antimicrobiens), et bien sûr d’autres cellules souches », présente la chercheuse.
L’étape suivante consiste à caractériser ces différents types cellulaires et à les comparer avec ceux relevés sur les organoïdes de patients « contrôle » non malades (c’est-à-dire atteints d’une autre pathologie que celle étudiée lors de cette recherche). « Au-delà de l’expression des gènes et de la présence et de la localisation de protéines, nous analysons aussi la réponse des organoïdes malades à un type de lymphocytes T provenant du patient, étudiés au laboratoire depuis plusieurs années », indique Chloé Terciolo. En effet, cette sous-population est très réduite chez les personnes souffrant de MICI et est supposée jouer un rôle anti-inflammatoire prépondérant. « Nous tentons également de reproduire l’état inflammatoire des patients sur les organoïdes en les confrontant à des cytokines dites pro-inflammatoires. L’idée finale étant d’étudier les mécanismes de ces lymphocytes en condition inflammatoire pour peut-être un jour les utiliser comme immunothérapie en les réinjectant au patient dont elles sont issues », ajoute la chercheuse. Un premier pas vers l’utilisation d’un modèle plus physiologique et complexe que ceux actuels pour, in fine, une potentielle médication personnalisée que les modèles animaux ne permettent pas. Les travaux portant sur les organoïdes ayant en effet l’intérêt supplémentaire de réduire la nécessité de l’expérimentation animale.
Publiée dans la revue Environmental Research Letters en février 2025, une étude dirigée par le chercheur Gan Zhang du département “Climate, Meteorology, and Atmospheric Sciences” de l’université de l’Illinois Urbana-Champaign, prévoit une baisse des vents pendant les mois d’été dans les latitudes moyennes du Nord, notamment en Europe.
Ces prévisions sont le fruit de simulations climatiques à large échelle, dans le but d’évaluer les évolutions des vents de surface et les implications d’une telle baisse. Les résultats prévoient une diminution de la vitesse des vents jusqu’à 15% en été. Le phénomène devrait être inférieur à 5 % entre 2021 et 2050 et s’accentuer d’ici à 2100. Cette diminution serait liée à un réchauffement de la Terre et de la troposphère, la plus basse couche de l’atmosphère terrestre.
Ces prévisions coïncident avec les constats effectués ces dernières années. En 2021, les données du programme Copernicus révélaient que la force des vents avait été à son plus bas niveau en Europe depuis 40 ans, dans une vaste zone allant de l’Irlande à la Tchéquie, en passant par le Danemark, les Pays-Bas et l’Allemagne. Cette année-là, le Royaume-Uni a été contraint de redémarrer deux centrales à charbon fermées pour combler le déficit énergétique. Plus récemment, Bloomberg annonçait le 15 janvier 2025 que la production des éoliennes allemandes était à peine de 20% de la normale à cause d’une baisse de vent et que le pays avait dû importer de l’électricité nucléaire française.
Des mesures difficiles à effectuer
Néanmoins, difficile de faire des prévisions exactes. La vitesse du vent s’avère très complexe à mesurer, car elle est influencée par l’environnement autour : topographie du terrain, bâtiments etc. Selon Fabio D’Andrea, directeur de recherche au CNRS et directeur adjoint du Laboratoire de météorologie dynamique, “la question des vents de surface est très compliquée et nous avons encore des incertitudes importantes. Les observations montrent une variabilité énorme d’une année sur l’autre pour un même endroit donc il est difficile d’établir une tendance. Il faudrait des données sur une période très longue pour avoir des prévisions fiables, or nous n’avons pas de telles informations”. Face aux manques de données historiques, les chercheurs de l’étude affirment avoir utilisé de nombreux jeux de données pour compenser.
Par ailleurs, d’autres études semblent révéler une tendance inverse. Une étude publiée par la revue Nature Climate Change en 2019, à laquelle ont participé des chercheurs français du CNRS et du CEA, révélait qu’il y avait effectivement une réduction de la vitesse moyenne du vent d’environ 2,3 % par décennie entre les années 1980 et 2010, mais que depuis 2010, les constats sont inversés.
Un risque pour l’énergie éolienne ?
Mais si l’énergie éolienne joue un rôle essentiel dans la transition énergétique, pourrait-elle être impactée en cas de manque de vent ? Selon Gan Zhang, même une baisse de 5 % de la vitesse du vent pourrait entraîner des fluctuations importantes de la production d’énergie éolienne.
Fabio D’Andrea tempère les inquiétudes : “Il faut bien comprendre que ce n’est pas parce que le vent diminue de 10% qu’il y aura une baisse de 10% d’énergie produite. Il y a des considérations de charges, de localisation des éoliennes ou de conditions locales qui peuvent donner des résultats très différents”. La production éolienne dépend aussi directement de la puissance et la hauteur des machines, et du diamètre de leur rotor. Or les fabricants développent des turbines plus puissantes, plus hautes, avec des pales plus longues, pour gagner en efficacité même en cas de vent faible. Ainsi, l’impact d’un éventuel ralentissement de la vitesse des vents en Europe sur les énergies renouvelables à long terme n’est pas encore clair.
Le directeur de recherche au CNRS Fabio D’Andrea souhaite attendre les prochaines études sur l’évolution du vent pour décider des stratégies à adopter. Il recommande d’observer les échelles spatiales pour mieux appréhender les conséquences. “Il y a des études qui semblent montrer que la variabilité des vents de surface pourrait avoir des échelles spatiales plus grandes. Si dans une région d’Allemagne, le vent baisse, mais qu’il augmente dans une autre zone, il est possible d’agir localement, peut-être en créant de nouveaux champs d’éoliennes. Mais maintenant, imaginez que ces grandes variations soient à l’échelle de tout le continent. Les effets sur les réseaux de distribution d’énergie seraient très différents, avec des échelles spatiales beaucoup plus grandes. Il faudrait donc des politiques de compensation avec des centrales qui pourraient être utilisées en cas de manque de vent.”
De son côté, l’étude dirigée par Gan Zhang suggère que l’Europe pourrait avoir besoin de plus de créativité dans le développement de l’énergie renouvelable, en construisant plus d’interconnexions et en disposant de sources d’électricité de secours pour compenser les ralentissements de l’énergie éolienne.
Les PFAS (per- et polyfluoroalkylées) font régulièrement la une des médias en raison de leurs effets négatifs sur la santé et l’environnement. Des études récentes montrent qu’ils contaminent massivement les masses d’eau en Europe. En France, certaines rivières et zones industrielles présentent des concentrations supérieures aux normes en vigueur. Et pour les humains, l’eau potable ainsi que certains aliments, comme la viande, les œufs et les produits de la mer, constituent une source majeure d’exposition. Face à la toxicité de ces substances, l’Académie des sciences vient de publier un rapport dans lequel elle formule plusieurs recommandations pour mieux gérer les risques liés à ces composés.
Étant donné qu’ils sont omniprésents dans notre quotidien, elle réclame tout d’abord plus de transparence, car leur présence est rarement indiquée sur les produits, faute de réglementation. « Une traçabilité stricte est nécessaire, depuis leur synthèse industrielle jusqu’aux produits finis et leur fin de vie, écrivent les auteurs de ce rapport. L’étiquetage des produits doit mentionner précisément les PFAS qu’ils contiennent, à l’image de l’obligation de déclaration des ions dans les eaux minérales. »
Un contrôle des rejets dans l’environnement doit également être renforcé, en particulier en aval des sites de production industrielle. Ceux-ci étant peu nombreux, ces contrôles pourraient être mis en place rapidement. Mais encore faut-il être en mesure de les détecter, car les PFAS constituent une famille extrêmement vaste de molécules, sans doute 12 000, dont beaucoup restent encore à identifier.
L’Académie des sciences préconise donc d’accentuer les efforts de recherche, pour non seulement les détecter, mais aussi pour les caractériser et évaluer leurs effets sur la santé et l’environnement. « Actuellement, les connaissances scientifiques sont encore extrêmement limitées, déplore l’Institution. Une approche interdisciplinaire est indispensable pour améliorer ces méthodes et identifier les molécules encore inconnues. » Deux stratégies complémentaires doivent être mises en place, la première consiste à mesurer le fluor total pour une détection rapide et efficace de la pollution. Et la seconde, à identifier précisément les molécules présentes grâce aux techniques avancées de chromatographie et de spectrométrie.
Un vaste programme pour trouver des produits de substitution
En parallèle, un vaste plan de substitution doit être élaboré à l’échelle internationale pour remplacer ces substances. En février, une loi a été votée en France visant à interdire, à compter du 1er janvier 2026, la fabrication, l’importation et la vente de tout produit cosmétique, textile d’habillement ou produit de fart pour skis contenant des PFAS. Cependant, un grand nombre de produits liés à la transition énergétique et qui contiennent ces substances, comme les batteries, les piles à combustible et les fluides caloporteurs des pompes à chaleur, ne sont pas concernés. « Aucune alternative viable n’existe à ce jour dans ces domaines. Ces utilisations et développements ne devant pas être arrêtés, ils doivent être accompagnés d’une traçabilité stricte et d’efforts de recherche pour développer des substituts. »
Enfin, un dernier point concerne la remédiation, car les PFAS sont certes dotés d’une grande stabilité, mais ne sont pas éternels, comme ils sont fréquemment qualifiés. Ils peuvent donc être dégradés, à condition de développer des méthodes efficaces pour les éliminer dans les milieux contaminés. Un grand programme de recherche pour améliorer ces techniques doit donc être mis en place, selon l’Académie des sciences. « Certaines techniques actuelles, comme le charbon actif, permettent déjà d’éliminer plus de 90 % du fluor total présent dans l’eau. D’autres procédés, comme l’incinération, sont efficaces, mais posent de nouveaux défis, notamment par la formation de fluorure d’hydrogène (HF), un gaz toxique et corrosif. Il est envisageable de piéger ce sous-produit sous forme de fluorure de calcium (CaF₂), inoffensif pour l’environnement et cette initiative ne pourra aboutir qu’à travers une coopération étroite entre laboratoires académiques, entreprises spécialisées en remédiation environnementale et industriels. »
Parmi les procédés industriels qui permettent de construire un revêtement sur une pièce, certains utilisent la projection à très grandes vitesses de poudres métalliques. C’est le cas de la projection à froid (ou cold spray). La déformation des particules métalliques micrométriques lors de l’impact permet en effet d’obtenir des revêtements durables, de très bonne qualité, présentant une forte adhérence. Cette collision à haute vitesse libère en effet une grande quantité d’énergie qui permet la formation de liaisons métalliques fortes.
Une limite de vitesse de projection identifiée à 1 060 mètres par seconde
Pourtant dans certains cas, la qualité de ces liaisons est moindre, voire mauvaise, entraînant une dégradation de la qualité du revêtement. L’origine de ces défauts n’est cependant pas bien identifiée. Pour optimiser les techniques industrielles et mieux comprendre la formation de ces liaisons métalliques par projection à très haute vitesse, une équipe de chercheurs des universités de Cornell (USA) et de Tohoku (Japon) a réalisé une série de tests en laboratoire. Des particules d’aluminium de 20 micromètres de diamètre ont ainsi été projetées sur une surface d’aluminium à des vitesses allant de 800 à 1 337 mètres par seconde, soit bien plus que la vitesse du son. Les impacts ont été observés à l’aide de caméras à grande vitesse et la qualité des liaisons métalliques analysée. Ce type de mesures in situ sur la force des liaisons métalliques est une première.
Et les résultats, publiés dans la revue PNAS, ont dans un premier temps surpris les scientifiques. Alors que l’on pensait que plus la vitesse était élevée, plus les liaisons étaient fortes, les analyses révèlent au contraire qu’il existe une vitesse « limite » à partir de laquelle la qualité des liaisons commence à décliner. Cette limite se situe à 1 060 mètres par seconde. Si, en deçà, la force des liaisons augmente avec la vitesse, au-delà elle diminue. Pour 1 337 mètres par seconde, les particules adhèrent ainsi très mal à la surface d’aluminium, donnant lieu à un revêtement de très mauvaise qualité.
Des liaisons endommagées à partir d’un certain seuil de vitesse
D’après les chercheurs, cette diminution de la force des liaisons serait attribuée à un phénomène appelé « récupération élastique renforcée » (intensified elastic recovery). Lorsqu’une surface est impactée par des particules projetées à très haute vitesse, elle perd en effet sa capacité à absorber l’énergie par déformation. À l’inverse, une plus grande part de l’énergie est stockée sous forme de contrainte élastique, ce qui provoque le « rebond » des particules après l’impact. L’interface est alors étirée et endommagée, ce qui affaiblit la liaison avec les particules métalliques.
Cette découverte pourrait expliquer pourquoi une érosion du revêtement est parfois observée lors du procédé industriel. « Jusqu’à présent, les industriels pensaient que l’érosion était causée par des particules rapides traversant la surface du substrat ou par fusion de l’interface » explique Qi Tang, premier auteur de l’étude, dans un communiqué de presse. « Mais maintenant, nous savons que lorsque nous donnons une vitesse très élevée à une particule, la tendance accrue au rebond peut provoquer le détachement d’une particule précédemment liée, empêchant ainsi l’accumulation de matière » sur le substrat. Cette nouvelle compréhension des dynamiques qui régissent les interactions entre les particules et le substrat à très hautes vitesses, les chercheurs ont ainsi mis en lumière le fait qu’il existe une balance optimale entre la vitesse de projection des particules et la résistance des liaisons métalliques.
Un phénomène indépendant de la nature du métal ?
La question est désormais de savoir si ce phénomène se produit quelle que soit la nature du métal utilisé, ou s’il est caractéristique des particules d’aluminium. De nouvelles études seront donc nécessaires, même si les chercheurs penchent pour la première option. L’influence de la taille des particules sera également à déterminer.
Dans tous les cas, ces nouveaux résultats devraient permettre aux industries utilisant la projection supersonique de microparticules dans des procédés tels que la projection à froid ou l’impression 3D d’optimiser leurs résultats. Des secteurs comme l’aérospatial ou l’industrie automobile seront donc certainement preneurs de ces nouvelles données qui pourraient révolutionner les techniques de production.
Les modèles d’intelligence artificielle (IA) biomédicale traditionnels sont conçus pour des tâches ou des modalités spécifiques. Leur manque d’agilité limite dans leur déploiement dans le monde réel. Ces outils sont généralement lourds et fermés aux chercheurs, aux praticiens et aux patients.
Une étape majeure est peut-être franchie avec BiomedGPT. Dans une étude publiée dans la revue Nature Medicine, ce modèle d’IA est décrit comme « le premier modèle de base de langage de vision léger et open source, conçu comme un généraliste capable d’effectuer diverses tâches biomédicales ».
L’étude de l’université de Lehigh, en Pennsylvanie, aux États-Unis, menée en collaboration avec plusieurs institutions, explique que ce modèle d’IA n’a pas besoin d’être spécialisé pour des tâches spécifiques, telles que l’analyse de radiographies ou le résumé de documents.
Ce modèle « généraliste » repose sur deux piliers. Le premier système est formé pour comprendre les images biomédicales. Le second a été entraîné pour comprendre et évaluer les textes biomédicaux. La combinaison de ces deux éléments permet au modèle de relever un large éventail de défis biomédicaux, en s’appuyant sur les connaissances tirées des bases de données d’imagerie biomédicale et de l’analyse et de la synthèse des rapports de recherche scientifique et médicale.
Interpréter des données cliniques
Des évaluations humaines ont été réalisées afin de constater les capacités de BiomedGPT dans la réponse aux questions visuelles en radiologie, la génération de rapports et le résumé.
BiomedGPT présente une capacité de prédiction avec un faible taux d’erreur de 3,8 % dans la réponse aux questions, un taux d’erreur de 8,3 % dans la rédaction de rapports radiologiques complexes, et une bonne capacité de résumé.
Il est en effet capable de synthétiser des données provenant de sources multiples, ce qui en fait une ressource précieuse pour comprendre des concepts biomédicaux complexes, les derniers résultats de la recherche et les tendances émergentes.
Par exemple, il peut analyser des études scientifiques pour fournir des résumés, interpréter des données cliniques et offrir un aperçu des dernières avancées médicales, servant de pont entre les données brutes et les connaissances exploitables.
Les médecins, les infirmières et les autres prestataires de soins de santé pourraient donc à terme utiliser BiomedGPT pour se tenir au courant des derniers traitements, des techniques de diagnostic et des directives cliniques, afin d’améliorer les soins prodigués aux patients.
Alors que Tesla est confronté à d’importantes difficultés depuis le début de l’année, un rapport publié par EV Universe montre que son Model Y a été le plus vendu dans le monde en 2024. Ce média en ligne spécialisé a en effet réussi à retracer les ventes de près de 11 millions de véhicules dans 58 pays, ce qui représente plus de 99 % des ventes de véhicules légers à batterie de la planète. Il révèle également que le Model 3 du constructeur automobile américain prend la deuxième place de ce classement, et ce dans toutes les grandes régions du monde, sauf en Chine où le constructeur local BYD parvient à le devancer.
La Chine est, de loin, le plus grand marché mondial des voitures électriques, puisque 58 % des ventes ont lieu dans ce pays, ce qui représente 6,3 millions de véhicules l’an dernier. Même si la croissance de ce marché est légèrement positive l’an dernier (+1,3 %), elle a nettement ralenti comparé à 2023, où elle dépassait 35 %. Un véhicule chinois vendu sur quatre est à batterie, et si l’on ajoute les véhicules électriques rechargeables, ce mix grimpe même au-dessus de 50 %. Si Tesla a vendu 480 309 exemplaires de son Model Y en 2024, BYD n’est pas loin derrière avec 453 593 nouvelles immatriculations de son modèle Seagull, rebaptisé Dolphin Mini, et surtout, il a écoulé 275 223 exemplaires de son modèle Yuan Plus, le troisième le plus vendu en Chine.
Deuxième marché mondial dans le segment des voitures électriques avec 18,4 % des ventes mondiales, l’Europe a vu le nombre de ses nouvelles immatriculations baisser de 1,3 % en 2024, après une croissance de 28,2 % en 2023. Ces véhicules représentent un peu plus de 15 % du mix des ventes de véhicules légers et le déclin du marché européen s’explique en grande partie par l’Allemagne, qui a vu son nombre de ventes dégringoler de 27 % en 2024. Outre-Rhin, le mix des véhicules électriques est passé de 18,4 % à 13,5 % l’an dernier et cette baisse s’explique par la suppression des subventions à l’achat de véhicules électriques en décembre 2023.
Alors que l’Allemagne est le plus grand marché automobile européen, le Royaume-Uni est devenu le plus important marché dans la catégorie des véhicules électriques en 2024, avec 382 000 exemplaires écoulés contre 380 600 en Allemagne. Quant à la France, 290 614 véhicules ont été vendus en 2024, soit une baisse de 2,6 % sur un an, tandis que la part de marché de cette catégorie de voiture atteint presque 17 %. Une légère baisse des ventes est donc observée, mais étant donné que le marché global des véhicules a chuté beaucoup plus (-3 %), le mix des véhicules électriques progresse très légèrement de 0,11 %.
Les trois modèles les plus vendus sont tous américains aux États-Unis
Comme en 2023, Tesla parvient à conserver les deux premières places du podium des ventes sur le marché européen en 2024 grâce au Model Y et au Model 3, mais la troisième place revient à Skoda et son modèle Enyaq, propriété du groupe Volkswagen. Ce véhicule détrône l’ID.4, vendu par le même groupe, et qui occupe désormais la sixième place parmi les véhicules électriques.
Les États-Unis ont connu une très belle progression des ventes de véhicules à batterie l’an dernier (+7,3 %), mais cette croissance est nettement moins élevée que celle de l’an dernier, où elle dépassait 62 %. La part de marché des véhicules électriques a légèrement augmenté, pour atteindre 8,15 %. Les trois modèles les plus vendus sont tous américains, avec Tesla qui s’adjuge les deux premières places, tandis que la Ford Mustang Mach-E prend la troisième marche du podium, détrônant la Chevrolet Bolt, qui dégringole à la 34ème position.
Au final, sur les 58 pays étudiés, 37 ont vu leurs ventes de véhicules électriques augmenter en 2024, notamment le Brésil, l’Uruguay et le Chili, qui ont connu des taux de croissance les plus élevés, supérieurs à 200 %. Inversement, 21 pays ont vu leurs ventes de véhicules électriques diminuer en 2024, parmi lesquels la Nouvelle-Zélande, l’Islande, le Japon et la Roumanie, qui enregistrent les plus fortes baisses, supérieures à 30 %.
Une stratégie de réduction de l’empreinte carbone initiée par Panasonic
Panasonic Energy a déjà initié des programmes de recyclage des batteries lithium-ion aux États-Unis en collaboration avec des partenaires tels que Redwood Materials, une entreprise de matériaux de batteries durables, afin de mettre en place les premières étapes d’un processus en circuit fermé de recyclage et de refabrication des batteries. La collaboration avec Sumitomo Metal Mining est un élément clé de la stratégie de développement durable plus large de Panasonic Energy, qui ambitionne de réduire de moitié son empreinte carbone d’ici à l’exercice 2031 par rapport aux niveaux de l’exercice 2022.
Le recyclage des batteries, un enjeu environnemental
Avec le développement croissant des véhicules électriques en cours, on estime que des millions de tonnes de batteries atteindront leur fin de vie dès le début des années 2030. Avec leur recyclage, la dépendance à l’extraction de nouvelles matières premières, sources de tensions géopolitiques, est réduite, tout comme la quantité de déchets produits, au bénéfice de l’empreinte écologique du processus. L’enjeu contribue également à réduire les émissions de gaz à effet de serre associées aux activités minières traditionnelles.
Le premier choc pétrolier, en 1973, a fait prendre conscience aux Occidentaux de leur grande dépendance vis-à-vis du pétrole. Entre octobre 1973 et mars 1974, le prix du baril de pétrole (159 litres) a été multiplié par quatre, passant d’environ 3 $ à 12 $. Pour revenir à nos jours, le prix du baril oscillait entre 72 $ et 73 $ à la fin du mois de février 2025. Des valeurs supérieures ont été atteintes depuis 1973. En effet, le 11 juillet 2008 le prix du baril atteignait 147,5 $ sur le marché du New York Mercantile Exchange. Après le choc pétrolier, les pays ont donc souhaité réduire progressivement leur dépendance au pétrole.
Par ailleurs, en 1997, le protocole de Kyoto a permis de prendre officiellement conscience du problème lié aux émissions de gaz à effet de serre et de l’impact qu’elles ont sur le climat. L’utilisation des combustibles fossiles (pétrole, charbon et gaz naturel) est responsable de plus de 80 % des émissions de CO2. Plusieurs pays essayent de réduire celles-ci en remplaçant les combustibles fossiles par d’autres sources d’énergie moins émettrices. Cette tendance s’est accélérée ces dernières années, en se concentrant notamment sur l’habitat et les transports, mais on est encore loin du compte pour que cette réduction ait un impact visible.
Le pétrole domine les transports mondiaux (89 % en 2021 contre 6 % pour le gaz naturel, 4 % pour les biocarburants et 1 % pour l’électricité). La production d’électricité mondiale est quant à elle dominée par le charbon (35,7 % en 2022, ce qui est mieux qu’en 2014 où elle était de 41 %). Le gaz naturel est une source d’énergie de plus en plus utilisée pour produire de la chaleur ou de l’électricité. L’avantage du gaz naturel par rapport aux autres combustibles fossiles est que sa combustion émet moins de CO2 que le charbon (environ deux fois moins). Remplacer une centrale de production d’électricité fonctionnant au charbon par une centrale au gaz naturel permet ainsi de diminuer les émissions d’un facteur de l’ordre de deux. Un pays possédant des centrales à charbon qui remplace celles-ci par des centrales au gaz naturel diminue donc ses émissions de CO2.
Dans cet article, nous allons montrer, à partir des données de l’Agence Internationale de l’Énergie, que loin de diminuer notre consommation de pétrole, de charbon et de gaz naturel, celles-ci n’ont fait qu’augmenter entre 1973 et 2022, soit sur 49 ans.
Figure 1. Répartition de la production d’énergie primaire selon les sources d’énergie en 1973 (données de www.iea.org).
Les points de départ sont les figures 1 et 2 qui montrent la répartition de la production d’énergie primaire selon les sources en 1973 et 2022. En 1973, la production totale d’énergie primaire était 6,10 Gtep (1 Gtep=1 milliard de tonnes équivalent pétrole). Elle est passée à 14,43 Gtep en 2022.
On voit que la contribution des énergies fossiles (pétrole, charbon et gaz naturel) au bilan mondial d’énergie primaire diminue de 86,7 % en 1973 à 80,9 % en 2016. En 49 ans, la contribution des combustibles fossiles a ainsi diminué de 5,8 % ce qui représente une réduction moyenne de 0,12 % par an. Même si cela peut paraître encourageant, il n’y a pas lieu de se réjouir d’une si faible réduction.
Figure 2. Répartition de la production d’énergie primaire selon les sources d’énergie en 2022 (données de www.iea.org).
Il est vrai que la contribution du pétrole au bilan global a baissé de 16 % mais, parallèlement, la contribution du charbon a augmenté de 3,1 % et celle du gaz naturel de 7,1 %. On a bien 5,8=16-3,1-7,1. Une partie de la réduction de la consommation de pétrole a été en partie compensée par l’augmentation de la consommation en gaz naturel et en charbon.
Pour voir si l’on a réellement diminué la consommation de combustibles fossiles, il faut considérer leur évolution en valeur absolue.
Figure 3. Production de charbon, pétrole et gaz naturel en 1973 et 2022. En valeur absolue, il y a une forte augmentation de chacun des combustibles fossiles même si celle du pétrole est plus modérée (données à partir de www.iea.org).
C’est ce que montre la figure 3 pour le charbon, le pétrole et le gaz naturel.
Les barres bleues sont relatives à la production de 1973 (on a 1,5 Gtep pour le charbon, par exemple) et les barres rouges indiquent la consommation en 2022. On voit que la consommation des trois combustibles fossiles a augmenté entre 1973 et 2022. Il n’y a donc pas eu de réduction de la consommation de pétrole entre 1973 et 2016, mais une augmentation ! Il en est de même pour le charbon et le gaz naturel.
La figure 4 montre, en pourcentage, l’augmentation du charbon, du pétrole et du gaz naturel entre 1973 et 2022. Elle est de 55 % pour le pétrole, de 166 % pour le charbon et de 242 % pour le gaz naturel. On est donc loin d’une diminution de la consommation en combustibles fossiles contrairement à ce que l’on voudrait faire croire.
Figure 4. Pourcentage d’augmentation du charbon, du pétrole et du gaz entre 1973 et 2022 (données à partir de www.iea.org)
Pendant cette période, la contribution des énergies renouvelables (hors hydraulique et biomasse, c’est-à-dire essentiellement l’éolien, le solaire et la géothermie) a fortement augmenté comme on peut le voir en comparant les figures 1 et 2, mais leur contribution a été loin de pouvoir satisfaire l’augmentation des besoins en énergie pendant cette période.
On peut conclure de ces chiffres qu’en quatre décennies, on a fortement augmenté notre consommation de combustibles fossiles et que l’on aura encore besoin d’eux pendant longtemps pour le développement économique de la planète. La réduction des investissements voulue ou imposée dans ce secteur ne peut que rendre ces sources d’énergie plus rares et plus chères ce qui plongera, au niveau mondial, un grand nombre de personnes dans la précarité énergétique et même dans la précarité tout court. Le rêve de diminuer la consommation de combustibles fossiles s’écrase donc sur le mur de la réalité, car ceux-ci contribuent toujours pour environ 80 % à la consommation d’énergie primaire mondiale.
De la découverte en laboratoire à l’innovation industrielle… On scrute pour vous chaque semaine les tendances de l’industrie.
Printemps et enjeux scientifiques
Le printemps est de retour, apportant lumière et chaleur. Pollens, albédo, monoï de Tahiti, produits de protection solaire, nous vous proposons d’envisager cette saison sous l’angle scientifique, à travers une sélection d’articles en accès libre jusqu’au 22 mai 2025. Une sélection d’articles pour décrypter le printemps
Webinar à venir : réduisez les risques en production avec des solutions analytiques avancées
Apprenez à identifier et à vous concentrer sur les variables clés de votre production grâce à l’analyse prédictive. Contrôlez vos processus en temps réel pour réduire les risques et optimiser la performance. Ce webinaire en accès libre apportera abordera l’utilisation des données pour anticiper les risques et améliorer votre performance industrielle. Inscrivez-vous à cet atelier
Webinar à venir : la blockchain pour répondre aux exigences de traçabilité
La traçabilité est devenue un impératif pour les entreprises face aux nouvelles réglementations. La blockchain, avec sa transparence et son immuabilité, offre des solutions prometteuses. Ce webinar gratuit exposera les avantages et les limites de cette technologie dans le domaine de la traçabilité. Inscrivez-vous à ce webinar
L’Oncopôle de Toulouse : au cœur de l’innovation en thérapies ciblées
Francesco Hofmann, expert en biochimie et oncologie, s’est entretenu avec nous en sa qualité de directeur de la R&D des Laboratoires Pierre Fabre. De la découverte de nouvelles molécules à l’intégration de l’intelligence artificielle, les thérapies ciblées et les collaborations internationales redéfinissent les traitements anticancéreux, offrant de nouvelles perspectives aux patients du monde entier. Comment l’IA et les partenariats transforment la recherche anticancéreuse
L’Europe face au défi du patriotisme économique
Alors que l’Europe est prise en étau entre les politiques protectionnistes des États-Unis et la montée en puissance de la Chine, le concept de patriotisme économique revient sur le devant de la scène. Cet article analyse les propos d’Éric Lombard et d’Éric Delbecque sur la nécessité de protéger l’économie européenne tout en évitant le repli sur soi. Les enjeux autour du patriotisme économique
Hydrogène vert en Tunisie : un projet controversé à Gabès
À Gabès, en Tunisie, la population se mobilise contre un projet de production d’hydrogène vert destiné à l’exportation. Dans une région déjà marquée par la pollution, les habitants craignent pour leur santé et l’environnement, et dénoncent un accaparement des ressources au profit de l’Europe. Hydrogène vert en Tunisie : enjeux et controverses
Paris face à la montée des températures : le rôle controversé de la climatisation
Face à l’augmentation des nuits tropicales à Paris, la climatisation apparaît comme une réponse immédiate. Pourtant, l’étude de l’APUR révèle les conséquences de cette solution sur l’environnement urbain et le climat. L’étude complète sur la climatisation et ses impacts à Paris
Fondés à Castres, dans le Tarn, en 1962, les Laboratoires Pierre Fabre œuvrent depuis la fin des années 1980 dans le domaine de la recherche et du développement de molécules thérapeutiques en oncologie. Des médicaments de chimiothérapie, d’abord, mais aussi, aujourd’hui, de nouvelles molécules plus efficaces et généralement mieux tolérées : les thérapies ciblées.
Constituant l’une des incarnations de la médecine de précision, cette approche suscite aujourd’hui un vif intérêt de la part des grands laboratoires pharmaceutiques, mais aussi d’une myriade de startups et de biotechs. Outre son travail de R&D interne, mené au sein de l’Oncopôle de Toulouse, le groupe Pierre Fabre mise sur l’acquisition ou l’établissement de partenariats stratégiques avec des jeunes pousses et entreprises du monde entier. Une stratégie qui lui a permis, au cours des dernières années, de considérablement étoffer son portefeuille de traitements innovants contre différents types de cancer. C’est ce que nous explique Francesco Hofmann, vice-président et directeur R&D de la division Medical Care des Laboratoires Pierre Fabre, qui nous éclaire au passage sur l’évolution plus globale d’un domaine en plein essor.
Techniques de l’Ingénieur : Pouvez-vous, pour commencer, nous retracer brièvement le parcours qui vous a conduit à rejoindre le groupe Pierre Fabre, en 2021 ?
Après avoir décroché un doctorat en biochimie à l’École polytechnique fédérale de Zurich, Francesco Hofmann est passé par la Harvard Medical School, puis par le groupe Novartis, avant de rejoindre, en 2021, les Laboratoires Pierre Fabre.
Francesco Hofmann : J’ai effectivement rejoint les Laboratoires Pierre Fabre il y a presque quatre ans maintenant, en tant que directeur R&D de la division pharmaceutique du groupe, qui comprend également une division dermo-cosmétique.
Avant cela, j’ai notamment travaillé une vingtaine d’années chez Novartis, où j’ai occupé différents postes liés à la recherche en oncologie, et notamment, pour le plus récent d’entre eux, celui de responsable au niveau mondial de la découverte de médicaments.
Avant de rejoindre Novartis, j’ai passé quatre ans au Dana-Farber Cancer Institute de la Harvard Medical School, à Boston, où j’ai mené des travaux de recherche sur le cancer.
Quant à ma formation initiale, j’ai étudié la biochimie, puis obtenu un doctorat dans ce domaine à l’École polytechnique fédérale de Zurich (ETH), en 1993. Je suis d’ailleurs originaire de Suisse, et plus précisément de sa partie italophone.
Quelle importance la recherche en oncologie revêt-elle pour les Laboratoires Pierre Fabre ?
L’oncologie est un domaine clé pour la division pharmaceutique du groupe Pierre Fabre, et ce, depuis ses débuts, il y a plus de 30 ans maintenant. Le domaine était alors essentiellement centré sur la chimiothérapie. Le laboratoire a ainsi notamment contribué au développement de molécules thérapeutiques telles que la vinorelbine (Navelbine®), toujours utilisée aujourd’hui.
À la fin des années 2010, Pierre Fabre a pris un tournant, en se lançant dans le domaine des thérapies ciblées, aux côtés tout d’abord d’Array BioPharma, puis de Pfizer, qui l’a en effet acquise en 2019. Ensemble, nous avons ainsi co-développé et mis sur le marché deux premières molécules de thérapie ciblée : l’encorafénib et le binimetinib, qui ciblent respectivement les gènes codant pour les protéines B-RAF et MEK.
L’association de ces deux molécules a d’abord été approuvée pour le traitement du mélanome chez les patients porteurs d’une mutation du gène BRAF, un sous-ensemble important, au sein duquel cette association s’est révélée très efficace.
Elle a également été approuvée plus récemment, en 2024, pour traiter un autre type de cancer – le cancer du poumon non à petites cellules – chez des patients porteurs de cette même mutation du gène BRAF. Elle s’est là aussi révélée efficace.
Enfin, l’encorafénib est également approuvé pour traiter les patients porteurs d’une mutation du gène BRAF et atteints d’un cancer colorectal ; en association, cette fois, avec un anticorps monoclonal chimérique ciblant le récepteur du facteur de croissance épidermique (EGFR[1]) : le cétuximab.
Ces molécules et cette palette d’indications que je viens de décrire illustrent ainsi tout l’enjeu de cette approche en plein essor que sont les thérapies ciblées : sélectionner une population précise de patients porteurs d’une anomalie génétique spécifique, auxquels on administre alors un traitement pensé, justement, pour être aussi spécifique que possible sur cette cible. Il s’agit d’un vrai changement de paradigme.
L’équipe R&D des Laboratoires Pierre Fabre, œuvre notamment à une meilleure compréhension des mécanismes biologiques des cancers. Copyright@PB-Centre-Oncopole
Quelles sont, aujourd’hui, vos missions en tant que directeur R&D de la division Medical Care des Laboratoires Pierre Fabre ?
J’ai rejoint le groupe avec pour principale mission de repenser l’organisation de la R&D, en vue notamment de restructurer notre portefeuille de produits. C’est sur cette base que j’ai élaboré un plan stratégique quinquennal, centré sur la constitution d’un portefeuille couvrant l’oncologie, mais aussi la dermatologie et certaines maladies rares.
Pour mener à bien cette feuille de route, nous avons bien entendu fait appel à nos équipes de développement commercial, afin d’identifier avec elles de nouvelles opportunités, tant au stade clinique que de la recherche.
Cela nous déjà conduit à intégrer à notre portefeuille, au cours des deux dernières années, quatre nouvelles molécules dans le domaine des thérapies ciblées en oncologie. Deux d’entre elles – deux molécules ciblant de manière sélective des mutations du récepteur du facteur de croissance épidermique (EGFR) que j’évoquais précédemment – sont le fruit d’un partenariat noué avec Scorpion Therapeutics. Elles font actuellement l’objet d’études cliniques chez l’humain.
Nous avons également réalisé plusieurs acquisitions : celle de Vertical Bio, à l’origine du développement d’une molécule thérapeutique très innovante destinée à des patients souffrant d’un cancer du poumon non à petites cellules et présentant une altération du récepteur MET ; ou encore celle des actifs de Kinnate Biopharma, qui a quant à elle mis au point l’exarafénib, un inhibiteur dit « pan-RAF », complémentaire à l’encorafénib que j’évoquais précédemment. Nous envisageons ainsi de poursuivre le développement de ce traitement en ciblant un sous-groupe différent de patients atteints de mélanome ; des patients porteurs d’une mutation du gène NRAS cette fois, et non BRAF. Nous travaillons actuellement à l’optimisation de la posologie et du schéma thérapeutique de l’exarafénib, utilisé en association avec l’inhibiteur d’activité de la protéine MEK que j’évoquais au début de notre entretien, le binimétinib.
Voilà donc les pistes que nous explorons pour étoffer notre portefeuille en matière de traitements au stade clinique.
Sur le plan de la recherche, nous avons pris la décision stratégique de renforcer notre équipe en interne, afin de pouvoir nous concentrer sur la compréhension des mécanismes biologiques des cancers, et sur les aspects translationnels. Nous envisageons par ailleurs également de collaborer avec des biotechs innovantes pour la fabrication de nos futures molécules thérapeutiques.
Nous avons ainsi d’ores et déjà conclu deux partenariats. Le premier, avec la société britannique Vernalis, spécialisée dans la découverte de médicaments basés sur de petites molécules dans le domaine de l’oncologie. Le second, tout récemment, avec l’entreprise suisse RedRidge Bio, spécialiste notamment des anticorps biparatopiques (ABP). Il s’agit d’anticorps capables de reconnaître deux parties distinctes d’un antigène, contrairement aux anticorps conventionnels, qui ne possèdent quant à eux qu’un seul site de fixation. Cela se traduit ainsi par une affinité et une efficacité accrues. Cela ouvre la voie à la découverte de nouveaux traitements en oncologie, mais aussi en dermatologie ou dans le domaine des maladies rares.
Si la recherche en oncologie représente aujourd’hui une large part de nos travaux de R&D, nous visons en effet également, comme je l’évoquais précédemment, le développement de notre portefeuille de traitements au stade clinique dans les domaines de la dermatologie et des maladies rares.
Outre le fait qu’il nous ait permis de regrouper nos équipes en un seul et même lieu, ce site nous a d’abord séduits pour les possibilités qu’il offre en matière de partenariats, notamment avec d’autres laboratoires R&D qu’il accueille.
De plus, ce lieu facilite grandement nos interactions avec le monde universitaire, notamment via l’Institut universitaire du Cancer, situé à quelques pas seulement de notre laboratoire, au sein du campus Santé du Futur. Cet écosystème académique nous permet d’ailleurs également d’accéder à un vivier de talents particulièrement riche, indispensable pour étoffer notre équipe.
Parallèlement à toutes ces nouvelles approches thérapeutiques que vous évoquiez, un changement majeur est en train de s’opérer dans le domaine de la recherche pharmaceutique : l’utilisation de modèles d’IA… Quelle importance ce champ technologique en plein essor revêt-il à vos yeux ?
L’arrivée de l’IA dans notre domaine transforme évidemment en profondeur notre façon de faire. Je ne vois toutefois pas l’IA comme quelque chose susceptible de tout remplacer, mais plutôt comme un moyen d’adopter des approches nouvelles en matière de R&D. Prenons l’exemple de la découverte de médicaments : des approches basées sur l’intelligence artificielle, et plus particulièrement l’apprentissage automatique, peuvent déjà être mises au service de l’identification et de l’optimisation de petites molécules. Auparavant, il nous fallait synthétiser de multiples variantes de ces petites molécules, avant de les tester en laboratoire… Ce qui demandait évidemment du temps et beaucoup de ressources. Aujourd’hui, des modélisations in silico nous permettent de tester des milliers, voire des centaines de milliers de variantes, et de ne sélectionner ainsi que les plus prometteuses, avant de les synthétiser pour de bon et de les tester en laboratoire.
Cela augure naturellement une accélération de la recherche pharmaceutique, mais va également nous permettre d’explorer des approches qui nous semblaient jusqu’alors inaccessibles. Je pense notamment à certaines cibles à la structure tridimensionnelle complexe et mal comprise. Des modèles d’IA permettent en effet de simuler leur structure in silico, et, ainsi, de réaliser un criblage préalable nous permettant de ne choisir que quelques candidats médicaments potentiels.
Du côté de la recherche clinique, l’IA nous semble également un moyen de parfaire la sélection des patients participant à nos études cliniques.
Enfin, les algorithmes d’IA pourraient également nous permettre d’accélérer certaines tâches liées à des aspects réglementaires de la recherche clinique, en automatisant par exemple la rédaction de certains documents, ou en nous aidant à saisir et à analyser certaines données.
Ce vaste champ qu’est l’IA est donc incontestablement en plein essor dans le domaine de la recherche pharmaceutique. Je pense d’ailleurs qu’en la matière nous n’en sommes qu’au début d’une nouvelle ère.
Cela ne pourrait-il pas aussi, in fine, permettre de réduire le coût des traitements ?
C’est une bonne question… De toute évidence, les investissements nécessaires à la découverte et au développement de nouveaux traitements vont rester importants, au vu notamment de la complexité des technologies mises en œuvre. Il est ainsi peu probable que ces coûts diminuent drastiquement à l’échelle d’un projet de recherche en particulier, bien que le temps pour le mener à bien soit amené à se réduire.
En revanche, toutes ces nouvelles approches que j’évoquais pourraient bien nous aider, plus globalement, à réduire le taux d’échec… Ce qui pourrait, mécaniquement, nous permettre de mener à bien davantage de projets avec un même budget.
Une dernière question, sans doute un peu naïve… Pensez-vous que toutes ces avancées que vous venez de nous décrire pourraient un jour nous permettre de guérir, sans exception, tous les patients atteints de cancers, quels qu’ils soient ?
Cela me semble difficile à prédire… Il faut garder à l’esprit le fait qu’il existe une multitude de types de cancers, qui ont en outre la faculté d’évoluer en réponse aux médicaments. Cela implique ainsi de mettre en œuvre sans cesse de nouvelles générations de traitements. Je pense cependant que toutes ces avancées que j’ai décrites permettront de réduire le temps qui s’écoule entre la découverte d’un candidat médicament et son approbation définitive à l’issue d’études cliniques. Cela devrait ainsi permettre, je pense, à un plus grand nombre de candidats médicaments d’atteindre le stade clinique en un temps donné. Je suis convaincu que cette évolution permettra de traiter un plus grand nombre de tumeurs différentes, avec en outre, espérons-le, un meilleur profil d’efficacité, de sécurité, mais aussi de tolérance.
Dans un entretien pour La Tribune Dimanche, Éric Lombard a déclaré : « Nous sommes dans une bataille qui vise en réalité à nous affaiblir. Nous devons protéger le modèle européen. Alors, oui, j’en appelle au patriotisme des chefs d’entreprise ».
Le patriotisme économique – ce qu’il est, ce qu’il n’est pas
Bien que l’on en parle beaucoup ces derniers temps, cette question du patriotisme économique revient régulièrement sur la table, depuis que ce concept a été porté par Dominique de Villepin en 2005. Et déjà, à l’époque, il faisait polémique, car associé à de l’isolationnisme.
20 ans plus tard, alors que l’Europe se retrouve au beau milieu d’une guerre commerciale entre les États-Unis et la Chine et doit plus que jamais protéger son économie et ses emplois, l’idée d’un patriotisme économique revient sur la table. Mais comment défendre les intérêts des entreprises françaises, sans les pénaliser à l’international ?
Dans le journal Marianne, Éric Delbecque, expert en intelligence économique et stratégique, donne sa vision du patriotisme économique. Selon lui, le patriotisme économique doit viser « la préservation du périmètre économique stratégique de souveraineté, la vitalité et le développement des territoires, la construction d’une véritable Europe puissance. »
En revanche, ce patriotisme ne peut pas être « un repli sur soi nationaliste, un dispositif protectionniste, le prétexte d’un interventionnisme désordonné, ou d’une bureaucratie numérique envahissante et inefficace. »
Par ailleurs, comme le dit Éric Delbecque, ce patriotisme économique doit aussi faire naître une « culture de la réussite et de la puissance nationale et européenne qui dépasse l’absurde clivage public/privé et donne corps au projet d’Europe des nations. »
Protéger l’économie européenne sans faire de l’isolationnisme est un défi
Éric Lombard en appelle donc au « patriotisme des chefs d’entreprise », une formule déjà employée par le passé, par Bruno Le Maire et Arnaud Montebourg, chaque fois qu’il s’agissait de communiquer sur la défense de l’économie française.
Néanmoins, ces efforts demandés aux entrepreneurs sont malheureusement en décalage avec la situation actuelle des entreprises, dont les difficultés s’accumulent. Car pour elles, il est extrêmement difficile de peser face à la Chine et aux États-Unis. C’était déjà le cas avant 2025 (coût de l’énergie élevé[1], réglementations trop contraignantes…), mais la situation risque d’empirer si le déferlement annoncé de produits chinois sur le marché européen se produit bel et bien.
Alors, plutôt que de convaincre les entreprises de ne pas investir aux États-Unis, la meilleure façon de protéger les intérêts de l’Europe n’est-elle pas plutôt de renforcer nos entreprises, en leur offrant les moyens de se défendre ? Notamment par un assouplissement des charges administratives, qui coûtent à l’UE chaque année 10 % du potentiel de son PIB, selon Mario Draghi.
Trump, une opportunité pour l’Europe ?
Bernard Cohen-Hadad, président de la Confédération des petites et moyennes entreprises d’Île-de-France (CPME), voit même la politique de Trump comme une « formidable opportunité pour l’Euro, l’Europe, les entreprises françaises et européennes ».
Pourquoi affirme-t-il cela ? Parce que Trump nous pousse dans nos retranchements. Il nous oblige à protéger notre zone de libre-échange et « à prioriser le travail alors qu’il y a trop de bureaucratie en Europe ».
Bernard Cohen-Hadad n’est d’ailleurs pas le seul à voir la politique de Trump comme une opportunité. Car, si les mesures protectionnistes de Trump ont pour but de renforcer l’économie américaine, il est fort probable que l’effet inverse se produise.
Selon le cabinet JPMorgan, le pays entrera d’ailleurs en récession en 2025, de manière quasi certaine. C’est aussi l’avis du gouverneur de la Banque de France, François Villeroy de Galhau, qui qualifie cette politique de « tragédie pour l’économie américaine ».
Pour l’Europe en revanche, la période de turbulences actuelle pourrait bien être temporaire. Mais tout dépendra de la capacité de l’UE (et de la France) à réagir de manière intelligente et mesurée, face au chaos provoqué par Trump.
Les dernières décisions de l’UE semblent d’ailleurs aller dans ce sens, puisque le commissaire à l’économie européen s’accroche toujours à un accord gagnant-gagnant entre l’UE et les États-Unis, tout en se tenant prêt à riposter aux droits de douane américains.
Dans ce contexte de guerre commerciale, brandir le patriotisme économique apparaît donc comme une manière de montrer les muscles, plutôt qu’un réel appel aux armes.
[1] Le prix de l’électricité a été multiplié par 5 en Europe entre 2019 et 2023
Depuis plusieurs mois, dans la ville portuaire de Gabès, située au sud-est de la Tunisie, la population se mobilise sur le site de l’usine du GCT[1]. Les habitants viennent y exprimer leurs réticences concernant l’accueil d’un « projet pilote » pour la production d’hydrogène vert destiné à l’export.
La production d’hydrogène vert s’effectue par électrolyse de l’eau alimentée par des énergies renouvelables ; elle implique de puiser de grands volumes d’eau dans un pays déjà en proie à un important stress hydrique. La production tunisienne mobiliserait jusqu’à 248 millions de mètres cubes d’eau dessalée d’ici à 2050. Même si l’eau douce n’est pas utilisée comme source principale, le dessalement de l’eau de mer demeure un procédé coûteux.
En outre, le projet nécessitera plus de 500 000 hectares de terres pour l’implantation d’éoliennes ou de panneaux photovoltaïques dans le sud de la Tunisie.
Des conséquences sur l’environnement qui amplifieraient les difficultés auxquelles sont déjà exposés les habitants qui côtoient au quotidien l’air pollué et les eaux contaminées par les rejets des produits chimiques dans le golfe de Gabès. Depuis 45 ans, ce sont 5 millions de tonnes de phosphogypse qui sont rejetées chaque année[3]. Aucune étude épidémiologique n’a été effectuée malgré les alertes des experts.
La Tunisie : en pole position dans la course à l’or vert
En mai 2024, la Tunisie a signé un accord historique avec l’entreprise TE H2[5] et l’autrichien Verbund pour construire une usine de production d’hydrogène vert à l’échelle du gigawatt avec une capacité de production initiale de 200 000 tonnes par an.
Cette stratégie illustre la volonté de faire du pays un exportateur majeur d’hydrogène vert avec une production annuelle de 8,3 millions de tonnes d’ici 2050, dont 6,3 millions de tonnes seront exportées vers l’Europe.
Pour relier la Tunisie et l’Algérie à l’Europe, un hydrogénoduc, baptisé « SoutH2-Corridor » d’une longueur de 3 300 km, devrait voir le jour pour faire transiter 1,6 million de tonnes d’hydrogène vert d’ici 2040.
Rappelons qu’en 2017, le gouvernement s’était engagé à délocaliser les usines du GCT d’ici 8 ans et demi. Ce n’est, semble-t-il, plus qu’un lointain souvenir…
[1] Groupe chimique tunisien
[2] Confédération des Entreprises Citoyennes de Tunisie
[3] Selon la Commission technique de l’étude de la situation environnementale à Gabès, Rapport final sur l’arrêt du déversement du phosphogypse dans le Golfe de Gabès, février 2016
[4] Agence de coopération internationale allemande pour le développement
[5] Consortium formé par TotalEnergies (80 %) et le groupe italien Eren (20 %)
Pour notre dossier de décembre, « Compétitivité de l’industrie européenne : l’union fait la force ? », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.
En France, les transports sont responsables d’environ un tiers des émissions de gaz à effet de serre, essentiellement dues à l’utilisation du pétrole.
Afin de réduire cette consommation de pétrole et de diminuer les émissions de CO2, l’Europe prévoit d’interdire les véhicules neufs à moteur à combustion interne à partir de 2035, un secteur dans lequel elle excelle. Cette mesure, qui risque de l’affaiblir au profit de la Chine – en avance sur les véhicules électriques – aura dès lors des conséquences pour l’Europe, tant au niveau énergétique, qu’économique ou sociétal.
Par ailleurs, si le développement de véhicules utilisant l’électricité comme source d’énergie est privilégié pour parvenir à cette transition, l’électricité devra être décarbonée, c’est-à-dire produite soit à partir d’énergies renouvelables, soit à partir du nucléaire.
De plus, la fabrication des batteries, piles à combustible et moteurs électriques, nécessite des métaux affichant un prix d’autant plus important que, comme le pétrole, ils sont disponibles en quantité finie sur Terre.
Pour sa part, l’hydrogène est envisagé comme un carburant alternatif, car il n’émet pas de CO2.
L’électricité pour la voiture
Électricité et hydrogène ne sont que des vecteurs énergétiques. Ils nécessitent dès lors une source d’énergie pour être produits ou synthétisés. Les éventuelles émissions de CO2 et les pollutions ne proviennent donc plus du carburant, mais de la centrale électrique permettant de produire cette énergie.
Dans le monde, l’électricité est produite majoritairement à partir de charbon, un combustible fortement émetteur de CO2. À l’inverse, en France, cette production se fait essentiellement sans émission de CO2, puisqu’elle s’appuie sur le nucléaire, l’hydraulique, le photovoltaïque et les bioénergies. Cependant, pour assurer la stabilité du réseau électrique, la production doit pouvoir s’ajuster à la demande. L’intermittence des énergies renouvelables peut dès lors constituer un frein, nécessitant l’appel aux centrales à gaz ou au charbon. L’énergie nucléaire produit, pour sa part, de l’électricité sans émission de CO2, mais son coût peut varier en fonction de différents facteurs.
Le stockage de l’électricité est, de plus, le point faible de la filière énergétique, nécessitant un changement de nos usages pour mieux utiliser les énergies intermittentes.
Ce stockage à grande échelle permet d’équilibrer le réseau électrique et de répondre à des demandes importantes d’électricité, notamment lors de recharges inattendues. Les stations de transfert d’énergie par pompage (STEP) sont principalement utilisées pour ce stockage. D’autres procédés existent, tels que le novateur procédé SEPT (stockage d’électricité par pompage thermique), qui utilise des pompes à chaleur pour augmenter le rendement de l’installation.
Enfin, on ne saurait, de nos jours, se passer de batteries, que ce soit pour nos appareils nomades ou pour les voitures électriques. Ces batteries doivent pouvoir stocker un maximum d’énergie et disposer d’une puissance suffisante pour la fonction à laquelle elles se destinent. Par ailleurs, leur utilisation doit être sans danger. La durée de vie de ces batteries est, de plus, un élément d’importance, qui varie selon la chimie mise en œuvre, mais également en fonction du nombre de cycles de recharge.
L’hydrogène dans les véhicules
La molécule H2, indispensable pour alimenter la pile à combustible d’une voiture à hydrogène, est produite à partir de combustibles fossiles ou bien à partir d’eau. Différents procédés – vaporeformage du gaz naturel ou du méthane, électrolyse de l’eau utilisant l’électricité renouvelable ou nucléaire, pyrolyse du méthane – permettent d’obtenir de l’hydrogène, que l’on distingue alors par des couleurs selon les procédés choisis. Enfin, il existe un hydrogène naturel à l’état natif, mais ses quantités et ses modes d’extraction sont encore méconnues.
La meilleure solution pour décarboner la production d’hydrogène est la technique d’électrolyse de l’eau, c’est-à-dire utilisant une électricité d’origine renouvelable ou nucléaire. Ce procédé nécessite des électrolyseurs, majoritairement fabriqués aux États-Unis ou en Chine.
Pour les véhicules, l’hydrogène est stocké sous forme comprimée, nécessitant parfois des réservoirs fabriqués à partir de matériaux composites supportant de fortes pressions. L’hydrogène pourrait également être stocké sous forme liquide, mais ce procédé a peu d’intérêt pour les automobiles. Il pourrait également être stocké dans un liquide ou un solide, mais ce procédé nécessite des échanges thermiques et des catalyseurs, des méthodes qui n’ont pas encore atteint la maturité industrielle nécessaire à la mobilité électrique.
Quel que soit le mode de stockage, la sécurité doit être sans faille lors de l’utilisation de l’hydrogène en mobilité.
Batteries et piles à combustible
La batterie Li-ion domine actuellement le marché de la voiture électrique, mais d’autres procédés commencent à émerger. Parmi les points forts d’une batterie Li-ion, on compte son voltage nominal, le nombre de cycles profonds qu’elle permet, sa température d’emballement, son taux de charge et de décharge. Le prix élevé de la batterie complète est susceptible d’évoluer rapidement selon les progrès en recherche et développement.
Actuellement, des études laissent envisager de nouvelles technologies de batterie pour les véhicules électriques.
Pour les voitures à hydrogène, la pile à combustible permet de fournir l’électricité nécessaire au fonctionnement du moteur. Cette pile permet de réaliser l’inverse de l’électrolyse de l’eau. Si le procédé est simple, sa réalisation est cependant difficile et sa fiabilité n’est pas exemplaire.
Quel véhicule ?
L’hydrogène reste un carburant intéressant à première vue, car il ne produit que de l’eau. Toutefois, il ne faut pas perdre de vue que sa production peut être source de pollutions et d’émissions de CO2, en fonction de l’énergie choisie.
Au-delà de l’aspect environnemental, indispensable, le choix de l’un ou l’autre des véhicules doit donc se faire en fonction de la source permettant de produire l’énergie, du coût de cette production et de l’usage du véhicule, ainsi que des possibilités de charge existantes. Si des subventions sont parfois allouées pour l’achat d’un véhicule électrique ou à hydrogène, des freins, sociétaux notamment, peuvent ralentir le développement de ces différents modes de mobilité.
L’Europe à la peine
L’Europe a été l’un des pionniers dans le domaine des batteries Li-ion. Elle a ainsi investi dans la construction d’usines géantes de batterie. Cependant, leur développement a fortement ralenti récemment, pour plusieurs raisons. Tout d’abord, la Chine produit la majorité des batteries pour véhicules électriques. Elle contrôle en effet une bonne part des matières premières nécessaires à ces équipements. De plus, les technologies évoluant rapidement, des adaptations sont indispensables. Or, celles-ci ne sont toujours pas envisageables rapidement au niveau de l’Europe qui souffre d’une réglementation environnementale stricte et de contraintes administratives pesantes.
Ensuite, les coûts de l’énergie ainsi que de la main-d’œuvre sont nettement plus élevés en Europe qu’en Asie. Enfin, l’instabilité des politiques publiques et des régulations n’est pas propice au développement du secteur en Europe.
Toutes ces raisons ont conduit à une moindre compétitivité des gigafactories européennes de batteries, comparées à ces concurrentes asiatiques, un frein auquel s’ajoute celui d’un recul des ventes de véhicules électriques en 2024.
Entre clarification des objectifs, ajustement des ambitions et conditions encore à réunir, les acteurs tricolores de l’hydrogène accueillent cette stratégie révisée avec une forme de soulagement, et des interrogations persistantes.
France Hydrogène, association regroupant plus de 400 membres acteurs de la filière hydrogène sur l’ensemble de la chaîne de valeur de la molécule, a détaillé pour Techniques de l’Ingénieur les tenants et les aboutissants de la stratégie révisée, par la voix de son président Philippe Boucly.
Techniques de l’Ingénieur : La publication de la stratégie révisée était attendue depuis longtemps. Est-elle à la hauteur des attentes de la filière ?
Philippe Boucly : La stratégie révisée était en effet attendue depuis 2023, mais elle a connu de nombreux retards avant sa publication ce mercredi 16 avril. Elle a le mérite de donner un cap, de réaffirmer l’engagement de l’État, et de structurer la filière autour de priorités claires comme l’industrie, la mobilité lourde et intensive, ou encore le développement des compétences.
L’enveloppe de 9 milliards d’euros d’aides dont 4 milliards d’euros pour le mécanisme de soutien à la production d’électrolyseurs est certes confirmée, néanmoins certains objectifs sont revus à la baisse : le cap initial de 6,5 GW d’électrolyse déployés en 2030 est ramené à 4,5 GW, ce qui est réaliste compte tenu des retards accumulés. En revanche, nous pensons que le cap de 8 GW en 2035, à la place des 10 GW initialement prévus, doit être un objectif mais pas un plafond.
Quels sont les enseignements majeurs à retenir de cette nouvelle stratégie ?
La stratégie révisée présente plusieurs avancées substantielles qui, si elles sont correctement mises en œuvre, peuvent vraiment consolider la filière française de l’hydrogène.
Philippe Boucly, président de France Hydrogène
Premièrement, elle clarifie les objectifs à moyen terme. L’objectif d’électrolyse à 4,5 GW est plus prudent, mais reste ambitieux. Ce réajustement permet de recoller aux capacités réelles du tissu industriel et de planifier les investissements de manière plus crédible. Ensuite, cette révision introduit une vision plus systémique du rôle des électrolyseurs. En reconnaissant leur statut de « consommateurs flexibles », la stratégie permet d’intégrer l’hydrogène dans une logique de gestion fine des réseaux électriques. Les électrolyseurs pourront adapter leur consommation en fonction de la disponibilité d’électricité , participant ainsi à la stabilité du réseau. C’est un levier important pour réduire le coût de production de l’hydrogène en s’effaçant ou en valorisant les excédents d’électricité renouvelable. Troisième point important, cette révision met enfin en avant la nécessité de développer des infrastructures spécifiques à l’hydrogène : La question des réseaux – à la fois de transport et de stockage, notamment en cavités salines – est abordée de manière concrète. On sort d’une logique de démonstrateurs isolés pour aller vers une vraie réflexion de filière intégrée, notamment sur les grands bassins industriels et portuaires. En outre, la stratégie reconnaît les enjeux liés à l’exportation des technologies françaises. Ce soutien à l’export, notamment en assouplissant certaines règles de financement, est crucial pour nos industriels, qui sont aujourd’hui confrontés à une forte concurrence internationale sur le marché des électrolyseurs, des piles à combustible et des composants. En ce qui concerne les importations, la stratégie révisée clarifie la position de la France. Alors que d’autres pays, l’Allemagne par exemple, font reposer leur stratégie sur des importations importantes, cette stratégie acte que de tels projets à grande échelle ne seront pas compétitifs ni opérationnels avant 2035-2040. Elle recentre donc l’effort sur le développement d’une filière domestique robuste. Enfin, cette révision souligne, s’il en était besoin, que le coût de l’électricité reste le facteur déterminant du coût de production de l’hydrogène par électrolyse. En cela, la stratégie appelle à mettre en place des contrats à long terme, à maintenir certaines exonérations fiscales sur l’électricité consommée par les électrolyseurs, et à obtenir de Bruxelles une prolongation au-delà de 2030 de la compensation du coût indirect du carbone.
Quelles sont les conditions supplémentaires à réunir pour que la stratégie nationale hydrogène puisse réellement se traduire en déploiement industriel ?
La stratégie révisée fixe un cap clair, c’est vrai, mais sa mise en œuvre effective repose sur un certain nombre de conditions techniques, financières, réglementaires et opérationnelles qui restent à consolider. L’un des points les plus urgents, c’est la traduction budgétaire. On nous annonce 4 milliards d’euros de soutien à la production, répartis sur plusieurs tranches (200 MW, 250 MW, puis 550 MW), mais pour l’instant, seule une enveloppe de 492 millions d’euros est inscrite dans la loi de finances 2025. Ce montant semble insuffisant si l’on prend en compte les besoins estimés. Sans clarification rapide sur la répartition des fonds et la garantie de leur pérennité sur plusieurs années, les acteurs privés ne s’engageront pas dans des décisions lourdes d’investissement. Ensuite, l’accès à une électricité à prix compétitif est un point central. En effet, 75 % du coût de l’hydrogène par électrolyse dépend du prix de l’électricité. La stratégie reconnaît cela, mais il faut maintenant contractualiser les conditions permettant de sécuriser cet accès via des contrats d’achat d’électricité à long terme, et des exonérations de taxes et de tarifs d’acheminement pour l’électricité consommée par les électrolyseurs. De plus, de nombreux textes d’application manquent encore à l’appel. La TIRUERT par exemple, qui doit permettre d’intégrer l’hydrogène dans les obligations de distribution d’énergies renouvelables, n’est toujours pas opérationnelle. Il faudra probablement créer un compartiment spécifique pour l’hydrogène dans ce dispositif. Il faut également une visibilité sur le long terme en ce qui concerne les dispositifs de soutien. L’État doit non seulement publier les textes, mais aussi garantir que les règles du jeu ne changent pas tous les 18 mois. Il faut une trajectoire d’investissement claire, un calendrier d’appels à projets prévisible, et une transparence totale sur les critères d’éligibilité. Enfin, le développement d’un réseau hydrogène – pour le transport et le stockage – est fondamental. Aujourd’hui, les industriels sont prêts à produire et consommer de l’hydrogène, mais il n’y a pas encore les tuyaux pour les relier. Il faut anticiper les besoins futurs, et dimensionner les infrastructures dès maintenant. Aussi, la stratégie doit mieux prendre en compte les cas d’usage spécifiques où la batterie ne suffit pas : nécessité d’une longue autonomie sur la journée, d’une forte disponibilité, un temps de recharge court, un maintien de la charge utile ou des besoins énergétiques plus importants (bennes à ordures, remorques frigorifiques, conditions climatiques sévères, dénivelés importants) p… Il ne s’agit pas de tout miser sur l’hydrogène dans la mobilité, mais de reconnaître sa complémentarité avec d’autres modes de transport. Cela suppose aussi de flécher des financements vers les flottes, les stations, les véhicules adaptés, ce qui reste encore trop vague dans les textes actuels.
Quelle place voyez-vous pour la mobilité hydrogène dans cette stratégie ?
La place des mobilités est claire dans la Stratégie : l’hydrogène a un rôle essentiel pour la décarbonation des mobilités lourdes et intensives. Les transports aérien et maritime font l’objet d’obligations réglementaires au niveau européen qui vont les amener à l’incorporation de volumes croissants de carburants de synthèse. Le soutien à l’émergence d’une filière de production d’hydrogène pour la fabrication de carburants synthétiques en France est un des points phares de la Stratégie. Une opportunité dans laquelle la filière française est déjà pleinement engagée, avec des atouts et des acteurs industriels mobilisés.
Nous avons cependant alerté sur le manque de reconnaissance de la mobilité routière hydrogène, qui reste présentée comme secondaire. Pourtant, pour des usages spécifiques que je viens de rappeler, l’électrique à batterie ne suffit pas. Il faut sortir d’une logique d’opposition batterie/hydrogène et acter le fait que les deux sont complémentaires. La mise en place d’un dispositif de soutien au déploiement de véhicules utilitaires légers annoncé par le gouvernement en même temps que la Stratégie est un premier signal donné au déploiement de la mobilité routière intensive.
L’Allemagne semble très en avance sur les infrastructures hydrogène. Est-ce un modèle à suivre ?
L’Allemagne est plus structurée, oui. Elle prévoit par exemple 9000 km de réseau dédié d’ici 2032 et a mis en place un mécanisme de financement des infrastructures par avance remboursable, ce qui permet d’amortir les investissements lourds en début de phase sans pénaliser les premiers clients. En France, nous devons absolument avancer sur ce point, sans quoi les premiers projets risquent d’être freinés par l’absence de réseau opérationnel. L’approche allemande est pragmatique : elle anticipe les besoins futurs plutôt que de suivre la demande, ce qui peut constituer une source d’inspiration.
Et si l’on élargit la comparaison au niveau européen et mondial ?
L’Espagne mise sur son potentiel solaire, mais devra encore démontrer sa capacité à industrialiser. L’Europe reste globalement en retard sur la Chine et les États-Unis. Cela dit, avec cette stratégie révisée, la France recolle au peloton de tête. On ne peut pas faire en trois ou cinq ans ce que d’autres ont mis dix à vingt ans à construire. Ce qui compte maintenant, c’est d’avoir de la visibilité, car sans visibilité, les acteurs n’investiront pas. Aujourd’hui, cette stratégie redonne confiance. Mais la publication du texte n’est qu’un début. Il faut désormais que cette vision soit accompagnée de moyens financiers clairs, visibles, durables. La filière a besoin de cette visibilité pour investir et se développer.
Spécialiste des semiconducteurs, des systèmes embarqués, de la cybersécurité, des technologies photoniques et de l’intelligence artificielle, le pôle accompagne les entreprises et les laboratoires dans la structuration de projets collaboratifs à forte valeur ajoutée.
À l’heure où l’Europe cherche à affirmer sa souveraineté technologique, Techniques de l’Ingénieur a demandé à Olivier Chavrier, directeur opérationnel d’Aktantis[1], quelle était la stratégie européenne en matière d’intelligence artificielle pour exister au sein d’une féroce compétition mondiale, notamment avec les Etats-unis et la Chine, et quels étaient, plus généralement, les atouts français et européens sur les technologies d’intelligence artificielle.
Techniques de l’Ingénieur : Quel est le positionnement actuel de l’Europe dans la compétition mondiale sur l’intelligence artificielle ?
Olivier Chavrier : L’Europe est aujourd’hui à un tournant. Elle a pris conscience de l’importance stratégique de l’IA, mais est arrivée tardivement dans la course, notamment sur les grands modèles d’IA générative.
Contrairement aux États-Unis, qui ont su bâtir très tôt des plateformes numériques capables de collecter et valoriser d’immenses volumes de données, l’Europe ne s’est pas dotée d’un écosystème numérique unifié. Ce retard structurel se double d’un déséquilibre massif dans la capacité d’investissement du vieux continent. Ce qui aboutit à une politique industrielle sur les sujets technologiques souvent confuse voire contradictoire, c’est à mon sens le cas pour l’IA.
Quand les États-Unis concentrent à eux seuls près de 50 % des investissements mondiaux en IA – en majorité des capitaux privés -, l’Europe, elle, dépend encore largement des financements publics, plus fragmentés, plus lents à se mettre en œuvre, et soumis à des arbitrages politiques complexes. La Chine, de son côté, a adopté un modèle centralisé et offensif, avec des moyens colossaux et une stratégie claire. Dans ce contexte, il me semble peu crédible de penser que l’Europe pourra rivaliser à armes égales sur ce terrain, du moins à court ou moyen terme.
Faut-il en conclure que l’Europe doit renoncer à ses ambitions en IA ?
Absolument pas. Mais il faut, selon moi, focaliser nos ambitions et s’orienter vers une stratégie de différenciation. L’Europe n’a pas vocation à copier les États-Unis ou la Chine. Elle a ses propres forces, qu’elle doit reconnaître et valoriser. Dans nos écosystèmes industriels – automobile, aéronautique, santé, automatisation industrielle – les besoins en IA sont très différents. Il s’agit d’IA embarquée, frugale, sécurisée : des solutions optimisées pour fonctionner avec peu de données, dans des environnements contraints, et avec un haut niveau d’exigence en matière de fiabilité et de cybersécurité.
Sur ces segments, l’Europe a de véritables atouts, avec de grands groupes industriels moteurs, des compétences académiques solides, une tradition d’innovation logicielle en particulier dans l’embarqué, et une réglementation qui pousse à l’excellence en matière de sécurité. On ne parle pas là des IA qui font le buzz, mais des IA qui font tourner les usines, les hôpitaux, voler les avions. L’important est donc, à mon avis, d’investir là où nous avons un avantage comparatif, plutôt que de disperser nos forces pour suivre des modèles qui ne sont pas les nôtres et sur lesquels nous rattraperons très difficilement le retard accumulé.
La fragmentation territoriale des stratégies de R et D en France et en Europe est-elle aussi un frein à cette ambition ?
C’est un point crucial. En France, depuis que la gouvernance des pôles de compétitivité a été régionalisée en 2019, nous avons perdu en coordination et en mutualisation des travaux de R et D. Chaque région pilote les écosystèmes d’innovation et peut lancer ses propres appels à projets, ses initiatives, ses recherches.
Certes, il y a une stratégie France 2030 et des stratégies d’accélération au niveau national mais il n’existe plus d’instance nationale de coordination des écosystèmes d’innovation capable de dire que tel ou tel sujet est déjà traité, de partager des données et des indicateurs avec l’ensemble des acteurs et d’éviter parfois une redondance de certaines initiatives. Et à l’échelle européenne, c’est encore plus morcelé, avec pour résultat des doublons, un manque de lisibilité, et une perte d’efficacité.
Sur des sujets technologiques aussi stratégiques que l’intelligence artificielle, les semi-conducteurs ou la cybersécurité, il me semble que l’échelle pertinente est nécessairement européenne. Il faut éviter que chaque territoire se pense stratège et réinvente la roue. Il faut un pilotage plus intégré, une cartographie consolidée des compétences, et des logiques de spécialisation territoriale coordonnées. Sinon, on gaspille de l’énergie, des financements, et on rate l’occasion de créer des champions industriels.
La capacité de l’Europe à être motrice en termes d’innovations technologiques sur l’IA est-elle le meilleur moyen de gagner en souveraineté sur cette technologie ?
Il y a une distinction fondamentale entre l’ambition de souveraineté et la volonté de se différencier technologiquement. On entend en effet beaucoup parler de souveraineté numérique, mais il me semble qu’on manque souvent de précision et de clarté sur les termes. Être souverain, ce n’est pas nécessairement tout faire soi-même, de la puce au logiciel, mais plutôt garder la maîtrise des usages, pouvoir imposer ses conditions d’hébergement, de sécurité, et de régulation et pouvoir sécuriser un accès garanti à des technologies. Il est tout à fait envisageable, voire parfois indispensable, d’utiliser certaines briques technologiques étrangères, à condition qu’elles soient localisées sur notre territoire, hébergées dans des data centers européens, et soumises à notre droit, entre autres.
À l’inverse, vouloir tout développer en interne, sans disposer des compétences, des financements ou de l’écosystème adapté, peut-être à mon sens une erreur stratégique. La souveraineté ne doit pas devenir un alibi. Il faut plutôt penser en termes de chaînes de valeur maîtrisées et de différenciation technologique ciblée. C’est là que l’Europe peut faire la différence, en investissant sur les niches technologiques où elle est forte, et non sur tous les champs dont certains sont fortement dominés par d’autres acteurs non européens.
Le contexte géopolitique international – Covid, guerre en Ukraine, déclarations récentes venues des Etats-Unis – pourrait-il déclencher des mutations salutaires de politique industrielle au niveau européen ?
Oui, il y a une prise de conscience. Les crises successives ont mis en lumière notre dépendance technologique. Des initiatives comme le Chips Act européen, qui vise à relocaliser une partie de la production de semi-conducteurs en Europe, sont des pas dans la bonne direction, même si cela ne suffit pas.
Sur le plan technologique, l’Europe reste dans une posture trop défensive. Il manque une vision partagée et focalisée des priorités, une cartographie stratégique des forces et faiblesses européennes, et une vraie volonté politique de créer des champions industriels. Il faut aussi une évolution du financement, avec une augmentation massive des financements privés en haut de bilan et en dette, une prise de risque assumée, et une coordination entre investissements publics et privés.
Et surtout, il faut que l’Europe accepte de faire des choix. On ne peut pas être compétitif dans tous les domaines. Il faut miser sur ceux où nous avons déjà une base industrielle, des débouchés, et un avantage structurel. Sinon, nous continuerons à courir derrière des modèles qui ne sont pas les nôtres, à disperser nos financements et à en payer à terme le prix.
L’étude de l’APUR, dont le premier volet se concentre sur les « formes, insertions et nuisances de la climatisation à Paris », décrit une métropole tricolore qui commence doucement à voir ses températures grimper, de jour comme de nuit. En effet, le nombre de nuits tropicales – ces nuits où la température ne descend pas sous les 20 °C – dans la capitale pourrait quadrupler d’ici 2100. Face à cette intensification du réchauffement climatique et à l’îlot de chaleur urbain, la climatisation s’impose tout d’abord comme une solution de confort. Mais son développement rapide à Paris soulève, selon l’étude, des enjeux majeurs en matière d’environnement, de paysage urbain et de régulation.
Une ville encore peu climatisée, mais en transition
Si Paris reste loin des niveaux d’équipement de villes comme New York ou Séville, la dynamique est aujourd’hui bien engagée. En 2020, 25 % des logements français étaient climatisés, avec de fortes disparités : 47 % en zone méditerranéenne contre seulement 17 % dans le nord. Les logements parisiens sont aujourd’hui faiblement équipés, mais les commerces et les bureaux affichent des taux beaucoup plus élevés. En particulier, les bâtiments tertiaires récents ou rénovés intègrent systématiquement des dispositifs de refroidissement.
L’étude de l’APUR détaille les technologies utilisées : du climatiseur mobile, très prisé dans les appartements, aux groupes froids en toiture pour les bureaux, en passant par les réseaux urbains de froid. Ces installations, bien que souvent discrètes, peuvent générer des nuisances significatives : bruit, émissions de chaleur sur l’espace public, fuites de fluides frigorigènes à fort pouvoir de réchauffement global. Le rejet d’air chaud à plus de 45 °C est courant, ce qui aggrave les conditions de vie pour les piétons et empêche les habitants de ventiler naturellement leurs logements la nuit, souligne l’étude.
Un cercle vicieux thermique
La climatisation est, de plus, au cœur d’un paradoxe : elle protège les individus du réchauffement, mais contribue à l’amplifier. En effet, chaque climatiseur rejette de la chaleur dans l’espace urbain, ce qui accroît les îlots de chaleur et encourage encore davantage le recours à la climatisation. Ce phénomène de rétroaction positive est particulièrement visible dans les rues étroites et les cours d’immeubles, où l’air chaud s’accumule. C’est ce que cette étude démontre, images infrarouges à l’appui.
Consciente de ces enjeux, la Ville de Paris a inscrit dans son nouveau PLU bioclimatique des dispositions incitant au recours prioritaire au réseau de froid urbain et aux dispositifs passifs. Les systèmes individuels ne sont tolérés qu’en dernier recours, notamment lorsqu’un local requiert une atmosphère contrôlée. Si des règles existent pour limiter le bruit et les odeurs, les rejets de chaleur ne sont aujourd’hui pas encadrés.
À l’heure où l’équipement en climatiseurs progresse rapidement, parfois sans autorisation ni concertation, la question est désormais posée : comment concilier confort thermique, respect du cadre urbain et transition écologique ? L’étude de l’APUR détaille les leviers pour éviter que la climatisation ne devienne l’ennemie du climat : favoriser les systèmes collectifs, renforcer les règles d’installation, soutenir l’innovation en matière de rafraîchissement passif.
La rédaction a demandé à un agent d’IA générative de dégager les informations principales du rapport.
Le texte résultant a été dument relu, analysé, et modifié de façon à proposer au lecteur un contenu à la hauteur de la qualité attendue par le Magazine d’Actualité.
De la découverte en laboratoire à l’innovation industrielle… On scrute pour vous chaque semaine les tendances de l’industrie.
PPE 3 : Vers une nouvelle ère énergétique
La PPE 3, ou la troisième édition de la Programmation Pluriannuelle de l’Énergie, a fait l’objet d’une consultation publique jusqu’en avril 2025. Ce document stratégique est sur le point de redessiner notre politique énergétique. Découvrez les grandes lignes de ce projet déterminant. Tout savoir sur la PPE 3 : le plan qui redéfinit notre politique énergétique
Protection des données et révision du RGPD en Europe
Alors que Donald Trump revient à la Maison Blanche, la question de la souveraineté numérique s’impose en Europe. Entre la révision du RGPD et la dépendance aux GAFAM, les États et entreprises européens doivent repenser leur stratégie pour garantir leur indépendance technologique. L’équilibre numérique mondial bouleversé
L’usine Caremag: un pas vers l’indépendance européenne en terres rares
Fondée en 2019, Carester se distingue par son équipe d’experts cumulant plus de 250 ans d’expérience. Avec la construction de l’usine Caremag, l’entreprise vise à devenir un acteur majeur dans la production d’oxydes de terres rares en Europe, un enjeu stratégique face au monopole chinois L’impact stratégique de Carester sur les terres rares
Corrosion : un coût caché pour l’économie mondiale
Saviez-vous que la corrosion coûte à l’économie mondiale environ 3,4 % du PIB chaque année ? En France, cela représente une perte de 100 milliards d’euros. Pourtant, des solutions existent pour réduire ces coûts de 35 %. Cet article vous explique pourquoi la corrosion est un problème majeur et comment des pratiques de contrôle efficaces peuvent faire la différence. Une économie substantielle grâce à la gestion de la corrosion
Cruz Foam : l’emballage avec des matériaux biosourcés
Avec Marco Rolandi, John Felts a cofondé Cruz Foam pour s’attaquer à la pollution plastique des océans. Ensemble, ils ont développé une mousse biosourcée, transformant les déchets alimentaires et agricoles en solutions d’emballage durables. Cruz Foam participe à transformer l’industrie de l’emballage
La muraille verte de Chine : entre prouesse technologique et défis écologiques
Une équipe de chercheurs chinois a récemment publié une étude dans le Science Bulletin, révélant que la Chine abrite environ 142 milliards d’arbres. Grâce à l’utilisation de la technologie Lidar et de l’intelligence artificielle, ces scientifiques ont pu estimer le nombre d’arbres sur l’ensemble du territoire, bien que le chiffre réel pourrait être encore plus élevé. Cette avancée technologique s’inscrit dans le cadre du projet ambitieux de la muraille verte, visant à freiner l’avancée du désert de Gobi. Lidar et IA : les technologies au service de la forêt chinoise