Priscilla Baker : les sciences chevillées au corps

Techniques de l’Ingénieur vous propose un tête-à-tête avec quatre de ces scientifiques[1], pour évoquer à la fois leur carrière, et leur vision de la place des femmes dans le monde de la recherche scientifique. Pour le troisième entretien de cette série, partons cette fois à la rencontre de la lauréate sud-africaine de ce prix L’Oréal-UNESCO Pour les Femmes et la Science 2025 : la professeure Priscilla Baker, récompensée pour ses travaux de développement de microcapteurs électrochimiques aux multiples applications.

Professeure de chimie et co-directrice de laboratoire au sein de l’Université du Cap-Occidental, en Afrique du Sud, Priscilla Baker est l’une des grandes figures du domaine de la chimie analytique. Attirée par les sciences depuis son plus jeune âge, elle s’est d’abord intéressée à l’océanographie, avant d’être contrainte – dans le contexte sociopolitique particulièrement rude de l’époque – de se tourner vers sa deuxième passion, la chimie analytique. Un vaste domaine dans lequel elle s’est plus particulièrement intéressée au sujet des microcapteurs électrochimiques, avec l’ambition d’œuvrer d’abord et avant tout pour le bien-être général. Une volonté qui s’est traduite par le développement de microcapteurs destinés à une large palette d’applications altruistes, de la surveillance de pollutions environnementales, à la sécurité alimentaire, en passant par le diagnostic médical précoce de maladies telles que le diabète, les troubles cardiaques, ou encore la tuberculose. Outre son travail remarquable, la professeure Priscilla Baker témoigne aussi de sa capacité à surmonter l’adversité à laquelle elle a été confrontée en tant que femme subissant, en outre, la politique ségrégationniste sud-africaine.

Techniques de l’Ingénieur : Qu’est-ce qui vous amenée à consacrer votre carrière à la chimie analytique ?

La professeure sud-africaine Priscilla Baker
La professeure Priscilla Baker a mené ses études entre la fin des années 80 et les années 90, une époque très marquée par les conséquences de l’apartheid qui a sévi en Afrique du Sud jusqu’en 1991. © Fondation L’Oréal

Priscilla Baker : J’ai toujours su que je voulais faire des sciences, tout simplement pour le défi que cela représentait. J’étais une enfant très têtue ! Je remettais toujours les choses en question. C’est ce qui m’a amenée, au départ, à m’orienter vers les sciences, un domaine que je savais difficile, mais dont j’étais curieuse de voir où il me mènerait. Mais, outre mon côté obstiné, d’autres facteurs ont aussi, dans une moindre mesure, contribué à mon choix de faire des sciences.

Au sein de l’école publique dans laquelle j’ai étudié, nous n’étions qu’un petit groupe d’élèves à suivre les enseignements scientifiques, ce qui nous a permis de bénéficier pleinement des ressources de notre établissement, avec aussi, en toile de fond, un petit côté élitiste… Or, la société sud-africaine était à l’époque très stratifiée…

Je devais d’ailleurs initialement passer mon matric [équivalent du baccalauréat français, n.d.l.r.] en 1985, mais cette année-là, nos examens ont été annulés à cause des troubles politiques qui ont frappé l’Afrique du Sud. Nous n’avons pu le passer que l’année suivante, en 1986.

J’ai alors pu entrer en licence, à l’Université du Cap, où j’ai suivi, pendant mes deux premières années, des cours scientifiques assez généraux, de physique et de mathématiques notamment. Ces bases m’ont ensuite permis d’accéder à un nouvel enseignement proposé à l’université : un cours d’océanographie physique[2]. J’ai sauté sur l’occasion de découvrir cette discipline nouvelle pour moi, qui m’a d’emblée paru passionnante.

D’ailleurs, tout était nouveau pour moi à l’université ! Pour des personnes de couleur comme moi, c’était la première fois que nous avions la possibilité de nous inscrire à la fac sans avoir à rédiger de lettre de motivation. Ce sont toutes ces petites avancées qui ont permis de donner un coup d’accélérateur à mon parcours, en me faisant prendre conscience que je pouvais le faire !

J’ai peu à peu découvert à quel point les sciences pouvaient être enrichissantes et stimulantes. Notamment le concept d’erreur en chimie analytique, qui est tout simplement fascinant.

Malheureusement, l’océanographie ne m’a pas menée bien loin… À l’époque, en effet, le contexte politique ne permettait pas aux femmes et aux personnes de couleur de monter à bord des navires de recherche.

Je me suis donc tournée vers ma deuxième spécialité, la chimie analytique. Cela a été le point de départ de la carrière[3] que j’ai poursuivie jusqu’à aujourd’hui.

Vous vous êtes plus particulièrement intéressée au domaine des microcapteurs électrochimiques. De quoi s’agit-il précisément ?

Les microcapteurs électrochimiques sont des dispositifs semi-conducteurs qui peuvent être intégrés à l’interface avec des solutions, mais aussi l’air, voire des surfaces solides.

Fondamentalement parlant, de par la nature électrochimique de ces capteurs, leur fonctionnement repose sur la mesure du mouvement des électrons au sein des systèmes, qui permet ainsi d’en révéler les caractéristiques : la nature chimique des molécules qui les constituent par exemple, ou encore la cinétique de ces systèmes. Ces capteurs peuvent en outre aujourd’hui être imprimés, et intégrés par exemple à des vêtements.

Ils peuvent donc trouver de multiples applications : mesures environnementales, énergétiques, ou encore physiologiques, dans le domaine de la santé, pour la surveillance de maladies non transmissibles. C’est d’ailleurs un domaine d’application majeur ici, en Afrique du Sud : de nombreuses maladies non transmissibles sont en effet étroitement liées au contexte historique, social et économique du pays. Beaucoup de ces pathologies sont la conséquence de nos modes de vie. Or, l’organisation du système scolaire a fait que beaucoup de personnes n’ont, par exemple, pas bénéficié de l’éducation nécessaire en matière d’alimentation.

Si vous ne deviez retenir que quelques exemples d’applications concrètes issues de vos travaux, lesquelles citeriez-vous ?

La professeure sud-africaine Priscilla Baker
La Professeure Priscilla Baker travaille notamment au développement de microcapteurs imprimables, destinés à la détection de biomarqueurs trahissant précocement le développement de maladies telles que le diabète. © Fondation L’Oréal

Au sein du laboratoire que je co-dirige à l’Université du Cap-Occidental – le SensorLab –, mon équipe et moi-même avons, par exemple, développé un capteur capable de détecter précocement la troponine, une protéine du muscle cardiaque dont la libération dans le sang est un signe de détérioration du cœur, et, in fine, d’infarctus du myocarde. Grâce à sa sensibilité, ce capteur permet ainsi une détection bien plus précoce qu’avec un électrocardiogramme d’un potentiel trouble cardiaque. Cela permet donc au patient d’adopter des mesures préventives, à commencer par un rééquilibrage alimentaire.

Nous avons fait de même avec l’acide urique. Cette substance est bien connue car, en excès, elle cause la goutte, une inflammation des articulations. Mais ce que l’on sait moins, c’est qu’elle peut aussi, à moindre concentration, être associée à la dépression chez certaines personnes. On pourrait donc tout à fait imaginer faire bénéficier ces capteurs à des personnes souffrant de dépression, afin de prévenir l’apparition de la goutte.

Plus largement, certains de mes étudiants se penchent aussi sur des applications dans le domaine du système endocrinien, d’autres travaillent plus spécifiquement sur le diagnostic de maladies cardiaques, du diabète ou encore de la tuberculose. Ce travail sur la tuberculose en particulier est d’ailleurs le fruit de notre collaboration avec CY Cergy Paris Université, en France.

Tout cela nous rend très enthousiastes, cette maladie, comme toutes les autres que j’évoquais d’ailleurs, touchant un grand nombre de personnes… Cela illustre clairement à quel point la technologie peut avoir des effets palpables et positifs sur la société.

Cependant, aujourd’hui, l’évolution des techniques est telle qu’une bonne partie du travail de réflexion est déléguée aux machines. J’ai donc à cœur de sensibiliser mes étudiants au danger que représente cette logique de « boîte noire ». Certes, les instruments sont de plus en plus intelligents, mais nous ne devons pas compter sur eux pour penser à notre place ! L’IA est par exemple quelque chose de formidable, mais ne doit pas nous contraindre à sacrifier cette capacité de raisonnement que nous avons au profit de la productivité ou du succès à tout prix.

Comment accueillez-vous ce Prix International L’Oréal-UNESCO Pour les Femmes et la Science qui vous a été décerné le 12 juin dernier ? Pensez-vous que votre exemple puisse inciter d’autres femmes, et plus particulièrement des jeunes filles en âge scolaire, à se lancer elles aussi dans une carrière scientifique ?

C’est un véritable honneur ! J’espère que mon exemple pourra aider la prochaine génération de femmes scientifiques. Notre valeur, en tant que femmes et scientifiques, ne se mesure pas, en effet, au nombre de fois où nous sommes sur le devant de la scène, mais plutôt aux scènes que nous contribuons à construire afin d’y mettre les autres en avant.


[1] La cinquième lauréate de cette 27e édition était absente pour raisons de santé lors de cette cérémonie du 12 juin 2025.

[2] Priscilla Baker est la première femme africaine à avoir obtenu une licence en océanographie physique à l’Université du Cap.

[3] Priscilla Baker est devenue, en 2003, la première universitaire à temps plein nommée au département de Chimie de l’Université du Cap-Occidental.

Métiers de l’industrie : parution du baromètre BlueDocker des salaires 2025

Pour établir ce baromètre, le cabinet de recrutement BlueDocker s’est appuyé sur les données collectées par l’ensemble de ses consultants. Plus de 20 000 candidatures entre 2021 et 2025 ont ainsi été analysées. Les rémunérations présentées dans l’étude sont exprimées en milliers d’euros (k€). Comme en 2024, l’étude est découpée en trois zones : Paris, grandes villes et régions et, comme l’an dernier, une variation de 2 à 5 % a été observée entre les grandes villes.

L’étude complète est disponible à cette adresse.

Salaires : une croissance qui se stabilise, mais des disparités entre régions

Si 2024 a été marquée par une hausse importante des salaires, en 2025, la croissance salariale se stabilise autour de 3 %. Sur la période 2021-2025, le salaire moyen d’un ingénieur qualité junior est ainsi de 35 000 € alors que le salaire médian avoisinait 34 000 € dans l’étude précédente (période 2019-2023). Même chose pour un ingénieur méthodes (38 k€ au lieu de 36,5 k€), ou un ingénieur électrotechnique/génie électrique (38 000 € contre 36 000 €).

Dans certains métiers, les salaires restent stables (ingénieur conception mécanique, ingénieur planification/logistique), en revanche, le salaire moyen d’un chargé d’affaires débutant est en diminution, puisqu’il passe de 37,5 k€ à 34 k€.

Baromètre 2025 : Salaires moyens pour les profils juniors
Baromètre 2025 : Salaires moyens pour les profils juniors (0-2 ans d’expérience)
Baromètre 2024 : Salaires médians pour les profils juniors
Baromètre 2024 : Salaires médians pour les profils juniors (0-2 ans d’expérience)

Concernant les profils seniors, les salaires des directeurs de site, responsables QHSE et responsables méthodes/industrialisation sont en augmentation, contrairement aux responsables achats et responsables Bureaux d’études qui voient leur salaire moyen diminuer.

Baromètre 2025 : Salaires moyens pour les profils seniors
Baromètre 2025 : Salaires moyens pour les profils seniors (5-7 ans d’expérience)
Baromètre 2024 : Salaires médians pour les profils seniors
Baromètre 2024 : Salaires médians pour les profils seniors (5-7 ans d’expérience)

Par ailleurs, un phénomène est aussi en train de prendre de l’ampleur : les écarts entre régions ont tendance à s’accentuer.

Un top 10 des métiers les plus recherchés

Dans son baromètre, BlueDocker a classé les dix métiers les plus recherchés par ses clients. Sans surprise, c’est le métier de technicien de maintenance qui arrive en tête, avec 12,1 % des recherches sur la période 2021-2025 !

Les dessinateurs projeteurs mécanique et électrique se partagent quant à eux la seconde place, devant les responsables de production, suivis des contrôleurs qualité.

Les automaticiens, ingénieurs en conception mécanique, acheteurs industriels, approvisionneurs et ingénieurs électrotechniques figurent également dans ce top 10.

Les 10 métiers les plus recherchés par les clients de BlueDocker (2021 – 2025)

RH : Toujours une pénurie de profils qualifiés

La rareté des compétences qualifiées est malheureusement une tendance forte, surtout dans les métiers de précision, aussi bien en usinage, qu’en soudage ou en maintenance industrielle.

Dans son Éditorial, Thomas Baverel, Fondateur de BlueDocker, précise que « les techniciens de maintenance et les profils électrotechniques, notamment, sont parmi les plus difficiles à recruter. La tension sur ces postes s’intensifie, poussée par le vieillissement des effectifs en poste, une attractivité limitée des formations initiales et une concurrence féroce entre employeurs. »

Considérée depuis longtemps comme un frein à la réindustrialisation de la France, cette pénurie récurrente s’aggrave avec la montée en puissance de secteurs, comme la production de matériel militaire, en lien avec les tensions géopolitiques.

Il est d’ailleurs fort probable que le problème s’aggrave encore dans les années à venir, en raison de la volonté de relancer la filière nucléaire française, ce qui impliquera la formation de nouveaux talents, notamment en soudage.

Néanmoins, comme le souligne Thomas Baverel, « la formation prend du temps, surtout dans des métiers techniques où l’expertise s’acquiert sur le terrain. Il ne suffit pas de former rapidement. Il faut aussi un accompagnement continu et une montée en compétence durable pour que les talents puissent réellement répondre aux besoins des entreprises. C’est un investissement à long terme, et seuls les employeurs les plus structurés et les plus impliqués peuvent s’engager dans cette démarche. »

Face à cette concurrence sur les profils qualifiés, les entreprises doivent donc trouver les moyens de gagner en attractivité. Cela suppose d’adapter leurs stratégies de recrutement, en offrant notamment des conditions de travail flexibles, hybrides et en cherchant à recruter des collaborateurs (pourquoi pas freelances) qui deviendront de vrais partenaires, en vue d’une intégration durable dans l’entreprise.

Claudia Felser : une carrière au carrefour des disciplines

Techniques de l’Ingénieur vous propose un tête-à-tête avec quatre de ces scientifiques[1], pour évoquer à la fois leur carrière, et leur vision de la place des femmes dans le monde de la recherche scientifique. Pour le deuxième entretien de cette série, partons à la rencontre de la lauréate européenne de ce prix L’Oréal-UNESCO Pour les Femmes et la Science 2025 : la professeure Claudia Felser, récompensée pour ses travaux de recherche en physique de la matière condensée.

 

Directrice et membre scientifique de l’Institut Max-Planck de physico-chimie des solides, à Dresde, en Allemagne, la professeure Claudia Felser fait aujourd’hui partie des plus grands experts mondiaux de la physique de la matière condensée. Situés au carrefour des mathématiques, de la physique et de la chimie, ses travaux ont notamment abouti à la découverte et au développement de nouveaux matériaux magnétiques aux multiples applications potentielles, à commencer par la production d’énergie renouvelable, et de vecteurs énergétiques décarbonés. Spécialiste de la « chimie quantique topologique », une théorie permettant, en substance, de prédire les propriétés topologiques des matériaux à partir de l’agencement de leurs atomes, Claudia Felser a par ailleurs à cœur de concilier recherche fondamentale et appliquée. En tant que femme scientifique, elle est également engagée en faveur de l’égalité des genres, au travers notamment de la création du programme NaT-Lab, visant à inciter les jeunes élèves, en particulier les filles, à découvrir et à pratiquer les sciences naturelles.

Techniques de l’Ingénieur : Qu’est-ce qui vous amenée à consacrer votre carrière à la physique de la matière condensée ?

La professeure Claudia Felser
La professeure Claudia Felser voit dans les sciences un moyen de renforcer la démocratie, et de léguer un monde vivable aux prochaines générations. © Fondation L’Oréal

Claudia Felser : Pour être tout à fait honnête, c’est une bonne question… ! (Rires) Je n’ai en effet pas suivi un chemin tout tracé. Mon parcours a même été plutôt sinueux. Je ne m’intéressais pas particulièrement à ce sujet lorsque j’étais enfant, ni même plus tard, au lycée. J’ai néanmoins toujours été attirée par les sciences en général. J’ai lu beaucoup d’ouvrages scientifiques, sur les origines de l’Univers par exemple. C’était une vraie passion pour moi, mais je ne rêvais pas pour autant de devenir scientifique, ni d’étudier précisément le domaine de la physique de la matière condensée.

En entrant à l’université, j’ai commencé par étudier la chimie. Je me suis rendu compte, petit à petit, que les questions qui m’intéressaient se situaient plutôt à la frontière entre chimie et physique. J’ai donc fini par étudier ces deux domaines, en passant sans cesse de l’un à l’autre.

Cela m’a permis d’affiner mes choix, et m’a finalement conduite à m’orienter vers ce domaine précis de la physique de la matière condensée.

J’ai en effet vu dans cette branche de la physique un moyen d’étudier à la fois des questions fondamentales – en réalisant par exemple des travaux très théoriques en astrophysique des hautes énergies – et des questions plus concrètes, centrées sur des applications dans la vie quotidienne.

Je me suis ainsi plus particulièrement intéressée à la topologie et à ses liens avec la chimie lorsqu’il s’agit de produire des matériaux nouveaux avec, comme point de départ, leurs propriétés quantiques spécifiques. Cela m’est apparu comme quelque chose d’absolument passionnant.

La professeure Claudia Felser, au carrefour de la recherche fondamentale et appliquée
Les travaux de la professeure Claudia Felser s’articulent au carrefour de la recherche fondamentale et appliquée. © Fondation L’Oréal

Si vous ne deviez retenir que quelques exemples de découvertes majeures auxquelles vous avez contribué, lesquelles citeriez-vous ? À quelles applications concrètes vos découvertes fondamentales ont-elles d’ores et déjà mené, ou pourront-elles aboutir à l’avenir ?

Mes collègues et moi avons identifié de nombreux matériaux dotés de propriétés topologiques inédites, en utilisant des outils de conception par ordinateur. J’ai notamment travaillé aux côtés du physicien roumain Andrei Bernevig et du physicien sino-américain ShouCheng Zhang [mort en 2018, n.d.l.r.].

Mes connaissances, et l’expertise de mon équipe sur le plan des matériaux et de leurs propriétés topologiques nous ont permis de transposer des concepts assez abstraits de physique quantique vers des matériaux bien réels. Nous avons conçu, puis produit, et enfin étudié les propriétés de ces matériaux, qui se sont bel et bien révélées conformes à ce que nous attendions. C’est d’autant plus intéressant que nous ne sous sommes pas intéressés qu’à une seule de leurs propriétés. Nous en avons visé plusieurs, en misant sur la physique quantique pour dépasser les limites de la physique classique.

J’ai plus particulièrement développé une expertise dans le domaine des matériaux magnétiques. L’un de mes objectifs, dans ce domaine, est par exemple d’optimiser la conversion de chaleur fatale en électricité. Ceci est particulièrement intéressant dans les centrales de production d’électricité, qui génèrent en effet beaucoup de chaleur fatale ; chaleur qui pourrait ainsi avantageusement être récupérée et convertie en énergie électrique.

Nous nous intéressons également par ailleurs à la catalyse, et plus précisément à l’utilisation de matériaux topologiques dans ce domaine. Ceci, dans le but de concevoir de nouveaux catalyseurs utilisables par exemple dans le domaine de la production d’hydrogène par électrolyse de l’eau, ou de la conversion du CO2 en carburant.

En ce qui concerne ce dernier exemple, cela ne peut en effet se faire, pour l’heure, que grâce à un procédé complexe, mis en œuvre à très haute température. Or, les propriétés topologiques des matériaux que nous avons développés pourraient permettre de produire du méthane à partir de CO2 beaucoup plus facilement, en actionnant un « interrupteur » activant les propriétés topologiques du catalyseur.

L’une de mes collègues planche aussi actuellement sur la possibilité d’appliquer ce concept aux batteries électriques, pour en améliorer les performances.

Comment accueillez-vous ce Prix International L’Oréal-UNESCO Pour les Femmes et la Science qui vous a été décerné le 12 juin dernier ? Pensez-vous que votre exemple puisse inciter d’autres femmes, et plus particulièrement des jeunes filles en âge scolaire, à se lancer elles aussi dans une carrière scientifique ?

C’est un très grand honneur pour moi ! Je suis très heureuse d’avoir reçu cette formidable récompense, très importante à mes yeux. Cela va me pousser à assumer un peu plus encore mon rôle de modèle pour les futures femmes scientifiques.

D’autant plus que ce prix illustre deux aspects importants pour moi : l’implication de L’Oréal rappelle que les nerds, contrairement aux préjugés, ont aussi le droit d’être féminines ; et celle de l’UNESCO montre l’importance de l’inclusion dans l’éducation, notamment des filles, et ce, partout dans le monde. Il s’agit vraiment de deux aspects cruciaux à mes yeux, et très liés. Il faut que les jeunes filles prennent conscience qu’elles peuvent mettre leur intelligence à profit dans une carrière scientifique, sans pour autant être contraintes de mettre de côté leur féminité.


[1] La cinquième lauréate de cette 27e édition était absente pour raisons de santé lors de cette cérémonie du 12 juin 2025.

Centrales nucléaires : une adaptation nécessaire au changement climatique

Pour l’heure, rassurons-nous : le réchauffement climatique a un impact minime sur notre production d’électricité. D’après EDF, depuis 2000, « les pertes de production nucléaire pour des causes environnementales (température élevée et faible débit des fleuves) ont représenté en moyenne 0,3 % de la production annuelle du parc nucléaire ». Même lors de la canicule de 2003, les pertes de production n’avaient pas dépassé 1,43 % de la production annuelle d’EDF.

Néanmoins, il ne fait guère de doute que ces arrêts de production vont s’intensifier. Entre l’aggravation du changement climatique, la volonté de construire de nouveaux réacteurs[1] et la hausse significative de la consommation électrique[2] qui est prévue d’ici 2050, comment pourrait-il en être autrement ?

En quoi l’augmentation de la température de l’eau est-elle un problème ?

Pour leur refroidissement, les réacteurs nucléaires ont besoin d’eau. Cette eau est soit pompée dans les cours d’eau, soit pompée dans la mer. Et une fois prélevée, puis utilisée dans le circuit tertiaire de la centrale, cette eau est finalement rejetée dans le milieu naturel (sans émissions radioactives !), avec une température supérieure à la température d’entrée.

Selon la Sfen, ce sont ainsi 13 milliards de m3 d’eau qui sont prélevés chaque année et restitués à 97 % au milieu d’origine.

En cas de canicule, lorsque la température de l’eau prélevée est déjà importante, la température en sortie est donc nécessairement encore plus élevée. Or, selon la réglementation, l’écart de température entre l’amont et l’aval de la centrale ne doit pas dépasser 3°C, en théorie. L’eau en sortie ne doit pas non plus dépasser une valeur seuil comprise entre 28°C et 30°C, car cette hausse des températures a un impact sur les écosystèmes.

Par ailleurs, une eau plus chaude contient moins d’oxygène, ce qui peut sérieusement perturber la chaîne alimentaire et réduire la biodiversité.

La nécessaire adaptation au changement climatique du parc nucléaire

Pour éviter de dépasser ces seuils, ou lorsque le débit des cours d’eau devient insuffisant, EDF est donc contrainte de réduire sa production. Selon RTE, 71 % des pertes en énergie observées entre 2015 et 2020, étaient liées à des « débits trop faibles de la source froide. »

L’impact du réchauffement climatique est néanmoins limité, puisque c’est une menace ponctuelle, liée à l’eau. Mais ce qui n’est pas aujourd’hui un problème pourrait bientôt en devenir un !

C’est en tout cas ce que dit la Cour des comptes dans son rapport de 2023 intitulé « adaptation au changement climatique du parc des réacteurs nucléaires. »

La Cour des comptes préconise ainsi d’adapter la conception et de choisir judicieusement l’implantation géographique des prochains réacteurs, afin de tenir compte des incertitudes climatiques sur le long terme.

Le rapport reproche d’ailleurs à EDF son manque d’innovation en matière de développement de systèmes de refroidissement sobres en eau, malgré une veille active, alors « que des solutions techniques plus sobres en consommation d’eau, voire des technologies à sec, sont expérimentées à l’international. »

Les normes concernant les prélèvements et rejets d’eau par les centrales sont faites pour protéger la biodiversité et l’environnement. Néanmoins, lorsque la stabilité du système électrique est en jeu, l’Autorité de sûreté nucléaire peut accorder des dérogations. Lors de la canicule de 2022, quatre centrales, dont celle de Golfech, se sont alors retrouvées dans cet cas de figure et la situation risque de se reproduire régulièrement.

Une adaptation qui coûte cher

Pour éviter d’avoir à choisir entre la santé de la biodiversité aquatique et la santé du réseau électrique, il va falloir accélérer l’adaptation au changement climatique de nos centrales.

Or, cette adaptation coûte très cher. Selon la Cour des comptes, « la mise en œuvre de dispositifs liés au changement climatique a déjà mobilisé 960 millions d’euros de dépenses pour le parc nucléaire français entre 2006 et 2021. »

Les solutions mises en œuvre incluent notamment la construction de digues, en cas de montée des eaux et la rénovation des tours aéroréfrigérantes. Mais ces dépenses sont insuffisantes, puisqu’on sait déjà que la rénovation et la modernisation des centrales actuelles coûteront des dizaines de milliards d’euros.


[1] Six nouveaux EPR doivent être construits d’ici 2038 !

[2] Pour l’électrification des transports, de l’industrie et les data centers

Transformer le CO2 industriel en matériau de construction : une innovation électrochimique prometteuse

Dans un contexte de réchauffement climatique, la lutte contre les émissions de gaz à effet de serre est une préoccupation majeure. De nombreuses recherches se focalisent ainsi sur le développement de nouvelles stratégies visant à décarboner nos industries et nos transports ou à capter et stocker le CO₂.

Il existe toutefois une autre approche qui consiste à valoriser ce gaz, considéré comme un « déchet », en matière première. C’est celle adoptée par les chercheurs de l’Université du Michigan, en collaboration avec l’UCLA, l’UC Davis et le consortium 4C (Center for Closing the Carbon Cycle).

Un procédé électrochimique novateur

L’équipe de chercheurs, dirigée par Charles McCrory de l’Université du Michigan, a en effet mis au point une méthode d’électroréduction du CO₂ aboutissant à la formation d’oxalates métalliques. Il s’agit de petits composés solides, des sels simples, qui représentent un matériau très intéressant pour la fabrication de ciment. Les oxalates métalliques peuvent en effet servir d’agrégat ou d’additif, représentant ainsi une alternative au procédé standard (dit Portland). Il faut rappeler que cette industrie est aujourd’hui pointée du doigt comme étant particulièrement énergivore et émettrice de CO₂. L’intérêt de cette innovation est donc double : transformer une émission problématique en ressource utile, tout en réduisant l’impact carbone de l’industrie cimentière.

La synthèse d’oxalates à partir de CO₂ est un procédé connu qui implique l’utilisation d’électrodes métalliques (principalement composées de plomb) dans une solution d’électrolytes non aqueuse. Le plomb est en effet un catalyseur dans ce contexte. Toutefois, ce procédé présente un inconvénient majeur, qui est l’utilisation d’importantes quantités de plomb, connu pour être un élément toxique pour l’Homme et l’environnement.

Les chercheurs ont donc tenté de réduire de manière significative la quantité de plomb mis en jeu dans cette réaction. Un objectif obtenu grâce à l’utilisation de polymères permettant de contrôler le micro-environnement immédiat autour des sites catalytiques. Dans ce nouveau procédé, la quantité de plomb est ainsi passée à l’état de trace.

Un stockage de CO₂ sous forme solide et stable

La production d’oxalates métalliques se déroule alors en deux étapes, impliquant l’utilisation d’un jeu d’électrodes. En premier lieu, le CO₂ est converti en oxalate au niveau d’une électrode, tandis que dans le même temps, la seconde électrode libère des ions métalliques (typiquement du fer, du calcium ou autres) qui réagissent avec les oxalates pour former des oxalates métalliques précipités.

Schéma présentant le principe de la réduction électrochimique du CO₂ en oxalate © Brower et al. 2025, Advanced Energy Materials

Le solide ainsi formé est collecté et prêt à être incorporé dans un procédé cimentier. Cette innovation permet ainsi de solidifier le CO₂ sous forme stable, réduisant définitivement les émissions cumulées.

On peut en effet parler de captage fixe de CO₂ : une fois solidifié en oxalate métallique, le CO₂ ne retourne pas dans l’atmosphère. Il est piégé de façon stable, sauf à conditions extrêmes. Concernant sa mise en application au niveau industriel, les auteurs estiment qu’une mise à l’échelle du procédé est tout à fait réalisable. La réduction drastique des besoins en plomb est d’ailleurs un atout majeur pour une industrialisation durable.

Vers un ciment « bas carbone » ?

Ces résultats publiés dans la revue Advanced Energy Materials montrent un potentiel important pour développer des filières cimentaires à plus faible empreinte carbone. L’utilisation de CO₂ recyclé permettrait notamment de réduire la dépendance aux ressources fossiles et de minimiser les émissions.

Selon McCrory, les prochaines étapes consistent désormais à optimiser la production en masse des oxalates, à tester leur performance dans les formulations réelles de ciment et à s’assurer de l’absence d’effets indésirables (toxicité, stabilité mécanique). Pour présenter un intérêt industriel, il faut en effet que le procédé soit avant tout compétitif face aux matériaux traditionnels.

Cette étude marque une avancée significative dans la valorisation du CO₂ capturé, en le transformant en matière utile pour l’industrie cimentière. Grâce à une ingénierie fine du catalyseur et la maîtrise du micro-environnement, les chercheurs offrent un nouveau prototype de ciment à faible émission carbone. La démarche combine captage, décarbonation, valorisation et durabilité. Si cette innovation est adoptée par le milieu industriel, elle pourrait contribuer à transformer l’une des industries les plus émettrices de CO₂ au monde.

L’impact énergétique croissant des datacenters et de l’IA

Cette augmentation est largement attribuée à l’essor des applications d’IA générative, comme le chatbot ChatGPT d’OpenAI. Mais l’expansion rapide des centres de données a commencé à avoir un impact notable sur les marchés européens de l’électricité, en raison de leur nature énergivore.

Après des améliorations rapides entre 2007 et 2014, l’efficacité énergétique des centres de données semble avoir atteint un plateau, avec un Power Usage Effectiveness (PUE) moyen d’environ 1,6. Le PUE est défini comme le rapport entre la quantité totale d’énergie entrant dans un centre de données et la puissance utilisée pour faire fonctionner l’équipement informatique.

Le « Climate Neutral Data Centre Pact », soutenu par la Commission européenne, a fixé un objectif annuel de PUE de 1,3 à 1,4 d’ici 2025 pour les nouveaux centres de données et d’ici 2030 pour les installations existantes. En Allemagne, la loi sur l’efficacité énergétique exige que les centres de données existants atteignent un PUE de 1,5 à partir de juillet 2027 et de 1,3 à partir de 2030. De plus, les nouveaux centres de données devront atteindre un PUE de 1,2 à partir de 2026.

Un pari audacieux alors que l’usage de l’IA explose ? La demande d’électricité des centres de données a rapidement augmenté pour soutenir ces applications, non seulement pour les calculs, mais aussi pour le refroidissement des équipements, essentiel pour maintenir des performances optimales et éviter la surchauffe.

Microsoft et Google ont reconnu une augmentation de la consommation d’électricité et des émissions de carbone dans leurs rapports environnementaux de 2024, citant l’IA comme le principal moteur de cette croissance. Cependant, ils n’ont pas fait de distinction claire entre l’IA et d’autres types de charges de travail dans leur consommation d’énergie, reconnaissant simplement que leurs initiatives en matière d’IA risquaient de compromettre leurs objectifs environnementaux.

Manque de transparence des Gafam

Face au manque de transparence des géants technologiques, des études indépendantes sont nécessaires pour mieux comprendre l’impact énergétique de l’IA. Début avril dernier, l’Agence internationale de l’énergie (AIE) a signalé que la consommation d’électricité des centres de données a bondi de 12 % par an au cours des cinq dernières années.

Dans une récente étude, Alex de Vries-Gao1 a pris un angle plus précis en se concentrant sur l’énergie consommée par les puces des fondeurs comme Nvidia et AMD, essentielles pour l’entraînement et l’exécution des modèles d’IA.

Les centres de données utilisent souvent des unités de traitement graphique (GPU) et des circuits intégrés spécifiques à l’application (ASIC) pour accélérer les calculs d’IA. Ces matériels sont très gourmands en énergie et ont une durée de vie plus courte que les autres composants, souvent de seulement 1 à 3 ans.

Selon cette étude, les systèmes d’IA représentent déjà environ 20 % de la consommation d’électricité des centres de données. D’ici 2025, cette part pourrait atteindre 49 %, soit 23 GW, près du double de la consommation d’énergie des Pays-Bas.

Des facteurs potentiels pourraient tempérer la demande croissante de matériel d’IA. Alex de Vries-Gao note que la diminution de l’intérêt pour des applications comme ChatGPT et les questions géopolitiques pourraient ralentir la demande.

Au final, l’essor des centres de données et de l’IA pose des défis significatifs en termes de consommation d’énergie. Bien que des efforts soient faits pour améliorer l’efficacité énergétique, la demande croissante et le manque de transparence des géants technologiques rendent difficile une évaluation précise de l’impact environnemental.


¹ Doctorant à l’Institut d’études environnementales de l’Université libre d’Amsterdam et fondateur de Digiconomist, une société de recherche qui se consacre à révéler les conséquences imprévues des tendances numériques

Revue du Magazine d’Actualité #38 : du 28 juin au 4 juillet

Cette semaine, les avancées technologiques et les controverses réglementaires dessinent les contours d’un futur à la fois ambitieux et complexe. De l’optimisation énergétique orbitale à la bio-impression de matériaux fonctionnels, en passant par les limites de l’aviation décarbonée, voici les points saillants de l’actualité scientifique et industrielle.


🚀 Numérique & Innovation

Des data centers dans l’espace pour mieux protéger notre planète

Peut-on externaliser l’infrastructure numérique terrestre vers l’orbite pour réduire l’empreinte énergétique globale ? Une approche radicale qui interroge les modèles de résilience et de durabilité du cloud computing.
👉 Lire l’article

Un nanocomposite biodégradable et imprimable en 3D, pour la greffe osseuse

Vers une biofabrication sur mesure : ce matériau composite allie biocompatibilité, biodégradabilité et imprimabilité, et pourrait redéfinir les standards de l’ingénierie tissulaire appliquée à l’orthopédie.
👉 Lire l’article


🌍 Environnement & Biodiversité

Cartographier la biodiversité de la planète grâce au suivi acoustique passif

L’analyse des paysages sonores devient un outil stratégique pour la modélisation écologique. Une méthode non intrusive qui permet une détection fine des dynamiques spatio-temporelles des écosystèmes.
👉 Lire l’article

L’avion vert serait-il un mirage ?

Hydrogène, SAF, propulsion électrique : les technologies se multiplient, mais les verrous physiques et économiques persistent. Une analyse critique des trajectoires de décarbonation du secteur aérien.
👉 Lire l’article


⚖️ Politique & Société

L’Académie des sciences alerte sur les importantes lacunes de la nouvelle PPE

Entre sous-dimensionnement des capacités nucléaires et incertitudes sur les renouvelables, la stratégie énergétique française est mise en cause par la communauté scientifique.
👉 Lire l’article

Supprimer la CS3D ? Une proposition qui ne fait pas l’unanimité chez les patrons

La remise en question du cadre européen sur le devoir de vigilance soulève des tensions entre impératifs de compétitivité et exigences de responsabilité sociétale.
👉 Lire l’article

Bon weekend et à la semaine prochaine ! 😎

Cartographier la biodiversité de la planète grâce au suivi acoustique passif

Les bruissements d’ailes dans une forêt tropicale, un chant de baleine dans le Pacifique, le crépitement d’insectes dans une savane africaine… Ces sons de la nature, souvent imperceptibles à l’oreille humaine ou tout simplement ignorés, sont au cœur d’un ambitieux projet de recherche appelé Worldwide Soundscapes. Il a pour objectif de rassembler les données issues du suivi acoustique passif, encore appelé PAM pour Passive Acoustic Monitoring, dans le but de mesurer la biodiversité à l’échelle de la planète. Il rassemble une équipe scientifique internationale, constituée de 357 chercheurs, qui vient de publier les premiers résultats de son travail dans la revue Global Ecology and Biogeography.

Initiée en 2021, cette initiative pionnière rassemble aujourd’hui 416 jeux de données collectées dans 12 309 sites depuis 1991 et répartis dans 57 pays différents. Elle couvre quatre grands types d’écosystèmes : terrestre (le plus représenté), marin, d’eau douce et souterrain. Plutôt que d’observer directement les animaux, les chercheurs tentent donc d’écouter les sons de la nature en plaçant des enregistreurs autonomes dans ces écosystèmes. Grâce à cette méthode non invasive et à la collecte en continu des sons, le projet offre un outil puissant pour suivre l’évolution de la vie sur Terre, dans les océans, et même sous nos pieds.

L’analyse de 168 enregistrements sélectionnés parmi les données compilées et provenant de 12 écosystèmes différents a mis en évidence plusieurs tendances globales. D’abord, la richesse acoustique biologique, c’est-à-dire l’intensité et la diversité des signaux produits par les organismes vivants, varie en fonction de la latitude. Les sons biologiques produits par les oiseaux, les insectes, les mammifères ou les amphibiens ont en effet tendance à baisser à mesure que l’on s’éloigne de l’équateur. Ce résultat est en cohérence avec les gradients de biodiversité bien documentés en écologie classique.

Autre observation : les cycles journaliers et lunaires influencent significativement l’intensité des sons naturels. Certaines espèces vocalisent davantage lors de phases spécifiques de la lune, un phénomène jusqu’ici peu documenté à grande échelle. Enfin, les sons anthropiques, liés à l’activité humaine (trafic routier, machines, etc.), présentent une corrélation négative avec l’intensité des sons biologiques, suggérant que les environnements bruyants sont aussi ceux où la biodiversité vocale est la plus réduite.

Développer des enregistrements sonores dans certaines zones géographiques

Ce projet a mis en lumière la nécessité de standardiser les protocoles d’échantillonnage acoustique pour permettre des comparaisons robustes entre études et régions. Par exemple, de nombreux enregistrements de paysages sonores échantillonnent des fréquences particulières, souvent dans la gamme audible par l’homme, alors que les sons s’étendent des infrasons aux ultrasons.

Autre difficulté : il n’existe pas à ce jour de normes permettant l’analyse des données acoustiques afin de procéder à des analyses comparatives à l’échelle mondiale, même si des initiatives dans le domaine marin sont en cours. Des lacunes géographiques ont également été identifiées, notamment en Afrique du Nord, en Europe du Nord-Est, en Asie centrale ou dans certaines zones océaniques, où peu ou pas d’enregistrements existent encore.

Au-delà de ces premiers résultats et de la méthodologie à parfaire, c’est l’ampleur et la richesse de la base de données collaborative qui impressionnent. Le projet Worldwide Soundscapes offre un cadre inédit pour des analyses macro-écologiques à l’échelle de la planète. Tous les enregistrements ne sont pas encore accessibles au public, mais un portail internet appelé ecoSound-web permet déjà d’explorer des extraits sonores par région ou écosystème. À terme, le développement de cette base de données et son croisement avec d’autres sources d’information environnementale pourraient faire de l’acoustique passive un indicateur clé pour la surveillance de la biodiversité de la planète.

Des data centers dans l’espace pour mieux protéger notre planète

Il y a environ 5 500 data centers (à la fois publics et privés) dans le monde, dont presque 300 en France (source : Statista, 2022). Pour répondre à la demande croissante de puissance de traitement de l’IA, les projets de construction de ces énormes bâtiments ne ralentissent pas.

La preuve, 35 sites industriels « clés en main » ont été identifiés par le gouvernement français pour la création de data centers. Cependant, leur multiplication soulève des défis importants, notamment en termes de consommation énergétique et d’impact environnemental. Ces infrastructures sont extrêmement gourmandes en électricité, non seulement pour alimenter les serveurs et les équipements réseau, mais aussi pour les systèmes de refroidissement nécessaires au maintien d’une température optimale.

L’Electric Power Research Institute prévoit que les centres de données représenteront 9 % de la consommation totale d’énergie aux États-Unis d’ici 2030.

Différents projets réfléchissent depuis quelques années à des solutions visant à réduire l’impact énergétique de ces immenses hangars : data centers sous l’eau pour Microsoft, chauffer des bâtiments avec la chaleur des centres de données, amélioration des systèmes de refroidissement, utilisation d’énergies renouvelables…

50 lancements par an

Autre piste plus surprenante : l’installation de data centers dans l’espace. La société française Latitude (fondée à Reims en 2019) vient de signer un protocole d’accord avec Madari Space, une société basée aux Émirats arabes unis, pour le lancement d’une constellation de microsatellites (50 à 100 kg) dédiés au stockage et au traitement de données directement en orbite.

Latitude prévoit son premier lancement commercial avec sa fusée Zephyr à faible portance dès 2026, avec l’ambition d’atteindre un rythme de 50 lancements par an à partir de 2030. Le premier lancement était initialement prévu pour 2025, mais des mises à jour récentes suggèrent un report probable à 2026.

Parmi les avantages déjà identifiés par l’entreprise figurent un traitement plus rapide des données, une réduction des coûts de transmission et, surtout, la fin de la dépendance à l’égard des centres de données terrestres, souvent critiqués pour leur forte consommation d’énergie et leurs importantes émissions de gaz à effet de serre.

Un réseau de 2 800 satellites

Ces avantages sont également mis en avant par l’étude ASCEND (Advanced Space Cloud for European Net zero emission and Data sovereignty). Commandée à Thales Alenia Space par l’Union européenne, elle indique qu’avec l’énergie solaire comme source d’énergie, ces data centers spatiaux élimineraient le besoin de refroidissement par eau.

Thales Alenia Space prévoit une démonstration de faisabilité de 50 kilowatts d’ici 2031, avec un déploiement de 1 gigawatt d’ici 2050, et des retours potentiels de plusieurs milliards d’euros.

Aux États-Unis, la startup Lumen Orbit a récemment levé plus de 10 millions de dollars pour construire des data centers dans l’espace. Objectif : réduire les dépenses d’énergie de 95 %.

La Chine n’est pas en reste. Elle a également lancé 12  satellites pour un projet de calcul en orbite mené par la startup ADA Space et Zhejiang Lab. Ce projet fait partie d’un plus vaste « Star-Compute Program » : un énorme réseau en orbite de 2 800 satellites.

Déchets faiblement radioactifs : la Cour des comptes dénonce deux décennies d’inaction

Plus de vingt ans après l’identification du problème, la France ne dispose toujours d’aucune solution de stockage pour les quelques 280 000 mètres cubes de déchets radioactifs de faible activité à vie longue (FA-VL). C’est l’un des constats les plus sévères du rapport que la Cour des comptes a consacré à l’Agence nationale pour la gestion des déchets radioactifs (Andra). Au-delà du manque d’avancées techniques, c’est surtout l’absence de décisions politiques claires que déplore l’institution.

Peu connus du grand public, ces déchets n’en constituent pas moins un défi central de la politique nucléaire française. Moins dangereux en termes d’intensité radioactive, ils le sont davantage en termes de persistance, puisque leur durée de vie radioactive s’étend sur des dizaines, voire des centaines de milliers d’années. Ils représentent environ 6 % du volume total des déchets radioactifs français, et concentrent autour de 0,01 % de leur radioactivité.

Ces déchets proviennent d’activités industrielles non électronucléaires, de terres faiblement contaminées, de l’exploitation et du démantèlement d’équipement et du traitement de certains effluents radioactifs aqueux. Ils sont répartis en plusieurs typologies : 30 % de graphites, 32 % de déchets bitumés, 29 % de radifères et 9 % de déchets technologiques.

Dès les années 2000, une filière des déchets de FA-VL est officiellement identifiée comme un besoin de gestion spécifique. La loi du 28 juin 2006 pose l’objectif d’en assurer la prise en charge en vue de la mise en service d’un centre de stockage en 2013. Cependant, cette échéance a été supprimée par l’ordonnance du 5 janvier 2012 et ne figure plus dans le plan national de gestion des matières et des déchets radioactifs.

Plus de 30 ans de retard dans la mise en service d’un site de stockage

À ce jour, le seul site de stockage identifié se situe sur la communauté de communes de Vendeuvre-Soulaines (CCVS), dans l’Aube. Mais il ne concerne que les déchets radifères, ce qui signifie que les autres déchets (graphites, bitumés et technologiques), qui représentent 71 % de l’inventaire des déchets de FAVL, restent sans solution. De plus, la Cour des comptes révèle que le « projet de Soulaines ne pourra pas être mis en service avant le milieu de la décennie 2040, soit plus de 30 ans après la date initialement prévue par le législateur. »

Ce décalage temporel s’explique par « des obstacles techniques, tels que la remise en question d’une filière de gestion unique et l’inadaptation du site au stockage de l’ensemble des déchets, ainsi que par des facteurs politiques, notamment la pression limitée des ministères de tutelle et des producteurs de déchets, et des contraintes financières dues à l’absence de financements dédiés. »

En attendant, tous ces déchets sont entreposés temporairement sur différents sites de production ou de recherche. L’institution note que l’absence de perspectives de stockage expose le projet de gestion des déchets FAVL à plusieurs risques avec un niveau de gravité qualifié de « majeur » ou « critique ». Parmi ceux-ci, elle cite la perte de la disponibilité du site sur la CCVS, la démobilisation des équipes de l’Andra qui pourrait freiner la mise en œuvre de solutions proportionnées et acceptables, et enfin d’autres risques d’ordre financiers.

Surtout, en termes de sécurité, cette situation pourrait freiner le démantèlement programmé d’installations existantes, notamment les réacteurs UNGG (Uranium naturel graphite gaz). La Cour alerte sur le fait que « ces éléments remettent en cause la capacité de la filière à gérer l’ensemble de ses déchets et fragilisent la dynamique de relance du nucléaire.»

Face à ce constat, l’institution recommande de créer un ou plusieurs fonds alimentés par les producteurs de déchets pour financer les recherches et les études nécessaires sur le stockage en faible profondeur des déchets de FAVL. Elle préconise d’arrêter le schéma global de gestion et de lancer la recherche de sites adaptés au stockage des différentes catégories de ces déchets. Et enfin de fixer le coût du projet de stockage en faible profondeur sur le site de la CCVS.

L’avion vert serait-il un mirage ?

Entré en application en début d’année, le règlement « ReFuelEU Aviation », composant essentiel du paquet « Ajustement à l’objectif 55 »[1], a pour objectif de fixer un cadre juridique pour assurer le déploiement des CAD[2] (SAF[3] en anglais). Ceux-ci comprennent les biocarburants[4] et les carburants de synthèse[5].

Avec ce règlement, les fournisseurs de carburant sont tenus d’incorporer un pourcentage minimal de CAD à partir de 2025 et, à partir de 2030, une part minimale de carburants de synthèse y sera aussi incluse. Les parts de CAD, conformément au calendrier progressif mis en place, augmenteront pour atteindre 2 % en 2025, 6 % en 2030 et 70 % d’ici 2050 dont 35 % de carburant de synthèse.

Sur le papier, « ReFuelEU Aviation » semble disposer de toutes les qualités pour concrétiser le « Pacte vert pour l’Europe »[6] : compatibilité des biocarburants avec les moteurs et infrastructures actuels[7] et promesse d’une réduction de 80 % des émissions de CO2. Mais derrière ce tableau idyllique se dessine une réalité plus complexe.

Une production insuffisante et un prix trop élevé

La trop faible production de CAD pèse sur la croissance du trafic à l’intérieur de l’Europe déjà moins élevée que le reste du monde. Dans un communiqué récent, Willie Walsh, le directeur de l’Iata[8], constate que même si les volumes de CAD doublaient par rapport à 2024 en atteignant 2 millions de tonnes (2,5 milliards de litres) en 2025, cela ne représenterait que 0,7 % de la consommation totale de carburant des compagnies aériennes.

Selon la Direction générale du Trésor, la production de CAD nécessaire pour atteindre les objectifs fixés est estimée à plus de 400 milliards de litres en 2050.

Même la faible production attendue pour cette année provoquerait l’ajout de 4,4 milliards de dollars à la facture de carburant avec des répercussions sur le prix des billets.

Le coût des carburants CAD reste, en effet, la question centrale en sachant que le prix du carburant représente la part la plus importante des coûts d’exploitation d’une compagnie aérienne. L’EASA[9] estime que le prix de vente d’une tonne de CAD est de 2 085 € ; c’est deux à trois fois supérieur au prix du carburant conventionnel qui affiche un prix de vente à 734 € la tonne.

Le jeu en vaut-il la chandelle ?

Ce surcoût est-il compensé par un impact positif sur l’environnement ? La première étude en vol au monde sur l’impact de l’utilisation de CAD réalisée sur les deux moteurs d’un avion commercial est encourageante. Les résultats montrent une réduction significative des particules de suie et de la formation de cristaux de glace en traînée de condensation par rapport à l’utilisation de carburant conventionnel.

Concernant l’hydrogène renouvelable, le gain environnemental serait négligeable : le mélange à 1,2 % réduirait les émissions de CO2 d’environ 0,02 % seulement. Des réductions d’émissions neuf fois plus importantes pourraient même être observées si l’électricité renouvelable allouée pour l’aviation était redirigée vers d’autres secteurs tels que le chauffage résidentiel ou les véhicules électriques. Des ressources naturelles seraient donc détournées d’usages plus essentiels pour des bénéfices quasi nuls.

L’effet positif, difficile à évaluer pour le moment, devra, le cas échéant, être mis en rapport avec les investissements massifs qui sont requis pour lever les barrières technologiques freinant la production des biocarburants à grande échelle. En imposant des contraintes d’utilisation aux compagnies aériennes sans réunir les conditions de leur applicabilité et les preuves de leur efficacité, la Commission européenne ferait-elle de « RefuelUE » une simple manœuvre de communication politique ?


[1] Présenté par la Commission européenne le 14  juillet 2021, l’objectif est de réduire les émissions nettes de gaz à effet de serre d’au moins 55  % d’ici 2030 par rapport aux niveaux de 1990  

[2] Carburants d’aviation durable

[3] Sustainable aviation fuel

[4] Fabriqués à partir de la biomasse (résidus agricoles ou forestiers, algues, huiles de cuisson usagées…)

[5] Produits à partir de CO2 et d’hydrogène renouvelable

[6] Feuille de route environnementale présentée en 2019

[7] Contrairement à l’hydrogène qui nécessite des innovations de rupture

[8] Association internationale du transport aérien

[9]  Agence de l’Union européenne pour la sécurité aérienne

Supprimer la CS3D ? Une proposition qui ne fait pas l’unanimité chez les patrons

Publiée en juillet 2024, la directive sur le devoir de vigilance en matière de durabilité, ou CS3D[1], établit un cadre juridique harmonisé, dont le but est de promouvoir un comportement durable et responsable des entreprises sur les chaînes de valeur mondiales.

Cette nouvelle directive, qui s’inscrit dans un cadre réglementaire plus large, avec notamment la CSRD, est un projet ambitieux qui obligera les entreprises relevant du champ d’application, à identifier, prévenir, réduire et éliminer les incidences négatives de leurs activités, que ce soit sur l’environnement ou les droits humains et sociaux.

La CS3D, symptôme de notre excès de bureaucratie ?

Néanmoins, ce texte contraignant est loin d’être populaire dans le monde de l’entreprise. Dans des secteurs comme l’automobile, la chimie ou le textile, déjà fragilisés par l’Inflation Reduction Act américain (IRA) et la concurrence asiatique, il y a en effet la crainte de voir apparaître des obligations difficiles à tenir, tant leurs chaînes d’approvisionnement sont complexes.

Il est vrai que l’arrivée d’une nouvelle directive contraignante peut sembler en décalage avec le contexte de guerre commerciale ouverte entre les États-Unis et la Chine. Pour nombre d’entreprises européennes, l’ajout de lourdeurs administratives supplémentaires est en effet perçu comme un frein supplémentaire à la compétitivité, surtout si l’Europe est la seule à appliquer de telles mesures.

La crainte d’un retour de Trump n’a fait qu’aggraver la situation et a fait souffler un vent de panique sur les institutions européennes. En novembre 2024, Ursula von der Leyen annonçait déjà un paquet de lois omnibus visant à alléger les obligations de reporting en matière de durabilité, pour les entreprises.

Et depuis l’arrivée de Trump, tout s’est accéléré. Le 26 février 2025, la Commission européenne a dévoilé sa feuille de route et confirmé les annonces formulées en novembre, en proposant un effort de simplification considérable, puisque 80 % des entreprises initialement concernées par la directive CSRD, c’est-à-dire essentiellement des ETI et PME, sont désormais exclues du champ d’application initial.

La France et l’Allemagne défendent une simplification administrative

Concernant la CS3D, la Commission a proposé un report de l’application du devoir de vigilance, une limitation du devoir de surveillance aux fournisseurs et sous-traitants directs, mais aussi une réduction de la quantité d’informations demandées aux PME et ETI.

La Commission s’est ainsi félicitée d’un effort de simplification sans précédent, qui permet de réduire « les charges administratives d’au moins 25 %, et d’au moins 35 % pour les PME ».

Néanmoins, pour la France et l’Allemagne, cet effort ne va pas assez loin. Lors du sommet Choose France, Emmanuel Macron, en accord avec le chancelier allemand Friedrich Merz, a ainsi appelé à une suppression pure et simple de la CS3D, tout comme quelques autres régulations « qui ne doivent pas être simplement repoussées d’un an, mais écartées ».

Cette volonté de simplification part d’une bonne intention : réduire le déséquilibre administratif entre les entreprises situées en Europe et hors Europe.

Mais, cette démarche peut aussi apparaître comme un nivellement par le bas, un renoncement de l’UE face à ses ambitions environnementales, elle qui fait figure d’exemple dans le domaine.

Une marche arrière qui ne fait pas l’unanimité dans le monde de l’entreprise !

Le Centre des jeunes dirigeants est l’une des rares organisations patronales à s’être prononcées en faveur du CS3D. Pour son président, Mathieu Hetzer, il est urgent d’agir maintenant pour le climat, mais malheureusement, la grande majorité des PME et ETI « ne feront rien si on ne les y oblige pas ».

Selon lui, ces directives contraignantes sont absolument indispensables, si l’on raisonne sur le long terme, car la Chine imposera elle-même ce genre de directives dans dix ans ou plus.

Par conséquent, si l’UE abandonne sur ce terrain législatif, « ce sont bien les normes environnementales et sociétales chinoises qui vont s’imposer à notre économie ». Conserver la CSRD et la CS3D, c’est donc garder un coup d’avance sur nos concurrents.

Enfin, le Centre des jeunes dirigeants n’est pas la seule organisation favorable à un maintien de ces directives. En ce qui concerne la France, on peut citer Impact France, le Cercle des experts-comptables ou encore la Convention des entreprises pour le climat et, au niveau européen, le mouvement Business for a Better Tomorrow (BBT) ou encore B Lab Europe.

Par ailleurs, des entreprises de premier plan défendent aussi ces directives et leur impact positif sur la compétitivité. Ikea, Unilever, Danone, H&M, Nestlé ont d’ailleurs signé des lettres ouvertes adressées à la Commission, afin de maintenir des règles harmonisées.

Idem au niveau des investisseurs, puisque Aviva Investors, Nordea et AXA IM ont aussi exprimé leur soutien à ces textes.

Espérons que l’UE saura trouver le bon équilibre entre simplification administrative et suppression pur et simple, car c’est notre crédibilité environnementale qui est en jeu !


[1] Corporate Sustainability Due Diligence Directive

Astrid Guyart : « Les femmes devraient pouvoir être dirigeantes sans avoir besoin de s’exprimer sur le sujet »

Chaque année depuis 2018, Techniques de l’Ingénieur est partenaire de l’opération Ingénieuses, organisée par la CDEFI (Conférence des directeurs des écoles françaises d’ingénieurs) afin de combattre les stéréotypes de genre et promouvoir l’égalité des sexes dans les métiers et formations d’ingénieur.

Parmi les 10 prix décernés (Prix de l’élève-ingénieure France, de la femme du numérique, de l’école la plus mobilisée etc.), Techniques de l’Ingénieur a rencontré les nominées dans la catégorie “Femme ingénieure”. Une belle occasion de partager le parcours de femmes scientifiques talentueuses, qui agissent pour l’égalité des genres dans leur métier.

Astrid Guyart – Crédit : France TV

Diplômée de l’EPF en 2006, Astrid Guyart s’est spécialisée en aéronautique et espace, et est désormais Head of Improvement chez ArianeGroup. Elle a mené de front une carrière d’ingénieure et un parcours en escrime, devenant vice-championne olympique, vice-championne du monde, vice-championne d’Europe et championne de France au fleuret.
Investie de longue date dans la vie associative et sportive, elle est également secrétaire générale du Comité national olympique et sportif français (CNOSF), administratrice du Comité d’organisation des jeux olympiques et paralympiques de Paris 2024 et co-présidente de la Commission des athlètes de haut niveau (CAHN). Par ailleurs, elle est autrice jeunesse de la collection « Les incroyables rencontres de Jo » aux éditions Cherche-Midi, une série de livres valorisant les valeurs du sport et son pouvoir d’émancipation.

Techniques de l’ingénieur : Pouvez-vous nous parler de votre parcours ?

Astrid Guyart : Je suis ingénieure chez ArianeGroup, responsable d’une équipe chargée de l’amélioration continue, donc tout ce qui concerne l’efficacité opérationnelle. Avec mon équipe, nous travaillons directement sur le lanceur Ariane 6 pour assurer la montée en cadence et donc la production en série de ce lanceur qui est très attendu sur le marché pour assurer une souveraineté dans le secteur spatial à l’Union européenne et à l’Europe. Le deuxième lancement a eu lieu en mars dernier et un troisième lancement est prévu très prochainement. A côté de mon métier, je suis aussi vice-championne olympique d’escrime et secrétaire général du Comité olympique français.

Comment votre carrière sportive a-t-elle influencé votre métier et à l’inverse, comment votre métier a pu influencer votre carrière sportive ?

La formation et le métier d’ingénieur apprennent à prendre du recul, à avoir un esprit très analytique et à être dans la résolution de problèmes complexes. J’ai pu apprendre une certaine prise de recul, une capacité à regarder un ensemble de solutions à 360 degrés pour finalement créer ce qui n’existe pas encore et trouver des solutions là où la plupart des gens verraient une impasse. Savoir analyser et trouver l’opportunité derrière la contrainte m’a beaucoup servi dans ma carrière sportive.
Ensuite, ma carrière sportive m’a nourrie en tant qu’ingénieure dans la capacité à se fixer des objectifs. Avec ce double parcours, il m’a fallu prioriser pour ne pas m’éparpiller et c’est un savoir-faire qui m’aide aussi aujourd’hui dans mes fonctions managériales. Autre point que je dois au sport : la concentration. Je sais être vraiment dans l’instant présent et me dédier totalement à l’activité en cours. Cela me permet de mettre plus de qualité dans ce que je fais en étant pleinement mobilisée. Enfin, le troisième point serait l’intuition. Non pas un instinct animal, mais une forme d’intelligence situationnelle qui est liée aux expériences. Cette intuition que j’ai pu apprendre à affiner sur une piste d’escrime, je m’en sers aussi dans ma vie professionnelle. C’est assez complémentaire à ma formation d’ingénieure qui est bien plus cartésienne et basée sur la logique.

Vous intervenez également en entreprises pour des conférences établissant des ponts entre ingénierie aérospatiale et sport de haut niveau. Quels conseils donnez-vous ?

Quand je m’adresse à à une configuration managériale, en tant que manager moi-même, j’éprouve aussi dans ma chair leurs difficultés. Et que ce soit dans le sport comme dans l’ingénierie, je sais que ce qui fonctionne, c’est le sur-mesure. Quand on encadre, on a toujours besoin de l’individualisation : individualiser le management et les engagements, travailler sur la motivation… Bien sûr les compétences sont importantes mais il faut aussi travailler sur le pourquoi on veut faire les choses, les aspirations des uns et des autres. C’est ce genre de parallèles que je m’amuse à dresser avec en plus la chance de me baser sur l’escrime, à savoir le plus collectif des sports individuels. Cela me permet d’adresser à la fois la notion de l’engagement individuel, le fait de travailler sur ses forces et ses singularités, et tout cela au service d’un collectif, puisque l’escrime est aussi un sport d’équipe.

Vous êtes également active pour la parité dans les milieux du sport et des sciences. Comment se manifestent vos engagements ?

En plus de mes activités, je suis autrice d’une collection jeunesse qui s’appelle « Les incroyables rencontres de Jo », -Jo pour Jeux Olympiques- où un garçon de 10 ans rencontre des futurs champions et futures championnes. A travers cette collection, je suis amenée à intervenir dans des écoles, des collèges et des lycées. C’est l’occasion de parler de ma carrière de sportive mais aussi de mon métier d’ingénieure aérospatiale, ce qui me permet d’éveiller les consciences et de casser les stéréotypes auprès des enfants, mais aussi des enseignants. On le sait bien, il y aussi des biais du côté des professeurs qui vont par exemple plus interroger les garçons que les filles dans les matières scientifiques. Donc finalement, ce sont des messages très forts que j’adresse directement à la jeunesse lors de ces temps d’échange, durant lesquels je partage l’attrait des filières scientifiques auprès des jeunes filles notamment.
Mes engagements se font aussi au niveau du sport, afin d’ouvrir les carrières de dirigeantes sportives aux femmes. Aujourd’hui, la parité est une obligation législative donc avec le Comité olympique, nous accompagnons des fédérations pour atteindre les exigences de parité, notamment dans les conseils d’administration et les bureaux directeurs. C’est mon engagement sur la féminisation des instances et des postes à responsabilité.

Faites-vous des parallèles entre la situation des femmes dans les sciences et celle dans le sport ?

Aujourd’hui, il y a 30% de femmes dans l’industrie et 24% de femmes ingénieures. En parallèle, sur des postes d’encadrement technique dans le sport, il y a moins de 20% de directrices techniques nationales et une vingtaine de femmes présidentes sur 117 fédérations. Donc on est sur des chiffres qui sont finalement très comparables.

À votre avis, que faut-il faire pour qu’il y ait plus de parité dans les instances dirigeantes ?

Le premier enjeu à travailler, c’est la légitimité. Des femmes compétentes, il y en a déjà, mais des femmes qui se sentent légitimes, c’est une autre histoire. C’est pour cela qu’il faut d’abord les identifier, puis les former et les accompagner, non pas parce qu’elles ne sont pas compétentes mais pour justement leur donner cette légitimité. Il n’y a rien de pire que de se voir propulser dans une instance dirigeante sans en avoir les codes car un syndrome de l’imposteur peut s’installer. Or, quand on ne se sent pas légitime, on prend moins la parole, et finalement un cercle vicieux s’instaure.
Enfin, il y a l’importance des rôles modèles. On voit bien dans l’espace public aujourd’hui, seulement 6% des rues portent des noms de femmes et moins de 1% de gymnases portent le nom d’une athlète. Si la moitié de l’humanité n’est pas représentée dans l’espace public, c’est un problème car le cerveau a besoin de pouvoir se projeter. C’est ce que nous apprend la neuroscience avec les neurones miroirs. D’où l’importance des prix comme Ingénieuses.

Avez-vous remarqué des améliorations depuis le début de votre carrière ?

Oui il y a eu des améliorations mais apportées principalement par les quotas. Or le problème des quotas, c’est que ça prend du temps. Aujourd’hui, dans les instances sportives par exemple, on se retrouve avec des sièges vacants faute de femmes qui ont pu être identifiées. Donc les quotas sont nécessaires pour reconfigurer notre société mais il faut se donner du temps pour que derrière ces quotas, les sièges soient véritablement incarnés par des femmes qui se sentent à leur place. Je vais être volontairement provocatrice, mais je conseillerais aux recruteurs qui se retrouvent face à un homme et une femme à compétences égales de toujours privilégier la candidate. Parce que dans une société pas totalement égalitaire, si une femme est arrivée à un même niveau de compétences et d’expériences qu’un homme, alors elle a certainement dû déployer deux fois plus d’efforts et donc ça en dit beaucoup sur ses ressources, son engagement et sa détermination.

Que pensez-vous de la charge qui incombe aux femmes de se battre pour l’égalité, en plus de leur carrière ?

Aujourd’hui, les femmes qui prennent des postes à responsabilité ont quasiment un rôle de pionnière donc forcément elles ont envie de s’engager pour cette cause. Mais ça peut aussi devenir un frein pour celles qui n’ont pas envie d’en faire un combat personnel et qui voudraient juste que ce soit une évolution fluide dans leur carrière. La prochaine étape sera de dépasser ce phénomène, et considérer qu’avoir une carrière de dirigeante soit normal. D’ailleurs, on ne devrait pas être les seules à s’exprimer sur ce sujet, les hommes devraient le faire également. C’est un sujet de société donc un sujet politique, et il faudrait qu’on puisse avoir des carrières sans avoir besoin de s’exprimer dessus.

Propos recueillis par Alexandra Vépierre

L’Académie des sciences alerte sur les importantes lacunes de la nouvelle PPE

Alors qu’une version révisée de la programmation pluriannuelle de l’énergie (PPE) doit être entérinée dans les semaines à venir, la nouvelle feuille de route stratégique de la politique énergétique française à l’horizon 2035 continue de susciter d’importantes critiques. Censée traduire l’ambition nationale de sortie des énergies fossiles tout en assurant la sécurité d’approvisionnement, cette nouvelle mouture est vivement désapprouvée par l’Académie des sciences, qui vient de publier son avis.

L’institution regrette d’emblée qu’elle tienne si peu compte des contributions citoyennes et scientifiques. « La version révisée reste, pour l’essentiel, identique à la version initiale », déplore-t-elle. Seules quelques corrections mineures, notamment une légère baisse des objectifs en solaire et en hydrogène vert, ont été intégrées. Surtout, de graves incohérences chiffrées persistent dans le document, puisque d’un côté, il est écrit que la consommation finale d’énergie sera de 1 100 TWh en 2035, alors qu’une autre section indique 1 302 TWh pour la même année. La consommation électrique, elle, oscille entre 429, 508 et 600 TWh selon les pages.

L’Académie dénonce également des prévisions de consommation déconnectées du réel. Le projet de PPE prévoit en effet une forte augmentation de la production d’électricité – jusqu’à 708 TWh en 2035 – alors même que la consommation est en baisse depuis 2017, passant de 480 TWh à 449 TWh en 2024. Cette diminution s’expliquerait par plusieurs facteurs, tels que la sobriété accrue des ménages, l’optimisation industrielle, la désindustrialisation et des obstacles techniques à l’électrification de secteurs comme les transports ou le chauffage.

Une surproduction d’électricité coûteuse et instable

Dans ce contexte, « une accélération rapide et forte de l’électrification des usages apparaît peu probable », écrit l’Académie, qui en conclut que les objectifs de production sont largement surestimés. Pire encore, cette montée en puissance s’appuie massivement sur des énergies intermittentes (éolien et solaire), dont la production atteindrait 274 TWh en 2035 contre 73 TWh en 2023. Or l’institution scientifique alerte sur les conséquences d’une telle stratégie, qui pourrait conduire à une surproduction coûteuse et instable.

En l’absence de solutions de stockage d’électricité massives, toujours indisponibles à court terme, la part croissante d’énergies non pilotables (proche de 40 %) pourrait en effet engendrer des déséquilibres majeurs. Parmi ceux-ci : une « volatilité accrue des prix de l’électricité », une sous-utilisation du parc nucléaire et « des tensions sur les réseaux », avec des coûts d’adaptation importants. L’Académie rappelle que la priorité au solaire et à l’éolien sur le réseau électrique pourrait même nuire à l’exploitation optimale du nucléaire, en forçant sa modulation fréquente, une opération coûteuse et risquée pour les réacteurs.

Favorable à une électricité « presque totalement décarbonée » comme c’est déjà le cas aujourd’hui, l’Académie réaffirme son soutien à une production nucléaire « substantielle » (360-400 TWh). Elle appelle à maintenir les objectifs de construction de nouveaux EPR, nécessaires pour remplacer les réacteurs anciens et éviter un « effet falaise ». Autre demande majeure : la réalisation d’une analyse approfondie des coûts complets du système électrique français, incluant les scénarios alternatifs, car aucun chiffrage global n’accompagne cette nouvelle PPE.

L’Académie recommande de réviser les objectifs de production des énergies renouvelables intermittentes en les ajustant aux besoins réels et aux capacités du système. Elle s’appuie notamment sur les enseignements du rapport conjoint de RTE et de l’AIE de 2021, qui insiste sur trois conditions : une puissance pilotable suffisante à tout moment, un renforcement des réseaux et un stockage disponible à toutes les échelles de temps. Enfin, l’institution plaide pour une synchronisation rigoureuse entre l’évolution du mix électrique et celle de la demande. Il ne s’agit pas de produire toujours plus, mais de produire mieux, au rythme de l’électrification réelle des usages.

LesBienCâblés : un collectif de tableautiers engagés, qui œuvre à la valorisation des métiers techniques

Nous sommes allés à la rencontre de Stéphane Noiret, président du groupe LesBienCâblés.

Stéphane NOIRET, président du groupe LesBienCâblés (crédit : Marion Delattaignant)

LesBienCâblés est né de l’union de SATE, S.E.R et TEEI et fédère plus de 130 collaborateurs autour de la conception, la fabrication, et l’installation de tableaux et armoires électriques sur mesure pour les secteurs critiques de l’économie.

Le projet LesBienCâblés repose sur un socle solide. C’est un projet ambitieux qui va bien au-delà de la simple rentabilité économique, avec :

  • une intégration verticale progressive ;
  • une démarche RSE structurée ;
  • une politique RH ambitieuse ;
  • des équipes formées.

Après avoir dirigé SATE pendant 5 ans, Stéphane Noiret est désormais président du groupe.

 

Techniques de l’ingénieur : En quoi consiste le métier de tableautier ?

Stéphane Noiret : Dans la filière électricité, il y a quatre types d’acteurs clés, dont trois sont très connus : les fabricants (ABB, Legrand, Schneider…), les distributeurs (Rexel, Sonepar…) et les installateurs, qui sont, le plus souvent, des filiales énergie de groupes du BTP (Spie, Vinci, Eiffage, Bouygues, etc.).

Le quatrième acteur est peu connu du grand public. Il s’agit du tableautier, c’est-à-dire celui qui fabrique les tableaux électriques et que l’installateur consulte lorsqu’il souhaite répondre au lot électricité d’un appel d’offres.

Notre métier nécessite de multiples compétences techniques : électricité, montage câblage, test et contrôle de l’armoire, mais aussi un savoir-faire au niveau de la conception, du design et de l’implantation des tableaux.

Chez LesBienCâblés, nous développons donc des armoires sur mesure, mais aussi des coffrets en série, notamment pour le photovoltaïque résidentiel, en 3, 6 ou 9 kW.

Pour résumer, nous maîtrisons toute la chaîne de valeur du tableau, depuis la conception, jusqu’à l’expédition.

LesBienCâblés réunit les entreprises SATE, S.E.R et TEEI. Pourquoi ce regroupement ?

J’ai dirigé SATE, située à Dax, pendant 5 ans. C’est une entreprise qui a connu une belle croissance, portée par le marché du photovoltaïque, mais elle était très spécialisée. Or, nous voulions diversifier nos activités et attaquer de nouveaux marchés industriels et tertiaires de manière massive.

TEEI étant spécialisée industrie et S.E.R spécialisée tertiaire, ce regroupement était donc logique, car ces entreprises ont respectivement 30 et 50 ans d’existence et bénéficient d’un savoir-faire reconnu ainsi que d’une bonne implantation dans leurs territoires.

Par ailleurs, puisque S.E.R est implantée dans le 69 et TEEI à Nancy, ce regroupement nous a donc aussi permis d’étendre notre empreinte géographique.

Nous bénéficions désormais de savoir-faire complémentaires et aussi d’une taille qui nous permet de prendre une place importante dans le panorama des tableautiers, avec l’ambition de devenir une véritable ETI, mais aussi de valoriser ce métier méconnu.

Quels sont les moyens mis en œuvre pour cette valorisation ?

Le métier de tableautier est un métier de l’ombre, dans la filière électricité. On s’est donc demandé quelle serait la meilleure manière de prendre la parole.

Nous avons choisi comme nom « LesBienCâblés », car il résume parfaitement qui on est, ce qu’on fait au quotidien et traduit un engagement de qualité vis-à-vis de nos clients ou collaborateurs.

Mais derrière ce nom, il y a aussi une volonté d’ouverture, de tolérance et une certaine idée de la place de l’entreprise dans la cité, en tant que vecteur de lien social et d’épanouissement. Notre démarche RSE nous sert d’ailleurs de boussole pour maintenir ce cap.

Nous pensons aussi qu’il est primordial d’incarner des valeurs et d’oser communiquer, de porter une marque employeur, sans utiliser trop de discours techniques au départ, avec les nouveaux arrivants dans l’entreprise.

Pouvez-vous nous parler de cette démarche d’ouverture ?

Voici un exemple : nous avons intégré, au sein de l’entreprise, des collaborateurs avec des trajectoires pas forcément linéaires. Nous leur avons appris le métier et cela a transformé l’entreprise ! On se rend compte que l’important n’est pas ce que les gens savent faire en entrant dans l’entreprise, mais ce qu’ils sont en capacité de faire si on leur donne les moyens de réussir.

Forcément, c’est beaucoup de travail au quotidien, car cela nécessite de faire attention à l’autre, de prendre du temps pour accompagner la personne dans son évolution professionnelle, d’être dans la collaboration réelle, pas dans de « l’affichage de valeurs ».

Il faut incarner véritablement ces valeurs, au quotidien, afin de réconcilier cols blancs et cols bleus, ce qui suppose de désacraliser le rôle du patron, qui n’est pas isolé dans sa tour d’ivoire. C’est important de montrer que tout le monde est sur le pont quand il y a un problème ou une machine à déménager, car, dans une entreprise, nous sommes tous concernés.

Je pense sincèrement que l’entreprise doit jouer une place essentielle dans la société, comme vecteur de lien, d’épanouissement et d’accomplissement de soi, peu importe le temps passé dans l’entreprise d’ailleurs. Un jeune qui sera resté seulement trois semaines chez nous aura appris des choses et aura une vision positive du monde professionnel qui bénéficiera à toute la filière.

Ce rôle sociétal que doit exercer une entreprise est-il compatible avec la notion de performance ?

J’ai une conviction forte : la performance telle qu’on la conçoit actuellement est une vision court-termiste en voie de disparition. En effet, le monde d’aujourd’hui est plein d’incertitudes et rares sont les entreprises qui sont capables de faire un plan sur deux ans.

Sans réelle vision à moyen ou long terme, elles sont donc contraintes aux petits pas, aux ajustements et sont en quête permanente d’agilité.

Or, cette agilité demande une certaine assise de la part des entreprises, une robustesse qui passe notamment par des équipes plus solides, plus compactes et pas uniquement motivées par le salaire. Dans un modèle d’entreprise robuste, l’argent ne peut pas être la seule motivation d’un salarié, puisqu’il pourra facilement aller voir ailleurs si on lui offre un meilleur salaire.

La robustesse, c’est aussi ne pas miser à tout prix sur les volumes de production en cherchant à baisser la qualité. Quand ça tangue, les délais de paiement s’allongent, les trésoreries fondent et on se rend vite compte que le système est très fragile.

À l’inverse, la robustesse permet de surmonter les crises et les épreuves, mais ça nécessite de porter un élan vital et de faire un énorme travail de fond. Être robuste c’est aussi se poser la question du long terme ou du court terme, lorsqu’un choix est à faire.

Néanmoins, les résultats sont bien plus difficiles à évaluer que dans un modèle de performance économique, où les KPI sont bien connus. Évaluer la robustesse et la durabilité demande plus de travail ! Je pense notamment à l’évaluation du moral des équipes : au lieu de faire de petites enquêtes de satisfaction ponctuelles, on peut par exemple « prendre la température » lors de chaque réunion.

Cela suppose de parler avec les gens de manière sincère, de s’intéresser à eux, à leur niveau de stress, bref de se connecter à l’autre. Procéder de cette manière change radicalement la physionomie d’une réunion. Quand on fait ça, on n’est plus dans la consommation de l’autre, mais dans la valorisation, dans l’enrichissement de l’autre.

Pour moi, avoir de la considération pour le collaborateur, c’est aussi cela « être bien câblé », car chez nous, un collaborateur est avant tout une personne avant d’être une fonction.

Un nanocomposite biodégradable et imprimable en 3D, pour la greffe osseuse

Ce nouveau matériau est composé de nanoparticules d’hydroxyapatite, un matériau bien connu du monde médical, puisque ce minéral de la famille des phosphates est le principal composant des os, de la dentine et de l’émail dentaire.

Si ce matériau est utilisé dans les applications médicales depuis sa mise en production industrielle dans les années 1980, la démocratisation récente des technologies d’impression 3D a initié le développement de matériaux spécifiques à ces procédés, notamment des nanocomposites.

Un nanocomposite à base d’hydroxyapatite nanostructurée

Selon la docteur Maud Gorbet, Professeure à l’Université de Waterloo, les particules d’hydroxyapatite jouent de multiples rôles au sein de ce nanocomposite, car « elles offrent un renforcement mécanique, rendant le matériau plus rigide et plus solide. Elles créent également une surface favorable pour que le matériau se combine avec les cellules osseuses. »

Par ailleurs, l’utilisation potentielle de matériaux contenant de l’hydroxyapatite nanostructurée pour la greffe a été confirmée par de récents travaux de recherche[1], les tissus osseux étant capables d’interagir avec le greffon et de le remplacer progressivement.

Une aptitude à l’impression améliorée par l’ajout de diacrylate de triglycerol (TGDA)

L’hydroxyapatite est donc le matériau idéal pour la fabrication sur mesure d’os artificiels. Mais pour être imprimable, par exemple en Direct Ink Writing (DIW), l’hydroxyapatite doit être associée à des liants et résines organiques qui permettent la polymérisation.

Le communiqué de presse publié sur le site de l’université ne précise pas la nature exacte du nanocomposite et des liants utilisés par les chercheurs. On sait seulement que le matériau combine « un triglycéride similaire à la graisse avec une particule à l’échelle nanométrique appelée hydroxyapatite ».

Pour en savoir plus, il faut s’en référer aux travaux récents de l’équipe dirigée par le docteur Thomas Willett. Dans un papier publié en 2024 dans le Journal of the Mechanical Behavior of Biomedical Materials, les chercheurs expliquent comment l’ajout de TGDA, une substance chimique appelée diacrylate de triglycerol, permet d’améliorer les liaisons hydrogène lorsqu’elle est ajoutée à une résine polyéthylène glycol diacrylate, fabriquée à partir d’huile de soja époxydée.

Le procédé fonctionne, mais des optimisations sont encore nécessaires

Crâne artificiel en cours d’impression
Crâne artificiel en cours d’impression (Extrait de la vidéo Reshaping bone repair with 3d printing)

Les chercheurs ont réussi à prouver qu’il était possible d’obtenir de véritables os artificiels par impression 3D, avec ce matériau. Pour s’en convaincre, il suffit de regarder cette vidéo.

Dans le communiqué, Thomas Willet déclare ainsi « nous pouvons prendre des tomodensitogrammes et utiliser la conception assistée par ordinateur pour développer un modèle pour le morceau d’os qui doit être imprimé. »

Et il précise : « nous pourrions utiliser ce processus pour n’importe quel os qui a perdu un gros morceau ou qui a une géométrie complexe. »

Voilà pour la faisabilité. Mais pour l’équipe, le défi est dorénavant l’optimisation du matériau, afin de trouver l’équilibre entre imprimabilité, propriétés mécaniques, durabilité et vitesse de biodégradation.


[1] Notamment cette étude parue dans le Journal of Biomedical Materials Research en 2024

Créer des matériaux polycavité aqueux

Connaissez-vous les PAPs (porous aromatic/polyaromatic polymers) ? Ces polymères aromatiques/polyaromatiques poreux présentent des polycavités qui ont l’avantage de permettre l’adsorption ou la séparation de molécules et de gaz. Mais leurs applications actuelles se limitent à l’état solide. Seules des molécules à une cavité ont jusqu’ici pu être étudiées en solution. Des chercheurs de l’Université des sciences de Tokyo (Japon) viennent donc de réaliser une avancée majeure. En effet, les trois collègues – Shinji Aoyama (premier auteur de l’étude), Lorenzo Catti et Michito Yoshizawa – sont parvenus à débloquer les fonctions microporeuses des PAPs en solution. Pour ce faire, ils ont notamment suivi un protocole de broyage-sonication. Autrement dit, les scientifiques ont d’abord écrasé manuellement le solide avant de le soumettre à des ondes ultrasonores. Le résultat est décrit en détail dans le journal Chem du 2 juin 2025.

Des matériaux à trois voire quatre composantes

La méthode de préparation du matériau polycavité aqueux repose sur l’encapsulation de polymères poreux pyrène-benzène par des micelles aromatiques. Ces dernières forment des agrégats sphéroïdaux de molécules amphiphiles (avec une chaîne hydrophile et une chaîne hydrophobe) permettant d’enfermer la substance dans une sorte de capsule. Plus précisément, les chercheurs ont broyé 1,4 mg de micelles et 2 mg de polymères pyrène-benzène à l’aide d’un mortier et d’un pilon en agate. Ils ont ensuite ajouté 2 mL d’eau avant de soumettre le tout à un sonicateur pendant une dizaine de minutes. Le mélange obtenu, composé de particules de différentes tailles, a ensuite été placé en centrifugeuse (3 600 g pendant 10 nouvelles minutes) puis filtré par des pores de 0,45 µm. En sortie, Shinji Aoyama et ses comparses ont récupéré une solution jaune comportant cette fois des particules de taille uniforme quasi sphériques d’environ 100 nm.

Le composite résultant est un matériau polycavité aqueux, permettant l’incorporation d’hydrocarbures et/ou de colorants dans lesdites cavités. L’équipe de recherche s’en est assurée en remuant dans de l’eau un mélange de PAP à base de pyrène-benzène avec un hydrocarbure cyclique, le cyclodécane (C10H20). La fusion des deux substances a donné un matériau à trois composantes, possédant une forte teneur en cyclodécane. Les scientifiques ont même observé le cas – très rare – d’un matériau à quatre composantes (avec du colorant en plus par exemple). À l’avenir, de tels composites pourraient servir pour le stockage, la détection et les catalyses en milieu aqueux.

Revue du Magazine d’Actualité #37 : du 23 au 27 juin

De la découverte en laboratoire à l’innovation industrielle… On scrute pour vous chaque semaine les tendances de l’industrie.

La France, leader des investissements étrangers malgré les turbulences européennes

L’Europe connaît une baisse significative des investissements étrangers pour la deuxième année consécutive. Avec une diminution de 5% des projets en 2024, le continent doit faire face à des défis majeurs pour retrouver son attractivité. Analyse des causes et des solutions possibles.
Comment la France maintient son leadership en matière d’investissements étrangers

Aviation et climat : les enjeux de la neutralité carbone

Alors que le secteur aérien s’est engagé à atteindre la neutralité carbone d’ici 2050, les défis technologiques et économiques restent nombreux. Ce livre blanc porte sur les solutions envisagées et les obstacles à surmonter pour transformer cette promesse en réalité.
Vers une aviation durable : enjeux et solutions

Black PR : quand la concurrence s’attaque aux géants de l’automobile chinoise

Depuis quelques années, les marques automobiles chinoises comme BYD, Nio, et Geely ont bouleversé le marché mondial de l’automobile. Cependant, elles font face à des campagnes de désinformation qui menacent leur réputation. Comment ces géants réagissent face à ces attaques ?
Les enjeux des campagnes de dénigrement contre les constructeurs chinois

Taïwan resserre l’étau sur les exportations high-tech vers la Chine

La Chine se heurte à de nouvelles restrictions imposées par Taïwan, qui a ajouté 601 entités à sa liste noire des produits stratégiques de haute technologie. Parmi elles, des géants comme Huawei et SMIC, qui doivent désormais obtenir une autorisation pour accéder aux technologies taïwanaises cruciales pour la fabrication de semi-conducteurs destinés à l’IA.
Les nouvelles restrictions taïwanaises: un coup dur pour Huawei et SMIC

Atlas 2050 : vers une nouvelle planification territoriale autour des ressources

Publié par The Shift Project, le rapport intermédiaire Atlas 2050 met en lumière les enjeux cruciaux de la transition énergétique en France. À l’horizon 2050, nos usages quotidiens pourraient devenir sources de rivalités. Le think tank propose une analyse approfondie des défis et des solutions pour une gestion durable des ressources.
Anticiper les tensions locales face aux défis climatiques

Métrologie : au cœur des avancées scientifiques et technologiques, au regard des enjeux climatiques et industriels

De la précision des mesures à l’adaptation aux technologies émergentes, la métrologie est un domaine en constante évolution. Maguelonne Chambon nous explique comment elle s’adapte aux besoins de l’industrie moderne et aux défis environnementaux, tout en restant un pilier de la recherche scientifique.
Les défis et innovations de la métrologie vus par une experte du domaine

Les satellites atmosphériques : une évolution dans les communications

Le parcours professionnel atypique de Daniel Battu l’a conduit à une expertise unique dans le domaine des communications spatiales, en passant par les services postaux et les innovations technologiques.
L’évolution des communications spatiales à travers le parcours d’un expert

Les constructeurs automobiles chinois confrontés à des campagnes de désinformation

En quelques années, des marques comme BYD, Nio, MG (groupe SAIC), Geely, ou encore XPeng ont bousculé les équilibres d’un marché automobile historiquement dominé par les États-Unis, l’Europe et le Japon. Alors que ces constructeurs automobiles chinois s’imposent comme des acteurs incontournables de la transition vers la mobilité électrique, certains d’entre eux sont la cible d’une vague croissante de campagnes de désinformation, de soupçons et de critiques parfois infondées. Cette stratégie, bien connue sous le nom de black PR (black public relations), semble gagner du terrain dans un contexte de concurrence industrielle et de tensions géopolitiques.

Les campagnes de dénigrement, souvent menées sur les réseaux sociaux, portent sur différentes thématiques, comme la prétendue insécurité de ces voitures chinoises en raison de leurs batteries risquant de prendre feu ou leur incapacité à passer avec succès les épreuves de crash-tests de sécurité Euro NCAP (New Car Assessment Programme). D’autres accusations ciblent les performances supposément trompeuses de ces véhicules ou la médiocre qualité de leurs finitions, avec par exemple la présence de bruits parasites liés à l’emploi de plastiques bon marché… Dans la plupart des cas, les problèmes évoqués sont mensongers ou alors mineurs et comparables à ceux d’autres marques occidentales, mais ils sont souvent présentés comme révélateurs d’une fiabilité douteuse.

En début d’année, Nio a publié un communiqué dans lequel l’entreprise affirme avoir subi une série d’attaques malveillantes coordonnées sur les réseaux sociaux chinois, caractérisées par la publication simultanée de contenus quasi-identiques par de nombreux comptes, visant à manipuler l’opinion publique et à nuire à sa réputation. Le constructeur a annoncé avoir identifié plusieurs comptes impliqués dans ces campagnes et avoir engagé des poursuites judiciaires à leur encontre. Un des titulaires de ces comptes a été condamné pour insultes et diffamation envers la marque automobile, avec obligation de présenter des excuses publiques et de verser des dommages-intérêts.

Une récompense de 600 000 euros pour toute preuve menant aux diffamateurs

BYD, lui aussi concerné par le black PR, a adopté une stratégie de riposte multifacette pour y faire face. La firme offre des primes pouvant aller jusqu’à 600 000 euros pour toute preuve menant à l’identification des responsables de campagnes de désinformation ou de diffamation ciblant l’entreprise. Elle a aussi renforcé sa présence sur les réseaux sociaux, avec des contenus pédagogiques et démonstratifs sur la qualité, la sécurité et la durabilité de ses véhicules, en mettant en avant leur innovation technologique.

Le géant chinois organise aussi des essais avec la presse pour permettre aux journalistes et aux influenceurs de tester les véhicules par eux-mêmes et contrecarrer les critiques biaisées. Confronté à des accusations d’espionnage et de collecte de données qui nourrissent la méfiance des consommateurs, il ouvre également ses logiciels embarqués à des audits indépendants, notamment dans le domaine de la cybersécurité et de la conformité réglementaire.

Malgré toutes leurs initiatives, l’image de ces constructeurs automobiles reste fragile. Dans l’imaginaire collectif, les produits chinois souffrent encore de stéréotypes liés au bas de gamme ou à la contrefaçon. Un terrain fertile pour les stratégies de black PR. Reste que ce secteur de l’économie chinoise continue à se porter en bonne santé. En 2024, les ventes de véhicules électriques et hybrides ont progressé de plus de 40 %, avec une hausse des exportations de 25 %. Face à ce succès, certains observateurs estiment que les constructeurs chinois paient aujourd’hui le prix de leur compétitivité. Dans un secteur en mutation, où l’électrification redistribue les cartes, la bataille ne se joue plus seulement sur les chaînes de montage, mais aussi à travers une guerre de l’information.

Attractivité : la France et l’Europe sont à la croisée des chemins

EY (Ernst & Young), interroge chaque année des milliers de dirigeants d’entreprises étrangères pour recenser leurs investissements en Europe. L’étude dont il est question ici s’appuie à la fois sur une analyse des investissements réalisés en 2024 et de l’opinion d’un panel de 200 dirigeants internationaux.

L’attractivité de l’Europe est en baisse

C’est la deuxième année consécutive que les investissements étrangers sont en diminution en Europe. Ils ont même atteint leur plus bas niveau depuis 2015 avec 5 383 projets en 2024, contre 5 694 en 2023. Même constat concernant l’emploi (période Covid-19 exclue) avec une diminution de 16 % du nombre d’emplois créés, par rapport à 2023, mais avec un effet amplifié par l’absence de croissance économique et la persistance de crises.

investissements europe
Nombre de projets d’investissements étrangers annoncés en Europe (UE27 + 18 autres pays de l’espace européen) entre 2015 et 2024 et nombre d’emplois créés (Source : EY European Investment Monitor 2025)

Dans leur ensemble, les 45 pays concernés par le baromètre auraient donc enregistré une baisse de 5 % des implantations et extensions internationales, par rapport à 2023, ce qui contraste fortement avec les +20 % d’investissements étrangers en Amérique du Nord.

Par ailleurs, ces chiffres sont la conséquence directe de l’Inflation Reduction Act et du Chips Act portés par l’administration Biden. Avec ces deux lois qui favorisent les produits fabriqués sur le sol américain, à grands coups de subventions fédérales, les États-Unis montrent ainsi qu’ils n’ont pas attendu le retour au pouvoir de l’administration Trump pour faire du protectionnisme.

Selon le baromètre EY, cette contraction est d’ailleurs en corrélation directe avec la baisse des investissements américains en Europe, les investisseurs américains pesant environ 25 % des emplois et des projets depuis dix ans ! Il y aurait donc deux causes majeures : d’une part, une certaine frilosité à investir en l’Europe, et d’autre part, une volonté croissante de la part des États-Unis à retenir leurs propres investisseurs.

L’Europe peine à rassurer sur sa capacité à surmonter les crises

Protectionnisme mis à part, pourquoi les investisseurs hésitent-ils à venir en Europe ? L’enquête réalisée auprès de 500 dirigeants internationaux met en lumière les principaux risques pour l’attractivité de l’Europe au cours des trois prochaines années. Sans surprise, les principaux freins sont les tensions et conflits géopolitiques, le contexte macroéconomique et les barrières commerciales (avec les États-Unis principalement).

Viennent ensuite les problèmes de compétitivité, en lien avec les coûts énergétiques, notre capacité d’innovation jugée trop lente, ainsi que les tensions sur le marché du travail.

économie, europe
Réponses des dirigeants internationaux à la question : « Quels sont les trois principaux risques pour l’attractivité de l’Europe au cours des trois prochaines années ? » (source : EY European Investment Monitor 2025)

La France ne manque pas d’atouts…

Si la situation en Europe n’est pas reluisante, et en dépit des interrogations persistantes sur la compétitivité de la France ainsi que des incertitudes budgétaires et fiscales liées à l’instabilité politique, la France demeure malgré tout le pays européen qui reçoit le plus d’investissements étrangers, devant le Royaume-Uni et l’Allemagne.

Car la France conserve de nombreux points forts. Les principaux atouts relevés par le baromètre sont ainsi la force de notre marché intérieur, notre niveau d’innovation, la qualité de notre main-d’œuvre et la qualité de nos infrastructures. Et, chose surprenante : la qualité de vie en France semble également être un avantage fort pour 29 % des répondants, devant la disponibilité d’une énergie faible en carbone !

…mais l’attractivité de la France peut être améliorée

Il est certain que les bouleversements géopolitiques et les tensions commerciales actuelles auront un impact durable sur les flux d’investissement en France et en Europe. Néanmoins, la France a su saisir les opportunités dans des secteurs d’avenir, comme l’IA, l’énergie décarbonée, les logiciels, l’aéronautique, la défense, etc.

Mais le baromètre souligne aussi que les capacités de rebond de la France sont fragiles et que des compromis devront être trouvés rapidement pour lever les principaux freins à la reprise des investissements : coût du travail, stabilité, politique énergétique et environnementale, accès au financement et marché de capitaux, complexité réglementaire et compétitivité fiscale.

Et l’étude est très claire, quant aux priorités de la France. Pour les investisseurs étrangers, les principales mesures qui permettront au pays de maintenir sa position compétitive dans l’économie mondiale consistent à simplifier et réduire la fiscalité, à soutenir les industries stratégiques, à encourager l’innovation, la compétitivité, à soutenir les PME et ETI et à investir dans de grands projets d’infrastructure.

Bien entendu, ces efforts attendus de la part de la France ne suffiront pas à inverser la tendance actuelle et une réponse européenne rapide est plus que jamais nécessaire, notamment en termes de soutien aux PME, ETI, aux industries, et surtout de réduction des prix de l’énergie et d’indépendance énergétique.

L’idée folle d’un moratoire sur les énergies renouvelables

Vent de folie dans l’hémicycle de l’Assemblée nationale le 18 juin. Alors que les bancs sont presque vides, sauf du côté de l’extrême droite, les députés votent plusieurs amendements à la proposition de loi dite Gremillet. Il en résulte un ensemble disparate visant à centrer la politique énergétique française presque exclusivement sur le nucléaire, à redémarrer Fessenheim, à exclure les énergies renouvelables de la programmation énergétique, à remettre en cause l’intégration de la France dans le marché européen de l’énergie, ou encore à la transformation d’EDF en Epic…

Le tollé qui s’en suit est à la mesure de l’énormité des amendements. Les industriels et fédérations des énergies renouvelables parlent d’une « approche irresponsable et extrême » selon le SER. Les élus du groupe Écologiste et Social, ne mâchent pas leurs mots, comme Julie Laernoes, députée de Loire-Atlantique disant que « la proposition de loi Gremillet, déjà déséquilibrée en sortie de Sénat, calibrée pour le tout nucléaire, a été ici transformée en véritable manifeste climatosceptique ». Au centre de l’échiquier politique, Philippe Bolo, député de Maine-et-Loire (groupe Les Démocrates) n’est pas en reste : « Le texte n’était plus une loi de programmation mais une loi de déprogrammation ! Il n’était plus un cap, il devenait une impasse ! »

Des mesures fragiles et impossibles

Pour mieux comprendre ce qui s’est passé, rappelons que depuis presque trois ans, la France attend la mise à jour de sa programmation pluriannuelle de l’énergie (PPE), un document essentiel pour tracer la route des priorités énergétiques. De consultations des professionnels en consultations du public, de décalages techniques en décalages politiques, la PPE qui devait sortir sous forme de décret s’est retrouvée questionnée par le sénateur des Vosges Daniel Gremillet (groupe Les Républicains) le 26 avril 2024, via une proposition de loi portant programmation nationale et simplification normative dans le secteur économique de l’énergie. Adoptée au Sénat le 16 octobre 2024, cette proposition de loi est ensuite arrivée chez les députés.

Il est normal que les parlementaires aient un mot à dire sur de tels enjeux, mais quand cela se fait au mépris de faits scientifiques, techniques, économiques et juridiques, on aboutit à cette situation cacophonique du 18 juin. Comme le dit Jean-Luc Fugit, député du Rhône (groupe Ensemble pour la République) et aussi président du Conseil supérieur de l’énergie : « le texte sorti de nos débats multiplie les caricatures, les dispositions juridiquement fragiles et des mesures techniquement impossibles ». Voici les principaux aspects concernés.

  • Focalisation sur les énergies décarbonées

Un des amendements prévoyait que le Code de l’énergie stipule un objectif annuel de production d’énergie décarbonée sans déclinaison par type d’énergie. Le terme « d’énergie décarbonée » n’existe pas dans le droit de l’Union européenne et risquait de mettre la France en infraction, selon l’avocat spécialisé Arnaud Gossement. Seule la catégorie « énergie renouvelable » existe au niveau de l’UE, ce qui ne plaît pas aux promoteurs du nucléaire qui aimeraient y inclure l’atome.

  • Moratoire sur les énergies renouvelables

Plusieurs dispositions votées le 18 juin visaient à réduire à néant certaines filières renouvelables. Il s’agissait à la fois d’exclure l’éolien et le solaire photovoltaïque de la liste des énergies décarbonées (puisque étaient citées seulement les installations nucléaires, hydrauliques, marémotrices, géothermiques, aérothermiques, biomasse, osmotiques et cinétiques), de supprimer l’objectif existant de la part des énergies renouvelables dans la consommation finale d’énergie, et de supprimer les objectifs spécifiques à chaque source renouvelable. À rebours des dynamiques actuelles faisant de l’éolien et du solaire les solutions les plus rapides et parmi les moins chères à installer, au mépris des 80 000 emplois, ce moratoire de fait sur l’éolien et le solaire constituait « un signal inquiétant et profondément contre-productif » selon l’Union française de l’électricité (UFE).

  • Priorité forte au nucléaire

D’autres amendements ont voulu modifier la loi pour que la production d’électricité française soit principalement basée sur le nucléaire. Une sorte de voie à sens unique qui va à l’encontre de la doctrine d’un « mix électrique équilibré » portée par tous les gouvernements. Pour Arnaud Gossement, cette rupture aurait eu pour conséquence de rendre difficile l’organisation d’appels d’offres pour soutenir la production d’énergies renouvelables.

  • Redémarrage des deux réacteurs nucléaires de Fessenheim

Portés par leur euphorie du tout-nucléaire, et certainement victimes du syndrome de pensée magique, les députés d’extrême droite ont également inclus dans leur vote la remise en fonctionnement des deux réacteurs de Fessenheim, arrêtés depuis cinq ans. « Une ineptie » comme l’a relevé le Groupement de scientifiques pour l’information sur l’énergie nucléaire (GSIEN), tant sur le plan technique (beaucoup de composants comme la turbine ou l’alternateur ont déjà été enlevés) que sur les plans financier (une reconfiguration de la centrale nécessiterait au minimum 400 à 500 millions d’euros) et juridique (EDF ayant déclaré l’arrêt définitif de Fessenheim, il faudrait soumettre un nouveau dossier de reconstruction et de sûreté à l’ASNR).

  • Sortie du marché européen de l’énergie

Les textes votés remettaient en cause les principes d’intégration des marchés européens de l’énergie, qui permettent notamment une entraide entre les États membres. L’UFE a considéré que « plusieurs principes fondamentaux du droit européen sont ignorés, compromettant ainsi la sécurité juridique du cadre de marché […] essentielle pour garantir la confiance des investisseurs ».

  • Moindre ambition de réduction des émissions de gaz à effet de serre

Enfin, le lendemain des votes du 18 juin, une modification du Code de l’énergie aurait affaibli l’objectif climatique de la France. Au lieu de « réduire les émissions », il était en effet proposé de dire « tendre vers une réduction » : une subtilité sémantique non négligeable puisqu’elle aurait transformé l’obligation de résultat en obligation de moyen, selon l’analyse d’Arnaud Gossement.

Quelles suites envisager ?

La PPE s’est retrouvée au cœur d’une politisation de la question énergétique. Mais l’épisode de confusion après le vote du 18 juin aura duré moins d’une semaine puisque, à l’issue d’une intense mobilisation des acteurs souhaitant une transition énergétique équilibrée, l’Assemblée nationale a finalement rejeté la loi Gremillet (377 voix contre, 142 pour et 47 abstentions) le 24 juin. Ce dont le ministre de l’Industrie et de l’Énergie, Marc Ferracci, s’est félicité en précisant que « les députés ont refusé de sacrifier notre souveraineté énergétique à l’autel des postures idéologiques ».

Néanmoins, l’affaire n’est pas terminée. Marc Ferracci veut publier la PPE avant l’été (sic) mais la proposition de loi Gremillet doit revenir en seconde lecture au Sénat et être examinée à partir du 8 juillet. L’extrême droite fait même pression pour revoir passer ce texte à l’Assemblée nationale sous peine de censurer le gouvernement Bayrou. Il est donc fort à parier que les postures idéologiques vont perdurer…

De plus, la proposition de loi Gremillet et certaines orientations du Gouvernement comportent encore des dimensions contraires à une transition énergétique ambitieuse. Une « forme de moratoire light » sur les énergies renouvelables existe encore selon Arnaud Gossement. Et le volet sur la maîtrise de la demande d’énergie est « quasiment inexistant » selon l’Association négaWatt : niveau d’ambition fixé pour 2030 reporté à 2050 ; ambitions sur la rénovation des bâtiments « considérablement affaiblies par rapport aux textes en vigueur, tant en termes de rythme que de qualité des rénovations » ; et « secteur des transports totalement absent, sauf au travers d’un article visant à s’assurer que la protection de la qualité de l’air ne puisse entraîner de restriction de circulation » !

Alors que tous les acteurs du secteur de l’énergie espéraient des objectifs ambitieux, des moyens économiques pertinents et une longue stabilité réglementaire grâce à la PPE, il semble que l’ambiance chaotique n’est pas près d’exaucer leur vœu.

La Chine va-t-elle perdre la course à l’IA ?

La course à l’IA semble semée d’embûches pour la Chine. L’Administration du commerce international de Taïwan (ACI), rattachée au ministère des Affaires économiques, a récemment ajouté 601 entités à sa « liste noire des produits stratégiques de haute technologie ».

Parmi elles figurent deux géants chinois des semi-conducteurs, Huawei et SMIC, ainsi que de nombreuses filiales de ces groupes implantées en Chine, au Japon, en Russie et en Allemagne. Cette extension englobe également plusieurs organisations non étatiques controversées, dont les talibans et Al-Qaïda, ainsi que des entreprises basées au Pakistan, en Iran et au Myanmar.

L’inscription sur cette liste noire signifie que toute entreprise taïwanaise souhaitant exporter vers l’une de ces entités doit désormais solliciter une autorisation du gouvernement. Concrètement, Taïwan resserre l’accès à ses technologies, matériaux et équipements de pointe pour la fabrication de puces.

Or, ces outils – machines de lithographie avancées, systèmes de dépôt de matériaux, chambres de gravure… – sont cruciaux pour produire des semi-conducteurs destinés à l’intelligence artificielle (IA). C’est précisément sur ce segment que Huawei et SMIC s’appuient pour rivaliser avec les champions américains, comme les fondeurs Nvidia et Intel.

Ce n’est pas la première fois que des bâtons sont mis au travers de la route des entreprises high tech chinoises. En 2020, sous la pression des sanctions américaines, le premier fondeur mondial, Taiwan Semiconductor Manufacturing Co. (TSMC), avait déjà cessé ses livraisons à Huawei.

Une pépite européenne

Pour la Chine, c’est un coup de massue. TSMC est un acteur incontournable, étant donné ses compétences dans les puces IA haut de gamme (utilisées par Nvidia, Qualcomm ou AMD) et ses énormes investissements pour maintenir son leadership. Huawei et SMIC vont donc devoir retrousser leurs manches pour développer leurs propres puces. D’importants investissements publics et privés en Chine ont été lancés depuis quelques années pour que le pays devienne moins dépendant des Taïwanais.

En septembre 2023, Huawei avait d’ailleurs surpris les experts en lançant son smartphone Mate 60, équipé d’une puce 7 nanomètres fabriquée par SMIC. Cette sortie prouvait les progrès rapides de la Chine malgré les embargos. Mais pour aller plus loin, le groupe doit accéder aux équipements les plus sophistiqués de TSMC qui lui étaient inaccessibles.

Il faudra attendre un peu avant de vérifier la capacité des Chinois à développer et industrialiser rapidement des alternatives nationales. Pas simple, car ils sont également très en retard par rapport à la pépite européenne, la Néerlandaise ASML, spécialisée dans les machines lithographiques ultraviolettes extrêmes (EUV) pour les gravures de pointe.

En interdisant l’exportation de technologies critiques vers des entreprises chinoises, Taïwan renforce la tendance à la régionalisation des chaînes de valeur. Les fabricants et concepteurs de puces devront repenser leurs partenariats et diversifier leurs fournisseurs pour éviter les zones à risque géopolitique.

Cette interdiction constitue également une opportunité pour les concurrents non chinois, comme Samsung, Intel ou GlobalFoundries. Les clients internationaux, soucieux d’éviter les sanctions, pourraient se tourner vers des fournisseurs basés en Corée du Sud, aux États-Unis ou à Taïwan même.

Les thèses du mois : « Secteur aérien : quelles solutions pour une trajectoire de décarbonation crédible ? »

Pour notre dossier de juin, « Secteur aérien : quelles solutions pour une trajectoire de décarbonation crédible ? », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

Conditions d’émergence d’une filière des carburants durables pour l’aéronautique : une approche fondée sur un renouvellement du cadre Technological Innovation System
Nori Meziane
Projet de thèse en Sciences économiques, depuis le 01/12/2024
Bordeaux sciences économiques

Modélisation quantitative et évaluation de l’acceptabilité sociale des mesures d’atténuation du secteur aérien par la maîtrise de la demande
Thomas Betous
Projet de thèse en Énergétique et transferts, depuis le 01/11/2024
ISAE/DAEP Département Aérodynamique Énergétique Propulsion

Étude des performances de systèmes d’injection aéronautiques opérant à haute pression dans le cadre de l’utilisation de carburants d’aviation durables (SAF): Analyse expérimentale détaillée au moyen de diagnostics lasers avancés.
Rafael Juca pinheiro
Projet de thèse en Mécanique des fluides, énergétique, thermique, combustion, acoustique, depuis le 01/12/2024
Complexe de recherche interprofessionnel en aérothermochimie

Modélisation de scénarios prospectifs pour l’aviation : régionalisation, étude des coûts d’abattement et optimisation technico-économique sous contraintes environnementales
Antoine Salgas
Thèse de doctorat en Sciences économiques, soutenue le 07/01/2025
ISAE-ONERA EDyF Energétique et Dynamique des Fluides

Production de biocarburants à partir de la biomasse lignocellulosique : le lévulinate de butyle, une molécule prometteuse pour le développement de carburants aéronautiques durables
Wenel Naudy Vásquez Salcedo
Thèses de doctorat en Génie des procédés, soutenue le 05/07/2024
Laboratoire de sécurité des procédés chimiques

Contributions à la compréhension de la formation et de l’atténuation possible des traînées de condensation de l’aviation
Pierre Saulgeot
Thèse de doctorat en Mécanique des fluides et des solides, soutenue le 20/12/2023
ONERA Département Aérodynamique, Aéroélasticité, Acoustique

Évaluation de l’impact des émissions aériennes sur le changement climatique : développement de la méthode d’Analyse du Cycle de Vie et recommandations pour la sélection de carburants alternatifs
Tiphaine Gaillot
Thèse de doctorat en Chimie Physique, soutenue le 17/11/2023
Institut français du pétrole Énergies nouvelles

Impact des carburants durables pour l’aviation (SAFs) sur l’opérabilité moteur : modélisation et simulation
Jean-Christophe Jouhaud
Thèse de doctorat en Énergétique et transferts, soutenue le 21/01/2025
Centre Européen de Recherche et Formation Avancées en Calcul Scientifique

Impact du changement climatique sur la turbulence en ciel clair pour l’aviation
Mohamed Foudad
Thèse de doctorat en Océan, Atmosphère, Climat, soutenue le 25/03/2024
Climat, Environnement, Couplages et Incertitudes

Méthodologie et outils formels pour la génération et l’analyse de scénarios prospectifs : application aux futurs possibles de l’aviation
Camille Blanchard
Thèse de doctorat en informatique, soutenue le 07/12/2023
Institut supérieur de l’aéronautique et de l’espace (Département aérodynamique, énergétique et propulsion)

Un avion 100 % décarboné à l’horizon 2050 ?

Un extrait de « Carburéacteurs alternatifs aéronautiques et leur déploiement », par Mickaël SICARD, Alain QUIGNARD.

Le transport aérien s’est fixé des objectifs ambitieux afin de participer à la limitation de l’augmentation de la température de la planète, en dépit de l’accroissement important prévu du trafic dans les années à venir. C’est ainsi que le secteur souhaite parvenir à l’amélioration de son efficacité énergétique, à une stabilisation des émissions nettes de CO2, voire leur réduction de près de 50 % par rapport à 2005 d’ici 2050.

Pour atteindre ses objectifs, le secteur de l’aéronautique dispose de différents leviers qu’il devra actionner, tels que la technologie tant en matière de conception des avions que de carburant ou encore la gestion efficace du trafic aérien. Des mesures de compensation des émissions seront également un atout indéniable, grâce notamment à un marché CO2 spécifique de l’aviation, le CORSIA (régime de compensation et de réduction de carbone pour l’aviation internationale).

En 2021, l’Association pour le transport aérien international s’est fixé un enjeu encore plus ambitieux, celui d’attendre la neutralité carbone à l’horizon 2050. Pour cela, elle mise sur l’incorporation progressive de carburéacteurs alternatifs, à 5 % d’ici 2030 et 65 % en 2050. En parallèle, la Commission européenne envisage des objectifs d’incorporation à des taux de plus en plus importants de carburéacteurs de synthèse durable (CSD) entre 2025 et 2050.

Ces carburants alternatifs permettent un gain en émission de gaz à effet de serre très important sur l’ensemble de leur cycle de vie. Ils constituent dès lors un élément incontournable de la décarbonation de l’aérien.

Des freins au déploiement

Mais, outre la contrainte environnementale, le carburant alternatif doit être disponible en quantités importantes et facile à distribuer via les réseaux logistiques existants. Il doit donc être mélangeable avec le carburéacteur fossile classique, l’objectif à terme étant qu’il se substitue totalement à ce dernier. Reste que la technologie des avions devra également évoluer, de nombreux appareils n’étant pas actuellement en mesure d’utiliser un carburant alternatif pur.

Par ailleurs, s’ils présentent de nombreux avantages indéniables, les carburéacteurs alternatifs affichent un coût de production très largement supérieur à celui des carburéacteurs fossiles. De plus, les besoins en matières premières constituent une difficulté supplémentaire du déploiement des carburants alternatifs.

Et des solutions

D’autres alternatives émergent afin d’atteindre la décarbonation du secteur, par exemple l’électrification des avions, les carburants issus de la méthanisation, ou encore l’hydrogène.

Dans tous les cas, l’incorporation à 50 % (limite fixée actuellement) du carburéacteur alternatif ne sera pas suffisante pour parvenir à la neutralité carbone en 2050. L’augmentation de ce taux, jusqu’à 100 % pour les avions compatibles, est envisagée.

Des constructeurs et opérateurs se sont désormais lancés dans la bataille de la compatibilité. Des essais ont déjà été réalisés ou sont en cours. Citons par exemple le projet Volcan (vol avec carburants alternatifs nouveaux) mené en partenariat avec Airbus, Safran, Dassault Aviation et l’Onera, ou encore ECLIF3 (Emissions and Climate Impact of Alternative Fuels), en partenariat avec Airbus et Rolls-Royce. D’autres initiatives se développent enfin, touchant tous les aspects techniques de l’avion, allant de moteurs à la consommation réduite à l’aérodynamique.

Compte tenu des coûts importants de la production de carburéacteurs alternatifs, des mesures incitatives – techniques et technologiques, financières et normatives – doivent être prises. Des États se sont déjà engagés dans cette démarche. Enfin, parallèlement, le CORSIA a mis en place un mécanisme de surveillance, par les compagnies aériennes, de leurs émissions de CO2 pour les vols internationaux.

Territoires sous tension : comment anticiper les conflits d’usage des ressources à l’horizon 2050 ?

Face au double choc du changement climatique et de l’épuisement des énergies fossiles, le think tank appelle, dans son rapport intermédiaire Atlas 2050 publié au mois de mai, à repenser en profondeur la façon dont les territoires français utilisent et partagent leurs ressources physiques. Car la transition énergétique ne se fera pas sans tensions locales. À l’horizon 2050, ce sont nos usages les plus ordinaires – se chauffer, se déplacer, manger – qui pourraient devenir sources de rivalités, faute d’anticipation.

Des ressources déjà sous pression

L’eau en est l’illustration la plus flagrante. Lors de la sécheresse de 2022, plus de 1 000 communes françaises ont dû recourir à des solutions d’urgence pour approvisionner leurs habitants en eau potable, dont 343 par camions-citernes et 196 par distribution de bouteilles. Dans le seul département du Tarn-et-Garonne, les pertes agricoles se sont élevées à 95 millions d’euros, soit 16 % du chiffre d’affaires annuel du secteur.

Et la situation ne devrait pas s’améliorer. D’après Météo-France, la France pourrait perdre en moyenne 45 mm de bilan hydrique annuel d’ici 2050, avec 24 jours supplémentaires de sécheresse par an. Résultat, la demande en irrigation, déjà première consommatrice d’eau douce (61 %), risque d’entrer en concurrence avec les besoins croissants du résidentiel, de l’industrie et de la production énergétique.

Une transition énergétique qui déplace la pression

Sortir des énergies fossiles est impératif. Mais le faire sans planification crée de nouvelles tensions. Pour remplacer le gaz ou le fioul, de nombreuses collectivités misent sur la biomasse (bois, méthanisation, ou biocarburants). Or ces ressources sont déjà convoitées. Le scénario de décarbonation exploré par The Shift Project prévoit que la consommation de bois pour l’énergie passerait de 30 à 42 millions de m³ d’ici 2050, voire jusqu’à 70 millions si l’on inclut les usages de biocarburants.

De quoi inquiéter les territoires producteurs, confrontés à des forêts fragilisées par les sécheresses, les incendies ou les pathogènes. Dans le Grand Est, le dépérissement forestier pourrait croiser dès 2035 la demande industrielle, créant un déficit de ressource.

Même constat pour le biométhane. En 2050, la production pourrait atteindre 120 TWh, mais la demande totale de gaz, si les usages ne baissent pas drastiquement, dépasserait 320 TWh. Le déficit de 200 TWh serait comblé inévitablement par des importations fossiles.

L’électrification massive : une fausse solution ?

L’électrification de la mobilité, de l’industrie ou du chauffage est souvent présentée comme la voie royale de la transition. Pourtant, cette stratégie repose sur une forte hausse de la consommation d’électricité, estimée à 50 % d’ici 2050, avec des pics liés à la recharge des véhicules ou au chauffage. Sans adaptation rapide du réseau électrique – déjà saturé dans certaines zones –, les risques de congestion sont réels, en particulier dans les territoires à la fois denses, industriels et peu producteurs d’électricité, comme l’Île-de-France, le Rhône ou le Nord par exemple.

Le réseau électrique n’est pas seul en cause. Le rapport pointe un manque d’articulation entre les stratégies sectorielles : les plans climat, les stratégies de résilience, les documents d’urbanisme ou de gestion de l’eau sont souvent élaborés en silo, sans prise en compte des arbitrages multi-ressources.

Des territoires inégalement armés

68 % des collectivités interrogées lors de l’étude du Shift Project considèrent que l’eau est déjà en tension. Ce chiffre s’élève à 57 % pour les sols. Mais peu disposent d’une vision claire des interdépendances. Les zones urbaines restent très dépendantes de territoires ruraux pour leur alimentation, leur énergie, leur eau. Le réseau d’adduction peut dépasser les 150 km, comme dans le cas du syndicat des eaux Montbazens-Rignac. Pourtant, les arbitrages restent souvent locaux et court-termistes.

Certaines collectivités commencent à se doter d’outils de diagnostic territorial. La plateforme Territoires au futur, initiée par The Shift Project, permet déjà une première lecture des vulnérabilités à l’échelle intercommunale ou départementale.

Repenser la planification, redonner du pouvoir aux élus

Le cœur du message du rapport Atlas 2050 véhicule une proposition forte : remettre la contrainte physique – ce que les territoires peuvent réellement produire ou supporter – au centre des politiques publiques. Cela implique d’intégrer les risques de conflits d’usage dès la conception des stratégies territoriales, mais aussi de renforcer les instances de coopération interterritoriales.

Sur le modèle des commissions locales de l’eau, le Shift propose de développer des lieux de gouvernance partagée pour d’autres ressources : bois, biomasse, énergie. Car c’est bien à cette échelle, celle du bassin de vie, que se joueront les équilibres de demain.

Une course contre la montre

Décarboner l’économie française suppose de réduire les émissions de GES de 5 % par an en moyenne dès maintenant. Mais plus nous tardons, plus le rythme devra être brutal, avec des effets sociaux et économiques potentiellement déstabilisants. Or aujourd’hui, la trajectoire des politiques publiques actuelles mène vers une augmentation des températures de 3,1 °C d’ici 2100, bien loin des objectifs de l’Accord de Paris.

En posant la question des ressources physiques comme fondement de la planification territoriale, Atlas 2050 ne cherche pas à ajouter une contrainte de plus, mais à outiller les décideurs pour en faire un levier de transformation. Une boussole pour réussir, localement, la transition écologique.

Télécharger le rapport intermédiaire Atlas 2050

La rédaction a demandé à un agent d’IA générative de dégager les informations principales du rapport.

Le texte résultant a été dument relu, analysé, et modifié de façon à proposer au lecteur un contenu à la hauteur de la qualité attendue par le Magazine d’Actualité.

« Les derniers signaux du secteur aérien sont très négatifs sur le sujet de la décarbonation »

Alors que les ambitions climatiques du secteur aérien s’affichent de plus en plus fermement – avec un objectif de neutralité carbone à horizon 2050 en France comme en Europe – les émissions de gaz à effet de serre du secteur repartent à la hausse, à cause d’une reprise rapide et massive du trafic après la crise sanitaire, portée notamment par le modèle low-cost, et une stratégie de décarbonation qui repose quasi exclusivement sur des leviers technologiques encore loin d’être déployés à l’échelle. 

Innovations limitées sur les appareils, SAF encore très marginaux, investissements insuffisants dans les carburants de synthèse… Le compte n’y est pas, déplore Jérôme du Boucher, responsable aviation au sein de l’organisation Transport & Environnement. Dans cet entretien accordé à Techniques de l’Ingénieur, il décrypte les incohérences de la trajectoire actuelle, dénonce une forme d’aveuglement face à la croissance du trafic aérien, et plaide pour des mesures structurelles sur la fiscalité, l’encadrement de la demande, et la mise à l’échelle rapide de solutions concrètes, comme l’évitement des traînées de condensation par exemple. Entretien. 

Techniques de l’Ingénieur : Le secteur aérien vise la neutralité carbone d’ici 2050. Où en est-on aujourd’hui et ce cap est-il toujours réaliste ?

Jérôme du Boucher : Aujourd’hui, le secteur aérien est très loin de la trajectoire climatique qui doit le mener à la neutralité carbone en 2050. Malgré les promesses de décarbonation faites après la crise Covid, les émissions sont déjà revenues à leur niveau de 2019, et rien n’indique une véritable inflexion. Le problème principal, c’est que toutes les feuilles de route officielles – françaises ou européennes – tablent sur une croissance continue du trafic aérien jusqu’en 2050, comme si elle était inévitable. Ce postulat, rarement discuté, est pourtant central : la croissance du trafic dépend du prix du billet et du niveau de revenu. Il ne s’agit donc pas d’un phénomène « naturel », mais bien d’un choix économique et politique.

Et pendant ce temps, les progrès technologiques sont timides. Les constructeurs, comme Airbus, ont préféré faire évoluer leurs modèles existants plutôt que d’investir dans des ruptures ambitieuses. L’exemple le plus clair est le report du projet d’avion à hydrogène, pourtant présenté comme révolutionnaire. De fait, le renouvellement des flottes n’apporte que des gains marginaux, et le cœur du modèle économique, basé sur la croissance du trafic, annule tous les bénéfices climatiques obtenus par ailleurs.

Les carburants durables ne constituent-ils pas une solution solide pour accompagner cette transition ?

Ils sont souvent présentés comme le pilier principal de la décarbonation, mais peinent à décoller pour le moment. Aujourd’hui, les SAF (carburants d’aviation durables) représentent moins de 2 % des volumes consommés en Europe. Ceux qui sont aujourd’hui utilisés, comme les HVO produits à partir d’huiles usagées ou de graisses animales, posent de sérieux problèmes de durabilité. En effet, ces matières sont souvent importées, mal tracées, ou détournées, notamment via de l’huile de palme déguisée. Par exemple, la Malaisie exporte aujourd’hui deux fois plus d’huiles usagées qu’elle n’en collecte et importe. Ce pays est par ailleurs un gros producteur d’huile de palme. Il y a donc de nombreux abus.

Les biocarburants avancés, issus de résidus lignocellulosiques, ont un potentiel plus vertueux, mais les technologies sont coûteuses, peu matures, et les volumes mobilisables sont très limités. Selon nos estimations, en 2050, le gisement durable européen permettrait au mieux de produire 5 Mtoe de carburant, soit 7,5% de la demande projetée de kérosène en 2050, un chiffre loin des besoins établis par la réglementation européenne. C’est pourquoi il faut développer en parallèle les e-fuels, produits à partir d’électricité décarbonée et de CO₂ capté. Mais là encore, les enjeux technologiques et énergétiques sont majeurs, et les investissements très lourds.

Le cadre réglementaire européen est-il à la hauteur de ces défis ?

Le règlement ReFuelEU marque un tournant important, en fixant des objectifs d’incorporation de carburants durables. Mais les industriels commencent à reculer, et certaines compagnies appellent déjà à revoir les objectifs à la baisse, invoquant un manque d’approvisionnement, parfois sur la base d’analyses peu solides.

En parallèle, le système international Corsia, basé sur la compensation carbone, est totalement inefficace. Il repose sur des crédits peu robustes et ne fait qu’acheter du temps sans résoudre le problème. Ce qu’il faut, c’est un marché carbone européen fort, une fiscalité juste, et un cadre clair qui pousse le secteur à investir dans les technologies de rupture plutôt que dans le statu quo.

Quelles sont les mesures concrètes que vous recommandez pour accélérer la transition ?

D’abord, il ne faut pas aggraver la situation. Cela signifie l’arrêt des projets d’extension d’aéroports, qui vont à l’encontre de tout objectif de réduction des émissions. Ensuite, il faut mettre fin aux exonérations fiscales dont bénéficie massivement le secteur : pas de TVA sur les vols internationaux, absence de taxe sur le kérosène, droits d’émissions gratuits… En France, ces avantages représentent 5,5 milliards d’euros en 2025. Le moyen le plus efficace de mettre fin à ces exonérations fiscales aujourd’hui est de relever la taxe sur les billets d’avion. C’est une tarification qui dépend de la destination finale du passager, il n’y a donc pas de risque de fuite carbone sur les aéroports limitrophes. 

Par ailleurs, les entreprises doivent montrer l’exemple. Les voyages d’affaires sont un levier d’action rapide : nous recommandons une réduction de 50 % des émissions liées aux voyages d’affaires en avion d’ici 2030 par rapport à 2019. De grands groupes s’y engagent déjà comme par exemple Swiss Re, Novo Nordisk, ABN Amro. 

Enfin, si les leviers technologiques ne peuvent pas résoudre à eux seuls le défi de la transition du secteur, ils restent essentiels. Il est important d’accélérer leur développement, qui reste timide aujourd’hui. Pour les constructeurs, cela signifie s’engager dans des programmes de rupture pour atteindre une plus grande amélioration de l’efficacité énergétique et développer des modèles zéro-émission. Ce n’est pas ce qu’on observe avec l’arrêt du programme hydrogène ZEROe d’Airbus ou avec l’annonce du prochain modèle au kérosène « évolutif, pas révolutionnaire », selon les mots du PDG Guillaume Faury. Pour les carburants durables, accélérer la transition passe par le lancement de la filière e-fuels. Pour cela, un mécanisme de soutien au niveau européen sera utile, mais ça ne se fera pas sans l’implication des compagnies aériennes qui doivent signer des contrats d’achat avec les porteurs de projet. 

On parle peu des effets non CO₂ de l’aviation. Quel est leur poids ?

Ils sont significatifs. Les traînées de condensation, notamment, ont un impact climatique comparable aux émissions de CO₂. Et contrairement à d’autres leviers, ce sont des effets que l’on peut réduire rapidement et à moindre coût, en modifiant certaines altitudes de vol en fonction des prévisions météorologiques.

Des tests sont en cours, mais il faut maintenant passer à l’échelle. Cela demande de la coordination entre l’aviation civile, les instances météo, les compagnies aériennes… mais c’est un des leviers les plus prometteurs à court terme. La balle est plutôt du côté des Etats et de l’Union européenne pour organiser des essais à grande échelle.

À l’approche du salon du Bourget, attendez-vous des annonces concrètes de la part des acteurs de l’aérien ?

Malheureusement, non. Le Bourget reste un salon dominé par les enjeux industriels et commerciaux. Les constructeurs y annoncent des ventes d’avions, parfois des innovations, mais la décarbonation reste un discours secondaire, souvent cosmétique. Nous espérons au moins voir avancer le dossier des traînées de condensation, car c’est un terrain sur lequel tout le monde peut s’accorder. Mais globalement, les derniers signaux du secteur aérien sont très négatifs sur le sujet de la décarbonation.

 Propos recueillis par Pierre Thouverez

Le bambou de construction, une filière en devenir

Nous avons interrogé Jean-Baptiste Dutau, cofondateur, avec James Deleplanque et Jérémy Bazinet de BigBamboo, le spécialiste français de la construction en bambou.

Jean-Baptiste Dutau, cofondateur de BigBamboo
Jean-Baptiste Dutau, cofondateur de BigBamboo (Crédit : BigBamboo)

Créée en 2020, la société BigBamboo participe, de manière active, à la structuration de la filière bambou en France, en collaboration avec les différents acteurs et fait la promotion de l’usage du bambou dans le secteur de la construction. BigBamboo a également mis en place un circuit de distribution du bambou et propose un service de fabrication sur mesure, de pose ainsi que la formation des futurs bamboutiers.

Techniques de l’ingénieur : Pouvez-vous nous parler de votre société BigBamboo ?

Jean-Baptiste DUTAU : BigBamboo est né en 2020, de la rencontre de ses trois associés fondateurs au sein de la coopérative Bambouscoopic, spécialisée dans le développement de la filière bambou et la conception/fabrication d’architectures textiles à mâture bambou.

Nous avons fondé BigBamboo pour répondre à un besoin que nous avions identifié : sourcer et mettre à disposition du marché du bambou dédié à la construction. En effet, Bambouscoopic voulait développer l’usage du bambou en construction, mais on s’est aperçu, d’une part, qu’il y avait uniquement des importateurs étrangers et, d’autre part, qu’il n’y avait aucun importateur de la variété de bambou que nous voulions utiliser en construction.

Cette variété, qui s’appelle le Guadua, est un bambou qui vient de Colombie. Nous avons donc décidé de mettre en place un circuit de distribution, un Web Shop, qui donnerait la possibilité à tous ceux qui le souhaitent de créer des structures composées d’un bambou réellement adapté à la construction et à l’agencement.

En quoi cette variété de bambou, le Guadua, est-elle particulière ?

Il existe plus de 1 500 espèces de bambou. De fait, le bambou ne peut être présenté comme un unique matériau, chaque espèce présentant des propriétés mécaniques influencées par son origine géographique, son climat de croissance et les conditions de culture.

Néanmoins, en pratique, seule une dizaine d’espèces sont reconnues pour leurs aptitudes constructives. De notre côté, nous travaillons avec sept espèces, choisies sur des critères techniques, économiques, ou de provenance géographique.

Le Guadua-BigBamboo

Le Guadua vu en coupe, classé par diamètre (Source : BigBamboo)

Parmi cette liste, le Guadua est celui qui possède les propriétés les plus intéressantes en construction. Souvent surnommé « l’acier végétal » en raison de ses performances mécaniques exceptionnelles, il présente des diamètres moyens compris entre 10 et 14 cm et se distingue par une résistance élevée, des parois très épaisses, ainsi qu’une structure de fibres croisées qui renforce sa robustesse.

Malheureusement, c’est son seul inconvénient, le Guadua ne peut pousser qu’en atmosphère tropicale, en altitude, et doit donc être importé.

Comment les professionnels de la construction perçoivent-ils ce matériau ?  Y a-t-il des débouchés en Europe ?

Il y a beaucoup d’artisans et d’artistes qui font de la décoration et du Land-Art en bambou, mais peu de construction pure. Certaines entreprises innovent néanmoins : c’est le cas de Minco, qui veut désormais proposer des menuiseries de fenêtre hybrides en bambou. Cette société s’intéresse de près à ce matériau et veut s’investir dans le développement de la filière bambou, qui n’en est encore qu’à ses balbutiements.

De leur côté, les acteurs français de la filière bois ne considèrent pas du tout le bambou comme un concurrent sérieux, mais plutôt comme un non-sujet. Toutefois, on observe une évolution : de plus en plus de professionnels commencent à s’interroger sur ses propriétés et son potentiel. Le marché, bien qu’émergent, se développe ainsi progressivement.

Mais si on regarde hors de la France, on constate que de nombreux pays montrent la voie en réalisant des projets structuraux majeurs en bambou. Très récemment, un exemple marquant a été livré : la première tour en bambou de 28 mètres de hauteur accueillant du public (ERP), construite au zoo de Planckendael en Belgique. Une première européenne qui illustre le changement de regard en cours sur ce matériau d’avenir.

Par ailleurs, même si le bambou n’est pas dans notre culture, car c’est une plante tropicale, en disant cela, on oublie les DOM-TOM ! Il faut savoir que dans les DOM-TOM, de nombreux matériaux de construction conventionnels sont importés. Or, dans ces territoires tropicaux, faire pousser des espèces de bambou dédiées à la construction locale à la place de matériaux importés est particulièrement pertinent. D’ailleurs c’est aussi valable dans beaucoup d’endroits situés en zone tropicale, en Amérique du Sud, en Afrique ou en Asie.

Peut-on aussi utiliser, en construction, du bambou cultivé en Europe ?

Bien que le bambou ne soit pas une plante endémique, plusieurs espèces sont cultivées en France, et, parmi celles-ci, deux ou trois sont utilisables dans le bâtiment, plutôt en décoration. Il y a, en France, des bambouseraies de bambou géant, une espèce qui, une fois découpée en lamelles, permet de fabriquer des structures solides, durables et de production locale.

La société Horizom a d’ailleurs récemment lancé la création de la plus grande bambouseraie d’Europe, dont les plantations sont destinées à des usages industriels variés : matériaux d’isolation (Fiboo), bois d’œuvre, composites, emballages, alimentation (jeunes pousses comestibles), production de biochar[1] et de biocarburants.

Aujourd’hui, de quoi manque la filière bambou pour se développer ?

Il n’existe pas, à proprement parler, de blocage technique avéré.

Prenons l’exemple du Guadua. Dans son pays d’origine, la Colombie, il est largement utilisé pour la construction de ponts, d’hôtels et d’habitations, notamment dans des régions à risque sismique. Son emploi y est même strictement encadré par une réglementation spécifique.

Normes colombiennes spécifiques au Guadua
Normes colombiennes spécifiques au Guadua

Toutefois, un tel cadre n’existe pas en Europe ! Malheureusement, le principal frein est le manque d’intérêt des investisseurs pour financer les études approfondies nécessaires à la caractérisation de nos bambous français ainsi que d’autres espèces adaptées.

Compte tenu des propriétés mécaniques remarquables du Guadua, de la maturité croissante de la filière d’approvisionnement et de l’abondante documentation scientifique disponible, il apparaît pertinent de promouvoir une normalisation spécifique pour son usage structurel en Europe.

Plusieurs normes ISO fournissent déjà un cadre technique solide pour avancer dans cette direction, notamment :

  • ISO 22156 : Conception des structures en bambou
  • ISO 22157 : Détermination des propriétés physiques et mécaniques
  • ISO 19624 : Classement des tiges de bambou
  • ISO 5257 : Essais sur produits reconstitués à base de bambou
  • ISO 7567 : Spécifications pour le bambou lamellé-collé

Par ailleurs, en tant que membre actif de la commission CF/Bambou et Rotin BNBA/BF 089, nous appelons l’ensemble des acteurs de la construction, de l’ingénierie et des matériaux biosourcés à nous rejoindre pour contribuer à la structuration ainsi qu’à la normalisation d’une filière bambou ambitieuse et cohérente, en France comme à l’échelle européenne. Nous y travaillons et sommes convaincus d’y parvenir.


[1] Le biochar est un type de charbon produit par pyrolyse de biomasse en l’absence d’oxygène

« La décarbonation, quatrième révolution industrielle du secteur aérien »

Alors que le secteur aérien est souvent pointé du doigt pour son impact environnemental, la filière française ne ménage pas ses efforts pour répondre à l’objectif de baisse des émissions du secteur aérien. Le GIFAS, Groupement des Industries Françaises Aéronautique et Spatiales, joue un rôle central dans cette transformation de fond. 

Baptiste Voillequin, directeur des affaires R&D, espace et environnement du GIFAS, détaille dans cet entretien accordé à Techniques de l’Ingénieur, les leviers technologiques, énergétiques et industriels activés pour limiter les émissions du secteur aérien, les défis liés aux carburants durables, ainsi que les perspectives autour de l’avion du futur. Une trajectoire de décarbonation qui ne se limite pas aux émissions de CO₂, et qui annonce une véritable révolution industrielle pour le secteur.

Techniques de l’Ingénieur : Où en est aujourd’hui le secteur aéronautique français dans sa trajectoire de décarbonation à horizon 2050 ?

Baptiste Voillequin : La filière française a été pionnière sur le sujet. Deux éléments structurants encadrent la démarche du secteur aérien. D’un côté, l’objectif global adopté dans le cadre de l’OACI avec le Long Term Aspirational Goal signé par plus de 190 pays vers une neutralité carbone en 2050 et de l’autre, l’article 301 issu de la loi Climat et Résilience, pour lequel l’aéronautique a été la première filière industrielle à rendre sa copie et établir une feuille de route de baisse des émissions du secteur.

Cette feuille de route a été bâtie de manière concertée avec l’ensemble des acteurs : les fédérations aériennes (FNAM, UAF), les énergéticiens via L’UFIP EM, et bien sûr le GIFAS. Le CORAC (Conseil pour la Recherche Aéronautique Civile) a joué un rôle central dans la coordination de ces travaux, fort de l’expérience acquise depuis le Grenelle de l’environnement en 2008. Depuis le plan de relance puis avec France 2030, la dynamique d’innovation vers la décarbonation s’est encore renforcée. L’objectif de décarbonation du transport aérien fait consensus aujourd’hui parmi tous les acteurs de la filière.

Quels sont les leviers techniques et industriels mobilisés pour atteindre cette neutralité carbone ?

Quatre grands leviers ont été identifiés, et ils font d’ailleurs l’objet d’un consensus au niveau international. Le premier concerne le renouvellement des flottes d’avions. Ce levier, souvent perçu comme évident, est en réalité fondamental : chaque nouvelle génération d’appareils permet de réduire les émissions de CO₂ d’environ 15 % par rapport à la précédente. L’exemple du passage de l’A320 à l’A320neo, équipé du moteur Leap, illustre parfaitement cet apport. Ce n’est pas qu’un simple effet d’obsolescence : les compagnies aériennes, comme Air France, investissent volontairement et massivement pour accélérer ces renouvellements, avec des plans à plusieurs centaines de millions, voire milliards d’euros.

Baptiste Voillequin, du GIFAS
Baptiste Voillequin, directeur des affaires R&D, espace et environnement du GIFAS

Le deuxième levier réside dans l’optimisation des opérations, au sol comme en vol. On estime que ce volet peut contribuer à hauteur de 10 % à la réduction des émissions de CO₂. Il s’agit par exemple de modifier les pratiques de roulage dans les aéroports ou d’optimiser les trajectoires de vol grâce à la gestion du trafic aérien, en particulier via des systèmes de calcul d’optimum global en 4D. Cependant, ce levier est étroitement lié à la sécurité, qui reste prioritaire. Il est hors de question de compromettre la sécurité des vols pour gagner quelques grammes de CO₂. C’est pourquoi il faut construire une capacité de décision technologique, réglementaire et opérationnelle suffisamment robuste pour permettre ces optimisations, qui sont importantes, mais qui doivent être mises en œuvre en toute sûreté.

Le troisième levier est celui des nouvelles énergies. On parle ici principalement des carburants d’aviation durables, qu’ils soient issus de la biomasse (huiles usagées notamment) ou qu’il s’agisse de carburants de synthèse produits à partir d’hydrogène vert et de CO₂ capté dans l’air ou directement sur certains sites émetteurs. On étudie également l’hydrogène embarqué, en tant que vecteur énergétique, dans des avions redessinés pour en permettre le stockage. Les verrous technologiques pour l’utilisation de l’hydrogène liquide comme vecteur d’énergie embarqué dans un avion commercial sont encore nombreux, mais le jeu en vaut la chandelle car ce développement permettrait des opérations n’émettant strictement pas de CO₂. À l’inverse, la batterie, malgré des efforts sur l’électrification des systèmes secondaires, ne peut pas être envisagée pour la propulsion d’avions commerciaux au-delà de quelques passagers, à cause de sa densité énergétique insuffisante.

Enfin, le quatrième levier est technologique. Il touche à la conception même des futurs aéronefs, autour de trois grands axes : la configuration, l’allègement et la motorisation. Sur la configuration, on travaille par exemple sur des ailes à fort allongement, le repositionnement des moteurs et d’autres aspects du design des avions. L’allègement repose sur l’introduction de nouveaux matériaux, mais aussi sur l’intégration fonctionnelle, pour éviter la multiplication des réseaux et des systèmes. Côté motorisation, les choix à venir se situent entre la technologie open-rotor, qui supprime le carénage, et des moteurs toujours carénés mais à très fort taux de dilution, éventuellement hybridés. Ce sont des choix structurants, car ils conditionneront le niveau de performance environnementale de la prochaine génération d’avions commerciaux.

Revenons sur les carburants d’aviation durables. Ils semblent aujourd’hui constituer le levier le plus important de décarbonation du secteur, non ?

Les carburants d’aviation durables – ou SAF, pour Sustainable Aviation Fuels – constituent un levier fondamental de la décarbonation du secteur. Ils permettent de réduire considérablement les émissions de CO₂ sur l’ensemble du cycle de vie des appareils, et pour la catégorie des carburants d’aviation durables dits « drop in », sans nécessiter de changement radical dans la conception des avions ou des moteurs actuels. Il en existe deux grandes familles : les biocarburants (bioSAF) et les carburants de synthèse (e-SAF). Sachant qu’un certain nombre de voies et d’options sont possibles.

Les biocarburants les plus matures aujourd’hui sont principalement produits à partir d’huiles usagées, l’utilisation de matières premières entrant en conflit d’usage avec l’alimentation étant évidemment exclue. 

Il existe cependant un point de vigilance lié à la concurrence intersectorielle : si l’automobile, par exemple, devait ralentir sa transition vers l’électrification en Europe et revenir en partie vers les biocarburants, elle capterait une grande partie des biocarburants disponibles, et des matières premières correspondantes. Or, dans ce scénario, le transport aérien, en tant que petit acteur en volume, risquerait d’être évincé du marché des ressources. C’est un facteur sur lequel nous restons vigilants pour bien identifier les usages les plus pertinents.

Les carburants de synthèse, eux, sont très prometteurs à long terme. Ils sont produits à partir de deux éléments clés : l’hydrogène, qui, dans une logique décarbonée, doit impérativement être « vert », c’est-à-dire issu d’électricité bas carbone, et du dioxyde de carbone capté, directement dans l’air ou sur des unités émettrices. Ce type de carburant permettrait une production plus massive, mais cela suppose de développer très rapidement et à grande échelle les capacités de production d’hydrogène bas carbone, ainsi que les technologies de captage de CO₂, et de synthèse des carburants associées.

Les obligations d’incorporation induites par la réglementation Refuel UE vont-elles faire évoluer les choses ?

Aujourd’hui, la réglementation européenne via le paquet législatif Refuel EU Aviation fixe des mandats d’incorporation progressifs de SAF, avec des seuils d’obligation dès 2025 puis à 2030, 2035 et 2040. Toutefois, il faut distinguer deux choses : les mandats d’incorporation réglementaires, qui s’appliquent au marché dans son ensemble, et la compatibilité réelle des avions. À ce jour, les avions sont déjà certifiés pour voler avec des mélanges allant jusqu’à 50 % de SAF. 

Sur tous les segments (aviation commerciale, aviation d’affaire, aviation générale, hélicoptères…), la prochaine génération d’aéronefs, en cours de conception, sera conçue pour être 100 % compatible. Mais au-delà de cette capacité maximale, c’est surtout la variabilité des mélanges qui doit être prise en compte dans la conception : un avion pourra un jour faire le plein sur un point du globe avec du kérosène classique, puis le lendemain, à Paris ou à Francfort par exemple, le refaire avec un carburant contenant 30 %, 40 % ou 50 % de SAF. La conception des moteurs et des réservoirs doit donc être pensée pour tolérer cette variabilité chimique, notamment en termes de comportement des matériaux face à des carburants plus ou moins riches en composés aromatiques.

Sur le plan technique, le principal facteur limitant n’est pas la capacité des moteurs à encaisser les SAF, mais la certification et la stabilité chimique des mélanges. Par exemple, les élastomères, qui composent les joints des systèmes de carburant, peuvent réagir différemment selon la teneur en aromatiques du carburant, ce qui peut engendrer des évolutions des propriétés, notamment de gonflement ou des phénomènes de vieillissement accéléré. Ces aspects sont bien identifiés et maîtrisables, mais ils doivent faire l’objet de validations rigoureuses dans le processus de qualification et de certification.

Enfin, la question de la montée en puissance industrielle reste critique. Nous observons que les objectifs de production à horizon 2030 sont, au regard du volume absolu demandé, globalement atteignables. En revanche, les étapes suivantes paraissent moins évidentes tant les volumes correspondants demandent un changement d’échelle dans les capacités. Les investissements nécessaires à ses capacités permettant une production à une échelle beaucoup plus massive ne sont pas encore au rendez-vous. Il faut donc mobiliser dès maintenant les moyens industriels et financiers pour éviter un effet de « mur d’investissement » et saisir l’opportunité de développer une filière de production française et européenne de carburants d’aviation durables. Pour soutenir cette dynamique, la filière aéronautique via le GIFAS s’est associée à la création d’un groupe de travail dédié aux SAF au sein du contrat stratégique de filière « Nouveaux systèmes énergétiques ». Cela nous permet de travailler avec l’ensemble des acteurs concernés, constructeurs, compagnies aériennes, et énergéticiens autour d’un objectif commun, et de veiller à ce que les investissements suivent une trajectoire compatible avec les ambitions réglementaires européennes.

Sur le fameux avion hydrogène, où en est-on concrètement ?

On sait que techniquement un avion est capable de voler à l’hydrogène liquide, avec deux voies technologiques : la combustion directe de l’hydrogène en tant que combustible, ou la génération de puissance électrique grâce à l’utilisation de piles à combustible. Mais les verrous restent nombreux : contraintes de la température cryogénique, propriétés réductrices de l’hydrogène, cyclage thermique, pilotage de vannes haute performance… Tout cela pose des défis inédits en termes de mécanique, de matériaux, et bien sûr de sécurité. À cela s’ajoute l’enjeu logistique : il faut que les aéroports soient prêts à fournir l’hydrogène nécessaire, sinon l’avion ne pourra pas se ravitailler. Il faut donc une coordination étroite entre la construction aéronautique et les acteurs des infrastructures de production et de distribution d’hydrogène. On table donc sur une mise en service post-2035, voire plutôt autour de 2040.

L’augmentation du trafic est-elle prise en compte dans la trajectoire de décarbonation du secteur aérien ?

Oui, totalement. La feuille de route, exercice réalisé dans le cadre français, prévoit deux scénarios : un pour les vols domestiques et un autre pour les vols internationaux au départ de la France. Dans les deux cas, la courbe de référence intègre une croissance du trafic, notamment dans les zones en développement, comme l’Asie, l’Afrique, et l’Amérique du Sud. Cela rend d’autant plus impératif le recours à tous les leviers technologiques que je viens d’évoquer, pour être en mesure d’atteindre les objectifs.

Qu’en est-il des effets non-CO₂ comme les traînées de condensation ou les oxydes d’azote ?

Il faut également ajouter, à ses deux facteurs, celui des suies. Ces effets, dits non-CO₂, sont pris au sérieux. La DGAC finance depuis 2021 la chaire Climaviation, indépendante de l’industrie, qui étudie scientifiquement ces impacts. Le travail de cette chaire alimente la communauté industrielle par une base scientifique au meilleur niveau international et complète notre approche, qui ne se limite donc pas au seul CO₂.

Quel est l’objectif à court terme en matière technologique ?

Nous préparons un avion « ultra-frugal » pour succéder à l’A320. Chaque génération réduit les émissions d’environ 15 %, nous visons désormais 30 % pour l’avion de prochaine génération. Il s’agit donc dans un sens de sauter une génération. Pour cela, nous avons un rétroplanning technologique jusqu’en 2027, incluant toutes les briques nécessaires : électrification des systèmes secondaires, nouveaux matériaux, motorisations avancées, entre autres. Mais ce n’est pas suffisant de les développer : toute la filière, que ce soient les donneurs d’ordre, les fournisseurs équipementiers, les ETI et les PME, doit être capable de les produire à l’échelle industrielle.

Quel rôle joue concrètement le GIFAS dans cette transformation ?

Nous sommes au cœur de l’écosystème industriel : comme nous l’avons vu, il faut être en mesure d’activer tous les leviers identifiés. Le CORAC est un outil exceptionnel pour les volets technologiques. En plus du CORAC, nous participons activement à des initiatives connexes, comme par exemple le contrat stratégique de filière « nouveaux systèmes énergétiques », qui regroupe compagnies aériennes, énergéticiens et industriels autour des SAF. Nous alertons aussi sur les besoins d’investissement pour augmenter les capacités de production de carburants durables à partir de 2030. Aujourd’hui, les objectifs à court terme sont tenables, mais la montée en puissance post-2030 exigera des efforts majeurs.

Peut-on réellement parler de « révolution » du transport aérien ?

Oui, c’est même la « quatrième révolution », selon Guillaume Faury, président du GIFAS et PDG d’Airbus : après le fait même de voler, puis celle de voler en sécurité, puis celle de rendre le vol accessible au plus grand nombre, il faut désormais voler de manière décarbonée… sans renier les trois précédentes avancées. C’est là que réside l’aspect révolutionnaire. On pourrait caricaturer et dire qu’il suffit de voler à l’hydrogène ou aux SAF à tout prix pour décarboner, mais si cela coûte dix fois plus cher et que la sécurité n’est pas garantie au même niveau qu’aujourd’hui pour des usages quotidiens ou que seuls des petits appareils peuvent en bénéficier, on ne répond pas à l’enjeu du transport aérien mondial.Mais cet enjeu est aussi une formidable opportunité, pour la filière aéronautique française que de mener cette révolution du transport aérien décarboné.

Propos recueillis par Pierre Thouverez

« La décarbonation du secteur aérien passera majoritairement par les SAF »

Jean-Philippe Héraud, responsable de programme à l’IFP Energies Nouvelles (IFPEN), a détaillé pour Techniques de l’Ingénieur les quatre filières de production faisant l’objet de recherches depuis plus de dix ans. La filière HVO, la plus mâture, mais aussi les filières BTL (et e-BTL), éthanol-to-jet (et éthanol), et les e-fuels, aussi appelés électro-carburants.

Chacune de ces filières présente des spécificités en termes de matières premières, de techniques de production et de coûts de production, et représentent toutes des débouchés potentiels pour alimenter en carburants les avions d’aujourd’hui et de demain.

Qu’est-ce que le carburant HEFA (carburants issus d’huiles végétales hydrotraitées) et comment s’inscrit-il dans la décarbonation des transports ?

Jean-Philippe Héraud : Le HEFA HVO (Hydrotreated Vegetable Oil, ou huile végétale hydrotraitée) est un carburant bas carbone produit par un procédé d’hydrotraitement, similaire aux procédés bien connus dans l’industrie du raffinage.

Jean-Philippe Héraud, responsable de programme à l’IFPEN
Jean-Philippe Héraud, responsable de programme à l’IFP Energies Nouvelles (IFPEN)

Cette technologie consiste à traiter des charges liquides – principalement des huiles ou des graisses – pour obtenir un carburant conforme aux spécifications des carburants fossiles, directement utilisable dans les moteurs et les infrastructures existantes. Pour être éligible aux dispositifs réglementaires comme la directive européenne RED III ou le règlement RefuelEU Aviation, le HVO doit être issu de matières premières durables, notamment des huiles de cuisson usagées ou des graisses animales. Des cultures spécifiques comme la cameline pourraient également être intégrées à cette filière dans un futur proche. Ce procédé présente l’avantage d’une forte proximité industrielle avec les outils et pratiques du raffinage classique, ce qui facilite son déploiement.

En France, une unité dédiée à la production de HVO est en cours de construction par TotalEnergies à Grandpuits. Il y a également le site TotalEnergies de La Mède qui peut produire ce carburant en fonction de la demande.

Deux options industrielles coexistent : des unités entièrement dédiées au traitement de charges renouvelables, ou le « coprocessing », qui consiste à mélanger en amont une charge fossile et une charge biogénique, permettant ainsi d’utiliser des infrastructures existantes avec un investissement limité. Cette flexibilité industrielle, combinée à la compatibilité du produit fini avec les normes actuelles, fait du HVO la seule filière aujourd’hui pleinement opérationnelle pour produire des carburants durables à l’échelle industrielle, notamment pour l’aviation.

Vous travaillez également sur deux autres voies de production de SAF à partir de ressources agricoles et sylvicoles. Quelles sont ces voies ?

Les 4 filières de production de carburants d'aviation durables développés par l'IFPEN
Les 4 filières de production de carburants d’aviation durables développés par l’IFPEN

Sur les voies thermochimiques, nous traitons uniquement des déchets tels que les résidus agricoles ou sylvicoles. Il y a deux grandes approches : la voie BTL, où l’on va complètement déstructurer la matière solide pour en faire un gaz de synthèse que l’on va purifier pour faire ensuite une synthèse Fischer-Tropsch. Ce sont des briques technologiques que l’on connaît bien, déjà éprouvées industriellement mais parfois dans d’autres domaines d’application comme la torréfaction du café par exemple.

L’enjeu ici est que l’on travaille avec du bois, une matière solide, avec ses propriétés spécifiques : il faut apprendre à le traiter, optimiser l’intégration entre les différentes briques technologiques, et démontrer la maturité et la faisabilité industrielle à grande échelle. C’est ce qu’on a exploré avec le projet BioTfueL.

A partir de la voie BTL, le projet a également étudié le procédé e-BTL, une combinaison entre le BTL et les e-fuels. Pour l’expliquer simplement, on va injecter de l’hydrogène bas carbone dans le système pour ajuster le ratio H/CO nécessaire à la synthèse Fischer-Tropsch. Cela permet d’éviter les pertes de carbone, de maximiser l’utilisation du carbone biogénique, et au final de doubler le rendement matière par rapport à un schéma BTL. C’est une façon indirecte (NDLR : par rapport à l’avion à propulsion hydrogène) mais efficace d’incorporer de l’hydrogène bas carbone, en utilisant le kérosène (un système connu et sécurisé par le transport aérien). Et vu que la biomasse est une ressource limitée et encore peu structurée industriellement, qui reste relativement chère, autant la valoriser au maximum avec l’apport d’hydrogène.

L’autre filière qui va traiter le même type de ressources est la filière éthanol…

Oui tout à fait, on va distinguer deux parties dans cette filière de production. La première est centrée sur la production d’éthanol avancé telle que développée dans le cadre du projet français intitulé Futurol. Nous travaillons sur les mêmes types de ressources que pour le BTL, c’est-à-dire des déchets lignocellulosiques contenant de la lignine, de la cellulose, de l’hémicellulose, mais cette fois, on passe par un traitement chimique pour rendre la cellulose et l’hémicellulose accessibles. Avec des enzymes, on transforme ces composants en sucres C5 et C6, puis on les fermente comme on le fait pour la bière ou le champagne, ce qui permet d’obtenir de l’éthanol de deuxième génération.

Cet éthanol avancé peut ensuite être transformé en carburant pour l’aviation via plusieurs briques technologiques : on commence par une déshydratation pour produire de l’éthylène, puis on enchaîne avec une oligomérisation pour allonger la chaîne carbonée, typiquement entre 10 et 14 atomes, et enfin une hydrogénation pour convertir les oléfines en paraffines, et ainsi obtenir un carburant conforme aux spécifications du kérosène.

Les briques technologiques nécessaires – déshydratation, oligomérisation, hydrogénation – sont connues en pétrochimie et dans le raffinage, mais ont dû être adaptées pour optimiser le rendement avec des flux différents de ceux issus du pétrole.

Ce procédé peut aussi, techniquement, être alimenté par de l’éthanol de première génération, mais en Europe, dans le cadre du règlement RefuelEU Aviation, ce n’est pas accepté car cela entre en concurrence avec l’alimentation humaine et animale. D’autres régions du monde, moins strictes sur l’origine de la matière, s’y intéressent fortement, notamment parce que l’éthanol est le biocarburant le plus répandu à l’échelle mondiale.

On peut donc envisager des synergies entre les deux générations, même si la priorité réglementaire en Europe reste orientée sur la deuxième génération.

Parlez-nous de la dernière filière de production d’e-fuels faisant l’objet de recherches à l’IFPEN.

La voie de production d’e-fuels sur laquelle nous menons aussi nos recherches utilise également la synthèse Fischer-Tropsch. Mais pour ça, il a fallu adapter le système à une nouvelle matière première, le CO. Ce gaz est très stable, donc difficile à activer.

Nous avons donc mis en œuvre une réaction spécifique – la Reverse Water Gas Shift – en présence d’hydrogène, pour convertir ce CO en un gaz de synthèse. Ce gaz a des propriétés très proches de celles du BTL, notamment en termes de ratio H2/CO, ce qui permet ensuite de réaliser la synthèse Fischer-Tropsch dans de bonnes conditions. Cette étape-là n’avait pas encore atteint le stade industriel, mais elle a été développée pour s’intégrer à la chaîne de production de carburants de synthèse. Il s’agit donc d’une autre voie de synthèse pour les carburants, complémentaire aux filières biologiques.

La plupart des projets industriels aujourd’hui envisagent d’utiliser du CO biogénique, car à partir de 2041, le carbone d’origine fossile ne sera plus éligible, en Europe en tout cas.

Vous avez évoqué plusieurs filières de production de carburants durables, qui font l’objet de développements à l’IFPEN. Où en est-on aujourd’hui sur tous ces SAF, en termes de certification et de structuration des filières industrielles ?

Aujourd’hui, on distingue quatre grandes filières principales : la voie HVO (huile végétale hydrotraitée), la voie BTL (Biomass-to-Liquids par gazéification), la filière éthanol avancé combiné à la filière ethanol-to-jet, et les e-fuels, notamment via la synthèse Fischer-Tropsch. À ces filières s’ajoutent des projets émergents, comme ceux à base de méthanol. Toutes ne sont pas au même niveau de maturité, mais elles convergent vers un objectif commun : produire du carburant d’aviation durable à grande échelle.

En ce qui concerne la certification, les carburants de synthèse le sont selon la norme ASTM D7566, qui définit le cadre technique pour les kérosènes paraffiniques synthétiques. Elle couvre différentes voies d’accès au kérosène, notamment les voies HEA et ATJ évoquées précédemment mais également la voie Fischer-Tropsch sans tenir compte de l’origine de la ressource (BTL ou CO2 et électricité). En revanche, une limite importante subsiste : aujourd’hui, ces carburants ne peuvent être incorporés qu’à hauteur de 50 % dans le carburant d’aviation, principalement à cause de la non-présence de composés aromatiques qui jouent un rôle sur l’étanchéité des joints des circuits hydrauliques. Des travaux sont en cours pour voir comment dépasser ce seuil de 50%.

Quelles sont les perspectives concrètes pour ces carburants dans les prochaines années ?

La feuille de route européenne vise l’incorporation de 70 % de SAF en 2050. D’ici là, il faut structurer la montée en puissance industrielle. On estime qu’un projet industriel prend environ 10 ans pour sa mise en production. Les projets SAF qui sortiront en 2030 sont déjà bien engagés aujourd’hui. À court terme, c’est la filière HVO qui va jouer un rôle central, en raison de sa maturité technologique et industrielle. Les technologies plus complexes – BTL, ETJ et e-fuels – arriveront plutôt entre 2030 et 2035. Les e-fuels, en particulier, sont très coûteux aujourd’hui, ce qui peut retarder leur déploiement, malgré leur intérêt stratégique.

Quels sont les grands défis à relever pour ces filières ?

Ils sont multiples. D’abord, l’accès aux ressources : la filière biomasse doit être structurée, collectée, transformée, ce qui demande des chaînes logistiques robustes. Pour les e-fuels, il faut disposer de grandes quantités d’électricité bas carbone pour produire l’hydrogène nécessaire mais également du CO2 biogénique. Ce besoin implique une montée en puissance coordonnée des filières hydrogène. Ensuite, il y a les enjeux d’intégration technologique : réussir à combiner les différentes briques technologiques, le prétraitement, la conversion et la purification, de manière optimisée pour réduire les coûts et les pertes énergétiques.

Et sur le plan industriel ?

Les investissements sont massifs : plus d’un milliard d’euros pour certaines unités. Un bon exemple est le projet BioTJet à Pardies. Né d’un programme de R&D baptisé BioTfueL, il prévoit de traiter annuellement 300 000 tonnes de biomasse et 32 000 tonnes d’hydrogène pour produire environ 110 000 tonnes de carburants liquides, dont 75 000 à 80 000 tonnes de kérosène. C’est l’équivalent de 15 % de la demande française de SAF à l’horizon 2030. Ce projet porté par Elyse Energy est soutenu par des financements publics (Carb Aéro 1 et 2), et implique des acteurs comme IFPEN, Axens ou Avril. Il illustre bien le besoin de coopération entre acteurs industriels, collectivités, et monde agricole.

Justement, comment favoriser cette coopération entre des acteurs si différents ?

C’est là tout l’enjeu. Un agriculteur pense à l’échelle de la saison, un industriel à celle de la décennie. Il faut des incitations fortes et une coordination étroite. C’est la logique de la poule et de l’œuf : sans unité industrielle, les agriculteurs n’investiront pas dans des cultures dédiées. De même, sans ressource garantie, les industriels n’investiront pas non plus. Il faut donc des mécanismes publics d’accompagnement, comme des garanties d’off-take, pour sécuriser les débouchés et déclencher les investissements.

L’État a-t-il un rôle clé à jouer dans cette structuration ?

Absolument. Il faut poursuivre le soutien par des appels à projets ciblés, mais aussi jouer un rôle de garant pour limiter le risque financier des premiers projets. L’aéronautique est plutôt bien soutenue avec des dispositifs comme Carb Aéro, mais il faut penser plus globalement, en intégrant les synergies possibles entre filières : par exemple, le CO biogénique issu d’une filière peut alimenter la production de carburant d’une autre, comme les e-fuels ou les éthanols avancés. Cette logique circulaire est essentielle pour maximiser l’utilisation du carbone biosourcé.

Malgré les innovations techniques (allègement, motorisation), les carburants restent-ils le levier principal de décarbonation ?

Oui, clairement. Même avec des avions plus sobres, la croissance attendue du trafic aérien d’ici 2050 implique que les carburants durables resteront la clé de voûte de la stratégie bas carbone. Pour faire voler un avion, il faut une forte densité énergétique, et aujourd’hui, seuls les carburants liquides peuvent répondre à cette exigence. C’est donc par les SAF que passera, majoritairement, la décarbonation du secteur.

Propos recueillis par Pierre thouverez

Daniel Battu : « Le domaine des communications par satellite s’ouvre à un univers fabuleux, très vaste et diversifié »

Pouvez-vous revenir sur votre parcours professionnel et nous expliquer comment vous en êtes venu à travailler dans le domaine des communications spatiales ?

J’ai commencé ma carrière dans les services postaux, où j’ai admiré la rigueur de la réglementation des PTT et le respect de la langue française, aussi bien dans l’expression juridique que dans la description des fonctionnements techniques. Puis, après avoir réussi des épreuves d’atelier, j’ai fait mouvement vers les services techniques des communications à longue distance. J’ai eu la chance de manipuler des matériels de conception assez ancienne, puis de travailler sur des prototypes répondant aux normes des techniques nouvelles. La pratique de l’anglais s’est effectuée progressivement. Après la réalisation de systèmes prototypes et de réseaux originaux, j’ai été conduit à former des ingénieurs de pays en voie de développement, des étudiants de l’Université Paris-Dauphine et de jeunes agents commerciaux sur l’ensemble de la thématique des réseaux et services associée à la normalisation de ceux-ci. Avec avoir rédigé 18 ouvrages de formation générale et couvert plus de 80 thèmes, dont ceux des modems, de l’ADSL, de la tarification et de la voiture connectée, le domaine spatial est le dernier thème pour lequel j’ai été sollicité au titre de consultant indépendant.

Comment définiriez-vous un satellite atmosphérique ? En quoi se différencie-t-il des satellites placés en orbite basse (LEO), moyenne (MEO) ou géostationnaire (GEO) ?

Alors que les satellites GEO, MEO et LEO évoluent au sein de l’exosphère et au-dessus, le satellite atmosphérique est exploitable au sein de l’atmosphère terrestre et dans la troposphère, c’est-à-dire à une altitude comprise entre 1,3 km et 40 km. Les satellites atmosphériques ne quittent pas la zone ou le parcours qui leur ont été assignés. Certains sont astreints à demeurer au sein d’un cube de 3 km de côté. Ces HAPS (ou Plateforme de Haute Altitude) sont en place pour une durée courte de l’ordre de 20 minutes à un mois, selon la catégorie et les usages. Ils peuvent remplir plusieurs missions pour des prestataires différents : télécommunications, surveillance incendie, contrôle de divers paramètres d’ambiance.

Les satellites géostationnaires (GEO) sont placés dans le plan équatorial terrestre à 36 000 km d’altitude et ils paraissent donc stables par rapport à un point fixe. Il suffit de trois GEO pour couvrir la presque totalité de la Terre (soit trois fois 42 % de la surface terrestre). Les signaux retransmis par ces satellites sont affectés d’un retard de transmission de 240 ms par sens de transmission. Les GEO, sont des satellites lourds et ils ont été construits à l’unité.

Les satellites d’orbite moyenne (MEO) sont placés à des altitudes comprises entre 8 000 et 24 000 km. Ils peuvent tourner autour de la Terre dans des plans non équatoriaux ou non polaires avec une période de révolution comprise entre 2 et 12 heures. Il faut les renouveler tous les 8 à 10 ans.

Les satellites en orbite basse ou très basse (LEO, VLEO) sont placés sur des orbites circulaires à des altitudes comprises entre 90 et 2 000 km. Pour couvrir efficacement toute la surface terrestre, il faut mettre en place des constellations de dix mille à quatorze mille satellites en plusieurs plans. Les signaux retransmis par ces satellites sont affectés d’un retard de transmission compris entre 6 à 20 ms. LEO et VLEO sont fabriqués en série (de 1 à 10 kg). Si la durée de vie d’un GEO peut atteindre 20 ou 30 ans, celle des LEO/VLEO motorisés peut atteindre 15 ans.

Les dernières expérimentations effectuées ont démontré que l’atmosphère terrestre est un milieu inhospitalier et mal connu, malgré sa proximité. De plus, il a été observé une suite de phénomènes inexpliqués, dont certains affectent le comportement des satellites LEO et MEO en service, les GEO paraissant moins concernés. Si la maîtrise de ces phénomènes semble assurée pour les satellites LEO et MEO, rien ne garantit que des difficultés environnementales plus importantes ne se manifesteront pas dans la gestion et le fonctionnement des satellites atmosphériques.

Quels sont aujourd’hui les principaux usages de ces satellites ? Dans quels secteurs sont-ils le plus utilisés ?

Les GEO, depuis le début de leur exploitation en 1958, ont servi au transport des communications à longue distance terrestre et maritime et à la diffusion des programmes de télévision.

Les MEO sont utilisés pour les services de navigation et de distribution de la référence du temps UTC (Temps universel coordonné).

Les LEO/VLEO, plus récents, sont réservés aux communications à faible latence et à haut débit, dont celles de la téléphonie mobile 5G et 6G et pour les services utilisant l’Internet des Objets et l’intelligence artificielle, principalement.

Parmi les applications offertes par la 5G satellitaire, il faut citer les liaisons avec la voiture connectée et à l’Internet des Objets (D2D, Direct to Dial, ou service direct sur le terminal de l’usager). En effet, cette application est censée répondre aux besoins des robots et des véhicules dont la conduite « autonome » repose sur l’emploi de logiciels. Or, il est possible, en 5G d’offrir un grand nombre de transmissions en parallèle sur des fréquences très voisines, ce qui permet de transmettre plus d’informations en simultanéité (en principe 3 300 à un débit plus élevé et sur une bande de fréquences plus large qu’en 4G). Mais la connexion 5G de type D2D à haut débit pour l’application de la voiture connectée doit être effective en permanence, même si le nombre d’utilisateurs du service D2D est important dans la même cellule de réception (50 km de largeur). Car il ne s’agit pas de messagerie de textes ou de transmission d’images ou de vidéos à bas débit, mais d’aide à la conduite de véhicules sur route ou de commandes adressées à des robots situés dans des usines, sur route ou dans les airs. Ce n’est pas l’économie des liaisons offertes aux usagers, mais la fiabilité et la qualité de celles-ci qui guideront les choix des utilisateurs. Or, il ne suffit pas d’augmenter le nombre de satellites d’une constellation pour améliorer la qualité opérationnelle des liaisons. A priori, un service satellitaire D2D par LEO/VLEO est plus adapté économiquement au trafic vocal et à la messagerie à bas débit dans des zones géographiques peu peuplées.

Le trafic à haut débit et à faible latence de type 5 et 6G, s’il est important, semble plus relever de la palette offerte par les satellites atmosphériques. Cet argumentaire qui se place dans une période stable n’est évidemment pas en phase avec les déclarations des promoteurs pressés de s’allouer des positions spatiales remarquables et des fréquences associées à des tarifs difficiles à justifier. Pour les pays déjà pourvus d’un réseau assez densifié, comme la France, la technologie 5G ne nécessite pas d’envoyer de nouveaux satellites dans l’espace (confirmé par l’ART).

Néanmoins, il est très vraisemblable que satellites atmosphériques et LEO, MEO, GEO collaboreront par l’établissement de liens optiques à très haut débit afin de constituer un maillage de secours, complémentaire au réseau terrestre (Non Terrestrial Network).

Quels avantages offrent les satellites atmosphériques par rapport aux autres types de satellites ? Et à l’inverse, quelles sont leurs limites ou contraintes ?

Le premier avantage des satellites atmosphériques concerne le cadre d’une exploitation souveraine (pas de redevances à payer en devises étrangères, contrôle des services offerts au public, réduction des risques d’interférences ou d’écoutes des messages transmis).

Le second avantage réside dans la vérité des prix par rapport aux dépenses engagées.

Le troisième avantage est lié à l’adaptation des investissements aux besoins nationaux. Le satellite atmosphérique est très facile à mettre en œuvre rapidement et de façon indépendante. Il permet de faire face à des situations de catastrophes. Il peut être utilisé simultanément à des tâches différentes.

Les contraintes actuellement sont nombreuses, car il s’agit d’une technologie nouvelle qui n’a qu’une quarantaine d’années d’existence dans un milieu mal connu et aux caractéristiques variables selon les lieux d’implantation (pas assez de connaissances sur une grande variété de thèmes, dont la microgravité et pas d’historicité des phénomènes observés). La fiabilité et la rentabilité économique des satellites atmosphériques demeurent encore à être démontrées.

Est-ce un domaine encore en phase de recherche, ou voit-on déjà des applications concrètes émerger dans l’industrie ?

Tornades de projets – Tout le domaine spatial connaît une période d’innovations bouillonnantes qui ont un retentissement sur les plans technique et économique. L’annonce des études sur les satellites atmosphériques a eu un effet sensible sur l’accélération des mises en œuvre des LEO/VLEO. Le secteur des GEO, qui était estimé un peu désuet, fait néanmoins l’objet de nouveaux développements. Les investisseurs sont à la recherche de combinaisons de nouvelles technologies afin de placer leurs offres et de rentabiliser leurs innovations. De plus, l’intelligence artificielle a ouvert un nouveau marché aux paramètres encore inconnus. De nouveaux pays, dont le Nigéria, l’Egypte et la Malaisie souhaitent entrer dans la compétition spatiale.

Quatre classes majeures – On voit se dessiner quatre classes de satellites atmosphériques qui seraient à peu près au même niveau d’acceptation dans la mission de télécommunications si les tensions politiques n’avaient pas bousculé récemment les échanges de la mondialisation. Pour la maîtrise mondiale de ces développements se situent ici deux définitions essentielles : une filière de carburant non polluant (hydrogène) et la définition de batteries à forte capacité (pile à combustible à hydrogène). Comme toute réussite industrielle a un impact sur d’autres fabrications, il est préférable d’utiliser partout et pour un grand nombre d’usages la même source d’énergie. Ces quatre classes de satellites atmosphériques, en expérimentation depuis plus de quarante ans par plusieurs centaines d’industriels dans le monde, avec un grand nombre de variantes, sont les suivants :

  • le ballon atmosphérique, fixe et stable ; il est de plus peu onéreux ;
  • le dirigeable télécommandé, fixe et stable également, mais un peu plus grand ;
  • l’avion léger sans pilote, qui tourne autour d’un point fixe en permanence ;
  • le eVTOL ou avion électrique à décollage court pour la basse altitude (de 8 m à 1 300 m) et à faible distance (entre 20 minutes et 150 km) pour des charges comprises entre 150 kg à 1,5 tonne. Les drones, bien que plus légers, font également partie de cette catégorie.

Les deux premières propositions intéressent beaucoup les forestiers d’Amérique du Nord qui, bien avant les exploitants de télécoms, ont ouvert les premières études.

Les eVTOL – Actuellement, les eVTOL semblent prendre la tête du challenge, le Japon, Taïwan et les États-Unis annonçant des acceptations réglementaires de vol pour 2026 et des ouvertures d’usines pour des fabrications en grande série.

Walmart et Wing ont étendu leur service de livraisons à domicile par drone dans cinq États du sud-est des États-Unis. Des hôpitaux et des millions de clients éloignés de moins de 10 km peuvent ainsi recevoir leurs commandes depuis une centaine de magasins.

Les garde-côtes américains ont commandé des eVTOL qui sont des hydravions de faible taille pour la surveillance des petits cours d’eau. L’Asie vise les formules de taxis avec ou sans chauffeur de 2 à 6 places. La Chine se spécialise dans le transport lourd à distance moyenne (150 km). Ce qui n’empêche pas au Suisse Bertrand Piccard de se préparer, pour 2028 et avec le concours d’Airbus, à un tour du monde à trois personnes à bord d’un avion à pile à hydrogène, à 300 m au-dessus de la ligne de l’équateur.

Les drones – Sans évoquer ici les diverses applications militaires, le secteur des drones, qui constitue une application particulière de l’eVTOL, se développe et se diversifie rapidement. Il existe des drones de toutes dimensions, depuis 15 grammes jusqu’à environ 60 kg.

Les industries – Toute cette effervescence de projets multiples n’est pas sans créer des inquiétudes auprès des autres investisseurs. Or, avec huit grandes constellations déjà programmées et des demandes d’enregistrement déposées pour plus d’un million et demi de satellites au début de 2025, l’effort consenti dans le domaine du perfectionnement des lanceurs pourrait sans doute être amorti, si le marché des services se développe suffisamment. Cependant, le doute commence à s’installer, car le marché mondial n’est pas extensible à l’infini. Et toute décision ou tout échec dans un domaine modifie les chances des autres challengers.

Ces satellites sont-ils soumis à une réglementation spécifique ? Existe-t-il un cadre juridique ou technique qui en encadre l’usage ?

L’histoire des transports rappelle que les pouvoirs publics se sont toujours montrés favorables au progrès technique. La réglementation s’est instaurée progressivement dans ce sens, en essayant de limiter le nombre d’accidents, et en corrigeant au besoin le profil des voies d’accès. Avec les drones et les satellites, la question doit être envisagée cette fois dans les trois dimensions et des solutions uniques et des protections définies au niveau international. À noter que même un cadre réglementaire rigoureux n’est pas le gage de l’absence d’occurrence d’incidents ou d’accidents graves.

Comme pour l’automobile et l’aviation, des règles unifiées seront adoptées progressivement en fonction de l’importance du trafic et des dommages possibles. Un certain nombre de décisions nationales et internationales ont déjà été prises dans ce sens.

Si, comme à leur habitude, les médias grossissent à plaisir certains aspects de cette augmentation de l’activité spatiale, ils semblent ignorer qu’un grand nombre d’études et d’essais sont en cours sur ces points sensibles (en particulier, ceux des débris et des nuisances occasionnées aux observatoires) et que des compromis techniques sont en cours de négociation. Il faut aussi mentionner à ce propos que certains pays ignorent totalement le rôle essentiel de la normalisation ou n’ont pas les moyens de l’observer. D’autre part, il est important que les structures normatives et réglementaires elles-mêmes soient associées étroitement au dispositif législatif national et que l’industrie sache utiliser ces rouages dans son propre intérêt et pour le bénéfice des citoyens utilisateurs ou de leurs voisins. Une bonne connaissance des normes représente l’assurance de recevoir des lingots d’or en retour ! Malheureusement, nous sommes contraints parfois de vivre à proximité de personnes (ou de pays) qui ignorent les règles de bon voisinage et, par suite, les incidents provoquent des accidents.

La question de la saturation de l’espace est de plus en plus discutée. Les satellites atmosphériques posent-ils les mêmes types de problèmes ?

Avant d’évoquer le point de la saturation de l’espace, il faudrait mieux connaître ce dernier sur le plan scientifique afin d’en évaluer la capacité, les dangers et les ressources qu’il représente. En réalité, il est impératif d’abord que nous exploitions les nouvelles technologies et les capacités qui en résultent pour élargir notre compréhension du système solaire et de l’univers. Cette exploration scientifique est financée actuellement par l’État français et l’Union européenne, ainsi que, indirectement, par les industriels qui commercialisent les services souhaités par les marchés de la communication, de l’écologie, de la sécurité, de la santé, du transport, etc.

Les satellites atmosphériques ne devraient pas connaître de problème de saturation, puisqu’ils sont soumis à une autorisation de niveau national. Toutefois, toute création d’activité nécessite un encadrement juridique et réglementaire adapté.

Dans tout domaine technique, rien n’est acquis de façon définitive et des améliorations aux services offerts sont périodiquement apportées. Combien de fois n’a-t-on pas modifié le Code de la route et les obligations relatives aux équipements obligatoires des véhicules ?

Quels conseils donneriez-vous à de jeunes ingénieurs qui souhaiteraient se spécialiser dans le domaine des communications spatiales ?

Le domaine des communications spatiales est devenu aujourd’hui un domaine fabuleux, très vaste et diversifié, et en même temps très mouvant dans le temps. Le spatial interfère dans beaucoup de domaines des connaissances : espace, mécanique, électronique, antennes, communications, énergie et même plus.

L’édifice des trois niveaux de systèmes de normalisation national, européen et international (avec l’ISO, la CEI et l’UIT) doit être considéré par les jeunes ingénieurs comme la boussole indispensable à toute étude technique et le domaine spatial n’échappe pas à cette règle.

Jusqu’ici, je n’ai pas trouvé moi-même de système d’intelligence artificielle qui puisse permettre d’être au courant rapidement de toutes les nouvelles ou décisions relatives au domaine spatial. Il faut donc organiser soi-même son propre système de veille technique.