RELIEF : un assistant IA de chiffrage qui aide les industriels à passer du cahier des charges au devis

 

Jonas LEVY et Mickaël MAMOU, cofondateurs de RELIEF
(à gauche) Jonas LEVY et (à droite) Mickaël MAMOU (Crédit : RELIEF)

RELIEF[1] est un copilote IA de chiffrage, pensé pour les industriels, qui automatise la création de devis complexes.

En générant des recommandations intelligentes, RELIEF améliore la performance des équipes de technico-commerciaux, et optimise le niveau de marge des affaires.

Jonas LEVY et Mickaël MAMOU sont les cofondateurs de cette jeune entreprise créée en 2024.

 

Techniques de l’ingénieur : Quelles sont les difficultés que rencontrent les entreprises industrielles avec le chiffrage ?

Mickaël MAMOU : Une problématique majeure des PME et ETI industrielles est la perte du savoir-faire acquis pendant des décennies, par des ingénieurs qui ont participé à la construction de ces entreprises. Or, beaucoup de ces ingénieurs partiront bientôt à la retraite d’ici les cinq prochaines années. Le chiffrage étant une compétence rare, ce savoir-faire est donc clairement menacé.

Malheureusement, comme on le sait, les usines ne sont pas les endroits les plus attractifs du monde et souffrent de problèmes de recrutement, il y a donc un fort enjeu de sécurisation de cette compétence de chiffrage dont la perte peut mettre une entreprise en péril.

La seconde problématique est l’accès au marché. En effet, une entreprise qui n’arrive pas à produire un devis de qualité sous des délais courts perd des contrats par manque de réactivité. On sait par exemple que les entreprises de domaines comme la métallerie, la chaudronnerie ou la mécanique de précision ont accès à des marchés phénoménaux. Néanmoins, ces entreprises n’arrivent à répondre qu’à 20 % des demandes entrantes !

Enfin, il y a aussi une troisième problématique, qui est le besoin d’augmenter la productivité du chiffrage. En général, les personnes qui exercent ce métier sont très bien payées, car c’est quelque chose de très complexe. Néanmoins, on pense que 80 % du travail qu’ils accomplissent peut être digitalisé, accompagné par une IA, afin que l’ingénieur puisse se concentrer sur les tâches à haute valeur ajoutée.

Des entreprises développent des outils de chiffrage en interne ?

Certains dépensent en effet des centaines de milliers d’euros pour développer des outils de chiffrage en interne. Bien souvent, cela ne les mène nulle part, après trois ans de développement, car c’est plus complexe qu’il n’y paraît.

En effet, pour qu’un outil permette de résoudre un problème en profondeur, il faut qu’il soit capable de reproduire le raisonnement d’un ingénieur et de l’accompagner. Si on ne fait pas ça, on crée un outil qui apporte un peu de productivité au début, mais qu’il faut maintenir et faire évoluer, ce qui nécessite un savoir-faire technologique qui n’est généralement pas présent dans ces entreprises. En fait, la production d’outils aussi avancés n’est simplement pas leur métier.

Ne peuvent-elles pas y arriver avec des outils d’IA générative ?

Des entreprises tentent également de développer des outils de chiffrage en s’aidant de ChatGPT et arrivent parfois à des résultats. Cependant, d’une part, la protection des données fournies à ChatGPT pour entraîner l’outil devient un vrai problème. D’autre part, ces données sont mélangées à un corpus tellement large que la performance globale de l’IA décroît, donc ça n’est pas une solution sur le long terme.

Quelle solution proposez-vous ?

L’outil que nous proposons est un copilote IA qui accompagne l’ingénieur dans les différentes étapes du processus de chiffrage et lui fait gagner du temps.

Nous avons constaté que, dans l’industrie, l’exercice de chiffrage peut toujours être segmenté en quatre phases. La première est une phase de cadrage, suite à la réception du cahier des charges, toujours plus ou moins flou, plus ou moins complet. Il y a un aspect stratégique : est-on en mesure de répondre à cette demande ? Est-ce un client historique ou pas ? Est-ce un client stratégique ? Est-ce un compte que j’ai envie de pénétrer ? De quelle manière ai-je envie de répondre ?

La deuxième phase, c’est la conception de la solution technique. Elle fait appel à différentes briques technologiques, des sous-ensembles qui existent déjà dans les logiciels métiers.

La troisième phase consiste à structurer mentalement le devis, à mettre des hypothèses en face, concernant les coûts, le temps, etc.

Enfin, la quatrième phase est la construction du devis, la vérification par plusieurs personnes, puis la validation.

Or, sur chaque étape, il y a environ 80 % d’automatisation par IA qui est possible ! RELIEF est composé de plusieurs agents IA qui permettent ainsi d’automatiser une grande partie de ces étapes.

Comment fonctionnent ces agents IA, dans le processus de chiffrage ?

Un premier agent IA passe au travers d’un moteur de chiffrage que nous avons préalablement reconstruit en amont. Cela permet à l’outil d’accéder à des données parfaitement classifiées. L’IA est donc très précise dans sa réflexion stratégique, puisqu’elle va chercher des objets de données qui sont hyper structurés.

Une fois que l’ingénieur a répondu aux questions de ce premier agent conversationnel, un second agent prend le relais, en fonction du type de client et propose une architecture de solution. Puis un troisième agent vient proposer des solutions du type : « je propose d’intégrer telle ou telle donnée ; j’estime que telle opération demande 20 h ; le coût de tel matériau est… »

Le quatrième agent concerne la validation du devis. Il laisse le choix entre une validation automatique et une notification au responsable, pour validation, car le workflow de RELIEF est flexible, adapté au processus métier de chaque entreprise.

Dans quelle mesure RELIEF permet-il de répondre aux problématiques liées au chiffrage ?

Nous permettons aux entreprises de faire appliquer par des agents IA des règles métiers qui, soit existaient dans la tête des experts, soit étaient formalisées de façon éparse. Avec RELIEF, un devis qui prenait 20 h nécessite désormais entre 2 h et 4 h ! La productivité du chiffrage technique est donc décuplée.

Si on prend l’exemple de l’accès au marché, RELIEF aide les entreprises à répondre à plus de 40 % des demandes, jusqu’à 100 % dans certains cas, ce qui débloque des opportunités de croissance phénoménales.

Le but est aussi de soulager l’ingénieur. Il est tout de même dommage qu’un profil aussi qualifié passe autant de temps à manipuler des feuilles Excel, à valider des formules et à fouiller dans l’ERP de l’entreprise pour rechercher des projets similaires.

Vous venez de lever 2,6 M€, après seulement 9 mois d’existence. Comment voyez-vous la suite ?

En se basant sur des indicateurs prédictifs, d’après les tendances des trois derniers mois, on devrait pouvoir atteindre 100 clients et 2 millions d’euros d’ARR d’ici fin 2026. Beaucoup de choses peuvent changer d’ici là, mais c’est la trajectoire que nous prenons.

Pour atteindre ces objectifs, RELIEF devra recruter 20 collaborateurs techniques, opérationnels et commerciaux. La récente levée de fonds de 2,6 M€ en amorçage auprès de Daphni, Galion.exe, OSS Ventures, Kima Ventures et plusieurs business angels de renom permettra d’y arriver.


[1] RELIEF

L’usage des petits modèles de langage pourrait rendre l’IA plus accessible et responsable

Trop chers ! Reposant sur des milliards de paramètres et de données, les LLM ont révolutionné la compréhension et le traitement du langage naturel dans l’industrie. Depuis l’avènement de ChatGPT en novembre 2022, l’engouement pour les LLM n’a cessé de croître. Les dépenses mondiales en solutions d’IA de génération pourraient passer de 16 milliards en 2023 à 150 milliards en 2027.

Mais ils présentent aussi des contraintes de coût (à cause notamment d’importantes ressources de calcul), de consommation énergétique et de confidentialité.

L’année 2025 marque un tournant vers des solutions plus compactes et spécialisées. Les Small Language Models (SLM) émergent comme une solution idéale pour des usages ciblés dans les entreprises. Cette montée des SLM s’appuie sur un écosystème open source dynamique, où la communauté partage modèles et scripts pour un entraînement rapide sur des données limitées.

Les petits modèles de langage (SLM) intègrent quelques millions à quelques milliards de paramètres. Plus légers, rapides à entraîner et à déployer, ils représentent une alternative économique aux LLM. Les entreprises y voient un moyen d’optimiser leur ROI (Return on Investment en anglais) ou retour sur investissement.

Ne plus dépendre du cloud

Adaptés à des usages spécialisés, les SLM alimentent des chatbots d’assistance ou des modèles d’analyse de marché. Ils répondent aux besoins de niche sans nécessiter d’énormes jeux de données externes pour l’entraînement. Les entreprises peuvent ainsi affiner ces modèles sur des jeux de données limités pour répondre à des cas d’usage précis sans sacrifier la qualité.

Microsoft, Meta, Google et la start-up française Mistral ont récemment publié des SLM performants et accessibles. Le lancement de PC dotés d’unités de traitement neuronal embarquées facilite l’exécution locale de ces modèles. L’IA ne dépend plus exclusivement des infrastructures coûteuses du cloud.

Autre écueil des LLM : leurs hallucinations, ces réponses inexactes issues de données non structurées. Or, plus un modèle de langage est grand, plus la maîtrise des biais et des fausses réponses devient complexe.

Pour toutes ces raisons, le cabinet d’analystes Gartner estime que les entreprises adopteront trois fois plus de SLM que de LLM généralistes d’ici à 2027. Les experts recommandent de cibler les déploiements spécifiques où les connaissances spécialisées sont déterminantes.

Il pourrait s’agir par exemple d’extraire des informations clés (dates, noms, montants) dans des documents confidentiels ou de recourir à des chatbots formés sur le corpus interne de l’entreprise pour le support RH ou informatique.

Au-delà de ces deux exemples, les SLM peuvent être finement adaptés à tout contexte où l’infrastructure cloud est inadaptée : véhicules autonomes, drones, wearables…

À terme, la stratégie idéale combinera LLM pour les scénarii ouverts et SLM pour les tâches restreintes. Cette approche hybride permettra d’allouer les ressources de calcul de manière optimisée et ciblée. Les entreprises pourront ainsi bénéficier de la puissance des grands modèles tout en limitant les coûts.

Une horloge nucléaire pourrait éclaircir un des plus grands mystères de l’Univers

L’insaisissable peut-il être détecté ? La question mérite d’être posée au sujet de la matière noire, cette substance invisible qui influe sur la matière visible. Son rôle est indéniable puisqu’elle représente environ 80 % de la masse de l’univers et qu’elle est essentielle dans la formation des galaxies. Sa nature et ses propriétés demeurent néanmoins indéterminées du fait de ses interactions incroyablement subtiles. Son étude, cruciale pour la compréhension structurelle de l’univers, est rendue difficile par son inaccessibilité. La détection directe restant hors de portée, les scientifiques élaborent des tentatives de détections indirectes.

Parmi celles-ci, une technique innovante semble prometteuse : le développement d’une horloge nucléaire basée sur l’isotope radioactif thorium-229. En exploitant la précision extrême de cette horloge, l’influence de la matière noire pourrait se révéler indirectement via l’étude de ses effets subtils sur la matière ordinaire.

L’horloge nucléaire : plus précise que l’horloge atomique

L’horloge atomique classique s’appuie sur la fréquence de résonance[1] des électrons ; c’est l’instrument de mesure le plus précis utilisé actuellement. Mais ces électrons restent vulnérables aux interférences électriques extérieures, ce qui limite leur capacité à détecter des forces subtiles comme celles de la matière noire. Les noyaux des atomes, en revanche, sont beaucoup moins sensibles à de telles perturbations.

Cette stabilité est mise à profit pour concevoir l’horloge nucléaire en utilisant les transitions d’énergie à l’intérieur même du noyau atomique : le temps est mesuré par le « balancement » du noyau entre les états quantiques. La précision inégalée des mesures permet de détecter d’infimes variations de la matière ouvrant ainsi la voie à l’étude de phénomènes physiques inaccessibles.

Pour effectuer les mesures, c’est le thorium-229 qui a été sélectionné pour une de ses propriétés remarquables. En effet, alors que dans la plupart des matériaux les transitions nucléaires se font à des fréquences très élevées, le thorium-229 présente l’avantage d’avoir un état d’excitation exceptionnellement bas. Il peut donc être manipulé par technologie laser en utilisant le rayonnement ultraviolet.

Détection d’une force 100 millions de fois plus faible que la gravité

Comment mesurer la fréquence de résonance du thorium-229 pour construire une horloge nucléaire ? L’année dernière un groupe de l’Institut national allemand de métrologie ainsi qu’une équipe de l’Université du Colorado sont parvenus à obtenir des avancées majeures dans la précision des mesures. En partant de cette découverte et par une sorte d’émulation, des chercheurs en physique théorique, dirigés par le professeur Gilad Perez de l’Institut Weizmann des Sciences, ont envisagé l’hypothèse que la détection d’infimes variations du spectre d’absorption du thorium-229 pourrait révéler l’influence si discrète de la matière noire. En effet, si les oscillations de la matière noire influencent la masse des noyaux atomiques, elles devraient perturber la fréquence de résonance d’une horloge nucléaire. En collaboration avec l’équipe allemande, l’équipe du professeur Perez a publié une étude dans la revue Physical Review X proposant une méthode pour détecter ces décalages qui pourraient être liés à la présence de la matière noire. Pour saisir le degré de précision sans précédent obtenu, il faut imaginer que ces mesures pourraient détecter l’action subtile de la matière noire même si elle était 100 millions de fois plus faible que la gravité !

Ce capteur passif reste théorique car il n’existe pas encore de prototype fonctionnel. Si ces travaux aboutissent, ils pourraient offrir un large éventail d’applications technologiques dépassant la cosmologie, comme la navigation ou la communication.


[1] Une oscillation maximale est observée lorsqu’une force extérieure correspond à la fréquence naturelle du système

Prélèvements solides : Diagante améliore la conservation

En 2020, la start-up Diagante est créée d’après les travaux du professeur Martin Rottman, du laboratoire Infection et inflammation (2I – Inserm/UVSQ – Université Paris-Saclay) et de l’AP-HP (Hôpital Raymond Poincaré, Garches). Cécile Chevalier, diplômée de HEC, devient CEO, tandis que Virginie Lebidois, issue du monde de la pharmaceutique, prend les fonctions de COO. Après avoir été incubé chez Paris & Co Santé pendant deux ans et demi et accéléré chez Wilco, Diagante est aujourd’hui situé au sein des locaux de l’UVSQ dans l’unité de médecine à Montigny-le-Bretonneux (Yvelines). L’objectif de la start-up est d’améliorer l’analyse des prélèvements solides.

En effet, dans le cadre des infections osseuses ou articulaires, près de 30 % des échantillons sont des faux positifs. Dans certains cas, le pathogène est présent, mais les techniques actuelles ne permettent pas de le détecter. Cela est dû au fait que les prélèvements solides doivent être pris en charge en moins de deux heures pour éviter que les informations liées aux bactéries et aux micro-organismes ne se dégradent trop. L’organisation même des laboratoires en plateaux techniques de plus en plus centralisés avec un usage croissant des sous-traitants favorise les retards et les dépassements de délais.

Réduire le nombre de faux négatifs

Pour résoudre ces problématiques, la start-up développe un dispositif qui permet la conservation des échantillons solides et ce qu’ils contiennent jusqu’à 72 h à température ambiante. Le nombre de faux négatifs tombe ainsi à 5 %. La technologie proposée par Diagante réside en un flacon doublement emballé qui contient une solution de transport ainsi qu’un système de billes breveté. Ce système de billes permet de broyer les prélèvements organiques sans détruire les bactéries et les micro-organismes. À la fin du processus, l’échantillon est liquide et le technicien peut l’analyser via son procédé habituel. Le produit développé par la start-up, baptisé TISSUtainer, est en phase de commercialisation. Il a obtenu la certification ISO 13485, norme internationale qui spécifie les exigences des systèmes de management de la qualité pour l’industrie des dispositifs médicaux ainsi que le marquage CE. Diagante peut ainsi commercialiser son produit en Europe et aussi au Royaume-Uni. Dans les prochaines années, elle souhaite également s’étendre aux États-Unis.

Au début de l’histoire de la start-up, le trio de cofondateurs s’était penché sur les infections des os et des articulations. Mais au contact des chirurgiens, le projet s’étend pour permettre de mieux conserver les tissus mous et élastiques comme ceux du cœur ou des vaisseaux sanguins, difficiles à prendre en charge. Elle travaille aussi sur un nouveau sujet en parallèle : développer un kit pour les diagnostics d’infection avec une approche plus ciblée sur tous les types de micro-organismes, et non uniquement les bactéries. Ce sujet fait l’objet d’une thèse CIFRE. En plus des 1,1 million d’euros de financement obtenus il y a deux ans, Diagante lance en ce moment une nouvelle levée de fonds pour espérer récupérer environ 1,5 million d’euros. L’objectif est de servir la croissance en Europe et de soutenir les futurs projets.

Le coût des énergies renouvelables devient imbattable

La progression des énergies renouvelables électriques dans le monde est incontestable. 582 GW de nouvelles capacités ont été installés en 2024, soit près de 20 % de plus que les installations faites en 2023. Le solaire photovoltaïque (+452 GW) et l’éolien (+114 GW) dominent largement le palmarès, devant l’hydroélectricité (+9,3 GW). Avec les autres solutions de production d’électricité (bioénergies, géothermie, énergies marines), les EnR totalisent 4 443 GW installés mondialement.

Un des avantages directs est de remplacer ou éviter des centrales électriques alimentées en énergies fossiles, permettant ainsi d’éviter des émissions de CO2 à hauteur de 2,9 Gt pour la Chine et de 1,4 Gt pour les États-Unis, l’Inde et le Brésil réunis. L’économie financière faite en évitant d’acheter des énergies fossiles est aussi importante : respectivement 180 et 67 milliards US$. On peut aussi y ajouter les gains relatifs à une meilleure santé (pollution de l’air évitée) de l’ordre de 261 et 57 milliards $.

Cette dynamique positive est due aux coûts compétitifs de l’éolien et du solaire photovoltaïque. Le dernier rapport de l’IRENA donne plusieurs statistiques en ce sens, ainsi que les freins encore existants au déploiement des EnR.

Une baisse des coûts qui se poursuit

Les trois indicateurs technico-économiques utilisés par l’IRENA sont le coût total d’installation (en $ par kW installé), le coût actualisé de l’énergie (LCOE – Levelized cost of energy, en $ par MWh produit), et le facteur de charge théorique (rapport entre la production attendue et un fonctionnement maximum à 100% de la puissance toute l’année).

Le LCOE du photovoltaïque en 2024 est à 43 $/MWh, celui de l’éolien sur terre de 34 $/MWh et celui de l’éolien en mer de 79 $/MWh. Même si ces LCOE sont légèrement plus élevés que ceux de 2023, l’IRENA relève que 91 % des nouveaux projets d’EnR dans le monde l’an dernier étaient plus compétitifs que n’importe quelle alternative fossile. Ainsi, en moyenne, le solaire photovoltaïque est 41 % moins cher que la moins chère des centrales fossiles, et l’éolien terrestre 53 %.

Les facteurs de charge ont tendance à s’améliorer. Entre 2010 et 2024, ils sont passés de 15 à 17 % pour le photovoltaïque, de 27 à 34 % pour l’éolien terrestre, de 38 à 42 % pour l’éolien en mer et de 44 à 48 % pour l’hydroélectricité.

Les coûts d’installation des EnR sont aussi plus performants. Ils sont de 691 $/kW pour le solaire photovoltaïque, de 1 041 $/kW pour l’éolien terrestre et de 2 852 $/kW pour l’éolien en mer. À l’avenir, l’IRENA considère que la baisse des coûts d’installation va se poursuivre : ils pourraient respectivement atteindre 388 $/kW, 861 $/kW et 2 316 $/kW d’ici cinq ans.

Des freins, en particulier sur le financement

Un des points du consensus obtenu à la COP28 à Dubaï en 2023 est d’atteindre 11 000 GW de capacités EnR en 2030 dans le monde. Pour y arriver, une accélération est nécessaire. Le stockage par batteries – dont le coût a baissé de 93 % depuis 2010, pour atteindre 192 $/kW en 2024 – devrait faciliter cet élan. En le couplant avec les EnR, le facteur de charge des installations peut gagner jusqu’à 8 points. En Australie, huit projets combinant solaire, éolien et batteries ont atteint un LCOE de 51 $/MWh.

Mais les situations diffèrent selon les zones géographiques. Le photovoltaïque est par exemple plus cher en Europe et aux États-Unis qu’ailleurs dans le monde, ce qui peut ralentir sa progression. Les risques géopolitiques, notamment la guerre des taxes douanières lancée par Donald Trump, pourraient renchérir le coût de certains composants des EnR, surtout ceux dont la Chine est un des principaux fournisseurs. Les contraintes, délais et coûts d’intégration au réseau électrique sont aussi variés selon les pays et peuvent dans certains cas, comme en Europe, freiner un développement rapide.

Un cadre stable de vente de l’électricité est aussi nécessaire, soit via des contrats privés de type PPA (Power Purchase Agreement), soit par des contrats pour différence fixés par les pouvoirs publics. L’IRENA pointe surtout l’impact des coûts de financement : leur poids, selon les régions, peut constituer plus de la moitié du LCOE (voir graphe ci-dessous). Cette part des coûts financiers dépend de la valeur moyenne pondérée du coût du capital (WACC – Weighted average costs of capital) : il est autour de 4 % en Europe, alors qu’il va atteindre 10 % en Afrique.

L’IRENA rappelle que des politiques publiques favorables aux EnR permettent de réduire le WACC, même si celui-ci dépend beaucoup de la notation de la dette souveraine de chaque pays et des taux directeurs des banques centrales.

Répartition des coûts du LCOE, par régions en 2024
Répartition des coûts du LCOE, par régions en 2024.
Les coûts de financement (en jaune) sont très variables selon les régions et peuvent représenter plus de la moitié du LCOE en Afrique, à côté des dépenses d’investissement (CAPEX en bleu) et des coûts d’exploitation et de maintenance (en vert). Source : IRENA, 2025

EPR de Flamanville : pas de pleine puissance avant cet automne

Un énième report de la date d’atteinte de la pleine puissance du réacteur EPR[1] de Flamanville 3[2] a été signalé dans un communiqué d’EDF, le 1er août dernier. Le réacteur est maintenu à l’arrêt « pour réaliser une opération de contrôle et de maintenance préventive sur la troisième soupape de protection du circuit primaire principal ».

Rétrospective d’une aventure riche en rebondissements

Le projet débute en 1992 dans le cadre d’une collaboration franco-allemande[3]. L’hostilité allemande à l’égard du nucléaire entraîne néanmoins le désengagement de Siemens en 2009. Début 2018, EDF arrive aux commandes en reprenant la branche réacteurs nucléaires d’Areva[4] dans le cadre d’un plan de sauvetage.

Résumons les dates clés. En décembre 2007, le premier béton est coulé sur le site de Flamanville. La mise en service est annoncée pour juin 2012 mais c’était sans compter les nombreux retards accumulés dès décembre 2008 suite aux problèmes techniques impliquant notamment des soudures défectueuses.

L’EPR a finalement reçu une autorisation de mise en service de l’ASN[5] le 7 mai 2024. Le chargement du combustible nucléaire est achevé le 15 mai et la première réaction de fission nucléaire de très faible puissance a lieu le 2 septembre. L’EPR est raccordé au réseau électrique national pour la première fois le 21 décembre 2024, soit un retard de plus de 12 ans par rapport au calendrier initial. Depuis, le réacteur connaît une phase de montée en puissance par paliers successifs.

L’année 2025 a aussi connu son lot de problèmes techniques. L’EPR a, en effet, été arrêté pour maintenance du 15 février au 19 avril avant d’être à nouveau à l’arrêt depuis mi-juin.

Ces retards sont logiquement accompagnés de dépassements des coûts de construction. Évalué à 3,3 milliards d’euros en 2006, le coût total de construction est aujourd’hui estimé à environ 23,7 milliards d’euros selon les calculs de la Cour des comptes.

Pilier du mix électrique français

L’EPR est un réacteur évolutionnaire : il fonctionne sur les mêmes principes que les réacteurs de deuxième génération actuellement en service, dits REP[6]. Sa distinction majeure réside dans le renforcement de la sûreté nucléaire, notamment grâce à une double enceinte de béton de 2,6 mètres d’épaisseur et un système de récupération du corium assurant la protection en cas de fusion du cœur.

Trois réacteurs nucléaires EPR sont actuellement en service : deux en Chine au sein de la centrale de Taishan et un en Finlande.

L’EPR dispose de plusieurs avantages pour occuper une place stratégique dans le mix électrique français de demain.

Tout d’abord, il possède une puissance supérieure aux autres réacteurs du parc français (1 650 MW contre environ 900 à 1 500 MW) pour une production de 13 TWh par an. Ensuite, l’EPR devrait consommer 7 à 15 % d’uranium en moins par kWh produit et son rendement thermique est meilleur (37 % contre 33 % pour les réacteurs de la génération précédente).

Avec une durée de vie minimale prévue de 60 ans pour les éléments non remplaçables (contre 40 ans pour les réacteurs actuels), il accompagne la relance de la filière nucléaire française. Celle-ci doit également passer par l’amélioration et la maintenance de l’exploitation du parc nucléaire existant comprenant un total de 56 réacteurs REP. Le nouveau programme d’EPR 2[7] doit aussi y contribuer ; en 2022, le chef de l’État a annoncé que 6 devraient voir le jour.

Dans cette optique, il faudra remédier à la perte de compétence due aux départs en retraite des spécialistes et qui est à l’origine des retards ; les derniers chantiers de centrales nucléaires remontent au réacteur n° 2 de la centrale de Civaux datant de 1991.


[1] Initialement « European Pressurized Water Reactor », renommé « Evolutionary Power Reactor »

[2] Deux réacteurs sont déjà en service au sein de la centrale

[3] Framatome avait constitué une société commune avec le fournisseur allemand Siemens

[4] Reprend le nom de Framatome, filiale détenue à 80,5 % par le groupe EDF

[5] Autorité de sûreté nucléaire

[6] Réacteurs à eau sous pression

[7] Une version optimisée de l’EPR

Feuille de route budgétaire 2026 : quelles annonces pour l’industrie ?

Avec ce plan, le chef du gouvernement veut reprendre le contrôle des finances publiques et compte demander « un effort à tous les Français ». S’il est déjà largement critiqué par l’opposition, ce plan de rigueur n’est cependant pas encore finalisé et François Bayrou se donne deux mois pour l’affiner.

Suppression de deux jours fériés pour renforcer la productivité

C’est probablement l’une des annonces les plus décriées du plan : la volonté de supprimer deux jours fériés afin que « toute la nation travaille plus » et pour faire en sorte que le mois de mai ne soit plus un « véritable gruyère ».

Avec cette mesure, Bayrou veut ainsi réconcilier (de force) la France avec le travail. Mais cette réduction du nombre de jours fériés aura-t-elle un impact significatif sur la production ?

La réponse est oui, si on en croit un rapport sénatorial. Selon ce rapport publié en septembre 2024, la suppression d’un seul jour férié entraînerait une hausse de production représentant 2,4 milliards d’euros. Par ailleurs, il y a un précédent, puisque la journée de solidarité instaurée en 2004 rapporte déjà 3,5 milliards par an.

Selon les estimations indiquées dans un document d’orientation adressé aux partenaires sociaux, en supprimant deux jours, l’État espère ainsi gagner près de 4,2 milliards d’euros sur l’année 2026, les employeurs du secteur privé devant s’acquitter d’une contribution qui sera affectée au budget de l’État.

Financement des entreprises : fonds propres et capital-risque

François Bayrou estime que les investissements en capital-risque sont « un outil puissant pour l’innovation et la croissance des entreprises ». Il propose donc de consacrer 900 millions d’euros de financement en fonds propres supplémentaires, dédiés à l’investissement en capital-risque dans les entreprises innovantes. Cette somme devrait être attribuée via des fonds spécialisés qui seront également chargés d’accompagner les jeunes entreprises dans leur croissance.

Priorité à l’IA et à la cybersécurité

Par ailleurs, le Premier ministre considère les investissements vers l’IA et la cybersécurité comme prioritaires. Il met en avant les gains de productivité majeurs, de l’ordre de 20 %, promis par l’intégration de l’IA dans l’appareil productif et souhaite ainsi « orienter davantage les financements de France 2030 vers les secteurs prioritaires de l’intelligence artificielle et du cyber dans tous les secteurs ».

Pour le gouvernement, l’enjeu est également de doter la France d’un véritable pôle d’excellence d’ici 2035, en accord avec la stratégie de l’UE visant à faire de l’Europe un concurrent de taille dans le domaine des technologies de pointe, face aux entreprises nord-américaines et asiatiques.

Lutte contre les pratiques abusives et chasse aux niches fiscales

Le Premier ministre entend également lutter contre certaines pratiques abusives de la part d’entreprises, notamment les retards de paiement à répétition qui pourraient être sanctionnés jusqu’à 1 % du chiffre d’affaires.

Il souhaite aussi supprimer certaines niches fiscales et sociales inutiles ou inefficaces qui bénéficient essentiellement aux ménages aisés et aux grandes entreprises.

Bayrou favorable à un « Buy European Act »

Les déclarations du Premier ministre vont, par ailleurs, bien au-delà de la question du budget. Il souhaite notamment que les États membres européens puissent privilégier des produits et services européens lors des appels d’offres publics.

Cette idée, souvent résumée par le terme officieux de « Buy European Act », a un objectif évident : limiter la concurrence déloyale associée à l’entrée sur le sol européen de marchandises à bas prix provenant de pays extérieurs à l’Union européenne.

Revue du Magazine d’Actualité #41 du 4 au 8 août

Cette semaine met en lumière des avancées contrastées dans la transition énergétique, des innovations pour le refroidissement passif, et des réflexions stratégiques sur la souveraineté industrielle et numérique.

⚡ ÉNERGIE & ENVIRONNEMENT

La transition énergétique accélère dans deux directions opposées en 2024

L’année 2024 marque une accélération paradoxale de la transition énergétique : d’un côté, les investissements dans les énergies renouvelables explosent ; de l’autre, les énergies fossiles bénéficient encore de soutiens massifs. Cette dualité révèle les tensions entre ambitions climatiques et réalités économiques.
Comprendre les deux visages de la transition énergétique

Biodéchets : bien déconditionner pour mieux méthaniser

La valorisation des biodéchets passe par une étape cruciale : le déconditionnement. Un traitement efficace permet d’optimiser la méthanisation et de limiter les résidus non organiques. L’article détaille les technologies et les enjeux réglementaires liés à cette étape souvent négligée.
🔍 Zoom sur les techniques de déconditionnement


🧊 MATÉRIAUX & SANTÉ

Un film bioplastique pour refroidir les bâtiments

Des chercheurs ont mis au point un film bioplastique capable de réfléchir la lumière solaire tout en émettant de la chaleur infrarouge, réduisant ainsi la température intérieure des bâtiments sans énergie. Une innovation prometteuse pour le confort thermique et la sobriété énergétique.
🏭 Refroidir sans climatisation

Peindre pour refroidir : une IA conçoit une nouvelle génération de méta-émetteurs thermiques

Une intelligence artificielle a conçu une peinture capable de réfléchir la lumière et d’émettre efficacement la chaleur, offrant une solution passive de refroidissement. Ce procédé pourrait révolutionner la gestion thermique des bâtiments et des infrastructures.
🎨 L’IA au service du confort thermique


🧠 NUMÉRIQUE & INDUSTRIE

Microsoft avoue ne pas garantir la confidentialité des données

Microsoft reconnaît que les données des utilisateurs peuvent être accessibles à ses équipes, même dans les environnements cloud. Une déclaration qui relance le débat sur la souveraineté numérique et la sécurité des données dans les services cloud.
🔐 Ce que Microsoft dit (vraiment) sur vos données


😎 Bon weekend et à la semaine prochaine  !

 

 

IA générative et ingénierie : une révolution passée au crible du think tank Arts & Métiers

« Bienvenue dans l’ère de l’ingénierie générative ! » C’est par ces mots qu’André-Benoit de Jaegere a entamé, le 16 juin dernier, son intervention au pupitre de la salle La Rochefoucauld, à l’Hôtel des Arts & métiers, dans le XVIe art de Paris. En ces lieux, où siège depuis 1925 la société des ingénieurs Arts & Métiers, se tenait ce soir-là un évènement coorganisé par l’association à l’occasion de la publication d’un rapport intitulé « Comment l’IA révolutionne les métiers d’ingénieur : l’essor de l’ingénierie générative ». Une publication inédite dont l’orateur sus-cité – ingénieur diplômé de l’École Centrale des Arts et Manufactures, et actuel executive senior adviser chez Capgemini Invent – n’est autre que l’un des co-auteurs.

« La conclusion de notre rapport à la question “Est-ce que l’IA générative est en train de changer les choses [dans le domaine de l’ingénierie] ?” est oui : elle est en train de se déployer, certes à bas bruit, mais massivement », avance d’emblée le co-rédacteur de ce document, publié par le Think Tank Arts & Métiers en partenariat avec la Société des ingénieurs Arts & Métiers et l’École nationale supérieure des Arts & Métiers (ENSAM).

L’ère de l’ingénierie générative
Pour André-Benoit de Jaegere, nous sommes entrés de plain-pied dans l’ère de l’ingénierie générative. © Think Tank Arts & Métiers

Basée sur une revue de littérature menée – grâce à l’IA – sur pas moins de 740 documents, couvrant sept domaines clés[1] de l’ingénierie, la publication balaie sur près de quatre-vingts pages les impacts concrets de l’IA générative dans le secteur. « Lintégration de l’IA générative dans les processus d’ingénierie est déjà une réalité tangible qui bouleverse les repères établis dans les métiers de l’ingénieur », souligne un communiqué publié à l’occasion de la sortie de ce rapport. Un bouleversement d’autant plus grand qu’il s’est opéré en l’espace de quelques années seulement. « Nous avons vécu, au cours des dix-huit mois qu’a duré cette étude, une accélération qui nous a vraiment saisis ! », confie d’ailleurs André-Benoit de Jaegere, qui pointe notamment la rapide diversification de la typologie de modèles à disposition des ingénieurs.

Aux désormais célèbres LLM (pour large language models, grands modèles de langage) tels que ChatGPT, se sont progressivement ajoutés les LCM – large concept models – et les LQM, pour large quantitative models. « On a aussi vu arriver des modèles hybrides, qui combinent générativité et calcul scientifique, connaissances physiques… », note M. de Jaegere.

Face à ce constat, les auteurs du rapport dévoilé le 16 juin dernier ont imaginé un nouveau terme pour désigner la nouvelle ère dans laquelle nous sommes désormais entrés de plain-pied : celle de l’ingénierie générative.

Le rapport présenté le 16 juin dernier est le fruit d’une revue menée grâce à des outils d’IA
Le rapport présenté le 16 juin dernier est le fruit d’une revue de littérature menée à partir de 740 documents grâce… à des outils d’IA. © Think Tank Arts & Métiers

Un véritable saut technologique

« Historiquement, on avait déjà vu émerger le concept de design génératif, ou de conception générative, suite au développement des technologies CAD/CAM, pour computer-aided design et computer-aided manufacturing », concède M. de Jaegere. Mais l’essor des modèles d’IA générative pousse désormais le curseur bien plus loin, et ce sur trois grands axes, autour desquels est justement organisé le rapport présenté à la mi-juin : débridage des capacités d’optimisation, transformation des industries par les jumeaux numériques, et aide à la résolution de problèmes complexes. Un dernier axe qui découle notamment d’une autre tendance de fond dans le – vaste – champ de l’intelligence artificielle : l’émergence de « l’agentique », autrement dit, d’agents « intelligents », autonomes et proactifs. « L’agentic AI représente une nouvelle rupture majeure : elle ne se limite plus au fait de répondre aux requêtes, mais agit de manière proactive pour atteindre des objectifs définis », expliquent les auteurs du rapport (lire page 16). Outre la démultiplication des capacités d’optimisation et l’essor du jumeau numérique, ce développement des agents d’IA constitue ainsi, selon M. de Jaegere, « un troisième chemin vers le futur ». Un chemin pavé d’IA, dont l’aboutissement restait toutefois à définir plus en détail : avenir radieux ou horizon funeste pour l’ingénieur ?

Des réponses à des questions de fond

« Ce rapport nous a fait réfléchir, nous a fait nous poser beaucoup de questions », confie à son tour un autre orateur de la soirée du 16 juin, Stéphane Lapujoulade, secrétaire général du think tank Arts & Métiers. « Évolution ou révolution ? Ingénieur augmenté ou ingénieur remplacé ? Fuite en avant ou solution aux défis ? », a-t-il égrené.

Pour le premier de ces trois points, celui qui est par ailleurs président du cabinet de conseil Valprev penche effectivement en faveur du terme de « révolution », en apportant, toutefois, une nuance : « Il y a des professions pour lesquelles l’arrivée de l’IA constitue un choc exogène. Pour nous, les ingénieurs, le choc est moindre, notamment parce que nous avons les moyens de comprendre et de mettre les mains dans le moteur de ces boîtes noires que sont les modèles d’IA, en en ouvrant le capot ».

Pour ce qui est de la deuxième des questions énumérées plus haut – ingénieur augmenté ou ingénieur remplacé ? – Stéphane Lapujoulade tranche le débat en une formule : « L’IA ne va pas remplacer les ingénieurs, mais ce qui est sûr, c’est que les ingénieurs qui adoptent l’IA remplaceront ceux qui passent à côté ! ».

Enfin, lorsqu’il s’agit de dire si l’adoption de l’IA par les ingénieurs constitue plutôt une fuite en avant, ou une solution aux défis de notre temps, l’expert se fait là aussi le relais de la vision pour le moins positive élaborée par le groupe de travail à l’origine de la production du rapport : « Nous avons très vite été convaincus que ces formidables capacités d’élaboration, d’exploration, de simulation, rendent l’ingénieur plus libre d’imaginer, de créer et de mettre en œuvre des solutions concrètes, plutôt que de reprendre sans cesse des solutions sur étagère. […] Nous sommes convaincus que [l’IA générative] est le moyen pour l’ingénieur d’avoir un plus fort impact sur la société ».

Des perspectives qui ne pourront toutefois advenir sans que ne soient réunies un certain nombre de « conditions de succès », sur lesquelles André-Benoit de Jaegere a levé le voile en conclusion de son intervention : sobriété et soutenabilité ; transparence des algorithmes et explicabilité des résultats ; mais aussi formation des ingénieurs d’aujourd’hui et de demain. Et l’expert de conclure : « Un vieil ingénieur – Archimède – disait “donnez-moi un point d’appui et je soulèverai le monde”[2]… L’ingénierie générative est, je pense, un puissant levier à disposition des ingénieurs pour transformer le monde ».

Ingénierie générative : une table ronde et trois conférences thématiques à découvrir également

Think Tank Arts & Métiers
© Think Tank Arts & Métiers

À la présentation du rapport réalisée le 16 juin dernier a succédé une table ronde, à l’occasion de laquelle trois experts du sujet – Francisco Chinesta, enseignant-chercheur en ingénierie à l’ENSAM ; Loïc Rouiller-Monay, ingénieur en apprentissage automatique chez Iprova ; et Patrick Panciatici, ancien conseiller scientifique chez RTE et chercheur associé au laboratoire des signaux et systèmes (L2S) ; accompagnés de la directrice générale adjointe de l’ENSAM Véronique Favier, également membre du conseil d’orientation du think tank Arts & Métiers – ont pu témoigner et débattre de ces usages grandissants de l’IA générative en ingénierie. Une table ronde à (re)voir en ligne, à partir de la 34e minute de la vidéo.

Pour prolonger les débats entamés le 16 juin, et approfondir la réflexion autour des impacts de l’IA générative d’un point de vue plus sectoriel, trois webinaires thématiques ont également été diffusés dans les jours qui ont suivi, et sont eux aussi disponibles en replay : l’ingénierie générative dans l’industrie manufacturière ; l’ingénierie générative dans la santé, et l’ingénierie générative dans le BTP et les infrastructures.

[1] Génie électronique informatique télécom (EIT), génie électrique, génie civil, génie industriel et des systèmes, génie chimique-biologique, génie biomédical, génie des matériaux et des molécules.

[2] Citation à l’interprétation souvent erronée.

L’avion de combat européen survole un ciel brumeux

Le 7 juillet dernier, une information n’est pas passée inaperçue : Éric Trappier, le patron du groupe Dassault Aviation aurait fait part de son souhait d’obtenir une participation à hauteur de 80% dans le projet SCAF[1]. Cette information émane d’une source militaire citée par Reuters et confirmée par la publication allemande Hartpunkt. Ravivant les tensions latentes avec le partenaire allemand, cette déstabilisation de la répartition des rôles pourrait ralentir l’avancée du projet.

L’affirmation d’une politique européenne de défense

Dans le paysage européen, en matière d’équipement militaire d’aviation, il n’existe pas de politique commune. Plusieurs modèles se font face : le Rafale, l’Eurofighter (développé en coopération par l’Allemagne, l’Espagne, le Royaume-Uni et l’Italie) et le Gripen suédois.

Lancé en juillet 2017, le projet SCAF a l’ambition de construire un projet commun européen réunissant la France, l’Allemagne (les initiateurs du projet), l’Espagne (arrivée en 2019) et la Belgique (membre observateur depuis 2024). L’avion de combat de nouvelle génération succédera donc au Rafale français et à l’Eurofighter à l’horizon 2040. Dassault Aviation a pris les commandes côté français tandis qu’Airbus représente les autres partenaires via ses filiales allemandes et espagnoles. En 2020, le duo a été rejoint par Indra, l’entreprise espagnole de technologie et de défense.

Une mise en œuvre difficile

Le projet SCAF associe un avion de sixième génération, des drones de différentes tailles et un cloud de combat reliant les différents systèmes. Pour sa mise en œuvre, cette architecture est fragmentée en piliers que se répartissent les membres de la coopération. À cette répartition des tâches, s’ajoute la difficulté d’un programme segmenté en « phases » ; le projet SCAF étant, depuis décembre 2022, entré en phase 1B qui vise à préparer le démonstrateur.

Un projet à plus de 100 milliards d’euros qui semble complexe à coordonner. Ce facteur est à prendre en compte pour comprendre les critiques formulées par le patron de Dassault quelques mois plus tôt. Afin de respecter les échéances après les retards enregistrés, celui-ci prône un projet « piloté par un maître d’œuvre global, […] plutôt que l’on fasse ce découpage permanent ».

Le dirigeant déplore aussi la mise en retrait du groupe au profit d’Airbus pour le pilier relatif aux drones.

Autre sujet : la protection des droits de propriété intellectuelle des industries nationales. Le groupe Dassault Aviation souhaite garder son avance technologique et son savoir-faire français pour éviter toutes concurrences futures.

Le Rafale étant un pilier de la souveraineté militaire française, l’État doit également veiller à pouvoir assurer son carnet de commandes à l’international sans subir de pressions politiques de la part de ses partenaires.

Une compétition internationale

Ces tensions alimentent de nouvelles spéculations sur une possible fusion avec le GCAP[2], le projet rival mené par le Royaume-Uni, l’Italie et le Japon. En effet, les groupes BAE Systems[3], Leonardo[4] et Mitsubishi Heavy Industries[5] ont créé une coentreprise en décembre 2024 pour remplacer les F-2 japonais et l’Eurofighter Typhoon.

Outre-Atlantique, l’américain Lockheed Martin équipe stratégiquement plusieurs pays du continent avec le F-35 en devançant la mise en service de l’avion européen. C’est le cas de la Belgique qui a confirmé l’achat de 11 avions de combat F-35 ; une décision incompatible avec sa participation au projet selon le PDG de Dassault.

Derrière l’unité affichée, l’entente entre les partenaires commence à s’étioler. Dans les années 80, la France, la RFA et le Royaume-Uni avaient uni leur force pour concevoir un avion de combat autour d’un projet commun. Une tentative vaine qui avait finalement poussé la France à faire cavalier seul pour lancer le Rafale…


[1] Système de combat aérien du futur 

[2] Global Combat Air Programme

[3] Géant britannique de la défense et de l’aérospatiale

[4] Groupe italien d’aéronautique et de défense

[5] Société phare de l’industrie aéronautique nipponne

Peindre pour refroidir : une IA conçoit une nouvelle génération de méta-émetteurs thermiques

La gestion de la chaleur est un défi technologique et environnemental majeur, que ce soit pour améliorer l’efficacité énergétique des bâtiments, contrer l’effet d’îlot de chaleur urbain ou concevoir des systèmes de refroidissement passifs, notamment pour l’industrie spatiale (satellites, stations spatiales, rover…). Dans ce contexte, une équipe de chercheurs publie dans Nature un article présentant une approche inédite de génération de méta-émetteurs thermiques (thermal meta-emitters, ou TMEs) optimisés par intelligence artificielle. Leur méthodologie permet de concevoir des matériaux nanophotoniques tridimensionnels aux propriétés thermiques adaptées, allant bien au-delà des limites des approches traditionnelles.

Les enjeux de l’émission thermique contrôlée

L’émission thermique, phénomène dû à l’agitation thermique des corps, constitue un levier important dans la conception de matériaux fonctionnels. En nanophotonique thermique, il s’agit de contrôler finement le spectre, la direction et la polarisation de la lumière infrarouge émise par ces matériaux. Les applications sont nombreuses : camouflage thermique, capteurs infrarouges, thermophotovoltaïque, refroidissement passif diurne et spatial, etc.

Mais chaque application a des besoins très différents en matière d’émission thermique. Par exemple, pour rafraîchir un bâtiment sans climatiseur, il faut que le matériau émette beaucoup de chaleur dans une zone précise du spectre infrarouge (entre 8 et 13 micromètres), tout en réfléchissant la lumière en dehors de cette zone pour éviter de chauffer. À l’inverse, dans l’espace, il est préférable que le matériau émette sur une large plage de longueurs d’onde. Ces différences rendent très difficile la conception d’un matériau capable de répondre à plusieurs objectifs en même temps.

Limites des méthodes classiques de conception

Jusqu’à présent, la conception des émetteurs thermiques se faisait surtout par essais et erreurs, en utilisant des méthodes classiques basées sur la physique, comme l’empilement de couches minces. Ces approches sont limitées : elles imposent des formes simples, peu de choix de matériaux, et utilisent des algorithmes qui ont du mal à trouver les meilleures solutions. Résultat : les matériaux obtenus ne sont pas toujours très performants, leur spectre est souvent trop étroit, et il est difficile de créer des structures vraiment complexes en trois dimensions.

Une plateforme généraliste fondée sur le machine learning

Pour pallier ces limitations, l’équipe présente une plateforme d’optimisation par apprentissage automatique (machine learning). Leur approche repose sur trois innovations majeures :

  • une optimisation globale multi-paramètres, capable d’explorer un vaste espace combinant structures 3D, arrangements spatiaux et diversité de matériaux, en exploitant un jeu de données parcimonieux ;
  • un modèle tridimensionnel innovant, appelé three-plane modelling, permettant de décrire des structures complexes en trois dimensions, bien au-delà des géométries planes traditionnelles ;
  • une capacité de design inverse automatisé, générant plus de 1 500 méta-émetteurs inédits, dont les performances optiques et radiatives surpassent les émetteurs actuels.

Cette approche permet d’accélérer considérablement le processus de création de matériaux aux propriétés sur mesure, en tenant compte de la complexité spectrale et structurelle des besoins.

Validation expérimentale et performances

Parmi les structures conçues, sept TMEs ont été réalisés et testés expérimentalement. Ils affichent des émissivités optimales dans les plages spectrales cibles et des capacités de refroidissement radiatif diurne supérieures aux designs de référence. Les chercheurs ont notamment mis en œuvre un revêtement à base de dioxyde de titane et de polymères spécialement structurés pour une application sur les toits des bâtiments, avec des résultats très prometteurs. Cette peinture a permis d’abaisser de 5,6°C la température de surface par rapport à un bâtiment peint à la peinture blanche conventionnelle, et de 21°C par rapport à un bâtiment peint en gris (couleur usuelle).

Tests sur des modèles réduits de bâtiments montrant l’efficacité de la peinture TME-3
Tests sur des modèles réduits de bâtiments montrant l’efficacité de la peinture TME-3 en comparaison des peintures commercialisées blanches et grises et estimations des économies d’énergies que son utilisation dans certaines grandes villes pourrait engendrer © Xiao et al. 2025, Nature

Perspectives et applications

Les retombées potentielles de cette méthodologie sont multiples. En architecture et urbanisme, elle pourrait alimenter le développement de peintures et revêtements intelligents pour lutter contre la surchauffe des bâtiments. Les scientifiques annoncent que dans les régions tropicales, l’utilisation de cette peinture sur les bâtiments pourrait permettre une économie significative d’énergie. En climat très chaud, les économies d’énergies annuelles liées à la climatisation intérieure pourraient ainsi atteindre l’équivalent de 15 800 kWh. Dans l’industrie spatiale, cette méthodologie permettrait d’optimiser la gestion thermique des satellites. Plus généralement, ce cadre d’ingénierie assistée par IA s’avère transposable à d’autres familles de matériaux fonctionnels : absorbeurs, filtres optiques, senseurs, etc.

En facilitant le design inverse de structures nanophotoniques complexes, cette approche pourrait révolutionner le développement de matériaux sur mesure, adaptés à des conditions environnementales spécifiques. La synergie entre intelligence artificielle et science des matériaux ouvre ainsi la voie à une nouvelle génération de technologies thermiques intelligentes, à la fois efficaces, adaptables et potentiellement industrialisables.

Le changement climatique : une menace pour l’approvisionnement en semi-conducteurs

Nous gardons tous en mémoire la pénurie mondiale de semi-conducteurs amorcée lors de la crise Covid. Et cinq ans après, les chaînes d’approvisionnement industrielles en subissent encore les conséquences, notamment le secteur automobile, qui continue de faire face à des retards.

Car c’est un fait : les semi-conducteurs sont un maillon essentiel, voire stratégique, de nos économies. D’après le récent rapport de PwC, ce secteur, qui pèse actuellement 650 milliards de dollars, devrait ainsi dépasser les 1 000 milliards de dollars d’ici 2030.

Malheureusement, cette croissance est fortement contrainte. D’une part, nous ne sommes pas à l’abri d’une autre pandémie aux conséquences dévastatrices et le retrait des États-Unis de l’OMS augmente considérablement le risque de crise future.

D’autre part, la fabrication de semi-conducteurs est intimement liée à l’extraction de terres rares et de métaux, comme le cuivre. Or, l’extraction de ces ressources minières est loin d’être neutre du point de vue environnemental. L’exploitation minière du cuivre est ainsi fortement consommatrice d’eau et d’électricité.

L’extraction minière du cuivre, une industrie gourmande en eau

Les phases de broyage et de concentration du minerai de cuivre sont responsables de 70 % de la consommation d’eau totale du procédé. Or, comme le cuivre se trouve majoritairement dans des zones arides ou semi-désertiques, notamment au Chili, on sait depuis longtemps que cette consommation d’eau liée à l’extraction du cuivre est amenée à poser de plus en plus de problèmes.

Selon les estimations de l’ADEME (2017), une augmentation de 8 % de la production de cuivre au Chili entraîne ainsi une augmentation de 62 % de l’utilisation d’eau. Et en 2016, le ministère des Mines au Chili prévoyait déjà que l’exploitation minière du cuivre exigerait une consommation d’eau de 20 m3 par seconde, d’ici 2026.

Cette hausse prévue de la consommation d’eau pour alimenter les mines de cuivre est d’ailleurs d’autant plus paradoxale que le Chili subit une mégasécheresse depuis 2008. En 2021, le pompage d’eau douce par certaines mines du pays a même été interdit afin de préserver l’agriculture.

Par ailleurs d’autres pays producteurs de cuivre sont également frappés par des épisodes de sécheresse, de manière régulière. C’est le cas du Pérou, du Mexique et du Congo.

Les réserves de cuivre sont clairement menacées par le changement climatique

Vues sous cet angle, les projections de PwC ne sont pas surprenantes : en 2035, 32 % du cuivre nécessaire aux semi-conducteurs pourrait ne plus être fourni à cause de la sécheresse. Et, en 2050 ce chiffre pourrait atteindre 58 % !

Les semi-conducteurs étant essentiels à tous les pans de l’économie, il est donc urgent que l’industrie minière et les gouvernements mondiaux cherchent ensemble des solutions afin d’atténuer les risques posés par le changement climatique sur la production de cuivre.

Selon Glenn Burm, responsable mondial des semi-conducteurs chez PwC Corée du Sud, « partout dans le monde, les entreprises s’adaptent en augmentant la production d’eau, en diversifiant les chaînes d’approvisionnement et en renforçant la résilience climatique. Mais si les progrès sont considérables, les entreprises peuvent et doivent en faire plus. »

L’UE lance une « Critical Chemical Alliance » pour sécuriser l’approvisionnement en produits chimiques

Ces deux dernières années, plus de 20 sites de production chimique européens ont fermé leurs portes à cause de la hausse du prix du gaz (toujours 4 ou 5 fois plus cher qu’aux États-Unis), du climat de guerre commerciale et suite aux conséquences des multiples perturbations mondiales.

Au-delà des conséquences désastreuses sur l’emploi, ces fermetures de sites amputent aussi l’UE de plus de 11 millions de tonnes de capacités de production. En janvier 2025, le Conseil Européen de l’Industrie Chimique (CEFIC) alertait ainsi sur l’urgence, pour l’UE, d’amorcer un changement de politique industrielle afin « de réduire les coûts de l’énergie, de garantir l’accès aux matières premières essentielles et de favoriser l’innovation ». Car un effondrement du secteur chimique européen, qui représente 500 milliards de CA annuel et 1,2 million d’emplois, entraînerait avec lui des pans entiers de l’industrie : santé, énergies renouvelables, ou encore l’automobile, qui est déjà en souffrance.

Sécuriser l’approvisionnement en méthanol, ammoniac et éthylène

Avec la création prochaine de The Critical Chemical Alliance, les autorités européennes semblent avoir entendu, au moins partiellement, l’appel du CEFIC.

Cette initiative s’inscrit dans une démarche visant à renforcer la résilience industrielle et à retrouver la souveraineté dans des secteurs manufacturiers clés. Elle réunira les États membres de l’UE, la Commission et les acteurs industriels, dans le but de soutenir la production de produits chimiques essentiels.

Parmi ces produits chimiques « de base », on peut citer le méthanol, actuellement importé à 80 %, ou encore l’ammoniac, mais aussi l’éthylène, des substances qui entrent dans les processus de fabrication de nombreux matériaux synthétiques, notamment des plastiques, mais aussi de solvants.

Bien qu’on en sache encore assez peu, les principales tâches de l’Alliance consisteront à :

  • identifier et soutenir les installations de production essentielles ;
  • promouvoir la protection commerciale et la concurrence loyale ;
  • fixer des priorités d’investissement ;
  • coordonner les projets européens et nationaux, y compris les « projets importants d’intérêt européen commun » (IPCEI).

Par ailleurs, le suivi des importations de produits chimiques sera assuré par une Task Force de surveillance des importations qui vient d’être créée par la Commission.

Une Alliance qui s’inscrit dans un cadre d’action plus large

Cette Alliance, ainsi que la Task Force, ne sont pas les seules actions engagées par la Commission, puisqu’elles font partie d’un Plan d’action plus global visant à renforcer la compétitivité et à moderniser le secteur chimique européen.

Ce Plan d’action stratégique, très attendu par l’industrie chimique, mettra ainsi l’accent sur le soutien à la transition énergétique et à la décarbonation, mais aussi sur la simplification du cadre réglementaire, tout en garantissant un niveau élevé de sécurité des produits chimiques et de leurs mélanges pour les consommateurs sur le marché de l’UE.

Microsoft avoue ne pas garantir la confidentialité des données

La réponse a le mérite d’être claire. Face aux sénateurs le 10 juin dernier, Anton Carniaux, directeur des affaires publiques et juridiques de Microsoft France, a répondu sans détour que « si nous sommes contraints par une décision de justice américaine, nous devons remettre les données ».

Ce n’est pas vraiment un scoop pour les experts spécialisés dans la confidentialité des données et qui connaissent par cœur les articles du Cloud Act. Cette loi américaine a été promulguée en 2018 à la suite des difficultés rencontrées par le FBI pour obtenir des données via des fournisseurs de services par le biais de mandats du Store Communications Act, qui a lui-même été légiféré avant que le cloud ne devienne une réalité.

Le Cloud Act est une loi qui donne au gouvernement américain le pouvoir d’obtenir des données numériques détenues par des entreprises technologiques basées aux États-Unis, que ces données soient stockées sur des serveurs dans le pays ou à l’étranger. Elle est censée contraindre ces entreprises, par le biais d’un mandat ou d’une citation à comparaître, à accepter la demande.

Or, Microsoft est tenu de respecter le Cloud Act. L’article 102 précise que cette loi s’applique aux « communications service providers that are subject to jurisdiction of the United States ». Microsoft Corporation et ses filiales (dont celle en France) font donc partie de ces « service providers ».

Une autre vidéo embarrassante, mais cette fois pour la classe politique française, est celle de l’ancienne ministre de la Santé. Le même jour que le représentant de Microsoft, Agnès Buzyn a avoué que la seule solution pour héberger la Plateforme des données de santé (appelée aussi Health Data Hub) était celle de l’américain Microsoft.

Microsoft ou rien

Devant cette commission d’enquête sénatoriale, Agnès Buzyn a mis en avant des notes produites par son ancien cabinet et celle de la Direction interministérielle du numérique et du système d’information et de communication de l’État (DINSIC). « Aucune des notes qui me sont remontées de mes services n’a à aucun moment mis en balance le fait que l’on avait d’autres possibilités », a-t-elle ajouté. « L’arbitrage, je l’ai pris en pleine connaissance de cause, sur le fait que c’était Microsoft ou rien […] Les notes étaient formelles sur le fait qu’aucun acteur n’apportait ni la capacité de stockage, ni les conditions de sécurité de Microsoft, de ce fait, on ne m’a donné aucun choix. »

Ces deux vidéos confirment le très faible niveau de connaissance de la classe politique en général (mais cela vaut aussi pour de nombreux chefs d’entreprise) sur la confidentialité des données et la place incontournable prise par le géant américain. Et cette situation ubuesque perdure depuis des années. De nombreuses administrations, hôpitaux et collectivités utilisent ainsi Microsoft 365, souvent sans conscience des conséquences juridiques (incompatibilité notamment avec le RGPD).

Mais s’affranchir des GAFAM et en particulier de Microsoft n’est pas simple. Cela impose de sortir de sa « zone de confort » et de trouver des alternatives malgré ce verrouillage de l’écosystème. Une fois engagé, sortir de Gmail, Chrome, Windows ou Office s’avère complexe : formats propriétaires, synchronisation cloud, dépendance aux API…

Il existe plusieurs alternatives valables qui peuvent répondre à différents besoins et budgets. Concernant la messagerie et la collaboration, on peut citer les Suisses de ProtonMail et d’Infomaniak ou encore CryptPad, une suite collaborative chiffrée (texte, tableur, sondages…), auto-hébergeable ou hébergée.

Des villes comme Grenoble, Nantes ou Lyon ont expérimenté ou adopté des outils libres comme LibreOffice, Nextcloud, ou des solutions hébergées localement pour remplacer les services cloud de Microsoft. Quant à l’Université de Strasbourg, elle a migré une partie de ses services vers Zimbra pour la messagerie et LibreOffice pour la bureautique, dans une logique de réduction des coûts et de respect du RGPD.

Projet Cigéo : feu vert scientifique sur la sûreté à long terme du site

Un pas de plus vers la concrétisation du projet Cigéo. L’ASNR (Autorité de sûreté nucléaire et de radioprotection) vient de remettre son troisième et dernier rapport d’expertise relatif à la création d’un centre d’enfouissement de déchets radioactifs en couche géologique profonde à Bure, dans la Meuse. Ce rapport, établi à l’issue d’une instruction technique menée depuis 2023, porte tout particulièrement sur la sûreté à long terme du site.

Rédigé par un Groupe permanent d’experts pour les déchets (GPD), ce dernier considère que la sûreté du centre après sa fermeture définitive, programmée à l’horizon 2150, est satisfaisante. Les experts estiment notamment que la preuve est faite de la robustesse du confinement global de l’installation présentée par l’Andra (Agence nationale pour la gestion des déchets radioactifs), même face aux incertitudes géologiques.

Selon eux, la solidité de la démonstration scientifique de ce mode de stockage, à 500 mètres de profondeur et durant des centaines de milliers d’années, est conforme aux exigences réglementaires. Plusieurs scénarios de dysfonctionnements ont été étudiés pour mettre à l’épreuve la sûreté du site, notamment des effondrements localisés d’une alvéole, des problèmes liés aux scellements, ou encore une intrusion humaine involontaire. Même en envisageant ces hypothèses, le GPD estime que les conséquences radiologiques ou chimiques du site restent du même ordre de grandeur que le scénario dit « normal », et sont acceptables au regard de leur très faible vraisemblance.

Malgré ses conclusions globalement favorables, plusieurs aspects techniques doivent encore être approfondis, notamment au sujet de l’architecture du stockage, qui doit accueillir environ 80 000 m³ de déchets. Sans rejeter la configuration actuelle, le GPD regrette l’absence d’une comparaison approfondie avec des architectures alternatives permettant d’optimiser la sûreté. Concernant les scellements des galeries, leur nombre et leur emplacement doivent être précisés pour garantir l’étanchéité à long terme. Enfin, une meilleure connaissance des propriétés de la roche dans sa structure profonde doit aussi être apportée.

Vers un décret autorisant la création du site après l’enquête publique

Pour rappel, les deux précédents avis rendus au cours de cette instruction technique ont eux aussi qualifié la sûreté de « globalement satisfaisante ». Le premier portait sur les données de base et les hypothèses retenues par l’Andra pour construire son évaluation de sûreté (géologie, inventaires de déchets, modélisation, etc.). Quant au deuxième rapport, il se focalisait sur la sûreté du fonctionnement des installations durant la phase d’exploitation du site. À noter que l’ASNR doit encore formuler son avis final en novembre prochain.

L’étape suivante sera consacrée à l’enquête publique, qui doit être menée d’ici à la fin de l’année 2026. Elle vise à informer le public de façon transparente sur le contenu et les enjeux du projet, ses impacts à court, moyen et très long terme, ainsi que les risques potentiels (environnementaux, sanitaires, techniques, etc.). À l’issue de cette enquête, un décret autorisant officiellement la création du projet Cigéo devrait être délivré et les travaux devraient commencer en 2027 ou en 2028.

Durant une trentaine d’années, l’exploitation du centre débutera par une phase industrielle dite « pilote », dont l’objectif est d’évaluer, en conditions réelles, l’ensemble des fonctionnalités du stockage. Une première période sera consacrée à la construction de l’installation, aux tests des équipements ainsi qu’à des opérations de mise en stockage de colis ne contenant pas de radioactivité. Une seconde période correspondra au début de la phase de fonctionnement, pendant laquelle les premiers colis de déchets radioactifs reçus seront d’abord utilisés pour des contrôles et des essais. La phase industrielle dite « complète » ne devrait débuter qu’à l’horizon 2050.

Le projet Cigéo a également la particularité d’être réversible. Cela signifie que, pendant une période d’au moins 100 ans, il sera possible de stopper le stockage à tout moment ou de revenir en arrière, c’est-à-dire de retirer des colis de déchets déjà stockés, ainsi qu’introduire des évolutions à ce projet. Les générations futures qui exploiteront ce site pourront ainsi être maîtresses de leur destin.

Un film bioplastique pour refroidir les bâtiments

2024 a été l’année la plus chaude observée en 175 ans. C’est l’une des informations phares présentes dans la nouvelle édition du rapport sur l’état du climat mondial, publiée en mars 2025 par l’Organisation Météorologique Mondiale (OMM). La température moyenne à la surface du globe était notamment supérieure de 1,55+/- 0,13°C à celle de la période 1850-1900. Face aux fortes chaleurs, les climatiseurs apportent le confort mais participent par leur forte consommation énergétique à la pollution de l’environnement. Dans le but de s’en passer, les scientifiques lorgnent du côté des refroidisseurs radiatifs biosourcés, censés être une alternative durable aux matériaux issus de la pétrochimie. En effet, ils fonctionnent sans appareillage mécanique et ne nécessitent pas de source d’énergie externe. Malheureusement, leurs versions actuelles manquent de stabilité sur le long terme. Mais cela pourrait changer avec la nouvelle étude présentée le 24 juin 2025 dans le journal Cell Reports Physical Science par des chercheurs des Universités de Zhenzhou (Chine) et d’Australie-Méridionale.

Un film refroidisseur résistant dans le temps

L’équipe de recherche internationale a cherché à produire un film bioplastique pouvant être appliqué aussi bien sur des bâtiments que sur des équipements et des surfaces diverses et variées. Pour ce faire, les scientifiques sont partis d’un matériau tiré de l’amidon de maïs : l’acide polylactique. Plus précisément, ils ont utilisé ses deux isomères l’acide (L)-lactique et l’acide (D)-lactique, qu’ils ont associé à du chloroforme. En mélangeant le tout pendant 3 heures à température ambiante, ils sont parvenus à obtenir une solution homogène à 0,07 g/mL qu’ils ont laissé incuber 12 heures à -20°C. Ensuite, la solution a été coulée dans des moules avec de l’éthanol afin de déclencher une séparation de phases durant 24 heures (et toujours à -20°C). Finalement, un dernier séchage à température ambiante a mené au film bioplastique tant convoité…

Le film a pu être testé en extérieur dans la ville de Zhenzhou, en Chine, le 18 mai 2024. Il a alors démontré sa capacité à faire chuter la température de 4,9°C en journée, et 5,1°C la nuit. Mais avec sa faible conductivité thermique (0,049 W.m-1.K-1) et ses hautes réflectance solaire (98,7 %) et émittance thermique (96,6 %), ce matériau pourrait même atteindre un refroidissement de 9,2°C en pleine journée. De plus, le film a fait montre d’une bonne résistance après avoir été exposé à de l’acide (pH 1 pendant 120 heures) et à une dose d’ultraviolets équivalant à 8 mois d’exposition naturelle. En effet, suite à ces sollicitations, le film bioplastique continuait à refroidir de 5 à 6,5°C. A l’avenir, son usage promet de réduire la consommation d’énergie des bâtiments de l’ordre de 20 % ! Et ce n’est pas tout, puisque les chercheurs pensent élargir son utilisation aux domaines du transport, de l’agriculture, de l’électronique et même à la biomécanique.

Biodéchets : bien déconditionner pour mieux méthaniser

« Suivi des performances techniques et matières de déconditionneurs de biodéchets ». Voilà le titre – sans doute peu évocateur pour les non-initiés – d’une étude publiée le 23 avril dernier par l’Ademe, l’Agence de la transition écologique. Sous les apparences quelque peu cryptiques de cet intitulé se cache toutefois une problématique ô combien importante aujourd’hui.

Produits à hauteur de 28,4 millions de tonnes par an en France, les biodéchets constituent un vaste gisement dont une part croissante est aujourd’hui valorisée – à la faveur notamment de la généralisation du tri à la source – plutôt que d’être simplement enfouie ou incinérée. Ceci, principalement via deux filières : le compostage, mais aussi la méthanisation.

Or, une partie des biodéchets qui alimentent les quelque 731 unités de méthanisation que compte aujourd’hui notre territoire y arrivent emballés. « Ces biodéchets emballés proviennent principalement de la grande distribution alimentaire, des industries agroalimentaires, des grossistes […], de certains restaurants […], ou encore des ménages », énumère l’Ademe dans un rapport publié en 2021. Des emballages notamment faits de verre, de métaux, mais aussi de matières plastiques, qu’il convient ainsi de séparer de la matière organique avant méthanisation. Objectif principal : éviter de polluer les sols agricoles sur lesquels sont finalement épandus les résidus solides et liquides issus du procédé, les digestats.

« Outre la production de biogaz, notre objectif est de nous assurer de la qualité de la matière organique retournant au sol, afin de transmettre des terres viables aux prochaines générations », témoignait le 30 avril dernier Christophe Rousseau – agriculteur-méthaniseur en Bourgogne-Franche-Comté et administrateur au sein de l’AAMF, l’association des agriculteurs méthaniseurs de France – dans le cadre d’un webinaire organisé par Green Creative, l’un des rares[1] fabricants français de ces machines d’un genre nouveau qui ont émergé, il y a une quinzaine d’années maintenant, dans le contexte décrit plus haut : les déconditionneurs.

Des équipements prometteurs, dont les performances restaient toutefois à évaluer par un tiers. C’est ce à quoi s’est attelée l’Ademe l’année dernière, au travers d’une nouvelle étude, inscrite dans la droite ligne de travaux menés en 2016 et 2021 par l’Agence.

Le déconditionneur Flexidry permet de valoriser entre 2 500 et 12 000 tonnes de biodéchets par an
Proposé par la PME française Green Creative, le déconditionneur Flexidry permet de valoriser entre 2 500 et 12 000 tonnes de biodéchets par an. © Green Creative

Des soupes organiques passées au crible

« L’étude de 2021 constituait une évaluation à un instant t de la qualité des soupes organiques issues de déconditionneurs de biodéchets. Notre objectif, cette fois, a été d’évaluer cet aspect sur une période plus longue, grâce à un suivi de six mois mené auprès de sept unités de méthanisation volontaires, mettant chacune en œuvre des déconditionneurs de marques et de modèles distincts, éventuellement accompagnés d’équipements complémentaires de centrifugation, ou de filtration par exemple », résume Thierry Rolland, coordinateur du pôle déchets d’activités économiques, valorisation énergétique et impacts environnementaux de l’Ademe.

Un total de 35 échantillons de pulpe organique ont ainsi été prélevés sur les sept sites en question, puis analysés par un laboratoire indépendant.

Résultats : douze d’entre eux se sont révélé dépasser les seuils en matière d’inertes et d’impuretés fixés par la réglementation. « Ceci, principalement à cause de morceaux de plastiques supérieurs à 2 millimètres », souligne Thierry Rolland.

Des voies d’amélioration bien identifiées

Les unités de déconditionnement faisant appel à des équipements complémentaires s’en sont toutefois globalement mieux tirées que celles ne mettant en œuvre qu’un déconditionneur seul.

« D’une manière générale, pour produire une pulpe organique conforme aux exigences réglementaires, un exploitant devra s’équiper d’équipements complémentaires en plus de l’équipement de déconditionnement principal », notent ainsi les auteurs de l’étude publiée par l’Ademe en avril dernier. Mais ce, avant tout lorsqu’il s’agit de déconditionner des biodéchets provenant d’une large palette de producteurs, mêlant grandes surfaces, industriels de l’agroalimentaire, ménages ou encore restaurateurs. « Lorsque des biodéchets ménagers ou de restauration sont majoritaires, une unité de déconditionnement seule suffit pour obtenir une pulpe organique respectant les exigences [réglementaires] », précisent en effet les rédacteurs du document.

Des experts qui dressent ainsi, finalement, une série de recommandations visant à améliorer la qualité de la pulpe organique, et donc, in fine, des digestats de méthanisation retournant au sol : adoption d’équipements modernes et bien entretenus, optimisation des processus, ou encore formation adaptée du personnel… Mais aussi actions de sensibilisation visant à améliorer la qualité des intrants. « Dans un objectif « 0 indésirable dans la pulpe », il semblerait indispensable de continuer à sensibiliser les producteurs de biodéchets afin d’améliorer le tri en amont de l’installation […]. Le plastique, pratique et donc omniprésent, pose des défis considérables […]. Il semblerait indispensable d’encourager les comportements de consommation responsables et d’adopter des matériaux alternatifs tels que les emballages biodégradables ».

Et Thierry Rolland, ainsi, de conclure : « la responsabilité repose sur l’ensemble de la chaîne ! ».

Biodéchets, de quoi parle-t-on précisément ?

Déchets verts, alimentaires, organiques, putrescibles… Difficile, parfois, de s’y retrouver ! Une définition claire de la notion de biodéchets est toutefois fixée par le code de l’environnement dans son article L541-1-1 : sont en effet considérés comme biodéchets « les déchets non dangereux biodégradables de jardin ou de parc, les déchets alimentaires ou de cuisine provenant des ménages, des bureaux, des restaurants, du commerce de gros, des cantines, des traiteurs ou des magasins de vente au détail, ainsi que les déchets comparables provenant des usines de transformation de denrées alimentaires ».

[1] Voir la liste des 32 fabricants recensés en 2021 par l’Ademe, en page 14 de cette étude.

La transition énergétique accélère dans deux directions opposées en 2024

L’année 2024 aurait pu marquer un tournant décisif dans la lutte contre le dérèglement climatique. Au lieu de cela, la dernière édition de la revue statistique de l’énergie mondiale met en lumière un paradoxe saisissant : la croissance spectaculaire des énergies renouvelables n’a pas freiné l’expansion des énergies fossiles, bien au contraire. Dans sa quête d’une neutralité carbone, le monde ne change pas de cap, mais semble accélérer dans deux directions opposées.

Les énergies renouvelables, en particulier le solaire et l’éolien, ont poursuivi leur progression avec une forte hausse de 16 % l’an dernier. Elles fournissent désormais 15 % de la production électrique mondiale, contre 13 % en 2023. Le solaire domine nettement les nouvelles capacités installées, avec une croissance quatre fois supérieure à celle de l’éolien.

Mais ce progrès est loin de suffire, puisque les énergies fossiles progressent encore, de plus de 1 % en 2024. Le monde, en réalité, n’est pas encore dans une phase de substitution énergétique, mais plutôt d’addition avec l’essor des renouvelables qui vient s’ajouter à une consommation globale en hausse, au lieu de remplacer les sources carbonées.

La consommation mondiale d’énergie a en effet augmenté de 2 % l’an dernier, atteignant un niveau historique de 592 exajoules (EJ). La demande d’électricité, elle, a progressé deux fois plus vite (+4 %), illustrant une électrification croissante des usages à l’échelle mondiale. Cette dynamique s’inscrit dans une tendance de fond, puisque sur la dernière décennie, la production d’électricité a progressé en moyenne deux fois plus vite que la demande énergétique globale.

La Chine concentre à elle seule 57 % des nouvelles capacités d’énergies renouvelables installées en 2024. Ce pays abrite à présent près de la moitié des capacités solaires et éoliennes mondiales, et sa capacité de stockage par batteries a également explosé, représentant 60 % du total mondial. Mais ce rôle moteur est contrebalancé par un poids toujours massif du charbon (58 %) dans son mix électrique, en baisse relative puisque cette part représentait 70 % il y a dix ans.

Résultat : la Chine reste le premier émetteur mondial de gaz à effet de serre, responsable d’environ un tiers des émissions globales. L’Inde, de son côté, a vu sa consommation de charbon augmenter de 4 %, atteignant un niveau égal à celui des autres régions du monde combinées (hors Asie-Pacifique). Ces deux pays ont ensemble contribué à 62 % de la hausse mondiale des émissions en 2024.

La consommation de pétrole a atteint de nouveaux sommets en 2024

L’an dernier, le pétrole reste la principale source d’énergie mondiale, représentant 34 % de la demande globale. La consommation mondiale a franchi pour la première fois le seuil des 101 millions de barils par jour, avec une croissance notable en Afrique (+2,5 %) et au Moyen-Orient (+1,6 %). Quant au gaz naturel, il voit sa demande progresser de 2,5 %, atteignant 4 124 milliards de m³. La Chine se distingue ici aussi, assurant 56 % de sa demande par sa propre production, en forte hausse.

Le nucléaire progresse de 3 %, représentant désormais 5 % de la demande mondiale, porté par la remise en service de réacteurs en France et au Japon. Les biocarburants atteignent un record historique avec 2,2 millions de barils équivalent pétrole par jour, en hausse de 3 %. L’Inde et l’Indonésie concentrent 63 % de cette croissance, en revanche, l’Union européenne voit sa demande plonger de 11 %, en particulier à cause du biodiesel (le diesel et le gasoil conventionnel enregistrent une chute similaire).

Enfin, l’un des faits marquants de l’année reste l’explosion des capacités de stockage d’électricité par batteries, qui ont doublé en un an pour atteindre 126 GW. Ces systèmes deviennent un maillon essentiel de la flexibilité des réseaux, notamment dans les pays en transition rapide.

Malgré tous ces signaux positifs, les émissions de CO₂ liées à l’énergie ont augmenté de 1 % en 2024, atteignant 40,8 milliards de tonnes, un nouveau record. Il s’agit de la quatrième année consécutive de hausse. L’Europe et les États-Unis réussissent à contenir, voire à réduire leurs émissions, mais à un rythme insuffisant pour compenser la hausse en Asie.

Depuis 2010, les énergies bas carbone (renouvelables et nucléaire) ont malgré tout permis d’éviter 109 milliards de tonnes de CO₂, soit 2,5 fois les émissions annuelles actuelles. Mais cette tendance n’est pas suffisante et l’alignement des politiques énergétiques mondiales avec les objectifs climatiques demeure plus que jamais l’un des grands défis structurels de notre époque.

U-Fast, des antibiogrammes ultra-rapides

Afin de lutter contre l’antibiorésistance croissante, trois étudiants, Raindu Adikarigethamel, Asyan Kessi et Simon Revranche, de l’institut d’optique de Paris-Saclay, fondent en 2023 une nouvelle start-up, baptisée U-Fast, acronyme de Ultra Fast antibiotic susceptibility test. L’objectif ? Concevoir et fabriquer des antibiogrammes ultra-rapides, capables, en 15 minutes, d’identifier les antibiotiques efficaces, contre un à deux jours actuellement. Un atout majeur, quand les heures sont comptées, comme dans le cas de septicémies. Dans les cas d’infection grave, les médecins n’ont souvent pas le temps de trouver quel antibiotique est le plus adapté. Ils prescrivent alors un cocktail de médicaments qui, malheureusement, contribue à aggraver l’antibiorésistance. La technologie proposée par la start-up permet ainsi d’alléger la pression sur les hôpitaux et de réduire les coûts des tests et traitements.

Le projet, à la croisée de la biologie et de l’optique, trouve ses origines dans les travaux de recherche d’Abdel El Abed (Lumin) et Dominique Fourmy (LBPA, pour Laboratoire de biologie et pharmacologie appliquée). La machine développée par la start-up est au même format que celles utilisées habituellement. Elle analyse différents antibiotiques en parallèle en un temps très court, avec très peu de matériel génétique. Auparavant, il fallait cultiver les bactéries dans des boîtes de Petri avant de tester les médicaments un par un.

Une fois l’échantillon de sang examiné, elle envoie un rapport d’analyse qui indique les antibiotiques résistants ou sensibles. À l’heure actuelle, la technologie de la start-up atteint un TRL de 3-4. Elle sera mature d’ici deux à trois ans pour le marché privé. Pour le public, il faudra attendre 2030 et de nombreuses phrases de tests et de qualifications.

De nombreux soutiens

U-Fast est aujourd’hui financée uniquement par des subventions et des concours. Elle a notamment reçu 160 000 euros via le programme de prématuration du CNRS. 150 000 euros sont ajoutés par le plan France Relance 2030, dont l’un des objectifs est de lutter contre la septicémie. Ces financements sont dédiés en partie à la recherche et au développement, mais aussi à l’élaboration d’un deuxième brevet qui sera la clé de voûte de la technologie proposée par la start-up. Cela a également permis de recruter un post-doctorant à plein temps sur le sujet. Il vient renforcer l’équipe qui compte deux étudiants co-fondateurs, le troisième ayant abandonné le projet, ainsi que deux chercheurs. En parallèle, les cofondateurs continuent leur spécialisation : Asyan Kessi suit un parcours en optique et biologie à l’IFSBM de la Faculté de Médecine Paris-Sud, Simon Revranche a rejoint l’École polytechnique de Lausanne, tandis que Raindu Adikarigethamel poursuit ses études à HEC pour développer la dimension entrepreneuriale du projet, avec l’ambition d’intégrer la Station F. Pour l’instant, U-Fast est hébergée sur le plateau de Saclay et a reçu une offre d’incubation à Incuballiance, l’incubateur de deep-tech de Paris-Saclay. Aucune levée de fonds n’a encore eu lieu, mais elle sera inévitable pour passer à l’industrialisation, renforcer l’équipe marketing et commercialiser la solution auprès des hôpitaux.

Voitures électriques : quand la vitesse de recharge devient un argument clé

Si l’autonomie reste un critère central dans le choix d’une voiture électrique, le temps de recharge s’impose désormais comme un facteur tout aussi déterminant pour le confort du conducteur au quotidien. Lors du dernier salon international des batteries de Shenzhen[1], le constructeur chinois SEVB a marqué les esprits en dévoilant une nouvelle batterie, baptisée Xinxingchi 2.0, capable de récupérer jusqu’à 150 km d’autonomie en seulement une minute. Une annonce spectaculaire, lorsque l’on sait qu’une Tesla Model 3, dont la batterie est pourtant bien classée dans ce domaine, peut récupérer 100 km d’autonomie en 6 minutes.

Cette prouesse du fabricant de batteries chinoises est tout de même à nuancer, car elle n’est pour l’instant observée que sur des bancs de test, c’est-à-dire sans contrainte réelle de chaleur ou même d’âge de batterie, des paramètres qui sont souvent absents des annonces officielles. Autre limite importante : pour gagner 150 km d’autonomie en une minute, la borne de recharge doit être capable de délivrer un courant de 1 400 kW, un niveau qui constitue un véritable défi technique, puisque la plupart des bornes les plus rapides en Europe plafonnent à environ 350 kW.

Ensuite, un tel flux d’énergie va produire une chaleur intense, et bien que SEVB évoque des systèmes de refroidissement sophistiqués, la fiabilité en usage réel, sur une durée prolongée, reste à confirmer. Enfin, même si le fabricant chinois promet une durée de vie élevée pour des usages industriels, avec jusqu’à 100 000 cycles de recharge sans dégradation, une charge ultra-rapide risque de provoquer une forte sollicitation des cellules et donc de diminuer leur longévité.

Au printemps dernier, BYD avait également frappé un grand coup en présentant une nouvelle plateforme électrique, appelée Super e-Platform, permettant de récupérer environ 400 kilomètres d’autonomie en seulement cinq minutes de charge. Dans la foulée, le géant chinois avait annoncé équiper deux de ses modèles avec cette technologie, mais aussi de bâtir un réseau de 4 000 stations de charge ultrarapide en Chine. Mais là encore, la puissance délivrée par les bornes électriques doit atteindre 1 000 kW et un tel niveau n’est pour l’instant pas envisagé sur le réseau européen.

Une multiplication des bornes de recharge ultra-rapide sur les grands axes

Parmi les véhicules les plus efficients en matière de recharge sur le sol européen, figure la Lotus Eletre, capable de passer d’une charge de 10 à 80 % en 20 minutes grâce à une borne de 350 kW, et ainsi de gagner environ 400 km d’autonomie. Le constructeur automobile britannique affirme qu’avec une borne de recharge de 400 kW, son véhicule pourrait réduire ce temps de recharge à seulement 14 minutes. On peut aussi citer la nouvelle version de l’Audi e-tron GT dont la puissance maximale admissible est à présent fixée à 320 kW (contre 270 kW pour la génération précédente), et qui peut recharger sa batterie de 10 à 80 % en seulement 18 minutes.

En Europe, face au développement des voitures électriques, les bornes de recharge ultra-rapide, capables de délivrer 150 à 350 kW, tendent à se multiplier sur les grands axes. Si elles permettent de regagner plusieurs centaines de kilomètres d’autonomie en quelques minutes, cette vitesse a un coût, puisque plus la puissance délivrée est élevée, plus le prix du kilowattheure (kWh) facturé augmente.

Ainsi, selon les données publiées par plusieurs opérateurs, le kWh peut être facturé jusqu’à deux fois plus cher sur une borne à 300 kW comparé à une borne de 50 kW. En cause : des infrastructures plus coûteuses, une sollicitation accrue du réseau électrique et des frais d’entretien plus élevés. Pour les automobilistes pressés, la recharge ultra-rapide reste un gain de temps précieux, mais elle devient aussi un facteur d’arbitrage économique à ne pas négliger, notamment sur les longs trajets où la facture peut rapidement grimper.


[1] du 15 au 17 mai 2025

Un robot éléphant plus vrai que nature imprimé en 3D

Les systèmes musculosquelettiques naturels se caractérisent par la combinaison de tissus mous et de structures rigides. Cette association permet d’obtenir des comportements mécaniques à la fois précis et adaptatifs. Pour parvenir à ce genre de performances dans le domaine de la robotique, des chercheurs de l’EPFL (École polytechnique fédérale de Lausanne), en Suisse, ont travaillé sur une méthode d’impression 3D en treillis. Selon eux, à partir d’un seul matériau, cette technique de fabrication mènerait à la production de structures en trois dimensions avec des propriétés mécaniques variant spatialement. Histoire de prouver leurs dires, ils l’ont employé pour mettre au point un éléphant robotique (EleBot) dont un système de tendons (des sangles en plastique) imite le système musculosquelettique biologique, telle la trompe de l’animal. La conception d’EleBot est décrite en détail dans le journal Science Advances du 16 juillet 2025.

L'EleBot
L’EleBot possède une trompe et des jambes en mousse en treillis.
Crédits : 2025 CREATE EPFL CC BY SA 4.0.

Un éléphant, ça trompe (robotique) énormément !

Durant cette étude, l’équipe de recherche de Lausanne s’est appuyée sur une mousse en treillis de résine F80 – une résine élastique couleur gomme. Le treillis lui-même se compose d’unités individuelles (des cellules) programmées pour prendre diverses formes et positions. Elles peuvent ainsi être configurées d’un million de façons différentes ! Résultat : tout comme sa version biologique, la trompe robotique – longue de 322,5 mm – peut aussi bien se plier et se tordre que se tourner de manière hélicoïdale. La torsion est ainsi permise grâce à un tendon central situé à la base du membre (au rayon de 48 mm), la flexion selon deux axes par quatre tendons alimentés par deux moteurs, et le mouvement hélicoïdal via un dernier tendon placé à l’extrémité de la trompe (au rayon de 24 mm). EleBot est capable de se saisir d’objets allant de 0,1 à 100 mm de largeur, et de soulever jusqu’à 500 g (soit plus de trois fois la masse de la trompe, pesant environ 150 g). Les scientifiques l’ont testé en lui faisant attraper une fleur dans un vase, mais aussi des films fins, des barres étroites, des sphères et des cylindres.

Et l’équipe ne s’est pas arrêtée là. En effet, il fallait bien qu’EleBot soit en mesure de se déplacer. Il a donc été doté de quatre jambes en piliers, pouvant supporter 4 kg supplémentaires (soit plus de 100 % de sa propre masse de 3,89 kg). Trois jambes lui suffisent pour s’équilibrer et lever la dernière, lui permettant de se mouvoir… ou de taper dans un ballon ! Chaque jambe est munie de deux joints actifs (hanche et genou) et d’un joint passif (cheville). Celui de la hanche est constitué de quatre tendons alimentés par deux moteurs, pour atteindre deux degrés de liberté (flexion/extension et abduction/adduction). Le joint du genou compte deux tendons et un moteur, pour des mouvements de flexion/extension. Enfin, celui de la cheville ajuste l’orientation du pied selon ses interactions avec l’environnement. Finalement, les jambes d’EleBot – longues d’environ 150 mm – lui permettent de marcher à une vitesse de près de 7,5 mm/s.

IA agentique : vers une révolution des processus métiers ?

Exit les simples réponses de chatbot. Place aux agents autonomes, capables d’orchestrer des flottes spécialisées pour résoudre des problèmes complexes. C’est ce qu’on appelle l’IA agentique. Ce type de modèle se caractérise par la présence d’un agent maître supervisant plusieurs agents secondaires, chacun conçu pour une tâche spécifique. Comme dans une chaîne de production de voitures !

L’agent maître orchestre l’exécution de sous-tâches et collecte les résultats produits par les agents pour mener à bien une mission globale. Cette structure permet d’aborder des cas d’usage plus sophistiqués que ceux traitables par un simple chatbot d’IA générative (comme Claude, ChatGPT, etc.) qui incarne la créativité : résumer, imaginer, synthétiser.

À l’inverse, les IA non génératives – apprentissage automatique, prédiction, automatisation – prennent des décisions rationnelles. C’est dans leur fusion que naît l’agentivité : une IA qui réfléchit, propose, agit… et parfois même anticipe.

L’IA agentique ne résoudra pas tous les défis de demain. Mais pour certains usages – gestion de sinistres, exploration documentaire, optimisation financière –, elle peut être très efficace. Dans la finance, des plateformes comme Bud Financial exploitent l’agentivité pour automatiser la découverte de données transactionnelles et fournir des recommandations de placement ou de gestion de trésorerie.

Le véritable levier résidera dans la capacité à orchestrer les agents, à maîtriser les modèles de raisonnement et à sécuriser les flux de données.

Car, pour l’instant, la mariée est encore trop belle ! Si 57 % des entreprises interrogées par Cloudera ont initié des projets agentiques, seuls 37 % les ont trouvés intégrables facilement. Les obstacles ? Confidentialité des données, difficulté technique, coûts élevés.

Pour la relation client, PegaSystems (une entreprise informatique américaine spécialisée dans les applications de gestion de la relation client) a développé Iris. Cet agent interne traite jusqu’à 1 500 emails par jour en s’appuyant sur des bases de connaissances internes et externes.

Ces systèmes sont configurés pour expliquer leur raisonnement, tout en étant limités dans leurs actions afin de maîtriser les risques opérationnels.

Freins et défis à l’adoption

Le principal obstacle demeure l’intégration des agents d’IA dans les processus existants, jugée extrêmement difficile. De nombreuses entreprises considèrent que l’IA agentique est encore au stade de la R&D.

Une autre crainte commence sérieusement à inquiéter des experts. Et si l’IA agentique était exploitée pour mener des cyberattaques ? C’est la question qu’a posée Meredith Whittaker, présidente de Signal (une messagerie chiffrée), au sommet AI for Good en juin.

Pour fonctionner de manière autonome, ces agents exigent un accès « admin » au système d’information des entreprises. De quoi remettre en cause les bonnes pratiques de cybersécurité, car cela peut créer des portes dérobées (ou backdoor) vers des données sensibles.

Spotify, par exemple, risquerait de voir ses algorithmes et ses données propriétaires exposés si un agent crée et partage automatiquement des playlists !

L’IA agentique ne révolutionnera pas tous les secteurs du jour au lendemain, mais elle offre déjà des gains d’efficacité notables pour des cas d’usage ciblés. À l’avenir, l’enjeu sera d’étendre ces capacités tout en garantissant la confiance, la sécurité et la maîtrise budgétaire. Car l’IA est, et doit rester, un outil que l’on peut contrôler !

Gouvernance mondiale de l’IA : Meta est toujours contre l’Europe

Meta, la maison mère de Facebook, est contre le code de bonnes pratiques de l’intelligence artificielle publié, dans sa version définitive, par la Commission européenne le 10 juillet.

Selon Joel Kaplan, directeur des affaires globales chez Meta, l’AI act « introduit un certain nombre d’incertitudes juridiques pour les développeurs de modèles ». Il considère que l’UE prend « le mauvais chemin » en matière de régulation de l’intelligence artificielle, en dressant des barrières à l’innovation.

L’Union européenne (UE) a joué un rôle de pionnier dans l’élaboration d’une gouvernance mondiale de l’IA avec l’adoption de la loi sur l’intelligence artificielle en 2024 et la publication du code de pratique de l’IA à usage général (GPAI-General-Purpose AI Code of Practice) en juillet 2025.

La tolérance de l’Europe

Le code est un cadre volontaire mais influent, visant à garantir la confiance et la conformité parmi les développeurs de modèles d’IA de premier plan. Le refus public de Meta de signer le code a suscité un débat important sur l’intersection de la surveillance réglementaire et de l’innovation dans le secteur technologique.

La version définitive de ce code de bonnes pratiques prévoit trois chapitres principaux : un premier sur la transparence des modèles, un second sur l’utilisation de contenus protégés par le droit d’auteur et un dernier sur les risques de sécurité au sein des outils d’intelligence artificielle.

Mais ce texte divise les industriels et les entreprises spécialisées dans la tech. Les préoccupations de Meta font écho à celles soulevées par plus de 40 entreprises technologiques européennes, dont Airbus et ASML, qui ont demandé un report de la mise en œuvre du code.

Ces entreprises soulignent un équilibre délicat entre la garantie de la sécurité juridique et la préservation d’un environnement propice à l’innovation. Certains estiment que des règles volontaires, bien qu’influentes, ne sauraient remplacer une législation claire, tandis que d’autres redoutent que l’Europe ne perde en compétitivité face aux acteurs américains et asiatiques déjà majoritairement implantés dans la course à l’IA.

En revanche, OpenAI (éditeur de ChatGPT), Mistral (éditeur français de Lechat, l’équivalent à ChatGPT) et Microsoft (provisoirement) ont reconnu l’utilité du code et se sont déclarés prêts à y participer. À noter que Google et Amazon n’ont pas une position très claire sur ce sujet.

La Commission européenne fait preuve de tolérance en rappelant toutefois… que les entreprises qui refusent de signer ce texte pourraient faire l’objet d’un examen réglementaire plus approfondi par le Bureau de l’IA européen. Par ailleurs, elles ne bénéficieront pas de la présomption de conformité offerte aux signataires, ce qui pourrait compliquer leurs démarches administratives et juridiques. Enfin, en cas de non-respect de l’AI Act, les entreprises s’exposent à des amendes allant jusqu’à 7 % de leur chiffre d’affaires annuel mondial !

Fin des voitures thermiques en 2035 : la France et l’Allemagne en opposition

Si Bruxelles n’est pas en train de revenir sur l’interdiction des moteurs thermiques prévue pour 2035, il est clair qu’une brèche est en train de s’ouvrir. En effet, les difficultés actuelles du secteur automobile ont poussé la Commission à revoir les possibilités d’amendes que devraient payer, dès cette année, les constructeurs dont les ventes de véhicules électriques sont insuffisantes. Cette décision tient compte de la baisse des ventes de véhicules électriques enregistrée en 2024 en Europe, mais sonne aussi comme un aveu de faiblesse, face à la concurrence des constructeurs chinois.

Un assouplissement qui peut en entraîner d’autres !

Pour éviter aux constructeurs d’avoir à payer des amendes, la commission a accordé aux constructeurs que leurs émissions de CO2, dans le cadre de la norme CAFE, soient calculées sur trois ans (de 2025 à 2027) et non plus sur une année. En apparence, c’est un petit pas, mais certains y voient la fin du dogme du tout électrique et une ouverture vers d’autres solutions, comme l’utilisation d’e-fuels ou de moteurs électriques accompagnés d’un prolongateur d’autonomie à combustion.

L’Italie se positionne en faveur des biocarburants

Le pays est, depuis le départ, opposé à cette fin du thermique en 2035 et sa position n’a pas vraiment changé. Il s’est d’ailleurs associé avec l’Autriche, la Bulgarie, la République tchèque, la Pologne, la Roumanie et la Slovaquie, afin de proposer une nouvelle politique automobile européenne qui permettra « d’équilibrer la compétitivité et l’ambition climatique. »

L’Italie soutient notamment les biocarburants, comme solution lui permettant de poursuivre la production de moteurs à combustion.

L’Allemagne défend le thermique et l’hybride rechargeable

L’Allemagne possède plus de 25 % des parts du marché automobile européen et compte bien défendre bec et ongles ses moteurs thermiques et son industrie. Rappelons que le pays avait bloqué temporairement le vote final de la réglementation, en 2023, en exigeant que les carburants de synthèse (e-fuels) soient pris en compte après 2035.

Le pays avait finalement obtenu gain de cause, puisque les e-fuels seront autorisés dans les véhicules thermiques neufs après 2035, à condition qu’ils soient climatiquement neutres, ce qui nécessitera des conditions de production et d’utilisation particulièrement strictes.

Mais l’Allemagne continue de mettre la pression sur Bruxelles. Dans un communiqué, l’association des constructeurs allemands (VDA) s’est ainsi attaquée au véhicule électrique, en rappelant que « la demande en matière d’électromobilité, en tant que principal contributeur, n’a jusqu’à présent pas répondu aux attentes. »

L’association propose ainsi d’autoriser la fabrication de véhicules hybrides rechargeables après 2035, en abaissant l’objectif de diminution du CO2, en 2035, de -100 % à -90 %.

Fin du thermique en 2035 : la France veut tenir le cap

Cette mort annoncée du thermique, n’a jamais fait l’unanimité, aussi bien dans l’opinion française qu’au niveau politique. En février 2025, les députés avaient d’ailleurs refusé l’inscription dans le droit français de cette interdiction concernant la vente des véhicules thermiques neufs à partir de 2035, qui devait remplacer l’échéance de 2040, votée en 2017.

Néanmoins, le gouvernement français entend bien défendre l’objectif de 2035, malgré les oppositions et malgré l’appel d’air provoqué par l’insistance de l’Allemagne envers Bruxelles.

Le ministre de l’Industrie et de l’Énergie, Marc Ferracci, a d’ailleurs rappelé que la filière automobile ne demande pas de remettre en question cette date, mais réclame plutôt de la souplesse sur les amendes en cas de non-respect des objectifs de réduction d’émissions de CO2.

Pour Luc Chatel, président de la Plateforme Automobile (PFA), l’organisation qui représente les constructeurs et équipementiers français, il y a néanmoins espoir de faire évoluer la trajectoire imposée au départ par l’Europe.

Il a d’ailleurs déclaré, sur Europe 1, qu’il « va falloir enfin qu’on réalise les études d’impact qu’on aurait dû réaliser au moment de la décision sur l’interdiction des moteurs thermiques. Vous savez, on a toujours été très réservés sur une solution unique. Être capable de se remettre autour de la table pour discuter de l’ensemble des technologies, je pense que c’est important. »

Réchauffement climatique : le budget carbone presque épuisé

Le couperet se rapproche. Selon les derniers indicateurs du climat mondial publiés par un consortium international d’une soixantaine de scientifiques dans la revue Earth System Science Data, le budget carbone mondial permettant de limiter le réchauffement à 1,5 degré sera épuisé dans un peu plus de trois ans, si le rythme actuel des émissions se poursuit. Selon ces chercheurs, il n’est désormais plus possible de limiter le réchauffement planétaire sous ce seuil, puisque loin de ralentir, les émissions de gaz à effet de serre ne cessent de progresser.

En 2023, les volumes rejetés ont atteint un niveau record de 55 milliards de tonnes de CO₂ équivalent, principalement en raison de la combustion d’énergies fossiles et de la déforestation. Les premières données 2024 confirment la poursuite de cette tendance. Paradoxalement, la réduction des émissions de dioxyde de soufre, mise en œuvre pour améliorer la qualité de l’air, a contribué à réduire l’effet refroidissant de ces particules soufrées, accentuant ainsi le réchauffement climatique.

En 2024, la température moyenne à la surface du globe s’est établie à un niveau jamais atteint, dépassant de 1,52 degré les niveaux préindustriels de la fin du 19è siècle. Malgré tout, ce chiffre ne signifie pas que l’objectif de 1,5 degré, acté lors de l’Accord de Paris en 2015, est franchi. Pour le franchir officiellement, il faudrait qu’il soit dépassé en moyenne sur plusieurs décennies.

Les auteurs de cette publication ont calculé que sur l’année 2024, le réchauffement directement imputable aux activités humaines s’établit à 1,36 degré. Et sur la décennie 2015–2024, la hausse moyenne atteint 1,24 degré, avec un réchauffement d’origine anthropique en progression de 0,27 degré par décennie. Ce rythme ne laisse plus de doute sur la trajectoire que prend le réchauffement planétaire.

La température de 2024 ne doit pas être considérée comme exceptionnelle

Certes, l’année dernière a été marquée par un épisode El Nino, couplé à une baisse des alizés dans l’Atlantique, deux phénomènes qui ont eu pour effet d’amplifier temporairement la température. Mais ceux-ci ne masquent pas pour autant la tendance de fond à l’œuvre, comme l’explique Christophe Cassou, directeur de recherche CNRS au Laboratoire de Météorologie Dynamique : « La valeur de température globale de 2024 ne doit pas être considérée comme exceptionnelle, mais attendue considérant les quantités de CO2 accumulées dans l’atmosphère. Il y avait une chance sur deux d’atteindre ces valeurs en présence d’un événement El Nino et d’une baisse de vent dans l’Atlantique. »

Pour Sophie Szopa, directrice de recherche au CEA, « seule l’atteinte d’émissions nettes nulles de CO2 permettra de stabiliser la température mondiale et une partie des conséquences graves du réchauffement climatique. Cette mise à jour des indicateurs rappelle qu’il est plus que temps d’entamer l’inflexion des émissions mondiales vers leur baisse. Le méthane est un composé clé pour limiter le réchauffement à court terme ce qui aurait également des bénéfices sur la pollution de l’air et pourtant sa concentration a fortement augmenté ces dernières années. »

Un autre résultat inquiète, celui de la montée du niveau de la mer, qui a progressé de 26 mm entre 2019 et 2024, soit un rythme bien supérieur à la moyenne du 20è siècle qui s’établit à 1,8 mm par an. Karina von Schuckmann, scientifique chez Mercator Ocean rappelle que « l’océan stocke environ 91 % de cet excès de chaleur dû aux émissions de gaz à effet de serre, ce qui entraîne un réchauffement des océans. Le réchauffement des eaux entraîne une élévation du niveau des mers et une intensification des phénomènes météorologiques extrêmes, et peut avoir des effets dévastateurs sur les écosystèmes marins et les communautés qui en dépendent. »

En attendant le septième rapport d’évaluation du Giec, dont la publication est prévue dans environ cinq ans, les auteurs vont continuer à mettre à jour ces IGCC (Indicators of Global Climate Change), avec l’espoir que leur travail puisse éclairer et infléchir les décisions politiques, économiques et sociétales à venir. Car pour l’heure, le rythme de l’action climatique n’est pas suffisant pour enrayer la spirale du réchauffement de la surface du globe.

Jean-Baptiste Mesnard-Sense : « En gagnant ce concours mondial de hacking, nous montrons que les experts français sont parmi les meilleurs au monde »

Synacktiv est une entreprise française spécialisée en cybersécurité offensive qui compte 200 experts. Fondée en 2012 par deux experts en cybersécurité, elle intervient dans différents domaines : tests d’intrusions, rétro-ingénierie, réponse à incidents et développement d’outils offensifs. Jean-Baptiste Mesnard-Sense est expert-sécurité, spécialisé en tests d’intrusion et audits de sécurité chez Synacktiv depuis 2021.

Techniques de l’Ingénieur : Pouvez-vous nous présenter cette compétition ?

Jean-Baptiste Mesnard-Sense, expert-sécurité, spécialisé en tests d’intrusion et audits de sécurité
Jean-Baptiste Mesnard-Sense. © DR

Jean-Baptiste Mesnard-Sense : Cette compétition se déroule sur fond de scénario fictif d’une cyberattaque (voir l’encadré sur Operation Blackout). Le concours était un CTF (Capture The Flag). Il consiste à résoudre des épreuves techniques ou exploiter des vulnérabilités affectant des applications de manière à récupérer des drapeaux (flags), preuves de l’intrusion. Le Hack The Box Business CTF 2025 était en mode Jeopardy, c’est-à-dire que cette compétition regroupait plusieurs catégories d’épreuves. L’idée, c’est de proposer des challenges dans plusieurs thématiques techniques afin de renforcer l’aspect pluridisciplinaire de l’évènement. En l’occurrence, il y avait une dizaine de thématiques techniques qui étaient couvertes (exploitation web, exploitation cryptographique, réponses à incidents, rétro-ingénierie, exploitation de binaire…). Il y avait aussi, et c’est encore un peu rare, des challenges basés sur du hardware, de l’intelligence artificielle, du cloud ainsi que des systèmes complets (box), spécialité et cœur de métier de l’entreprise Hack The Box. Il fallait donc par exemple, chercher des vulnérabilités basées sur des environnements Scada (supervisory control and data acquisition) pour simuler des attaques sur des réseaux industriels. La compétition est conçue pour être assez longue avec 66 challenges répartis sur 4 jours.

Des équipes ont été envoyées par de grands groupes américains (Microsoft, Cisco, PayPal…). Seuls ces poids lourds peuvent gagner ?

Non. Dans le top 10 des meilleures équipes, on retrouve la France, le Japon, les États-Unis, mais aussi Chypre, l’Autriche, les Émirats-Unis et la Colombie ! Cette diversité prouve qu’il y a des talents dans tous les pays et que la taille des structures n’est pas forcément un élément différenciant. On retrouve ainsi des petites entreprises spécialisées en cybersécurité ayant réussi à fédérer un grand nombre de talents dans le haut du tableau.

Agilité opérationnelle et esprit d’équipe : deux critères indispensables pour prétendre être comme vous le numéro 1 du top 100 mondial ?

Oui, c’est très important. Ce genre de compétition oblige à maîtriser de nombreuses thématiques techniques et à gérer son temps de manière efficace.

Il faut donc réussir à composer avec des gens compétents dans des sujets techniques pouvant être très différents et réussir à travailler ensemble avec un même objectif. Si la communication n’est pas efficace et que les rôles ne sont pas bien répartis, cela a forcément une incidence sur le déroulé de la compétition et son résultat final.

Chez Synacktiv, nous sommes quasiment tout le temps amenés à travailler en équipe. Nous avons donc plus naturellement cette aisance à travailler ensemble, ce qui se révèle souvent être un atout sur ces évènements transverses.

Les entreprises déploient de plus en plus de logiciels de sécurité. Selon vous, sont-elles mieux protégées contre les cyberattaques ?

Comme tout outil, ces logiciels présentent des avantages et des inconvénients. Certains logiciels de sécurité apportent eux-mêmes un certain nombre de failles lorsqu’ils ne sont pas intégrés dans des cycles de développement rigoureux. En raison de leur nature privilégiée par défaut au sein des infrastructures, ils sont donc plus susceptibles d’être attaqués par des attaquants préparés. Ils ne doivent ainsi jamais être considérés comme autosuffisants, mais ils restent indéniablement des outils qui améliorent le niveau de sécurité global au fil des ans.

« Operation Blackout – Defend Against the cyber Dark Age »

Dans un contexte mondial où la technologie détermine les équilibres de pouvoir, l’Empire fictif de Volnaya, connu pour ses pratiques autoritaires et son expertise en espionnage, lance Operation Blackout : une offensive secrète visant à perturber les infrastructures critiques de ses rivaux, telles que les réseaux électriques, les systèmes financiers et les services d’urgence. L’objectif est de raviver des tensions dignes d’une nouvelle guerre froide. Pour répondre à cette menace, une unité d’élite internationale, la Task Force Phoenix, est mobilisée. Les participants incarnent les membres de cette task force et doivent utiliser des outils de cybersécurité de pointe, analyser du renseignement et neutraliser les cyberattaques orchestrées par Volnaya. Chaque défi proposé teste les compétences techniques, la coordination et la réactivité des équipes dans une mise en situation réaliste.

Accord franco-norvégien : vers un exil géologique du CO₂ industriel français

La France et la Norvège ont conclu un accord historique permettant le transport transfrontalier du CO₂ industriel français vers des sites de stockage géologique dans les fonds marins norvégiens. Le texte s’appuie directement sur la ratification, le mois dernier par l’Assemblée nationale, d’un amendement à l’article 6 du Protocole de Londres (2009), autorisant pour la première fois la France à exporter du CO₂ vers un autre État membre à des fins de stockage permanent.

L’objectif affiché est de transporter des millions de tonnes (Mt) de CO₂ vers des sites comme le terminal Northern Lights, dont le volume de stockage géologique total est estimé à près de 80 milliards de tonnes. Détenu à parts égales par TotalEnergies, Equinor et Shell, ce site est déjà doté d’une capacité initiale de 1,5 Mt par an, et celle-ci devrait passer à 5 Mt à partir de 2028. Un second projet prévoit la création d’un réseau de transport sous-marin du CO₂, d’environ 1 000 km, reliant plusieurs ports européens, dont Dunkerque et Zeebrugge, aux infrastructures norvégiennes. Il doit voir le jour d’ici à 2030 et est surnommé CO₂ Highway Europe.

Les autorités françaises défendent cet accord en affirmant qu’il représente un levier essentiel pour l’industrie lourde, telle que celle de la cimenterie, de la sidérurgie et de la chimie, pour lui permettre de progresser vers les objectifs de neutralité carbone à l’horizon 2050. La Norvège, forte de son expertise dans la géo-séquestration grâce à ses réservoirs offshore de Sleipner et de Snøhvit, y voit une opportunité de renforcer son rôle de hub européen du stockage de CO₂, tout en créant un marché transfrontalier robuste.

Mais certaines voix discordantes appellent à la vigilance face à cette solution pour limiter le réchauffement climatique. Elles s’appuient pour cela sur l’avis de l’Ademe, qui souligne que la technique de captage et de stockage du carbone (CSC) « doit être considérée comme la dernière étape dans une stratégie de décarbonation. Cette dernière doit en effet commencer par des actions plus matures et performantes telles que l’efficacité énergétique et les énergies renouvelables. » Ceux qui critiquent cet accord redoutent qu’il ne devienne un moyen de retarder des investissements plus ambitieux dans la transition énergétique.

La technique de captage et de stockage du carbone est énergivore

L’Ademe rappelle également que le CSC est un procédé onéreux, dont le coût varie entre 100 et 150 € la tonne, alors que les technologies les moins chères disponibles pour le secteur industriel coûtent entre 20 et 30 € la tonne de CO₂ économisée. On peut citer notamment celle consistant à récupérer la chaleur et qui permet de réduire de plus d’un tiers la consommation de combustible. Un tel écart soulève des questions sur la compétitivité de cette solution de CSC.

Le captage est en effet une étape énergivore et complexe, car le CO₂ n’est pas émis sous une forme pure par les industries, mais est mélangé à d’autres gaz dans les fumées. Il doit donc, dans un premier temps, être extrait via des procédés chimiques ou physiques. Ensuite, ce gaz doit être compressé à haute pression pour être transporté efficacement et injecté dans le sous-sol. Cette compression est, elle aussi, énergivore et nécessite des équipements spécialisés. Le CO₂ peut également être liquéfié pour le transport maritime, augmentant encore les besoins énergétiques et les coûts d’infrastructure.

Si, jusqu’ici, aucune fuite n’a été détectée sur le site de stockage historique de Sleipner, en fonctionnement depuis près de 30 ans, certains expriment leurs réserves quant à la sécurité à long terme des puits géologiques. Même si les risques de faille dans l’étanchéité font l’objet d’une surveillance accrue, il faut noter qu’une très petite fuite, pendant des centaines d’années, pourrait libérer dans l’atmosphère la totalité du CO₂ stocké et ainsi réduire à néant les efforts pour le climat.

Pour l’heure, cet accord franco-norvégien permet à la France de contourner sa faiblesse géologique nationale, tout en s’appuyant sur l’expérience norvégienne. Mais le risque, à terme, est que le CCS devienne un « palliatif de confort », retardant des transformations plus structurelles dans l’industrie. L’enjeu à présent consiste donc à s’assurer que ce dispositif reste un outil parmi d’autres, dans une stratégie de décarbonation véritable et résiliente.

Revue du Magazine d’Actualité du 19 au 25 juillet

Cette semaine, la revue de presse met en lumière des innovations prometteuses, des signaux d’alerte environnementaux et des réflexions de fond sur notre rapport au progrès.

De quoi nourrir la réflexion… même en tongs.


🌍CLIMAT & ENVIRONNEMENT

COP30 : quels espoirs placer dans la diplomatie climatique en 2025 ?

Alors que la COP30 se profile à Belém, au Brésil, les attentes sont fortes pour relancer une dynamique internationale en faveur du climat. L’article revient sur les enjeux géopolitiques, les tensions Nord-Sud et les attentes vis-à-vis des pays émergents. Un point d’étape crucial pour une diplomatie climatique en quête de crédibilité.

À suivre avant la COP30

Le cerveau humain contaminé par des particules de plastiques

Une étude choc révèle la présence de microplastiques dans le cerveau humain, confirmant leur capacité à franchir la barrière hémato-encéphalique. Les implications sanitaires sont encore mal connues, mais l’alerte est lancée sur la pollution invisible qui nous entoure.

Microplastiques : une menace neurologique ? 


MATÉRIAUX & INNOVATION

Le « super bois », avenir d’une construction décarbonée ?

Renforcé par des procédés chimiques, ce bois nouvelle génération affiche une résistance mécanique proche de l’acier tout en étant biodégradable. Une alternative prometteuse pour le secteur du bâtiment, en quête de solutions bas carbone.

Construire autrement avec le super bois

Une nouvelle classe de matériaux collecteurs d’eau dans l’air

Des chercheurs ont mis au point des matériaux capables de capter l’humidité ambiante, même dans des environnements arides. Une avancée majeure pour l’accès à l’eau potable dans les zones désertiques ou soumises au stress hydrique.

Récolter l’eau dans l’air : une solution d’avenir ?


NUMÉRIQUE & SOCIÉTÉ

L’IA générative et les Français : entre fascination et craintes

Une enquête d’opinion révèle un rapport ambivalent des Français à l’IA générative : enthousiasme pour ses usages créatifs, mais inquiétudes sur l’emploi, la désinformation et l’éthique. Un miroir des débats actuels sur l’encadrement de ces technologies.

IA générative : entre promesses et doutes 


⚡ ÉNERGIE & MOBILITÉ

Recharge ultra-rapide des voitures électriques : info, intox ou futur proche ?

L’article fait le point sur les promesses de la recharge en quelques minutes, entre annonces industrielles et réalités techniques. Si les prototypes avancent, les défis liés aux infrastructures et à la sécurité restent majeurs.

Recharge express : où en est-on vraiment ?


Bois, cerveau, climat : la matière grise est partout

 

Le cerveau humain contaminé par des particules de plastiques

Des fragments de microplastiques dans le tissu cérébral humain, parfois à des concentrations équivalentes à celle d’une cuillère à café. Cette découverte, qui marque une rupture épistémique majeure, a été révélée récemment dans une étude publiée dans Nature medicine. Ce qui relevait jusqu’ici de la spéculation ou du soupçon environnemental est désormais documenté dans Brain Medicine, une revue scientifique, qui consacre un numéro spécial à cette nouvelle réalité biologique. Alors qu’elle a longtemps été perçue comme un rempart inviolable entre le corps et le cerveau, la barrière hémato-encéphalique a cette fois-ci été franchie.

Selon les scientifiques, le cerveau contiendrait entre 7 et 30 fois plus de microplastiques que d’autres organes comme le foie ou les reins. Les particules retrouvées mesurent moins de 200 nanomètres, et sont principalement composées de polyéthylène, un plastique couramment utilisé dans les emballages. Plus frappant encore, ces quantités dans le cerveau ont augmenté de 50 % entre 2016 et 2024, en parallèle de la montée en flèche de la pollution plastique mondiale, estimée entre 10 à 40 millions de tonnes déversées chaque année, et dont le volume devrait doubler d’ici à 2040.

Pire encore, chez les personnes atteintes de démence, les niveaux cérébraux de MNP sont trois à cinq fois plus élevés, avec une concentration notable dans les parois des vaisseaux cérébraux et les cellules immunitaires. Ce qui posent de redoutables questions : ces particules franchissent-elles la barrière hémato-encéphalique fragilisée par la maladie ? Ou, inversement, leur présence précède-t-elle l’inflammation cérébrale et la dégradation neuronale ? Si les études animales montrent un effet délétère des nanoplastiques sur la mémoire et l’apprentissage, les mécanismes à l’œuvre chez l’humain restent à explorer.

Présents dans l’eau, l’air et les aliments, les microplastiques sont désormais inévitables. L’exposition humaine se fait principalement par ingestion et par inhalation, mais leurs effets restent largement méconnus. Les données issues d’études animales et de cultures cellulaires pointent vers des mécanismes toxiques tels que de l’inflammation, du stress oxydatif, des perturbations immunitaires ou hormonales, voire de la cancérogénicité. Des liens ont aussi été relevés entre la présence de MNP et des risques accrus d’accidents cardiovasculaires, de maladies inflammatoires chroniques de l’intestin ou de troubles cognitifs.

L’eau en bouteille est beaucoup plus contaminée que celle du robinet

Face à cette menace diffuse, l’élimination totale des microplastiques semble illusoire. Mais certaines mesures simples permettent de réduire significativement l’exposition. L’eau en bouteille, par exemple, serait responsable de l’ingestion de 90 000 particules par an, contre seulement 4 000 pour l’eau du robinet. Chauffer des aliments dans des contenants en plastique au micro-ondes libère également jusqu’à 2 milliards de particules par centimètre carré en trois minutes. Mieux vaut donc opter pour le verre ou l’inox.

Autre vecteur : les sachets de thé en plastique, qui relâchent des milliards de particules à chaque infusion. Souvent manipulés ou emballés dans du plastique, les aliments ultra-transformés sont aussi fortement contaminés, tandis qu’un blanc de poulet contient également 30 fois moins de MNP qu’un nugget. La transition vers une alimentation moins transformée, stockée dans des contenants sains, serait donc doublement bénéfique pour la santé physique et mentale.

Peut-on éliminer ces particules une fois ingérées ? Les rares études sur le sujet suggèrent que la sueur pourrait évacuer certains composés, comme le bisphénol A (BPA), un perturbateur endocrinien associé aux plastiques. Le BPA a été retrouvé dans la sueur de 16 participants sur 20 dans une étude récente. Mais aucune recherche ne confirme encore que l’activité physique ou la transpiration réduisent significativement la charge en microplastiques.

Les scientifiques estiment toutefois que l’organisme possède des capacités d’élimination, notamment via les selles et l’urine. Chez les poissons, une étude démontre que 75 % des microplastiques cérébraux sont éliminés en 70 jours si l’exposition cesse. Cela suggère que des mesures durables de réduction de l’absorption pourraient porter leurs fruits chez l’humain, à condition de maintenir ces efforts sur le long terme.

IA & Développement : pourquoi la vraie révolution n’est pas la productivité

Le paradoxe de la productivité et la dette cognitive

Le premier constat est unanime : la vitesse d’écriture du code a explosé. Cependant, cette accélération a déplacé le goulot d’étranglement. Il n’est plus technique, mais cognitif. La charge mentale requise pour la revue de code a atteint un niveau sans précédent. Valider la pertinence, la sécurité et la cohérence architecturale d’un volume de code généré par IA est une tâche immense.

Le risque est connu : c’est l’application à grande échelle de la « théorie de la vitre brisée ». Une approximation validée par un humain pressé devient un pattern acceptable, que l’agent zélé répliquera à l’infini, propageant une dette technique insidieuse. La solution ne peut donc être qu’holistique : il faut aussi utiliser l’IA pour maîtriser l’IA, avec des agents d’analyse de MRs, apte à valider qualité, sécurité et cohérence et une discipline de fer sur les critères d’acceptance.

La triple mutation du rôle de l’ingénieur

Cette nouvelle donne impose une profonde mutation des compétences. La valeur de l’ingénieur ne réside plus dans sa capacité à produire, mais dans sa faculté à piloter. Cela se décline en trois rôles majeurs.

  • L’Architecte Systémique : Fournir le « plan de la maison » à l’agent devient la tâche primordiale. Définir les patterns et les contrats d’interface est le seul moyen de garantir la cohérence du projet.
  • Le Critique Impitoyable : L’esprit critique devient la compétence la plus précieuse. Il s’agit de challenger chaque proposition de l’IA, de questionner sa logique, de vérifier ses angles morts en matière de performance ou de sécurité.
  • Le Concepteur d’Environnement : Pour que l’agent devienne un partenaire de débogage, il doit pouvoir agir. Le développement d’Environnements de Développement Agentiques (EDA) – des « chaînes de CI locales » – où l’agent peut compiler, exécuter et observer, est le prochain grand chantier de la Developer Experience.

L’impact organisationnel : le grand remaniement des compétences

Ce pivot des compétences entraîne inévitablement un remaniement de nos organisations. C’est peut-être là que se situe le plus grand défi pour les leaders techniques.

  • La séniorité se redéfinit. Elle n’est plus une question de maîtrise technique pure, mais de vision architecturale, de sagesse et de capacité à mentorer.
  • Le recrutement doit évoluer. Les tests d’algorithmique pure perdent de leur pertinence. L’accent doit être mis sur l’évaluation de l’esprit critique (via des revues de code complexes), la vision système (via des exercices de System Design) et les soft skills (communication, collaboration).
  • L’upskilling devient une priorité stratégique. Il est impératif d’investir massivement dans la formation aux fondamentaux intemporels : l’architecture logicielle, la cybersécurité, les méthodologies de test.

En conclusion, l’ère de l’ingénieur augmenté nous force à devenir des leaders plus exigeants. La vraie performance ne se trouve pas dans la vitesse brute, mais dans notre capacité à cultiver un environnement où la vision architecturale et la critique humaine priment. C’est en investissant dans ces fondamentaux, et non dans l’apprentissage des derniers prompts, que nous tirerons une véritable valeur stratégique de cette révolution.

Nicolas Prud’homme, CTO d’ekino