Taxe sur les hydrocarbures : la contre-offensive chinoise aux droits de douane américains

Depuis le 10 février dernier, la Chine applique des droits de douane supplémentaires sur une sélection de produits importés des États-Unis.

Cette décision fait suite à l’entrée en vigueur, depuis le 4 février dernier, d’une taxe de 10 % sur les produits chinois importés, cette taxe étant un moyen pour Donald Trump de faire pression sur la Chine pour l’obliger à lutter contre le trafic des produits chimiques précurseurs du fentanyl.

La Chine hausse le ton

Les contre-mesures chinoises comprennent notamment 15 % de taxes sur les importations de charbon et de produits à base de GNL[1] . En outre, des droits de douane de 10 % seront appliqués sur le pétrole brut, les machines agricoles ou encore certaines voitures américaines comme les grosses cylindrées ou les camionnettes.

À cette riposte s’ajoute une plainte déposée par la Chine auprès de l’OMC[2] afin de dénoncer la hausse des droits de douane américains.

Cette escalade a lieu dans un contexte de forte dépendance au GNL, la Chine en étant la première importatrice mondiale. Ces dernières années, les transporteurs routiers de marchandises du pays s’orientent massivement vers le GNL, provoquant un recul de la demande en diesel. Entre janvier et mai 2024, les ventes de camions alimentés au GNL ont bondi de 127 %. Au mois d’avril 2024, un poids lourd sur trois commercialisé en Chine fonctionnait au GNL, contre un sur huit un an auparavant.

La chine devra donc sûrement pallier les baisses probables d’importations de GNL américain en augmentant celles de ses autres fournisseurs, à savoir la Russie ou le Qatar. En décembre dernier, suite à un accord majeur avec Shell[3], le Qatar s’est engagé à assurer une livraison de trois millions de tonnes de gaz par an à la Chine, une livraison qui a pris effet dès cette année.

En outre, la Chine durcit les règles sur l’exportation de métaux essentiels à la production de certains produits utilisés dans le secteur électronique, aérospatial ou de la défense. Cinq métaux sont ciblés : le tungstène, le tellure, le bismuth, le molybdène et l’indium. Une décision stratégique, car un défaut d’approvisionnement peut avoir des répercussions sur l’économie ou la sécurité nationale des États-Unis.

Les droits de douane ou l’arme suprême de la guerre commerciale

Une arme qui est désormais utilisée par l’adversaire et qui pourrait se retourner contre le président des États-Unis. La taxe chinoise sur le GNL, par exemple, pourrait affecter l’industrie américaine dans la mesure où les États-Unis sont le premier exportateur mondial de GNL depuis 2022 et que la Chine est la première consommatrice mondiale, avec 78,46 millions de tonnes importées en 2024.

Les États-Unis ont néanmoins des destinataires alternatifs pour écouler leurs produits au regard de la part grandissante que prend désormais le GNL américain dans les importations européennes suite à la guerre en Ukraine.

Des droits de douane qui continuent de pleuvoir sur le monde puisque Donald Trump a annoncé, le 9 février dernier, des taxes de 25 % sur l’aluminium et l’acier.

Bien qu’elles ne soient pas les plus grandes sources d’acier pour les États-Unis, les importations chinoises représentent, en 2024, 1,8 % du volume global, une part non négligeable. En perturbant la chaîne d’approvisionnement de l’industrie mondiale, ces taxes pourraient toucher le secteur de l’acier chinois. C’est aussi une manière d’agir contre la surproduction mondiale. En effet, la Chine produit plus de la moitié de l’acier consommé dans le monde et serait, selon les sidérurgistes occidentaux, à l’origine de la baisse des prix mondiaux de l’acier.


  • [1] Gaz naturel liquéfié
  • [2] Organisation mondiale du commerce
  • [3] Compagnie pétrolière britannique

Un programme de certification pour évaluer la décarbonation des aéroports

Pour décarboner le transport aérien, la stratégie ne consiste pas uniquement à réduire l’empreinte carbone des avions. Le secteur doit aussi s’engager dans une démarche de baisse des émissions des aéroports, liées notamment aux déplacements des véhicules de service au sol ou au chauffage des locaux. Depuis 2009, un programme nommé ACA (Airport Carbon Acreditation) a été lancé par l’ACI (Airports Council International) Europe, une association professionnelle regroupant les aéroports européens. Il est à ce jour le seul programme global de certification reconnu pour la gestion des émissions carbone des aéroports.

Depuis 2014, il s’est étendu à l’ensemble des régions du monde avec le soutien de l’ACI World. Et aujourd’hui, plus de 600 aéroports dans 89 pays se sont engagés dans cette démarche, ce qui représente un peu plus de la moitié du trafic mondial aérien de passagers. Le programme met en valeur les efforts déployés par les gestionnaires aéroportuaires pour diminuer leur empreinte sur le climat grâce à une dynamique de labellisation, qui s’appuie sur des méthodologies internationalement reconnues. Sept paliers de certification ont été instaurés, classés en cinq niveaux, ce qui permet de situer les aéroports selon leurs différents stades dans la gestion de leurs émissions.

Le niveau 1 appelé « Cartographie » vise à recenser toutes les émissions de scopes 1 et 2 d’un aéroport, c’est-à-dire celles qualifiées de directes ou d’indirectes et associées à l’énergie. L’objectif de ce premier palier est d’établir un bilan carbone du site aéroportuaire.

Pour atteindre le niveau 2 nommé « Réduction », l’aéroport doit mettre en place des procédures effectives de gestion des émissions en incluant la définition d’objectifs chiffrés. En plus d’avoir satisfait à toutes les exigences de niveau 1, il doit être capable de démontrer qu’une réduction des émissions de CO2 a été mise en œuvre sur le site, au regard de la moyenne des trois dernières années.

Seuls 19 aéroports dans le monde dont un en France ont atteint le dernier niveau

Le niveau 3 appelé « Optimisation » élargit le champ d’application de l’empreinte carbone puisqu’il prend également en compte les émissions de scope 3, qui sont générées en amont ou en aval de la chaîne de valeur de l’aéroport, comme celles liées aux achats de produits et de services. Un niveau 3+, appelé « Neutralité », peut être atteint si l’aéroport décide en plus de compenser ces émissions résiduelles par l’achat de crédits carbone reconnus à l’international.

Pour atteindre le niveau 4 nommé « Transformation », une stratégie à long terme doit être mise en œuvre et orientée vers une réduction des émissions alignée sur les objectifs de l’Accord de Paris. L’aéroport doit définir toutes les étapes intermédiaires pour parvenir à ces objectifs. Un niveau 4+ appelé « Transition » peut être obtenu si le site aéroportuaire limite également ses émissions de carbone résiduelles en utilisant le système de compensation carbone.

À ce jour, seuls 88 aéroports dans le monde ont obtenu la certification correspondant à ce quatrième niveau. Dernier exemple en date avec l’aéroport de Nantes Atlantique, certifié « Transformation », et qui est parvenu à réduire de près de 50 % ses émissions de CO2 liées à ses activités depuis 2019. Pour y parvenir, le site a mis en place des mesures de sobriété énergétiques relatives au chauffage et à la climatisation, a remplacé ses luminaires par des éclairages LED et s’est engagé vers une transition progressive de sa flotte de véhicules de service et de fonction vers des modèles à faibles émissions, de types électriques et hybrides.

Enfin, seuls 19 aéroports sur la planète ont atteint le niveau 5, le plus élevé du programme ACA. Ceux-ci doivent démontrer qu’ils sont parvenus à baisser de 90 % leurs émissions de scopes 1 et 2 et avoir mis en œuvre un traitement actif des émissions de scope 3. En France, l’aéroport de Toulon-Hyères est l’unique site aéroportuaire à avoir atteint ce dernier palier.

Revue du Magazine d’Actualité #21 : du 10 au 14 février

De la découverte en laboratoire à l’innovation industrielle… On scrute pour vous chaque semaine les tendances de l’industrie.

DeepSeek : une nouvelle ère pour l’intelligence artificielle ?

Face aux sanctions américaines, DeepSeek a su tirer parti de ses ressources limitées pour développer une IA ultra-optimisée. En misant sur des experts ciblés et une prédiction multitoken, cette start-up chinoise propose une alternative crédible à ChatGPT, mais soulève aussi des questions de confidentialité.
Quelles conséquences suite à l’irruption de DeepSeek ?

Eau potable et PFAS : une étude révèle l’ampleur de la contamination en France

Une nouvelle étude alarmante met en lumière la présence de PFAS, des polluants chimiques persistants, dans l’eau potable de nombreuses communes françaises. Générations Futures et l’UFC-Que Choisir ont analysé 33 PFAS, dont certains devront être surveillés d’ici 2026. Les résultats sont préoccupants, avec des prélèvements non conformes aux normes internationales, notamment à Rouen et Amiens. Les associations appellent à une action législative urgente pour protéger la population.
PFAS : une réglementation plus stricte pour protéger la santé publique ?

La pureté compromise des eaux minérales commercialisées en France

Alors que les eaux minérales doivent être exemptes de contaminants, une enquête révèle que des marques françaises, dont Nestlé, ont utilisé des traitements interdits. Avec l’aide supposée de l’État, ces pratiques soulèvent des questions sur la transparence et la sécurité des produits.
Entente sur des eaux minérales contaminées

De la recherche à l’industrie : transformer le CO2 en énergie verte

La solution de méthanation développée par BioUpp pourrait transformer le paysage énergétique. En utilisant des catalyseurs biologiques, cette start-up promet de convertir efficacement le CO2 en méthane, prêt à être injecté dans les réseaux de gaz naturel. L’utilisation de microorganismes pour transformer le CO2 biogénique en méthane

Cinq ans après : bilan et perspectives de la loi anti-gaspillage

La loi AGEC, adoptée il y a cinq ans, a insufflé une nouvelle dynamique dans la lutte contre le gaspillage en France. En se concentrant sur les 3R, elle a non seulement inspiré des réglementations européennes, mais a aussi permis de mobiliser des moyens financiers conséquents pour soutenir les acteurs du secteur. Pourtant, les objectifs fixés par la loi ne sont pas atteints pour certains types de déchets.
Les défis de la réduction des emballages plastiques en France

Vers une coentreprise sino-allemande : Volkswagen en quête de solutions

Face à la pression économique et syndicale, Volkswagen explore la possibilité d’une alliance avec un constructeur chinois. Ce partenariat pourrait non seulement éviter la fermeture de sites en Allemagne, mais aussi renforcer la compétitivité du groupe sur le marché européen. Une stratégie audacieuse pour un avenir incertain.
La stratégie de Volkswagen face aux défis du marché européen

Mise à l’échelle dans l’informatique quantique : Quandela réduit les ressources par 100 000

Avec une approche photonique fonctionnant à température ambiante, Quandela propose une avancée pour l’informatique quantique. Cette technologie pourrait transformer des secteurs clés comme l’énergie, la pharmacie et la défense.
Une évolution pour l’avenir des ordinateurs quantiques

Technosport : un lieu de coopération entre chercheurs et acteurs du milieu du sport

Créée il y a 10 ans au sein de l’Institut des Sciences du Mouvement Etienne-Jules Marey, la plateforme Technosport-amU permet de faire le pont entre la recherche fondamentale autour du mouvement humain et les besoins des acteurs du milieu du sport. Via une approche pluridisciplinaire, la plateforme donne l’opportunité aux fédérations sportives et aux industriels de collaborer avec les chercheurs du laboratoire pour mener des projets communs et faire avancer la recherche dans le sport. 

Guillaume Rao est professeur dans la faculté des sciences du sport de l’université Aix-Marseille et chercheur à l’Institut des Sciences du Mouvement. Il est directeur de la plateforme Technosport. 

Techniques de l’Ingénieur : Qu’est-ce que la plateforme Technosport ?

Guillaume Rao, Technosport
Guillaume Rao / Crédits : Elea Ropiot

Guillaume Rao : Technosport est un lieu de rencontre entre les industriels, les fédérations sportives et les scientifiques. Les entreprises de matériel sportif et les fédérations viennent nous voir avec des problématiques et l’idée est de se réunir autour d’une table, de manière horizontale, pour trouver des solutions. C’est important pour nous de ne pas prendre une position supérieure de “sachant” mais au contraire d’écouter les besoins, les contraintes et les attentes des acteurs du milieu sportif. Les entraîneurs nationaux par exemple sont des experts de leur pratique, et nous notre rôle est d’amener des bases scientifiques, de générer de la créativité pour réfléchir ensemble à d’autres manières de concevoir un entraînement ou une interaction avec le matériel. Notre but est d’avoir une approche vraiment pluridisciplinaire du mouvement, pour avoir la vision la plus complète possible du sportif en interaction avec son environnement et du matériel.

Comment se passent les collaborations avec les fédérations sportives et les industriels ?

Parfois les fédérations ou les industriels nous contactent avec une problématique, parfois ce sont nous qui les contactons car nous pensons avoir développé au sein du laboratoire quelque chose qui pourrait être utile dans leur activité. Nos étudiants aussi réalisent des stages dans les fédérations, ce qui peut mener à des thèses. L’idée est de déboucher sur un consortium et d’accueillir les athlètes pour réaliser des tests et résoudre la problématique soulevée. Les tests sont réalisés en partie en laboratoire, et en partie en conditions réelles, pour se rapprocher le plus possible de l’écologie de l’activité.

 

La plateforme est équipée d'un gymnase instrumenté, d'un mur d'escalade et de salles de recherche
La plateforme est équipée d’un gymnase instrumenté, d’un mur d’escalade et de salles de recherche / Crédit : Elea Ropiot

Quels types de recherches menez-vous ?

Au niveau du Technosport, nous sommes spécialisés sur les mesures du mouvement humain, avec un accent donné à la biomécanique. Nous couvrons trois volets de recherches. D’abord, la recherche fondamentale pour mieux comprendre le mouvement lui-même et augmenter notre base de connaissance sur le sujet. Ensuite, les recherches sur l’optimisation de la performance des athlètes. Et enfin, l’aspect prévention du risque des blessures. Nous sommes toujours à la recherche du point d’équilibre entre une haute sollicitation mécanique qui va mener à de la fatigue voire à une rupture ou fragilisation, et une insuffisante sollicitation mécanique qui mène à une dégénérescence. Chercher le point d’équilibre permet d’améliorer la structure, sans dépasser la charge critique qui entraîne la blessure. 

Sur quels projets travaillez-vous en ce moment ?

Nous sommes actuellement en train de lancer un projet avec la Fédération française de cyclisme sur la partie optimisation de la performance et risque de blessure en lien avec le matériel. En parallèle, nous avons des projets avec la Fédération française de golf sur le développement des athlètes et de leur swing. Nous développons aussi des projets avec le CREPS PACA sur la formation des entraîneurs. C’est un sujet sur lequel nous intervenons beaucoup, afin de valoriser et transférer au mieux les recherches qui sont faites dans les laboratoires auprès des entraîneurs et des fédérations. Enfin, nous menons divers projets en relation avec des industriels du sport pour développer des produits et améliorer les performances.

Pourriez-vous décrire votre travail avec la Fédération française de golf ?

Le golf est un sport très piloté par la donnée. Certaines, comme les statistiques liées à la progression des joueurs, sont disponibles pendant les tournois. D’autres, comme les données sur le geste lui-même, sont plus complexes à obtenir. Pour cela, il existe différents outils qui mesurent comment chacune des parties du corps va se déplacer dans l’espace, les angles articulaires, les vitesses angulaires, les accélérations, la vitesse de tête de club etc. Il y a aussi un autre aspect primordial dans le golf : les efforts qui sont transmis au sol, donc comment le golfeur va changer ses appuis au fur et à mesure de son coup. Ces données ne sont pas disponibles partout, c’est pourquoi des entraîneurs nationaux sont venus nous demander une base de données du mouvement et des efforts au sol dans différentes situations de coups chez leurs jeunes. Ainsi, leurs jeunes athlètes viennent régulièrement faire des tests et nous mesurons comment leurs coups évoluent. Dans un second temps, nous proposons de nouveaux exercices pour modifier la manière dont le geste est réalisé. Nous ne voulons pas changer la façon de travailler de l’entraîneur mais seulement opposer une vision complémentaire sur la base de nos données pour venir challenger les limites et les points bloquants que lui a déterminé. 

Les athlètes réalisent des tests au sein de la plateforme Technosport
Les athlètes réalisent des tests au sein de la plateforme Technosport / Crédit : Elea Ropiot

Comment a évolué la recherche dans le sport depuis vos débuts ?

Il y a 25 ans, les collaborations entre les universitaires et les industriels n’étaient pas si fréquentes et le côté recherche appliquée n’était pas très bien vu ou encouragé. Aujourd’hui, les collaborations sont valorisées et on peut voir des fédérations entrer dans des laboratoires. Il y a une volonté partagée de se rassembler pour mettre en commun les connaissances de chacun dans un objectif de performance. Il y a une vingtaine d’années, l’approche pluridisciplinaire en science était déjà présente mais plus complexe à mettre en place. Cette évolution des cadres de pensée a fait le jeu de la recherche appliquée car désormais nos recherches peuvent s’appuyer sur la connaissance de l’activité auprès des fédérations, mais aussi sur la connaissance du matériel auprès des industriels, et enfin sur les connaissances scientifiques fondamentales issues des laboratoires. Ces progrès sont le résultat de plusieurs facteurs, notamment la volonté de différents acteurs comme l’INSEP, les fédérations, les universités ou le Ministère.

En parallèle, si la volonté d’une fédération a toujours été d’optimiser la performance de ses athlètes, nous notons aujourd’hui de fortes évolutions sur l’approche pluridisciplinaire de cette quête. Les fédérations souhaitent ainsi pousser tous les curseurs de la performance au maximum. Les approches et donc les recherches touchent aussi bien les équipements, la physiologie, la biomécanique, les neurosciences, les aspects familiaux, la nutrition, le sommeil etc. Il n’y a plus une focalisation sur certains facteurs mais une ouverture à tous les facteurs qui peuvent jouer. 

D’un point de vue éthique, est-il souhaitable de viser l’optimisation totale des athlètes ?

Quand on prend en compte le caractère très complexe des êtres humains, ainsi que tous les derniers cas de burn out et de problèmes mentaux chez les athlètes, la question se pose. D’un côté, on peut se dire que toujours pousser les athlètes n’est pas forcément bon car, si l’inactivité sportive est très mauvaise, on sait aussi que la suractivité sportive n’est pas bonne non plus. De ce point de vue là, peut-être que pousser le corps humain à son maximum de la performance n’est pas une bonne chose. D’un autre côté, les connaissances que nous avons aujourd’hui sur l’activité physique, les programmes de renforcements et certains nouveaux matériaux n’auraient pas été possibles sans les recherches sur le sport de haut niveau. Nos recherches sur le corps humain permettent aussi de grandes avancées en médecine, avec le développement par exemple de prothèses. De la même manière, les athlètes inspirent le grand public, qui va s’inscrire à des cours de sport, ce qui est extrêmement bénéfique. Il est donc difficile d’avoir un avis tranché. 

Comment imaginez-vous le futur de Technosport ?

Je souhaiterais continuer à améliorer le lien entre les fédérations et les universitaires pour fluidifier encore plus les connexions. Ensuite, j’aimerais qu’il y ait davantage de partage de compétences entre les différents laboratoires, à échelle locale et nationale. Enfin, je voudrais poursuivre les projets de recherche pluridisciplinaire et continuer à travailler sur des techniques nouvelles. Aujourd’hui, on parle beaucoup d’intelligence artificielle, mais il y en a beaucoup d’autres.

Propos recueillis par Alexandra Vépierre

Loi AGEC : cinq ans après son adoption, Citeo dresse un bilan en demi-teinte

« Une nouvelle ambition en matière d’économie circulaire. » Voilà, selon Valentin Fournel, ce qu’a permis d’insuffler la fameuse loi « AGEC » – loi anti-gaspillage pour une économie circulaire – promulguée il y a cinq ans presque jour pour jour, le 10 février 2020. Directeur Éco-conception et Réemploi chez Citeo[1], l’expert pointe en effet l’une des avancées majeures apportées par le texte, et plus particulièrement son décret d’application : la mise en place d’une stratégie dite « 3R », pour « Réduction, Réemploi et Recyclage ». « Cette loi est véritablement venue consacrer ce terme des “3R”, qui était encore relativement peu usité, l’accent étant alors principalement mis sur le recyclage, au détriment de la réduction et de réemploi », retrace-t-il dans le cadre d’un point presse organisé le 5 février dernier[2].

Précurseur, le texte a également contribué à faire de la France le leader européen de l’économie circulaire. « On constate d’ailleurs que le règlement européen sur les emballages et les déchets d’emballages (PPWR) [adopté le 16 décembre dernier, n.d.l.r.] s’inspire assez largement de ce qui a été fait en France avec la loi AGEC », note le directeur Éco-conception et Réemploi chez Citeo. Valentin Fournel met finalement en avant une dernière illustration des vertus de ce texte, et pas des moindres : les moyens financiers qu’il a permis de conférer – notamment via les éco-organismes – aux acteurs du secteur, pour leur permettre d’agir en faveur de ces fameux « 3R ».

Si les fondations qu’il a permis d’établir semblent donc solides, force est toutefois de constater que la construction de l’édifice « 3R » est encore loin d’être achevée. « Si l’on observe les résultats atteints pour l’heure, on est, factuellement, encore loin des objectifs fixés par la loi », constate en effet M. Fournel, qui dresse ainsi un bilan mitigé à l’heure où s’achève la première étape de réalisation des objectifs du texte.

Accroître la réduction… Un défi qui reste à relever

Emballages plastiques
Les emballages plastiques à usage unique devront disparaître d’ici à 2040.

Sur le premier des 3R – la réduction –, la loi AGEC a par exemple fixé un objectif de réduction de 20 % des emballages plastiques à usage unique d’ici à fin 2025, et même leur disparition pure et simple à l’horizon 2040. Or, dans les faits, les données disponibles pour l’heure ne semblent pas augurer d’une tendance à la baisse… Un bilan d’étape réalisé en 2023 par l’ADEME montre en effet, au contraire, une augmentation d’un peu plus de 3 % des volumes d’emballages plastiques à usage unique en France entre 2018 et 2021. « Cette tendance à la hausse ne suit donc pas la trajectoire de réduction de 20 % en tonnage fixée pour 2025 et ne va pas dans le sens de l’objectif de fin de mise sur le marché des emballages en plastique à usage unique en 2040, prévu par la loi Agec », notent ainsi les rapporteurs d’une mission d’évaluation de l’Assemblée nationale visant, justement, à dresser un état des lieux des conséquences environnementales, économiques, sociales, juridiques et financières, mais aussi des éventuelles difficultés rencontrées lors de la mise en œuvre de la loi AGEC.

« Ces chiffres montrent que l’on n’a pas encore réussi à découpler évolution du gisement d’emballages et consommation des Français », souligne à son tour l’expert de Citeo. « Or, c’est l’objectif que nous visons : parvenir à découpler la quantité d’emballages mis sur le marché et la quantité de produits achetés par les consommateurs », ajoute-t-il. Une perspective qui ne pourra se concrétiser, selon l’expert, sans inciter – et sans accompagner – les metteurs sur le marché à repenser la fonctionnalité des emballages – en faveur notamment de plus de frugalité[3] – mais aussi en actionnant le deuxième levier des « 3R » : le réemploi.

Le réemploi encore loin du compte

Côté réemploi, c’est un tableau tout aussi mitigé que nous dresse Valentin Fournel : alors qu’un décret fixe des objectifs annuels de mise sur le marché d’emballages réemployés visant à atteindre une part de 10 % d’ici à 2027, l’Observatoire du réemploi estime à 2 % environ le taux de réemploi atteint en 2023, tous emballages confondus, et même à 1,1 % seulement pour les seuls emballages ménagers… « La loi AGEC a malgré tout permis la mise en place de conditions qui devraient permettre le passage à l’action – et à l’échelle – en matière de réemploi », commente M. Fournel. Le texte dispose en effet, notamment, que 5 % des contributions financières perçues par les éco-organismes soient consacrés au réemploi, au travers du lancement d’appels à projets. « Cela nous a ainsi amenés à lancer, en 2023, un vaste appel à projets – “EncoRE plus de réemploi” – qui nous a permis de financer et d’accompagner plus de 140 projets visant à expérimenter diverses solutions », se félicite M. Fournel, qui espère d’ailleurs franchir le seuil des 200, voire des 250 projets pour l’édition 2024 de l’appel à projets, clôturé le 31 décembre dernier.

Contenants verre réemploi
À partir de mai prochain, 30 millions de contenants réutilisables en verre seront mis sur le marché dans quatre premières régions françaises. © Citeo We are the good children

Au-delà de l’expérimentation, la question du passage à l’échelle des solutions de réemploi figure elle aussi au rang des priorités de Citeo. En témoigne notamment le lancement en 2023 par l’entreprise à mission du dispositif ReUse, visant, en substance, à faire des emballages réemployables, une solution compétitive face aux emballages à usage unique. « Nous avons pour cela commencé par travailler avec une quinzaine d’entreprises pionnières – industriels et distributeurs – accompagnées du Réseau Vrac & Réemploi, avant de passer à une cinquantaine d’acteurs puis à l’ensemble de l’écosystème, lors des ReUse Days, qui ont permis de réunir au total plus d’un millier d’acteurs », retrace Valentin Fournel.

Ces étapes désormais franchies, Citeo s’apprête à lancer la phase « d’activation » du dispositif. Prévue pour mai prochain, cette mise à feu va se traduire par la mise sur le marché, dans quatre régions françaises[4], de pas moins de 30 millions d’emballages – bouteilles et pots – standardisés et accessibles en open source aux industriels : les « R-Cœur »[5]. « Nous allons également équiper les magasins en dispositifs de récupération, mais aussi financer et accompagner l’émergence d’un fournisseur de services chargé de gérer cette boucle de réemploi », souligne M. Fournel, qui met également en avant le lancement d’une grande campagne d’information destinée à sensibiliser les consommateurs à ce sujet du réemploi, autre levier majeur à actionner selon l’expert pour faire décoller la pratique. Prévue pour s’étaler sur 18 mois, cette phase d’activation du dispositif ReUse pourrait ainsi aboutir, à terme, à un déploiement à l’échelle nationale. Mais avant d’en arriver là, c’est aussi, en parallèle, le dernier levier de cette stratégie « 3R » qu’il convient de continuer à actionner : le recyclage.

Recyclage : de bons élèves, et d’autres qui doivent mieux faire

Comme les deux autres de ces fameux « 3R », le recyclage présente, en effet, lui aussi, un bilan plutôt mitigé. « La loi AGEC, et la PPWR, ont permis de fixer des objectifs de recyclage par matériaux, ce qui n’était pas le cas auparavant, où un simple objectif mutualisé de 75 % était fixé pour l’ensemble des emballages ménagers », note tout d’abord Valentin Fournel. Des objectifs individualisés, donc, qui se révèlent déjà atteints pour certains matériaux, tels que le verre et l’acier, mais pas pour d’autres, loin s’en faut… « Pour le verre, le taux de recyclage dépasse d’ores et déjà les 85 %, pour un objectif en 2030 de 75 %. Idem pour l’acier, dont le taux de recyclage se situe lui aussi autour de 85 %, et qui dépasse ainsi largement l’objectif de 80 %. Papiers et cartons présentent en revanche, quant à eux, un taux de recyclage certes relativement élevé, de l’ordre de 69 %, mais encore loin de l’objectif de 85 %. Enfin, avec un taux de recyclage de seulement 27 % pour un objectif de 55 % dans cinq ans, les plastiques font figure de mauvais élèves, au même titre que l’aluminium, qui n’est pour l’heure recyclé qu’à hauteur de 37 %, contre un objectif de 60 % en 2030 », énumère M. Fournel, qui met toutefois en avant les conditions globalement favorables au recyclage créées depuis le lancement, en 2012, de l’extension des consignes de tri.

Tri plastiques
Les filières de recyclage continuent de s’étoffer. © Benoît Crépin

Une simplification du geste de tri à laquelle s’est ajoutée une nouvelle organisation du tri à l’échelle hexagonale, au travers, notamment, de la création de centres de surtri. « Suite à cela, nous avons également lancé des appels d’offres à destination des recycleurs, afin de construire de nouvelles filières de recyclage », conclut Valentin Fournel. « Ces filières sont en train de se mettre en place », ajoute-t-il, citant notamment l’exemple du polystyrène et des fameux pots de yaourt qui en sont généralement constitués, mais aussi des films souples en polypropylène, ou encore des barquettes et autres emballages rigides en PET hors bouteilles. Un développement de nouvelles filières de recyclage qui doit toutefois se faire à l’aune de la nécessaire montée en puissance du réemploi et de la réduction évoqués plus haut… Un paradoxe ? Pas pour Valentin Fournel, qui voit en effet dans ces approches des solutions parfaitement compatibles et complémentaires : « Avec l’objectif de réemploi de 10 % fixé pour 2027, les emballages à usage unique ne vont pas disparaître du jour au lendemain. Ces différentes modalités vont donc coexister : ce qui ne sera pas réemployé devra de toute façon être recyclé, et même ce qui peut être réemployé devra également être recyclé un jour ». L’expert de Citeo qui compte également, finalement, sur l’implication du consommateur lui-même : « Nous espérons qu’en 2030, la recyclabilité de tous les emballages soit devenue un acquis, et que cela amène le consommateur à se saisir davantage des deux autres de ces “3R” : réduction et réemploi ». Insufflée il y a un peu plus de cinq ans maintenant, l’ambition de la loi AGEC semble ainsi, aujourd’hui encore, plus que jamais d’actualité.


[1] Entreprise à mission née en 2017 de la fusion des éco-organismes Eco-Emballages et Ecofolio.

[2] Voir également 5 ans de la loi AGEC : des avancées et des défis.

[3] Citeo a notamment déployé à ce sujet un dispositif de signalement des emballages excessifs.

[4] Pays de la Loire, Bretagne, Normandie et Hauts-de-France.

[5]  Citeo a d’ailleurs annoncé ce 10 février, aux côtés du spécialiste de la distribution de boissons et autres produits consignés à domicile « Le Fourgon », la commercialisation de la première bouteille de lait en verre consignée pour réemploi « R-Cœur ».

Nouveau procédé de recyclage pour les déchets textiles en polycoton : un intérêt pour la production de glucose non alimentaire

Comme son nom l’indique, le polycoton est un tissu fabriqué à partir d’un mélange de deux matières : des fibres naturelles de coton bien sûr, et des fibres synthétiques de polyester.

Cette association confère au tissu de nombreux avantages : respirabilité et douceur, mais aussi résistance et légèreté. De fait, le polycoton est aujourd’hui très largement utilisé pour la confection de vêtements et de linge de lit. Il présente cependant un inconvénient majeur : sa composition bi-matière fait qu’il est très difficile à recycler. Or, la « fast fashion » tout comme la baisse générale de la durée de vie des produits textiles ont fait augmenter dramatiquement les volumes de déchets ces dernières années. En 2021, la production globale de fibres textiles avait ainsi atteint un record de 113 millions de tonnes. Elle pourrait même atteindre 149 millions de tonnes en 2030. Avec un taux de recyclage de seulement 1 %, cette production de masse devient un véritable problème environnemental. L’industrie textile se positionne ainsi comme le troisième secteur industriel le plus polluant, derrière l’industrie pétro-gazière et l’agriculture.

Valoriser les déchets de polycoton grâce à un nouveau procédé de séparation du coton et du polyester

Actuellement, la complexité du polycoton fait qu’il est le plus souvent incinéré ou enterré en décharges, au mieux réutilisé dans des matériaux de faible valeur (rembourrage de canapé, isolation pour véhicules, tapis…). La transition vers une économie circulaire et bas carbone nécessite cependant un recyclage avec une séparation complète des différents composants afin de pouvoir valoriser chaque matériau. Mais jusqu’à présent, aucun procédé ne présentait un intérêt industriel suffisant pour être développé plus avant.

Résidus de polyester après retrait des fibres de coton dans un textile polycoton
Résidus de polyester après retrait des fibres de coton dans un textile polycoton © HIMS / Avantium.

Une équipe de chercheurs de l’Université d’Amsterdam, en coopération avec la compagnie Avantium, présente cependant une nouvelle méthode qui pourrait résoudre le problème du recyclage des déchets de polycoton. La séparation du coton des fibres de polyester est ici réalisée en utilisant un acide chlorhydrique superconcentré. La réaction, qui se fait à température ambiante, transforme la cellulose du coton en glucose. Un composé facilement valorisable, car il peut être utilisé comme matière première pour la production de matériaux biosourcés (polymères, résines, solvants…). Une fois le coton retiré du textile, il ne reste plus dans celui-ci que le maillage en polyester intact, qui peut quant à lui être facilement recyclé suivant des procédés déjà existants.

Une production de glucose à partir de ressources non alimentaires

« Être capable de récupérer du glucose à partir du coton contenu dans les déchets textiles est une contribution importante » pour le passage à une économie renouvelable et biosourcée, affirme Gert-Jan Gruter, professeur à l’Université d’Amsterdam dans le groupe Industrial Sustainable Chemistry. « Actuellement, le glucose est produit à partir d’amidon de maïs et de blé ». Or, produire des plastiques à partir de ressources alimentaires est problématique. Le glucose issu du recyclage du polycoton présente donc un intérêt majeur dans ce contexte. D’autant plus que la ressource ne manque pas.

Les détails du procédé sont décrits dans un article publié par Nature communications. Le rendement en glucose apparaît assez élevé, ce qui en fait un procédé rentable pour l’industrie. Avantium, compagnie spécialisée dans la conversion de matières premières végétales non alimentaires (le bois par exemple) en glucose et lignine, indique d’ailleurs que le glucose issu du recyclage du polycoton pourrait par exemple être utilisé pour produire du FDCA (2,5-furandicarboxylic acid), un composant crucial pour la production de PEF, un polyester biosourcé, qui représente une alternative au PET actuellement utilisé pour la fabrication des bouteilles plastiques.

« Les analyses techno-économiques apparaissent plutôt favorables et Avantium a déjà investi de façon substantielle dans le développement de ce procédé », explique Gert-Jan Gruter, co-auteur de l’étude, dans un communiqué. Des résultats encourageants, qui pourraient déboucher sur la commercialisation de grandes quantités de glucose d’origine non alimentaire.

Un constructeur chinois va-t-il sauver les usines allemandes de Volkswagen ?

Volkswagen va-t-il s’allier avec un constructeur chinois pour éviter la fermeture de ses usines en Allemagne ? Ce qui n’était qu’une rumeur devient de plus en plus plausible. Oliver Blume, le patron du groupe automobile allemand, a récemment confirmé que des discussions étaient en cours. Ce scénario pourrait permettre au premier constructeur automobile européen de résoudre son problème de surcapacité de ses moyens de production en Europe, estimée à 500 000 véhicules par an. Il lui offrirait aussi la possibilité de baisser ses coûts et d’améliorer sa rentabilité, tout en calmant la fronde des syndicats, opposés à toutes fermetures de site.

Selon Reuters, deux usines tout particulièrement seraient au centre des discussions. Celle de Dresde, qui emploie 340 personnes et fabrique la Volkswagen ID.3 électrique, dont la production est assurée jusqu’à fin 2025. Et celle située à Osnabrück qui devrait continuer à fabriquer la T-Roc Cabrio jusqu’à 2027 et emploie 2300 personnes. Le prix de chacun de ces sites est estimé entre 100 et 300 millions d’euros et Volkswagen serait prêt à les vendre.

Mais un tel rachat se révèle très sensible politiquement et face au tollé qu’il pourrait provoquer, l’idée d’une coentreprise paraît une alternative plus crédible. D’ailleurs, Volkswagen est déjà partenaire de plusieurs constructeurs chinois, tels que JAC, FAW, SAIC (MG) et Xpeng. Mais rien ne dit que le repreneur sera l’un de ces quatre constructeurs et une nouvelle alliance pourrait être créée avec un concurrent chinois qui ambitionne de conquérir le marché européen, à l’image de BYD.

S’implanter en Europe pour contourner les droits de douane de l’UE

L’arrivée d’un constructeur chinois dans une usine Volkswagen paraît malgré tout contre-nature, étant donné que les difficultés du groupe allemand viennent en partie de la concurrence chinoise. Une telle hypothèse peut constituer une menace supplémentaire pour la compétitivité des constructeurs européens. Car pour éviter l’arrivée massive de voitures électriques low-cost chinoises sur le continent, l’UE a récemment instauré des droits de douane supplémentaires sur les voitures construites en Chine, dont le total peut aller jusqu’à 45 %. Mais ces nouveaux tarifs douaniers ne s’appliqueront pas dès lors que les véhicules chinois seront fabriqués sur le territoire de l’UE.

Ce scénario, s’il se concrétise, n’est pas sans rappeler la stratégie de Stellantis, qui après avoir noué un partenariat avec le constructeur automobile chinois Leapmotor, lui a ouvert les portes de son usine en Pologne pour qu’il fabrique un premier modèle de véhicule électrique. Selon Reuters, il ne serait plus question de poursuivre la fabrication d’un second modèle sur ce site, mais plutôt d’envisager d’utiliser une usine Stellantis à Eisenach, en Allemagne, qui produit des modèles Opel, et d’une usine en Slovaquie.

Ce changement de site de production serait lié à une intervention du gouvernement chinois qui a demandé à ses constructeurs automobiles de cesser leurs investissements dans les pays européens qui ont soutenu l’imposition de droits de douane supplémentaires sur les véhicules électriques fabriqués en Chine. Or, la Pologne fait partie des 10 membres de l’UE qui ont soutenu cette décision, au contraire de l’Allemagne et de la Slovaquie, qui font partie des cinq pays qui se sont opposés à ces tarifs douaniers. Ce qui laisse à penser que la Chine ne s’opposera pas à la fabrication de véhicules chinois dans les usines Volkswagen en Allemagne.

La croissance du trafic aérien risque d’annuler les efforts de décarbonation du secteur

En se basant sur les projections de croissance des deux constructeurs aéronautiques Airbus et Boeing, T&E (Transport & Environment) a réalisé une étude dans laquelle l’ONG belge prévoit que le trafic aérien de passagers au départ des aéroports de l’UE va plus que doubler en 2050 comparé à 2019. Celui-ci devrait croître à un rythme de plus de 5 % jusqu’en 2027, puis connaître une progression plus modérée autour de 2,5 %. « Une telle croissance incontrôlée pourrait faire dérailler les objectifs climatiques de l’aviation et soulève de sérieuses inquiétudes quant à la demande croissante d’énergie du secteur et à son impact sur le climat », alerte T&E.

Malgré des moteurs plus efficaces, des avions mieux conçus et une optimisation de la manière dont ils sont exploités, la consommation de carburant des aéroports européens devrait en effet augmenter de 59 % en 2050 pour répondre à la demande croissante pour ce mode de transport. Or, cette consommation, qui progressera en moyenne annuelle de 2,1 % par an entre 2023 et 2050, risque de rendre « de plus en plus difficile le déploiement de technologies vertes capables de réduire les émissions du secteur », déplore T&E.

Même en respectant l’objectif du règlement européen ReFuelEU Aviation, qui impose d’incorporer une part croissante de carburants durables dans le kérosène, jusqu’à atteindre 42 % en 2049, l’ONG environnementale estime que le secteur devrait brûler autant de kérosène fossile à l’horizon 2050 qu’en 2023. Dans 25 ans, selon ses projections, les appareils au départ de l’Europe devraient en effet continuer à consommer environ 21,1 millions de tonnes de kérosène.

Face à cette augmentation de la consommation de carburants, T&E pointe également du doigt le risque d’une dépendance excessive aux biocarburants, qui pourrait entraîner l’utilisation de matières premières non durables. Si des huiles de cuisson usagées, des graisses animales, de la biomasse de déchets ou de boues d’épuration peuvent être utilisés sans restrictions pour fabriquer des carburants durables, ce n’est pas le cas par exemple des résidus agricoles. Or, le risque est que cette matière première soit de plus en plus utilisée pour faire face à la demande, au détriment de la santé des sols.

585 TWh d’électricité renouvelable nécessaires pour produire du e-kérosène en 2050

Selon T&E, « à partir de 2035, il n’y aura plus suffisamment de matières premières durables pour répondre à l’obligation de l’UE en matière de biocarburants dans l’aviation. » Elle ajoute que « d’ici 2050, quatre litres de biocarburant sur cinq fournis pourraient provenir de matières premières qui ne sont pas véritablement durables. »

Pour faire face aux besoins croissants de carburant, le secteur aéronautique pourra également se tourner vers le kérosène de synthèse, fabriqué à partir d’hydrogène vert et de carbone. L’UE exige d’ailleurs d’en mélanger 35 % dans le carburant du secteur aéronautique d’ici 2050. Mais là encore, ce n’est pas sans engendrer des difficultés, puisque T&E estime qu’il faudra 24,2 millions de tonnes de kérosène de synthèse à cette échéance, ce qui nécessitera 585 TWh d’électricité renouvelable pour fabriquer l’hydrogène vert. « C’est plus que la demande totale d’électricité de l’Allemagne en 2023, et cela représenterait environ 10 % de l’électricité éolienne et solaire totale qui devrait être produite dans l’UE d’ici 2050. »

Alors que l’UE s’est engagée à atteindre zéro émission nette de gaz à effet de serre en 2050, T&E estime qu’en 2049 l’aviation européenne pourrait émettre entre 3 % de moins et 24 % de plus de CO2 qu’en 2019. Des prévisions très éloignées de celles de la Commission européenne, qui prévoit une croissance annuelle du trafic aérien européen inférieure de 60 % aux projections de croissance d’Airbus et de Boeing en 2040.

Face à ces nouvelles perspectives, l’ONG belge recommande aux gouvernements de l’UE de cesser d’approuver l’expansion des infrastructures aéroportuaires qui ont pour effet d’alimenter la croissance du trafic. Elle demande également la révision de la directive européenne sur la taxation de l’énergie afin de supprimer « l’exonération fiscale dont bénéficie l’aviation pour l’utilisation du kérosène, alors que les citoyens et les entreprises doivent payer des taxes sur le carburant qu’ils utilisent pour leurs voitures, leurs maisons et leurs bâtiments professionnels ». Elle préconise aussi le soutien au déploiement de carburants véritablement durables et enfin de maximiser le potentiel des chemins de fer européens.

PFAS : des résidus un peu partout dans l’eau du robinet

Les substances per- et polyfluoroalkylées (PFAS), ces « polluants éternels », font décidément bien parler d’eux en ce moment. Dans une nouvelle étude, les associations Générations Futures et l’UFC-Que Choisir ont analysé 33 PFAS dans l’eau potable de 30 communes françaises. La recherche comprend notamment les 20 PFAS qui devront faire l’objet d’une surveillance dans l’eau potable au plus tard en 2026, et le TFA, un métabolite de pesticides (traité à part). Et elles n’ont pas été déçues : 29 prélèvements contiennent des PFAS.

Les résultats de l’étude sont limpides : l’eau potable compte divers résidus de PFAS. « Certaines zones, comme Tours ou les environs de Rouen, présentent un véritable cocktail chimique, avec respectivement 10 et 11 PFAS différents relevés dans un seul prélèvement », prévient le communiqué de l’étude.

Des prélèvements conformes à la future norme française, mais…

Les limites de qualité pour 2026 sont fixées en France à 100 ng/L pour la somme des concentrations de 20 PFAS dans les eaux destinées à la consommation humaine. « Ces concentrations en PFAS (hors TFA) restent conformes à la norme choisie par la France », reconnaissent les associations. Ces dernières soulignent toutefois que ces normes sont « bien moins strictes que celles d’autres pays », dans lesquels il existe des seuils spécifiques pour les PFAS les plus dangereux.

Ainsi, les associations pointent du doigt que 6 prélèvements sont non conformes à la norme américaine (4 ng/L pour le PFOA et 4 ng/L le PFOS). L’étude a notamment relevé 22 ng/L en PFOS à Rouen, 5 ng/L en PFOS à Amiens. En plus, 15 prélèvements sont non conformes à la future norme danoise sur les PFAS, encore plus stricte (2 ng/L pour la somme de 4 molécules spécifiques : PFOA, PFOS, PFNA et PFHxS). Un prélèvement à Bordeaux relève par exemple 9,5 ng/L pour ces molécules, un autre à Lyon 7,1 ng/L.

Parmi les PFAS les plus problématiques, les PFOA, PFOS, PFNA et PFHxS sont des substances toxiques avec des effets potentiels multiples sur la santé. Citons des effets de perturbateurs endocriniens, risques accrus de cancers et maladies cardiovasculaires, bioaccumulation dans l’organisme et persistance dans l’environnement.

Le TFA, un PFAS à part, également résidu de pesticide

Le TFA, un autre PFAS, également résidu de certains pesticides, a été traité à part dans cette étude. Il a ainsi été détecté dans 24 prélèvements sur 30, notamment à Paris ou dans des communes des agglomérations de Poitiers et Orléans. « Les concentrations de TFA détectées excéderaient la limite applicable aux pesticides dans 20 prélèvements sur 30, précise le communiqué de l’association. Une situation d’autant plus préoccupante que cette substance n’est pas recherchée dans les contrôles réglementaires en France ».

Il existe bien une limite de 100 ng/L pour chaque pesticide ainsi qu’à ses produits de dégradation évalués comme pertinents par l’Anses. Cela n’est pas le cas du TFA « malgré plusieurs demandes de Générations Futures », insiste l’association. Elle renouvelle sa demande d’évaluation du danger induit par le TFA et de l’intégrer au plan de contrôle de l’eau du robinet.

L’UFC-Que-Choisir et Générations futures demandent désormais aux parlementaires de voter la proposition de loi déposée par le député Nicolas Thierry (Groupe écologiste et social). Cette proposition de loi visant à restreindre la fabrication et la vente de produits contenant des PFAS a été approuvée par l’Assemblée nationale en première lecture le 4 avril dernier, puis au Sénat le 30 mai. Le texte sera examiné en deuxième lecture à l’Assemblée nationale le 20 février prochain.

L’informatique quantique sans erreur facilitera la recherche

Dans un article scientifique intitulé « 100 000 x moins de ressources pour la solution photonique de Quandela », cette start-up française, fondée en 2017, a annoncé une avancée majeure dans l’informatique quantique photonique.

En quoi consiste cette « mise à l’échelle inédite dans le secteur » avancée par Quandela ? Elle « repose sur la réduction du nombre de composants nécessaires pour les calculs tolérants aux fautes par un facteur de 100 000. Via des dispositifs spin-photon intégrés à des semi-conducteurs, ce procédé permet de générer des qubits photoniques avec une efficacité sans précédent, réduisant les coûts de production et la consommation d’énergie des plates-formes quantiques », peut-on lire dans un communiqué publié le 7 février.

Il existe plusieurs techniques quantiques : ions piégés, atomes neutres, spins de silicium… Chaque méthode de calcul quantique présente des avantages distincts. Mais la piste retenue par Quandela présente deux intérêts majeurs.

À la différence des superconducteurs qui ne peuvent travailler que dans un environnement proche du zéro absolu (- 450 °F), l’approche photonique du français fonctionne à température ambiante.

Des ordinateurs quantiques en réseau

Ce n’est pas son seul intérêt. Elle permet surtout de répondre aux défis de la correction d’erreur et du passage à l’échelle tels que la factorisation en nombres premiers, la résolution de systèmes linéaires et les simulations chimiques.

L’informatique quantique deviendrait ainsi plus efficace que les ordinateurs « classiques » dans des secteurs complexes et sensibles comme l’énergie, la pharmacie, la chimie ou la défense.

Rappelons en effet que les ordinateurs classiques traitent les informations en utilisant des bits qui ne peuvent être que dans l’un des deux états – 0 ou 1. Les ordinateurs quantiques utilisent des bits quantiques (qubits) qui peuvent exister dans plusieurs états simultanément à travers un phénomène appelé superposition.

Un ordinateur quantique avec 300 qubits pourrait théoriquement effectuer plus de calculs instantanément qu’il n’y a d’atomes dans notre univers visible – les échelles de puissance de calcul exponentiellement.

Mais pour y arriver, il faut réduire drastiquement le nombre d’erreurs tout en augmentant la capacité de calcul. Le plus gros problème réside dans le maintien de ce qu’on appelle « la cohérence quantique ». Les qubits doivent rester stables suffisamment longtemps pour effectuer les calculs. Or, les facteurs environnementaux peuvent provoquer la décohérence en quelques fractions de seconde.

Comme les super calculateurs qui sont mis en réseau pour augmenter leur puissance de calcul, les processeurs quantiques doivent être interconnectés. Un objectif plus facilement atteint avec la photonique dont les qubits sont plus robustes. Elle permet à la fois de transporter l’information quantique de manière quasiment infinie, mais, surtout, elle permet d’interconnecter les processeurs quantiques via des fibres optiques commerciales.

« Cette avancée marque une étape importante pour le calcul à correction d’erreurs avec la plate-forme photonique. En réduisant drastiquement les ressources nécessaires tout en maintenant les avantages intrinsèques de l’approche photonique, nous ouvrons la voie à une industrialisation réaliste du calcul quantique tolérant aux fautes. Notre approche hybride unique démontre que Quandela est en mesure d’accélérer significativement le passage à l’échelle des ordinateurs quantiques, un enjeu crucial pour l’ensemble de l’industrie », déclare Niccolo Somaschi, cofondateur et Directeur général de Quandela.

BioUpp ou comment stocker de l’électricité renouvelable et exploiter le CO2 biogénique

L’histoire de BioUpp commence avec Pierre Fontanille, enseignant-chercheur à l’Université Clermont Auvergne (Polytech Clermont-Ferrand / Institut Pascal, UMR 6602 – UCA/CNRS) et gérant d’un bureau d’étude sur la méthanisation depuis 2016. « Nous travaillons sur les innovations autour de la méthanisation. L’un de nos objectifs était de trouver des solutions pour utiliser le CO2 biogénique, celui produit par la décomposition des plantes dans les méthaniseurs. Nous nous sommes donc penchés sur la méthanation, qui ne possède pas encore de technologie industrielle », explique le chercheur. Dès 2018 les équipes œuvrent sur ce procédé, ou comment synthétiser du méthane grâce à la réaction entre du dihydrogène et du dioxyde de carbone. Après six ans de labeur, Pierre Fontanille et ses collaborateurs ont développé une technologie « robuste, simple et performante de méthanation ». Elle emploie un catalyseur biologique, un microorganisme. « En plus de la sélection d’une souche très efficace, nous avons aussi créé un désign de réacteur. Notre système est peu énergivore, car il ne nécessite pas d’agitation mécanique. La technologie possède un rendement de conversion du CO2 en méthane de 90 % », se félicite Pierre Fontanille. En septembre 2024, le projet est lauréat du concours d’innovation de l’État i-Lab 2024 organisé conjointement par le ministère de l’Enseignement supérieur et de la Recherche et Bpifrance. Il reçoit alors un financement de 375 000 euros pour accélérer le développement industriel. Dans la continuité, BioUpp est officiellement créée en octobre, avec à sa tête Nadia Auclair, CEO de la société.

Stocker l’hydrogène

La technologie proposée par BioUpp utilise le principe de méthanation : des catalyseurs biologiques complexent du dioxygène de carbone (CO2) avec du dihydrogène (H2) pour produire du méthane (CH4). « Nous récupérons le CO2 sur les unités de méthanisation. Habituellement, ces installations séparent le méthane du dioxyde de carbone qui est relargué dans la nature. Le méthane est ensuite injecté dans le réseau de gaz », explique le cofondateur.

L’hydrogène, quant à lui, provient des unités de production d’énergie renouvelable. L’éolien ou le photovoltaïque, par exemple, ne fabriquent pas en continu et l’énergie créée n’est pas toujours consommée immédiatement. Il faut donc stocker cette électricité. « Nous proposons de convertir cette énergie en hydrogène grâce à l’électrolyse de l’eau. C’est encore une filière en développement avec des rendements autour de 40 %, mais c’est un domaine d’avenir », soutient Pierre Fontanille. BioUpp veut alors convertir cet hydrogène en méthane, qui peut être stocké ou injecté directement dans les réseaux de gaz naturel.

Petit à petit vers l’industrialisation

Aujourd’hui BioUpp exploite un pilote d’une vingtaine de litres, mais passera bientôt à des réacteurs de 300 à 500 L grâce au financement de i-Lab. « Nous envisageons d’utiliser un démonstrateur industriel d’ici 2027. Nos clients seront soit les producteurs d’électricité renouvelable : parcs éoliens ou solaires ; ou les méthaniseurs qui émettent du CO2 biogénique. Il nous faudra nous rapprocher soit de la source d’hydrogène, soit de celle de dioxyde de carbone », explique le cofondateur.

Le siège de la start-up est actuellement à Clermont-Ferrand. BioUpp emploie cinq personnes dont trois travaillent à la R&D.

Fraude aux eaux minérales : la polémique enfle

La réglementation est claire : les eaux minérales naturelles doivent conserver leur « pureté originelle ». Elles sont en principe microbiologiquement saines et ne contiennent pas de pesticides, de résidus de médicaments ou d’autres micropolluants. Le Code de la Santé publique n’autorise donc qu’un nombre très limité de traitements physiques (filtration supérieure à 0,8 µm et décantation) pour éliminer certains composés tels que le fer ou l’arsenic présents naturellement dans les eaux. Le recours à des systèmes de purification tels que des filtres à charbon ou des filtres UV est strictement interdit.

Mais dans les faits, les choses ne sont plus si simples. En janvier 2024, l’enquête menée par la cellule investigation du journal Le Monde et de Radio France faisaient l’effet d’une bombe. Au moins un tiers des marques françaises, notamment celles de Nestlé Waters, avaient recours à des traitements interdits pour purifier leurs eaux minérales. Au menu : de la filtration sur charbon actif, de la microfiltration inférieure aux seuils autorisés et des filtres UV. Nestlé Waters France reconnaît rapidement les faits.

Ces pratiques visaient à éliminer des contaminants microbiologiques et chimiques présents dans les sources, notamment des bactéries et des traces de polluants chimiques (métabolites de pesticides, perchlorates, perfluorés…). La mise en place de ces traitements relèverait d’une tromperie pour continuer à exploiter des captages contaminés.

Une tromperie avec l’aide de l’État ?

De nouvelles révélations de la cellule investigation de Radio France et Le Monde publiées mardi 4 février 2025 montrent que le groupe Nestlé a réussi à mettre en place ces pratiques illégales avec l’aval du gouvernement. Grâce à l’analyse de « notes ministérielles, échanges de mails, compte-rendu de visites d’inspection », la cellule qualifie le dossier d‘« une entente secrète entre l’État français et une multinationale ».

Les révélations montrent que l’Élysée et Matignon ont ouvertement accordé une dérogation au groupe agroalimentaire pour utiliser des filtres jusqu’à 0,2 µm. Et ce, malgré l’opposition de la direction générale de la santé, et du ministère de la Santé, pour qui cette demande n’était « pas acceptable ». Dans la foulée de cette divulgation, en marge d’un déplacement, Emmanuel Macron a toutefois assuré : « Il n’y a de l’entente avec personne, il n’y a pas de connivence avec qui que ce soit ».

En décembre 2024, une commission d’enquête sénatoriale a été lancée pour faire la lumière sur « les pratiques des industriels de l’eau en bouteille et les responsabilités des pouvoirs publics dans les défaillances du contrôle de leurs activités et la gestion des risques économiques, patrimoniaux, fiscaux, écologiques et sanitaires associés », à l’initiative du groupe Socialiste, Écologiste et Républicain. Son rapporteur, le sénateur PS de l’Oise, Alexandre Ouizille, estime de son côté sur France Info que des services ont été impliqués à tous les étages de l’État, y compris à l’Élysée. Il va proposer à la commission qu’elle aille « auditionner du côté de l’Élysée pour aller au bout de la vérité ».

Revue du Magazine d’Actualité #20 : du 3 au 7 février

De la découverte en laboratoire à l’innovation industrielle… On scrute pour vous chaque semaine les tendances de l’industrie.

Batteries et Innovation : un enjeu stratégique pour l’industrie

Face à la demande croissante en stockage énergétique, les batteries sont au cœur de l’innovation technologique. Cet article vous plonge dans les enjeux et les avancées qui redéfinissent leur rôle dans notre société.
Le rôle des batteries dans la transition énergétique

Semaine pour l’action sur l’IA : entretien avec notre expert IA, Jean-Paul Haton

Jusqu’au 11 février, une série d’événements à Paris explore comment l’intelligence artificielle peut répondre aux grands enjeux sociétaux. À cette occasion, nous avons rencontré un expert qui suit l’évolution de l’IA depuis ses débuts et un de ses articles est en accès libre.
Une semaine sur les défis éthiques de l’IA

Trump 2 : une industrie sous influence Pétrole, gaz, IA et protectionnisme…

À peine réélu, Donald Trump redessine le paysage industriel et technologique mondial. Entre le grand retour des énergies fossiles, ses alliances avec la Tech et sa politique commerciale offensive, le président américain impose sa vision, quitte à bouleverser les équilibres. Jusqu’où ira son emprise ?
Fossiles, géants de la Tech, vision protectionniste, quels impacts sur l’industrie ?

Photovoltaïque et éolien : la France à la traîne malgré des coûts compétitifs

Les énergies renouvelables sont aujourd’hui les solutions les plus économiques pour produire de l’électricité. Pourtant, la France accuse un retard préoccupant dans leur déploiement. Quelles sont les raisons de ce décalage et les mesures nécessaires pour atteindre les objectifs de la nouvelle programmation pluriannuelle de l’énergie.
Rattraper le retard français en énergies renouvelables

EPR de Flamanville : les défis financiers coût du lancement du réacteur

Alors que le réacteur EPR de Flamanville commence à produire ses premiers électrons, la Cour des comptes alerte sur sa rentabilité médiocre et ses coûts exorbitants. On fait le point sur les enjeux financiers et techniques de ce projet phare du nucléaire français.
Les enjeux du réacteur EPR : entre ambitions et réalités

Optimisation des métamatériaux : une avancée en nano-architecture

L’optimisation des métamatériaux par machine learning marque une étape clé dans le développement de la nano-architecture. En combinant résistance et légèreté, ces nouveaux matériaux pourraient transformer les industries automobile et aérospatiale, réduisant la consommation de carburant et améliorant l’efficacité.
Comment le machine learning transforme la nano-architecture ?

DeepSeek : l’OVNI chinois qui secoue l’IA

Coup de tonnerre dans le monde de l’intelligence artificielle. « DeepSeek : l’IA qui révolutionne le secteur », « Comment DeepSeek a réussi à développer un modèle d’IA low cost et performant », « DeepSeek, une menace fantôme pour Wall Street ? », etc. Le concurrent chinois de ChatGPT, appelé Web Chat, a fait la Une des médias fin janvier.

Depuis, le soufflé est un peu retombé, car de nombreux experts ont analysé et testé cette solution développée par DeepSeek, une start-up chinoise fondée en 2023 et détenue par High-Flyer, un fonds d’investissement spéculatif. Elle compte environ 200 personnes, soit plus que le Français MistralAI qui propose notamment « Le Chat », l’équivalent de ChatGPT[1] développé par l’américain OpenAI.

Parmi les annonces qui ont le plus marqué les spécialistes de l’IA : les coûts extrêmement bas annoncés par les Chinois. Pour DeepSeek v3, le budget de calcul serait de 5,6 millions de dollars alors qu’OpenAI mettrait dix fois plus de dollars !

« Le montant annoncé [serait] tout à fait plausible… si DeepSeek louait ses serveurs à des acteurs spécialisés pendant deux ou trois ans, à deux dollars par GPU par heure. (…)  Mais ce budget n’inclut pas les expérimentations, les salaires des employés et experts, ainsi que les travaux de raffinement des données », précise le journaliste Gaétan Raoul, sur le site LeMagIT.

Ce n’est pas la taille des LLM qui compte…

Face aux sanctions américaines sur l’export des puces IA vers la Chine, DeepSeek a dû optimiser ses GPU NVIDIA H800, malgré une bande passante limitée. Les Chinois ont accès à 11 100 GPU Nvidia A100 d’anciennes générations en plus d’un lot de 2 048 GPU Nvidia H800, des versions amoindries des GPU H100, plus modernes.

En clair, alors que d’autres laboratoires entraînent des modèles toujours plus vastes, DeepSeek adopte une stratégie de distillation avec des IA ultra-optimisées pour des tâches précises (dont la communication inter-puces), ce qui réduirait également la consommation énergétique.

L’approche est en effet différente. Avec ChatGPT, tous les paramètres sont activés à chaque requête. Avec DeepSeek, seuls les « experts » pertinents sont activés à chaque requête.

Imaginons une salle avec 100 experts. ChatGPT interroge tout le monde, même ceux hors sujet. DeepSeek ne sollicite que les plus compétents, optimisant la charge de calcul et les performances.

DeepSeek prouve que l’avenir de l’IA n’est pas seulement dans la taille des modèles, mais dans l’optimisation intelligente et ciblée.

La seconde annonce qui a interpellé les spécialistes est l’affirmation selon laquelle DeepSeek est une rupture technologique. La réalité est moins séduisante. Les Chinois exploitent ce qu’on appelle des « experts », c’est-à-dire des petits réseaux de neurones qui traitent certains sujets (grammaire, mathématiques, histoire, etc.).

DeepSeek a aussi déployé la prédiction multitoken. Cette approche vise à prédire plusieurs mots à la fois, et non plus un seul. En fait, ces deux techniques sont déjà utilisées par Google, MistralAI et Microsoft depuis quelques années. Enfin, certains experts et OpenAI soupçonnent la start-up chinoise d’avoir exploité ses modèles à travers ChatGPT pour obtenir des réponses plus pertinentes.

Mais au final, la principale question qui intéresse le grand public, mais aussi des entreprises, est « Web Chat de DeepSeek est-il plus performant que ChatGPT ? ». Dans l’ensemble, les résultats sont assez proches entre la solution d’OpenAI, de MistralAI, ou encore de Claude d’Anthropic (une entreprise américaine fondée en 2021 par d’anciens membres d’OpenAI).

Mais, ce n’est pas toujours le cas et certains sujets restent très sensibles : les événements de la place Tian’anmen en 1989, le sort des Ouïghours (la Chine est accusée d’avoir commis des crimes contre l’humanité à l’encontre de la population ouïghoure et d’autres groupes ethniques)…

Reste la question de la confidentialité des données. DeepSeek stocke les informations sur des serveurs chinois. Certains pays (Taïwan, l’Italie, l’Australie…) ont d’ores et déjà interdit cette solution. Les autorités belges, irlandaises et françaises vont demander des précisions à cette start-up.


[1] ChatGPT

Nano-architecture : l’association gagnante du machine learning et de la nano-impression 3D

La nano-architecture se caractérise par des matériaux constitués de nombreux blocs minuscules. Ces derniers ne font que quelques centaines de nanomètre. Il en faudrait plus de 100 rangés sur une même ligne pour atteindre l’épaisseur d’un cheveu ! Située à la frontière des métamatériaux, la nano-architecture est devenue une référence de par ses performances mécaniques reconnues. Néanmoins, la géométrie conventionnelle des designs actuels montre de mauvaises distributions de pression induisant des fractures prématurées. Une équipe de recherche internationale menée par le professeur en ingénierie Tobin Filleter, de l’Université de Toronto (Canada), a eu l’idée d’optimiser la conception en nano-architecture via le machine learning – ou apprentissage automatique. Le résultat de leur travail a été publié le 23 janvier 2025 dans le journal Advanced Materials.

Nano-architecture : la résistance de l’acier et la légèreté de la mousse

Dans leur étude, Tobin Filleter et ses collègues ont usé d’une méthode d’optimisation en machine learning dite bayésienne. Elle s’appuie sur des modèles probabilistes afin de trouver les bons paramètres – ici, les meilleures géométries possibles. Une fois le modèle de nano-architecture optimisé, la conception s’est faite à l’aide de l’impression 3D par polymérisation à deux photons. Cette technique de fabrication additive permet d’obtenir des éléments d’une taille caractéristique inférieure au micron ! En sortie, les scientifiques ont pu recueillir un matériau poreux synthétique composé de blocs de carbone nanométriques placés dans un réseau ordonné. Ce métamatériau carboné d’une surface de 14 mm3 comptait ainsi 18,75 millions de cellules mises en réseau.

Lattice-geometry
De gauche à droite : géométrie du réseau complet juxtaposée à un réseau de 18,75 millions de cellules flottant sur une bulle. Crédits : Photographie de Peter Serles/University of Toronto Engineering.

L’optimisation de la conception du nanoréseau a permis l’amélioration de sa résistance et de son module de Young (mesurant la rigidité d’un matériau face à une déformation uni-axiale) de 118 % et 68 % respectivement. Sans compter la réduction du diamètre des entretoises à seulement 300 nanomètres, ce qui produit un carbone à haute résistance. Résultat : la résistance spécifique (la résistance du matériau divisée par sa densité) du nanoréseau atteignait 2,03 MPa.m3.kg-1 pour des densités faibles (< 215 kg.m-3). Une valeur près de cinq fois supérieure à celle mesurée pour le titane ! Le nouveau métamatériau associe donc une résistance type de l’acier au carbone à une densité équivalente à celle de la mousse de polystyrène expansé. Cela promet dans le futur un allègement des véhicules et donc une réduction de la consommation de carburant dans les domaines de l’automobile et de l’aérospatial.

Trump et la Tech : entre soutien, pouvoir et soumission

Le 21 janvier 2025, au lendemain de l’investiture de Trump, trois dirigeants de la Tech (Oracle, Open AI et SoftBank) dévoilaient le projet Stargate, un programme de 500 milliards de dollars sur 5 ans et qui servira au financement des infrastructures nécessaires au développement de l’intelligence artificielle.

Enthousiaste, Trump a ainsi qualifié Stargate de « plus gros projet d’infrastructure dédiée à l’IA de l’histoire » et qui créera « quasi immédiatement plus de 100 000 emplois » aux États-Unis.

Il a aussi précisé que les sommes investies par ces entreprises « sont de l’argent qui, normalement, serait allé à la Chine ou à d’autres pays, mais plus particulièrement à la Chine. »

Car l’enjeu est bien là : freiner le développement de la Chine en matière de technologies et notamment d’IA, une obsession qui est d’ailleurs l’un des rares points communs entre les politiques de Trump et Biden.

L’IA selon Trump : surpasser le reste du monde, sans contrainte éthique

Mais la comparaison s’arrête là, car l’abrogation du décret exécutif 14110 du 30 octobre 2023, visant à réguler l’IA, a fait partie des premières mesures de la nouvelle administration Trump. Pour rappel, cette réglementation devait permettre de limiter les risques de l’IA en matière de sécurité et de transparence et soutenir un usage responsable et éthique de la technologie.

Aux yeux des républicains, en plus de freiner l’innovation, ce texte était par ailleurs perçu comme vecteur d’une « vision gauchiste qui entrave le potentiel économique de l’intelligence artificielle. »

Selon Trump, le nouveau décret qu’il vient de signer vise donc à « développer des systèmes d’IA exempts de tout parti pris idéologique ou d’agendas sociaux artificiels. »

En clair, Trump veut lever tous les garde-fous, malgré les préoccupations qui émergent au sujet des risques de biais et de discrimination liés à l’IA, afin de surpasser le reste du monde sur ce secteur.

Malheureusement, c’était sans compter sur l’arrivée de l’IA chinoise DeepSeek, perçue comme une humiliation de par ses coûts de fonctionnement bien moins élevés, en comparaison avec ses concurrents américains.

Les géants de la tech américaine renient leurs idées progressistes pour plaire à Trump

Il y a quelques mois encore, les GAFAM arboraient fièrement leurs programmes de Diversité, Équité et Inclusion (DEI). Mais pour obtenir le soutien de Trump, le secteur de la Tech a dû prêter allégeance et opérer un revirement complet.

L’exemple de META est certainement le plus flagrant, puisque la décision d’abandonner les efforts DEI du groupe coïncide avec l’abandon de leur technologie de vérification des faits et de filtrage des contenus. Rappelons au passage qu’il y a peu, Trump qualifiait Mark Zuckerberg d’« ennemi du peuple » et lui promettait « la prison à vie » s’il « complotait à nouveau. »

Depuis le retour de Trump, les relations semblent s’être néanmoins apaisées, mais META a dû faire beaucoup de concessions. En plus de mettre fin à ses programmes DEI et de fact-checking, le groupe a versé 25 millions de dollars de dédommagement à Donald Trump afin de mettre fin aux poursuites intentées suite à la suspension de ses comptes Facebook et Instagram en 2021. Mais il y a peut-être plus grave encore : pour prouver que son allégeance est totale, Zuckerberg a été jusqu’à nommer des alliés de Trump au sein de son conseil d’administration.

La tech, entre soumission au pouvoir et fervent soutien

Cette soumission est d’autant plus dangereuse que Trump a bien compris le pouvoir des géants de la tech, celui d’Elon Musk en particulier.

Car Elon Musk, l’un de ses principaux soutiens financiers, est surtout son premier atout médiatique, puisqu’il n’hésite pas à utiliser sa plateforme X comme outil de propagande et de désinformation.

En août 2024, le Centre contre la haine en ligne (Center for Countering Digital Hate, CCDH) recensait déjà 50 posts évoquant les futures élections et considérés comme faux ou trompeurs. Son directeur déclarait alors « Elon Musk abuse de sa position de pouvoir en tant que propriétaire d’un réseau social influent sur la politique pour semer de la désinformation qui génère dissension et méfiance. »

6 mois plus tard, la propagande a visiblement porté ses fruits. Trump est élu et Musk n’est plus seulement l’homme le plus riche de la planète. Il est peut-être désormais l’homme le plus puissant, à la tête d’une obscure commission à « l’efficacité gouvernementale » (Doge) qui fait déjà face à plusieurs poursuites judiciaires et qui n’a même pas été approuvée par le congrès ni aucune autre instance officielle.

En attendant, son pouvoir n’en finit pas de grandir et inquiète. Le 4 février 2025, un nouveau cap a été franchi, puisque le milliardaire a pris le contrôle du système de paiements du Bureau des services fiscaux du ministère du Trésor, dans le but de découvrir « de la fraude et de la corruption à une échelle inédite dans de nombreux services gouvernementaux ».

L’électricité renouvelable est compétitive mais se développe trop lentement

En France, le débat sur les énergies renouvelables électriques – principalement l’éolien et le solaire photovoltaïque – n’en finit pas de perdurer. Les tribunes récurrentes des « anti » dans la presse le prouvent bien trop souvent. Il en découle un retard sur les objectifs que la Nation a fixés, alors même que ces solutions techniques sont désormais les plus compétitives au regard de leur coût de production. Deux études récentes viennent étayer cette analyse.

La première est le Baromètre des énergies renouvelables électriques publié par Observ’ER, en partenariat avec la FNCCR et l’Ademe. Comme chaque année, l’étude montre la dynamique en cours dans chaque filière aux niveaux national et régional, ainsi que leur poids économique.

Besoin d’accélérer pour atteindre les objectifs

Le constat général est que la part des énergies renouvelables dans la consommation d’électricité du pays a atteint 29,9 % en 2023 (139 TWh). Toutes filières confondues, les chiffres d’affaires se cumulent à 31,7 milliards d’euros (+12 % par rapport à 2022), dont 12,3 Md€ pour le photovoltaïque, presque 7 Md€ pour l’éolien terrestre et 4,8 Md€ pour l’hydroélectricité. Côté emploi, une hausse de 21 % permet d’afficher plus de 84 200 équivalents temps plein.

Toutes les nouvelles installations de renouvelables électriques en 2024 ont compté pour 6 GW, soit bien plus qu’en 2023 (4,5 GW), élevant ainsi le parc renouvelable à 78 GW. Cette forte hausse est principalement due à la progression du solaire photovoltaïque (PV) : près de 4 GW ont été raccordés en 2024, portant le parc PV à près de 24 GW. Ce rythme élevé d’installation devra être porté à 6 GW/an pour atteindre l’objectif de la nouvelle programmation pluriannuelle de l’énergie (PPE) qui est de 54 à 60 GW de solaire photovoltaïque en 2030. La production, qui était de 23,3 TWh en 2024, devra se porter à 65 TWh à la même échéance.

L’éolien terrestre est lui, au contraire, trop ralenti. Seuls 734 MW ont été installés les trois premiers trimestres de 2024, permettant d’atteindre un parc total de 23 GW. On est très loin des objectifs que veut assigner la nouvelle PPE (33 à 35 GW en 2030), quand bien même elle a réduit la voilure par rapport à la précédente programmation. L’année passée, le productible éolien terrestre, avec moins de vent, a tout juste dépassé 46 TWh (source RTE) alors que les objectifs sont de 64 TWh pour 2030 et 80 TWh pour 2035.

L’hydroélectricité, par son ancienneté, reste la première énergie renouvelable, avec 25,9 GW installés et une production de 74,7 TWh en 2024. Malgré quelques ajouts de puissance, le parc hydroélectrique sera rapidement dépassé par celui de l’éolien. D’autant plus que la France s’est lancée dans le développement de l’éolien en mer : après le parc au large de Saint-Nazaire en 2022, ceux de Saint-Brieuc et de Fécamp ont été mis en service en 2024. Ce sont au total 1,4 GW installé : un début vers les 3,6 GW prévus dans la nouvelle PPE pour 2030. La France a néanmoins pris du retard sur ses voisins européens et sur le propre objectif de 18 GW qu’elle s’était donné pour 2035. L’espoir réside dans les projets de parcs éoliens en mer posés déjà en cours et sur la création de parcs éoliens en mer flottants.

Globalement, malgré la dynamique positive sur le photovoltaïque, la France est en retard sur son objectif qui était jusque-là de 40 % d’énergie renouvelable dans la consommation d’électricité en 2030. Mais, opportunément, la nouvelle PPE a abaissé cet objectif à 35 %, ce qui sera beaucoup plus abordable… si les freins au déploiement du solaire PV et de l’éolien sont durablement levés.

Les renouvelables sont les moins chères

La seconde étude est celle de l’Ademe qui publie chaque année les coûts de production moyens sur la durée de vie des actifs des technologies qualifiées « renouvelables et de récupération ». Ce coût dit LCOE (de l’anglais Levelized Cost Of Energy) est utilisé depuis longtemps pour comparer les filières, y compris au niveau mondial par Lazard ou l’Agence internationale de l’énergie.

Les chiffres de l’Ademe compilent les données consolidées les plus récentes, c’est-à-dire celles de 2022. À date, c’est donc l’éolien terrestre qui remporte la palme du moins cher en France avec 59 €/MWh (hors taxes, en euros 2022), suivi par le solaire photovoltaïque qui varie entre 70 et 91 €/MWh pour les installations au sol et sur moyennes ou grandes toitures.

La baisse des coûts constante qui avait été constatée entre 2012 et 2020 a été perturbée par les crises du Covid et de l’Ukraine. D’où une petite hausse des LCOE des filières renouvelables en 2021 et 2022, mais bien moindre que celui de la filière de référence des centrales gaz à cycle combiné.

Les évolutions de 2023 et 2024 sont encore à confirmer. Elles sont portées par un apaisement des tensions sur les prix de certains combustibles (gaz, granulés bois, etc.), mais par de nouvelles contraintes : inflation significative du coût des matières premières et augmentation des taux d’intérêt qui affectent les conditions de financement.

Cependant, comme ces dernières contraintes affectent aussi les technologies non renouvelables, les écarts restent significatifs, notamment avec le nouveau nucléaire dont la Cour des comptes a signalé la difficile rentabilité en dessous de 130 €/MWh pour l’EPR de Flamanville. De son côté, Lazard évalue le LCOE du nouveau nucléaire aux USA entre 142 et 222 $/MWh quand le solaire PV au sol affiche 29-92 $/MWh et l’éolien terrestre 27-73 $/MWh.

À quelle conclusion aboutira la rationalité économique ?

Les grands modèles de l’IA

Un extrait de « Introduction à l’intelligence artificielle », par Jean-Paul HATON

L’intelligence est une notion multiforme et difficile à préciser. Philosophes et scientifiques se sont attachés à la définir depuis des millénaires. Pour les besoins de l’IA, nous nous contenterons de qualifier l’intelligence par un ensemble de capacités, notamment de mémorisation, de structuration de la connaissance et de conceptualisation, de perception, de raisonnement, de prise de décision, d’apprentissage, de communication et de dialogue.

Ces capacités se retrouvent, à des degrés divers, dans les systèmes d’IA actuels. Ces systèmes se nourrissent des avancées dans ces différents domaines. Inversement, comme il a été dit, l’IA contribue à ce que nous comprenions mieux l’intelligence.

Les grands modèles de l’IA

Dès le début de l’IA dans les années 1950, trois grands types de modèles ont été proposés par les chercheurs pour concevoir des machines intelligentes : les modèles symboliques, les modèles neuromimétiques et les modèles probabilistes et statistiques.

Les modèles symboliques, correspondant à une approche que l’on peut qualifier d’IA symbolique, permettent de doter les systèmes d’IA de mécanismes de raisonnement capables de manipuler les données symboliques qui constituent les connaissances d’un domaine. Cette approche fait appel aux modèles et méthodes de la logique. Elle a donné lieu aux systèmes à bases de connaissances. A. Newell considérait le niveau de connaissance (knowledge level) comme le trait d’union entre l’homme et la machine intelligente, permettant de rationaliser le comportement d’un agent qui, à l’instar de l’être humain, peut prendre une décision en menant un raisonnement fondé sur ses connaissances. Un aspect important est la capitalisation et la diffusion du savoir et de l’expérience, éléments constituant la mémoire d’une organisation. Une base de connaissances se construit à partir d’ontologies qui la structurent et la contraignent. De telles bases interviennent dans de nombreux champs d’application comme l’intelligence économique, le droit, la production industrielle, la médecine, etc.

Les modèles neuromimétiques correspondent à une approche que l’on peut qualifier d’IA connexionniste par analogie métaphorique. Ils reviennent à s’inspirer du fonctionnement du cortex cérébral. L’entité de base est un modèle formel très simplifié du neurone proposé par McCulloch et Pitts en 1943. Chaque neurone possède un certain nombre d’entrées synaptiques, chacune assortie d’un poids ; le neurone effectue la somme pondérée de ses entrées et active sa sortie, reliée à d’autres neurones, si la somme atteint un seuil prédéterminé, comme le montre la figure suivante.

Exemple de perceptron multicouche

Un système est formé par l’interconnexion d’un grand nombre de tels neurones en couches successives. Cette approche a donné lieu aux réseaux neuromimétiques actuels, avec une grande variété des modèles. La plupart de ces modèles, comme le perceptron multicouche, sont de type feedforward, ce qui signifie que les informations transitent dans un sens unique, de la couche d’entrée vers la couche de sortie. Comme d’autres modèles, les réseaux neuronaux sont capables de calculer toute fonction, d’où leur utilité en IA.

Exemple de perceptron multicouche

Les modèles probabilistes et statistiques présentent un cadre formel intéressant pour capturer la variabilité inhérente au monde réel et en rendre compte. Ces modèles, tout comme les modèles neuromimétiques, sont capables d’apprendre à partir d’exemples. L’apprentissage revient ici à mémoriser des distributions de probabilités à l’aide d’algorithmes souvent complexes, mais dont les propriétés sont parfaitement connues.

Un modèle probabiliste largement utilisé est celui des réseaux bayésiens. Ces réseaux sont des graphes constitués de nœuds représentant les concepts d’un domaine et d’arcs représentant des relations de causalité probabilisées entre deux concepts (par exemple, tel état physiopathologique d’un patient peut être la cause de tel symptôme, avec telle plausibilité). Un réseau bayésien permet de mener un raisonnement probabiliste sur des faits multiples grâce à des mécanismes de propagation de coefficients de probabilité à travers le réseau. Il est ainsi très intéressant dans des problèmes à choix multiples comme le diagnostic, notamment médical et industriel. Pour des applications en vraie grandeur, ces réseaux de dépendance conditionnelle peuvent atteindre des dimensions considérables. La mise au point et l’exploitation de tels réseaux sont des questions bien maîtrisées.

Le temps est une dimension essentielle dans de nombreuses activités en IA. De ce fait, les modèles statistiques intégrant la variable temporelle, ou modèles stochastiques, comptent parmi les plus utilisés en intelligence artificielle. Le modèle stochastique le plus répandu est le modèle de Markov caché, ou MMC (Hidden Markov Model, HMM). C’est le cas en reconnaissance de la parole où chaque entité à reconnaître (mot, unité phonétique) est représentée par une source de Markov capable d’émettre le signal vocal correspondant à cette entité. La reconnaissance revient alors à calculer la vraisemblance de la suite d’observations acoustiques constituant l’entité à reconnaître par rapport à chacun des modèles appris. Le modèle présentant la plus grande vraisemblance d’avoir émis cette suite d’observations fournit la réponse. Les MMC ont également été utilisés avec succès dans d’autres domaines que la parole, en particulier l’interprétation d’images, la reconnaissance de l’écriture, l’interprétation de signaux (radar, sonar, biologiques, etc.) ou la robotique.

Les trois modèles présentés ci-dessus se rencontrent, parfois simultanément, dans les systèmes d’IA actuels. Les systèmes de traitement d’images et de reconnaissance de la parole, par exemple, sont le plus souvent fondés sur la complémentarité entre des modèles stochastiques MMC et des modèles neuronaux. Les modèles statistiques jouent également un rôle fondamental dans le traitement des grandes masses de données et leur exploitation, en particulier pour la découverte de régularités ou de connaissances.

Une caractéristique commune à tous ces types de modèles est leur capacité d’apprentissage à partir d’exemples. L’apprentissage, capacité fondamentale de l’intelligence, joue ainsi un rôle majeur dans le bon fonctionnement des systèmes d’IA.

Jean-Paul Haton : « L’exploitation des données et des bonnes pratiques permet de concevoir des agents intelligents capables de mieux aider l’humain »

Pouvez-vous nous parler de votre parcours professionnel ?

Ma formation initiale est en physique, mais j’ai été attiré par l’informatique et l’intelligence artificielle dès les années 1970, en raison des aspects totalement novateurs que présentaient ces disciplines et du défi de mieux comprendre ce qu’est l’intelligence humaine ou animale !

J’ai abordé ce domaine par la reconnaissance de la parole. J’ai eu la chance d’obtenir un poste de professeur des universités en 1974 en informatique à la Faculté des Sciences de Nancy où j’ai effectué toute ma carrière.

L’IA générative, telle que ChatGPT, marque-t-elle un tournant majeur dans l’évolution de l’intelligence artificielle ?

L’IA générative n’est qu’une étape vers la conception d’outils apportant une aide de plus en plus intelligente à l’humain, tant dans ses activités professionnelles que dans sa vie quotidienne. Nous en verrons les limites, et d’autres modèles et méthodes apparaîtront à l’avenir, apportant de plus en plus d’aide à l’être humain et augmentant son intelligence.

L’IA générative n’étant, selon vous, qu’une étape, quelles évolutions imaginez-vous pour l’IA ?

L’IA générative et les grands modèles de langage ne possèdent pas toutes les caractéristiques nécessaires pour conduire à une IA générale comparable ou supérieure à celle de l’humain. Des recherches sont encore nécessaires, notamment en ce qui concerne la compréhension du monde physique (et le bon sens), la capacité de raisonner et de planifier des actions.

Pensez-vous que l’intelligence artificielle a vocation à s’intégrer dans tous les secteurs d’activité ? Quels sont ceux à plus fort potentiel ?

L’intelligence artificielle va en effet intervenir dans la plupart des domaines d’activité : industrie, médecine, droit, notariat, agriculture, armée, enseignement, etc. Dans ces domaines, l’exploitation des données et des bonnes pratiques accumulées au cours du temps permet de concevoir des agents intelligents capables de mieux aider l’humain. Cela implique une formation à l’usage de toutes ces techniques. Les personnes non initiées risquent d’être les laissées pour compte de cette évolution.

En quoi l’IA pourrait-elle être source de croissance et créatrice de richesses ?

L’IA améliore l’efficacité et favorise l’innovation. Elle permet d’automatiser des tâches répétitives. Elle aide aussi la prise de décision par sa capacité à exploiter de très grosses quantités de données. Cette capacité lui donne la possibilité d’innover en suggérant de nouveaux produits ou services. Elle trouve également sa place dans la gestion des stocks et la logistique.

En automatisant partiellement ou totalement certaines tâches, l’IA conduira à la suppression d’emplois, mais elle en créera aussi de nouveaux, plus qualifiés, dans la maintenance, la gestion et l’analyse de données, le développement de logiciels, etc.

Comment contourner les freins, notamment réglementaires, au développement de l’IA (innovations, projets) en Europe ?

Les règlements tels que mis en place par l’Union européenne (RGPD, loi sur l’IA ou AI Act, etc.) s’avéreront de plus en plus indispensables pour que l’IA ne devienne pas un nouveau Far West…, même si ces règlements introduisent des contraintes supplémentaires pour les entreprises. L’UE est pour l’instant bien seule, à quelques rares exceptions près. Mais je pense qu’elle sera suivie à terme, car c’est la seule solution au niveau mondial.

Quels sont, aujourd’hui, les principaux enjeux techniques et éthiques auxquels l’IA est confrontée ? Quels défis majeurs anticipez-vous ?

Je ne crois pas à une intelligence artificielle surpassant l’être humain dans tous les domaines d’activité dans un avenir proche. Néanmoins, il importe dès à présent d’être conscients des enjeux, en particulier éthiques, liés à la généralisation de l’intelligence artificielle dans de nombreux domaines : apparition de biais (sexistes, raciaux, etc.) liés à des biais présents dans les données d’apprentissage, utilisation à des fins discutables (guerres, surveillance des personnes, notation des personnels).

Quel est l’enjeu d’une IA européenne ? Pourquoi est-il important que l’Europe se dote d’une IA qui lui soit propre ?

Tout d’abord, cela permettrait de garantir que les valeurs et les normes éthiques européennes soient prises en compte. On peut ainsi s’assurer que l’IA respecte la vie privée, la sécurité et les droits fondamentaux. C’est le but des règlements élaborés par l’UE, comme abordé dans la question précédente.

De plus, une IA européenne renforcerait l’autonomie technologique de l’Europe. Elle favoriserait une meilleure coopération entre les états membres, en établissant des standards communs et en facilitant le partage des connaissances et des ressources.

Comment développer l’IA, en garder la maîtrise et avec quels moyens (humains, financiers, technologiques…) ?

Cela implique des actions dans différentes directions :

  • définir des principes éthiques et s’assurer que les systèmes développés respectent les droits fondamentaux (comme la loi européenne sur l’IA qui adopte une approche fondée sur les risques présentés par l’IA) ;
  • assurer la transparence des systèmes, permettant à l’utilisateur de comprendre les réponses proposées. Les chercheurs militent pour l’open source dans le cadre plus général de la science ouverte qui revient à rendre public le code source des systèmes. Il s’agit d’un des aspects de la transparence. Il importe également que les systèmes d’IA ne soient pas le monopole de quelques grands groupes internationaux, mais puissent être développés un peu partout dans le monde ;
  • définir des procédures, admises par toutes les parties, de test des systèmes mis à la disposition du public ;
  • assurer la gouvernance permettant de surveiller l’utilisation des systèmes d’IA et de prévenir les abus, de façon à ce que l’IA soit utilisée au bénéfice de tous.

Quels conseils donneriez-vous à un étudiant ou à un jeune ingénieur souhaitant se spécialiser dans le domaine de l’intelligence artificielle ?

Que ce soit dans la recherche ou dans le développement, il faut posséder une solide formation en informatique, avec de bonnes bases en mathématiques et en physique. Je conseillerais donc de commencer en premier cycle par une formation de base de ce type (à l’université ou en école d’ingénieur) et de poursuivre ensuite (en master ou autre type de formation) en se spécialisant dans un des domaines où intervient l’IA (tels qu’imagerie, biologie, neurosciences). Le domaine de la robotique va prendre une importance de plus en plus grande dans les années à venir. Un stage à l’étranger, dans une société ou un laboratoire, permet de se confronter à d’autres façons de travailler.

Que vous apporte la collaboration avec Techniques de l’Ingénieur ?

Je suis un lecteur très ancien des TI ! J’ai tiré profit des articles sur l’informatique lors de la conception de mes premiers cours en tant que nouveau professeur dans une discipline encore bien jeune au début des années 1970.

J’ai ensuite écrit avec plaisir plusieurs articles, appréciant le fait de conjuguer théorie et pratique pour présenter au mieux un domaine à un public très large, ce qui implique d’être suffisamment clair et compréhensible !

Les contributions de Jean-Paul Haton à Techniques de l’Ingénieur

Professeur émérite à l’Université de Lorraine, Jean-Paul Haton contribue depuis 2000 à Techniques de l’ingénieur, notamment sur l’intelligence artificielle.

Offre
Technologies logicielles Architectures des systèmes

Rubrique
Intelligence artificielle

Articles
Introduction à l’intelligence artificielle
L’intelligence artificielle générative
Systèmes à bases de connaissances
Reconnaissance automatique de la parole

 

Connaissez-vous le défi URGENSEA ?

Face aux défis écologiques majeurs que sont l’érosion des côtes et la pollution fluviale, 151 étudiants de 21 écoles d’ingénieurs en Europe se sont rassemblés pour trouver des solutions innovantes contre l’érosion des côtes et la pollution fluviale. 

Organisé par la Fondation Andurand, ce concours européen implique 23 équipes en France, Italie, Pays-Bas, Suisse et Belgique. Les participants bénéficient de ressources comme une base de données de solutions existantes, l’accompagnement de mentors et experts, ainsi qu’une dotation totale de 100 000 euros. 

Ce challenge offre aux étudiants une occasion de développer leurs compétences et leur réseau professionnel. Le jury sélectionnera jusqu’à 4 équipes lauréates, réparties sur deux catégories : la pollution fluviale et l’érosion des côtes.

Voici les dates clés :  

  • 28 mars : date limite de soumission des projets par les équipes  
  • 25 avril : sélection des projets demi-finalistes par le jury  
  • 27 juin : date limite de remise des maquettes/prototypes des demi-finalistes  
  • 26 septembre : 2e session du jury et sélection des projets finalistes  
  • Octobre 2025 : exposition des projets finalistes, 3e session du jury et annonce des 6 lauréat

Plus de détails sur le défi URGENSEA ici. 

Pour en savoir plus sur les initiatives en cours pour protéger le littoral français, consultez un extrait gratuit de notre article.

Trump et l’industrie : un protectionnisme à l’issue incertaine

Comme nous le disions dans cet article, la production énergétique sera la première industrie bouleversée par le retour au pouvoir de Donald Trump. Les premiers décrets qui ont été signés le 20 janvier annoncent ainsi la couleur de la nouvelle ère Trump 2.0 en matière d’énergie :

  • une politique très favorable au fossile, avec une forte relance de la production de gaz, de pétrole, y compris de schiste, et l’exploitation sans entrave du potentiel de l’Alaska ;
  • un rejet de l’éolien, principalement offshore ;
  • un soutien au nucléaire ;
  • des incertitudes concernant le sort du solaire, dont les subventions sont d’ores et déjà menacées.

Et pour lever toutes les entraves de l’industrie pétrolière et gazière, Trump a, comme en 2017, annoncé la sortie des États-Unis de l’accord de Paris, par un autre décret.

L’industrie automobile : Trump va favoriser le thermique au détriment de l’électrique

En promettant de « libérer l’énergie américaine », Trump compte bel et bien freiner l’expansion de l’électrique, probablement pour mieux soutenir la production de pétrole américaine en favorisant la mobilité thermique :

  • annulation d’un décret de Joe Biden qui voulait que 50 % des nouveaux véhicules vendus aux États-Unis d’ici 2030 soient électriques ;
  • suspension des fonds pour les stations de recharge ;
  • suppression envisagée des crédits d’impôt pour véhicules électriques ;
  • levée des barrières étatiques en matière d’émissions de gaz à effet de serre des véhicules.

Ce choix politique semble néanmoins étrange quand on sait qu’Elon Musk, l’un de ses principaux soutiens financiers, est PDG de Tesla. Or, la décision de Trump a eu une conséquence immédiate : elle a fait baisser la valeur boursière des entreprises du secteur, notamment Tesla, Rivian et Evgo.

En apparence, Elon Musk semble néanmoins soutenir cette politique, puisqu’il estime que la suppression des subventions va affaiblir ses concurrents, comme Ford et General Motors.

En réaction, le gouverneur démocrate de Californie a d’ores et déjà promis des subventions de l’État afin de compenser cette suppression des aides fédérales.

Malgré tout, ce changement de politique devrait avoir un impact limité sur les ventes de véhicules électriques aux États-Unis en 2025, selon le cabinet d’études Rho Motion, qui prévoit une hausse des ventes de 16 %.

Mais sur le long terme, les conséquences pourraient être désastreuses : jusqu’à 47 % de baisse de la demande de batteries d’ici 2040, dans le pire scénario.

Trump et l’industrie en général : protectionnisme économique et droits de douane élevés

En matière d’industrie, la philosophie de Trump est simple, voire simpliste, puisqu’il veut forcer les entreprises étrangères à s’implanter aux États-Unis. Pour cela, il compte relever les droits de douane, dans la continuité des mesures économiques prises lors de son mandat précédent.

Néanmoins, ce relèvement des droits de douane pourrait avoir de multiples effets négatifs sur l’économie américaine, mais aussi sur l’économie mondiale.

  • Augmentation des coûts d’achat pour les entreprises et les particuliers : le surcoût des taxes sera répercuté sur le prix d’achat des produits importés. D’après une étude du Boston Consulting Group, le surcoût pourrait en effet avoisiner 640 milliards de dollars pour l’économie américaine. Par ailleurs, le Centre d’études prospectives et d’informations internationales (CEPII) a évalué que « les principaux perdants des droits de douane universels seraient les États-Unis et la Chine. »
  • Impact sur l’inflation : la hausse des prix des biens importés aux États-Unis risque de contribuer à augmenter l’inflation.
  • Conséquences négatives sur le PIB et l’emploi : Comme le rappelle cette analyse publiée sur le blog du FMI en 2016, Trump fait une erreur en imaginant booster l’emploi et la productivité en augmentant les droits de douane, car c’est l’inverse qui pourrait se produire.

L’étude du FMI, publiée quelques mois avant le premier mandat de Trump, faisait d’ailleurs office d’avertissement, car elle se concluait par ces mots :

« Ceux qui prônent la fermeté à l’égard des partenaires commerciaux étrangers via des droits prohibitifs devraient bien réfléchir. Cela peut être réconfortant d’un point de vue émotionnel. Cela peut stimuler certains secteurs. Le risque peut même conduire des partenaires commerciaux à modifier leurs politiques sous le coup de la peur. Pourtant, si elles sont appliquées, ces mesures se révèlent à terme plus pénalisantes pour l’économie nationale. »

Malgré les potentielles conséquences négatives, Trump semble pourtant prêt à relancer sa guerre commerciale contre le monde entier. Comme cela a été confirmé, ses premières victimes seront ses principaux partenaires commerciaux, à commencer par le Canada et le Mexique (hausse de 25 %), ses voisins directs. Si les deux pays se préparent déjà à riposter, les contre-mesures ne seront connues que lorsque les détails des décisions prises par l’administration Trump le seront.

L’autre cible est, bien entendu, la Chine (importation de biens électroniques de grande consommation notamment), 10 % de droits de douane supplémentaires ayant été ajoutés ce week-end.

Si le calendrier de Trump n’est pas connu, il ne fait aucun doute que l’Europe sera la prochaine sur la liste. Elle est notamment ciblée pour ses médicaments, ses produits pharmaceutiques ou encore ses voitures, ses produits alimentaires et ses produits chimiques.

Les négociations risquent donc d’être tendues dans les prochains mois, entre ces différents pays, mais une chose est sûre : Trump joue à un jeu dangereux, qui risque, à terme, de ne faire que des perdants.

Mais le président assume. Comme il l’a avoué, le pays va souffrir, mais il estime que c’est un mal nécessaire. « Ce sera le nouvel âge d’or pour les États-Unis ! Est-ce que cela va faire souffrir ? Oui, peut-être. Et peut-être pas. Mais nous allons rendre sa grandeur à l’Amérique et cela vaudra le prix qu’il faudra payer ».

Des calculs fiables, sans perte de temps

Des équations clés en main !

La notation mathématique répond à des besoins très différents mais pour les utilisateurs des ressources documentaires Techniques de l’Ingénieur, c’est avant tout pour une exploitation simple et rapide, pour comprendre puis fiabiliser des calculs.

Cet objectif est tenu grâce à la fonctionnalité permettant de copier et télécharger chaque formule mathématique, par un simple “clic” droit. Il suffit ensuite de l’intégrer dans vos outils, sans aucun risque de dégradation.

A noter que cette fonctionnalité est exploitable aussi bien depuis les articles en français que sur leur version en anglais.

Du site à vos outils de calcul, sans risque

Les équations des ressources documentaires sont en MathML, application XML pour les mathématiques. Elles sont accessibles sur Internet, visualisables, imprimables, etc., tout en permettant cette exploitation par vous, avec vos outils de travail habituels.

Cette description assure son expression claire sur le site Techniques-ingenieur.fr et garantit sa réutilisation sans intervention humaine dans votre logiciel de travail.

Conversion du MathML

Si votre besoin dépasse l’intégration des formules dans vos systèmes de calcul et vous amène à convertir du MathML en LaTeX, image, TeX, Word, FrameMaker, XPress, InDesign, braille ou autres, c’est également possible : référez-vous à l’article “Documents mathématiques – Norme MathML” qui vous y aidera.

Pour aller plus loin, 3 articles ouverts pour l’occasion :

Trump et l’énergie : vers un retour en grâce du fossile

La première mesure de Trump en faveur des énergies fossiles a été de sortir de l’accord de Paris. C’est tout à fait logique, puisque cet accord engageait les États-Unis à réduire leurs émissions de CO2, donc à moins soutenir le fossile, pour mieux financer le renouvelable.

Le fait que le milliardaire annonce le retrait des États-Unis de l’accord de Paris le jour même de son investiture n’a donc surpris personne, puisque le pays s’était déjà retiré en 2020, suite à une annonce fracassante de Trump en juin 2017.

Si l’indignation est toujours présente, cette fois-ci, Trump n’a pas bénéficié du même effet de surprise et l’opposition à cette décision irresponsable est plus coordonnée. On peut citer, par exemple, la déclaration du C40, le réseau mondial des principales villes du monde, unies dans l’action pour faire face à la crise climatique, vent debout contre « cet acte de vandalisme climatique ».

Trump annonce la sortie de l’Accord de Paris : à quoi faut-il s’attendre ?

Quelles seront les conséquences de ce retrait des États-Unis de l’Accord de Paris ? Il y en a au moins quatre :

  • Perte de leadership climatique – Sans la participation des États-Unis, le leadership climatique mondial pourrait faiblir. La Chine et l’Union européenne devront intensifier leurs efforts pour combler ce vide.
  • Risque d’effet domino – D’autres pays pourraient vouloir suivre l’exemple des États-Unis et se retirer également de l’accord, ce qui affaiblirait encore davantage les efforts internationaux.
  • Problèmes de financement de l’action climatique – Les milliards de dollars promis pour aider les pays en développement à faire face aux impacts du changement climatique devront être trouvés ailleurs, mais où ?
  • Conséquences économiques indirectes – Avec la sortie des accords de Paris, c’est toute la politique climatique américaine qui revient en arrière. Le secteur des énergies renouvelables pourrait alors se retrouver en difficulté, au bénéfice des énergies fossiles.

Trump veut doper la production de pétrole et de gaz

Donald Trump n’est pas toujours cohérent dans ses idées, mais il l’est malheureusement sur ce qui touche aux énergies fossiles et à leur impact sur le climat. Car le milliardaire est plus qu’un climatosceptique : il est le chef de file d’un courant de négationnisme climatique total et assumé.

La politique énergétique de Trump se résume donc en un slogan : « Drill, baby, drill ». En clair, Donald Trump veut relancer au maximum l’exploration pétrolière et gazière dans le pays (y compris en Arctique).

Or, d’après une étude de Carbon Brief, cette politique de nouveaux forages pourrait s’avérer catastrophique pour le climat en ajoutant 4 milliards de tonnes de CO2 supplémentaires aux émissions américaines d’ici 2030.

Pour se faire une idée de la catastrophe, cela équivaut à la somme des émissions annuelles de l’Union européenne et du Japon…

Un rejet de l’éolien

Trump n’aime pas les éoliennes, qu’il accuse de tous les maux. Selon lui, en plus d’être un désastre économique, elles (les éoliennes offshore) « rendent les baleines folles », ce qui n’a jamais été prouvé. Mais comme toujours, le milliardaire fonde son avis sur des semi-vérités, des raccourcis, voire des fake news.

La politique de Trump devrait néanmoins avoir un effet limité sur le secteur éolien terrestre, puisque les parcs éoliens ne nécessitent pas tous une autorisation fédérale.

Pour l’éolien offshore, en revanche, c’est la douche froide, car un décret visant à stopper les activités éoliennes offshore le long de la côte a été signé le jour même de l’investiture. Cette décision est d’autant plus paradoxale, que sept des parcs concernés ont été approuvés par la première administration Trump !

Un désintérêt général pour le renouvelable, solaire inclus

À part l’éolien, qu’il déteste, Trump n’a pas d’avis tranché sur les énergies renouvelables, mais il veut à tout prix préserver la dominance des énergies fossiles.

L’énergie solaire n’est, pour le moment, pas dans son viseur et poursuit sa croissance(1), néanmoins des doutes planent concernant l’avenir du secteur. La suspension des dépenses prévues dans le cadre de la loi sur la réduction de l’inflation (IRA) aura forcément des conséquences, puisque cette loi prévoyait des incitations financières pour toutes sortes de projets : solaire, éolien, hydrogène, nucléaire, véhicules électriques.

Et le nucléaire dans tout ça ?

Trump voit le nucléaire comme une alternative plus propre aux énergies fossiles, mais surtout un outil stratégique pour renforcer la domination énergétique des États-Unis. Il a donc une opinion favorable envers l’atome.

L’administration Trump 1 avait ainsi soutenu la recherche et le développement en matière de nouvelles technologies nucléaires, notamment les SMR. En effet, à l’époque, plusieurs lois avaient été adoptées pour faciliter le transfert de technologie, partager les coûts d’homologation et renforcer les effectifs du GAIN (Passerelle pour l’accélération de l’innovation nucléaire).

Il est donc probable que ce soutien perdure, car le nucléaire demeure un moyen de renforcer la sécurité énergétique des États-Unis.


(1) Le solaire représente plus de 64 % de la nouvelle capacité ajoutée au réseau au cours des trois premiers trimestres de 2024

Neurathletics : Entraîner le cerveau des athlètes pour améliorer leurs performances

Lancé par la chercheuse CNRS en sciences cognitives Camille Jeunet Kelway il y a 5 ans, le projet Neurathletics s’appuie sur l’imagerie motrice, des exercices de visualisation durant lesquels les athlètes répètent mentalement des mouvements sans les exécuter physiquement. Cette technique permet d’améliorer la performance des athlètes. Le projet Neurathletics vise à aider les athlètes à réaliser cet exercice plus efficacement, avec un retour en temps réel sur l’activité de leur cerveau.

Passionné de sport et avec un doctorat en neurosciences cognitives, Mathieu Pachoud a rejoint le projet en septembre 2024. Il est chargé du développement technique et scientifique du projet et sera le directeur scientifique lorsque la start-up sera créée courant 2025.  

Mathieu Pachoud, projet Neurathletics
Mathieu Pachoud

Techniques de l’Ingénieur : Comment est né le projet Neurathletics ?

Mathieu Pachoud : Tout part du neurofeedback, l’axe de recherche de Camille Jeunet Kelway. Il s’agit d’enregistrer l’activité du cerveau et d’avoir un retour en temps réel sur ce qu’il s’y passe. Camille faisait de la recherche appliquée sur des patients atteints de Parkinson pour réduire les symptômes moteur et sur des personnes victimes d’AVC pour aider à la rééducation. Un troisième volet de la recherche concernait l’aspect sportif avec l’optimisation du mouvement. Beaucoup d’athlètes travaillent déjà avec l’imagerie motrice, à savoir le fait d’imaginer un mouvement lorsqu’on est au repos. L’idée derrière cet exercice est d’activer les mêmes neurones que ceux qui sont actifs pendant l’exécution du mouvement lui-même. Cela complète l’entraînement physique en renforçant les circuits du cerveau et donc participe à améliorer la performance et la précision du mouvement.

Le problème derrière cet exercice d’imagerie motrice est qu’il y a plusieurs manières de le pratiquer. Si on se visualise -soi-même ou quelqu’un d’autre- en train de réaliser le mouvement, il s’agit d’imagerie visuelle. Cette manière de faire n’est pas efficace pour améliorer ses performances car elle active les aires visuelles et non pas motrices. Pour être efficace, il faut pratiquer l’imagerie kinesthésique, en activant toutes les sensations liées à un mouvement. Cela peut être la contraction des muscles ou la sensation de toucher avec un ballon par exemple. En activant tous les sens, on arrive à activer le cortex moteur, ce qui nous intéresse particulièrement dans cet exercice. Il y avait donc un besoin à accompagner les athlètes à mieux réaliser cet exercice.

En quoi consiste votre solution ?

En utilisant un bonnet d’électrodes pendant que l’athlète effectue son imagerie motrice, nous pouvons lui dire en conditions réelles si ce sont les bonnes zones qui sont activées ou au contraire, s’il faut changer de stratégie car il y a plus d’activité sur le cortex visuel que moteur. Neurathletics, c’est un électroencéphalogramme qui permet d’enregistrer l’activité du cerveau à travers le crâne, avec une application qui donne un neurofeedback à l’athlète en temps réel. Cet outil est surtout destiné aux coachs et aux centres d’entraînements pour aider à la préparation mentale des athlètes. Les coachs vont ainsi créer une session d’entraînement d’imagerie motrice et décider quels mouvements travailler, puis grâce à l’application, ils peuvent vérifier si les exercices donnés sont travaillés avec efficacité. 

Bonnet d'électrodes, projet Neurathletics
Equipé d’un bonnet d’électrodes et d’une application, l’athlète peut commencer son entraînement mental / Crédit : Antoine Gomez

Comment se passent les tests avec les athlètes ?

Nous travaillons avec une dizaine d’athlètes de haut niveau, dont des médaillés olympiques. Nous avons mis à leur disposition un bonnet d’électrodes ainsi qu’une première version prototype de l’application sur ordinateur ou tablette. Les athlètes se connectent à l’application et choisissent leur sport. Différents fonds visuels sont disponibles pour se mettre dans un environnement propice à l’imagerie motrice : basket, natation, fond neutre… Ils peuvent ensuite lancer une session et commencent leurs exercices d’imagerie motrice. Sur l’application, les athlètes voient en temps réel l’activité de leur cerveau. Deux zones sont visibles -une partie de leur cortex visuel et une partie du cortex sensorimoteur- et ils ont pour objectif d’avoir la meilleure activité possible dans le cortex sensorimoteur.

Comme notre solution est toujours en phase de développement, les athlètes nous font des retours réguliers et de notre côté, nous récupérons les données de l’activité cérébrale pour les analyser. En comparant les données, nous pouvons quantifier l’amélioration de leur entraînement. 

Pour quels sports votre solution est-elle la plus efficace ?

Certains sports sont plus propices que d’autres, notamment les sports avec des mouvements stéréotypés, donc répétitifs. C’est le cas du rugby, du tennis, de la natation, du tennis de table, du tir sportif… Le but est de diminuer la variabilité qu’un athlète va avoir d’un mouvement à un autre. Mais notre solution peut aussi fonctionner avec tout type de sports car il y a des mouvements répétitifs dans chaque discipline.

Comment vérifier l’impact de votre solution sur les performances des athlètes ?

Tout d’abord, l’impact de l’imagerie motrice est déjà prouvé. De notre côté, nous accompagnons les athlètes à réguler leur activité cérébrale pour avoir un entraînement mental plus efficace. Il reste compliqué d’évaluer précisément l’impact concret de notre solution sur la performance sportive des athlètes car beaucoup de paramètres entrent en jeu, mais nous sommes actuellement en phase d’analyse pour essayer de l’estimer. En ce sens, nous avons aussi des projets de recherche parallèles avec d’autres universités. 

Quels sont vos projets pour 2025 ?

Pour le moment, Neurathletics est en phase de maturation avec des financements publics du CNRS et de la SATT Aquitaine. Notre but est de créer une start-up en septembre 2025 pour passer à des financements privés, et sortir ainsi la première version commercialisable de l’application. Nous réfléchissons aux modalités mais nous penchons pour une forme d’abonnement mensuel avec des packs de prix différents selon la complexité de la solution : une fonctionnalité de base avec l’entraînement et le feedback de l’activité du cerveau en temps réel, mais aussi des packs plus élaborés où nous proposerons l’analyse des données et l’accompagnement de l’athlète. Pour l’instant, notre solution est destinée au très haut niveau mais nous aimerions à terme la rendre plus accessible et moins chère, un peu sur le modèle des montres connectées qui donnent des informations sur la session et l’évolution des coureurs, mais par rapport au cerveau. En parallèle, nous aimerions aussi continuer les recherches scientifiques grâce à l’analyse des données pour trouver de nouveaux marqueurs et améliorer l’efficacité de la solution.

Propos recueillis par Alexandra Vépierre

Revue du Magazine d’Actualité #19 : du 27 au 31 janvier

De la découverte en laboratoire à l’innovation industrielle… On scrute pour vous chaque semaine les tendances de l’industrie.

L’ADEME, proposition de suppression controversée d’un acteur de la transition écologique

Alors que Valérie Pécresse cible l’ADEME pour des économies budgétaires, l’agence riposte en soulignant son rôle crucial dans la transition écologique. Explorez les arguments des deux camps dans ce débat sur l’avenir de l’efficacité publique.
Valérie Pécresse vs l’ADEME : enjeux et implications

Économie circulaire et gestion des déchets : entretien avec Catherine Viale

Catherine Viale, spécialiste de la gestion des déchets, nous éclaire sur les défis environnementaux actuels. À travers son expérience, elle aborde les problématiques locales et globales, l’importance de l’économie circulaire et les progrès réalisés dans le recyclage.
Les défis de la gestion des déchets à travers un œil expert

Énergies renouvelables : le solaire dépasse le charbon en Europe

Face à l’urgence climatique, l’Europe et la Chine accélèrent leur transition vers les énergies renouvelables. En 2024, le solaire a pris le pas sur le charbon dans l’UE, et la Chine a installé des capacités solaires et éoliennes record, malgré sa dépendance persistante au charbon.
L’essor du solaire face aux défis climatiques

Recyclage et innovation : L’engagement d’Orano pour un futur durable des batteries

Le projet Neomat, fruit d’une collaboration entre Orano et XTC, marque une étape cruciale pour l’industrie européenne des batteries. Avec la création de deux co-entreprises à Dunkerque, ce partenariat vise à renforcer la production locale et à créer 1 700 emplois. Découvrez comment ce projet ambitieux pourrait transformer le paysage industriel européen.
Un partenariat franco-chinois prometteur

L’éthanol, une solution pour les défis énergétiques européens

Face aux défis des réseaux électriques européens, WattAnyWhere se positionne avec une approche décentralisée et durable, transformant l’éthanol en une source d’énergie propre et renouvelable.
L’éthanol pourrait transformer notre consommation électrique

Mesurer l’humidité et la température avec du papier

Alors que les méthodes traditionnelles de fabrication de capteurs reposent sur des matériaux plastiques, une nouvelle approche utilisant le papier pourrait bien changer la donne. Apprenez-en plus sur cette innovation qui allie performance et respect de l’environnement, et qui pourrait transformer la chaîne alimentaire.
L’apport du papier à la mesure agricole

EPR de Flamanville : la rentabilité n’est pas assurée

Le président Emmanuel Macron et le PDG d’EDF Luc Rémont se sont enorgueillis le 21 décembre 2024 de la délivrance des premiers électrons par le réacteur EPR de Flamanville sur le réseau. Moins d’un mois après, la Cour des comptes a publié un rapport reconnaissant une dynamique nouvelle, mais des risques persistants. Surtout, elle a mis en avant la « rentabilité médiocre » du réacteur, entachant une fois de plus la réputation de cette infrastructure au coût astronomique.

Une facture de près de 24 000 millions d’euros

Avec les sages de la rue Cambon, les chiffres sont impitoyables : selon leur dernière estimation, le coût total de construction du nouvel EPR s’élève désormais à environ 23,7 milliards d’euros (en euros 2023), intérêts intercalaires des emprunts inclus. Dans son précédent rapport, en 2020, la Cour avait estimé ce coût à 19 Md € (en euros 2015).

La facture n’a eu de cesse d’augmenter depuis le début du projet en 2006 où elle était annoncée à 3,2 Md € (en euros 2015). Pour arriver à son calcul final, la Cour a dû extrapoler des données qu’EDF ne lui a pas fournies. Notamment, elle a dû ajouter les dépenses pour la première phase d’exploitation de l’EPR : frais de préexploitation, fiscalité avant mise en service industrielle, acquisition de la première recharge du combustible, coût du débat public, acquisition du stock de pièces de rechange nécessaire aux essais et à la mise en service, préparation du premier arrêt, réalisation de la première visite complète initiale et dépenses pour le remplacement du couvercle de la cuve fin 2025 ou début 2026.

Résultat ? Une épée de Damoclès sur cette tête de série dont la rentabilité est très compromise. La Cour des comptes affirme que chaque mégawattheure produit par l’EPR de Flamanville, en euros 2023, et pour un facteur de charge de 85 %, devrait être vendu à un prix de 122 € pour dégager une rentabilité de 4 % et de 176 € pour une rentabilité de 7 %. Mais si l’EPR atteint seulement un facteur de charge de 75  % – qui est la moyenne du parc nucléaire sur 2015-2019 –, alors une rentabilité de 4 % nécessiterait un prix de vente de 138 €/MWh.

Si le prix de vente de l’électricité est inférieur à 90 €/MWh – ce qui semble se profiler sur les marchés à terme pour 2026 et 2027 –, « il paraît difficile d’envisager une rentabilité atteignant 2 % » dit la Cour.

Incertitudes sur le programme d’EPR2

Et encore faut-il que l’EPR de Flamanville atteigne sa pleine puissance. On en est encore très loin. Le réacteur est en phase de test et, pendant son premier mois de couplage au réseau, il a plus consommé d’électricité qu’il n’en a produit. Un examen des données de puissance publiées par RTE montre en effet que du 21 décembre au 21 janvier, l’EPR a appelé une puissance moyenne de 33 MW sur le réseau (voir graphe) alors qu’à terme, c’est lui qui doit fournir 1 650 MW.

Soutirage et injection (en MW) de l’EPR de Flamanville entre le 21/12/2024 et le 21/01/2025 – Source : RTE.

L’annonce politique du démarrage de l’EPR a donc bien précédé la réalité physique de la fourniture d’électricité par le réacteur. Un décalage entre les discours et la capacité effective de la filière qui inquiète également la Cour des comptes en ce qui concerne le projet de construire six EPR2.

La Cour reconnaît que des actions ont été prises en faveur d’une relance du nucléaire : restructuration de la filière autour d’Orano et d’EDF qui a repris le contrôle de Framatome et d’Arabelle Solutions ; réorganisation interne des activités nucléaires au sein d’EDF ; loi d’accélération du nucléaire ; réformes de la gouvernance, dont la création controversée de l’ASNR.

Mais la Cour constate surtout que la conception de ces nouveaux réacteurs est à affermir, que le devis est inabouti et que le financement est à déterminer. Le comité de revue mis en place en 2023 avait conclu à une maturité insuffisante de certains aspects de la conception. Des travaux supplémentaires d’ingénierie ont été nécessaires et, une fois de plus, les coûts augmentent. La première estimation en 2021 a déjà été rehaussée de 30 % et frôle désormais les 80 milliards d’euros (en euros 2023) pour construire six EPR2.

Aux possibles futurs dérapages financiers en France, la Cour des comptes ajoute l’exposition financière d’EDF dans les projets internationaux, spécialement en Grande-Bretagne où le projet d’Hinkley Point accuse un retard et une hausse importante des coûts. Situation trop risquée pour les sages de la rue Cambon qui préconisent qu’EDF n’approuve pas son deuxième projet anglais à Sizewell tant qu’Hinkley Point ne sera pas sécurisé.

Ils recommandent aussi que tout nouveau projet à l’international ne ralentisse pas le programme EPR2 en France. Une manière polie de dire à l’électricien national qu’il doit arrêter ses plans ruineux d’exportation pour se concentrer sur l’Hexagone…, sans pour autant être certain que cela assure le succès du programme EPR2.

Les thèses du mois : « Le recyclage, maillon essentiel de la performance industrielle de la filière batteries »

Pour notre dossier de janvier, « Le recyclage, maillon essentiel de la performance industrielle de la filière batteries », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

Recyclage de matériaux de batterie Li-ion en milieu sels fondus
Ludovic Carre
Doctorat en Chimie Physique, soutenu le 15/12/2022
Institut de Recherche de Chimie Paris

Recyclage direct de batteries Li-ion (LIB) avec du CO2 sous pression
Neil Hayagan
Doctorat en Physico-Chimie de la Matière Condensée, soutenu le 12/11/2024
Institut de chimie de la Matière Condensée

Recyclage des matériaux de cathodes des batteries Li-ion en utilisant des sels fondus
Lydia Hamitouche
Doctorat en Chimie analytique, soutenu le 13/12/2022
Physicochimie des électrolytes et nanosystèmes interfaciaux

Recyclage assisté des métaux stratégiques de batteries lithium-ion par chauffage micro-ondes
Mélissa Richard
Doctorat en Physique et chimie des matériaux, soutenu le 06/12/2022
Chimie de la matière condensée de Paris 

La technodiversité émergente de la mine urbaine : Étude interdisciplinaire du recyclage des batteries au plomb en Inde.
Paul Lhoste
Doctorat en Génie des Procédés et de l’Environnement, soutenu le 30/05/2023
Laboratoire de génie chimique

Développement d’un procédé hydrométallurgique pour le recyclage des électrodes positives de type NMC contenues dans les batteries lithium-ion usagées
Wen Xuan
Doctorat en Géosciences, soutenu le 30/06/2022
Laboratoire Géoressources

Nouvelle méthode de désactivation de batteries Li-ion de véhicules électriques en vue de leur recyclage : étude des phénomènes mis en jeu
Julia Levy
Doctorat en Matériaux, Mécanique, électrochimie, génie civil, soutenu le 13/12/2023
Département des technologies des nouveaux matériaux (Grenoble)

Nouvelle méthode de désactivation de batteries Li-ion de véhicules électriques en vue de leur recyclage : étude des phénomènes mis en jeu
Cédric Espinet
Projet de thèse depuis le 15/01/2024
Institut Charles Gerhardt de Montpellier

Recyclage des batteries Li-ion par énergie solaire
Ahmed Benamar
Projet de thèse en Sciences de l’Ingénieur depuis le 01/11 /2024
Laboratoire : Procédés, Matériaux et Energie Solaire

Procédés mécanochimiques eCO2 efficients pour le recyclage des batteries
Gwenaelle Radenac
Projet de thèse en Chimie depuis le 17/10/2022
Institut de Chimie et Biochimie Moléculaires et Supramoléculaires

Recyclage des batteries lithium-ion, un enjeu de taille pour l’avenir

Un extrait de « Enjeux dans le recyclage des batteries lithium-ion », par Alexandre CHAGNES

En matière de mobilité, les batteries lithium-ion ont permis l’essor d’équipements électroniques de notre quotidien. Mobilité des appareils électroniques, tels que les téléphones, les ordinateurs ou les tablettes, mobilité avec les moyens de locomotion tels que les voitures, les vélos ou encore les trottinettes électriques, ce marché affiche un développement en croissance constante. Les batteries lithium-ion ont par ailleurs également un rôle important à jouer pour le développement du stockage électrochimique des énergies intermittentes produites à partir d’éoliennes, de panneaux solaires, etc.

On estime ainsi que d’ici 2030, la demande de batteries lithium-ion sera multipliée par 35. Dans ce contexte, le taux de recyclage augmentera forcément en parallèle, auquel s’ajoutera le recyclage de batteries défectueuses et des résidus de production des giga-factories. Trois de ces usines géantes, dédiées à la production de batteries et de moteurs pour véhicules électriques sont notamment situées en France.

Recycler pour moins dépendre

Les batteries lithium-ion peuvent contenir des terres rares et d’autres métaux précieux, mais ces éléments sont majoritairement produits par des pays étrangers, dont principalement la Chine, rendant la France dépendante de ces pays pour son approvisionnement. Parvenir à réduire, au moins partiellement, cette dépendance est donc un défi de taille, pour la France et plus globalement pour l’Europe. La réglementation prévoit d’ailleurs que les batteries produites contiennent un pourcentage de matières, selon leur nature, issues du recyclage.

Dans ce contexte, la gestion d’une filière efficace de recyclage a ici toute son importance, mais se voit opposer trois enjeux.

Le premier est environnemental. En effet, les déchets peuvent potentiellement être dangereux pour l’environnement. De plus, les matières recyclées peuvent contribuer à réduire l’utilisation de ressources minières. Par ailleurs, le recyclage permet de réduire l’émission de gaz à effet de serre.

Le second enjeu concerne la sécurité, puisque des batteries abandonnées sans être correctement traitées dans une déchetterie peuvent être à l’origine de feux.

Enfin, le troisième enjeu est stratégique, puisque les métaux constituant les batteries peuvent être recyclés et s’inscrire dans de nouveaux équipements.

Répondre à ces enjeux est donc primordial pour inscrire durablement le recyclage dans une optique d’économie circulaire, c’est-à-dire en utilisant des ressources dont l’approvisionnement est assuré, afin de permettre le développement rapide de batteries performantes et à un prix accessible.

Cependant, en France, seules deux usines sont en capacité de prendre en charge le recyclage complexe des batteries lithium-ion. Pour y remédier, des consortiums se créent, rassemblant des recycleurs, des industries de la métallurgie extractive, d’autres impliquées dans la production de batteries et de matériaux les composant, ou encore des producteurs de véhicules électriques. Ces ensembles contribuent à la mise en place d’une filière de recyclage efficace, à l’impact environnemental aussi minime que possible.

Comment s’effectue le recyclage ?

Différentes méthodes permettent le recyclage des batteries. Il peut s’agir, par exemple, de récupérer les métaux contenus dans les électrodes ou encore de valoriser le graphite. La récupération du lithium, pour sa part, fait également l’objet de recherches.

Les résidus de batteries, issus de la production des giga-factories, peuvent être traités soit par des procédés chimiques et thermiques, soit par un procédé hydrométallurgique, également utilisé pour traiter les batteries comportant des défauts.

Enfin, les batteries en fin de vie peuvent être réattribuées à d’autres équipements que les véhicules électriques, ou bénéficier à leur tour d’un recyclage hydrométallurgique. Dans ce cas, elles sont d’abord déchargées pour des raisons de sécurité, puis démantelées avant d’être broyées. Différents éléments connaîtront ainsi une seconde vie.

Pour l’avenir

Quels que soient les procédés de recyclage utilisés, ils sont essentiels pour le développement du marché des batteries et plus globalement d’une mobilité durable, dans un contexte de transition énergétique. Ce recyclage permettra également de renforcer la sécurisation de l’approvisionnement des matières premières.

Le recyclage fait ainsi partie intégrante du cycle de vie d’une batterie lithium-ion. Cependant, si cette technologie est encore amenée à se développer, d’autres commencent à émerger pour des applications diverses. Ces nouvelles batteries – lithium-soufre, zinc-air, sodium-ion… – permettraient de diversifier davantage les technologies et de réduire la dépendance de nos équipements actuels aux terres rares et métaux précieux.

Ingénieuses 2025 : l’ingénierie au féminin, un engagement commun

L’objectif est de combattre les stéréotypes de genre et les comportements sexistes ainsi que promouvoir l’égalité des sexes dans les métiers et formations d’ingénieur.

Les dates à retenir :

  • 20 janvier 2025 : Lancement du concours et ouverture des candidatures
  • 3 février 2025 : Nouveauté 2025 ! Des réunions d’information seront organisées pour les potentielles candidates :
    12h : aux prix de la femme ingénieure
    14h : aux prix aux écoles d’ingénieur·e·s
    18h : aux prix de l’élève-ingénieure France ou Afrique du Nord
  • 8 mars 2025 : Clôture des candidatures
  • Mars – Avril 2025 : Réunion des jurys
  • 15 mai 2025 : Cérémonie de remise des prix en présentiel à Paris

Chaque année, plusieurs prix sont décernés, d’une part pour des projets innovants menés par des écoles d’ingénieur·e·s, et d’autre part des distinctions honorant des femmes ingénieures au parcours remarquable.

En 2025, 10 prix seront attribués :

  • 5 prix pour les écoles
  • 2 pour les élèves-ingénieures
  • 2 pour les femmes ingénieures
  • Enfin, il y aura le prix de la femme du numérique qui a été crée en 2024.

Plus d’informations sur le site d’Ingénieuses.