
Par Hubert Blatz
Stoneridge est un leader mondial dans le domaine des systèmes de caméra et de détection pour véhicules commerciaux et industriels. Les systèmes fabriqués par Stoneridge étant assemblés par collage, Stoneridge a décidé d’automatiser ses procédés, à la fois pour maintenir les standards de qualité du groupe et gagner en productivité.
Avant l’automatisation, les opérations de collage étaient manuelles, ce qui engendrait des variations dans les quantités de colle utilisées. Selon Tom Hafkamp, ingénieur logiciel chez Stoneridge, ces variations de poids pouvaient aller jusqu’à 10 % d’un collage à l’autre !
Or, depuis que Stoneridge a automatisé ses process, cette variation est retombée à seulement 1 %, ce qui est une très nette amélioration et un gage de stabilité pour la production : « Cette évolution a significativement augmenté la productivité et la durabilité de notre processus d’assemblage, avec moins de vérifications et ajustements. »
Par ailleurs, cette optimisation du collage a également permis de réduire les déchets d’adhésifs de 20 %.
Auparavant, les équipements devaient être calibrés tous les 100 produits, ce qui prenait chaque fois entre 5 et 8 minutes. De plus, pour chaque calibration, l’état était vérifié avant et après assemblage, tous les 5 produits. Pour la productivité, le bilan était donc sans appel : pour 400 produits assemblés, 80 mesures étaient nécessaires, ce qui représentait 45 minutes par jour !
Sur ce point, l’automatisation mais aussi le passage à des conditionnements plus grands ont eu un effet radical. Désormais une seule vérification est effectuée, à chaque pause, ce qui prend à peine 2 minutes quotidiennes.
Concrètement, le collage automatisé consiste à utiliser un équipement de dosage volumétrique alimenté par deux lignes d’alimentation, une pour chaque composant A et B. L’équipement choisi par Stoneridge est un système de dépose intégré LOCTITE® EQ RC 50 capable de déposer en points ou en cordons.
Deux pompes à rotor, reliées à un contrôleur, permettent ainsi un dosage précis du volume de chaque ligne. Après mélange à la bonne proportion, la colle est alors appliquée par un robot.
Selon Remco Broekhuizen, ingénieur commercial technique chez Henkel, Stoneridge a été informé des possibilités offertes suite à un séminaire en ligne sur cet équipement. « Nous avons organisé une démonstration et effectué un premier test de validation, après lequel Stoneridge a donné son accord. »
Mais en dehors des considérations techniques, pour Stoneridge, les solutions Loctite de Henkel sont une garantie de maintenir des normes de qualité les plus élevées. Leur collaboration va ainsi au-delà de la simple relation client-fournisseur, puisque Stoneridge et Henkel ont un partenariat d’excellence. Ce partenariat permet ainsi aux deux groupes d’innover ensemble, un exemple récent étant l’ajout d’une connexion Wi-Fi au système afin de faciliter l’envoi de notifications au technicien pour faciliter le suivi de production.
Copyright visuel de Une : Stoneridge/Henkel
À quand des comprimés pharmaceutiques personnalisés ? Peut-être pour bientôt grâce à la fabrication additive. Cette technique a le double avantage de proposer de multiples libertés de design associées à un contrôle du dépôt de matériau au niveau du voxel individuel. Le terme voxel est issu de la contraction de « volume » et de « pixel », ce dernier étant lui-même tiré de la contraction de « picture » et de « element ». En bref, le voxel est à la 3D ce que le pixel est à la 2D. L’impression 3D par dépôt offre une précision jusque dix fois supérieure à celle par extrusion – de 10 à 80 μm contre 100 à 800 μm – pour des matériaux multiples. Autrement dit, ce type d’impression ouvre la porte à l’intégration au sein de comprimés de doses médicamenteuses optimales avec des taux de libération sur mesure. Le tout usinable en grands volumes de production. Reste « simplement » à trouver la bonne recette… que des chercheurs anglais pourraient bien avoir trouvée !
Geoffrey Rivers, professeur assistant à l’université de Nottingham (Angleterre), est le premier auteur d’un article paru courant mai 2024 dans le journal Materials Today Advances. Aidé de ses collègues du Centre de fabrication additive et de l’École de pharmacie de l’université, le professeur a démontré la faisabilité de la co-impression au sein d’une même enveloppe de deux matériaux différents – l’un hydrosoluble, et l’autre non. Pour en arriver là, les scientifiques ont d’abord recherché des polymères hydrosolubles biocompatibles pouvant servir d’excipients, c’est-à-dire de substances capables d’incorporer les principes actifs du médicament. Ils se sont alors tournés vers le poly-ACMO (poly-4-acryloylmorpholine), à la fois hydrosoluble et photodurcissable, qu’ils ont couplé à de l’aspirine pour jouer le rôle de monomère insoluble. Une fois l’impression réalisée, la pilule-test a été durcie sous une lumière ultraviolette pour donner un comprimé de 5 millimètres de diamètre pour 1 millimètre de hauteur.

En poursuivant sur leur lancée, Geoffrey Rivers et ses collègues de Nottingham ont décidé de varier les morphologies de leurs comprimés dans le but de contrôler la libération du médicament chez le patient. En effet, le taux de libération des agents thérapeutiques est déterminé par la surface de l’objet. Le disque, la couronne, ou encore la couronne insoluble pourvue d’un cœur hydrosoluble comptent parmi les formes testées par l’équipe scientifique. Les chercheurs sont ainsi parvenus à étendre leur gamme de taux de libération avec des courbes de dissolution lentes (0,98 +/- 0,04 mg/min), rapides (4,07 +/- 0,25 mg/min) et même multi-étapes (2,17 +/- 0,04 mg/min, puis 0,70 +/- 0,13 mg/min). Ces résultats laissent présager de la viabilité de futurs dosages solides personnalisés à l’aide de tels « polycomprimés », que ce soit dans le cadre de la santé humaine comme de la médecine vétérinaire.
Pour notre dossier de mai, « Les batteries en quête de disruption technologique », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.
Amélioration de la méthodologie de prédiction de durée de vie des batteries de véhicules électriques
Marc Haber
Thèse de doctorat en physique des matériaux, soutenue le 09/01/2023
Laboratoire d’innovation pour les technologies des énergies nouvelles et les nanomatériaux (CEA Liten)
Ρrοnοstic des batteries lithium en utilisant l’intelligence artificielle
Abdelilah Hammou
Thèse de doctorat en Génie électrique, soutenue le 14/09/2023
Laboratoire universitaire des sciences appliquées de Cherbourg
Maintenance prévisionnelle des batteries lithium-ion dans les véhicules électriques à base d’apprentissage automatique
Inès Jorge
Thèse de doctorat en Informatique, soutenue le 24/11/2023
Laboratoire des sciences de l’ingénieur, de l’informatique et de l’imagerie
Étude de la formation de SEI dans les batteries Li-ion à l’aide de nouvelles approches basées sur la XPS in situ
Federico Giovanni Capone
Thèse de doctorat en Physique et chimie des matériaux soutenue le 05/04/2024
Synchrotron SOLEIL
Fabrication par impression jet d’encre d’électrodes 3D pour les nouvelles batteries Li-ion : opportunités et défis
Kinga Sztymela
Thèses de doctorat en Matériaux céramiques et traitements de surface, soutenue le 25/09/2023
Institut de Recherche sur les CERamiques
Contrôle et gestion optimale des centrales hybrides hydroélectriques couplées aux batteries pour une meilleure flexibilité dans les systèmes électriques du futur
Stefano Cassano
Thèses de doctorat en Énergétique et génie des procédés, soutenue le 27/09/2023
Centre Procédés, Énergies Renouvelables et Systèmes Énergétiques
Utilisation des MOFs (metal organic frameworks) comme nouveaux précurseurs pour les matériaux de batterie Li-ion
Anna-Caroline Lavergne Bril
Thèse de doctorat en Matériaux, mécanique, électrochimie, génie civil, soutenue le 19/07/2023
Laboratoire des composants pour l’énergie
Des nouveaux matériaux pour des batteries sans métaux
Valentin Gouget
Thèse de doctorat en Matériaux, mécanique, électrochimie, génie civil, soutenue le 21/09/2023
Laboratoire d’innovation pour les technologies des énergies nouvelles et les nanomatériaux (CEA Liten)
Vers un nouveau concept de batterie protonique
Ekaterina Kurchavova
Thèse de doctorat en Chimie Physique, soutenue le 13/10/2023
Laboratoire de réactivité de surface
Vers la réversibilité des carbones fluorés en batterie
Marie Colin
Thèse de doctorat en Chimie des matériaux, nanomatériaux et procédés, soutenue 18/10/2023
Institut de Chimie de Clermont-Ferrand
Un extrait de «Batteries électriques pour applications portables et embarquées – Technologies » par Serge PÉLISSIER, Ali SARI et Pascal VENET
Compte tenu de la diversification des équipements, choisir une technologie d’accumulateur pour une application donnée mobilise des connaissances et des informations multiples. Chaque famille d’accumulateurs présente en effet des spécificités au niveau des caractéristiques en puissance ou en énergie. De plus, les conditions d’usage diffèrent d’une technologie à l’autre.
Les accumulateurs NiCd affichent de meilleures performances que celles des batteries au plomb, permettant leur essor depuis les années 1960, toutefois freiné par leur prix plus élevé.
Ils peuvent accepter des courants de décharge importants et fonctionnent dans une large plage de température. Par ailleurs, plus la tension de fin de décharge est faible, et plus la capacité déchargée peut être élevée. Toutefois, on constate l’apparition d’un effet mémoire ; ainsi, une cellule soumise à plusieurs cycles de décharge/recharge partiels sans être déchargée complètement perd de sa capacité.
Remarquables en termes de durée de vie et de fiabilité, ces batteries sont toujours employées de nos jours, mais leur utilisation est interdite en Europe en raison de la toxicité du cadmium qu’elles contiennent.
Ces batteries, dont la commercialisation a débuté, dans les années 90, présentent une densité d’énergie supérieure aux accumulateurs NiCd.
Cependant, du fait de ces dégagements gazeux qui peuvent survenir en fin de charge ou de décharge, la conception des batteries NiMH doit intégrer des dispositifs limitant les surpressions. Par ailleurs, le couple NiMH est plus énergétique et présente un auto-échauffement plus important. Le protocole de charge intègre donc une surveillance de la variation de la température associée à un dispositif de coupure pour limiter l’aspect exothermique. L’accumulateur NiMH supporte les décharges profondes grâce à la recombinaison, au niveau de l’électrode positive, de l’hydrogène qui se dégage. Mais, il n’est pas conseillé de pratiquer cette situation, car toute l’énergie électrique est transformée en chaleur.
Comparé aux batteries NiCd, la tension en fin de charge est moins élevée pour les NiMH, mais leur échauffement plus important impose des modes de charge différents, qui impose la surveillance du gradient de température de l’accumulateur. Les courants de décharge peuvent aller jusqu’à 12C et fonctionnent dans une large plage de température. Néanmoins, un stockage long est à proscrire au-dessus de 45 C°.
Les accumulateurs lithium-métal polymère peuvent posséder de très bonnes performances, mais l’utilisation d’électrode négative en lithium métal pose aujourd’hui de gros problèmes de sécurité et de durée de vie, compte tenu de la formation de dendrites de lithium pouvant perforer le séparateur et donc engendrer un court-circuit. Pour éviter ces risques, on peut utiliser un électrolyte polymère qui constitue un obstacle aux courts-circuits.
Les accumulateurs lithium-ion (Li-ion), quant à eux, sont constitués d’une électrode négative utilisant un composé d’insertion à la place du lithium métallique. Chaque type de chimie de batterie lithium-ion possède des caractéristiques propres, leurs caractéristiques (tensions nominale, minimale et maximale, régime de courant, durée de vie, densité d’énergie, etc.) peuvent donc être différentes. De plus, l’utilisateur des accumulateurs doit respecter une plage de températures. Mais, les valeurs basses de température engendrant plusieurs phénomènes, une valeur de température limite est fixée par les constructeurs.
Des dispositifs de surveillance s’imposent par ailleurs afin de garantir le respect des limites de tension et de température. Enfin, la sécurité de leur fonctionnement dépend du choix des matériaux constitutifs, ainsi que des sécurités passive et active.
Les technologies au lithium se sont développées dans les applications où la densité d’énergie volumique et/ou massique est un argument important. Elles occupent actuellement pleinement le marché du stockage de l’énergie électrique.
La technologie NiMH occupe encore un créneau dans les applications où une notion d’interchangeabilité avec des piles existe.
La technologie NiCd, pour sa part, est interdite à la vente au grand public en Europe, sauf pour les systèmes d’urgence, d’alarme, d’éclairage de sécurité et les équipements médicaux. Son impact environnemental est en outre un inconvénient majeur en raison de la présence du cadmium qu’elle contient.
Les batteries NiMH ne contiennent pas de matériaux toxiques, mais en raison de la présence de terres rares, telle que le lanthane, leur recyclage est recommandé. Le risque toxicologie n’existe par ailleurs qu’en cas de manipulation de grande quantité de certains matériaux, lesquels devront en outre être recyclés.
Les technologies utilisant le lithium-ion vont encore progresser en densité d’énergie, en durée de vie et en maturité industrielle. Des améliorations sont attendues par exemple en introduisant du silicium au niveau de l’électrode négative ou par l’utilisation de matériaux nanostructurés. Les technologies sodium-ion commencent à apparaître avec des performances prometteuses.
Beaucoup de travaux de recherche portent actuellement sur des technologies lithium « tout solide » utilisant des électrolytes solides et du lithium sous forme métallique. On peut donc s’attendre à ce que le domaine des accumulateurs portables connaisse dans les années à venir des changements importants.
Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 13 juin 2024 !
Batteries électriques pour applications portables et embarquées – Technologies, par Serge PÉLISSIER, Ali SARI et Pascal VENET
A l’heure actuelle, les batteries lithium-ion représentent la technologie la plus performante, aussi bien en termes de performance que de filière industrielle. Ces batteries sont composées de nombreuses cellules individuelles, assemblées entre elles. Ces cellules, identiques entre elles, présentent une électrode positive, une électrode négative, un électrolyte et un séparateur. L’électrode positive, ou cathode, est composée d’oxyde métallique de lithium, et contient, en proportions variables selon les modèles, du nickel, du manganèse et du cobalt. L’électrode négative, quant à elle, est très souvent composée de graphite. Les matériaux qui composent l’électrolyte sont des sels dissous dans un solvant. Enfin, le séparateur, qui sert à éviter les courts circuits, est souvent constitué d’un film polymère. La plupart des batteries innovantes en développement, si elles font appel à des matériaux nouveaux, sont également constituées en partie de ceux cités précédemment. A l’exception des batteries organiques, dont l’atout principal est justement leur recyclabilité, mais qui ne sont pour le moment qu’au stade expérimental, et qui présentent à l’heure actuelle des faiblesses en termes de puissance.
Aujourd’hui, face à la multiplication des usages des batteries, notamment pour le développement et l’avènement programmé des véhicules électriques et plus généralement de la mobilité électrique, certains de ces matériaux risquent de voir leur disponibilité poser problème. En effet, certains ingrédients des batteries lithium-ion voient leurs gisements être répartis de manière très inégale à la surface du globe. Prenons l’exemple du lithium. Les principales réserves, par ordre de grandeur, se trouvent dans l’ordre au Chili, en Argentine, en Australie, en Chine, aux Etats-Unis, au Canada, au Zimbabwe et au Brésil. On constate qu’aucun pays européen n’apparaît dans ce classement, même si le Portugal possède des gisements de lithium. Cela pose un problème géopolitique évident, en vue d’une mobilité tout électrique : l’ambition européenne de produire sur le vieux continent les batteries qui équiperont les véhicules électriques appelés à se généraliser sur son sol pourrait bien se heurter à cette réalité. Au mieux, il s’agit là d’une dépendance qui affaiblira l’autonomie de la filière, au pire d’une épée de Damoclès sur l’ensemble de la chaîne de valeur du tout électrique. Autre exemple, le nickel : aujourd’hui, la Russie possède 10% des réserves mondiales dans son sous-sol. La situation en Ukraine laisse imaginer quelles pourraient être les tensions futures liées à l’approvisionnement des constructeurs de batteries européens en nickel, s’ils sont contraints de faire appel aux ressources russes.
Aussi, l’enjeu actuel autour de ces matériaux réside dans l’impact écologique de leur extraction, qui entre dans le bilan carbone du cycle de vie des batteries. Au final, des pénuries, à court et à long terme, sont prévisibles au vu des productions planifiées de batteries pour les années futures sur des matériaux comme le nickel, le cobalt et surtout le lithium.
Les industriels misent sur l’innovation pour pallier à ces pénuries prévisibles. Si la recherche travaille au développement de batteries utilisant des matériaux nouveaux, c’est bien des disruptions en termes de recyclage qui pourraient faire émerger une solution de long terme. Les industriels cherchent ainsi à fermer le cycle des métaux utilisés dans les batteries. Cela permet d’une part d’économiser de façon drastique les besoins d’importations de matériaux, mais aussi de produire des batteries ayant un impact écologique moindre, de l’ordre de 25%.
Renault pourrait être le premier constructeur, au niveau européen, à recycler ses batteries à l’échelle industrielle, à travers le projet TFIN (The Future Is Neural). Ce qui permettrait à la marque au losange d’économiser sur les besoins en matériaux, qui entrent à 70% dans le coût d’une batterie, cette dernière représentant 40% du coût d’un véhicule électrique.
Alexandre Chagnes : J’ai effectué une thèse sur les électrolytes et la chimie dans les batteries lithium-ion, puis au Canada sur l’hydrogénation électrocatalytique de molécules organiques. Ensuite, j’ai travaillé pendant un an au CEA à Saclay sur la spéciation dans les réacteurs nucléaires. De 2005 à 2016, maître de conférences à l’École Nationale Supérieure de Chimie de Paris, j’ai travaillé sur l’hydrométallurgie, un domaine que j’ai développé à partir de 2017 à l’université de Lorraine.
J’occupe actuellement différents postes de direction, notamment celui de directeur scientifique du projet LabEx, qui regroupe plusieurs laboratoires. Son objectif est de développer la chaîne de valeur, en partant de la matière première issue des ressources, qu’elles soient primaires ou secondaires, jusqu’aux matériaux semi-finis, en intégrant les aspects économiques et environnementaux dans une perspective d’économie circulaire. De plus, j’enseigne à l’École nationale supérieure de géologie de Nancy et aux Mines de Nancy, ainsi qu’à l’université de Troyes, en Italie également et ponctuellement en Argentine.
Je poursuis ma recherche sur l’hydrométallurgie dans le laboratoire GeoRessources, dédié aux géosciences. L’équipe dont je fais partie travaille sur la métallurgie extractive. Elle est divisée en deux groupes : l’un se consacre à la concentration du minerai, et l’autre que je dirige s’intéresse à l’hydrométallurgie appliquée aux ressources primaires ou au recyclage. 80 % de mes activités de recherche portent sur le recyclage des batteries lithium-ion. En mars 2024, j’ai créé avec un collaborateur la start-up WEEEMET dédiée au recyclage des cartes électroniques.
Je me suis toujours référé, notamment à Chimie Paris, à la documentation de Techniques de l’Ingénieur, l’université y étant abonnée. J’y trouvais notamment des réponses aux questions, en fonction du sujet étudié. Je disposais d’une vision synthétique et détaillée grâce aux articles des experts. À la faveur des références croisées, l’ouverture sur d’autres sujets est intéressante.
En 2023, j’ai accepté avec plaisir la proposition d’intégrer les équipes d’auteurs et conseillers scientifiques de Techniques de l’Ingénieur, compte-tenu de la référence que cette édition constitue aux yeux des chercheurs. Outre la reconnaissance qu’elle permet, diffuser notre expertise contribue à consolider et développer les connaissances scientifiques.
A l’université de Lorraine, il y avait un travail important sur les ressources primaires sans intégrer le recyclage ni les procédés hydrométallurgiques qui nécessitent une connaissance approfondie de la chimie des solution, de la thermodynamique et des procédés. La chimie des solutions et la thermodynamique m’ont toujours intéressé. Mon premier sujet de master et de stage a donc porté sur la chimie des solvants pour les électrolytes. J’ai ensuite postulé pour une thèse avec l’aérospatiale, au CNES, sur le sujet des batteries dans l’aérospatial. J’ai ainsi pu approcher et apprécier, le domaine de la chimie des solutions et l’électrochimie. L’hydrométallurgie appliquée au recyclage, notamment des batteries lithium-ion était encore peu connue à cette époque. Je l’ai découverte à l’occasion d’un concours, qui m’a permis d’être nommé maître de conférences.
Mes connaissances en chimie des solutions et thermodynamique, éléments que l’on retrouve dans le domaine de l’hydrométallurgie, se sont ajoutées à celles du nucléaire, acquises lors de mon travail au CEA. Le centre traitait de l’hydrométallurgie par le biais du traitement des combustibles usés des réacteurs nucléaires. Nous étions plusieurs à nous intéresser à ce sujet et le nombre de places disponibles y était limité. J’ai donc décidé de contracter avec Orano, anciennement Areva, afin de travailler à la production d’uranium par voie hydrométallurgique. C’est réellement cette expérience qui a marqué mes débuts professionnels dans ce domaine. Ensuite, j’ai développé l’hydrométallurgie pour les batteries, afin de combiner le recyclage des batteries et la production des métaux utilisés dans leur fabrication.
Les véhicules électriques contiennent de nombreux métaux importants, notamment dans les aimants du moteur qui intègrent des terres rares, ou encore les batteries. Celles-ci s’appuient actuellement sur deux grands types de technologies : NMC (nickel, manganèse, cobalt) auquel s’ajoute le lithium d’une part, et LFP (lithium, fer, phosphore) d’autre part.
Les métaux importants pour les batteries sont le nickel, le manganèse, le cobalt et le lithium. La technologie LFP est plus contraignante parce qu’hormis le lithium, elle contient du fer, sans grande valeur. Ses matériaux étant peu coûteux, son recyclage s’effectuerait donc à perte.
Du point de vue du recyclage, la technologie de batterie importante est donc celle du NMC, pour la récupération du lithium, cobalt, nickel, manganèse, principalement, mais aussi pour le cuivre et l’aluminium qui composent les collecteurs de courant. Malgré son importance, le cuivre est peu évoqué dans le cadre de la transition digitale et énergétique. Cependant, très utilisé, son prix devrait augmenter. Il faut donc le récupérer, notamment dans les cartes électroniques. C’est le point de départ de la start-up que je monte sur cette activité.
Une première réglementation européenne de 2006 traitait de la façon d’inclure l’économie circulaire et le recyclage des batteries. Elle était adaptée à des batteries type nickel-cadmium, plomb-acide, nickel-métal hydrure, et fixait à 50 % le taux de récupération. Elle n’est en revanche pas adaptée aux technologies de batterie actuelles, car sans recycler les matériaux des batteries, 50 % du poids d’une batterie est déjà à recycler.
En 2016, une réglementation intermédiaire plus adaptée a été décidée, puis une directive européenne votée en juillet 2023. Elle est adaptée aux batteries lithium-ion, puisqu’elle permet d’augmenter le ratio de la masse de la matière à recycler dans une batterie, de 50 à 70 %, voire au-delà. Elle intègre aussi la notion de devoir obligatoirement recycler les batteries, de mettre en place une filière de recyclage, et aussi d’intégrer dans la fabrication des batteries des matériaux issus du recyclage, ce qui constitue une nouveauté. La fabrication d’une batterie intègre un certain pourcentage de différents sels métalliques, qui stimule, dynamise et cadre le recyclage. Enfin, les évolutions de la réglementation insistent sur la nécessité d’utiliser des matériaux acceptables éthiquement, notamment des métaux qui ne sont pas extraits par des enfants.
La première batterie lithium-ion a été développée par Sony en 1991[1]. Elle était constituée d’un oxyde de cobalt lithié dans les électrodes positives (140 milliampères-heures par gramme de capacité stockée à l’intérieur) et de graphite dans l’électrode négative (autour de 280 milliampères-heures par gramme). Depuis, on est passé de l’électrode dite LCO (Lithium, Cobalt, Oxyde) à une électrode manganèse, LiMn2O4, puis à l’électrode NMC dans les années 2000.
Si la capacité de stockage de ces électrodes n’a pas significativement augmenté au cours du temps, leur sécurité d’utilisation s’est en revanche améliorée. La quantité de cobalt, très coûteux, a été réduite, au bénéfice du nickel, plus accessible. Ces changements ont amené des électrodes qui cyclent plus (jusqu’à 2500 cycles charge-décharge), mieux sécurisées et plus abordables, avec une capacité de stockage stable. L’électrode NCA, pour sa part, intègre de l’aluminium et a des capacités beaucoup plus importantes, mais est peu utilisée sur le marché.
L’évolution notable s’observe dans les autres caractéristiques des électrodes, actuellement de type NMC dont la teneur en métaux peut varier, en termes de stœchiométrie, selon les besoins (par exemple NMC 811 et NMC 622 ou bien LFP pour les véhicules électriques).
À côté de cette technologie lithium-ion, les technologies sodium-ion commencent à arriver sur le marché, notamment via les véhicules électriques produits en Chine. Leur utilisation se prête à des distances plus courtes, avec un temps de charge de quelques minutes, ouvrant d’autres perspectives.
Le recyclage des batteries est assez récent. Les premières batteries ont fait leur apparition en 1991. L’idée de les recycler a émergé autour de la fin des années 1990, début des années 2000. Les premiers procédés à l’échelle industrielle s’appuyaient sur des procédés pyrométallurgiques, nécessitant une haute température, très énergivores et émetteurs de gaz à effet de serre. Par ailleurs, ces techniques ne permettent pas de séparer finement les différents matériaux qui constituent les batteries, ni même de produire les sels utiles à la transition énergétique. Le recyclage privilégie depuis des procédés hydrométallurgiques. Plus doux et plus fins, ils permettent de produire des sels de haute pureté pouvant être réutilisés dans la conception de nouvelles batteries lithium-ion.
Actuellement, le recyclage tente de combiner hydrométallurgie et traitements thermiques, pour créer de nouveaux procédés. Pour la plupart, ces procédés s’élaborent sur une chimie assez classique, bien que certaines entreprises (par exemple, Mecaware) travaillent à développer des procédés de rupture. Pour sa part, l’entreprise de recyclage suédoise Revolt – filiale de Northvolt et adossée à une gigafactory – s’appuie sur la dissolution de la matière active pour fabriquer une nouvelle électrode.
Les futures usines de recyclage traiteront d’abord, non pas des batteries usagées, mais des résidus industriels de production de batteries.
En France, les gigafactories sont situées essentiellement dans le nord du territoire. Pour éviter les impératifs liés au transport et à la logistique, les usines de recyclage devraient donc les rejoindre de façon à traiter en premier lieu les résidus de fabrication des batteries. Il est possible que le maillage s’homogénéise avec l’installation d’entreprises dédiées au recyclage des batteries dans d’autres régions.
Des alliances se créent, ce qui est novateur. Un fabricant de voitures s’allie à un recycleur, une entreprise issue de la filière de recyclage s’associe avec un chimiste qui fabrique des électrodes. Ainsi, des consortiums se créent entre différentes entreprises afin de prendre en charge toute la chaîne de valeur du produit, du déchet jusqu’au produit final, dans un contexte d’économie circulaire.
L’Europe – et avec elle la France – a réalisé sa dépendance à des pays géopolitiquement instables. D’autres sont stables, par exemple, l’Argentine a du lithium, mais c’est compliqué politiquement. La Chine, dont nous sommes dépendants également, produit aujourd’hui entre 80 et 90 % des batteries. Face à ce constat, l’Europe agit pour la construction des batteries sur ses territoires. Outre des gigafactories, la matière première lui est donc indispensable.
Nous devons dès lors soit nous allier avec des pays à même de nous assurer un approvisionnement via leurs gigafactories, soit développer l’économie circulaire afin d’obtenir la matière première issue du recyclage sur nos territoires. Nous pourrions également développer des mines en Europe. Tout cela se fera par un jeu d’alliances, bien connu des gouvernements européens.
Si le recyclage a démarré, il ne suffit cependant pas à satisfaire entièrement la demande dans un monde en pleine croissance. Des mines sont nécessaires pour gagner en autonomie énergétique. Pour les développer, nous devons connaître avec exactitude les ressources exploitables et disponibles de notre sol ; ce n’est le cas ni en France ni en Europe.
Des géologues du laboratoire GeoRessources travaillent sur la caractérisation des gisements et la compréhension des mécanismes qui conduisent à leur formation. Cette exploration est très importante, puisqu’elle nous aide également à détecter les gisements et à caractériser les ressources.
Il est aussi important de communiquer largement sur la réalité actuelle de l’exploitation d’une mine, très différente de celle d’antan, et sur ce que signifie l’intégration d’une mine à notre territoire. Le projet de mine de lithium en Allier est l’objet d’un grand débat public jusqu’en juillet 2024. Répondre aux questions, rassurer sont des façons de montrer que le gouvernement est garant de la sécurité de la population et de l’environnement. La mine est une industrie comme une autre, avec un accès clair et transparent aux informations concernant sa consommation d’eau.
Outre ce projet de mine de lithium en Allier, des mines se développent au Portugal ou en Finlande, une pour les terres rares dans le nord de la Suède, également dans le nord de l’Europe, le cobalt. En Alsace, la géothermie permettra la production de 20 000 tonnes de carbonate de lithium par an.
Des projets de mines en Europe sont donc annoncés, mais pour être autonomes, nous devons nous appuyer sur l’économie circulaire en permettant le recyclage. L’exploitation de mines devra intégrer les contraintes de sobriété et simultanément s’assurer du développement des industries nécessaires.
Je me focalise à 80 % sur le recyclage de la batterie, un travail que je mène avec des industriels. Une société, notamment, spécialisée dans le recyclage de lampes basse consommation, souhaite élargir son activité aux batteries lithium-ion. Elle s’intéresse entre autres aux batteries de la petite mobilité électrique (vélos, trottinettes…).
Deux technologies existent pour les batteries de vélo. La première, la technologie NMC est d’usage pour les vélos onéreux, tandis que la technologie LFP se retrouve dans les vélos au prix modique. Or, lors de leur collecte, les batteries sont mélangées. Cette mise en vrac pose problème parce que le fer des batteries LFP ne convient pas en hydrométallurgie. En conséquence, nous développons un procédé qui permettra de traiter ce flux complexe à composition variable, à forte teneur en fer, de façon à pouvoir récupérer le nickel, le manganèse et le cobalt. J’espère que le projet pourra permettre la création d’une usine de recyclage d’ici 2028.
Par ailleurs, je m’intéresse également à l’implantation de nouvelles briques technologiques, comme l’électrodialyse. je m’interroge sur l’implantation de cette brique dans les procédés de recyclage des batteries lithium-ion. L’objectif est de récupérer le lithium, non pas en fin, mais en début de procédé, tout en évitant d’en perdre tout au long du processus. Le projet de la start-up WEEEMET vise à développer un procédé de récupération du cuivre à partir de déchets électroniques, de type carte électronique, grâce à un procédé qui produit des concentrés en amont brevetés par MOB-E-SCRAP. Le fondateur de MOB-E-SCRAP et moi, nous avons fondé WEEEMET qui traitera et extraira le cuivre contenu dans le concentré produit par MOB-E-SCRAP, et et réalise de la R&D pour les partenaires industriels. À l’avenir, l’or, l’argent, l’antimoine et l’étain, c’est-à-dire tous ces métaux qui sont mis de côté actuellement, seront également récupérés.
Pour devenir enseignant-chercheur, les principales qualités sont la curiosité, la ténacité et l’ouverture d’esprit. La curiosité conduit à s’intéresser à de nombreux sujets, en discutant avec différentes personnes, issues d’horizons divers. De ces échanges naissent de nouvelles idées. La ténacité est importante, parce que l’enseignant-chercheur aujourd’hui endosse de nombreux rôles et casquettes, allant de la gestion à la comptabilité, la logistique, le dépôt de projet, la rédaction d’articles… Il ne faut pas avoir peur de toucher à tout ni, bien entendu, de travailler.
Mon premier message aux candidats pour une thèse est de passer leur chemin s’ils ne sont pas certains de vouloir faire de la recherche. On peut essayer d’attirer les meilleurs, mais s’ils ne sont pas heureux, cela ne donne rien de bon, et trois ans est une longue période. Je leur conseille de bien réfléchir à leur sujet de thèse et de ne revenir qu’après la réflexion leur permettant de confirmer leur choix. Je leur conseille aussi de discuter avec d’autres doctorants et post-doctorants. Se renseigner sur le budget alloué à la thèse est par ailleurs un précieux indicateur.
Ensuite, ce long chemin requiert du courage. L’obtention de la thèse ne suffit pas à devenir enseignant-chercheur. Trois ou quatre ans de post-doctorat à l’étranger sont vraisemblablement nécessaires avant qu’un poste ne s’ouvre effectivement.
Hormis ma participation à des congrès en France et à l’étranger, notamment en Argentine, j’ai toujours écrit. La rédaction de mon huitième livre est en cours. Les activités liées à la communication, à l’édition font partie de moi.
J’interviens également dans différents comités éditoriaux, dont celui de Techniques de l’Ingénieur. Cela m’intéresse parce que je dispose ainsi d’une autre vision, de l’intérieur, facilitant la compréhension du fonctionnement. Dès lors, participer à l’actualisation de contenus pour Techniques de l’ingénieur m’intéresse. Enfin, cette collaboration est une façon pour moi d’être reconnu dans mon domaine ; c’est valorisant de pouvoir avoir un impact, une certaine importance.
Les contributions d’Alexandre Chagnes aux Techniques de l’Ingénieur
Alexandre Chagnes contribue en tant que conseiller scientifique et auteur auprès de Techniques de l’Ingénieur.
[1] Batterie de type Li-ion (LIB)
À lire
Réponse à la consultation européenne – Projet de règlement sur les matériaux critiques
Les modules sans fil forment des composants vitaux des appareils interfacés à la peau. En effet, leurs systèmes électroniques radiofréquences peuvent récupérer de la puissance tout en offrant des capacités de télécommunication. Malheureusement, ces composants radiofréquences ont montré une certaine sensibilité à la déformation élastique. Des tractions, même faibles, ont tendance à modifier leurs propriétés électriques (comme la fréquence de résonance dans le cas d’une antenne). Or, ce genre d’imprévu mène souvent à une perte notable de la puissance du signal sans fil. Un cas de figure à prévoir, d’autant plus dans des environnements fortement dynamiques tels que la surface de la peau ! Le salut pourrait venir des matériaux diélectro-élastiques, qui associent des propriétés diélectriques (notamment l’isolation électrique) à une grande capacité à se déformer. Ces nouveaux matériaux promettent ainsi de prévenir efficacement les changements de fréquence impromptus au niveau de l’interface peau-systèmes électroniques radiofréquences.
L’intérêt de ces nouveaux matériaux a été mis en avant en mai 2024 dans un article publié dans Nature. Une équipe internationale de chercheurs issus de l’université Rice (Houston, États-Unis) et de l’université de Hanyang (Séoul, Corée du Sud) y a présenté le développement de son propre matériau diélectro-élastique. Leur objectif : que ce dernier permette de maintenir les propriétés radiofréquences originelles des appareils, peu importe les contraintes élastiques leur étant appliquées. Pour ce faire, le premier auteur de cette recherche, Sun Hong Kim, alors assistant de recherche à Hanyang et désormais postdoctorant à l’université Northwestern (Evanston, États-Unis), et ses collègues ont procédé par rétro-ingénierie. L’idée étant d’imiter l’élasticité des mouvements de la peau, tout en contrant les effets disruptifs dus à la déformation et en minimisant la perte énergétique et la chaleur engendrée. La confection de leur matériau est passée par l’intégration d’amas de nanoparticules de céramique hautement diélectriques à un polymère élastique. En calculant les bonnes distances entre les particules ainsi que la forme optimale des amas, les scientifiques ont pu stabiliser les propriétés électriques et la fréquence de résonance des composants radiofréquences.

Pour s’en persuader, l’équipe de recherche s’est attelée à construire divers appareils sans fil déformables. Parmi eux, une antenne, une bobine ou encore une ligne de transmission. Les performances de ces systèmes électroniques ont ensuite été évaluées selon deux cas de figure : avec comme substrat le matériau développé par les chercheurs, ou un élastomère standard. Le résultat était sans appel. Alors que toute déformation coupait irrémédiablement la connexion pour l’élastomère standard, les systèmes couplés au matériau diélectro-élastique gardaient une communication stable jusqu’à 30 mètres de distance ! En poursuivant sur leur lancée, Sun Hong Kim et ses collègues ont développé des bandes bioniques adaptables à différentes parties du corps : la tête, les genoux, les bras et les poignets. À l’avenir, de tels appareils pourraient envahir les établissements de santé, où ils viendraient fournir surveillance, diagnostic et soin personnalisés pour chaque individu.
En 2022, le marché mondial des batteries s’élevait à 116 milliards d’euros. Dont près de la moitié concernant le secteur de la mobilité, pour lequel les batteries lithium-ion sont ultra majoritaires. Les géants industriels producteurs de ce types de batteries se trouvent en Asie, continent qui regroupe, avec la Chine en tête de gondole, près de deux tiers de la production. Le groupe CATL[1], basé en Chine, produisait en 2022 35% des batteries lithium-ion au niveau mondial.
La domination actuelle de la Chine sur la production de batteries dédiées à la mobilité, et plus largement sur la filière industrielle de production de véhicules électriques, s’explique d’abord par la capacité de l’Etat chinois à orienter l’activité des acteurs industriels nationaux à travers un capitalisme d’Etat qui a démontré son efficacité depuis plusieurs décennies. Aussi, la Chine a toujours été en retard, en termes d’innovation et de compétitivité, sur les Européens et les Américains en ce qui concerne les moteurs à combustion. De ce fait, dès la fin des années 1990, l’Etat chinois a commencé des expérimentations sur les véhicules électriques, pour être en mesure de devenir leader sur un marché à peine émergent à l’époque. Au courant des années 2010, le plan “Made in China 2025” a mis en place un système de subventions pour faciliter l’accès des Chinois aux véhicules électriques. Ces subventions n’étaient accessibles que pour des véhicules dont les batteries étaient 100% chinoises, une manière très efficace de booster la demande en batteries “made in China”. Une stratégie payante, qui fait aujourd’hui de ce pays le leader incontesté de cette filière industrielle, appelée à dominer le secteur de la mobilité dans les décennies à venir, a priori.
Aujourd’hui, les Etats-Unis et l’Europe produisent chacun 7% des batteries électriques au niveau mondial, à des années lumières de la Chine. Le vieux continent a mis en place, à travers le paquet de propositions législatives Fit for 55, des objectifs climatiques ambitieux, qui impliquent notamment la fin de la vente de véhicules thermiques et l’avénement des véhicules électriques, à partir de 2035. Pour cela, la mise en place d’une filière de production de véhicules électriques, et donc de batteries, est actuellement à l’œuvre, à travers le développement dans de nombreux pays européens de gigafactories pour produire ces fameuses batteries (Par exemple Verkor en France). Ainsi, l’Europe, qui dispose actuellement d’une capacité de production d’environ 70 GWh pour les batteries, doit atteindre, c’est l’objectif fixé par la commission, une capacité de production de 550 GWh à l’horizon 2030. Un changement d’échelle donc, dans un temps record, soutenu financièrement au niveau continental.
Dans cette course contre la montre pour rattraper le retard européen, deux écueils majeurs se font jour. D’abord, la pénurie potentielle en matières premières, ou en tout cas la forte dépendance vis-à-vis de pays étrangers qui va se créer pour être en mesure de mettre en place cette augmentation de cadence de production dans les années à venir. C’est particulièrement vrai pour les besoins à venir en termes de cobalt, de lithium, de manganèse ou de graphite, qui pourraient freiner les ambitions européennes. Second point, la consommation d’énergie tout au long de la chaîne de production des batterie est très importante, les incertitudes actuelles sur les prix de l’énergie constituent donc une inquiétude pour le futur.
Au-delà de ces limitations potentielles, l’Europe a mis en place, pour favoriser autant que possible la montée en puissance d’une filière européenne des batteries compatible avec la compétition au niveau internationale et les objectifs continentaux au niveau environnemental, un “règlement batteries”. Ce dernier, adopté en juillet 2023, met en place un cadre réglementaire autour de la production des batteries, sur tout le cycle de vie de ces dernières : matières premières, production, fin de vie, recyclage… Pour obliger les producteurs – du monde entier – voulant équiper de futurs véhicules européens à se plier aux mêmes règles que celles édictées en Europe. Un moyen de limiter la concurrence déloyale au niveau écologique des producteurs chinois par exemple.
[1] Groupe CATL (Contemporary Amperex Technology Company Limited)
15 milliards d’euros. Un record d’investissements a été annoncé à l’occasion de la 7ème édition du sommet Choose France, cet événement initié par Emmanuel Macron, dont le but est de mettre en valeur l’attractivité de la France afin de promouvoir les investissements industriels étrangers. En 2023, ce sont 13 milliards d’euros qui avaient été annoncés. Au Château de Versailles, près de 200 chefs d’entreprise étrangers de 40 nationalités différentes ont été réunis et il a été présenté 56 projets d’investissements représentant la création de 10 000 emplois. Dans un contexte où la France tente d’amorcer une phase de réindustrialisation du pays, voici les principales annonces à retenir.
La promesse d’investissement la plus importante revient à Microsoft qui compte investir 4 milliards d’euros pour développer son infrastructure dans le domaine du cloud et de l’intelligence artificielle. Une expansion de ses sites à Paris et Marseille est prévue ainsi que l’ouverture d’un nouveau site dans l’agglomération de Mulhouse pour héberger des centres de données de nouvelle génération. Amazon, autre acteur des GAFAM, compte également investir plus de 1,2 milliard d’euros pour renforcer son réseau logistique ainsi que soutenir le développement de son infrastructure cloud. Le géant du e-commerce souhaite aussi développer ses capacités françaises en matière d’intelligence artificielle et d’informatique en nuage.
Autres annonces dans le domaine du numérique : le cabinet de conseil Accenture dont le siège se situe en Irlande, va ouvrir deux centres d’IA Générative à Paris et à Sophia-Antipolis. La société américaine Equinix, l’un des principaux opérateurs de centres de données dans le monde, prévoit d’investir plus de 630 millions d’euros dans ses installations en France. Quant à Telehouse, le leader mondial des data centers à forte connectivité, filiale du groupe japonais KDDI, cette société compte allouer un milliard d’euros à la construction de trois nouveaux data centers éco-responsables en régions Sud et Île-de-France. Enfin, l’entreprise finlandaise IQM Quantum Computers, spécialisée dans l’informatique quantique, va construire une unité de production industrielle d’ordinateurs et de puces quantiques, avec l’installation d’une ligne pilote au CEA-Leti à Grenoble.
Des entreprises étrangères vont aussi investir en faveur de la décarbonation. McCain, le géant canadien de la frite surgelée, va investir un milliard d’euros en Europe dont 350 millions d’euros seront destinés à moderniser et décarboner des usines situées dans le Pas-de-Calais et la Marne. La société espagnole FertigHy, qui regroupe un consortium d’investisseurs parmi lesquels Heineken, InVivo et Siemens, va installer en France sa première usine de production d’engrais à faible émission de carbone. Montant de l’opération : 1,3 milliard d’euros. Le site, implanté dans la région des Hauts-de-France, permettra la production de 500 000 tonnes d’engrais bas carbone par an à l’horizon 2030. La start-up néerlandaise Thorizon va investir une vingtaine de millions d’euros dans le développement d’un petit réacteur nucléaire (SMR pour small modular reactor) à sels fondus dans la région lyonnaise.
Du côté de la mobilité, la compagnie maritime danoise DFDS envisage de rendre 100 % électrique une nouvelle génération de ferries traversant la Manche d’ici à 2035. L’investissement s’élève à un milliard d’euros et sera notamment utilisé pour développer les installations électriques dans les ports de Calais et de Dunkerque afin de recharger rapidement les bateaux. L’entreprise allemande Lilium annonce un investissement de 400 millions d’euros pour assembler en France son avion régional électrique à décollage et atterrissage verticaux (eVTOL). Skeleton Technologies, leader européen du stockage d’énergie à haute puissance et à charge rapide, a choisi la région Occitanie pour développer ses activités. L’entreprise estonienne y construira une usine pour fabriquer sa batterie à haute puissance. Dans un premier temps, un centre de R&D sera construit à Toulouse cet automne et le budget global de ces projets s’élève à 600 millions d’euros.
Dans la santé, le groupe pharmaceutique britannique AstraZeneca s’est engagé à investir 365 millions d’euros pour l’extension de son site de Dunkerque afin de construire deux lignes de production supplémentaires permettant la transition vers une production de médicaments contre l’asthme plus verts. L’américain Pfizer prévoit d’investir plus de 500 millions au cours des cinq prochaines années pour renforcer sa R&D en France, notamment au travers de collaborations de recherche clinique et l’augmentation d’essais cliniques, dans des domaines comme l’oncologie et l’hématologie, ainsi que pour la production pharmaceutique sur le territoire français.
Les points forts des batteries lithium-ion sont connus : elles peuvent être utilisées sur une gamme très large d’usages. A côté de cela, leur longue durée de vie, la puissance qu’elles sont capables de délivrer, ainsi que la limitation de l’autodécharge, les rendent performantes pour de nombreuses applications, dans de nombreux secteurs industriels.
Pour autant, les batteries lithium-ion ont des défauts, ou plutôt des limites. Tout d’abord, et même si ce n’est pas le facteur le plus gênant technologiquement parlant, ces batteries sont difficiles à recycler, en grande partie à cause de l’aspect hautement réactif des composants qui la constituent. Cette limite, dans le cadre de la transition énergétique, offre deux trajectoires : soit la disruption, qui permettra de développer des procédés innovants pour – beaucoup – mieux recycler les batteries lithium-ion, soit le développement de nouvelles batteries, constituées de matériaux différents, plus simples à recycler.
Enfin, citons deux inconvénients importants liés à l’usage des batteries lithium-ion, à savoir leur sensibilités aux températures, et les risques d’incendies, qui limitent les usages et sont source d’insécurité, encore aujourd’hui.
Face à ces limites, et à la nécessité de franchir des paliers en termes de densité énergétique, d’autonomie, et de recyclabilité, à la fois pour élargir la palette des usages des batteries, et pour entrer dans les clous des objectifs écologiques nationaux et internationaux, plusieurs pistes sont développées à l’heure actuelle.
S’il reste compliqué – impossible ? – de déceler aujourd’hui quelles seront les batteries qui supplanteront les technologies lithium-ion, force est de constater qu’il existe une grande variété de solutions mises en œuvres dans les laboratoires de recherches, et testées au niveau industriel.
Citons tout d’abord les technologies de batteries dites solides. Ces dernières sont appelées ainsi car l’électrolyte qui les compose se trouve sous forme solide. Grâce à cela, les batteries développées ont une densité énergétique qui peut être multipliée jusqu’à dix fois par rapport à une batterie lithium-ion de même volume. Cela permettrait donc, pour une puissance donnée, de disposer de batteries plus petites et plus légères, avec des applications évidentes, pour les véhicules électriques, voir les avions électriques, pour qui le poids des batteries est aujourd’hui extrêmement limitant. Aussi, les batteries solides devraient avoir une durée de vie plus importante, et ne peuvent pas s’enflammer, deux critères de performance importants pour des usages à grande échelle. Les pistes les plus sérieuses aujourd’hui étudiées pour constituer les électrolytes font appel à des matériaux tels que les polymères solides, le verre, la céramique ou les sulfites. Enfin, et ce n’est pas anodin, les batteries solides fonctionnent, technologiquement parlant, de manière assez similaire aux batteries lithium-ion, ce qui présente un avantage pour développer ces batteries dans un laps de temps assez restreint.
Les batteries à flux redox, qui sont un type de batteries d’accumulateurs, dont l’usage est plutôt réservé aux usages stationnaires. L’innovation majeure de ce type de batteries réside dans le découplage entre la capacité énergétique de la batterie et sa puissance. La grande taille de ces systèmes limite leurs usages, mais leur capacité à fournir une énergie stable dans le temps pourrait les rendre indispensables pour le stockage des excédents d’électricité produits par les éoliennes ou les panneaux solaires, par exemple.
Les technologies de batteries organiques, qui présentent aujourd’hui des limites importantes en termes de densité énergétique, ont l’immense avantage d’être composées de matériaux biodégradables, qui rendent leur impact environnemental intéressant, écologiquement parlant.
Dernier exemple, les batteries au graphène, matériau qui assure une conductivité énergétique et thermique élevée, ce qui permet de diminuer drastiquement les temps de charge. Malheureusement, la production du graphène reste toujours, à l’heure actuelle, chère et technologiquement très compliquée.
Le monde serait-il finalement sur la bonne voie pour sortir du charbon et reposer sur les énergies renouvelables ? En 2023, les énergies renouvelables ont généré 30 % de l’électricité mondiale, selon la Revue mondiale de l’électricité 2024 du groupe de réflexion Ember. Un record, tiré par la croissance du solaire et de l’éolien qui représentent désormais 5,5 et 7,8 % de l’électricité mondiale, derrière l’hydroélectricité (14,3 %). Dave Jones, expert chez Ember estime que « l’année 2023 constitue probablement un tournant décisif dans l’histoire de l’énergie », marquant le pic d’émissions du secteur électrique. « Mais le rythme de la baisse des émissions dépendra de la rapidité avec laquelle la révolution des énergies renouvelables va se poursuivre », prévient-il. L’UE est en tête avec 44 % d’électricité renouvelable, dont 27 % d’énergie solaire et éolienne. Les émissions du secteur électrique de l’UE ont culminé en 2007. Depuis, elles ont diminué de 46 %.
Depuis 2000, la proportion des renouvelables dans la production d’électricité est passée de 19 % à plus de 30 % dans le monde. Cette croissance a permis de réduire l’intensité carbone de la production d’électricité mondiale à 480 grammes de CO2 par kilowattheure (CO2/kWh). Cette intensité a atteint un nouveau record de baisse en 2023, 12 % en-dessous du pic de 2007.
Entre 2022 et 2023, la demande mondiale en électricité a augmenté de 627 térawattheures (TWh). La production solaire et éolienne a alors augmenté de 513 TWh, couvrant près de 82 % de cette demande. Dans des conditions normales, les nouvelles capacités en énergie renouvelable ajoutées en 2023 auraient suffi à faire baisser de 1,1 % la production fossile. Mais le déficit en hydroélectricité (- 88 TWh) a, au contraire, dû être comblé par une augmentation de la production en énergie fossile. Cela a entraîné une augmentation de 1 % des émissions mondiales du secteur électrique. En hausse de 135 millions de tonnes d’équivalent CO2 en 2023, elles atteignent 14,15 milliards de tonnes d’équivalent CO2, un nouveau record.
Lors de la COP28 climat à Dubaï en décembre 2023, les dirigeants mondiaux ont convenu de tripler la capacité mondiale des énergies renouvelables d’ici 2030. Cet objectif vise à atteindre 60 % d’électricité renouvelable à cette date. Cela permettrait de réduire presque de moitié les émissions du secteur de l’énergie.
Pour atteindre ces objectifs, il faudra encore accélérer la croissance des énergies renouvelables. Par exemple, selon le scénario Net Zero Emissions de l’Agence internationale de l’énergie (AIE), la production mondiale d’électricité éolienne doit augmenter pour représenter 18,5 % du mix électrique en 2030 et 31 % en 2050. De même, l’énergie solaire devra continuer à croître à un rythme soutenu.
Malgré les défis, les progrès vers l’abandon du charbon paraissent tangibles, en dépit d’une hausse d’électricité produite à base de charbon de 1,4 %. En 2023, la production d’électricité à partir de charbon a connu des baisses significatives dans plusieurs économies de l’OCDE, y compris l’UE, les États-Unis et le Japon. 95 % de l’augmentation de la production de charbon en 2023 s’est produite dans quatre pays gravement touchés par la sécheresse : la Chine, l’Inde, le Vietnam et le Mexique.
Le rapport montre que la croissance attendue de l’électricité renouvelable donne l’assurance qu’une nouvelle ère de baisse des émissions du secteur de l’électricité est sur le point de commencer. En 2024, le rapport prévoit une diminution de 2 % de la production mondiale d’énergie fossile.
Le 26 mars dernier, un tournant majeur pris dans l’industrie automobile mérite d’être souligné : la marque suédoise Volvo a produit son ultime voiture possédant un moteur diesel. Il s’agit d’un XC90 bleu, un grand SUV[1] équipé d’un quatre-cylindres diesel 2.0 turbo. Cette dernière production aura le privilège d’être exposée au nouveau musée World of Volvo, à Göteborg, en Suède.
Annoncé lors de la semaine du climat à New York, ce cap novateur illustre la volonté d’engager une transition vers le tout électrique au moment même où de nombreux constructeurs retardent leur conversion en proposant encore des modèles à moteur à combustion interne. Cette mutation sera progressive puisque la gamme de la firme produira encore des modèles hybrides rechargeables avant d’atteindre l’objectif du 100 % électrique à l’horizon 2030.
Après Smart ou Porsche, Volvo intègre donc à son tour la liste des rares constructeurs automobiles à avoir totalement abandonné les moteurs diesel. Pour la firme suédoise, c’est la fin d’une aventure qui avait débuté en 1979 avec le tout premier modèle diesel, la 244 GL D6, alors équipé d’un moteur Volkswagen avant que Volvo ne commence à produire ses propres moteurs diesel en 2001.
Les motivations de ce virage ne sont pas seulement de nature écologique ; la marque s’adapte également à la demande du marché en misant sur de nouveaux investissements plus rentables. En effet, alors que la tendance est à la baisse pour le diesel, l’électrique est un marché en plein essor. En 2019, le diesel représentait encore la moitié des ventes du constructeur en Europe. Aujourd’hui, la tendance générale s’est inversée, notamment en France, où les voitures électriques représentent 15,5 % du marché contre 10,6 % pour les diesels. Pour rappel, le mix du diesel sur le marché français était de 31,1 % il y a encore trois ans. Au niveau mondial, les ventes de véhicules électriques Volvo ont augmenté de 70 % en 2023 par rapport à 2022.
Ce tournant s’accompagne d’une transformation industrielle qui impliquera une reconversion des usines Volvo, dédiées à la production de véhicules électriques et de leurs batteries. Filiale du chinois Geely, elle [Volvo, NDLR] ne mise plus sur les investissements dans le développement de moteurs à essence ou diesel. En effet, en 2022, la marque a cédé la part qu’elle détenait dans Aurobay, une coentreprise dédiée aux moteurs à combustion.
Après avoir lancé l’EX90, un SUV 100 % électrique, le constructeur suédois a mis sur le marché, en 2023, l’EX30, un véhicule électrique au prix très abordable de 37 000 € grâce à une fabrication délocalisée en Chine.
Au niveau industriel, l’enjeu est de développer de nouvelles techniques pour réduire les coûts et le poids des futurs modèles électriques. Un crossover électrique, l’EX60 qui devrait arriver en 2026, sera produit grâce au procédé de mégacasting pour l’assemblage de la partie arrière. L’avantage est d’obtenir une seule pièce d’aluminium au lieu de la centaine de pièces précédemment utilisée. Ce procédé permet une réduction du poids de 50 %. Cette innovation s’inspire de la méthode de fabrication de gigacasting mise au point par Tesla. Notons que le Tesla Model Y domine le marché en étant le véhicule le plus vendu dans le monde en 2023 avec 1,2 million d’unités écoulées.
[1] Sport Utility Vehicle
Sortie de piste lors du décollage d’un 737 à Dakar le 9 mai, problèmes de train d’atterrissage sur un 767 la veille, détachement d’une porte-bouchon en plein vol le 5 janvier… Entre les problèmes de production, les non-conformités et les soupçons de falsification de documents par des employés, Boeing traverse une crise inédite.
Le 17 avril, quatre lanceurs d’alerte témoignaient devant le Sénat américain au sujet des graves problèmes de production qui concernent les Boeing 737 Max, 787 Dreamliner et 777.
Avant l’ouverture de la série d’auditions au Sénat, le président de la commission d’enquête et sénateur démocrate Richard Blumenthal résumait ainsi la situation de Boeing par cette phrase :
« Ce que nous allons entendre aujourd’hui du lanceur d’alerte, c’est un exemple de comportement des grands groupes donnant priorité aux bénéfices au détriment de la sécurité, à la cadence de production avant presque tout le reste ».
En effet, alors que les carnets de commandes des donneurs d’ordre sont pleins pour dix ans, aussi bien côté Boeing que côté Airbus, augmenter les cadences de production sans faire aucune concession sur la qualité et donc sur la sécurité est un véritable défi. Or, c’est justement ce qui est reproché à Boeing.
Richard Blumenthal révélait ainsi qu’il y a « de plus en plus de graves accusations selon lesquelles la culture de la sécurité chez Boeing est brisée »
Et il semblerait qu’elle le soit depuis plusieurs années, si l’on en croit les témoignages et les faits.
Pour mieux comprendre, il faut revenir en arrière. En 2018 et 2019, les crashs de deux 737 Max 8 ont causé la mort de 346 personnes en raison de défauts de conception, clouant au sol pour deux ans les Boeing 737.
Lors d’audiences organisées en 2020 par le Congrès américain, Ed Pierson, ancien combattant de l’US Navy, était entendu en qualité de directeur sur la ligne de production du 737, entre 2015 et 2018.
Pierson affirmait qu’à l’époque, il était tellement préoccupé par les mauvaises conditions de production à l’usine, qu’« il hésitait à emmener sa propre famille dans un avion Boeing ». Selon lui, la cause principale de ces dysfonctionnements était « la pression des gestionnaires pour construire de nouveaux avions le plus rapidement possible. »
Le 6 mai, L’Agence américaine de l’aviation civile (la FAA) a également ouvert une nouvelle enquête afin de savoir si Boeing a correctement mené les inspections requises quant à la jonction des ailes au fuselage de certains 787 Dreamliner.
Il faut par ailleurs préciser que cette enquête a été ouverte après que Boeing eut informé la FAA « qu’il n’avait peut-être pas effectué les inspections requises ».
Malgré la multiplication des incidents techniques concernant ses avions et les accusations dont il fait l’objet, Boeing se dit « confiant dans la sécurité et la durabilité des 787 et 777 ». L’avionneur a également promis la mise en œuvre de plusieurs plans d’actions immédiates permettant de renforcer la qualité et la sécurité. Un premier plan a été remis à la FAA et le second est attendu prochainement.
De son côté, l’agence européenne de la sécurité aérienne estime, sur la base des informations fournies par la FAA, que « la situation est sous contrôle, même si elle relève de la responsabilité de la FAA. »
En attendant de voir les résultats de ces actions, cette crise majeure de sécurité risque de provoquer une crise de confiance qui pourrait sembler favorable à Airbus. À condition néanmoins que l’avionneur européen soit en mesure de récupérer les commandes de son concurrent. Dans le cas contraire, cela pourrait alors favoriser l’entrée de nouveaux constructeurs, notamment le chinois COMAC et son C919.
Début mai, l’État a réuni le Comité stratégique de filière (CSF) automobile. Objectif : signer un nouveau contrat de filière qui doit orienter tout le tissu industriel vers une nouvelle chaîne de valeur permettant de réduire de 100 % les émissions des véhicules à l’échappement à partir de 2035, comme prévu par le cadre législatif européen. L’enjeu est d’autant plus complexe que la filière vise aussi une plus forte digitalisation de ses produits, de ses process industriels et des services de mobilité, et que l’impératif de création d’emplois et de richesses sur les territoires se fait plus pressant.
La filière automobile dit se positionner comme « services et industries des solutions face au défi climatique » selon les mots de Luc Chatel, président du CSF : formule assez audacieuse quand on sait que le secteur du transport routier est le premier émetteur de CO2 en France… Le défi de la conversion des moyens de déplacement vers des solutions décarbonées a en tout cas été bien identifié comme un défi industriel, complémentaire des autres actions comme le développement des transports en commun, des mobilités douces, etc.
Le précédent contrat stratégique 2018-2022 a déjà mis la filière sur la voie de l’électrification des véhicules. Ainsi, 200 000 véhicules électriques ont été vendus en 2022 et 300 000 en 2023, représentant une part de marché autour de 18 %. Le nombre de points de recharge a atteint 100 000 en mai 2023. Le soutien de l’État à l’innovation a aussi été relevé, notamment à travers le Comité d’orientation pour la recherche automobile & mobilités (Coram). Ce dernier a épaulé 60 projets depuis 2020, avec 393 M€ d’aides pour 1,2 Md€ d’investissements.
À date, quatre projets de gigafactories dans le domaine des batteries électriques ont aussi été annoncés en France, pour faire émerger une offre nationale innovante et compétitive. Bruno Lemaire a appuyé cet aspect de la réindustrialisation française en allant visiter récemment le site de Blue Solutions (groupe Bolloré) dans le Finistère. Le spécialiste des batteries solides Lithium-métal y a officialisé son activité de R&D et le lancement d’une ligne de production pilote dans l’agglomération de Quimper. Elle sera suivie par la construction d’une grande usine de fabrication de batteries dans le Grand-Est, près de Mulhouse. À terme, avec un investissement global de 2,2 milliards d’euros – grandement aidé par des crédits d’impôt – cette gigafactory vise une production annuelle de 25 GWh de batteries, soit l’équivalent des besoins de 250 000 véhicules électriques par an, selon Blue Solutions.
Mais tout cela n’est qu’un début. Le nouveau contrat stratégique 2024-2027 engage toute la filière à accélérer, des constructeurs de véhicules jusqu’à tous les équipementiers et entreprises de services.
Ce nouveau contrat s’articule autour de six axes. Les trois premiers ambitionnent de stimuler l’innovation, de gagner en compétitivité, de renforcer l’attractivité de la filière, de former aux nouvelles compétences, de sécuriser les approvisionnements stratégiques (spécialement sur l’électronique de puissance), et de renforcer une dynamique collective. Il s’agit de mettre tout en œuvre pour que le contexte soit favorable à la mutation du secteur automobile, avec un fort rôle de l’État, par exemple grâce aux aides de France 2030.
L’axe 4 vise particulièrement l’accélération de la transition écologique. Il s’appuie sur les objectifs fixés par la planification nationale : multiplier par quatre les ventes de véhicules particuliers 100 % électriques par rapport à 2022, soit 800 000 en 2027 ; multiplier par six celles de véhicules utilitaires légers pour dépasser 100 000 ventes en 2027. Pour y arriver, le contrat prévoit le maintien de dispositifs de soutien à l’achat de ce type de véhicules (sans les détailler), le déploiement d’infrastructures de recharge et d’avitaillement, y compris en hydrogène, et la promotion de l’offre de véhicules électriques « en prenant en compte l’exigence de sobriété ». Sur cet aspect, il est évoqué l’optimisation de la consommation de matières et l’allègement des structures, sans qu’on sache vraiment si c’est un appel à construire des voitures plus petites. Par ailleurs, aucun mot sur les véhicules roulant au bioGNV, qui auraient pourtant un rôle à jouer dans la décarbonation.
Enfin, les deux derniers axes complètent la panoplie des objectifs de durabilité de la filière automobile. L’un en insistant sur l’intérêt de l’économie circulaire (écoconception, réemploi et remanufacturing de pièces, recyclage des métaux, des plastiques, des batteries, des composants électroniques et des véhicules industriels). L’autre en englobant toutes les autres actions sur le parc de véhicules existants (carburants décarbonés, rétrofit, écoconduite, etc.) et sur les usages (covoiturage, intermodalité, nouveaux services des collectivités locales).
Il restera à voir si toutes ces bonnes intentions seront effectivement et rapidement appliquées par le secteur automobile. Une proposition de loi en cours d’examen sur l’accélération et le contrôle du verdissement des flottes sera un bon test : les entreprises concernées (notamment les loueurs) ne doivent pas freiner son ambition afin que ce soit un levier de déploiement massif des véhicules électriques, comme l’ont fait remarquer plusieurs associations et la CFDT dans une lettre ouverte au Premier ministre fin avril.
On le répète à l’envi, le développement de filières industrielles innovantes, que ce soit concernant l’hydrogène, les véhicules électriques, la production d’électricité bas carbone, le recyclage (…), sont une nécessité pour espérer donner corps aux ambitions écologiques françaises, européennes et mondiales, illustrées par l’objectif d’être neutre en carbone à l’horizon 2050. Si la neutralité carbone constitue le graal à atteindre, le chemin pour y parvenir est constellé d’innovations technologiques qui doivent, alliées à une notion nouvelle, la sobriété, permettre d’atteindre cette ambition.
Dans ce contexte, le développement de batteries plus performantes est indispensable. Il convient ici d’étayer la notion de performance en ce qui concerne les batteries. Elle recouvre deux aspects. D’abord, l’amélioration des paramètres qui définissent ce qu’est aujourd’hui une batterie performante, selon l’usage : la puissance délivrée, l’autonomie offerte, la rapidité de charge, le nombre de cycles, la recyclabilité… d’un autre côté, la disruption des usages existants via l’amélioration des technologies. L’exemple le plus parlant est celui du transport routier : les batteries actuelles améliorent les performances des véhicules électriques, avec des autonomies autour de 400 à 500 km aujourd’hui. Les batteries, dans le futur, pourraient permettre une autonomie supérieure à 1000 km, ce qui change drastiquement le spectre d’utilisation des véhicules.
Quels seront les usages des batteries dans le futur, dans le contexte de la transition énergétique ? Et quelles disruptions seront nécessaires pour garantir ces usages ? On pense tout d’abord à la mobilité, qu’elle soit routière, aérienne ou ferroviaire, dans le sens où les transports constituent une part importantes des émissions de GES à l’heure actuelle. Les véhicules électriques ont besoin de batteries à haute capacité et à recharge rapide, pour être compétitives par rapport aux performances des véhicules thermiques actuels.
Pour l’aviation et le maritime, ce sont la légèreté et la puissance qui doivent être améliorées, dans des proportions importantes, pour imaginer, par exemple, des avions électriques ayant des performances comparables aux avions de ligne thermiques actuels.
Ensuite, le stockage de l’énergie constitue, après les transports, un pilier de la réussite de la transition énergétique, pour palier l’intermittence de certaines sources d’énergie, éoliennes et solaire en tête. Les améliorations attendues concernent la limitation de l’autodécharge, qui permettra de stocker les excédents de production sur du long terme, et la durée de vie, qui doit être grandement améliorée pour pouvoir généraliser les couplage entre production intermittente et stockage.
Viennent ensuite des usages qui peuvent paraître plus minoritaires, mais qui prennent une place de plus en plus considérable aujourd’hui, que ce soit en termes d’usages, mais aussi des émissions de GES qu’ils génèrent.
Citons l’utilisation des appareils électroniques portables, pour lesquels la charge rapide et la durabilité des batteries est une évolution attendue. Dans la même veine, la domotique mise, pour se généraliser plus rapidement, sur l’augmentation de l’autonomie des batteries, de leur durée de vie, et de l’absence de maintenance. Ces améliorations permettront également d’élargir le spectre d’utilisation des objets connectés.
Ensuite, les réseaux intelligents, autre pilier essentiel de la transition énergétique pour rationaliser la production et la consommation d’énergie, nécessitent des batteries plus performantes pour permettre une gestion plus efficace de l’énergie, et un équilibre entre l’offre et la demande
Dernier exemple, la mobilité urbaine, sous tous ses aspects, qui constitue, à l’instar des exemples précédents, une des pierres angulaires de la transition énergétique. L’amélioration drastique des performances des batteries, sur le plan de la fiabilité, de la légèreté, de la sécurité et de l’autonomie permettront de développer dans des proportions compatibles avec les ambitions écologiques qui sont les nôtres la micro-mobilité et les transports publics pour tous.
En bref, dans le domaine des batteries, les disruptions technologiques à venir vont permettre non seulement de révolutionner les usages actuels, mais constituent une condition indispensable à l’avènement de la transition écologique en cours.
L’affaire aura fait grand bruit. Le 30 janvier dernier, nos confrères du Monde et de la cellule investigation de Radio France révélaient l’existence, au sein de la filière des eaux de source et minérales française, de « pratiques trompeuses » mises en place de longue date et à grande échelle. « Pendant des années, des eaux vendues comme “de source” ou “minérales naturelles” ont subi des techniques de purification interdites », résumait en effet Stéphane Foucart dans les colonnes du Monde. Des traitements mis en œuvre pour une trentaine de pour cent – au moins – des quelque 146 « dénominations commerciales » distribuées sur le marché français, comme l’estime l’Inspection générale des affaires sociales (IGAS) dans un rapport remis au gouvernement en juillet 2022, et aujourd’hui rendu public. Un document dont les auteurs concèdent même ne pas avoir de doute sur le fait que cette part d’environ 30 % soit sous-estimée, et que la mise en œuvre de tels traitements soit en réalité de mise chez « l’ensemble des minéraliers », puisque « délibérément dissimulée »…
Le point de départ de l’affaire est ainsi constitué par une dénonciation, un signalement effectué en 2020 par le salarié d’une usine du groupe Alma, n° 1 français en volume grâce, notamment, à sa célèbre marque Cristaline. « Sur la base [de ce] signalement […], le Service national des enquêtes (SNE) de la direction générale de la Concurrence, de la Consommation et de la Répression des fraudes (DGCCRF) a mené des investigations qui ont permis de révéler un certain nombre d’écarts à la réglementation, tout particulièrement en matière de traitement », indique ainsi le rapport de l’IGAS.
Des investigations dans la foulée desquelles un autre grand nom du secteur – Nestlé Waters, qui détient notamment les marques Hépar, Contrex, Perrier, ou encore Vittel – s’est lui-même manifesté auprès du cabinet de la ministre déléguée en charge de l’industrie d’alors, Agnès Pannier-Runacher, pour – discrètement[1] – confesser à son tour la mise en œuvre « de pratiques de traitement non conformes », comme le note l’IGAS. Un « rendez-vous secret », tel que le décrit Radio France, qui s’est tenu à Bercy fin août 2021. Ceci, « dans une sorte d’étrange et totalement informelle procédure de plaider-coupable », comme le notent, à nouveau, nos confrères de Radio France… « Après ces révélations, […] les ministères compétents (Économie et Santé) […] ont décidé de saisir l’Inspection générale des affaires sociales » retracent les auteurs du rapport publié par le service administratif français.
Outre un travail documentaire et l’envoi de questionnaires à l’ensemble des exploitants de sites de conditionnement d’eau en bouteilles, l’IGAS a ainsi coordonné une campagne d’inspection « de grande envergure », menée par les Agences régionales de santé (ARS) au printemps 2022 auprès d’une quarantaine de marques d’eau en bouteille. « Les travaux réalisés par la mission ne constituent pas un contrôle, mais relèvent davantage d’une étude détaillée des processus d’autorisation, de traitement et de contrôle des EC [eaux conditionnées] », souligne le rapport de l’IGAS.
Ces investigations ont ainsi permis au service administratif d’aboutir à cette part d’au moins 30 % d’eaux minérales et d’eaux de source faisant l’objet de traitements « non conformes à la réglementation ». Et l’IGAS de révéler que « les écarts principalement signalés concernent la pratique de la microfiltration ».
Visant à retenir les particules en suspension dans l’eau, la technique n’est pourtant pas tout à fait proscrite en soi, comme le note l’IGAS elle-même dans son rapport : « Depuis 2001 […], le recours à des filtres dont le seuil de coupure est supérieur à 0,8 µm est toléré par la Direction générale de la santé (DGS) ». Problème, tolérée dans des cas exceptionnels, la mise en œuvre de ce procédé de filtration membranaire s’est toutefois révélée généralisée, et même « dévoyée » selon l’IGAS. En cause, un manque de clarté de la réglementation, mais aussi – et surtout – une recrudescence des situations de non-conformité des eaux conditionnées vis-à-vis des différents critères de qualité auxquels elles se doivent de répondre, définis notamment dans l’arrêté du 14 mars 2007 modifié. « Les ressources aquifères exploitées par Nestlé [Waters] sont régulièrement contaminées microbiologiquement, notamment par des bactéries de type Escherichia coli. Des traces de polluants chimiques, comme des métabolites de pesticides, ont également été découvertes dans l’eau de Perrier. Les traitements non conformes mis en place n’ont donc pas eu seulement pour but de prévenir d’éventuelles contaminations de l’eau, mais bien de la “nettoyer” des contaminants », expliquent ainsi la cellule investigation de Radio France, sous la plume de la journaliste Marie Dupin.
Une situation qui a ainsi poussé le groupe minéralier à commettre – comme il l’a lui-même révélé aux membres de la mission de l’IGAS et à l’ARS Grand Est à l’occasion d’un contrôle mené sur l’un de ses sites d’embouteillage – des écarts « plus graves » encore, comme les qualifie l’IGAS.
Outre la mise en place de dispositifs de microfiltration, agissant, qui plus est, sous le seuil de 0,8 µm toléré à titre exceptionnel par la DGS, les quatre usines du groupe ont en effet mis en œuvre d’autres procédés de traitement « dont l’interdiction est absolue » et qui ne laisse ainsi place à aucune interprétation comme le souligne l’IGAS. En l’occurrence : l’adsorption sur charbon actif, et le traitement par ultraviolets. Des techniques certes autorisées pour la purification de l’eau du robinet et des eaux « rendues potables par traitements », mais interdites pour la désinfection des eaux minérales, qui se doivent en effet, par définition (lire en encadré ci-dessous), d’être microbiologiquement saines et tenues à l’abri de tout risque de pollution d’origine anthropique. « Tout traitement de désinfection par quelque moyen que ce soit et […] l’adjonction d’éléments bactériostatiques ou tout autre traitement de nature à modifier le microbisme de l’eau minérale naturelle sont interdits », précise ainsi la directive européenne 2009/54/CE relative à l’exploitation et à la mise dans le commerce des eaux minérales naturelles.
Ce qui ne signifie toutefois pas qu’aucun autre traitement que la microfiltration ne puisse être réalisé sur les eaux minérales…

De tels procédés sont ainsi mis en œuvre, par exemple, sur certains sites de captage du groupe Alma, comme l’explique par le menu, dans un article publié au sein des Annales de la Société Géologique du Nord, le directeur qualité et environnement des sources Alma, Thierry Vinay. Et le responsable de préciser que « tous ces traitements sont dûment autorisés par arrêté préfectoral et régulièrement contrôlé par les laboratoires des sites, et suivis par l’Agence régionale de Santé ».
Une situation de conformité toutefois loin d’être de mise sur l’ensemble des sites exploités par les minéraliers français, comme l’ont donc mis en lumière les révélations médiatiques de janvier dernier. Pire, dans le cas de Nestlé Waters, certains dispositifs de traitement interdits ont été délibérément cachés, comme le note le rapport de l’IGAS : « Les points de prélèvement utilisés pour qualifier la qualité de la ressource brute (à l’émergence) ont été délibérément positionnés après ces traitements non autorisés ». Des pratiques clairement illégales, face auxquelles le groupe a ainsi annoncé le déploiement d’un « plan de retour à la normale », autrement dit un plan de retrait des dispositifs de traitement non conformes, comme le précise l’IGAS. Prévue pour durer plusieurs mois, l’opération ne garantit en outre pas la possibilité de « juguler la dégradation de la qualité de la ressource », comme le notait l’IGAS dans son rapport remis au gouvernement en juillet 2022. À juste titre au vu de l’actualité récente : Nestlé Waters a annoncé le 24 avril dernier, à Franceinfo et au Monde, avoir procédé à la destruction préventive de pas moins de deux millions de bouteilles de sa marque Perrier, en raison de la présence de bactéries d’origine fécale dans l’un de ses forages de Vergèze, dans le Gard. « Dans un arrêté du 19 avril obtenu par l’AFP, […] le préfet du Gard a mis en demeure l’entreprise de “suspendre sans délai” l’exploitation de l’un de ses sept captages de Vergèze, ce dernier ayant présenté “un épisode de contamination à partir du 10 mars 2024 et sur plusieurs jours par des germes témoins d’une contamination d’origine fécale (coliformes, Escherichia coli), mais aussi par des germes de l’espèce Pseudomonas aeruginosa” », note Stéphane Foucart dans les colonnes du Monde.
Un signe de la pression anthropique de plus en plus lourde qui pèse sur les aquifères exploités par les minéraliers. « Qu’ils soient chroniques ou accidentels, les risques liés à l’agriculture intensive […], l’industrie ou l’urbanisation (ruissellement d’hydrocarbure sur les voiries, fuite des citernes à fioul et du réseau d’assainissement…) sont un enjeu pour la pérennité des agréments eau minérale naturelle et de leurs usages », note ainsi dans un article paru sur le site The Conversation le docteur en géographie économique associé au laboratoire de recherche EVS (Université Lumière Lyon 2) Guillaume Pfund.
Des dangers face auxquels deux outils réglementaires de protection[3] ont été mis en place comme l’explique l’expert, qui les qualifie toutefois de « vieillissants » et qui note qu’ils sont en outre « peu respectés et mobilisés »… « Dans Les Échos, Nestlé Waters explique avoir dû se résigner à cesser l’exploitation de deux émergences, dans les Vosges, alimentant la marque Hépar. Et un quart des puits exploités par la société à Vergèze seront désormais dévolus à la production d’eau aromatisée, qui sera commercialisée sans le label “Eau minérale naturelle” », souligne ainsi dans son article du 31 janvier dernier, le journaliste du Monde Stéphane Foucart.
Or, « les usages économiques liés à l’eau minérale naturelle[4] (EMN) sont étroitement dépendants du maintien de cette appellation », note le chercheur lyonnais Guillaume Pfund, avant, finalement, de le rappeler : « L’enjeu sur le recours à ces traitements [non autorisés], pourtant sans risques pour la consommation humaine, est avant tout un enjeu juridique lié à l’appellation d’eau minérale naturelle. […] La perte de l’appellation EMN entraînerait de lourdes conséquences économiques pour les exploitants ».
Au-delà de cet aspect, sans véritablement constituer un scandale sanitaire stricto sensu, de par la tromperie envers le consommateur qu’elle constitue, mais aussi une certaine forme de connivence entre minéraliers et pouvoirs publics qu’elle révèle[5], l’affaire ne s’apparente pas pour autant – loin de là – à une simple tempête dans un verre d’eau.
Considérées comme des denrées alimentaires, les eaux dites « conditionnées » – en bouteilles et autres bonbonnes – se déclinent en trois grandes catégories : l’eau minérale naturelle, l’eau de source et l’eau rendue potable par traitements. « Ces eaux se distinguent par leur nature, les exigences de qualité qu’elles doivent respecter et les traitements dont elles peuvent faire l’objet », résume le ministère de la Santé.
Les deux premières de ces trois catégories – celles des eaux minérales naturelles et des eaux de source – partagent un point commun : elles sont obligatoirement d’origine souterraine, microbiologiquement saines, et doivent être tenues à l’abri de tout risque de pollution. « Ces eaux ne peuvent faire l’objet que de quelques traitements autorisés par la réglementation (séparation des constituants naturellement présents tels que le fer ou le soufre, notamment), la désinfection de l’eau étant interdite », précise le ministère.
Par rapport aux eaux de source, les eaux minérales naturelles se distinguent par leur teneur en minéraux et oligoéléments, ainsi que la stabilité dans le temps de leurs caractéristiques. « En outre, certaines eaux minérales naturelles peuvent faire état d’effets favorables à la santé reconnus par l’Académie nationale de médecine », note le ministère de la Santé.
Les eaux de source, quant à elles, s’apparentent sur le plan de leur qualité physicochimique et radiologique, à une simple eau du robinet, les traitements en moins, comme évoqué plus haut.
Enfin, comme l’explique, toujours, le ministère de la Santé : « Les eaux rendues potables par traitements sont des eaux d’origine souterraine ou superficielle qui peuvent faire l’objet des mêmes traitements que l’eau du robinet, y compris la désinfection. Elles répondent aux mêmes exigences de qualité microbiologique que les eaux minérales naturelles et les eaux de source, et aux mêmes exigences de qualité physicochimique et radiologique que l’eau du robinet ». Limpide !
[1] Le groupe n’a rendu publique l’information que le 28 janvier dernier dans le journal Les Échos, deux jours avant la parution des enquêtes du Monde et de Radio France.
[2] Source
[3] Notamment le « périmètre sanitaire d’émergence » (PSE).
[4] Embouteillage, mais aussi thermalisme.
[5] Comme le notent nos confrères de Déchets Infos dans un post publié sur X le 30 janvier.
C’est un nouveau chapitre qui débute pour le nucléaire français. Le 7 mai 2024, l’Autorité de sûreté nucléaire (ASN) a officiellement autorisé la mise en service du réacteur EPR de Flamanville de 1 600 mégawatts, le plus puissant au monde. Cette décision marque une étape cruciale dans le projet de ce réacteur de troisième génération, après des années de retards.
Le réacteur, désigné sous le nom d’Installation Nucléaire de Base (INB) 167, est maintenant prêt à entrer en phase opérationnelle, sous la supervision attentive de l’ASN. L’ASN a intégré les retours d’expérience des réacteurs EPR déjà en fonctionnement, notamment ceux de Finlande et de Chine, pour optimiser la sécurité. EDF a dû démontrer que toutes les mesures nécessaires ont été prises pour compenser et corriger les fluctuations observées dans ces installations précédentes.
Avec l’autorisation de l’ASN, EDF peut désormais charger le combustible nucléaire dans le réacteur et commencer les essais de démarrage. Cette phase se déroulera en plusieurs étapes, sous un contrôle strict de l’ASN. Les essais commenceront par « une phase d’essais précritiques », avant de procéder à la « la divergence du réacteur ». Plus clairement, l’ASN précise qu’il s’agit de réaliser les essais d’abord « sans déclencher la réaction en chaîne », avant de lancer le processus dans une deuxième phase et de procéder à « une augmentation progressive de la puissance du réacteur afin de réaliser les essais de démarrage de l’installation ».
L’ASN a déjà prescrit le remplacement du couvercle de la cuve, qui interviendra durant le premier arrêt pour rechargement du réacteur. Mais avant cela, le chemin reste long. Durant la phase d’essais, plusieurs jalons cruciaux nécessitent l’accord explicite de l’ASN. Par exemple, avant que la température du circuit primaire principal et des circuits secondaires principaux n’atteigne 110°C, EDF devra soumettre un dossier détaillé à l’ASN pour validation.
De plus, la divergence du réacteur, qui marque le début du processus de réaction en chaîne, sera également soumise à l’approbation de l’ASN. EDF devra présenter un dossier contenant tous les éléments nécessaires pour garantir que toutes les conditions de sûreté sont remplies.
La poursuite des essais à des puissances supérieures à 25 % et 80 % de la puissance nominale du réacteur sera également conditionnée par l’approbation de l’ASN. Ces points d’arrêt visent principalement à vérifier la calibration du système de protection du réacteur et à s’assurer de la conformité de l’installation aux normes de sûreté.
Outre les étapes nécessitant son accord, l’ASN continuera de surveiller de près les résultats des essais et les événements significatifs qui pourraient survenir. L’ASN indique avoir prévu un « programme d’inspection spécifique pour le contrôle du démarrage du réacteur ». Cela inclut des inspections liées à la manutention du combustible, au chargement du réacteur, à la divergence et au déroulement des essais en puissance.
La décision d’autorisation de mise en service inclut également des prescriptions techniques pour garantir que l’exploitation du réacteur respecte les normes les plus élevées en matière de sûreté et de radioprotection. EDF devra régulièrement informer la Commission locale d’information (CLI) de Flamanville et le public sur le déroulement des essais de démarrage et les étapes ultérieures.
La création du réacteur EPR de Flamanville a été initialement autorisée par décret en 2007. Sa mise en service était alors prévue pour 2012. Mais le chantier a accumulé retards et dysfonctionnements. D’abord avec la découverte de fissures dans le béton coulé pour bâtir les fondations, puis deux décès sur le chantier et l’explosion des coûts à cause des contraintes post-Fukushima. Ont suivi des défauts sur des pièces métalliques, des défauts de conception sur la cuve du réacteur et des soudures défectueuses sur le circuit secondaire du réacteur. Finalement, la demande d’autorisation de mise en service a été soumise par EDF à l’ASN le 4 juin 2021.
L’ASN a ensuite mené une série de consultations publiques pour recueillir les observations du public sur cette demande. Ces consultations, réalisées entre juin 2023 et avril 2024, ont permis de recueillir plus de 2 200 contributions, portant sur divers aspects allant de la politique énergétique française à la sûreté et à l’impact environnemental du réacteur.
En 2018, Daniel Blengino et Yannis Kolodziej, encore étudiants à l’Optique Graduate School de Paris-Saclay (IOGS), créent la start-up Visionairy. Leur objectif ? Répondre aux problèmes de contrôle qualité des industriels en leur offrant des systèmes de visions intelligents pour l’inspection des pièces. Cette technologie est basée sur des logiciels spécialisés en IA pour l’analyse des images de pièces, qui sont facilement connectables avec des caméras industrielles ou disponibles sur le marché. Le programme détecte si le composant est défectueux ou non. Les informations des différentes lignes de production sont centralisées, permettant ainsi de remonter à la source du défaut. Cette technologie réduit le nombre de déchets, car seules les pièces endommagées sont écartées et non plus tout le lot. Mais pour entraîner son IA, Visionairy a besoin d’éléments disposant d’anomalies. Or ils sont très rares. Pour y remédier, la start-up a recours à des images de pièces valides. Ces dernières sont ensuite comparées avec les pièces sur la ligne de production et celles qui présentent des défauts sont éliminées.
En 2022, la start-up a levé 1,2 million d’euros auprès du fonds d’investissement NCI WaterStart ainsi que de business angels et de Bpifrance. Avec ces financements, les deux cofondateurs recrutent une équipe de quinze personnes et accélèrent leur développement commercial, principalement en Europe. En France, ils collaborent notamment avec le secteur cosmétique pour inspecter des bidons d’aluminium avec une précision de 0,1 mm à raison de deux pièces par seconde. Ils travaillent aussi avec Siemens sur divers projets industriels d’ampleur. En Allemagne, la start-up automatise la détection de défaut sur des pièces automobiles complexes avec sa technologie d’IA non supervisée. En Suisse et en Italie, elle surveille un process de défilmage de verre.
La technologie proposée par Visionairy est disponible sur abonnement, qui inclut les prestations de services. La start-up assure que le prix est rentabilisé au bout d’un an, et ce d’autant plus que le nombre de lignes à équiper est grand. Si, pour l’instant, elle se concentre sur les domaines de la cosmétique et de l’automobile, la start-up envisage de se lancer sur les marchés très contraints de l’aéronautique, ou l’IA permettra d’aider à la prise de décision et d’accompagner l’opérateur, et de la pharmaceutique.
Pour aller toujours plus loin, Visionairy cherche aussi à intégrer de la reconnaissance d’objet à son logiciel. Ainsi le programme reconnaîtra automatiquement la pièce qui arrive sur la ligne et pourra lui appliquer un contrôle qualité adapté. L’objectif est de gagner en autonomie et en flexibilité.
Enfin, dans les prochaines années, Visionairy souhaite accroître les performances de ses algorithmes en utilisant l’apprentissage itératif. Au lieu de travailler sur une base de données prédéfinie, le logiciel pourra s’exercer sur les images en temps réel des pièces défilant sur les lignes de production et ainsi régler son inspection en fonction de la réalité du terrain.
En 2022, les ventes de pompes à chaleur (PAC) continuaient de décoller en France et en Europe. Sur l’année, 2,77 millions d’unités ont été vendues en Europe, 621 780 en France. Mais l’année 2023 a été plus morose. « La baisse de 5 %, passant de 2,77 millions d’unités vendues en 2022 à 2,64 millions en 2023, inverse une décennie de croissance », met en garde l’Association européenne des pompes à chaleur (EHPA).
Plus en détail, la France représente actuellement le premier marché européen pour les pompes à chaleur (610 830 ventes en 2023, – 2 %), devant l’Allemagne (438 800 ventes en 2023, + 59 %), l’Italie (343 800, – 33 %), l’Espagne (209 680, + 13 %) et la Suède (195 550, – 9 %). Les ventes se portent particulièrement bien en Allemagne, grâce à une politique de soutien très poussée.
L’Europe s’est engagée à installer 30 millions de PAC d’ici à 2030 dans le cadre du plan REPowerEU. En France, le gouvernement a annoncé en septembre 2023, sa volonté de produire 1 million de pompes à chaleur en France par an d’ici 2027. Cet objectif suppose de tripler le niveau de production actuel. Le 16 avril dernier, Bruno Le Maire présentait son plan d’action pour atteindre cet objectif. Malgré la monotonie ambiante, le plan compte bien atteindre ses objectifs.
En début d’année, l’EHPA soulignait l’importance des soutiens publics pour assurer leur compétitivité dans le contexte énergétique actuel. Pour expliquer ce recul dans la plupart des pays européens, l’EHPA accusait en premier lieu l’évolution des politiques et des subventions gouvernementales, avec des signaux contradictoires pour les particuliers. Elle demandait à l’Europe de finaliser son plan d’action pour les pompes à chaleur avant les élections de juin 2024. Cela ne sera pas le cas.
Après une analyse menée dans 16 marchés européens, l’association relève deux causes complémentaires : « le gaz bon marché et les prêts bancaires coûteux ». Le prix du gaz a eu tendance à baisser, lorsque l’électricité a eu tendance à rester plus élevée. « C’est le cas en Pologne, par exemple, où l’électricité est maintenant quatre fois plus chère que le gaz, sans clarté sur les niveaux futurs de prix de l’électricité, tandis que les prix du gaz sont “gelés” par le gouvernement, souligne l’EHPA. La Slovaquie, où les prix de l’électricité sont trois fois plus élevés que ceux du gaz, vit une expérience similaire. »
En Finlande et en France, le ralentissement est dû à la baisse des nouveaux projets de logements causée par les taux d’intérêt élevés. En Espagne, le taux de rénovation a ralenti et les chaudières à gaz ne sont donc plus remplacées par des pompes à chaleur.
« Des politiques européennes et nationales favorables et stables sont cruciales », commente Jozefien Vanbecelaere, responsable des affaires de l’UE à l’EHPA. L’association appelle à jouer sur la fiscalité pour réduire la différence de prix entre le gaz et l’électricité et supprimer progressivement les subventions aux énergies fossiles.
Le plan d’action présenté par Bruno Le Maire compte créer 45 000 emplois, dont 30 000 installateurs. Il vise notamment à soutenir la création d’usines de production en France, via un crédit d’impôt. Le gouvernement entend aussi mettre en place dès 2025 une « écoconditionnalité » sur les aides aux PAC, pour privilégier les installations de « pompes à chaleur produites sur notre territoire national et européen », prévient le ministre de l’Économie.
« Nous allons contrôler au minimum une pompe à chaleur installée sur deux, en appelant ou en allant voir les consommateurs » a également annoncé Bruno Le Maire. Philippe Notargiacomo, président de HomeServe Energies Services, division dédiée au confort thermique et la performance énergétique du groupe HomeServe, s’interroge sur la faisabilité de cette mesure sans plan de formation massif. « Pour remplir cet ambitieux objectif, la France a besoin de bras formés à ces technologies. La formation des installateurs ne peut plus attendre, elle doit être accessible et massifiée », souligne-t-il.
Toute la question désormais est de savoir si ce plan sera suffisant pour contrer la tendance baissière. Philippe Notargiacomo l’espère, mais n’en est pas convaincu. « Bien que ce plan soit louable dans son intention, les mesures évoquées soulèvent cependant des questions de fond : cette énième modification des critères ne risque-t-elle pas de renforcer l’illisibilité et le blocage du marché ? L’heure doit être à la simplification, à la clarification et à la stabilité des règles pour lui donner un nouveau souffle ! »
L’hôpital Simone-Veil de Cannes, la mairie d’Albi, dans le Tarn, et celle de Gravelines, dans le Nord, Viamedis et Almerys (deux opérateurs du tiers payant de plusieurs mutuelles et complémentaires santé), France Travail (ex-Pôle emploi)…
Les cyberattaques, terme qui vient enfin d’entrer dans le Petit Larousse, sont une réalité. Il ne se passe pas une semaine sans qu’on apprenne que tel ou tel entreprise privée ou organisme officiel (comme France Travail) ont été piratés.
À chaque fois, ce sont des millions de données qui se retrouvent entre les mains de cybercriminels qui les revendent rapidement sur le dark web ou exigent une rançon à l’entreprise ciblée. Dans le cas des deux opérateurs du tiers payant, les informations sensibles de 33 millions de Français ont fuité !
Et le pire est à venir dans quelques semaines avec les Jeux olympiques. Le directeur de l’ANSSI (Agence nationale de sécurité des systèmes d’information) Vincent Strube a prévenu : « Il ne faut pas se faire d’illusions, on ne va pas empêcher toutes les attaques de se produire pendant les Jeux. On ne va pas avoir des Jeux sans cyberattaques. Notre travail, notre objectif collectif, c’est de faire en sorte que ces cyberattaques ne nuisent pas au déroulement des Jeux ».
C’est un constat récurrent depuis des années : ce sont les entreprises qui sont faibles, pas les attaquants qui sont extrêmement forts. Même si les entreprises ont entendu parler des risques cyber et sont de plus en plus sensibilisées, leurs salariés ne connaissent pas toujours les bons réflexes à avoir en cas de cyberattaque. En fait, lorsqu’une personne constate qu’elle ne peut plus ouvrir un fichier Word, accéder à sa messagerie, lancer un logiciel… il est déjà trop tard. Le virus est déjà dans le réseau informatique et infecte tout ou presque.
Dans ce cas, le bon réflexe est de débrancher le câble Ethernet et le wifi de l’entreprise pour limiter, dans la mesure du possible, la propagation du code malveillant. Et il ne faut pas traîner : un ransomware (ou rançongiciel) peut chiffrer des milliers de fichiers en quelques minutes.
Le second réflexe majeur est de ne pas éteindre les ordinateurs. Cela peut paraître surprenant, mais en les laissant allumés, vous facilitez le travail des experts en cybersécurité et/ou des gendarmes dits « N-Tech » (spécialisés dans les investigations numériques). Ils chercheront en effet à mieux comprendre comment l’attaque s’est produite et à trouver des éléments de preuve permettant d’identifier le virus.
Troisième attitude : ne pas faire comme si de rien n’était. Tout le monde peut, par erreur, cliquer sur une pièce jointe infectée. Si c’est le cas, le salarié doit en informer le plus rapidement possible le service informatique de son entreprise. Si celle-ci est de taille suffisamment importante, elle dispose de certainement d’un Directeur des Systèmes d’information (DSI) et de quelques personnes dédiées à la sécurité informatique. Si ce n’est pas le cas, ils feront appel à des prestataires spécialisés en cybersécurité.
Et ensuite, il n’y a plus qu’à attendre. Une cyberattaque peut en effet paralyser l’activité d’une entreprise durant plusieurs semaines ! D’où la nécessité absolue d’appliquer des mesures préventives, ce qu’on appelle notamment « l’hygiène numérique ».
Des règles de base doivent être appliquées par tous les salariés et la direction.
Le risque zéro n’existe pas. Mais ces quelques conseils ont prouvé leur efficacité. Installer un antivirus et un pare-feu ne représente pas une garantie absolue d’éviter d’être piraté, contrairement à ce que prétendent leurs éditeurs. La sécurité informatique repose sur trois piliers fondamentaux : les logiciels de sécurité, l’être humain et les processus.
Crédit visuel de une : rawpixel.com – freepik
Le marché de l’électricité n’en finit pas de créer des questions sur l’avenir du système électrique. En cause : l’apparition de plus en plus fréquente d’épisodes de prix négatifs. Dans ces moments qui peuvent durer quelques heures, les exploitants de centrales sont incités à arrêter leur production. Si cela est devenu une pratique assez courante pour les énergies renouvelables (EnR), on a vu récemment le parc nucléaire français prendre une part plus importante dans cette modulation.
En effet, sur la fin de mars et en avril[1], il y a eu une douzaine d’épisodes significatifs de prix négatifs sur les marchés suisse, allemand, autrichien, ainsi qu’aux Pays-Bas et en France. Cinq d’entre eux ont franchi la barre des – 50 €/MWh en avril et par deux fois une pointe négative dépassant – 100 €/MWh a été observée. Début mai, une pointe ponctuelle à – 200 €/MWh a même traversé les Pays-Bas.
On observe ces prix négatifs surtout dans les pays avec une forte part d’éolien et de solaire photovoltaïque. Lorsque vent et soleil engendrent une forte production et que la consommation n’est pas trop élevée, en particulier les week-ends, l’offre dépasse la demande, ce qui fait baisser les prix de marché. Certaines sources renouvelables bénéficiant d’anciens contrats d’achat sans clause particulière d’arrêt dans ces cas-là, elles continuent d’injecter de l’électricité sur le réseau. Les prix peuvent alors passer sous zéro. Cet aspect est tempéré par le fait que les sites de production renouvelable sont de plus en plus sous contrat de complément de rémunération, où il est prévu que la production soit stoppée en cas de prix négatifs. C’est particulièrement le cas pour les centrales hydroélectriques qui peuvent ainsi garder leur stock d’eau pour des périodes de marché avec des prix plus avantageux.
La France est un peu moins touchée par ces phénomènes, mais ils commencent à apparaître plus souvent. Ainsi, il y a déjà eu une centaine de pas horaires négatifs de janvier à fin avril 2024, alors qu’il y en avait eu 147 durant toute l’année 2023. Surtout, le parc nucléaire est en train de devenir un outil de modulation plus important de ces épisodes (voir graphe ci-dessous). Ainsi, de mi-février à mi-mars, 40 à 45 GW de centrales nucléaires fonctionnaient de manière habituelle, avec de faibles variations de puissance. Le 31 mars, une petite incursion des prix de marchés en négatif engendre déjà une variation de la puissance : le parc nucléaire se module à la baisse de 15 GW deux fois le week-end. Ce dimanche-là à 14h45, le nucléaire représente alors 50 % de la production d’électricité en France, à peine plus que le cumul de l’éolien (19 %), du solaire photovoltaïque (12 %) et de l’hydroélectricité (13 %).
Les 13 et 14 avril, encore plus fort, une modulation d’environ 20 GW est réalisée grâce à l’arrêt de six réacteurs nucléaires pendant le week-end et à la baisse de puissance au minimum technique d’une douzaine d’autres tranches. Lors de ces deux journées, à la pointe solaire vers 14h, le parc photovoltaïque compte à lui seul pour 25 % de la production d’électricité. L’épisode s’est répété les 20-21 et 27-28 avril, avec une modulation d’une dizaine de gigawatts du parc nucléaire.

Selon EDF, la modulation des centrales a été prévue à leur conception, et le parc nucléaire dispose d’une « très bonne manœuvrabilité » d’environ 15 GW en quelques heures. Ainsi, « les réacteurs sont capables d’ajuster jusqu’à 80 % de leur puissance, à la hausse ou à la baisse, en 30 minutes et ce deux fois par jour ». Le producteur national affirme pouvoir programmer ces variations sans incidence particulière : les profils de puissance au démarrage sont pris en compte, les limites techniques sont maîtrisées dès lors que les besoins de production sont anticipés, les matériels subissent peu d’impact vu que la faible durée des épisodes ne génère pas de grosses variations de température sur le circuit primaire.
Néanmoins, EDF reconnaît que ces épisodes vont devenir « plus fréquents et plus profonds » avec le développement des EnR. Si le parc nucléaire continuera à participer à l’équilibrage du système électrique, l’énergéticien considère que de nouveaux « mécanismes impliquant plus massivement les EnR dans cet équilibrage global semblent indispensables ». Il s’agit de répartir l’effort et de solliciter les moyens les plus pertinents économiquement pour réaliser cette flexibilité.
D’autres enjeux apparaissent. Tout d’abord, il s’avère nécessaire de développer plus fortement la flexibilité de la demande. Le gestionnaire du réseau de transport d’électricité, RTE, manque d’offres de consommation à la hausse à activer lors de ces épisodes. Elles seraient pourtant bien utiles, tout comme il va falloir inciter fortement les consommateurs d’électricité à « déplacer » leurs usages lors de ces heures de forte production décarbonée.
Ensuite, RTE et ses confrères européens doivent vérifier que l’arrêt de volumes importants de production ne nuit pas au maintien de la fréquence des réseaux électriques. En ce sens, ils prévoient d’améliorer la gestion de ces épisodes de prix négatifs, notamment par l’amélioration des capacités de prévision des arrêts décidés par les producteurs.
Enfin, les producteurs comme EDF estiment nécessaire de décorréler les signaux de prix de court terme de ceux de long terme. Les premiers sont utiles « pour définir le dispatching optimal des moyens de production », mais les seconds sont incontournables pour inciter aux investissements nécessaires pour l’avenir, y compris en termes de stockage.
Si les fondamentaux du marché de l’électricité ne sont pas vraiment remis en cause par ces épisodes de prix négatifs, il semble donc bien que de nombreuses adaptations soient nécessaires.
[1] 2024
Crédit visuel de une : image générée par Adobe Firefly
Combinées à une résine plastique, les fibres naturelles utilisées par EcoTechnilin confèrent à ses solutions des propriétés particulièrement intéressantes pour de nombreuses applications industrielles : légèreté, rigidité, absorption des vibrations et des sons… Le tout, avec une empreinte carbone réduite. Autant de vertus qui ont su séduire une cinquantaine de donneurs d’ordre, des équipementiers de rang 1 aujourd’hui clients de la PME Normande. EcoTechnilin livre ainsi ses solutions – présentées sous forme de rouleaux ou de formats – à environ 150 sites de production en Europe. Des usines qui se chargent alors de thermoformer ces matériaux de base en fonction de leurs besoins.
Avec un chiffre d’affaires de 16 M€ en 2023, l’entreprise connaît une forte demande, notamment de la part des équipementiers automobiles européens, avec qui elle entretient des relations privilégiées par le biais, notamment, du Pôle de compétitivité NextMove. Pour poursuivre son développement, outre les travaux de R&D auxquels elle accorde toujours une importance majeure, EcoTechnilin envisage d’investir prochainement le marché nord-américain, comme nous le révèle son directeur commercial, Arnaud Lievre.

Arnaud Lievre : EcoTechnilin a été fondée en 1998. Elle s’est implantée en Normandie, car son cœur de métier repose sur la transformation du lin. La région s’avère en effet un leader mondial de la production de fibre naturelle de lin, en concentrant à elle seule 60 % des volumes de lin non oléagineux produits à travers le monde. L’idée d’intégrer du lin dans des produits techniques avait, déjà en 1998, un sens écologique prononcé. Il aurait donc été dommage d’annuler les intérêts environnementaux de cette fibre naturelle par une production trop éloignée du lieu de transformation.
EcoTechnilin appartient aujourd’hui à la coopérative agricole NatUp, qui fédère près de 7 000 agriculteurs et vise à valoriser, sur leur territoire de production, des ressources issues de la nature produites grâce à une agriculture performante et innovante. EcoTechnilin fait donc partie d’un écosystème qui lui apporte à la fois des garanties de proximité, mais aussi une certaine solidité sur le plan économique.
L’entreprise est aujourd’hui dirigée par Karim Behlouli, également à la tête de La French Filature et Lemaitre Demeestere, regroupées avec EcoTechnilin au sein de la division Fibres de NatUp. Il est donc un très grand spécialiste de la fibre naturelle.
EcoTechnilin est aujourd’hui une PME qui compte environ 80 salariés, répartis sur quatre sites de production. Les deux premiers transforment respectivement le lin pour en faire du fil et du tissu. Les deux autres, basés à Valliquerville en Normandie pour l’un, et à Tychy, en Pologne pour l’autre, fabriquent quant à eux des non-tissés à base de fibres de verre et de polypropylène, mais aussi de fibres naturelles, qui constituent notre valeur ajoutée la plus différenciante.
Nous travaillons ainsi principalement trois fibres naturelles : le lin, le chanvre et le kenaf[1], une fibre principalement produite au Bangladesh. Attractive sur le plan économique, ses caractéristiques écologiques et techniques moindres nous poussent à mettre davantage l’accent sur les fibres de lin et de chanvre, produites quant à elles très majoritairement en France.
Pour le lin, EcoTechnilin travaille avec ce que l’on appelle la fibre courte de la plante. C’est une fibre qui était auparavant peu utilisée, car difficilement valorisable dans l’industrie textile. Elle est d’abord traitée de façon à la rendre la plus propre, la plus utilisable possible, en lui retirant les anas[2]. Il en va de même pour le chanvre, auquel on retire cette fois la chènevotte, de façon à n’avoir quasiment plus que de la fibre.
Ce traitement est effectué au sein de nos filiales, ou par certains de nos fournisseurs. Nous réceptionnons donc ces fibres naturelles sous forme de balles. Nous les disposons alors en début de ligne de production aux côtés de balles de fibres synthétiques de polypropylène.

Nous avons aussi la possibilité de mélanger plusieurs types de fibres naturelles, du kenaf et du chanvre par exemple. Les recettes sont définies en fonction des attentes de nos clients. Chaque fibre présente en effet des caractéristiques mécaniques différentes. Il en va de même pour les proportions et la densité des produits mis en œuvre.
EcoTechnilin a pour particularité de pouvoir produire ainsi des non-tissés à base de fibres naturelles sur des largeurs maximales de 2 m 40, avec un seul procédé d’assemblage, de nature mécanique. Une fois parfaitement mélangées, avec la densité souhaitée, ces fibres sont assemblées les unes aux autres avec un système d’aiguilletage, qui nous permet à la fois d’aplatir et d’assembler les fibres. On obtient ainsi des « mats », qui sortent en bout de chaîne sous forme de rouleaux. Ceux-ci peuvent être livrés tels quels à nos clients, mais aussi, le plus souvent, découpés sous des formats spécifiques pour répondre à leurs besoins.
En effet ! L’automobile pèse aujourd’hui pour 92 % du CA d’EcoTechnilin. Les principaux exemples de produits issus de nos solutions dont donc naturellement très liés à ce secteur, où nos produits sont majoritairement utilisés pour fabriquer des éléments non visibles par les conducteurs, car recouverts d’un matériau d’habillage : intérieurs de portes, encapsulages de moteurs, tableaux de bord, vide-poches, tablettes arrières de coffre… Bref, des pièces de renfort qui nécessitent de la rigidité, de la résistance à la chaleur et à l’humidité et auxquelles la fibre naturelle apporte un gain sur le plan de la légèreté, mais aussi de l’insonorisation et de la diminution des vibrations, par rapport à la fibre de verre. Un autre atout extrêmement important est le gain écologique de ces produits. Par rapport à la fibre de verre, une tonne de lin « pèse » en effet bien moins lourd en matière d’empreinte carbone : 123 kg de CO₂ contre 2 500… Il s’agit là d’un critère très important, quand on sait que les constructeurs automobiles tendent aujourd’hui vers le net zero à un horizon très court. Tous les grands constructeurs ont donc aujourd’hui adopté la fibre naturelle : Renault, Stellantis, BMW, Ferrari… Nous sommes aussi présents sur le marché du poids lourd, ainsi que sur celui du véhicule de loisirs.
Nous fournissons à ces clients nos solutions, qu’ils se chargent de transformer en panneaux thermoformés. Ils utilisent pour cela des presses à chaud, qui permettent de faire fondre le polypropylène et de donner ainsi sa forme définitive à la pièce.
Le coût de nos solutions en fibres naturelles est aujourd’hui légèrement plus élevé que celui de la fibre de verre. L’un de nos plus gros concurrents reste toutefois plutôt le secteur des thermoplastiques, qui assure en effet des coûts au kilo ou au mètre carré beaucoup plus bas.
Les objectifs écologiques ambitieux de l’industrie automobile constituent toutefois un vrai atout pour nos solutions. Les demandes que nous recevons sont de plus en plus nombreuses. Les constructeurs sont en effet en train d’adopter une philosophie de plus en plus orientée en faveur de l’écologie.
EcoTechnilin est aujourd’hui également présente sur le marché du design – pour la fabrication de meubles par exemple – mais aussi dans le domaine agricole, pour lequel nous fabriquons des rouleaux de paillage, ainsi que celui des sports et loisirs : ski, snowboard… mais aussi sports de raquette. Un fabricant célèbre – Babolat – a en effet intégré à l’un de ses modèles phares une pièce en lin, qui permet de limiter les vibrations.
Aujourd’hui, EcoTechnilin dispose d’une capacité de production annuelle de 12 000 tonnes sur ses deux sites de production. Nous allons, d’ici le premier trimestre 2025, passer à une capacité de 16 000 tonnes grâce à l’installation d’une quatrième ligne de production sur notre site polonais de Tychy.
Cet aspect reste pour nous important. Aujourd’hui, le développement technologique des solutions EcoTechnilin répond à une stratégie mise en place depuis plus de cinq ans, que nous avons baptisée UpGreen. Elle consiste à diminuer toujours plus l’impact de nos produits sur l’environnement. Nous utilisons pour cela nos propres savoir-faire, mais aussi ceux de nos cousins de NatUp. Cela nous a par exemple amenés à fabriquer du non-tissé unidirectionnel, un matériau de renfort, mais aussi esthétique, capable de remplacer de nombreux produits synthétiques dans le domaine des composites.
Nous ciblons aussi le secteur automobile, pour lequel nous visons la fabrication de pièces pré-habillées avec des matériaux naturels.
Nous consacrons désormais une grosse partie de notre budget R&D à un projet baptisé RECYTAL®, qui vise à récupérer les chutes chez nos clients du secteur automobile, de façon à pouvoir les broyer et les réintégrer dans notre production à hauteur de 20 à 30 %. Cela va donc permettre de recycler un produit qui a déjà une empreinte écologique très faible.
À moyen terme, nous visons un développement sur le marché nord-américain. Nous sommes toujours en pleine croissance sur le marché européen – nous devrions atteindre une croissance de 25 % à l’issue de notre prochain exercice qui va de juin à juillet – néanmoins, cette croissance n’est pas directement liée à la dynamique du marché. Nous avons donc la volonté d’aller conquérir ce marché nord-américain, sur lequel nos solutions sont aujourd’hui connues, mais encore peu déployées pour des questions essentiellement logistiques. Bon nombre de nos clients ont des implantations dans le monde entier, et plus particulièrement en Amérique du Nord, où ils nous incitent donc à développer des solutions de proximité.
Plus largement, notre ambition est de continuer à développer nos relations avec nos partenaires équipementiers. Nous avons aussi la volonté d’aller au contact des constructeurs, non pas pour qu’ils deviennent nos clients directs, mais pour faire connaître à leurs responsables RSE et du design nos solutions écologiques, afin qu’ils en fassent la demande auprès de leurs fournisseurs équipementiers. Le réseau NextMove constitue d’ailleurs pour cela un véritable atout.
[1] Hibiscus cannabinus.
[2] Partie ligneuse de la paille de lin.
Regroupant acteurs de la recherche publique régionaux, organismes de recherche nationaux, collectivités et entreprises de toutes tailles, le pôle de compétitivité BioValley France s’attelle ainsi à accompagner chacun de ses adhérents individuellement et cherche aussi à créer des synergies au sein de l’écosystème santé. Dans le Grand Est d’abord, mais également au niveau trinational.
Nommée en tant que nouvelle directrice générale du pôle BioValley France le 1er octobre 2022, Caroline Dreyer, nous dresse l’historique et le portrait de ce pôle qui ne cesse, depuis ses origines, de mettre l’innovation au service de la santé, et qui accompagne ainsi aujourd’hui l’émergence de nouvelles filières stratégiques.

Caroline Dreyer : Le pôle de compétitivité BioValley France s’est construit sur des fondations mises en place il y a longtemps déjà. C’est en effet, tout d’abord, dans les années 80-90 qu’un ensemble d’acteurs alsaciens, mais aussi d’Allemagne et de Suisse –notamment les Bâlois d’Endress+Hauser – ont pris conscience du fait que la région trinationale franco-germano-suisse du Rhin supérieur[1] constituait un substrat fertile pour les entreprises de biotechnologies. Ce territoire était en effet déjà à l’époque doté d’une masse critique de représentants de ce secteur, tant privés qu’académiques. Ils ont donc eu l’idée de créer un cluster visant à donner de la visibilité à ce territoire et à ses acteurs. C’est cette initiative qui a permis de faire naître Alsace BioValley du côté français, en 1998.
À cela s’est ensuite ajouté le lancement par l’État d’un appel à candidatures pour la création des pôles de compétitivité, en 2005. Les acteurs d’Alsace BioValley se sont alors mobilisés, forts de leur écosystème, pour candidater à cet appel à projets. C’est ainsi qu’est né un pôle de compétitivité qui s’appelait, à l’époque, Innovations Thérapeutiques. Très vite, et très naturellement, la fusion entre ces deux structures est apparue comme la suite logique de ces premières étapes. C’est ce qui a permis de créer le pôle de compétitivité Alsace BioValley, caractérisé lui aussi par son ancrage trinational, grâce à ses partenaires BioValley Deutschland et BioValley Basel[2].
Enfin, une dernière touche a été apportée en 2018 et a conduit à la création du pôle tel qu’il est aujourd’hui : c’est la fusion des régions. Notre volonté a alors été de déployer le pôle Alsace BioValley sur l’ensemble du Grand Est, et de changer alors son nom en BioValley France, en écho à ses partenaires suisses et allemands.
En 2023, sans compter notre réseau de partenaires, nous fédérons un réseau de près de 240 membres ; 240 entités qui ont souhaité adhérer à l’association BioValley France. Parmi ces membres se trouvent des acteurs de la recherche publique, les cinq universités de la région Grand Est, notamment. Des organismes de recherche nationaux comme le CNRS et l’Inserm, présents sur le territoire sont également membres du réseau. Nous avons aussi parmi nos adhérents des hôpitaux – les Hôpitaux Universitaires de Strasbourg notamment – qui sont en effet acteurs à la fois de la recherche et du soin aux patients. Certaines collectivités nous ont aussi rejoints.
D’autre part, les acteurs privés constituent une part importante de nos adhérents. Des entreprises de toute taille – startups, PME, ETI, grands groupes – qui représentent en effet près de 83 % de nos membres.
L’ensemble de ces acteurs publics et privés se mobilisent autour de quatre grandes thématiques verticales : le médicament, qu’il s’agisse de molécules de synthèse ou de biothérapies ; les technologies médicales ; le domaine du diagnostic ; et, pour finir, l’e-santé, qui regroupe des aspects tels que la télémédecine, la thérapeutique digitale et l’accompagnement des patients.
Certains de nos membres travaillent directement à la production de solutions dans ces domaines, quand d’autres se concentrent sur l’accompagnement de ces premiers, en proposant par exemple des prestations de service : prototypage, expérimentation, évaluation…
Et au sein même de ces quatre grandes verticales se greffent aujourd’hui de plus en plus de compétences transverses : le numérique et l’IA générative par exemple, ou encore la transition environnementale, qui porte d’ailleurs elle-même de nombreux enjeux, dont celui de la décarbonation.

Nous agissons tout d’abord à l’échelle individuelle. Chacun de nos membres dispose en effet d’un référent avec qui échanger autour de ses projets. Ce référent a pour rôle d’identifier les éventuelles mises en relation avec d’autres acteurs du réseau qui pourraient être fructueuses, mais aussi d’aider à actionner des leviers de financement. Forts du travail de veille que nous assurons, nous avons en effet une connaissance approfondie des multiples outils de financement dont pourraient bénéficier nos adhérents.
Au-delà de cet accompagnement individuel, nous travaillons aussi à l’animation de l’ensemble de notre réseau. Nous avons ainsi créé l’année dernière des « communautés » : une communauté IA & Santé, une communauté accès aux soins et une communauté bioproduction, que nous avons lancée au mois de novembre dernier. L’objectif est de rassembler les membres concernés et intéressés par ces aspects, afin d’identifier leurs besoins à court terme, de faire naître des projets collaboratifs, mais aussi de prévoir les enjeux à moyen et long terme, dans le but, encore une fois, de construire des projets qui permettront d’y répondre.
C’est là qu’intervient un autre grand pan de l’activité de BioValley France : celui des projets structurants. Ces projets inscrits dans le moyen ou long terme peuvent concerner la mise en place d’outils, d’écosystèmes ou d’infrastructures, voire contribuer à l’élaboration de formations. Tout ceci dans le but de lever un maximum de verrous. Nous travaillons pour cela avec nos membres, mais aussi les collectivités et l’État, dans le but de mettre en place une « boîte à outils » adaptée aux enjeux de la filière et à certaines de ses problématiques d’avenir.
Parmi ces projets structurants, je citerais par exemple la mise en œuvre de la filière bioproduction sur le territoire du Grand Est, une mission que nous a confiée la Région Grand Est.
Depuis 2019, nous portons aussi le projet de structuration de la filière française des organoïdes et des organes sur puce, qui visent à faciliter le développement de médicaments, mais aussi à réduire le recours à l’expérimentation animale. Autre exemple : nous sommes partenaires de premier plan du campus nextmed[3], la marque d’attractivité portée par l’Eurométropole de Strasbourg qui vise à fédérer, sur un même site, les acteurs des technologies médicales et de l’e-santé, afin de stimuler les collaborations, de faciliter les rapprochements. Tous ces projets structurants ont pour objectif global de créer un environnement propice au développement des acteurs de la filière santé sur le territoire, afin de le rendre encore plus performant.
En plus de tout cela, nous accompagnons aussi des projets portant sur les aspects réglementaires, via l’expertise des équipes de la business unit autonome Meduniq Center. Cet accompagnement se destine notamment aux petites entreprises, qui ne disposent pas forcément des capacités pour affronter ces sujets, souvent très complexes.
Enfin, le dernier volet de notre action consiste à donner de la visibilité à nos membres, par le biais d’actions de communication, d’actions événementielles au niveau territorial, national et trinational notamment.
J’ai notamment souhaité pousser la mise en place des communautés que j’évoquais. Ces groupes de travail vont en effet nous permettre de préparer l’avenir en adoptant une organisation agile, flexible, susceptible d’évoluer, sans carcan, à la faveur de l’émergence de nouveaux sujets, de nouvelles solutions et de nouveaux défis. C’est vraiment cet aspect-là auquel j’ai tenu à donner une impulsion toute particulière, afin que nous puissions jouer au mieux notre rôle de catalyseur, d’animateur et d’accompagnateur de l’écosystème d’innovation en santé.
[1] L’espace trinational franco-germano-suisse du Rhin supérieur réunit l’Alsace, la partie occidentale du Land du Bade-Wurtemberg, le Sud de la Rhénanie-Palatinat et les Cantons suisses de Bâle-Ville, Bâle-Campagne, Soleure, Jura et Argovie (Source).
[2] BioValley Deutschland et BioValley Basel
[3] Campus nextmed
Avec plus de 70 Mds € de chiffre d’affaires en 2023 (contre 55 milliards en 2021 !), le secteur aéronautique et spatial se rapproche de son niveau de 2019 (74,3 milliards), un chiffre qui sera très probablement atteint, voire dépassé entre 2024 et 2025.
Selon le Conseil national de l’industrie, le secteur aéronautique est le principal contributeur à la balance commerciale française (23,5 Md € en 2022). La filière représente en effet 4,3 % du PIB de la France et totalise 210 000 salariés répartis dans plus de 1 000 entreprises !
La filière aéronautique française est ainsi particulièrement stratégique pour notre économie et elle le restera. En effet, selon l’OFCE, la hausse de 10 % à 15 % de la productivité aéronautique qui est attendue en 2024 et 2025 pourrait faire gagner 0,3 a 0,4 point de croissance au pays. Ces chiffres sont loin d’être négligeables quand on sait que les prévisions de croissance ne dépasseront pas 0,7 à 1 % cette année.
Avec plus de 2 000 commandes nettes en 2023, 735 avions livrés sur l’année et un carnet de commandes en cours de presque 8 600 avions, Airbus fait bien mieux que son concurrent Boeing et s’assure 11 ans de travail.
Mais si ces commandes massives sont une excellente nouvelle, elles représentent aussi un challenge pour l’avionneur, qui cherche à accélérer le rythme de sa production. Les fortes tensions sur la supply chain, la nécessaire réorganisation des sous-traitants et surtout les pénuries de main-d’œuvre qualifiée qui les touchent font ainsi partie des défis majeurs pour l’ensemble de la filière.
C’est un point extrêmement positif : le secteur n’a jamais autant embauché qu’aujourd’hui ! Après des recrutements massifs (28 000 en 2023), la filière a d’ailleurs quasiment retrouvé son niveau d’avant Covid. Et compte tenu de la forte croissance du secteur, de nouvelles embauches sont attendues massivement pour 2024 : entre 25 000 et 30 000 selon le comité Aéro-PME du Gifas[1].
Néanmoins, les difficultés de recrutement se font sentir à tous les niveaux. Selon Pôle emploi, les métiers de l’aéronautique et du spatial sont d’ailleurs les plus en tension sur le marché du travail français, avec un taux de vacance qui avoisine les 20 % (contre 13 % pour les autres secteurs).
Tous les métiers sont concernés, qu’ils concernent la production, la maintenance, l’ingénierie et on parle même de pénuries de pilotes et de personnels navigants commerciaux ! Pour résoudre ces problèmes de recrutement, les acteurs de la filière n’hésitent d’ailleurs pas à jouer sur tous les tableaux : énormes séances de job dating au stadium de Toulouse, mobilisation autour de l’attractivité des PME du secteur, ouverture à des profils en reconversion, développement de programmes de formation avec les écoles, etc.
En dehors des commandes d’avions civils, la défense se porte également bien, même si les commandes de l’année 2023 ont été divisées par deux par rapport à l’année précédente, mais pour de bonnes raisons. 2022 fut, en effet, une année exceptionnelle pour Dassault Aviation, en raison d’un gigantesque contrat de 80 avions Rafale à destination des Émirats arabes unis. Par ailleurs, les fortes tensions internationales vont probablement continuer à accroître les dépenses militaires dans le monde, favorisant notamment les commandes militaires de Dassault Aviation et Airbus Helicopters.
En revanche, l’industrie spatiale européenne connaît toujours des difficultés, en raison d’une concurrence internationale accrue sur les satellites et de quatre années de retard cumulées concernant le lanceur Ariane 6. Néanmoins, le dynamisme du marché des constellations de petits satellites en orbite basse pour le déploiement de l’internet par satellites est de bon augure pour les startups françaises du New Space qui multiplient les levées de fonds : Anywaves, E-Space, Exotrail et The Exploration Company en particulier.
[1] Groupement des industries françaises aéronautiques et spatiales
Il y a ceux qui utilisent déjà largement ChatGPT dans leur entreprise, l’intelligence artificielle (IA) d’OpenAI, accusée de plagiat par le New York Times. Et il y a ceux qui veulent leur propre intelligence artificielle, sécurisée et open source. Dans cette deuxième famille, le Premier ministre Gabriel Attal a annoncé le 23 avril 2024 le déploiement généralisé d’Albert au sein des services publics. Ce modèle d’IA est qualifié de « souverain », car développé par et pour des agents publics français. Gabriel Attal souligne que la France est « le premier pays européen à inaugurer une IA 100 % souveraine ».
Albert est développé au sein du Datalab de la Dinum (Direction interministérielle du numérique) depuis juin 2023. Cette IA repose sur des briques technologiques « libres et ouvertes », pré-entraînées et disponibles en open source, comme Llama ou Falcon. Avec elle, la fonction publique, premier employeur de France, espère faciliter le travail de ses agents pour se libérer du temps et ainsi se concentrer sur « le contact relationnel ».
Concrètement, les fonctionnaires pourront utiliser cette IA dans plusieurs missions quotidiennes, comme la rédaction de synthèses, la recherche d’informations sur les démarches administratives et sur la réglementation. Elle permettra aussi de « rédiger les réponses aux 16 millions de demandes annuelles en ligne », promet Gabriel Attal. Albert rédigera ainsi une pré-réponse pour chaque question posée, en mentionnant les sources utilisées. Le fonctionnaire pourra ensuite la modifier, la compléter si besoin, avant de l’envoyer aux usagers. Avec cet appui quotidien, les agents pourraient mieux accompagner les citoyens à la recherche d’une aide personnalisée. « À l’IA les tâches rébarbatives, et aux agents publics, le lien avec nos concitoyens », résume Gabriel Attal.
D’autres applications sont prévues dans les prochains mois. Gabriel Attal assure que « la révolution de l’IA dans nos services publics ne fait que commencer ». L’IA sera aussi utilisée pour pré-instruire les quelque 4 000 projets environnementaux déposés chaque année dans les directions régionales de l’environnement.
À la rentrée, l’IA Aristote proposera aux étudiants des quiz adaptés à leur niveau et les aidera dans leurs révisions. Une autre IA convertira automatiquement « le son des vidéos en sous-titres » pour les étudiants en situation de handicap. Cet outil permettra aussi, d’ici la fin de l’année, d’assurer les retranscriptions d’audiences judiciaires, le dépôt de plaintes ou les comptes rendus médicaux. « Tant et tant d’autres cas d’IA dans nos services publics verront le jour au cours des prochains mois : de la détection des incendies et feux de forêt par drones à la gestion RH des personnels de la fonction publique », prévient le Premier ministre.
Le Salon CYCL’EAU arrive pour la première fois à Douai, après 2 premières éditions sur Lille. Il ouvrira ses portes aux acteurs de la filière des Hauts-de-France les 29 et 30 Mai 2024 sur le site de Gayant Expo.
Les collectivités territoriales se mobilisent en amont et contribuent à développer et faire rayonner cet événement incontournable pour la filière de l’eau. Douaisis Agglomération, la Métropole Européenne de Lille et l’Agence de l’eau Artois-Picardie sont des acteurs majeurs de cette édition où sera proposé un cycle de conférences sur de grandes thématiques : gestion des eaux de pluie, eau et agriculture, tarification, REUT, économies d’eau, gestion de la ressource en eau…
Venez à la rencontre des acteurs du bassin Artois-Picardie autour de :
Ces deux jours permettront à tout le secteur de se réunir autour des problématiques et enjeux principaux du bassin caractérisé par :
CYCL’EAU Hauts-de-France, le rendez-vous régional qui permettra aux acteurs de l’eau de se rencontrer et présenter leurs solutions et technologies dédiées à l’avenir de la gestion de l’eau.
La liste dévoilée le 16 avril par le gouvernement comporte 55 sites, soit 5 de plus que le nombre annoncé initialement fin 2023. Pour Christophe Béchu, le ministre de la Transition écologique et de la Cohésion des territoires, le nombre de candidatures reçues de la part de collectivités, d’entreprises privées et divers organismes, traduit un fort engouement qui prouve qu’« une forme de bataille culturelle est gagnée » autour de la réindustrialisation.
Comme son nom le laisse entendre, un site clés en main France 2030 est un site préparé pour l’accueil de nouvelles usines. Ces sites seront, entre autres, déjà dépollués, équipés de voies d’accès, reliés aux réseaux d’eau, électricité, gaz et bénéficieront de procédures administratives préalables accélérées. Avec ce concept, le gouvernement veut notamment faire passer la durée des implantations industrielles de 17 mois en moyenne à 9 mois.
Dans le détail, les sites ont été choisis suivant 5 critères :
Selon Roland Lescure, ce dispositif « sites clés en main » permet « d’identifier du foncier pour attirer les investissements industriels. »
Le manque de disponibilité foncière fait en effet partie des freins à la dynamique de réindustrialisation qui ont été identifiés par le gouvernement, surtout qu’il est d’autant plus difficile de réindustrialiser alors que le foncier se raréfie.
À ce sujet, la banque des territoires invite d’ailleurs les industriels à la recherche de terrains disponibles à consulter le portail France Foncier+, qui vient d’être publié et qui recense déjà plus de 600 sites disponibles ou en passe de l’être.
La requalification des friches est ainsi l’une des priorités et le recyclage foncier apparaît comme une mesure clé, qui s’inscrit totalement dans le contexte de la loi relative à l’industrie verte[1]. En effet, sur les 55 sites retenus par ce dispositif, 30 sont des friches industrielles « recyclées », soit 60 % du total.

Ces 55 sites sont répartis sur l’ensemble du territoire, mais pas de manière uniforme. Si toutes les régions sont représentées, on dénombre de 1 à 8 sites par région, la mieux représentée étant la région PACA, avec 8 sites, suivie de la Normandie (7). De leur côté, l’Occitanie et l’Île-de-France en totalisent 6 chacune, ce qui représente 1 472 ha sur les 3 342 ha concernés par l’ensemble du dispositif.
Autre fait notable : la taille des sites choisis est extrêmement variable, puisqu’on retrouve aussi bien des projets de 3 ha (Espace du Cruguil sur le Pôle Pégase à Lannion) que de 340 ha (Espace Inspira, Bellerive-sur-Allier), l’enjeu étant, selon Roland Lescure de se donner les « moyens d’attirer tous les projets, de la PME industrielle à la gigafactory. »
Parmi les 55 sites disponibles d’ici 2030, 5 seront livrables dès 2024 :
De leur côté, les 28 sites sur lesquels des études restent à mener, mais pour lesquels il n’y aura pas de travaux majeurs ou démarches réglementaires importantes à conduire, seront disponibles d’ici 2027.
Enfin, pour les sites restants, qui incluent une grande part de friches, ainsi que des travaux, études et démarches lourdes à effectuer (changement de PLU, etc.), il faudra attendre un peu, puisqu’ils seront mobilisables entre 2027 et 2030.
[1] Loi n° 2023-973 du 23 octobre 2023
Nominées Élèves-Ingénieures France :
Nominées Femmes Ingénieures :
La cérémonie de remise des prix aura lieu le 16 mai 2024 à Paris, où les lauréates dans chaque catégorie seront annoncées.
Aurore Bergé, ministre déléguée chargée de l’Égalité entre les femmes et les hommes et de la lutte contre les discriminations (sous réserve), sera présente pour clôturer cet événement marquant.
Nous vous invitons à vous joindre à la cérémonie pour célébrer ces femmes exceptionnelles et leurs contributions remarquables à l’ingénierie.
L’inscription est ouverte, réservez dès maintenant votre place pour cette soirée mémorable de reconnaissance et d’inspiration !
Ensemble, continuons à promouvoir la diversité et l’égalité des genres dans le domaine de l’ingénierie, et à encourager les futures générations à réaliser leur plein potentiel.
En mars 2023, 75 % des niveaux des nappes étaient situés sous les normales. La France faisait face à une période de sécheresse hivernale après un été 2022 brûlant et record. À la fin du mois, le président de la République Emmanuel Macron présentait son Plan Eau pour améliorer la gestion de l’eau.
Un an plus tard, la situation est bien meilleure. Le Bulletin de situation des nappes d’eau souterraine au 1er avril 2024 du Bureau de recherches géologiques et minières (BRGM) qualifie l’état des nappes de « satisfaisant sur une grande partie du territoire », avec 58 % des niveaux au-dessus des normales. Seulement 27 % des points d’observation sont sous les normales mensuelles, 15 % sont comparables à ces normales. Et la situation continue de s’améliorer, puisque « la recharge reste active sur la plupart des nappes », souligne le BRGM.
Petite ombre au tableau : la situation reste défavorable, « avec des niveaux bas à très bas » dans le sud Alsace et le littoral du Languedoc et du Roussillon. Sur ces nappes, la situation devrait « peu évoluer durant les prochaines semaines ». Mais « seules les nappes de l’ouest du pourtour méditerranéen (ouest Hérault, Aude et Pyrénées-Orientales) conservent des niveaux plus bas qu’en mars 2023 », prévient le BRGM.
Pour les mois d’avril à juin, les prévisions saisonnières de Météo-France privilégient des températures plus élevées sur l’ensemble du territoire, mais aucun scénario ne se dégage concernant les précipitations. La période de recharge 2023-2024 devrait toutefois « se terminer prochainement », au plus tard courant mai, sauf événement pluviométrique exceptionnel, informe le BRGM.

Pour expliquer la différence dans le rechargement des nappes, le BRGM rappelle quelques bases. « Les situations disparates s’expliquent essentiellement par l’intensité de la recharge 2023-2024 et par la réactivité de la nappe aux pluies infiltrées » explicite l’établissement public. En effet, les pluies s’infiltrent plus ou moins facilement dans les nappes.
Comme leur nom l’indique, les nappes « réactives » se rechargent rapidement lors de fortes pluies, mais réagissent fortement à la sécheresse. « Leur état de remplissage peut donc varier très rapidement au cours d’une même saison », résume le BRGM. C’est principalement sur ces types de nappes que l’état des nappes est « satisfaisant », bien qu’il y ait des « tendances hétérogènes », avertit l’organisation.
À l’opposé, les nappes dites « inertielles » ont un cycle plus long, qui peut être pluriannuel, et donc nécessiter « une longue période pour se recharger ou se vidanger ». En particulier, après des années de sécheresse, elles mettent longtemps à se recharger. « Il s’agit notamment des nappes du Bassin de l’Artois, du Bassin parisien, du Sundgau (sud Alsace) et du couloir Rhône-Saône qui implique un temps d’infiltration des pluies de plusieurs semaines », cite le BRGM.
Si la situation reste défavorable sur la nappe inertielle du Sundgau, les pluies de l’automne et de l’hiver ont permis aux nappes inertielles d’enregistrer de fortes remontées. « La recharge se poursuit en mars et les tendances sont généralement en hausse », observe le BRGM.
Pour rappel, le niveau des nappes varie au cours de l’année. Il est au plus haut après l’hiver, après une période de recharge qui s’étend du début de l’automne au début du printemps. L’évaporation est alors limitée, puisque « la végétation est en sommeil », précise le BRGM. Mais « si l’hiver est sec, la recharge des nappes est très faible », ajoute l’agence publique. C’est ce qui s’est passé durant l’hiver 2022 – 2023.
Durant le reste de l’année, la hausse des températures, la reprise de la végétation, et donc l’augmentation de l’évapotranspiration, limitent l’infiltration des pluies vers les nappes. « Entre mai et octobre, sauf événements pluviométriques exceptionnels, la vidange des nappes se poursuit habituellement et les niveaux continuent de baisser jusqu’à l’automne », prévient le BRGM. Avant que le cycle ne recommence.

Crédit visuel principal : image générée par Adobe Firefly