Les thèses du mois : « Recyclage : le talon d’Achille des énergies vertes ? »

Pour notre dossier d’août, « Recyclage : le talon d’Achille des énergies vertes ? », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

Chimie de greffage de polyoléfines en fondu pour panneaux photovoltaïques réparables et recyclables
Guilherme Rech anesi
Projet de thèse en Sciences des Polymères, depuis le 17/03/2025
Université Grenoble Alpes

Étude d’un procédé de délamination en milieu CO2 supercritique pour le recyclage de modules photovoltaïques
Axel Briand
Thèse de doctorat Chimie Séparative, Matériaux et Procédés soutenue le 28/06/2022
Montpellier, Ecole nationale supérieure de chimie

Etude du recyclage en voie courte des aimants frittés à forte teneur en terres rares lourdes
Gatien Bacchetta
Projet de thèse en 2MGE : Matériaux, Mécanique, Génie civil, Electrochimie, depuis le 18/10/2021
Université Grenoble Alpes

Récupération de métaux d’intérêt dans les modules PV par voie ionométallurgique
Agathe Vaché
Projet de thèse en Chimie, depuis le 09/10/2023
Besançon, Université Marie et Louis Pasteur

Recyclage industriel de pièces composites à renforts fibreux en fin de vie
Atharva Joshi
Projet de thèse en Mécanique, depuis le 01/06/2025
Université Paris sciences et lettres

Vers un secteur photovoltaïque soutenable : stratégies pour réduire la consommation de ressources limitées et modules hautement recyclables
Antoine Perelman
Projet de thèse en Electronique, Micro et Nanoélectronique, optique et laser, depuis le 02/11/2021
Lyon, INSA

Croissance, report, soulèvement (epitaxial lift-off) et fabrication de cellules solaires InGaAs permettant le recyclage du substrat d’InP pour le photovoltaïque concentré (CPV)
François Chancerel
Thèse de doctorat en science des Matériaux soutenue le 15/11/2018
École doctorale Matériaux de Lyon

Donner une valeur monétaire à l’environnement, une aide pour la décision publique ? : le cas de la gestion des déchets et du solaire photovoltaïque à Paris
Magali Domergue
Thèse de doctorat en Économie de l’environnement soutenue en 2016
Paris, EHESS

Le recyclage, un atout majeur de la transition énergétique et environnementale

Un extrait de « Écoconception en génie électrique – Exemples », par Hamid BEN AHMED, Briac BAUDAIS, Gurvan JODIN

On estime qu’à l’horizon 2050, la quantité de modules photovoltaïques dégradés contribuera à une production importante de déchets électroniques, ce en dépit d’une durée de vie croissante des équipements. Par ailleurs, leur composition en matériaux rares et précieux nécessite l’extraction de minerais aux impacts environnementaux importants, tant en raison de l’énergie déployée durant l’opération que des gaz à effet de serre induits.

Les problématiques relatives aux éoliennes sont similaires, compte tenu notamment des aimants entrant dans leur composition, qui sont indispensables à leur fonctionnement. Ici encore, la production de ces aimants se fait à partir de matières premières et de terres rares, conduisant à des émissions significatives de gaz à effet de serre. Le recyclage des aimants permet, pour sa part, de diminuer d’environ 31 à 55 % ces impacts selon leur nature.

ACV et écoconception : deux composantes en amont du recyclage

Dans bien des domaines, et notamment celui des équipements d’énergie renouvelable, l’analyse du cycle de vie (ACV) et l’écoconception sont devenues des approches incontournables, d’abord d’un point de vue économique, ensuite en matière environnementale. Le recyclage est lui-même un point crucial de l’ACV pour permettre le développement des technologies actuelles et futures. Ce recyclage doit être pensé dès la phase de conception des équipements.

Le recyclage des composants en fin de vie est en effet crucial, tant en termes de réduction des déchets que de valorisation des matériaux précieux notamment. Il permet par ailleurs de retarder l’épuisement des ressources minérales utilisées dans une bonne partie de nos équipements actuels, un épuisement qui conduit inévitablement à l’augmentation des coûts de fabrication, particulièrement dans un contexte géopolitique tendu.

Le recyclage n’est toutefois pas la seule approche disponible permettant la diminution des impacts évoqués, d’autant que ces derniers varient en fonction des installations. En effet, s’il convient de réduire les impacts et coûts qu’entraînent l’extraction et l’utilisation de certains matériaux, il ne faut pas négliger les potentiels impacts du recyclage, même s’ils sont moindres que ceux entraînés par des matériaux neufs. Ces conséquences peuvent être d’ordre écotoxique, voire mettre en péril la santé humaine, selon les matériaux utilisés. À l’heure actuelle, les méthodes employées – qui combinent chimique, physique et thermique – ne permettent pas la suppression totale de ces impacts.

La recherche d’équipements plus efficaces mais à faible impact environnemental est, ainsi, l’objet de plusieurs études. Cependant, les déchets électriques, en quantité toujours croissante, démontrent qu’un rendement élevé ne suffit plus à faire converger transition énergétique et transition environnementale. Dès lors, le recyclage constitue un atout des plus importants dans la lutte contre le réchauffement climatique ou encore les phénomènes toxicologiques consécutifs à l’extraction.

En la matière, l’analyse du cycle de vie permet d’évaluer les impacts environnementaux sur l’ensemble du cycle de vie d’un produit, de la fabrication à la fin de vie, permettant à terme le meilleur choix possible des technologies disponibles. Mais comment mener à bien cette ACV ?

Estimer l’ACV d’un équipement passe de plus en plus souvent par l’écoconception. Celle-ci permet de fiabiliser les données qualifiant les impacts tout en favorisant la recherche de processus sûrs. En outre, l’écoconception peut proposer des méthodologies de diagnostic et de réparabilité. C’est en s’appuyant sur cette écoconception qu’il est permis d’élaborer des programmes de recyclage pour les déchets, tout en offrant des perspectives en matière d’élimination ou de réutilisation. Enfin, l’écoconception est un facteur de l’économie circulaire, grâce à la réutilisation, à la réparation et au recyclage. Néanmoins, le domaine de l’écoconception en génie électrique est encore en développement et des efforts sont nécessaires pour améliorer les données d’impact, innover dans les procédés de fabrication et renforcer les programmes de recyclage.

Réacteur nucléaire à combustibles renouvelables : une levée de fonds de 23 millions d’euros pour STELLARIA

Cette nouvelle levée de fonds, qui vient compléter le financement de 10 millions d’euros obtenu en tant que lauréat de l’appel à projets « Réacteurs innovants » de France 2030, permettra de financer l’ensemble des études techniques et réglementaires nécessaires à la mise en place d’une première installation à sels fondus. L’objectif : lancer les premiers essais de fission en 2029[1].

Un projet en plusieurs étapes et deux démonstrateurs

Le projet de STELLARIA est ambitieux, puisqu’il s’agit de concevoir un réacteur, le Stellarium, capable de régénérer entièrement ses combustibles pendant son fonctionnement, donc avec la promesse de « fermer » le cycle du combustible.

Pour y arriver, STELLARIA s’appuie sur une technologie émergente de réacteur à sels fondus de 4e génération et n’hésite pas à qualifier le Stellarium de « game changer ». La jeune entreprise peut d’ailleurs compter sur de nombreux soutiens à tous les niveaux : recherche (CNRS, CEA), industrie ou institutions, notamment via le programme France 2030.

Grâce à cette nouvelle levée de fonds, portée par les fonds américains à impact At One Ventures, Supernova Invest, ainsi que ses investisseurs historiques[2], STELLARIA va pouvoir doubler ses effectifs et ainsi accélérer la R&D, ce qui permettra de finaliser le développement du premier démonstrateur ALVIN, prévu pour 2029.

Une fois l’expérience de fission validée avec ce démonstrateur de 100 kW, STELLARIA enchaînera alors, en 2030, avec un prototype de 10 MW. Si tout se déroule comme prévu, STELLARIA sera ainsi en mesure de développer, d’ici 2035, le premier réacteur nucléaire au monde à sels fondus à neutrons rapides.

Le projet Stellarium et ses 2 démonstrateurs ALVIN et MEGALVIN
Le projet Stellarium et ses 2 démonstrateurs ALVIN et MEGALVIN[3] (Crédit : Stellaria)

Nucléaire durable :  de quoi parle-t-on ?

Parce qu’elle n’émet quasiment pas de CO2, la production d’énergie nucléaire est souvent qualifiée de décarbonée. Néanmoins, l’utilisation de combustible fossile ne permet pas pour autant de classer le nucléaire parmi les sources d’énergie durables.

C’est là que le futur réacteur Stellarium se démarque du nucléaire « classique », puisqu’il « se nourrit » des matières inutilisées par les centrales nucléaires actuelles.

La première étape consiste donc à récupérer les matières inemployées par les centrales nucléaires actuelles. Ces matières (Uranium, thorium, plutonium, américium) sont alors fondues dans les sels qui alimentent le Stellarium.

Ces sels sont ensuite assemblés selon les besoins, puis transportés sous forme de granules solides destinés à être fondus dans le réacteur.

Du point de vue du cycle de vie du combustible, ce réacteur Stellarium présente ainsi de nombreux atouts. Sur son site, STELLARIA explique que, d’une part « le Stellarium régénère autant de combustible qu’il n’en brûle en régénérant et fissionnant dans le combustible liquide in situ. »

Par ailleurs, « il peut aussi détruire les actinides mineurs et conserver la qualité du plutonium pour les générations futures. »

Et après 20 ans d’utilisation dans le Stellarium, le sel combustible peut alors être recyclé puis réutilisé indéfiniment dans les centrales actuelles, ou dans d’autres Stellariums.

Vers un nucléaire bas-carbone accessible aux industriels

Selon Frédéric Godemel, Directeur général Gestion de l’Énergie chez Schneider Electric, « ce projet offrira des solutions abordables et à impact pour la décarbonation industrielle, signe tangible des progrès réalisés dans l’industrie. »

Car l’enjeu du projet est bien là : proposer un modèle de réacteur permettant aux industriels électro-intensifs de devenir autonomes en énergie sur toute la durée de vie de leurs installations. Pour François Breniaux, General Partner chez Supernova Invest, STELLARIA est « la seule réponse à de nombreuses industries ayant besoin d’un approvisionnement énergétique de forte puissance avec une stabilité du prix sur une longue durée, avec la flexibilité des centrales gaz. »

En outre, Nicolas Breyton, PDG de Stellaria, n’hésite pas à présenter le projet comme « une étape clé vers la réindustrialisation durable de notre territoire. »


[1] Cette expérience critique sera réalisée dans un mini-réacteur démonstrateur nommé ALVIN, capable de délivrer 100 kW de puissance et dont le cœur mesure 50 cm.

[2] CEA Investissement, Technip Énergies, Exergon et Schneider Electric

[3] Le projet Stellarium et ses 2 démonstrateurs ALVIN et MEGALVIN

« Il faut passer d’un recyclage de masse à un recyclage de valeur »

Alors que la France s’apprête à gérer des volumes croissants de panneaux photovoltaïques en fin de vie, l’éco-organisme Soren, agréé par les pouvoirs publics pour la collecte et le recyclage, doit accompagner les acteurs de la filière pour que cette dernière augmente ses capacités de collecte, améliore la valorisation des matériaux… tout en militant pour une évolution réglementaire ambitieuse, qui permettra de valoriser la qualité du recyclage des panneaux en fin de vie.

En 2024, ce sont 9477 tonnes de panneaux solaires qui ont été collectées. Ce chiffre atteignait 366 tonnes en 2015. Surtout, ces 9477 tonnes représentent une augmentation de 80 % par rapport aux chiffres de 2023 (5207 tonnes).

Nicolas Defrenne, directeur général de Soren, a expliqué à Techniques de l’Ingénieur la réalité chiffrée autour de la recyclabilité et du recyclage effectif des panneaux photovoltaïques en fin de vie, et sur les grands enjeux à venir, entre impératifs industriels, environnementaux et souveraineté technologique.

Techniques de l’Ingénieur : Une forte montée en charge du recyclage est attendue dans les dix prochaines années. Comment l’anticipez-vous ?

Nicolas Defrenne : La croissance à venir est inédite. En 2023, on a mis sur le marché près de 400 000 tonnes de panneaux photovoltaïques. Mais seules 10 000 tonnes ont été effectivement collectées en fin de vie la même année. Cette différence est liée à la durée de vie des panneaux, qui avoisine les 25 à 30 ans : le gros des volumes arrivera entre 2030 et 2040. Notre mission consiste à anticiper cette vague pour ne pas être pris de court. Concrètement, nous lançons un nouveau cycle d’appels d’offres pour augmenter les capacités de traitement, tant en volume qu’en diversité technologique. Il faut aussi prévoir plus de foncier pour le stockage temporaire et accompagner les industriels qui développent ces solutions. Cette planification est indispensable pour que le système tienne dans la durée.

Le taux de collecte français progresse, mais reste inférieur à ce qu’on pourrait attendre. Où en est-on aujourd’hui ?

Nous progressons, c’est certain. En 2024, le taux de collecte atteint environ 77 %, ce qui nous rapproche de l’objectif européen fixé à 85 %. C’est un score remarquable à l’échelle européenne : la France est aujourd’hui leader sur ce sujet, quand d’autres pays comme l’Allemagne sont à des niveaux bien inférieurs. Toutefois, il faut rester lucide. Une partie des panneaux échappe encore au système : certains sont stockés chez les usagers, d’autres revendus sur le marché de l’occasion, parfois à l’étranger. La traçabilité n’est pas encore totale, et c’est un axe sur lequel nous devons progresser, notamment en renforçant le contrôle de la filière et en améliorant l’information des professionnels.

Le taux de recyclage est aujourd’hui d’environ 94 %. Est-ce que cela reflète vraiment une valorisation efficace des matériaux ?

C’est une question essentielle. En masse, on atteint un taux de valorisation de l’ordre de 92 à 94 %. Cela signifie qu’on parvient à récupérer l’essentiel des matériaux présents dans un panneau. Mais cette performance repose en grande partie sur le verre et l’aluminium, qui représentent à eux seuls 85 % du poids total. Le problème, c’est que ce ne sont pas ces matériaux qui ont le plus de valeur économique ou stratégique. Les métaux critiques, comme le silicium, le cuivre ou l’argent, ne représentent qu’une infime part du poids – par exemple, 0,08 % pour l’argent – mais comptent pour environ 40 % de la valeur matière. Aujourd’hui, ces matériaux sont encore difficilement accessibles avec les procédés classiques. C’est pourquoi nous travaillons avec des acteurs spécialisés qui développent des technologies de délamination par exemple, permettant d’extraire proprement ces fractions précieuses. C’est là que se situe le réel enjeu du recyclage de valeur.

Aujourd’hui les recycleurs revalorisent les matériaux comme le silicium ou l’argent en dehors de la filière solaire. La valorisation « en boucle fermée » est-elle un objectif ?

Ce serait séduisant, mais ce n’est pas notre priorité actuelle. Aujourd’hui, la production de panneaux en Europe reste très limitée. Les matériaux récupérés trouvent donc leurs débouchés dans d’autres secteurs industriels. L’essentiel pour nous est qu’ils soient réutilisés de manière utile, peu importe la filière. Si demain des gigafactories photovoltaïques se développent en Europe, la boucle pourra se refermer. Mais pour l’instant, notre rôle est avant tout de contribuer à la réduction de la pression sur les ressources primaires, en fournissant des matériaux recyclés de qualité, compatibles avec d’autres usages industriels.

Le système repose aujourd’hui sur l’éco-contribution. Est-il robuste face aux aléas du marché ?

Oui, car ce système est basé sur un principe de responsabilité élargie du producteur : on prélève une éco-contribution au moment de la mise sur le marché des panneaux qui finance la collecte et le traitement de ceux qui arrivent en fin de vie, ce qui permet de constituer un fonds destiné à financer leur traitement en fin de vie. C’est un modèle à la fois par répartition et par capitalisation, qui garantit une certaine stabilité, même en cas de ralentissement ponctuel des ventes. Le contexte français n’est pas très favorable en ce moment, avec des incertitudes réglementaires et économiques, mais la dynamique mondiale reste très forte. L’électrification, la décarbonation et l’autonomie énergétique passent inévitablement par le solaire. On peut donc dire que notre modèle est solide sur le long terme.

Quelles évolutions réglementaires sont attendues à l’échelle européenne ?

Les évolutions à venir seront déterminantes. Le règlement européen sur les batteries impose déjà des taux de recyclage très spécifiques pour certains matériaux. Il est probable que la prochaine directive DEEE, attendue d’ici 2027, s’en inspire. On s’attend à ce que des objectifs précis soient fixés pour la récupération du silicium, de l’argent, du cuivre, de l’aluminium… Ce serait une avancée majeure, car cela inciterait les filières à investir dans des procédés plus fins et plus performants. Chez Soren, nous nous préparons déjà à cette évolution.

Comment articulez-vous performance environnementale, souveraineté industrielle et équilibre économique ?

Le recyclage de masse permet de respecter nos obligations réglementaires. Mais pour que le système soit économiquement soutenable et qu’il contribue à la souveraineté industrielle de l’Europe, il faut aller plus loin : capter les métaux critiques. Prenons l’argent, par exemple : le photovoltaïque consomme à lui seul près de 14 % de l’argent mondial. Mais les progrès sont là. En 2010, un panneau contenait 60 mg d’argent par watt-crête ; aujourd’hui, on est autour de 13 à 14 mg. Cela signifie que le même gramme d’argent recyclé peut désormais permettre la fabrication de quatre panneaux au lieu d’un. C’est ce type de boucle vertueuse qu’on veut favoriser, pour combiner efficacité environnementale, compétitivité économique et indépendance stratégique.

Comment les citoyens perçoivent-ils ces enjeux de recyclage ?

Le solaire bénéficie d’une image très positive auprès du public. C’est une énergie « propre », et les gens attendent qu’elle le soit jusqu’au bout, y compris dans sa gestion en fin de vie. Il y a donc une pression sociétale forte, mais saine, pour que le recyclage soit exemplaire. Cela renforce notre légitimité à développer un modèle exigeant, qui dépasse les simples obligations réglementaires. Et c’est d’autant plus pertinent que c’est aussi économiquement rentable : plus on récupère de matériaux de valeur, plus le recyclage devient viable. L’économie circulaire, ici, est autant un choix stratégique qu’un impératif environnemental.

Quelles sont vos grandes priorités pour l’horizon 2030 ?

Notre ambition est claire : faire émerger une véritable filière de recyclage à haute valeur ajoutée pour les panneaux solaires. Cela passe par une amélioration continue de la collecte, par le développement du réemploi lorsque c’est pertinent, par le soutien à l’innovation technologique, et par une collaboration étroite avec les producteurs pour intégrer l’écoconception dès la fabrication. Enfin, nous devons anticiper les futures exigences réglementaires pour rester en avance. Ce n’est qu’à ce prix que le solaire pourra tenir ses promesses environnementales et industrielles à long terme.

Propos recueillis par Pierre Thouverez

Que sait-on du très mystérieux avion spatial chinois ?

Le CSSHQ[1] ou Shenlong qui signifie « Dragon divin » en chinois est un avion orbital sans pilote et réutilisable. En août 2024, un astronome amateur Felix Schöfbänker a réussi à capturer des images du véhicule secret depuis l’Autriche à l’aide d’un télescope modifié. D’autres images ont également été capturées par un satellite de l’entreprise Maxar.

Ces images ont permis d’en savoir davantage sur la conception de l’avion. Malgré de fortes similitudes avec son équivalent américain, les clichés suggèrent deux structures non identifiées à l’arrière de l’appareil qui pourraient être des panneaux solaires. Alors que ces derniers sont supportés par un mât situé dans la soute pour le X-37B, ils seraient, dans le design de l’avion chinois, directement intégrés sur un module de service.

Trois missions en quatre ans

Initié conceptuellement en 2000, l’avion spatial chinois a effectué sa première mission en orbite basse en 2020 ; une mission qui n’aura duré que deux jours. Une deuxième mission, lancée en 2022, avait marqué une avancée majeure puisque cette fois-ci l’avion avait passé 276 jours en orbite. La dernière mission a pris fin le 6 septembre 2024 avec l’atterrissage de l’avion sur le site militaire de Lob Nur au Xinjiang. Le lancement avait été effectué le 14 décembre 2023 depuis la base de Jiuquan en Mongolie-Intérieure à bord d’une fusée Longue Marche-2F.

La Chine restant laconique sur son programme spatial, les missions de chacun de ces trois vols demeurent vagues et alimentent logiquement les spéculations les plus diverses sur leurs véritables objectifs. Selon les autorités chinoises, le Shenlong serait seulement destiné à tester des technologies dans le but de faciliter les voyages aller-retour en orbite basse.

Duel pour la conquête spatiale

Lors de la troisième mission, alors que l’avion spatial avait été mis en orbite seulement quatre jours auparavant, des traqueurs ont repéré que celui-ci avait relâché pas moins de six objets différents. Ces manœuvres ont donné lieu à diverses hypothèses portant sur la nature de ces objets. L’une d’elles évoque un module de service indiquant un possible retour imminent sur Terre. Même si le mystère reste entier concernant ces objets non identifiés, de sérieux soupçons laissent supposer un volet militaire spatial dédié à ce vaisseau.

La multiplication, ces dernières années, des missions spatiales marque la volonté, pour la Chine, de s’affirmer face aux États-Unis en venant les concurrencer avec un projet équivalent au X-37B. Ce véhicule d’essai orbital a réalisé sept missions depuis 2010 qui sont toujours classifiées secret-défense. La dernière, toujours en cours, a débuté le 28 décembre 2023 avec le lancement du X-37B depuis le sommet d’une fusée Falcon Heavy de SpaceX. La Force spatiale des États-Unis a annoncé, en octobre 2024, l’entrée dans une nouvelle phase visant à tester des manœuvres inédites, appelées aérofreinage, qui ont pour but de modifier l’orbite de l’avion avec une consommation minimale de carburant.

Les deux avions sont ainsi officiellement présentés, par leur pays respectif, comme des outils offrant une opportunité de tester de nouvelles technologies en orbite telles que le ravitaillement, la maintenance ou la désorbitation. Les activités militaires sont passées sous silence. Celles-ci pourraient comprendre des tests de capacités d’interception, de capture ou de neutralisation de satellites adverses.

Ces recherches technologiques cacheraient-elles de nouveaux systèmes d’armements orbitaux ?


[1] Acronyme de Chongfu Shiyong Shiyan Hangtian Qi (Vaisseau spatial expérimental réutilisable)

Les éoliennes en fin de vie vers un recyclage industrialisé

En effet, si les mâts et les nacelles des éoliennes, principalement constitués d’acier, sont recyclables via des filières déjà matures, les pales, composées de composites fibre-verre ou fibre-carbone liés par des résines thermodurcissables, posent aujourd’hui un problème technique et économique majeur. Problème qu’il va falloir résoudre via des solutions industrielles viables, à grande échelle, et bas carbone. Face à cette échéance, la filière développe une double approche, liant l’éco-conception des futures pales pour anticiper leur recyclage à l’innovation dans le traitement des matériaux composites existants, pour en extraire des matières valorisables.

Face à la première vague de structures éoliennes en fin de vie, la filière européenne table sur l’arrivée des volumes significatifs de démantèlement. D’ici 2030, l’UE devrait générer plus de 50 000 tonnes de déchets de pales, soit environ 14 000 pales à déposer selon WindEurope. À l’échelle mondiale, environ 60 000 turbines atteindront la fin de leur premier cycle d’exploitation à cet horizon, dont près des deux tiers en Europe.

De nombreux projet d’éco conception 

L’innovation bat son plein pour parvenir à relever le défi autour du recyclage des pales. Côté éco-conception par exemple, le projet ZEBRA a permis de valider la fabrication de pales en résine thermoplastique, et surtout leur recyclabilité en boucle : la résine et les renforts peuvent ainsi être réintroduits dans de nouveaux matériaux. 

Sur le plan industriel, Siemens Gamesa a commercialisé les RecyclableBlades en offshore, des pales recyclables mises en service pour la première fois en 2022. 

En ce qui concerne le stock existant de pales thermodurcissables, l’innovation vise la récupération des matériaux – fibres, verre, carbone – et la substitution de matières. Le projet européen EoLO-HUBs, par exemple, développe des procédés de chimie verte et des chaînes complètes de démantèlement pour extraire les fibres de verre et de carbone des pales pour les revaloriser.

En parallèle, des solutions mécaniques émergent : l’entreprise REGEN Fiber transforme les pales en fibres et additifs pour béton et enrobés, revendiquant un recyclage à 100 % de la pale, et l’amélioration des performances des matériaux de construction.

Des voies de réemploi à grande échelle sont également testées par le réseau Re-Wind, mais à l’heure actuelle, la co-valorisation, en cimenterie par exemple, reste une solution privilégiée de débouché pour les flux non compatibles avec un recyclage matière.

Ainsi, la combinaison entre l’éco-conception thermoplastique, le recyclage avancé des composites, la récupération des matériaux critiques et le réemploi structurel permet d’esquisser une économie circulaire crédible pour l’éolien. Le verrou principal n’est plus uniquement technologique : il est économique et réglementaire, afin d’aligner coûts et incitations avec les externalités positives du recyclage. Cette transformation est aujourd’hui en gestation.

Le secteur manufacturier français redémarre en août 2025

L’indice PMI manufacturier français, publié par S&P Global et HCOB, est passé de 48,2 en juillet à 50,4 en août 2025, dépassant ainsi les prévisions qui tablaient sur 49,9. Le franchissement de ce seuil de 50 marque une entrée en zone d’expansion, après une période de contraction qui perdurait depuis janvier 2023. Ce résultat témoigne d’un redressement technique, encore modeste, mais jugé significatif dans le contexte industriel français.

Selon Reuters, l’activité globale du secteur privé français s’est également améliorée, avec un indice composite atteignant 49,8 en août, contre 48,6 en juillet. Ce chiffre reflète une réduction de la contraction et confirme que les services, tout comme l’industrie, se rapprochent d’un retour à la croissance. Toutefois, cet indicateur demeure encore légèrement en-dessous du seuil de 50, ce qui invite à la prudence.

Au niveau européen, la dynamique est similaire. La zone euro a enregistré une expansion manufacturière, avec un PMI de 50,7, soit son plus haut niveau depuis plus de trois ans, porté notamment par un rebond des nouvelles commandes. Ce redressement coordonné entre la France et ses partenaires européens montre que la reprise ne se limite pas à une tendance nationale, mais s’inscrit dans un mouvement plus large de stabilisation régionale.

Le marché de l’emploi contribue également à cette amélioration. Les données disponibles indiquent une hausse des recrutements, bien que celle-ci repose en grande partie sur des contrats temporaires, ce qui limite la solidité du signal envoyé aux investisseurs. La prudence reste de mise, car les commandes industrielles demeurent fragiles et exposées aux tensions commerciales internationales.

Les analystes soulignent que ce retour en zone de croissance, bien qu’encourageant, ne doit pas être surinterprété. Comme le souligne S&P Global, les industriels font toujours face à une demande atone et à des coûts de production élevés. Les perspectives à court terme dépendent fortement de la trajectoire de l’économie mondiale et de la résilience du marché intérieur.

En définitive, l’augmentation du PMI manufacturier français en août 2025 constitue un signal positif après plus de deux années d’activité en contraction. Si la tendance se confirme, elle pourrait marquer le début d’une phase de stabilisation durable pour l’industrie hexagonale. Cependant, compte tenu de la fragilité des moteurs sous-jacents – commandes incertaines, emploi temporaire, et pressions extérieures –, il conviendra d’attendre les prochains mois pour confirmer la solidité de cette reprise.

Été 2025 : que s’est-il passé dans l’industrie pendant vos vacances?

Pour commencer, voici quelques informations, par secteur :

  • Secteur pharmaceutique : le laboratoire Servier ouvre les négociations concernant la vente de Biogaran
  • Aéronautique : Safran va implanter en France (dans l’Ain), sa nouvelle usine de freins carbone
  • Énergie : la production à pleine puissance repoussée à la fin de l’automne, pour l’EPR de Flamanville
  • Agroalimentaire : Nestlé tente de sauver l’appellation « eau minérale naturelle » de Perrier avec de nouveaux forages et des filtres autorisés

Renault a un nouveau directeur général : François Provost

Le 30 juillet 2025, François Provost a succédé à Luca de Meo à son poste de Directeur général du Groupe Renault. Si cette nomination de l’ex-directeur des achats du groupe fait figure de surprise, elle n’est pas le seul mouvement inattendu, puisque le designer du groupe, Gilles Vidal, a également annoncé son retour chez Stellantis.

Stellantis cesse la production de moteurs thermiques à Douvrin

Cet été, Stellantis a également décidé de programmer l’arrêt de la production de moteurs thermiques à Douvrin, d’ici fin 2026. Cette décision est particulièrement symbolique, puisque le site est considéré comme un pilier historique du « thermique à la française ».

Pour le groupe Stellantis, cette décision s’inscrit dans une stratégie de reconfiguration industrielle, avec en toile de fond l’optimisation de toute la chaîne de valeur électrique et l’abaissement des coûts unitaires des batteries. Dans ce contexte, l’arrêt de la production de moteurs thermiques est ainsi motivé par des impératifs économiques autant que réglementaires, la fin des ventes thermiques neuves étant programmée pour 2035 dans l’UE.

Des entreprises en redressement et des reprises annoncées

La faillite de Northvolt, le fabricant de batteries pour véhicules électriques considéré comme un des grands espoirs européens du secteur, a été un événement marquant du début d’année 2025, pour ne pas dire un choc.

Néanmoins, cette faillite n’a pas sonné la mort de Northvolt, puisque le fabricant américain de batteries Lyten a annoncé, cet été, vouloir racheter la totalité des activités allemandes et suédoises de la start-up.

Ce n’est d’ailleurs pas la seule bonne nouvelle de l’été, puisque Le Coq sportif, équipementier français de vêtements et chaussures de sport historique, a lui aussi trouvé un repreneur, l’entreprise franco-suisse Dan Mamane, ce qui permet de sauver les deux tiers des emplois salariés.

Malheureusement, des mises en redressement ont également été annoncées cet été. C’est le cas de l’aciériste NovAsco, placé de nouveau en redressement, un an après sa reprise par Greybull, et de Carmat, qui a déjà reçu une offre de reprise.

Les annonces de Bayrou concernant le budget 2026

Enfin, à moins d’avoir passé vos vacances dans une grotte à l’autre bout du monde, l’actualité politique particulièrement brûlante n’a pas pu vous échapper.

Bien qu’elle n’ait pas de lien direct avec l’industrie, la présentation, le 15 juillet, de la feuille de route budgétaire 2026 par le Premier ministre a eu l’effet d’une bombe et marqué le début d’une nouvelle crise politique.

Si elles s’inscrivent dans un cadre bien plus large, les annonces de François Bayrou concernent également l’industrie. En voici quelques-unes :

  • Suppression de deux jours fériés pour renforcer la productivité
  • Financement des entreprises : fonds propres et capital-risque
  • Priorité aux investissements dans l’IA et la cybersécurité
  • Lutte contre les pratiques abusives des entreprises et chasse aux niches fiscales
  • Souhait de mettre en place un « Buy European Act »

Néanmoins, l’application des mesures annoncées dans cette feuille de route est plus qu’incertaine et dépendra de la survie du gouvernement au vote de confiance du 8 septembre prochain.

« Ce que nous extrayons n’est plus un déchet, c’est une matière première de qualité industrielle »

Aujourd’hui, les procédés les plus répandus se contentent souvent de broyer les panneaux, sans permettre une valorisation fine des matériaux. Pourtant, les cellules photovoltaïques renferment des matières critiques et précieuses – argent, silicium, cuivre, aluminium, verre – dont la récupération de haute qualité pourrait alimenter d’autres industries ou, à terme, fabriquer de nouveaux panneaux.

Damien Letort, responsable commercial chez ROSI
Damien Letort, responsable commercial chez ROSI.

C’est précisément le pari de ROSI, une entreprise française fondée en 2017 et installée près de Grenoble. Spécialiste du recyclage à haute valeur ajoutée, ROSI a développé un procédé unique, mêlant pyrolyse, mécanique de précision et chimie douce, qui permet d’extraire et de purifier les matériaux contenus dans les panneaux solaires avec une finesse inédite. Objectif : ne plus considérer ces panneaux comme des déchets, mais comme de véritables gisements de matières premières industrielles, prêtes à être réinjectées dans des chaînes de production locales.

Damien Letort, responsable commercial chez ROSI, a expliqué à Techniques de l’Ingénieur les technologies mises en œuvre par la start-up grenobloise pour être en mesure de revaloriser les panneaux solaires en fin de vie de manière optimale.

Techniques de l’Ingénieur : Le solaire connaît une croissance rapide à l’échelle mondiale. Comment situez-vous cette dynamique et quel est le positionnement de la France aujourd’hui ?

Damien Letort : À l’échelle mondiale, l’électricité d’origine solaire représente actuellement environ 4 à 5 % de la production, et devrait atteindre 20 % d’ici 2030. C’est une progression fulgurante. Dans certains pays, comme le Pakistan, on importe chaque année jusqu’à 15 GW de capacité solaire, alors qu’en France, on peine à ajouter 4 à 5 GW par an, difficultés d’autant plus marquées par le contexte et décisions politiques actuels. 

La France, pourtant pionnière dans le photovoltaïque, connaît depuis quelques années un ralentissement de la dynamique. Aujourd’hui, malgré un potentiel évident, nous avons du mal à retrouver une dynamique cohérente. Les objectifs énergétiques sont parfois contredits par des décisions ponctuelles, comme l’évolution des obligations sur les ombrières de parking. Ce manque de stabilité freine les investissements.

En quoi votre procédé de recyclage se distingue-t-il des méthodes plus classiques utilisées dans le secteur ?

La plupart des méthodes actuelles de recyclage sont très macroscopiques : elles consistent souvent à broyer les panneaux pour en extraire quelques composants, au détriment de la pureté des matériaux. Chez ROSI, nous adoptons une approche industrielle de précision, pensée pour maximiser la qualité des matériaux recyclés.

Notre procédé, développé depuis 2017 et breveté, repose sur trois étapes principales : une pyrolyse entre 400 et 600 °C pour éliminer les polymères (EVA, PET, PVDF), un tri mécanique pour séparer le verre, le cuivre et les cellules de silicium, puis un traitement chimique doux pour isoler le silicium du dépôt d’argent. Ce procédé nous permet de produire des matériaux directement réutilisables dans l’industrie, sans polluants résiduels.

Cette précision est rare : nous sommes parmi les seuls au monde à séparer proprement le silicium et l’argent à l’échelle industrielle. De plus, nous opérons en continu, les filières du recyclage nécessitant des usines de grande capacité, ce qui est unique pour un acteur aussi jeune que nous.

Que deviennent concrètement les matériaux extraits des panneaux solaires en fin de vie ?

L’aluminium et le cuivre rejoignent des filières classiques, déjà bien structurées. Le cuivre, par exemple, a un taux de recyclage d’entre 40 et 50 % en France. Nous les revendons à des logisticiens spécialisés, qui alimentent ensuite les fondeurs. Pour ces deux métaux, nous n’avons pas vocation à recréer une filière mais à nous intégrer à l’existant.

Le verre photovoltaïque, lui, est très prisé par les verriers industriels. Il est transparent, pur, sans oxydes métalliques, donc sans coloration, et permet jusqu’à 3 % d’économies d’énergie par tonne dans le processus de refonte. Cela représente un levier non négligeable dans un contexte de variabilité des prix du gaz. 

L’argent extrait des panneaux est envoyé à des affineurs pour produire des lingots. Selon le World Silver Survey de 2024, la consommation d’argent dans les panneaux photovoltaïques représente plus de 15 % de la consommation mondiale d’argent, cet argent récupéré chez nous représente près de 40 % du chiffre d’affaires. Enfin, le silicium recyclé est déjà valorisé dans des applications chimiques, et suscite de l’intérêt dans d’autres secteurs industriels comme le secteur des batteries.

Pourquoi ne pas réutiliser directement ces matériaux pour fabriquer de nouveaux panneaux ?

C’est un objectif à moyen terme, mais plusieurs freins existent. D’abord, sur le plan technique : pour produire du silicium adapté au photovoltaïque, il faut atteindre une pureté entre 9 N et 10 N, et surtout séparer les couches dopées différemment. Ces opérations sont complexes et coûteuses.
Ensuite, sur le plan logistique, 95 % des panneaux sont aujourd’hui fabriqués en Chine. Fermer la boucle impliquerait de renvoyer nos matériaux là-bas, ce qui fait moins de sens aux niveaux écologique et stratégique. D’où notre choix d’une boucle ouverte : nous vendons les matériaux à des industries locales, ce qui permet de réduire les émissions de CO₂ tout en assurant leur valorisation industrielle.

Cela dit, nous suivons de près les projets de réindustrialisation du photovoltaïque en Europe. Nous avons de nombreux échanges avec Voltec Solar par exemple, un acteur français qui mérite d’être soutenu, et aussi avec les porteurs de projets de gigafactories comme Holosolis ou Carbon.

Où en êtes-vous du déploiement industriel de ROSI en Europe ?

Notre première usine est opérationnelle depuis juin 2023 à La Mure, près de Grenoble. Elle est le fruit de plusieurs années de R&D, de tests à différentes échelles et de soutiens publics, notamment européens.

Nous prévoyons d’ouvrir une deuxième usine en Espagne d’ici fin 2026, avec une montée en puissance progressive jusqu’à 10 000 tonnes de panneaux recyclés par an. En parallèle, nous discutons d’un projet en Allemagne, notamment avec des clients industriels intéressés par notre silicium bas carbone. L’idée est d’adapter la stratégie aux dynamiques nationales.

Comment sécurisez-vous votre approvisionnement en panneaux à recycler ?

Il s’agit là d’un enjeu absolument fondamental. Tous les panneaux n’ont pas la même composition : certains contiennent plus d’argent, d’autres moins, certains se recyclent mieux que d’autres. Il faut donc non seulement sécuriser les volumes, ce qui est en bonne voie grâce à notre partenariat avec l’éco-organisme SOREN, mais aussi veiller à la qualité des apports.

Cela implique une sensibilisation des acteurs de la collecte et du transport. Nous insistons par exemple pour que les panneaux soient correctement palettisés afin d’éviter les dommages physiques ou les risques pour nos opérateurs. Ce n’est pas un déchet qu’on jette, c’est une ressource qu’on valorise. Mieux elle est traitée, plus elle aura de valeur.

Pourquoi avoir choisi la région grenobloise pour implanter votre site pilote ?

C’est d’abord une histoire de racines. Les trois cofondateurs sont issus du bassin scientifique grenoblois, notamment du SIMaP. Ensuite, l’installation à La Mûre a été facilitée par le soutien de la région et de la communauté de communes, dans un territoire historiquement industriel – notamment pour la production de charbon – en reconversion.

Il existe aussi un écosystème local très dynamique autour des énergies renouvelables et de la recherche. Nous ne sommes pas seuls : d’autres entreprises du solaire y sont implantées. Cela crée des synergies utiles et un tissu industriel stimulant.

Un mot de conclusion ?

Oui, un mot sur l’humain. ROSI, c’est avant tout une équipe. Une trentaine de personnes aujourd’hui, réparties entre l’usine et le siège, qui travaillent avec passion et exigence pour faire avancer la transition énergétique. Ce que nous faisons est technologiquement complexe, mais c’est aussi une aventure collective. C’est rare et précieux de sentir une telle cohérence entre la mission, la technique et les valeurs humaines, et c’est aussi cela qui participe à la réussite actuelle de l’entreprise.

Propos recueillis par Pierre Thouverez

Revue du Magazine d’Actualité #43 du 25 au 29 août

En même temps que la matière s’active et l’industrie s’adapte, des réponses innovantes façonnent notre avenir industriel et environnemental.


🌍 ÉNERGIE & ENVIRONNEMENT

La France contrainte de couper sa production d’électricité faute de débouchés

La France a dû réduire sa production électrique, notamment nucléaire, en raison d’une demande insuffisante et de capacités de stockage saturées. Une situation qui met en lumière les limites de l’infrastructure actuelle et la nécessité d’une meilleure coordination européenne.
🔌 Pourquoi la France freine sa production d’électricité

Des capteurs pour sentir la forêt brûler avant qu’elle ne flambe

Des capteurs intelligents capables de détecter les signaux précoces d’un départ de feu pourraient révolutionner la prévention des incendies. En captant des variations chimiques et thermiques, ces dispositifs permettent une intervention plus rapide et ciblée.
🔥 Prévenir les incendies grâce à la détection précoce


🧪 MATÉRIAUX & SCIENCES

Enfin une synthèse efficace pour les films de graphite à gros grains ?

Une nouvelle méthode de synthèse permettrait de produire des films de graphite à gros grains de manière plus homogène et contrôlée. Ces matériaux sont essentiels pour les applications en électronique, notamment dans les batteries et les capteurs.
🔋 Percée dans la fabrication des films de graphite

Des matériaux atomiquement minces génèrent des vortex optiques : une révolution pour les communications photoniques

Des chercheurs ont démontré que des matériaux bidimensionnels peuvent générer des vortex optiques, ouvrant la voie à des communications photoniques plus rapides et compactes. Une avancée prometteuse pour les télécoms et l’informatique quantique.
💡 Photonique : quand la lumière tourne en vortex


🌐 INDUSTRIE & RESSOURCES

L’économie mondiale à la merci des métaux rares ?

La dépendance croissante aux métaux rares, indispensables aux technologies vertes et numériques, expose l’économie mondiale à des tensions géopolitiques et à des risques d’approvisionnement. Une vulnérabilité stratégique qui appelle à une diversification des sources.
📱 Métaux rares : un talon d’Achille mondial


🧵 TEXTILE & ÉCONOMIE CIRCULAIRE

Transition écologique : le textile au défi de la régulation européenne et française

Le secteur textile est confronté à une série de régulations visant à réduire son impact environnemental. Entre écoconception, traçabilité et responsabilité élargie du producteur, les industriels doivent revoir leurs modèles pour rester dans la course.
👕 Textile : les nouvelles règles du jeu écologique

Comment mieux recycler le plastique grâce aux coquillages

Des chercheurs explorent l’utilisation de coquilles marines pour améliorer le recyclage des plastiques. Ces biomatériaux faciliteraient la séparation des polymères, rendant le processus plus efficace et moins polluant.

♻️ Coquillages et plastiques : une alliance inattendue


📰 👓  Bon weekend et à la semaine prochaine  !

Ariane 6 : l’espoir Européen dans un ciel de plus en plus compétitif

Dans un ciel dégagé au-dessus du Centre spatial guyanais, Ariane 6 s’est élancée pour la troisième fois de son histoire et a signé son deuxième vol commercial réussi. À son bord, le satellite MetOp-SG-A1, conçu pour Eumetsat, l’organisation européenne de surveillance météorologique, a été placé avec précision en orbite héliosynchrone, à 800 kilomètres d’altitude. Pour les responsables d’Arianespace, ce succès confirme la montée en puissance d’un lanceur qui doit incarner la nouvelle ère de l’accès européen à l’espace, après le retrait d’Ariane 5 et la longue traversée du désert qu’a connue le secteur spatial du Vieux Continent.

Ce lancement valide les choix techniques qui ont guidé la conception de ce lanceur. Sa configuration modulaire, à savoir Ariane 62 avec deux boosters ou Ariane 64 avec quatre, lui permet de couvrir un large spectre de missions, de l’orbite basse au transfert géostationnaire. Son moteur Vinci, capable de plusieurs rallumages, offre une grande souplesse pour les mises en orbite complexes et garantit la possibilité de désorbiter l’étage supérieur, répondant ainsi aux impératifs croissants de durabilité et de lutte contre la prolifération des débris spatiaux.

Ces avancées traduisent des atouts indéniables. Ariane 6 redonne à l’Europe son autonomie d’accès à l’espace, un enjeu rendu plus vital encore par l’arrêt des coopérations avec la Russie depuis 2022 et la fin des lancements de Soyouz depuis Kourou. Le carnet de commandes témoigne de cette confiance retrouvée, puisque outre les missions institutionnelles, Ariane 6 doit assurer, dans les prochaines années, une série de lancements pour déployer la constellation Kuiper d’Amazon. Pour l’Europe, qui voyait ses clients se tourner massivement vers SpaceX depuis la retraite d’Ariane 5, la perspective de retrouver une place dans le marché mondial des lancements est une bouffée d’oxygène.

Mais ce succès ne doit pas masquer les fragilités du programme. Ariane 6 reste un lanceur consommable, dans un secteur où la réutilisation s’impose comme un standard. À l’image de Falcon 9 de SpaceX, qui a démontré que le réemploi des premiers étages permet de réduire drastiquement les coûts et d’augmenter la cadence. Avec plus d’une centaine de vols par an, l’opérateur américain écrase le marché par sa compétitivité et sa réactivité. En comparaison, Ariane 6, même à plein régime, ne devrait pas dépasser une dizaine de tirs annuels. Ce différentiel structurel pèse lourd sur le positionnement commercial européen, et malgré les efforts d’optimisation, le lanceur européen reste plus cher que ses concurrentes réutilisables.

Ariane 6 doit trouver sa place face aux micro-lanceurs émergents

Pour autant, Ariane 6 n’a pas vocation à rivaliser directement avec SpaceX sur son terrain. Les dirigeants européens mettent en avant d’autres arguments, comme la fiabilité, la qualité des mises en orbite, la garantie de services souverains pour les missions militaires, scientifiques et météorologiques. Là où les clients institutionnels exigent une sécurité absolue et une maîtrise européenne de bout en bout, Ariane 6 peut s’imposer comme un choix naturel.

La compétition ne se limite pas à SpaceX. La Chine enchaîne les succès avec ses lanceurs Longue Marche, l’Inde affirme ses ambitions à travers son PSLV (Polar Satellite Launch Vehicle), utilisé pour des missions interplanétaires à coût réduit, tandis qu’aux États-Unis, Blue Origin (créée par Jeff Bezos) prépare l’arrivée de son New Glenn. Même en Europe, la concurrence s’aiguise avec des start-up en Allemagne, en Espagne et en France, qui développent de petits lanceurs privés, capables de conquérir une partie du marché institutionnel.

Ariane 6 doit donc trouver sa place dans un écosystème plus fragmenté, en assumant son rôle de lanceur lourd polyvalent, complémentaire des micro-lanceurs émergents. En réussissant coup sur coup ses deux premiers vols commerciaux, elle a franchi une étape cruciale en démontrant que l’industrie européenne pouvait tenir ses promesses et que la confiance pouvait revenir. Mais le défi reste entier : enchaîner les missions, tenir le rythme, réduire les coûts et préparer dès maintenant la prochaine génération de lanceurs, probablement réutilisables.

Webinar : Modéliser les moteurs électriques et les générateurs avec COMSOL Multiphysics®

Ce webinar en accès libre organisé jeudi 18 septembre de 11h à 12h vous présentera la modélisation et la simulation accompagnant le développement de machines électriques, parallèlement avec l’électrification des secteurs du transports et de l’énergie, avec COMSOL Multiphysics® et le module AC/DC.
Le webinar mettra en valeur les capacités du logiciel pour la modélisation des machines électriques telles que les moteurs et les générateurs. Avec le module AC/DC, ils offrent un large éventail de fonctionnalités pour la modélisation, la simulation et l’optimisation des machines à flux radial ou axial utilisant différents principes de fonctionnement, telles que les machines à aimants permanents, à réluctance ou à induction. Le module possède la capacité unique de tenir compte à la fois des non linéarités magnétiques et de la dépendance en température des matériaux, permettant ainsi la création de modèles haute-fidélité. Les capacités multiphysiques du logiciel peuvent être enrichies avec d’autres modules pour mener également des études en vibroacoustique ou déterminer l’état de contraintes dans les matériaux.

INSCRIPTION

Ce webinar sera enregistré et disponible en archive sur notre site dès le lendemain de l’évènement.

Panneaux solaires et éoliennes : les énergies renouvelables à l’épreuve de la circularité

La recyclabilité des éoliennes et des panneaux solaires est souvent mise en avant – plus de 90 % pour les deux technologies – mais le recyclage effectif, lui, reste en deçà des attentes, malgré une législation européenne et française de plus en plus structurée et contraignante.

En théorie, la France dispose d’un fort potentiel de valorisation. Les panneaux photovoltaïques, majoritairement à base de silicium cristallin, sont recyclables jusqu’à 95 %. Verre, aluminium, plastique, mais aussi silicium, cuivre et argent peuvent être potentiellement récupérés. Pour les éoliennes, dont la durée de vie est un peu plus courte (environ 25 ans contre 30 pour les panneaux), la structure métallique – acier, aluminium, cuivre, béton – représente également plus de 90 % de la masse et est facilement recyclable. Le problème majeur, dans les deux cas, réside dans l’écart entre cette recyclabilité théorique et le recyclage réellement effectué. Comme souvent.

Prenons l’exemple des panneaux solaires. En 2023, l’éco-organisme agréé Soren, chargé de leur récupération en fin de vie a enregistré un total de 5 407 tonnes de panneaux collectés. En 2024, ce chiffre est monté à 9 361 tonnes, soit 77 % des panneaux désinstallés cette année-là. Une progression notable comparée à 2023 (54 %), mais encore loin de l’objectif de 85 % fixé par la directive européenne DEEE.

On estime aujourd’hui qu’environ un tiers des panneaux solaires aujourd’hui désinstallés échappent à la filière réglementée, pour être revendus à l’étranger ou sur des plateformes de seconde main. Avec toutes les dérives que cela implique.

Près de 94% de valorisation des panneaux collectés

Sur les panneaux effectivement collectés, le taux de recyclage atteint entre 93 et 94 %. Ce recyclage est assuré par quatre sites en France, situés près de Bordeaux, Lille, Toulouse et Grenoble, avec des technologies comme celles de Rosi Solar (Isère), capable d’extraire les métaux rares à haute valeur ajoutée des panneaux. Pourtant, si l’on prend en compte le taux de collecte, ce sont au final seulement 55 à 60 % des panneaux usagés qui sont effectivement recyclés en France. L’économie circulaire implique la distinction entre recyclabilité et recyclage effectif : la première est une promesse, le second une réalité souvent freinée par des obstacles logistiques, techniques et économiques.

Du côté des éoliennes, la situation est plus contrastée. Bien que leur recyclabilité globale soit élevée (90 à 95 %), le parc français est encore relativement jeune : moins de 5 % des installations sont aujourd’hui en fin de vie. Cela limite mécaniquement les volumes traités et retarde l’industrialisation d’une filière de recyclage à grande échelle. Depuis 2024, un décret impose la valorisation d’au moins 95 % du poids des aérogénérateurs et 55 % pour les matériaux des pales (à partir de 2025). Mais dans les faits, ces dernières, constituées de fibres composites, sont difficilement recyclables. La majorité finit encore incinérée ou en remblais, après une valorisation énergétique. Selon l’ADEME, entre 3 000 et 15 000 tonnes de pales composites devront être traitées chaque année dès 2025. 

Les pâles d’éoliennes, casse-tête persistant

Pour l’instant, les initiatives industrielles restent éparses. Arkema développe des pales thermoplastiques plus faciles à recycler, et certaines start-ups travaillent sur des procédés de dépolymérisation. Mais les capacités restent limitées, et la France n’a pas encore mis en place de filière REP (responsabilité élargie du producteur) pour les éoliennes, à la différence des panneaux photovoltaïques. L’extension de cette REP aux éoliennes terrestres est en discussion, dans le cadre de la loi Agec, pour une mise en œuvre attendue à l’horizon 2026-2027.

Sur le plan législatif, les bases sont pourtant posées. En Europe, les panneaux solaires sont intégrés depuis 2012 à la directive DEEE, qui impose aux producteurs la prise en charge de la collecte et du recyclage, avec des objectifs chiffrés. Pour les éoliennes, elles relèvent de la directive-cadre sur les déchets, sans objectif spécifique pour les matériaux composites, bien que des financements européens, via Horizon Europe, soutiennent l’émergence de filières circulaires adaptées.

En France, les panneaux photovoltaïques sont encadrés depuis 2014 par une REP bien établie, financée via une éco-contribution. À titre d’exemple, en 2023, près de 400 000 tonnes de panneaux ont été mises sur le marché, soit une croissance continue qui exigera à terme une montée en puissance des infrastructures de traitement. Les éoliennes, elles, doivent faire l’objet d’un démantèlement financé par une garantie de 1 000 euros par kilowatt installé, mais sans mécanisme de mutualisation ni de suivi structuré du recyclage des composants.

Au final, si la France dispose d’un bon socle réglementaire et de quelques champions industriels du recyclage, elle reste confrontée à un triple défi : augmenter les taux de collecte, développer des solutions pour les matériaux complexes (en particulier les composites) et structurer des filières industrielles robustes. Car si la transition énergétique veut tenir sa promesse de durabilité, elle devra impérativement être aussi une transition circulaire.

Des matériaux atomiquement minces génèrent des vortex optiques : une révolution pour les communications photoniques

Dans le domaine de la photonique, les vortex optiques représentent l’une des avancées les plus prometteuses pour l’avenir des communications optiques, de la manipulation microscopique jusqu’à la cryptophotonique. Ces faisceaux lumineux en spirale, capables de transporter un moment angulaire orbital (OAM, le faisceau ne se propage pas comme une vague plate mais en spirale, avec un front d’onde hélicoïdal), offrent un moyen d’encodage inédit – exploitable pour l’augmentation significative de la capacité d’information ou la création de canaux de transmission ultra-sécurisés. Jusqu’à aujourd’hui, la génération de tels faisceaux reposait sur des dispositifs volumineux ou coûteux (fentes spatiales, métasurfaces complexes, « micro-combs » intégrés…), nécessitant des procédés de nanofabrication sophistiqués, souvent peu compatibles avec un déploiement à grande échelle.

Des matériaux naturels ultra-minces pour la génération de vortex optiques

Dans ce contexte, les chercheurs de l’Université de Melbourne publient une méthode inédite et élégante – basée sur l’utilisation de matériaux van der Waals (vdW) – pour fabriquer des générateurs de vortex optiques sans aucune nanofabrication. Ces matériaux « atomiquement minces », tels que le nitrure de bore hexagonal (hBN) et le disulfure de molybdène (MoS₂), présentent une biréfringence très élevée, autrement dit une forte anisotropie optique (ces matériaux ralentissent la lumière de différentes manières, selon la façon dont elles y pénètrent), ce qui permet de provoquer un couplage spin-orbite efficace sur des épaisseurs allant de quelques micromètres à quelques centaines de nanomètres.

Des expérimentations convaincantes

Formation d’un vortex optique
Le passage d’une lumière polarisée circulairement à travers certains matériaux de van der Waals provoque la formation d’un vortex optique © Jaegang Jo et al. 2025

Dans l’article « Spin-orbit coupling in van der Waals materials for optical vortex generation » publié dans Light: Science & Applications, les auteurs montrent qu’un simple cristal ultra-fin peut transformer la lumière d’une manière spectaculaire. Lorsqu’un faisceau de lumière polarisée circulairement traverse un minuscule cristal de nitrure de bore hexagonal (hBN) de seulement 8 micromètres d’épaisseur, il change de polarisation et se met à « tourbillonner », créant un vortex optique. En clair, la lumière acquiert un moment orbital, comme si elle transportait une petite rotation intrinsèque supplémentaire. Dans cette expérience, environ 30 % de la lumière a subi cette transformation, ce qui est déjà une efficacité notable. Avec un flocon de disulfure de molybdène (MoS₂) encore plus fin – seulement 320 nanomètres d’épaisseur –, l’efficacité est de 9 %. Malgré un taux plus faible, cela montre que des effets quantiques fascinants peuvent être obtenus à des échelles nanométriques. À terme, les chercheurs estiment qu’il serait possible d’atteindre une efficacité maximale théorique de 50 %.

Vers des dispositifs photoniques ultra-compacts

Ce qui rend cette approche véritablement révolutionnaire, c’est d’abord la simplicité de fabrication : contrairement aux méthodes traditionnelles qui nécessitent des structurations nanométriques complexes ou l’utilisation de métasurfaces sophistiquées, les matériaux van der Waals exploitent directement leur anisotropie naturelle. À cela s’ajoute une compacité inégalée, puisque les générateurs de vortex optiques obtenus ne mesurent que quelques micromètres, voire nanomètres, alors que les dispositifs classiques atteignent généralement plusieurs millimètres, voire centimètres. Enfin, ces matériaux présentent une remarquable scalabilité : ils peuvent être empilés et intégrés facilement, ouvrant ainsi la voie à des dispositifs photoniques ultra-compacts, capables d’être directement intégrés sur des puces.

Applications et perspectives futures

Les vortex optiques produisent un nouveau degré de liberté pour l’encodage de l’information : leur structure hélicoïdale peut transporter plusieurs bits par photon, multipliant ainsi la bande passante des communications optiques. En outre, leur structure labyrinthique rend les canaux plus résistants au piratage ou aux écoutes non autorisées.

Au-delà des communications classiques, ces faisceaux sont déjà utilisés en optique quantique (pour manipuler des qubits), en microscopie à contraste de phase, ou encore en optomécanique, où le moment angulaire peut générer des forces sur des microparticules.

Les simulations des chercheurs suggèrent que l’utilisation d’un faisceau de type Bessel, focalisé de manière spécifique, pourrait améliorer l’efficacité tout en réduisant encore l’épaisseur requise – pouvant atteindre le domaine sub-longueur d’onde.

Limitations et prochaines étapes

Malgré des avancées spectaculaires, plusieurs limites doivent encore être surmontées avant d’envisager des applications concrètes. L’efficacité de conversion reste en effet partielle : les taux mesurés demeurent inférieurs à 50 %, même si les modèles théoriques suggèrent qu’ils pourraient être améliorés. De plus, les matériaux testés comme le hBN et le MoS₂ possèdent des plages de transparence propres, qui doivent impérativement coïncider avec les longueurs d’onde utilisées en télécommunications, situées entre 1,3 et 1,5 µm. Enfin, se pose la question de l’intégration pratique : transformer ces résultats en modules réellement utilisables dans des systèmes existants – qu’il s’agisse de satellites, de réseaux à fibre optique ou encore de puces photoniques – nécessitera encore un important travail d’ingénierie.

Le travail de Jo et al. pose cependant les fondations d’une technologie optique plus simple, plus compacte et potentiellement moins coûteuse pour la génération de vortex optiques. En exploitant la biréfringence géante des matériaux van der Waals – sans recourir à la fabrication nanométrique –, ils ouvrent une voie prometteuse vers la photonique intégrée, en particulier pour les communications ultra-haut débit et la cryptographie quantique. Ce paradigme pourrait transformer la conception des composants optoélectroniques, en alliant simplicité, efficacité et compatibilité industrielle.

Enfin une synthèse efficace pour les films de graphite à gros grains ?

Les excellentes propriétés de conduction électrique et thermique du graphite font de l’œil aux scientifiques depuis un moment. Et durant ces 40 dernières années, la recherche de films de graphite épais et à gros grains a particulièrement progressé. Habituellement, ces films utilisent un métal pour la catalyse, mais le graphite qui en résulte est souvent fortement ridé. Ceci s’explique par la différence de contraction thermique entre le substrat métallique et le film lors du refroidissement depuis les hautes températures nécessaires à la synthèse jusqu’à la température ambiante. Et qui dit rides, dit défauts et dégradation des propriétés tant vantées du graphite. Pour y remédier, une équipe de chercheurs menée par le directeur de l’Institute for Basic Science (Daejeon, Corée du Sud) Rodney S. Ruoff a testé de multiples configurations métalliques avant de trouver la plus optimale. Leur étude a été présentée dans le journal Nature Communications en date du 12 août 2025.

Le secret d’un bon film de graphite réside dans l’alliage

Les tests organisés par l’équipe de Rodney S. Ruoff ont porté sur de nombreux métaux : nickel, fer, molybdène, cobalt, palladium, vanadium et tungstène. À force de tentatives, les scientifiques ont fini par s’arrêter sur un alliage métallique Ni-Mo (nickel-molybdène) à 50-72 % de proportions respectives. Lors de leurs expérimentations, ils ont chauffé puis refroidi leurs matériaux à l’aide d’un système à effet Joule ayant l’avantage d’être rapide pour monter en température (d’environ 100°C par seconde) comme pour en descendre (12 secondes pour passer de 2 250°C à la température ambiante). Ce système leur a permis d’obtenir une fonte Ni-Mo très plate et lisse, dans laquelle s’est vu dissoudre du carbone qui a ensuite précipité en surface, formant le film de graphite à proprement parler. Ensuite, l’évaporation progressive du nickel a donné naissance à un substrat poreux entre métal et graphite. Un bon point puisque c’est justement à cette interface que l’on devait l’apparition de rides.

Films de graphite
(a) Photographies à l’échelle centimétrique des films de graphite précipités en surface de l’alliage Ni-Mo.
(b) Images au microscope électronique à transmission de la section de surface (deux premières images) et de la section transversale d’un film de graphite.
Crédits : Institute for Basic Science.

Pour récupérer leur invention, les chercheurs ont fait adhérer la surface du film à un ruban adhésif double face, lui-même relié à une plaque de quartz par de la colle époxy. Après un décollement en douceur du support métallique, l’ensemble a été trempé pendant 6 heures dans du tétrahydrofurane afin de dissoudre le ruban adhésif et retrouver uniquement le film de graphite. Le processus de synthèse est rapide, avec la formation de 6,2 couches de film de graphite à gros grains à chaque seconde. Soit une production plus de vingt fois plus rapide que les méthodes traditionnelles ! Les fameux grains, de l’ordre du millimètre, sont près de 10 000 fois plus imposants que ceux trouvés dans du graphite conventionnel. Et le film ne s’en porte pas plus mal, avec des conductivités électriques de 2,25.104 S.cm-1 à 300 K (26°C) et thermique de 2034,4 +/- 68 W.m-1.K-1 et une résistance à la fracture de 1,29 +/- 0,203 GPa. Le tout montrant une densité (2,25 g.cm-3) équivalente à celle d’un cristal de graphite (2,26 g.cm-3).

Comment mieux recycler le plastique grâce aux coquillages

Plus de 400 millions de tonnes de plastique sont produites chaque année, et on pourrait même atteindre le milliard de tonnes d’ici à 2050. Côté déchets, le plastique représente plus de 350 millions de tonnes par an, dont 70 % finissent leur vie dans les décharges ou directement dans l’environnement naturel. C’est que l’adoption du plastique recyclé reste limitée, la faute à une variabilité importante de ses performances mécaniques qui tend à décourager les industriels. Pour faciliter le recyclage mécanique du plastique (déchiquetage, fonte et reformation) et encourager du même coup l’économie circulaire, des chercheurs de Georgia Tech (Atlanta, États-Unis) ont eu une idée. En s’inspirant des coquillages, et plus particulièrement de la nacre qui les recouvre, le professeur assistant en ingénierie spatiale Christos Athanasiou et son équipe sont parvenus à transformer des matériaux très hétérogènes en produits structurellement robustes. Les différentes étapes de leur projet sont décrites dans le journal PNAS du 12 août 2025.

Des plastiques sous forme de briques et de mortier

Christos Athanasiou tient le composite de plastique recyclé développé par son équipe
Christos Athanasiou tient le composite de plastique recyclé développé par son équipe. Crédits : Georgia Tech

La nacre se caractérise par son architecture dite en « brique et mortier ». Des plaquettes minérales rigides (les briques) sont maintenues ensemble par de fines couches de protéines (le mortier). Ces dernières absorbent les déformations subies et redistribuent efficacement la pression. Résultat : la nacre montre peu de défauts à l’échelle nanométrique et possède une grande résistance à la fracture. Les scientifiques de Georgia Tech ont voulu reproduire ce génie de la nature au niveau des plastiques recyclés, afin de « lisser » leurs propriétés mécaniques. En lieu et place du minéral, l’équipe de recherche menée par Christos Athanasiou a utilisé des plaquettes de plastique recyclé. Quant aux protéines, elles ont été substituées par une matrice de polymère molle. Mais avoir de bonnes idées ne suffit pas, il faut ensuite les tester…

Les chercheurs ont fait le choix du film étirable PE-HD (polyéthylène haute densité) pour valider leur hypothèse, la production de ce film dépassant les 4 millions de tonnes par an rien qu’aux États-Unis ! Leur composite de plastique se présentait alors sous la forme suivante : des « briques » en plaquettes de PE-HD scellées dans du « mortier » en PDMS (polydiméthylsiloxane). Cinq spécimens types de 19,5 cm de long pour 5,3 cm de large ont ensuite été testés pour vérifier leurs propriétés. Bonne pioche puisque la variabilité des performances mécaniques était réduite jusqu’à 93 %. À l’avenir, l’usage de tels composites pourrait permettre de baisser les coûts de production des matériaux d’emballage de près de 50 % ! En attendant, Christos Athanasiou et ses collègues travaillent actuellement sur une mise à l’échelle avec davantage de plastiques. Lesquels seraient cette fois, dans un souci de durabilité, appariés à des adhésifs biosourcés.

Transition écologique : le textile au défi de la régulation européenne et française

L’industrie textile, portée par la fast fashion, est l’une des plus polluantes au monde : elle génère près de 10 % des émissions de CO₂ à l’échelle mondiale et engloutit d’énormes volumes d’eau et de ressources. En Europe, chaque citoyen achète en moyenne 19 kilos de vêtements par an, dont une grande partie finit en décharge. En France, 700 000 tonnes de textiles sont jetées chaque année. Face à ce bilan, réduire l’empreinte carbone du secteur est devenu un impératif climatique et économique.

Bruxelles déploie un arsenal réglementaire pour transformer la manière dont les vêtements sont produits, vendus et recyclés. La première pierre de cet édifice est la REP (Responsabilité Élargie du Producteur) appliquée au textile, au linge de maison et aux chaussures, et qui repose sur le principe de pollueur-payeur. Depuis 2008, date de son entrée en vigueur en France, elle vise à accroître les performances environnementales de cette filière en développant une économie circulaire.

Depuis janvier 2025, la révision de la Directive-cadre déchets oblige tous les États membres de l’UE à organiser la collecte séparée des textiles afin de promouvoir leur réemploi et leur recyclage. Cette mesure marque un tournant pour le secteur, qui génère d’énormes quantités de déchets, avec les deux tiers des vêtements qui finissent dans des décharges. D’ici à la fin de l’année 2028, la Commission européenne évaluera la nécessité de fixer des objectifs spécifiques en matière de prévention, de collecte et de recyclage des déchets textiles.

À partir de 2027, dans le cadre du règlement européen ESPR (Ecodesign for Sustainable Products), un autre dispositif appelé le Digital Product Passport devrait entrer en vigueur dans le secteur textile et doit permettre à chaque vêtement d’être associé à un QR code ou à un autre identifiant numérique. Ce passeport offrira une traçabilité inédite, renseignant sur la composition, l’impact écologique, la réparabilité ou la fin de vie, et vise à renforcer la transparence, la circularité et la confiance des consommateurs.

Vers un affichage environnemental sur les vêtements avant la fin de l’année

Consciente de l’impact environnemental du textile, la France a adopté plusieurs dispositifs pour engager la transformation du secteur. En tête, la loi AGEC (Anti-Gaspillage pour une Économie Circulaire, promulguée en février 2020, interdit désormais la destruction des invendus textiles, imposant aux acteurs de revaloriser, donner ou recycler ces stocks dormants.

En ce moment, le Gouvernement prépare un score environnemental national des vêtements, également appelé « coût environnemental » ou « Écobalyse », sur la base du cycle de vie du produit, enrichi par un coefficient de durabilité prenant en compte la traçabilité ou l’incitation à la réparation. Validé par la Commission européenne en mai dernier, ce dispositif doit entrer en vigueur d’ici à la fin de l’année, d’abord de manière volontaire, avant de devenir obligatoire.

De son côté, l’association En Mode Climat, qui regroupe des acteurs du monde de la mode, plaide pour un durcissement du cadre législatif afin d’accélérer la transition écologique du secteur. Pour atteindre l’objectif de l’Accord de Paris, à savoir diviser par trois les émissions du textile d’ici 2050, le collectif prône une refonte structurelle du modèle à travers trois leviers complémentaires.

Étant donné que le volume de vêtements vendus en France a presque doublé en deux décennies, dopé par le renouvellement ultra-rapide des collections et les prix plancher, l’association appelle à freiner cette frénésie en augmentant les prix du low-cost, en limitant les soldes et en encadrant les promotions trop fréquentes. Le but étant de réduire le volume de vêtements neufs et de sortir la mode de cette ère du jetable.

La relocalisation de l’industrie textile dans des territoires à mix énergétique décarboné (France, Europe) est un second axe à actionner afin de diminuer de manière drastique l’empreinte carbone du transport et les émissions opérationnelles de cette industrie. Enfin, alors que la réparation d’un vêtement reste souvent plus coûteuse que son remplacement, le collectif veut renverser cette logique et plaide pour favoriser le réemploi en soutenant les acteurs du cycle long (retoucheurs, friperies, ressourceries). Pour En Mode Climat, ce changement de paradigme apparaît essentiel pour inverser la trajectoire actuelle, jugée intenable.

Des capteurs pour sentir la forêt brûler avant qu’elle ne flambe

Détecter un feu de forêt avant même que la fumée ne s’élève au-dessus des arbres, c’est la promesse que veut tenir Dryad Networks[1]. Cette start-up allemande a mis au point un réseau de capteurs capables de « sentir » un départ de feu en quelques minutes, là où les systèmes optiques, les caméras de surveillance ou les satellites ne repèrent les flammes qu’une fois qu’elles se sont développées. Son objectif : réduire le temps de réaction face aux incendies, un facteur déterminant dans un contexte de réchauffement climatique et d’allongement des saisons à risque.

Le système développé, baptisé Silvanet, repose sur de petits boîtiers fixés directement sur les troncs des arbres. Chacun est équipé de capteurs capables de mesurer des gaz spécifiques émis dès les premières phases de la combustion, comme l’hydrogène, le monoxyde de carbone, des composés organiques volatils ou des composés soufrés. L’alimentation est assurée par un panneau solaire associé à des supercondensateurs, ce qui permet une autonomie annoncée de dix à quinze ans sans recours à des batteries au lithium, une option qui évite à la fois les risques d’auto-incendie et les contraintes environnementales liées à leur recyclage.

Chaque capteur couvre un rayon d’environ 80 à 100 mètres et communique avec ses voisins par un protocole LoRaWAN (Long Range Wide-area network) maillé. Les données transitent de capteurs en capteurs, jusqu’à un point de collecte relié au réseau cellulaire, à Internet ou aux nano-satellites de Kinéis. Grâce à la constellation de l’opérateur satellitaire français, il est ainsi possible d’envoyer des notifications critiques en quasi-temps réel, dans les zones les plus reculées, dépourvues de réseau mobile.

La force du concept est de miser sur l’olfaction plutôt que sur la vision. Contrairement aux caméras ou aux satellites qui doivent « voir » un feu, les capteurs de Dryad détectent la phase de couve, cette combustion lente et sans flamme visible qui précède souvent l’embrasement. Cette approche permet d’émettre une alerte avant que les flammes ne se propagent, y compris de nuit, par temps couvert ou sous la canopée. Pour limiter les fausses alertes, le système intègre un algorithme d’apprentissage automatique capable d’analyser la composition de l’air et de reconnaître les signatures caractéristiques d’un départ de feu.

Transmettre très rapidement les coordonnées d’un départ de feu aux pompiers

Mais ce dispositif a aussi ses limites et ses contraintes. Chaque capteur ne couvre qu’une surface réduite, ce qui impose un maillage dense et donc des coûts de déploiement importants sur de vastes territoires. L’installation requiert aussi une étude minutieuse du terrain pour assurer une bonne exposition solaire et la continuité des communications, en particulier sous une canopée dense.

En mars dernier, Dryad a franchi une nouvelle étape en présentant Silvaguard, un drone autonome conçu pour décoller automatiquement dès qu’un capteur déclenche une alerte, afin de confirmer la présence d’un feu grâce à une caméra infrarouge et de transmettre les coordonnées précises aux secours. L’ambition est de créer une chaîne de réponse quasi instantanée, depuis la détection au niveau du sol jusqu’à l’intervention ciblée des pompiers sur zone.

À travers son programme de R&D, l’entreprise voit également beaucoup plus loin et imagine déjà un futur où détection, confirmation et intervention seraient automatisées. Ainsi, des drones ou des robots pourraient venir larguer des produits retardants ou attaquer directement un départ de feu identifié par Silvanet, créant ainsi une boucle complète de réaction. Ce scénario suppose toutefois de franchir plusieurs obstacles, notamment réglementaires, comme l’autorisation d’opérer des vols automatiques au-dessus de forêts.

Dryad Networks a déjà déployé ses solutions sur plusieurs sites pilotes, notamment en Europe du Sud, en Amérique du Nord et au Canada, parfois en partenariat avec des services publics comme le CAL FIRE, une agence responsable de la gestion des incendies de forêt en Californie. La société revendique aujourd’hui une cinquantaine de projets en cours et une troisième génération de matériel plus robuste et plus simple à installer.


[1] Dryad Networks

Revue du Magazine d’Actualité #42 du 11 au 22 août

Cette semaine, l’IA s’allie à l’énergie, les batteries trouvent une seconde vie, et le quantique vise la perfection.


⚙️ INDUSTRIE & SOCIÉTÉ

Feuille de route budgétaire 2026 : quelles annonces pour l’industrie ?

Le gouvernement dévoile ses priorités pour 2026 : réindustrialisation, transition énergétique et innovation. L’accent est mis sur les filières stratégiques, avec une volonté de renforcer la souveraineté industrielle et de mieux orienter les investissements publics.
Industrie : les grandes lignes du budget 2026

Un usinage plus durable grâce à l’IA et la data

L’intégration de l’intelligence artificielle et des données dans les procédés d’usinage permet d’optimiser les performances tout en réduisant l’impact environnemental. Une approche qui allie efficacité industrielle et responsabilité écologique.
👉 IA et data : duo gagnant pour l’usinage


🔄 ÉNERGIE & ENVIRONNEMENT

La France mise sur la géothermie pour produire du froid renouvelable

La géothermie s’impose comme une solution durable pour produire du froid, notamment dans les bâtiments tertiaires. Le gouvernement soutient cette technologie pour réduire la consommation énergétique liée à la climatisation.
🏢 Géothermie : le froid qui fait du bien

Mob-Energy donne une seconde vie aux batteries de voitures électriques

La start-up Mob-Energy développe des solutions pour réutiliser les batteries usagées des véhicules électriques. Une initiative qui prolonge leur durée de vie et réduit l’impact environnemental du secteur automobile.
🔋 Batteries : une seconde vie pleine d’énergie


 🤖  NUMÉRIQUE & TECHNOLOGIES

L’usage des petits modèles de langage pourrait rendre l’IA plus accessible et responsable

Les petits modèles de langage offrent une alternative plus éthique et moins énergivore aux grands modèles. Ils facilitent l’intégration de l’IA dans des environnements contraints tout en limitant les biais et les risques.
💻 Petits modèles, grands effets

TotalEnergies s’allie à Mistral AI

TotalEnergies s’associe à Mistral AI pour intégrer des solutions d’intelligence artificielle dans ses opérations. L’objectif : améliorer la performance énergétique et accélérer la transformation numérique du groupe.
IA et énergie : alliance stratégique


🚆  MOBILITÉ & INNOVATION

Une première en Europe : un train autonome circule sur une voie classique

Un train autonome a circulé pour la première fois sur une voie classique en Europe. Ce test marque une avancée majeure dans le domaine ferroviaire, avec des perspectives d’automatisation pour améliorer la sécurité et la régularité du trafic.
🚅 Train autonome : une première sur les rails européens


 🧪 SCIENCES & FUTUR

La tolérance aux fautes, le saint Graal du quantique

Les chercheurs progressent vers des systèmes quantiques capables de corriger leurs propres erreurs. Cette avancée est cruciale pour rendre l’informatique quantique fiable et applicable à grande échelle.
💡 Quantique : vers une fiabilité sans faille


😎 Bon weekend et à la semaine prochaine  ! 

La France contrainte de couper sa production d’électricité faute de débouchés

Au premier semestre 2025, la France vit un paradoxe énergétique : jamais la production d’électricité décarbonée n’a été aussi abondante… et jamais autant d’énergie n’a été perdue. Selon le bilan publié par RTE, les écrêtements, qui correspondent aux coupures volontaires de production, des installations éoliennes et solaires ont bondi de plus de 80 % en un an, atteignant 2 TWh (terawattheure) entre janvier et juin. Cette quantité d’électricité a été effacée du réseau faute de débouchés.

La cause ? Un mélange de faible consommation et de forte production bas-carbone. Après avoir chuté pendant les crises sanitaire puis énergétique, la demande reste 6 à 7 % en dessous de son niveau pré-Covid. Dans le même temps, le parc renouvelable continue de croître avec le solaire qui atteint désormais 26 GW (gigawatt) de capacités installées, devançant l’éolien (24,6 GW). Au printemps, les journées ensoleillées voient la production photovoltaïque culminer au moment où la consommation est la plus basse, provoquant une saturation du réseau.

Conséquence : les prix de gros plongent parfois sous zéro. Entre janvier et juin, la France a connu 363 heures à prix négatif, soit environ 8 % du temps, contre 235 sur la même période en 2024. Ces signaux incitent les producteurs à réduire la voilure. Les plus récents parcs éoliens et solaires, soumis au régime du complément de rémunération, adaptent leur production en conséquence. Mais près de 29 GW d’installations (sur une capacité totale de 51 GW) bénéficient encore de l’obligation d’achat et elles injectent leur électricité quoi qu’il en coûte, accentuant la surproduction.

Cette situation est d’autant plus paradoxale que la France reste largement exportatrice. Au premier semestre 2025, le solde net des échanges d’électricité a atteint 37,6 TWh, deuxième record historique après celui de 2024. Mais cette abondance n’est pas toujours écoulable, puisque les pays voisins connaissent eux aussi des épisodes de surproduction bas-carbone, ce qui limite la capacité de la France à écouler ses excédents, en particulier sur ses interconnexions avec l’Allemagne, la Belgique et l’Espagne.

Des arrêts brutaux de production d’électricité qui fragilisent le réseau

Le rapport révèle également une modification de la répartition des prix négatifs. Même si ceux-ci se produisent toujours principalement au printemps, pendant l’après-midi et le week-end, ces épisodes touchent désormais les jours ouvrés : 43 d’entre eux ont connu au moins une heure à un prix négatif au premier semestre 2025, contre 21 au premier semestre 2024. Cette évolution témoigne d’un phénomène devenu structurel, lié à la montée en puissance du photovoltaïque et à la faiblesse relative de la consommation en milieu de journée.

Pour éviter les déséquilibres, RTE module aussi la production nucléaire et hydraulique, et mobilise le « mécanisme d’ajustement » pour ordonner des baisses. En 2025, les capacités éoliennes et solaires mobilisables ont d’ailleurs quadruplé, mais restent encore insuffisantes pour gérer tous les surplus. Les arrêts brutaux peuvent même déstabiliser le réseau, obligeant à développer des procédures de lissage.

Si cette électricité écrêtée ne produit pas de CO₂, elle représente un investissement perdu et un manque à gagner pour les producteurs. Elle révèle aussi un retard dans l’adaptation de la demande ; raison pour laquelle RTE plaide pour déplacer certains usages vers les heures creuses solaires, afin de consommer cette énergie au lieu de la laisser filer. L’opérateur souligne que l’amélioration de la flexibilité est désormais une nécessité pour absorber ces volumes.

À partir de janvier 2026, de nouvelles évolutions réglementaires obligeront tous les parcs éoliens en mer et d’énergies renouvelables d’une certaine capacité à participer au mécanisme d’ajustement de la production. Mais la solution passera aussi par un meilleur pilotage de la consommation et par le stockage. Sans ces évolutions, l’électricité verte risque de continuer à s’évaporer, compromettant à la fois les objectifs climatiques et les finances publiques qui soutiennent ces installations.

L’économie mondiale à la merci des métaux rares ?

Pareille dépendance se décline essentiellement en trois types de risques :

  • pénurie de métaux rares, en raison de la très forte augmentation de leur utilisation, mais également, en Europe, de matériaux qui jusqu’à présent ne posaient pas de problème de disponibilité, mais qui deviendront critiques du fait de l’électrification accélérée du système énergétique dans le cadre de la politique bas carbone et donc de l’épuisement beaucoup plus rapide de leurs gisements ;
  • tensions géopolitiques et économiques, un nombre restreint de pays disposant de gisements importants de minerais contenant ces métaux ;
  • dommages environnementaux.

La pénurie est un risque d’autant plus élevé que la part des productions renouvelables intermittentes ainsi que, par voie de conséquence, du stockage d’énergie par batteries est importante dans le mix électrique et que l’électrification du système énergétique est plus soutenue.

Les métaux rares sont présents, entre autre, dans :

  • les éoliennes. Le moteur de la plupart d’entre elles est constitué d’un aimant à base de néodyme (terre rare), de fer et de bore (métal rare) ;
  • les cellules des panneaux solaires contenant gallium, silicium et terres rares ;
  • les cathodes des batteries des voitures électriques et de stockage d’énergie ; le cobalt en est un composant important, permettant une plus grande capacité de stockage. Il présente toutefois des risques majeurs dont il sera question ci-dessous.

D’autre part, certains matériaux très largement utilisés dans l’industrie de l’électronique et de l’informatique sont susceptibles d’être remplacés par d’autres nettement plus performants. C’est le cas du silicium dans les semi-conducteurs, composants de base de la technologie des puces. En effet, l’oxyde de gallium est cinq fois plus conducteur que ce dernier. Toutefois, une telle substitution est soumise à des contraintes géopolitiques similaires à celles du silicium (dont la production du brut est dominée par la Chine).

Quant au germanium, il requiert un raffinage complexe et coûteux, dont la production de plaquettes dominée par la Corée du Sud et le Japon. Il permet la transmission de données à haut débit dans les fibres optiques (essentielle à l’IA) et est devenu de plus en plus nécessaire vu la demande croissante de réseaux de données à haute performance. Selon certaines estimations, la demande globale de germanium devrait augmenter de 60 % d’ici à 2034.

Parmi les métaux qui deviennent critiques dans le contexte de la politique de décarbonation, le cuivre en offre une belle illustration.

Ainsi, selon l’IFPEN (projet ANR GENERATE, Emmanuel Hache), 20 kg de cuivre sont nécessaires pour fabriquer un véhicule thermique, 40 kg pour un hybride et environ 80 kg pour un véhicule électrique. En outre, 90 % des ressources en cuivre connues aujourd’hui seront extraites d’ici à 2050, dont environ un tiers de la consommation globale dans les réseaux électriques et le transport. L’AIE (Agence Internationale de l’Énergie) a signalé une pénurie potentielle, prévoyant que les projets miniers actuels et prévus ne répondront qu’à 80 % des besoins en cuivre en 2030. Les mines américaines prévoient que l’augmentation de la production en 2024 n’est pas suffisante pour soutenir la forte demande, notamment de l’IA.

L’aluminium et plus particulièrement l’alumine de haute qualité (HPA) en est un autre exemple. Cette dernière est utilisée notamment dans la production d’énergie renouvelable, les applications militaires, les batteries Li-ion. Sa pureté chimique remarquable (après traitement), sa résistance mécanique et sa stabilité thermique sont des caractéristiques essentielles aux techniques basées sur l’IA.

Les contraintes géopolitiques

Les pays qui détiennent dans leur sous-sol des gisements de matériaux rares font l’objet de convoitise. Celles-ci se traduisent par des alliances pour en partager l’exploitation, d’accords d’achat, voire par des agressions pour en acquérir la propriété.

L’Ukraine est, entre autres, l’objet de telles convoitises tant de la part des Américains que des Russes. Les premiers ont signé un accord portant sur l’accès à ses richesses minérales en échange d’une aide militaire (mais pas la propriété), tandis que les seconds ont annexé ses territoires orientaux, notamment, pour s’approprier ses gisements locaux de lithium (deux des quatre principaux du pays, les plus riches de l’Europe) ainsi que des minerais rares tels que le niobium et le tantale.

La Chine, à elle seule, contrôle plus 60 % des terres rares extraites (sa production s’élève à environ 170 000 tonnes, loin devant celle des États-Unis), 93 % de la production de l’oxyde de gallium et plus de 90 % de la production d’aimants permanents, selon une publication en mai 2025 de Gilles Lepesant, directeur de recherche au CNRS.

La Chine en possède aussi les plus grandes réserves. En Mongolie intérieure, le district de Bayun Obo abrite le gisement de terres rares le plus important au monde, associé à un énorme complexe industriel de traitement.

La Chine contrôle également la principale réserve mondiale de gallium et produit plus de la moitié du germanium mondial.

La position dominante de la Chine dans ce domaine est extrêmement inquiétante, car elle lui confère une capacité de nuisance démesurée.

Il est urgent que les démocraties mettent tout en œuvre pour développer leur propre production de métaux et terres rares, moyennant des importations provenant de pays de confiance, leur permettant d’assurer leur autonomie en la matière.

On est encore très loin de cet objectif même si des pays comme l’Australie, la Suède et les États-Unis disposent de gisements de ces matériaux, dont certains sont déjà exploités.

Les dommages environnementaux

L’exploitation de métaux rares et de minerais contenant des terres rares n’est pas à l’abri de problèmes de rentabilité, ni de danger pour l’environnement et la santé.

L’extraction et le traitement de ces derniers sont très coûteux en énergie, en eau et en produits chimiques. Généralement, les gisements ne contiennent que 1 % de terres rares. Il faut par conséquent extraire d’énormes quantités de minerais pour finalement ne récupérer que peu de terres rares en fin de processus. En outre, celles-ci sont souvent associées à des déchets radioactifs puisqu’ils ont quasi le même rayon ionique.

L’extraction est réalisée en déversant des alcalis toxiques dans le sol afin de dégager les terres rares de l’argile.

La solution chimique est libérée dans le sol et collectée dans des bassins avec les terres rares extraites.

Après des années de pollution causée par l’exploitation illégale de nombreuses petites mines dans la région minière du Jiangxi (l’une des plus importantes du monde), les autorités chinoises ont enfin décidé de réparer les dommages environnementaux. Malheureusement, après des années de nettoyage, l’eau de source de toute la région reste contaminée.

La plupart de ces mines ont été fermées. Les milliers de personnes qui ont perdu de ce fait leur emploi ont émigré au Myanmar et au Laos pour extraire le minerai dans les mines locales. La Chine importe de plus en plus de minerais ainsi extraits dans ces pays pour en séparer ensuite les terres rares, une fois importées. La pollution environnementale n’a pas été éliminée, mais déplacée.

Aux États-Unis, les minerais extraits de la (principale) mine de Mountain Pass étaient expédiés vers la Chine pour traitement. Actuellement, ils sont traités aux EU avec l’aide d’un programme spécifique du ministère de la Défense. Ce dernier, selon Gilles Lepesant cité plus haut, a alloué depuis 2020 près de 500 millions USD pour constituer une filière américaine. De nouveaux projets ont émergé en Caroline du Sud, dans l’Oklahoma , au Texas où s’est implanté le principal acteur industriel australien déjà détenteur d’une usine de raffinage en Malaisie.

En Europe des capacités de raffinage voient le jour au Royaume-Uni, en Norvège, en Suède. En France, le site de La Rochelle a repris ses centrales de raffinage en 2025. Et un projet franco-japonais est initié à Lacq avec un approvisionnement issu du rebut de production.

Conclusion

L’électrification accélérée de l’économie européenne, dans le cadre de la politique bas carbone imposée par la Commission européenne, entraîne un gonflement de la demande de métaux rares de manière générale et de terres rares en particulier. Selon le bureau de recherche géologique et minière (BRGM), la consommation de terres rares va croître d’environ 8 % par an dans les années à venir en raison de la forte augmentation de la part des productions éoliennes et photovoltaïques dans le mix électrique et de celle des voitures électriques et hybrides dans le parc automobile (pour autant que la croissance de leur parc se confirme durant la prochaine décennie, à voir !).

Ces besoins croissants en métaux et terres rares incitent à diversifier l’approvisionnement en minerais contenant ces matériaux (afin de se soustraire le plus possible de la dépendance à l’égard de la Chine), notamment en les important du Vietnam, du Myanmar, de l’Australie ou de l’Indonésie.

Toutefois, les lois et réglementations environnementales (parfois, excessives) sur la qualité de l’air, de l’eau, des sols, etc., bref sur la protection de la nature et le bien-être des populations de manière générale, sont de nature à freiner l’accès à ces ressources, voire à remettre en question des projets d’extraction et, partant, à ne pas satisfaire la demande croissante de matériaux critiques essentiels, entre autres, aux secteurs de l’informatique, des communications, des technologies de pointe et de l’énergie.

Tôt ou tard, les États européens ne se verront-ils pas contraints d’offrir aux entreprises des voies de contournement pour leur permettre de rester compétitives au niveau international ?

Des propositions de suppression de certaines exigences ont également émergé aux États-Unis, entre autres, pour les projets essentiels à la sécurité nationale ou à la résilience économique (Robert A. James et Asleigh Myers – 6 janvier 2025).

Quoiqu’il en soit, les projets de développement de terres rares nécessitent un soutien public. Leur rentabilité est loin d’être immédiate en raison non seulement du coût des projets, mais également, entre autres, du coût de la mise en conformité avec les exigences aléatoires de contraintes environnementales et de la volatilité des prix des importations en provenance de pays de confiance.

Jean-Pierre Schaeken Willemaers

Romain Postoyan : « Simplifier la variabilité des mécanismes grâce à l’automatique »

Pouvez-vous nous présenter votre parcours et ce qui vous a amené à travailler dans le domaine de l’automatique ?

J’ai découvert l’automatique en classes préparatoires, mais c’est véritablement lors de mes études d’ingénieur à l’ENSEEIHT que j’ai eu un coup de cœur pour le domaine. Le déclic fut le cours d’automatique linéaire fondée sur la représentation d’état de Maurice Fadel. La « révélation » fut le lien fort mis en avant entre algèbre linéaire et automatique. C’est ce lien, dans un sens plus large, entre mathématiques appliquées et applications, qui me fascine encore aujourd’hui. J’ai ensuite découvert l’étendue des champs d’application de l’automatique, cette diversité ne cesse de m’étonner encore aujourd’hui. Afin d’approfondir cette voie, j’ai poursuivi mes études par un master recherche en théorie du contrôle à l’université de Coventry (Royaume-Uni), puis une thèse soutenue en 2009 à l’université Paris-Sud (aujourd’hui université Paris-Saclay) au L2S (UMR CNRS 8506, CentraleSupélec). Après un séjour postdoctoral à l’université de Melbourne, j’ai ensuite rejoint le CNRS en 2011 au CRAN (UMR 7039, Université de Lorraine) en tant que chercheur où je poursuis mes recherches depuis.

Quels sont les défis majeurs auxquels l’automatique est confrontée aujourd’hui, notamment dans l’industrie 4.0 et les systèmes cyberphysiques ?

L’un des grands défis, à mes yeux, réside dans la complexité croissante des systèmes auxquels nous sommes confrontés notamment dans l’industrie 4.0 et les systèmes cyberphysiques. Par complexité, j’entends à la fois le nombre élevé de variables, l’interconnexion en réseau de ces systèmes, l’hétérogénéité de leurs dynamiques qu’elles soient continues, discrètes ou exhibant plusieurs échelles de temps ou encore leur forte variabilité due à l’interaction avec des humains par exemple. Ces caractéristiques appellent le développement de nouveaux outils méthodologiques pour le contrôle et l’estimation, un champ de recherche particulièrement actif depuis plus d’une décennie.

L’IA et le machine learning prennent de plus en plus de place : quelle est leur complémentarité avec les approches classiques de l’automatique ?

L’automatique repose historiquement sur la démarche suivante : modéliser un système à partir des lois de la physique ou des données disponibles, puis, à partir de ce modèle, concevoir des lois de commande ou d’estimation. L’IA vient, si ce n’est bouleverser du moins questionner ce paradigme. Il est désormais en effet possible de construire directement des stratégies de contrôle à partir des données, et ce pour des systèmes complexes, sans passer par une modélisation explicite. L’enjeu est majeur, car cela pourrait d’une part automatiser et donc simplifier la synthèse de contrôleurs mais également ouvrir la voie au développement de stratégies de contrôle pour des domaines jusqu’alors peu étudiés de par la grande variabilité des mécanismes mis en jeu comme cela peut être le cas en neurosciences par exemple.

L’intelligence artificielle a donc beaucoup à offrir à l’automatique, mais l’inverse est tout aussi vrai. Des enjeux majeurs, tels que la robustesse et la fiabilité des algorithmes d’apprentissage par renforcement, restent aujourd’hui largement ouverts. Ces questions touchent au cœur de métier de l’automatique qui dispose de tout un savoir-faire pour garantir des propriétés de stabilité, de robustesse et d’invariance des systèmes autonomes. Le « tout données » montre également ses limites. Ce qui se dessine aujourd’hui, c’est un véritable dialogue entre les approches fondées sur la connaissance physique et l’exploitation des données. Dans ce contexte, l’automatique a plus que sa place par son ancrage en termes d’analyse et d’exploitation des propriétés structurelles des systèmes. Cela pourrait ouvrir la voie à de nouveaux algorithmes d’IA plus sûrs et plus efficaces en termes de ressources de calcul. Je mentionne ici deux points pour lesquels l’automatique peut contribuer conjointement au développement de l’IA mais il en existe de nombreux autres tels que l’identification des systèmes, l’estimation d’état, l’analyse des algorithmes, etc.

Comment l’automatique contribue-t-elle à l’amélioration de l’efficacité énergétique et à la transition écologique ?

Tout d’abord en proposant des stratégies de contrôle qui réduisent la consommation énergétique des systèmes tout en assurant leur bon fonctionnement. Cette question est au cœur de la commande dite optimale, une des thématiques historiques de l’automatique. Par ailleurs, l’automatique repose traditionnellement comme nous l’avons vu sur l’exploitation d’un système et de ses propriétés, ce qui peut permettre de grandement diminuer les ressources de calcul nécessaires pour mettre en place une loi de commande par opposition aux approches d’IA telle que l’apprentissage par renforcement reposant sur une quantité importante de données. Dernier point, les automaticiens s’intéressent non seulement à la dépense énergétique du système à piloter mais aussi à celle des lois de commande. En effet, un algorithme de contrôle consomme des ressources de calcul et de communication qui ont un coût énergétique. De nouveaux paradigmes ont ainsi vu le jour ces dernières années à l’instar de la commande événementielle et neuromorphique afin de proposer de nouveaux algorithmes de contrôle des ressources de calcul et de communication des contrôleurs économes en ressources.

Pouvez-vous partager des exemples concrets d’applications récentes où les techniques d’automatique ont eu un impact significatif ?

Le premier exemple qui me vient en tête est celui des drones. Lorsque j’étais étudiant, je ne dirais pas que le pilotage automatique de drones était une chimère, mais il restait l’apanage de quelques rares équipes de recherche. Aujourd’hui, ces engins sont devenus accessibles au grand public, à tous les prix. Ce développement spectaculaire n’aurait jamais été possible sans les avancées en automatique, en particulier en commande et estimation non linéaires.

Dans quels secteurs voyez-vous les avancées les plus prometteuses en automatique (automobile, aérospatiale, robotique, santé, etc.) ?

Je pense que la santé est l’un des domaines où l’automatique a le plus à offrir. Qu’il s’agisse de chirurgie robotisée ou de la régulation de troubles physiologiques comme le diabète, la maladie de Parkinson ou l’épilepsie, les applications sont déjà nombreuses. Les mécanismes de régulation sont en effet omniprésents dans notre corps, et beaucoup de pathologies peuvent être comprises comme des dysfonctionnements de ces processus. L’automatique est la science de la régulation et a donc sur le principe énormément à apporter à ces défis. Nous ne disposons pas encore aujourd’hui de tous les outils nécessaires, mais de nombreuses équipes de recherche à travers le monde s’y attellent. Je suis ainsi persuadé qu’elle jouera un rôle croissant dans l’élaboration de traitements innovants, à l’interface entre technologie, biologie et médecine.

Quelles sont les compétences clés à maîtriser aujourd’hui pour un ingénieur en automatique ?

Il est essentiel d’avoir de solides bases en mathématiques pour comprendre les algorithmes que l’on manipule et les principes qui les sous-tendent. La curiosité scientifique est également précieuse, car les domaines d’application de l’automatique sont vastes et en constante évolution. Enfin, la capacité à simuler numériquement des systèmes dynamiques, et donc à savoir coder, est indispensable pour passer de la théorie à la mise en œuvre.

Quel conseil donneriez-vous aux étudiants qui souhaitent se spécialiser en automatique ?

Je leur conseillerais d’abord de ne pas s’arrêter au nom du domaine, qui peut parfois sembler un peu daté. Personnellement, je préfère parler de théorie du contrôle. Plus sérieusement, je leur dirais que c’est un champ d’une richesse remarquable, à la fois par la diversité des outils théoriques qu’il mobilise et par l’étendue de ses applications, bien au-delà de ce qui est généralement présenté dans les cursus classiques. Cela peut sembler exagéré, mais quel que soit votre centre d’intérêt (robotique, aéronautique, spatial, mais aussi biologie, chimie, neurosciences, économie ou psychologie), vous y trouverez des problématiques en lien avec l’automatique. C’est un domaine profondément transversal, à la croisée des sciences.

Comment voyez-vous l’évolution de l’automatique dans les prochaines années ?

Je suis convaincu que l’automatique verra son importance croître avec l’essor technologique que nous connaissons. En revanche, le domaine souffre encore d’un manque de visibilité, qui constitue à mes yeux un risque majeur. L’automatique est partout autour de nous, mais souvent méconnue, y compris dans les milieux où elle est pourtant essentielle. L’un des défis majeurs pour notre communauté est donc de mieux faire connaître le domaine, afin de susciter un intérêt accru aussi bien auprès des étudiants que des industriels ou des décideurs publics. Certains pays y parviennent très bien : je pense notamment aux Pays-Bas, où les industries de pointe investissent massivement dans l’automatique et le nombre d’étudiants poursuivant un cursus en automatique croît significativement. C’est un exemple inspirant.

Y a-t-il des verrous scientifiques ou technologiques qui limitent encore certaines applications ?

Comme évoqué précédemment, la complexité des dynamiques en jeu constitue souvent un obstacle majeur, qui appelle au développement de nouvelles approches, notamment fondées sur l’exploitation des données. Ce qui fait la force de l’automatique, cependant, c’est son ancrage dans les propriétés structurelles des systèmes. L’un des grands défis actuels est donc de concilier ces connaissances structurelles avec les données disponibles. Ces dernières années, des travaux passionnants ont émergé dans cette direction, laissant entrevoir des avancées prometteuses dans un avenir proche.

Comment la collaboration entre recherche académique et industrie peut-elle accélérer le développement de nouvelles solutions en automatique ?

On oppose souvent, à tort selon moi, recherche académique et recherche industrielle. Pour ma part, j’ai énormément appris de mes collaborations avec le monde industriel. Elles ont non seulement enrichi ma compréhension d’enjeux concrets, mais ont aussi fait émerger des questions théoriques que je n’aurais probablement jamais rencontrées autrement. Ces partenariats sont, à mes yeux, une véritable chance pour les deux parties.

Propos recueillis par Maya Huguenin 

 

Contribution de Romain Postoyan à Techniques de l’Ingénieur

Romain Postoyan collabore avec les Techniques de l’Ingénieur en tant qu’auteur spécialisé dans le domaine de l’automatique.

Article

Commande événementielle

TotalEnergies s’allie à Mistral AI

Le 12 juin dernier, ToTalEnergies a annoncé, dans un communiqué, un partenariat avec Mistral AI. En marge du salon VivaTech 2025, les deux entreprises ont officialisé le projet qui donnera naissance à un laboratoire d’innovation commun réunissant leurs équipes respectives.

Cet accord illustre la volonté de TotalEnergies de s’appuyer sur le digital et l’intelligence artificielle dans le cadre de ses activités industrielles. Patrick Pouyanné, le PDG de la multinationale, précise dans le communiqué : « Ce partenariat (…) nous permettra d’explorer de nouvelles opportunités pour intégrer davantage l’IA au cœur de nos activités. L’IA a un immense potentiel pour transformer les systèmes énergétiques et cette collaboration reflète à la fois notre esprit pionnier et notre quête permanente d’innovation ».

Le laboratoire commun associera les compétences en technologies digitales de Mistral AI à l’expertise et au savoir-faire dans la production d’énergies du géant mondial. Le but recherché par TotalEnergies est de concevoir des solutions digitales avancées telles que le développement de solutions d’aide à la décision à destination de ses industriels ou un assistant accompagnant ses chercheurs dans leur mission de développement des nouvelles énergies.

Pour ses clients, la compagnie souhaite développer des solutions d’assistance les guidant dans la réduction de leur consommation énergétique.

Une ambition amorcée avec Digital Factory

Cela fait plusieurs années que TotalEnergies intègre les technologies d’intelligence artificielle, et en particulier dans le domaine des géosciences et de la détection des anomalies d’équipements de ses installations. Ayant compris l’effet positif que peut avoir l’utilisation de l’IA générative, cette dynamique s’est accélérée avec la création d’une Digital Factory en 2020. Cette usine numérique, située au cœur de Paris, a déjà développé plus de 100 solutions dont 60 mobilisent des technologies allant du machine learning à l’IA générative. L’équipe, composée notamment de développeurs et de data scientists, a déjà atteint sa pleine capacité avec 300 personnes en cinq ans seulement.

Un enjeu européen de souveraineté numérique

Pour Patrick Pouyanné, ce partenariat s’inscrit dans une volonté de contribuer au développement d’un écosystème technologique européen. Il se montre réticent quant à l’utilisation des clouds étrangers pour héberger les données de l’entreprise. Il plaide pour la création d’un cloud européen auquel il pourrait confier en toute sécurité le traitement des données les plus confidentielles de la compagnie. À défaut d’un acteur européen, les entreprises sont contraintes de se tourner vers les géants américains comme Amazon Web Services ou Microsoft Azure.

Avec son ascension spectaculaire, Mistral pourrait incarner ce leadership sur le continent grâce à ses grands modèles de langage open source. L’indépendance technologique dans un secteur stratégique comme l’IA est recherchée par les grands groupes comme le prouvent les récentes annonces de partenariats de la licorne avec CMA CGM, Stellantis ou encore BNP Paribas.

Pour renforcer la souveraineté numérique de la France et de l’Europe, le spécialiste de l’IA proposera également Mistral Compute, un partenariat avec Nvidia annoncé en juin dernier lors du salon VivaTech. Cette infrastructure souveraine sera gérée entièrement depuis l’Europe.

Mistral AI saura-t-elle être une alternative sérieuse aux géants américains ? Pour cela, elle devra veiller à garder son indépendance. Celle-ci est susceptible d’être fragilisée depuis le partenariat, en février 2024, avec Microsoft ainsi que par la présence de fonds américains ou du Moyen-Orient dans le capital de l’entreprise.

La tolérance aux fautes, le Saint Graal du quantique

Le calcul quantique n’est pas voué à remplacer l’ordinateur classique qui est universel, c’est-à-dire non spécialisé, mais à le compléter en particulier dans les applications intensives en calcul et pas en données.

À condition de ne pas être « perturbé » par des fautes. Or pour l’instant, le quantique n’en est qu’aux calculateurs bruités de taille intermédiaire (NISQ). Ils permettent d’utiliser le calcul quantique, mais de manière expérimentale.

À cause du grand nombre d’erreurs des qubits actuels, les usages sont donc limités. Beaucoup espéraient, en particulier la mise en œuvre d’algorithmes d’optimisation. Ce ne sera pas le cas ! D’où les espoirs mis sur les processeurs quantiques tolérant aux fautes.

Ces FTQC pourraient effectuer de manière fiable des calculs complexes en surmontant les problèmes posés par les erreurs et le bruit inhérents aux systèmes quantiques.

Rédigé par un comité créé par l’Académie des Technologies, le rapport « État de l’art de l’ordinateur quantique tolérant aux fautes – Questions et défis » a été publié en juin dernier. Au moment où l’informatique quantique suscite toujours plus d’investissements et d’espoirs industriels, ce document de 200 pages tente de répondre à cette question essentielle : sommes-nous réellement entrés dans l’ère des qubits fiables et exploitables à grande échelle et si oui, pour quelles applications ?

Pour répondre à cette question, ce rapport est organisé en cinq chapitres détaillant l’état des différentes technologies de qubits. Le premier expose les fondements du calcul et des algorithmes quantiques. Le second aborde la nécessité impérative des codes correcteurs d’erreur pour pallier la sensibilité aux bruits quantiques. Le troisième examine la performance actuelle et les limites des qubits photoniques, atomiques et supraconducteurs, en évaluant leur tolérance aux erreurs ainsi que les progrès attendus.

Garantir la fiabilité des opérations

Un quatrième chapitre analyse la question de la scalabilité et l’interconnexion de puces pour contourner les limites des conceptions monolithiques. Le dernier chapitre aborde des éléments complémentaires, dont une analyse technico-économique de l’écosystème.

« Ce rapport souligne que, malgré des progrès attendus, l’avantage calculatoire quantique n’est pas acquis pour tous les cas d’usage et dépend de conditions techniques et algorithmiques demandant encore des travaux de recherche. Il met également en garde contre l’optimisme excessif autour des algorithmes quantiques d’optimisation, dont l’avantage est pour l’instant loin d’être acquis », note Olivier Ezratty, cofondateur du Quantum Energy Initiative et l’un des membres du groupe de travail de l’Académie des Technologies.

Selon Olivier Ezratty, « la nécessité d’une ingénierie système intégrée, d’un renouvellement régulier des analyses pour prendre en compte les avancées récentes, et d’une diversité de recherches sont recommandées plutôt qu’un pari unique sur une seule technologie ».

Concernant la tolérance aux fautes, la cryptographie quantique, les capteurs quantiques et les simulations analogiques présentent déjà des applications concrètes et sans nécessiter la mise en œuvre d’architectures complexes de tolérance aux fautes.

« En revanche, pour les algorithmes universels à grande échelle, la correction d’erreur est indispensable pour atteindre les profondeurs de circuit et les volumes de qubits logiques requis », rappelle Catherine Lambert, Présidente du Centre européen de recherche et de formation avancée en calcul scientifique (Cerfacs) et membre de l’Académie des Technologies.

« Les applications les plus spectaculaires requièrent des architectures robustes et un nombre élevé de qubits logiques. Pour passer de démonstrations ponctuelles à des calculs à grande échelle, il faudra multiplier les qubits physiques par un facteur élevé afin de garantir la fiabilité des opérations et la profondeur des circuits nécessaires pour des algorithmes tels que Shor ou la simulation de molécules complexes », précise Boris Bourdoncle qui dirige l’équipe de recherche sur les architectures évolutives chez Quandela.

Pour Boris Bourdoncle, qui a participé à la rédaction de ce rapport, « le contrôle classique des qubits représente un des obstacles techniques majeurs, à mesure que le nombre de bits quantiques augmente, le câblage, l’électronique et l’infrastructure cryogénique deviennent plus complexes et encombrants. L’intégration monolithique se heurte à des limites. »

Une nouvelle piste prometteuse apparaît : l’interconnexion entre plusieurs systèmes de taille inférieure, dans « une approche modulaire », afin d’associer leurs capacités de calcul.

En conclusion, les auteurs de ce rapport insistent sur la complémentarité entre science fondamentale et ingénierie. Il ne s’agit pas de placer d’un côté les théoriciens et de l’autre les ingénieurs, mais de codévelopper des solutions.

Ce document souligne par ailleurs que le financement constitue un enjeu économique majeur. Le développement quantique requiert des investissements lourds en infrastructures et compétences. Seuls des usages générant une valeur suffisante pourront justifier ces coûts.

À l’image de l’industrie des semi-conducteurs, une dynamique de croissance soutenue par l’innovation et le retour sur investissement est indispensable pour franchir cette échelle technique.

Mob-Energy donne une seconde vie aux batteries de voitures électriques

Nous avons demandé à Salim El Houat, président et co-fondateur de Mob-Energy, de nous en dire plus.

Salim El Houat, Président et co-fondateur de Mob-Energy
Salim El Houat est Président et co-fondateur de Mob-Energy (Crédit : Mob-Energy)

Mob-Energy est un concepteur et fabricant de solutions innovantes d’optimisation de puissance et d’énergie pour les entreprises.

Mob-Energy a été créée en 2018, en région Lyonnaise, et emploie aujourd’hui une soixantaine de personnes.

L’entreprise s’est donné deux missions : aider le réseau électrique à se transformer grâce au stockage d’énergie, et donner une seconde vie aux batteries de véhicules électriques.

 

Quelle est la problématique adressée par Mob-Energy ?

Salim El Houat : La problématique de Mob-Energy est de répondre à la question « comment va-t-on raccorder les équipements électriques de la transition énergétique ? », avec tous les enjeux que cela comporte : enjeu de puissance, tirage des câbles, génie civil, génie électrique, etc.

Notre postulat de base est qu’on ne pourra pas tirer des milliers de km de câbles, comme par le passé, et qu’il va falloir trouver des moyens beaucoup plus intensifs, par opposition à extensifs, pour gérer l’approvisionnement en électricité des bâtiments.

La réponse imaginée par Mob-Energy concerne donc le stockage d’électricité dans des batteries de seconde main provenant de l’industrie automobile.

Pourquoi avoir opté pour des batteries de véhicules automobiles ?

Il y a actuellement un tsunami de véhicules électriques qui arrive en Europe. Or, on sait que les batteries de ces véhicules ont tendance à arriver en fin de vie de manière prématurée, si bien qu’il existe un véritable marché de la seconde vie des batteries.

Plutôt que d’envoyer ces batteries au recyclage, il est préférable d’opter pour une réutilisation, notamment pour le stockage stationnaire d’électricité.

Mob-Energy fabrique ainsi des conteneurs dans lesquels sont installées des batteries de seconde vie. Ces conteneurs, qui constituent notre solution EIKO, sont destinés aux parkings d’entreprise, et permettent d’apporter différents services énergétiques aux bâtiments.

Comment se passe l’approvisionnement en batteries de seconde vie ?

Depuis 2018, nous avons travaillé avec différentes marques de véhicules. D’abord Tesla, puis BMW, et désormais Mercedes-Benz. Il n’y a pas d’exclusivité avec tel ou tel constructeur, car nous cherchons à diversifier nos approvisionnements en modules de batteries.

Pour rappel, le module est le « 2e étage » dans l’architecture d’une batterie et c’est le niveau auquel nous opérons. Comme chaque module à son histoire, son propre facteur de forme et ses propres caractéristiques électrochimiques, gérer cette diversité en seconde vie n’est pas simple.

Dès que nous devons utiliser une nouvelle référence de module, il faut donc faire en sorte d’adapter le reste de l’application, ce qui complique la démarche d’industrialisation.

Nous travaillons activement sur ce sujet de l’adaptabilité, notamment au travers d’un projet qui s’appelle Battery X. L’idée est de pouvoir créer des packs batterie modulaires, capables d’intégrer plusieurs types de modules différents, afin de gagner en flexibilité au niveau des approvisionnements.

Qui sont vos fournisseurs ?

Mob-Energy travaille en direct avec les constructeurs automobiles qui ont mis en place une centrale européenne de récupération des batteries à démanteler. Cette centrale fournit ainsi, en modules, des entreprises comme Mob-Energy.

Après réception de ces modules dans notre usine de Lyon, ils suivent alors tout un processus de stockage, mise en quarantaine, puis inspection et qualification. On commence par déterminer la capacité résiduelle des modules, puis on les réassemble entre eux dans un nouveau pack et on vient ajouter, dans cette nouvelle enveloppe, tous les éléments qui permettent d’avoir une vraie batterie prête à l’emploi : nouveau BMS, système de refroidissement adapté, etc.

Comment gérez-vous la fiabilité des modules issus de ces batteries de seconde main ?

Nous avons tendance à surdimensionner nos packs, afin d’utiliser une plage de stockage inférieure à la capacité réelle de la batterie. Ça permet d’une part d’en augmenter la durée de vie et, d’autre part, de réussir à standardiser nos processus de production alors même que les modules en entrée ont un vieillissement variable.

Néanmoins, il faut garder en tête que les modules que nous recevons ont un niveau de vieillissement qui est de l’ordre de quelques %, très rarement au-delà de 10 %.

En effet, le tsunami de batteries de seconde main dont je parlais est associé à des accidents, des essais, des rebuts industriels, voire à des commandes industrielles qui n’ont pas été passées. Bien souvent, ces modules sont quasiment neufs, ont été stockés dans des hangars et leur vieillissement n’est pas associé à de l’usure, mais plutôt aux conditions de stockage.

Quels sont les cas d’usage typiques, adressés par Mob-Energy et le conteneur EIKO ?

Le cas d’usage typique est la station de recharge pour véhicules électriques. Pour faire simple, plutôt que d’avoir à raccorder 10 ou 20 bornes de recharge sur leurs armoires électriques, les entreprises ont simplement à raccorder le conteneur d’où part une sorte de « multiprise » haute performance qui s’installe sur le parking, sans travaux de génie civil complexes.

Ce mode de fonctionnement réduit les coûts d’installation ainsi que les délais associés et permet donc aux entreprises d’équiper massivement leurs parkings, tout en gardant une forme d’évolutivité.

Par ailleurs, le service de recharge est très optimisé, dans le sens où la charge de chaque véhicule est priorisée en fonction de l’heure de départ souhaitée et de la quantité d’énergie que l’utilisateur souhaite récupérer.

Un conteneur EIKO et ses bornes de recharge installés sur un parking d’entreprise
Un conteneur EIKO et ses bornes de recharge installés sur un parking d’entreprise (Crédit : Mob-Energy)

Mais les applications potentielles vont bien au-delà de la recharge de véhicules, puisque, par définition, une batterie peut assurer trois fonctions : soutirer de l’énergie, la stocker pendant un certain temps et la réinjecter.

L’idée est donc de réaliser ces opérations à des moments clés, afin de répondre aux besoins du bâtiment. Nous le faisons à travers différents services, comme l’energy-shifting, ou décalage de consommation, qui consiste, tout simplement à stocker l’électricité durant les heures creuses, afin de la restituer lors des heures pleines. L’écart de prix entre les heures creuses et pleines étant d’environ 15 centimes d’euros, il y a donc quelques milliers d’euros d’économies annuelles à la clé.

Nous avons aussi un service d’autoconsommation solaire, pour les bâtiments équipés de panneaux photovoltaïques. Ça permet de piloter la production d’électricité solaire et de s’adapter aux besoins du bâtiment, en stockant le surplus d’énergie produit par les panneaux.

Enfin, nous proposons aussi du Peak-Shaving, c’est-à-dire de l’écrêtage, un service qui abaisse le niveau de puissance appelée sur le réseau d’Enedis, grâce à l’injection d’électricité par la batterie, lorsque la puissance maximale autorisée risque d’être dépassée.

Les applications potentielles sont donc nombreuses dans le bâtiment !

Oui, il y a beaucoup d’autres enjeux, notamment autour de la gestion thermique des bâtiments, ou encore l’alimentation des datacenters.

Mob-Energy s’intéresse essentiellement aux PME et ETI, aux agences techniques et plus généralement à tous types de bâtiments ayant des besoins en électricité intermédiaires et une volonté de réduire leur facture d’électricité. Néanmoins, nous gardons à l’esprit que les règles du marché de l’énergie évoluent vite et que les économies réalisées sont amenées à fluctuer.

C’est pour cette raison que le cas d’usage « bornes de recharge » est intéressant pour nous : pour les entreprises, l’avantage est immédiat, puisque EIKO peut être financé par le budget qui devait être alloué à l’installation de bornes. Du point de vue de l’entreprise, toute économie d’énergie supplémentaire peut donc être considérée comme un bonus !

La France mise sur la géothermie pour produire du froid renouvelable

À l’occasion des Journées de la géothermie, en juin dernier à Biarritz, le Premier ministre François Bayrou a affirmé l’ambition du gouvernement de faire de cette technologie une pièce maîtresse de la transition énergétique française. Parmi les mesures annoncées : la relance des forages, la simplification des procédures pour les installations de minime importance, c’est-à-dire celles fonctionnant à très basse température, et la création d’outils de financement adossés à la Caisse des Dépôts. Ces mesures ont pour objectif d’exploiter le potentiel de cette technologie qui reste aujourd’hui utilisée à moins de 1 %.

Déjà exploitée pour le chauffage de l’habitat ou l’alimentation de réseaux urbains, la géothermie recèle aussi un potentiel méconnu : produire du froid renouvelable. Le SER (Syndicat des énergies renouvelables) et le BRGM (Bureau de recherches géologiques et minières) viennent de publier un dossier pour vanter ses atouts. Au contraire de la climatisation qui provoque des pics de consommation électrique et aggrave l’effet d’îlot de chaleur en ville, cette technologie présente l’avantage de fonctionner de manière passive, silencieuse avec peu ou pas d’émissions de gaz à effet de serre.

Dans le sous-sol de la Terre, à partir de quelques mètres de profondeur, la température reste en effet stable toute l’année entre 8 et 16 degrés. Cette fraîcheur naturelle peut alors être captée directement via des échangeurs géothermiques pour rafraîchir les bâtiments sans pompe à chaleur : c’est le principe du géocooling, encore appelé rafraîchissement passif. Cette technique simple consomme très peu d’énergie, puisque jusqu’à 60 kWh (kilowattheure) de froid peuvent ainsi être produits pour chaque kWh consommé.

Le géocooling est particulièrement adapté à l’habitat collectif ainsi qu’aux bâtiments tertiaires et fonctionne avec tous les types d’équipements de géothermie de surface. Il peut utiliser différents types d’émetteurs, comme l’eau pour alimenter notamment des plafonds rafraîchissants ou l’air pour alimenter des ventiloconvecteurs ou des poutres ventilées. Cette technique permet non seulement d’assurer le confort d’été sans climatisation, mais offre aussi la possibilité de recharger le sol en calories, pour ensuite les réutiliser pour alimenter une boucle de chaleur en hiver. Cette forme de stockage intersaisonnier augmente ainsi le rendement global de l’installation.

Injecter de la chaleur dans des boucles d’eau tempérées

Les boucles d’eau tempérées à énergie géothermique (BETEG) constituent un autre levier pour produire du froid renouvelable. Il s’agit de mini-réseaux urbains, qui eux aussi font plutôt appel à la géothermie de surface, et qui distribuent une eau dont la température est inférieure à 30 °C. Celle-ci est ensuite utilisée dans des sous-stations équipées de pompes à chaleur pour produire localement du froid ou de la chaleur. Ici, l’un des intérêts est de valoriser l’énergie entre une diversité d’usages. Un bâtiment peut, par exemple, injecter de la chaleur dans les boucles, tandis qu’un autre aura la possibilité de la capter. Ces boucles intègrent parfois d’autres sources, comme les eaux usées de stations d’épuration ou les nappes phréatiques. La France en compte aujourd’hui 16 en fonctionnement, pour environ 50 GWh de froid géothermique.

En parallèle de ces deux solutions, les réseaux de froid géothermiques sont une dernière alternative. Ils fonctionnent grâce à une centrale frigorifique et sont principalement utilisés pour la climatisation des bâtiments tertiaires. Le principal avantage de cette technique est son efficacité énergétique, supérieure de 1,5 à 3 fois celle des installations autonomes, grâce au recours de machines industrielles à haut rendement énergétique. Ensuite, elle offre la possibilité de reporter la consommation électrique aux heures creuses en stockant de la glace et de l’eau glacée. En 2021, on comptabilise 1 445 bâtiments raccordés à l’un des 35 réseaux de froid français pour l’équivalent de 0,78 Twh (térawattheure) de froid livré.

Malgré les nombreux atouts de ces différents choix technologiques, le froid géothermique reste à la marge et ne représente encore qu’une infime fraction des 30 TWh annuels consacrés à la climatisation en France. Mais les lignes bougent avec notamment la PPE (Programmation pluriannuelle de l’énergie) de 2020 qui vise un triplement des livraisons de froid via les réseaux d’ici à 2028. Dans un pays où la climatisation représente déjà 6 % de la consommation électrique et où les épisodes de canicule deviennent récurrents, la géothermie pourrait bien devenir le « climatiseur vert » de demain.

Une première en Europe : un train autonome circule sur une voie classique

Le mardi 5 août dernier, un train a monopolisé toutes les attentions : il s’agit du premier train autonome circulant en milieu ouvert en Europe. Celui-ci répond au nom d’Edita et relie deux petites villes situées dans le nord de la République tchèque sur une voie de 24 kilomètres. Le trajet est dit « en milieu ouvert » parce qu’il comprend des passages à niveau et que les voies sont ouvertes à la circulation d’autres compagnies ferroviaires.

Du transport de betteraves sucrières au train autonome

Cette ligne, reliant Kopidlno à Dolní Bousov, a été relancée par l’opérateur ferroviaire tchèque AŽD Praha. La première mise en service de ce train date du 26 août 1883 et avait pour but de transporter des betteraves sucrières. Après sa fermeture et son abandon en 2010, elle a été acquise six ans plus tard par l’AŽD. L’entreprise a alors entamé une transformation de l’usage de cette ligne pour en faire un site d’essai moderne pour systèmes ferroviaires autonomes. Cette remise en service lui aura coûté 13 millions d’euros ; un tiers du montant a été financé par l’Union européenne.

Un équipement de pointe

Le train tchèque, qui a déjà parcouru 1 700 kilomètres sans conducteur, s’appuie sur les technologies les plus avancées. En effet, pour assurer un contrôle précis de son freinage et de sa vitesse, Edita est doté d’un équipement composé de caméras, de lasers, d’une navigation par satellite et d’une carte numérique intégrée. Michal Novak, un développeur ferroviaire d’AZD, explique que le train a déjà dû s’arrêter à cause d’un troupeau de moutons. Un arrêt rendu possible grâce à un dispositif qui détecte les objets et reconnaît les obstacles.

Précisons que, malgré cette panoplie technologique, la législation tchèque impose la présence d’un conducteur à bord pour coordonner le fonctionnement de la machine. Les passagers ont accès en direct aux images captées par le train leur permettant ainsi de vivre ce voyage atypique plus sereinement.

La législation freine

Cette première est d’autant plus importante qu’en Europe les véhicules autonomes ne circulent que sur des voies fermées (métro ou navettes entre les terminaux d’aéroport). Pour trouver un projet semblable au train tchèque, il faut se tourner vers l’Australie. En octobre 2017, Rio Tinto[1] y avait accompli une première mondiale avec son train totalement autonome.

Comme pour l’automobile, le degré d’automatisation est classé par niveau, de 1 à 5 ; le niveau 4 est un palier décisif car l’autonomie y est complète dans un domaine opérationnel défini (actuellement réservé à certains métros de la RATP).

En France, le constructeur Alstom a testé, en septembre 2024, la circulation de trains autonomes avec des passagers. À cette occasion, un système de téléguidage des trains RTO[2] a été utilisé pour piloter le train à distance.

Du côté du transport routier, la législation devrait évoluer au sein de l’UE à partir du 26 septembre prochain  : les « manœuvres initiées par le système » seront autorisées. Une bonne nouvelle pour les utilisateurs européens de Tesla qui pourront enfin utiliser l’option FSD[3] de leur véhicule. Cependant, l’autorisation est accordée uniquement sur les autoroutes et se limite à certaines manœuvres. Une législation qui tarde à s’adapter, illustrant des exigences de sécurité très élevées pour les systèmes de conduite automatisée.

Avec l’essor très récent de l’intelligence artificielle, des questions plus profondes se posent au sein des populations où l’engouement cède souvent la place à la méfiance. Selon une étude réalisée en 2024, seules 9 % des personnes interrogées ont déclaré qu’elles auraient confiance en une voiture autonome ; ce chiffre s’élevait à 15 % l’année précédente. Les algorithmes doivent donc encore prouver leur fiabilité face à la grande variété des situations que génère l’expérience de la conduite.


[1] Société minière anglo-australienne fondée en 1873

[2] Remote Train Operation

[3] Full Self Driving

Un usinage plus durable grâce à l’IA et la data

Dans les ateliers métalliques où les copeaux volent au rythme des fraiseuses, des perceuses et des tours CNC (Computer Numerical Control), une révolution silencieuse est en marche. L’usinage, pilier discret de nombreuses chaînes industrielles, repense ses fondamentaux sous l’impulsion de la data et de l’intelligence artificielle. Objectif : réduire les déchets, optimiser les ressources et allonger la durée de vie des outils, tout en maintenant la précision au micron près. Loin d’être uniquement confinée dans des laboratoires expérimentaux, cette transition numérique est désormais à l’œuvre dans les ateliers de production.

Depuis quelques années, des capteurs connectés sont installés sur les machines-outils pour recueillir des données en temps réel, comme la température, les vibrations, les vitesses de coupe et le taux de rebut. Ces données sont ensuite analysées pour comprendre les comportements anormaux, anticiper les pannes ou ajuster les processus. Grâce à l’analyse prédictive, il est par exemple possible d’allonger la durée de vie des outils de coupe et de réduire les arrêts machines.

Mais c’est l’IA, et plus précisément le machine learning, qui transforme en profondeur les ateliers. En apprenant à partir de milliers de cycles d’usinage, les algorithmes sont capables de recommander en direct les meilleurs paramètres d’usinage : vitesse, avance, profondeur de passe. Cet usinage en temps réel permet entre autres de jeter moins de pièces, de réduire la matière perdue, et donc d’apporter un gain environnemental.

Seco Tools, l’un des principaux fournisseurs mondiaux de solutions complètes d’outils coupants, a bien saisi l’intérêt de cet usinage « augmenté » par la data et l’IA. L’entreprise basée en Suède vient de s’associer avec le centre de recherche AMRC (Advanced Manufacturing Research Centre) de l’Université de Sheffield au Royaume-Uni, pour non seulement rendre la fabrication plus rapide, mais aussi durable. Cette collaboration vise à développer une infrastructure IoT (Internet of Things) intelligente permettant de consolider les données relatives aux machines, à l’environnement immédiat et au bâtiment industriel, afin de dresser une vision unifiée du fonctionnement.

Les données de consommation d’énergie sont converties en émissions de CO₂

Dans le détail, l’approche au niveau de la machine devra permettre de surveiller la consommation énergétique de chaque équipement, segmentée par sous-processus, et inclura aussi la consommation de liquide nécessaire à l’arrosage, ainsi que celle d’autres matériaux. Les données seront ensuite converties en coût immédiat et en émission de CO₂ selon l’intensité carbone du réseau électrique. La compréhension de l’environnement de la machine consistera entre autres à suivre la température et l’humidité des bâtiments, deux facteurs pouvant influer sur la performance énergétique. Enfin, l’ensemble du site sera aussi pris en compte, avec l’identification des schémas énergivores ou inefficaces, inhérents au fonctionnement global de l’usine.

Les analyses croisées de tous ces paramètres permettront de réaliser des diagnostics ciblés et d’identifier les gisements les plus pertinents pour réduire les émissions de CO₂ et optimiser les coûts. Elles devront par exemple répondre à ces questions : l’humidité ambiante génère-t-elle un surcoût de refroidissement ? Ou alors, les fenêtres ouvertes ou fermées influencent-elles l’efficience énergétique globale ?

À plus longue échéance, l’un des objectifs ambitieux de ce projet est la mise en place d’un système automatisé basé sur l’IA, capable d’ajuster en continu les paramètres d’usinage pour concilier performance opérationnelle, coûts maîtrisés et impact environnemental réduit. Chaque modification du processus devant alors participer à tendre vers la neutralité carbone.

Nul doute que dans le futur, face aux exigences croissantes en matière de production responsable, de plus en plus de chaînes d’usinage intégreront des briques d’IA ou d’analyse de données. Cette transformation nécessitera de former les opérateurs, de fiabiliser les données collectées et de repenser l’organisation des flux. Même si beaucoup de PME hésitent encore à investir dans des solutions numériques encore jugées expérimentales, ce mouvement vers un usinage plus sobre semble irréversible.

Un nouveau revêtement pour des fenêtres économes en énergie

Pour réduire la consommation énergétique des bâtiments, les scientifiques lorgnent du côté des fenêtres vitrées à faible émissivité. Cette caractéristique décrit la capacité d’un matériau à rayonner de la chaleur en énergie thermique. Plus la valeur d’émissivité d’une fenêtre est basse, et moins la chaleur a tendance à s’échapper par la vitre. Malheureusement, les matériaux de revêtement permettant de telles valeurs sont coûteux. De plus, ils sont souvent sujets à l’abrasion, et les fenêtres sont donc recouvertes uniquement sur leur face intérieure – limitant du même coup leur efficacité énergétique. Dans le but de limiter la facture, des chercheurs de l’université Rice à Houston (Texas, États-Unis) aidés de collaborateurs extérieurs ont travaillé sur un nouveau film transparent fabriqué à partir de nitrure de bore (BN). Ce composé chimique a l’avantage principal d’être beaucoup moins cher que l’argent ou l’oxyde d’indium-étain, qui sont majoritairement utilisés dans les revêtements à faible émissivité du commerce. La conception du film est présentée dans le journal Advanced Materials en date du 7 juillet 2025.

Un revêtement en nitrure de bore dopé en carbone

Ce revêtement permettrait une réduction des factures d'énergie, particulièrement en saison froide
Le nouveau revêtement pourrait mener à une réduction des factures d’énergie, particulièrement en saison froide, en empêchant la perte de chaleur par les fenêtres. Crédits : Photographie de Jorge Vidal/Rice University.

Pour mettre au point leur nouveau revêtement chimiquement inerte, les chercheurs ont dopé leur nitrure de bore en carbone (C) afin d’obtenir une couche de matériau fine et solide. Autrement dit, ils ont fait en sorte d’insérer du carbone au sein du treillis atomique du nitrure de bore. Pour cela, ils ont usé de l’ablation laser pulsé à température ambiante. Il s’agit d’une méthode de dépôt en couches minces passant par l’utilisation de laser à très haute puissance. Plus précisément, elle consiste à envoyer des éclats laser à haute énergie sur une cible solide de nitrure de bore. Des panaches de plasma sont ainsi créés, qui se dispersent en vapeur. Cette dernière vient alors se déposer sur le substrat, c’est-à-dire la vitre. Le résultat montre une émissivité dans les infrarouges lointains prometteuse, avec une valeur avoisinant 0,42.

Le revêtement C-BN est hydrophile, et il présente une excellente stabilité environnementale. Ainsi, il résiste à la dégradation par forte humidité ou température, à la lumière ultraviolette, au cycle thermique, au gel et à l’eau salée. Comme si cela ne suffisait pas, le film transparent semble bien adhérer aux vitres, en plus d’être protégé contre les égratignures. Dans une simulation de bâtiment situé dans un climat aux hivers froids (comme à New York, Pékin ou Calgary), l’équipe de recherche a trouvé une économie d’énergie de 2,9 % de son système à couverture intérieure et extérieure comparé à une vitre à faible émissivité du commerce. Sachant que rien que pour les États-Unis, plus de 360 millions de mètres carrés de nouvelles fenêtres sont posés chaque année, les économies promises par le nouveau revêtement pourraient impacter durablement le domaine de l’énergie.