Prix Nobel d’économie 2025 : Philippe Aghion plaide pour une Europe de l’innovation face à la compétitivité américaine

L’obtention du Nobel d’économie 2025 clôt symboliquement la série des grands prix de l’année, et souligne l’attente mise sur l’économie de l’innovation dans un contexte mondial de bouleversements technologiques. Ce prix valorise la théorie développée notamment par Philippe Aghion et le Canadien Peter Howitt selon laquelle la croissance durable dépend d’un processus de remplacement constant des technologies dépassées par de nouvelles, et de la recherche d’équilibre entre création et destruction économique.

Dans cette perspective, Philippe Aghion affirme que ce n’est plus simplement le contrôle de matières premières, le poids militaire ou financier qui définit la puissance, mais la capacité à produire des ruptures technologiques, à diriger les chaînes de valeur de pointe et à rendre les innovations durables. Selon lui, les États-Unis dominent aujourd’hui parce qu’ils concentrent les meilleures capacités d’innovation dans des secteurs de rupture tels que l’intelligence artificielle, le numérique ou la biotechnologie. Ce leadership attire les capitaux étrangers et garantit la suprématie des grandes devises comme le dollar.

Cette position s’articule avec l’analyse du palmarès 2025 : le Nobel est partagé entre trois chercheurs. Le Néerlandais Joel Mokyr reçoit la moitié du prix pour avoir exploré les conditions historiques et institutionnelles qui permettent aux innovations de s’ancrer dans la société, et pour mettre en lumière comment les découvertes techniques, économiques et sociales se renforcent mutuellement. La seconde moitié est attribuée conjointement à Philippe Aghion et Peter Howitt, pour leur modèle mathématique de croissance par destruction créatrice, montrant que l’investissement et la concurrence technologique propulsent l’évolution économique à long terme.

Dans l’interview, Philippe Aghion souligne que des « nuages sombres » s’amoncellent à l’horizon. La montée du protectionnisme, les barrières au libre-échange, des réglementations excessives ou la dispersion des initiatives nationales menacent la dynamique d’innovation. Il appelle l’Europe à ne plus se laisser dominer par les États-Unis ou la Chine sur la scène technologique, en redéfinissant sa stratégie industrielle et son écosystème financier. Il estime par ailleurs que le fonctionnement actuel du modèle européen est trop prudent et qu’il privilégie l’innovation incrémentale plutôt que les ruptures technologiques. Philippe Aghion pointe enfin le rôle de la réglementation concurrentielle trop stricte qui a longtemps empêché une politique industrielle ambitieuse en Europe.

Einstein perdus

Pour redresser la trajectoire, Philippe Aghion propose certaines pistes, à commencer par la création d’une institution à l’échelle européenne inspirée de l’ARPA américaine (Advanced Research Projects Agency), dédiée à des projets stratégiques à haut risque dans les domaines de l’énergie, du climat, de la santé ou de l’intelligence artificielle, le tout avec une coalition volontaire d’États membres (France, Allemagne, Royaume-Uni, etc.) Il plaide ensuite pour un système éducatif rénové, capable d’identifier et d’accompagner les talents – les « Einstein perdus » – avec des enseignants mieux formés, des soutiens personnalisés et une orientation vers l’innovation. Il recommande par ailleurs de réorienter l’épargne privée européenne vers des projets à haut risque et à forte valeur ajoutée, en repensant les mécanismes de financement et le crédit impôt recherche, qu’il juge efficaces pour retenir des activités, mais insuffisants pour lancer des ruptures technologiques.

Cet appel prend un relief particulier pour la France et l’Europe alors que la compétition mondiale pour les technologies de rupture (IA, robotique, quantique, biotechnologie) s’intensifie. Dans un contexte où les États-Unis et la Chine multiplient les investissements stratégiques, l’Europe pourrait perdre du terrain si elle n’adapte pas ses institutions, sa gouvernance et son modèle de soutien à l’innovation. L’enjeu n’est plus seulement de suivre, mais de devenir un acteur de premier plan dans les filières profondes du futur.

En conclusion, le prix coattribué à Philippe Aghion n’est pas seulement une reconnaissance académique, mais un signal politique fort pour les décideurs, les industriels et les acteurs de la recherche. Il fait valoir que le monde économique de demain se jouera à l’interface de la science, de l’industrie et de la capacité à structurer les grandes ruptures. Le message de ce prix, qui souligne que le leadership technologique est le pivot du pouvoir économique, devrait inspirer des réformes profondes dans les politiques d’innovation.

Croissance endogène et destruction créatrice : deux moteurs de l’économie de l’innovation

Les travaux de Philippe Aghion et Peter Howitt reposent sur deux concepts centraux, respectivement la croissance endogène et la destruction créatrice.

La croissance endogène s’oppose à l’idée que le progrès technique tomberait du ciel. Elle montre que l’innovation naît de l’intérieur même du système économique, à travers les investissements des entreprises en recherche, la concurrence, et les incitations publiques à innover. Autrement dit, la croissance ne dépend pas seulement du capital ou du travail, mais surtout de la capacité à produire des idées nouvelles et à les diffuser.

La destruction créatrice, concept popularisé par l’économiste Joseph Schumpeter, décrit quant à lui le processus par lequel de nouvelles technologies remplacent les anciennes. Ce renouvellement permanent détruit des emplois et des entreprises obsolètes, mais en crée d’autres, plus qualifiés, dans des secteurs émergents. C’est ce mécanisme que les modèles de Philippe Aghion et Peter Howitt formalisent, démontrant que l’économie progresse quand la concurrence pousse les firmes à innover pour échapper à la stagnation.

Appliqués à l’industrie moderne, ces modèles éclairent la dynamique observée dans des secteurs comme l’intelligence artificielle, les matériaux avancés ou la transition énergétique. Les nations qui savent organiser et soutenir cette destruction créatrice – sans la freiner par excès de prudence – sont celles qui gardent une longueur d’avance technologique et donc économique.

OVHcloud accélère dans l’informatique quantique

L’Intelligence artificielle et l’informatique quantique sont les deux principaux piliers de la souveraineté numérique d’un pays. Si les États-Unis et la Chine ont lancé de colossaux investissements dans la R&D, l’Europe n’est pas en reste. Et en particulier la France.

OVHcloud, le leader européen du cloud, apparaît comme le porte-avions de cette nouvelle bataille mondiale. Après avoir acquis son premier ordinateur quantique (de chez Quandela) en 2023, le groupe déplie ses premiers services.

L’entreprise française vient de lancer un service QPU-as-a-Service (QaaS). Le Quantum-as-a-Service (QaaS), également appelé Quantum-Computing-as-a-service QCaas), est un concept similaire à d’autres modèles « as-a-Service », tels que le Software-as-a-Service (SaaS) comme les messageries en ligne, le Platform-as-a-Service (PaaS) et l’Infrastructure-as-a-Service (IaaS).

Comme dans ces modèles, les ressources sont mises à disposition via des plateformes basées sur le cloud, généralement sous forme d’abonnements ou de paiement à l’utilisation. Différents services (IBM Quantum, Amazon Braket, Microsoft Azure Quantum, Google Quantum AI mais aussi le français Quandela) proposent l’ordinateur quantique à la demande.

Basé sur le QPU Pasqal Orion Beta, le service d’OVHcloud a une capacité de 100 qubits atomiques neutres. D’ici la fin de cette année, trois QPU devraient être disponibles. Et d’ici fin 2027, au moins huit QPU, dont sept européens, seront proposés aux clients QaaS dans le cadre d’un modèle de paiement à l’usage.

Une meilleure sécurité des connexions sur l’Internet

OVHcloud offre également l’accès à huit émulateurs quantiques via son infrastructure, après avoir récemment ajouté l’émulateur Qleo de Quobly et Mimiq de Qperfect.

Enfin, l’hébergeur européen déploie des certificats SSL basés sur une génération quantique de nombres aléatoires (QRNG). Les « Secure Sockets Layer » (SSL) est une technologie standard de sécurisation des connexions Internet par le chiffrement des données transitant entre un navigateur et un site web.

Avec l’ordinateur quantique photonique baptisé MosaiQ de Quandela, OVHcloud pourra proposer des clés vraiment imprévisibles, sans biais, pour renforcer la confidentialité des échanges en ligne. Notons que ces certificats générés seront parfaitement compatibles avec les navigateurs existants, tels que Firefox ou Chrome.

C’est une avancée majeure, car les méthodes traditionnelles de chiffrement présentent des faiblesses. Avec ses SSL, OVHcloud anticipe les menaces futures liées à l’émergence de l’informatique quantique offensive.

Professionnels de l’eau : cap sur Clermont-Ferrand pour CYCL’EAU !

Reconnu comme le rendez-vous régional de référence pour les professionnels de l’eau, CYCL’EAU pose ses valises pour la première fois à Clermont-Ferrand. Fort de vingt éditions depuis 2017, le salon offre une plateforme d’échanges et de solutions réunissant collectivités, industriels et experts du secteur.

Organisé en partenariat avec l’Agence de l’eau Loire-Bretagne, Clermont Auvergne Métropole, le GRAIE, le Pôle Aquanova et Vichy Communauté, l’événement s’inscrit dans un contexte particulièrement stratégique.

Alors que de nouvelles obligations de surveillance des PFAS dans l’eau potable entreront en vigueur dès 2026 et que le prix de l’eau poursuit sa hausse, la filière se trouve plus que jamais au cœur des enjeux environnementaux. CYCL’EAU Clermont-Auvergne arrive à point nommé pour favoriser le dialogue, la coopération et l’innovation autour de la gestion de la ressource.

Le salon s’ouvrira par une conférence sur le Plan de Gestion de la Sécurité Sanitaire de l’Eau (PGSSE), une démarche préventive promue par l’OMS et inscrite dans la directive européenne 2020/2184.

Au cœur de cette première édition auvergnate, le Village Innovation réunira dix entreprises porteuses de solutions innovantes, notamment en robotique et intelligence artificielle au service de l’eau.

Avec 60 exposants, ateliers techniques et conférences thématiques, CYCL’EAU Clermont-Auvergne proposera un panorama complet : gestion des eaux pluviales, réutilisation des eaux usées, qualité des eaux de baignade, prix de l’eau ou encore restauration des rivières.

Ingénierie augmentée : Setec comme un poisson dans l’eau

Une initiative Syntec-Ingénierie

Au travers d’une série de capsules vidéos intitulée « L’ingénierie augmentée au service du climat », la fédération professionnelle Syntec-Ingénierie – 400 entreprises adhérentes et 13 délégations régionales – a choisi de mettre en avant quatre initiatives portées par des entreprises du secteur, reposant sur l’utilisation du numérique pour simuler des scénarios, anticiper les impacts environnementaux, et concevoir des bâtiments à l’empreinte carbone réduite. Ceci, en donnant directement la parole à des ingénieur(e)s du secteur du bâtiment, afin d’illustrer le rôle de l’ingénierie pour accélérer la transition écologique et énergétique. Nous avons pu revenir en détail avec les adhérents de la fédération porteurs de ces projets, sur les tenants et aboutissants de leur travail. Pour le deuxième de ces quatre entretiens, rencontre avec Setec.

Directrice du département de physique du bâtiment chez Setec bâtiment, filiale du groupe Setec, Mehrnaz Reyhanian s’est attelée à un ambitieux travail de simulation thermique dynamique, visant à évaluer, dans le cadre de la rénovation d’un complexe aquatique, les bénéfices potentiels d’une nouvelle approche en matière de traitement de l’air : la ventilation hybride. Combinant système mécanique conventionnel et ventilation naturelle via des ouvrants automatisés, l’approche a été intégrée à une modélisation numérique 3D construite grâce un logiciel de simulation dynamique.

Pour évaluer au plus juste ses potentiels bénéfices, l’experte du groupe Setec a développé et intégré à l’outil ses propres scripts de calcul. Une démarche qui a abouti à démontrer les bénéfices significatifs de l’approche, qui a ainsi pu être adoptée en connaissance de cause par les porteurs du projet. Après avoir exposé les points clés de ce travail dans une vidéo publiée par Syntec-Ingénierie, Mehrnaz Reyhanian a accepté de revenir en détail pour Techniques de l’Ingénieur sur cette démarche « d’ingénierie augmentée ».

Techniques de l’Ingénieur : Pouvez-vous, en quelques mots, nous présenter le groupe Setec et vos fonctions en son sein ?

Docteure en énergétique, Mehrnaz Reyhanian dirige depuis 2023 le département de physique du bâtiment chez Setec bâtiment
Docteure en énergétique, Mehrnaz Reyhanian dirige depuis 2023 le département de physique du bâtiment chez Setec bâtiment. DR

Mehrnaz Reyhanian : Filiale du groupe Setec, Setec bâtiment est un bureau d’études tous corps d’état et réalise des missions de maîtrise d’œuvre, d’assistance à maîtrise d’ouvrage (AMO) à l’échelle du bâtiment. Je dirige pour ma part le département physique du bâtiment, qui s’occupe de toutes les questions environnementales liées au bâtiment, avec une approche scientifique, au travers d’études poussées.

Vous vous êtes justement vu confier un important travail d’étude dans le cadre d’un projet de rénovation d’un centre aquatique. En quoi ce projet consiste-t-il, plus précisément ? Et quelles sont ses particularités ?

On peut dire qu’il s’agit d’une rénovation lourde. Une partie du bâtiment est en effet rénovée en profondeur, alors qu’une autre est entièrement démolie et reconstruite. Le projet s’apparente donc quasiment à la construction d’un nouveau centre aquatique.

Outre les autres aspects techniques et architecturaux, notre client a, dès le départ, manifesté un fort intérêt pour les sujets liés à l’environnement et à l’énergie.

Sans véritablement viser la certification, nous avons donc mené une démarche de type HQE[1], main dans la main avec le cabinet d’architecture en charge du projet, Dietmar Feichtinger Architects.

Quels objectifs visiez-vous, au travers de l’étude que vous avez menée ?

L’objectif principal était de limiter au minimum les consommations énergétiques de l’installation, qui représentent en effet une problématique majeure pour ce type de bâtiment, notamment pour le chauffage de l’eau des bassins, et donc le confort des nageurs, mais aussi la température ambiante au niveau des gradins.

Nous nous sommes focalisés sur les solutions permettant de diminuer, ou a minima de limiter les consommations énergétiques, et plus particulièrement encore sur le potentiel d’une approche assez inédite en matière de confort, mais aussi de déshumidification de l’air intérieur : la ventilation naturelle.

Pour être tout à fait honnête, nous étions au départ assez sceptiques… Mais nos études nous ont montré que cette approche avait le potentiel de réduire substantiellement les consommations annuelles de ce centre aquatique. Nous avons donc misé sur cette solution, en concertation avec les différentes entreprises attributaires des lots techniques CVC[2], électricité, GTB[3], ou encore de la conception architecturale. L’un des grands enjeux était en effet de disposer d’un nombre d’ouvrants suffisant pour assurer cette ventilation naturelle, tout en s’assurant de pouvoir actionner ces ouvrants de manière automatique, en fonction de seuils prédéfinis, grâce au système GTB.

Nous parlons d’ailleurs plutôt de système de ventilation hybride : lorsque les conditions ne permettent plus de miser uniquement sur la ventilation naturelle, le système mécanique prend le relais, là aussi de manière entièrement automatique.

Comment avez-vous procédé, très concrètement, pour mener cette étude ?

J’ai commencé par modéliser le bâtiment en 3D sur le logiciel DesignBuilder, destiné à la simulation dynamique. Il intègre notamment EnergyPlus, un moteur de calcul très puissant et très complet qui permet de réaliser des simulations thermiques dynamiques.

Ce travail de modélisation s’est révélé particulièrement complexe. Pour prendre en compte l’évaporation et les échanges thermiques air-eau, mon équipe et moi-même avons donc eu l’idée d’intégrer, sous forme de lignes de code, des outils de calcul qui ne sont pas disponibles nativement au sein du logiciel.

Le bâtiment abrite les bassins intérieurs, mais aussi une partie tertiaire, un restaurant, ainsi que des logements de fonction
Le bâtiment abrite les bassins intérieurs, mais aussi une partie tertiaire, un restaurant, ainsi que des logements de fonction. © Dietmar Feichtinger Architects

Le complexe aquatique comptera trois bassins intérieurs, mais aussi un bassin extérieur communicant. Nous avons donc également dû prendre en compte le phénomène d’évaporation à l’air libre, ainsi que l’influence de la température extérieure… Nous avons pour cela mis en œuvre les scripts que j’évoquais, mais aussi des corrections post-traitement, afin d’aboutir à un résultat global en ce qui concerne les consommations énergétiques annuelles de l’installation.

Outre les bassins, le bâtiment intègre par ailleurs une partie tertiaire, un restaurant, ainsi que des logements de fonction. Nous avons donc naturellement intégré ces autres usages à notre étude. Ce bâtiment est ainsi, en cela, un exemple rare, un vrai cas d’école en matière de mixité d’usages !

Quels résultats avez-vous obtenus, et quels constats avez-vous pu dresser à l’issue de ce travail de simulation ?

Cette modélisation nous a permis de visualiser les températures qui seront concrètement ressenties par les futurs usagers des lieux, ainsi que les mouvements d’air. Nous avons d’ailleurs demandé à l’une des entreprises intervenant sur le chantier de réaliser une simulation CFD[4], afin de pouvoir étudier précisément les mouvements d’air, notamment au niveau des ouvrants. L’objectif était de s’assurer, encore une fois, du confort des futurs usagers.

Cela a donc représenté un gros travail d’étude… loin d’être vain cependant : cette phase de modélisation préalable nous a permis de conclure à une diminution de 10 % environ de la consommation énergétique annuelle du bâtiment. Cela peut paraître peu, de prime abord, mais c’est en fait considérable, et se ressentira fortement sur la facture énergétique de l’installation. Je suis donc heureuse que cette idée de ventilation hybride que j’ai soumise ait été vue comme une solution souhaitable et acceptable par toute l’équipe du projet. Et ce, alors même que le recours à la ventilation naturelle dans ce type de bâtiment est encore, pour l’heure, quelque chose de peu courant. La simulation thermique dynamique que nous avons réalisée y est pour beaucoup, je pense.

Où en est aujourd’hui le chantier ?

Le chantier est aujourd’hui en cours, et se déroule a priori comme prévu : tout ce que nous avions établi à l’issue de nos études de conception est en tout cas en train d’être progressivement mis en œuvre sur le chantier, avec des vérifications systématiques. Tout le monde a hâte d’aller nager dans ces futurs bassins que nous n’avons pour l’instant pu voir que sur écran et sur papier ! (Rires) D’autant qu’aux côtés des titulaires des différents lots techniques, les architectes sont parvenus à donner au bâtiment de vraies qualités esthétiques, ce qui est loin d’être évident lorsque l’on consent d’aussi gros efforts sur le plan de l’efficacité énergétique.

Quelle expérience avez-vous acquise au travers de ce travail ? Pourra-t-elle être mise à profit sur d’autres projets à l’avenir ?

Ce projet nous a notamment permis de développer notre expertise en matière d’intégration de scripts dans le logiciel de modélisation, ce que nous sommes d’ailleurs parmi les premiers à faire. Aujourd’hui encore, peu de bureaux d’études se lancent dans l’écriture de leurs propres lignes de code. Les résultats très positifs que nous avons obtenus et l’efficacité de l’approche que nous avons pu constater – elle permet d’aller bien au-delà des seules fonctions de base du logiciel – nous ont ainsi conduits à nous former encore davantage à la programmation. Nous mettons désormais en œuvre cette approche sur quasiment tous nos autres projets. Ce travail a vraiment fait avancer notre expertise. Coder nous ouvre des perspectives inédites, et nous permet de répondre aux envies des architectes et aux demandes des assistants à maîtrise d’ouvrage sans être freinés par un outil numérique aux possibilités intrinsèquement limitées.

Ce travail que nous avons mené démontre aussi, plus largement, que le numérique n’est finalement qu’un outil au service de l’intelligence humaine de l’ingénieur. L’outil ne fait pas tout : pour éviter les catastrophes, il faut avant tout avoir une utilisation raisonnée du numérique – en se demandant sans cesse pourquoi l’on utilise l’outil – et toujours porter un regard critique sur les résultats.


[1] Haute qualité environnementale.

[2] Chauffage, ventilation, climatisation.

[3] Gestion technique du bâtiment.

[4] Computationnal fluids dynamics, ou mécanique des fluides numériques (MFN) en français.

 

Crise du recyclage textile : vers un modèle industriel viable face à l’ultra-fast fashion

Au cœur du problème aujourd’hui se trouve la saturation des débouchés seconde main, largement dépendants des exportations vers l’Afrique. En France, quelque 270 000 tonnes de textiles usagés sont collectées annuellement, dont environ 60 % sont dirigés vers la fripe, souvent exportée hors de l’UE. Or, le modèle s’effondre. En effet, les acheteurs africains se détournent progressivement de ces flux importés, préférant désormais acheter du neuf en Chine ou de la fripe moins chère, ce qui prive la filière européenne d’une part importante de ses débouchés traditionnels.

Cette mutation brutale s’est doublée d’une dégradation qualitative des vêtements collectés. Ainsi, face à l’essor de l’ultra-fast fashion, les articles sont produits à moindre coût, dans des matériaux difficiles à recycler, souvent déjà mélangés ou fortement usés. Le tri peine à en extraire des lots suffisamment homogènes pour une revente ou un recyclage technique efficient. Compte tenu de la situation, plusieurs centres de tri en France ferment ou suspendent leur collecte, faute de revenus viables.

Pour soutenir la filière, Refashion, l’éco-organisme en charge de la filière textile en France, a débloqué une enveloppe exceptionnelle de 6 millions d’euros en janvier 2025, réaugmentant la rétribution aux opérateurs de tri conventionnés, soit une hausse de 20 % du soutien par tonne triée. Ce dispositif visait à soulager les surcoûts de fonctionnement et à maintenir l’activité des centres de tri.

Mais une crise aiguë a surgi cet été. Le réseau Le Relais, qui assure plus de 60 % des capacités de tri en France, a cessé la collecte et déversé des vêtements devant des enseignes pour, d’une part dénoncer la viabilité du modèle, d’autre part rappeler l’importance du tri et des conséquences qu’aurait sa mise à l’arrêt. En réaction, l’État et Refashion ont autorisé une aide de 49 millions d’euros pour 2025, portant la rémunération du tri à 223 €/tonne (et 228 €/tonne pour 2026) contre 156 €/tonne auparavant. Ce geste permet le redémarrage de la collecte, mais n’écarte pas l’urgence d’une refonte durable du système.

Au-delà des aides d’urgence, la reconfiguration du modèle repose sur plusieurs pistes techniques et stratégiques. D’abord, Refashion déploie la plateforme « Recycle by Refashion », qui met en relation les acteurs du recyclage, recense les gisements non réutilisables, identifie des solutions de transformation et encourage l’intégration des matières recyclées dans de nouveaux produits.

Par ailleurs, l’écoconception devient un levier indispensable. La conception des vêtements doit intégrer dès l’origine des critères de recyclabilité pour limiter les mélanges de fibres non compatibles, faciliter le démontage ou le tri, et favoriser les matériaux mono-fibres ou plus facilement effilochables.

Sur le plan opératoire, l’effilochage – procédé qui consiste à démanteler les vêtements en fibres – est une technique clef pour transformer des articles non réutilisables en matière première. Cette méthode permet de réinjecter des fibres dans la production industrielle (textile, isolation, garniture), à condition que la qualité des fibres soit suffisamment préservée.

Enfin, Refashion lance le projet « Re_Actt », qui propose aux marques et acteurs de la collecte de conserver les vêtements de qualité pour revente (réemploi) et de confier le reste à l’éco-organisme. Cette initiative vise aussi à rendre obligatoire le référencement transparent de l’ensemble des acteurs (collecteurs, trieurs, recycleurs) pour améliorer la traçabilité.

Malgré ces dispositifs, des enjeux réglementaires subsistent. Ainsi, l’agrément de Refashion impose des objectifs ambitieux, comme un taux de collecte de 60 % de la mise sur le marché d’ici 2028, ou encore des cibles de recyclage des textiles non réemployés jusqu’à 70 % dès 2024.

À ce jour, la filière TLC (textiles, linge, chaussures) a collecté 289 393 tonnes en 2024, soit 4,2 kg/habitant, mais seulement 32 % de ces volumes sont triés pour valorisation. Le chemin vers la circularité reste donc semé d’obstacles.

En conclusion, la crise du recyclage textile révèle les fragilités structurelles d’un modèle trop dépendant de la revente étrangère et de matières de mauvaise qualité. Les stratégies engagées – aides financières, plateformes de mise en relation, écoconception, effilochage, réorganisation de la collecte – peuvent offrir une voie de redressement à condition qu’elles soient coordonnées, soutenues à long terme et à la hauteur des ambitions réglementaires.

« Demain le textile » : une semaine lyonnaise pour repenser la filière textile

Du 13 au 17 octobre 2025, Lyon accueille la 6ᵉ édition de Demain le textile, au fil de l’économie circulaire, un événement réunissant les acteurs de la filière (industriels, start-ups, universitaires, institutions) pour débattre des transitions à engager dans le secteur textile.

Organisé conjointement par UNITEX, Techtera et le CIRIDD, avec le soutien de la Région Auvergne-Rhône-Alpes, de la Métropole de Lyon et de l’OPCO2i, ce rendez-vous propose un format hybride mêlant tables rondes en visioconférence, convention d’affaires, hackathon étudiant et forum de l’innovation managériale.

Trois matinales en visio abordent des enjeux stratégiques :

  • l’économie circulaire, un enjeu de souveraineté industrielle ;
  • alternatives et opportunités pour un approvisionnement textile durable ;
  • digitalisation, de nouvelles opportunités pour s’adapter aux évolutions réglementaires.

Le forum de l’innovation managériale (jeudi 16) s’intéresse au rôle du leadership, des ressources humaines et des pratiques managériales dans la transition écologique.

Le temps fort « business & innovation », Textival!, se tiendra le mardi 14 octobre au Matmut Stadium, Lyon. Pendant cette journée, environ 300 exposants – des grands groupes aux start-ups – seront en contact avec plus de 400 décideurs via quelque 3 250 rendez-vous d’affaires programmés. L’occasion de nouer des partenariats, de découvrir des innovations technologiques et de confronter les offres aux besoins industriels.

Par ailleurs, du 15 au 17 octobre, un hackathon étudiant mobilisera des étudiants de sept formations (textile, ingénierie, design, management) pour concevoir des modèles innovants de circularité. Les projets seront pitchés devant un jury le vendredi 17, ouvert au public.

Dans les débats, l’importance sera tournée vers la densification des débouchés au-delà de l’habillement – vers la construction, l’automobile, ou les applications techniques – pour garantir un approvisionnement régulier en matière secondaire. La diversification des fibres, pour sa part, sera mise en valeur à travers le projet Aura Chanvre porté par la région Auvergne-Rhône-Alpes et qui vise à développer une filière de chanvre textile locale, contribuant à réduire la dépendance aux matériaux importés. Enfin, le numérique sera mis à contribution grâce à l’éco-score textile, un outil d’affichage volontaire de l’impact environnemental pour promouvoir l’écoconception et la transparence.

Au-delà de la dimension événementielle, « Demain le textile » joue un rôle de catalyseur de synergies entre acteurs, de diffusion de bonnes pratiques et de stimulation de l’innovation. En confrontant les défis (collecte, tri, qualité des fibres, modèles économiques, réglementation) et les solutions émergentes (approvisionnement durable, digitalisation, coopération entre acteurs), l’événement vise à impulser une dynamique collective vers une filière textile plus circulaire et résiliente.

« Demain le textile » sera donc l’occasion de prolonger la réflexion sur l’avenir du recyclage et de la circularité dans la filière. Alors que les acteurs peinent à valoriser des matières de plus en plus dégradées, l’événement lyonnais offrira un espace d’échanges pour repenser les modèles industriels, explorer les solutions techniques – de l’effilochage à l’écoconception – et identifier les partenariats capables de donner une véritable seconde vie aux textiles collectés.

Décryptage de l’enquête IESF 2025 : les tendances en ingénierie

L’enquête IESF 2025 s’appuie sur un échantillon particulièrement solide de plus de 19 000 ingénieurs et scientifiques, représentant fidèlement la diversité des parcours et des générations du monde de l’ingénierie en France. Afin de garantir la fiabilité des résultats, les données ont été pondérées selon l’âge, le genre et l’école d’origine, de façon à restituer une image équilibrée de la profession dans son ensemble.

La majorité des répondants est diplômée d’écoles d’ingénieurs françaises, mais le panel comprend également des scientifiques issus de l’université, notamment des titulaires de doctorats. Ces derniers représentent environ 6 % de l’ensemble des participants. Ils se distinguent par leur forte présence dans la recherche publique, la R&D industrielle et les secteurs à haute intensité technologique.

Sur le plan professionnel, plus de 90 % des ingénieurs interrogés exercent une activité, confirmant la situation de quasi-plein emploi observée depuis plusieurs années. Le taux de chômage reste inférieur à 3 %, un niveau nettement en-dessous de la moyenne nationale. Plus de la moitié des répondants occupe des postes d’encadrement ou de direction, une proportion qui dépasse 60 % après dix ans de carrière.

Les grandes entreprises continuent de concentrer une part importante des ingénieurs – environ 45 % des répondants travaillent dans des groupes industriels de taille internationale – mais la dynamique évolue. De plus en plus de professionnels choisissent de rejoindre des PME innovantes ou des start-up technologiques, notamment dans les secteurs du numérique, de l’énergie et de la transition environnementale.

La répartition sectorielle traduit les grandes priorités industrielles françaises. Le domaine de l’aérospatiale et de la défense connaît un net rebond, avec une augmentation de 10 % du nombre d’ingénieurs qui y travaillent par rapport à l’année précédente. Le numérique et l’intelligence artificielle poursuivent leur expansion et concernent désormais près d’un ingénieur sur cinq, tandis que l’énergie et l’environnement mobilisent près de 18 % des effectifs. Le secteur de la recherche et de l’enseignement supérieur, quant à lui, regroupe environ 7 % des répondants.

Sur le plan sociodémographique, la féminisation de la profession progresse lentement mais sûrement. Les femmes représentent aujourd’hui environ 21 % des ingénieurs, contre 19 % en 2022. La génération montante est également bien représentée puisque les moins de 35 ans constituent près d’un tiers de l’échantillon, traduisant un rajeunissement global de la population d’ingénieurs.

La dimension internationale reste un marqueur fort des carrières scientifiques et techniques. Un ingénieur sur quatre a déjà exercé une activité à l’étranger, principalement en Europe, en Amérique du Nord ou en Asie. Toutefois, l’enquête souligne un changement notable. Ainsi, de nombreux professionnels expriment désormais le souhait de revenir travailler en France, attirés par les opportunités liées à la réindustrialisation, à la souveraineté technologique et au développement de l’hydrogène, de l’IA et des nouvelles énergies.

L’enquête IESF 2025 illustre donc une communauté hautement qualifiée, mobile et engagée, au cœur des transformations industrielles et sociétales. Ces ingénieurs, jeunes ou expérimentés, en France ou à l’étranger, incarnent la vitalité d’un corps professionnel en pleine mutation, où l’expertise technique se conjugue de plus en plus avec une recherche de sens, d’impact et d’innovation durable.

Un marché du travail toujours sous tension positive

Les chiffres confirment par ailleurs une situation exceptionnelle. Ainsi, le taux de chômage des ingénieurs reste inférieur à 3 %, plaçant la profession dans une dynamique de quasi-plein emploi. Dans un contexte économique marqué par la transition énergétique, la réindustrialisation et l’explosion des usages de l’IA, les profils d’ingénieurs se trouvent au cœur des besoins stratégiques des entreprises.

Les jeunes diplômés, notamment issus des écoles d’ingénieurs spécialisées en informatique, data science, énergie et matériaux, trouvent un poste en moins de six mois en moyenne. Cette tension sur le marché de l’emploi pousse les entreprises à renforcer leurs politiques d’attractivité et à repenser leur marque employeur.

Les grands groupes de l’aéronautique, de la défense et du numérique continuent d’attirer, mais les PME et start-up gagnent du terrain, séduisant par des perspectives de responsabilité rapide et de flexibilité organisationnelle.

Aérospatiale : une filière en renouveau

Parmi les secteurs analysés, l’aérospatiale se distingue par un fort rebond. Après plusieurs années marquées par les effets de la crise sanitaire et les tensions sur les chaînes d’approvisionnement, le secteur connaît une reprise soutenue de l’emploi et de la R&D. L’étude met en évidence un rajeunissement des équipes et une montée en puissance des compétences liées à la numérisation des systèmes embarqués, à la modélisation 3D, et à la cybersécurité des infrastructures critiques.

Les jeunes ingénieurs expriment un regain d’intérêt pour ce domaine stratégique, porté par les enjeux de souveraineté industrielle et les ambitions spatiales européennes. Une hausse de près de 10 % du nombre d’ingénieurs déclarant travailler dans l’aérospatiale par rapport à 2023 est constatée.

Doctorat : un atout encore sous-valorisé

L’enquête consacre un module spécifique au doctorat, souvent perçu comme un parcours d’excellence, mais encore marginal dans les carrières d’ingénieurs.

Les docteurs-ingénieurs représentent environ 6 % de la population totale des répondants, un chiffre stable depuis plusieurs années. Toutefois, la tendance montre une meilleure reconnaissance salariale et une progression des postes à responsabilités pour ces profils.

L’écart de rémunération moyen en faveur des ingénieurs titulaires d’un doctorat est de 15 %, notamment dans la R&D et les technologies de pointe (photonique, IA, matériaux). Cependant, la mobilité internationale et la valeur perçue du doctorat dans l’industrie française restent des freins à sa généralisation.

Intelligence artificielle : entre fascination et adaptation

L’intelligence artificielle occupe cette année une place centrale dans l’étude. Près de 45 % des ingénieurs déclarent utiliser l’IA dans leurs activités quotidiennes, que ce soit pour l’analyse de données, la simulation, la conception ou la maintenance prédictive.

Un écart générationnel marqué se fait jour puisque plus de 60 % des ingénieurs de moins de 35 ans utilisent régulièrement des outils d’IA, contre seulement 25 % chez les plus de 50 ans. Cette adoption rapide s’accompagne de nouvelles attentes en matière de formation continue. Ainsi, les ingénieurs réclament davantage de modules sur les algorithmes d’apprentissage automatique, la cybersécurité, l’éthique des données et la conformité réglementaire (IA Act européen).

Engagement sociétal et équilibre vie pro/vie perso

Au-delà des aspects techniques, l’enquête IESF 2025 met en lumière une évolution profonde des valeurs.

Plus de la moitié des répondants déclarent accorder une importance croissante à l’impact environnemental et social de leur entreprise. Les ingénieurs de moins de 30 ans sont particulièrement sensibles à la finalité des projets auxquels ils participent. Par ailleurs, le télétravail est mieux perçu puisque 72 % estiment qu’il a renforcé leur efficacité et leur qualité de vie, tout en préservant la cohésion d’équipe.

Enfin, l’engagement bénévole et associatif progresse. Près d’un ingénieur sur cinq consacre ainsi du temps à des actions citoyennes, qu’il s’agisse de mentorat, d’associations techniques ou de projets de vulgarisation scientifique.

Un corps professionnel en mutation

Cette 36e édition de l’enquête IESF confirme la résilience et l’adaptabilité d’une communauté professionnelle au cœur des transformations industrielles. Entre la montée en puissance de l’IA, la relance de l’aérospatiale et la redéfinition des carrières scientifiques, les ingénieurs apparaissent plus que jamais comme des acteurs clés de la transition économique et technologique.

Les données 2025 traduisent une certitude : la France dispose d’un vivier d’ingénieurs hautement qualifiés, mais leur valorisation dépendra de la capacité collective à soutenir la recherche, encourager le doctorat, et renforcer les liens entre industrie et innovation.

Non, la France n’a pas à rougir de son industrie

Cette reconquête ne doit rien au hasard : elle s’appuie sur des fondations scientifiques solides, un tissu industriel résilient et une capacité d’innovation qui fait de la France l’un des laboratoires industriels les plus dynamiques d’Europe.

Alors, il est temps de le dire sans détour : la France n’a pas à rougir de son industrie. Derrière les discours alarmistes, les faits témoignent en effet d’une transformation réelle et profonde.

Des fondations scientifiques et technologiques solides

La France peut s’appuyer sur un socle scientifique de premier plan. Son écosystème de recherche – CNRS, CEA, Inria, IRT et pôles de compétitivité – favorise la circulation de l’innovation entre laboratoires et entreprises. Dans des domaines stratégiques tels que le nucléaire civil, le spatial, la chimie des matériaux, les microtechniques ou l’intelligence artificielle, les compétences françaises demeurent parmi les plus reconnues d’Europe.

La vitalité de la recherche appliquée se mesure aussi à travers les dépôts de brevets : la France figure régulièrement dans le trio de tête européen à l’Office européen des brevets. Ces résultats témoignent d’une capacité d’innovation industrielle soutenue, fondée sur la qualité de l’ingénierie et la solidité de la formation technique.

La réindustrialisation, moteur d’une nouvelle dynamique

Depuis quelques années, la France connaît un retournement industriel inédit. Pour la première fois depuis deux décennies, les créations d’usines dépassent les fermetures. Cette tendance, amplifiée par les dispositifs de soutien comme France 2030, traduit une reconquête des capacités productives.

Les investissements dans l’industrie manufacturière progressent, notamment dans les secteurs de la mobilité, de l’électronique et de la santé. L’automatisation, la numérisation et la robotisation des sites renforcent la compétitivité nationale, tandis que les relocalisations de productions stratégiques participent à la résilience du territoire.

Une industrie au cœur de la transition bas-carbone

La décarbonation constitue le fil rouge des stratégies industrielles françaises. Grâce à un mix énergétique déjà faiblement carboné et à l’expertise du nucléaire civil, la France se positionne comme l’un des pays européens les mieux armés pour développer une industrie durable et compétitive.

Les filières émergentes – hydrogène décarboné, batteries, captage du CO₂, énergies marines – traduisent une ambition forte, celle de concilier performance industrielle et objectifs climatiques. Les initiatives d’éco-conception, de recyclage et d’économie circulaire, désormais intégrées par de nombreux groupes, témoignent de l’évolution des modèles productifs.

Des filières d’excellence à la française

L’aéronautique, le spatial, la santé, le luxe, l’agroalimentaire ou la défense reposent sur des chaînes de valeur maîtrisées, du laboratoire au produit fini. Ces filières, historiquement structurantes, demeurent de puissants leviers d’exportation et d’innovation.

Autour des grands groupes gravitent un ensemble d’ETI et de PME innovantes, souvent ancrées dans les territoires. Leur agilité leur permet d’expérimenter de nouvelles technologies – fabrication additive, intelligence artificielle, Internet industriel des objets – et d’accélérer la transformation numérique des filières traditionnelles.

Le savoir-faire humain, pilier de la compétitivité

L’un des atouts majeurs de l’industrie française réside dans sa main-d’œuvre hautement qualifiée. Les écoles d’ingénieurs, les universités technologiques et les CFA forment chaque année des profils recherchés, à la croisée de la rigueur scientifique et de la créativité.
Cette culture de l’ingénierie s’accompagne d’une évolution des compétences vers la polyvalence numérique, la gestion de projet, la robotique et la maintenance prédictive. La transmission des savoirs et la revalorisation des métiers techniques participent pleinement au renouveau industriel.

Mettre en avant une industrie souveraine et durable

L’enjeu désormais est de rendre visible cette réussite. L’industrie française doit affirmer :

  • sa souveraineté industrielle, en soulignant la reconquête de secteurs stratégiques (énergie, santé, électronique, mobilité) ;
  • sa capacité à conjuguer compétitivité et décarbonation, en devenant la vitrine d’une réindustrialisation verte ;
  •  sa puissance d’innovation, issue de la collaboration entre recherche publique, startups et entreprises ;
  • et surtout, la valeur humaine de son savoir-faire, qui demeure le moteur de toute transformation industrielle.

Loin du défaitisme ambiant, l’industrie française démontre qu’elle sait se transformer sans renier son exigence. Elle ne cherche plus à rattraper un retard, mais bien à tracer sa propre voie vers une souveraineté industrielle durable et innovante.

Portée par l’innovation, la transition énergétique et la réindustrialisation, notre industrie incarne une ambition collective : construire une économie productive, souveraine et durable. Une industrie qui ne se contente plus de produire, mais qui invente les technologies et les solutions d’un monde plus sobre, plus autonome et plus solidaire.

La réindustrialisation française n’est donc plus une promesse, mais une réalité en construction.

En complément

Réindustrialisation française : les données d’un rebond durable
Si la tentation du pessimisme demeure une spécialité nationale, l’industrie française offre aujourd’hui bien des raisons de retrouver confiance. En voici quelques-unes.

+300 usines créées depuis 2017
Selon les données du ministère de l’Économie, la France enregistre depuis six ans un solde positif entre ouvertures et fermetures de sites industriels, une première depuis le début des années 2000. Cette tendance traduit un mouvement de relocalisation et de modernisation des outils de production sur l’ensemble du territoire.

56 milliards d’euros mobilisés par France 2030
Le plan d’investissement lancé en 2021 soutient la transition énergétique et technologique des filières industrielles. Ses priorités couvrent les batteries, l’hydrogène décarboné, le recyclage, les semi-conducteurs, la santé et l’agroalimentaire, dans une logique de souveraineté stratégique.

19 % du PIB généré par l’industrie manufacturière et ses effets induits
Bien que la part directe de l’industrie dans le PIB se situe autour de 10 %, les activités associées (logistique, services industriels, ingénierie) portent la contribution réelle à près d’un cinquième du produit intérieur brut français, selon l’Insee.

1,5 million d’emplois industriels directs
Les métiers de la production, de la maintenance et de l’ingénierie connaissent une demande soutenue, notamment dans les domaines de l’électromobilité, de l’électronique et de la robotique. La montée en compétence numérique et la transition écologique des formations techniques deviennent un enjeu national.

Objectif : –55 % d’émissions industrielles d’ici 2030
La France s’est fixé un cap ambitieux dans le cadre de la stratégie nationale bas-carbone (SNBC). Les investissements dans l’efficacité énergétique, la capture du CO₂ et la décarbonation des procédés sont désormais considérés comme des leviers de compétitivité, et non plus comme des contraintes.

La France lance la construction du futur fleuron de la Marine nationale

Alors que le porte-avions Charles de Gaulle, en service depuis 2001, s’apprête à tirer sa révérence, la France entame un tournant décisif dans le chantier du nouveau porte-avions français, encore appelé PA-NG pour Porte-Avions de Nouvelle Génération. Après plusieurs années d’études techniques et d’avant-projets, la fabrication des premières pièces de ce futur fleuron naval vient de débuter à Cherbourg. Ce bâtiment est destiné à maintenir la permanence de la capacité aéronavale française et à affirmer son rang de puissance maritime mondiale. Son entrée en service opérationnel est prévue pour 2038.

Ce navire de guerre incarne un saut générationnel à tous les niveaux. Plus grand, plus puissant, plus automatisé, il représente un bond d’échelle considérable, avec une capacité de 75 000 tonnes à pleine charge, contre 42 000 pour le Charles de Gaulle, et une longueur proche de 310 mètres, contre 260 pour son prédécesseur. La propulsion reposera sur deux nouveaux réacteurs nucléaires de type K22 de 220 MW (Mégawatt) chacun, offrant une puissance accrue, une autonomie quasi illimitée et une vitesse de pointe pouvant atteindre 27 nœuds (50 km/h).

Il s’agira du premier bâtiment français à être équipé de catapultes électromagnétiques pour lancer les avions, inspirées du système EMALS américain, et de brins d’arrêt nouvelle génération. Ces systèmes viendront en remplacement des systèmes de catapultes à vapeur et des dispositifs d’arrêt hydrauliques utilisés à bord du Charles de Gaulle. Il pourra embarquer une quarantaine d’aéronefs, parmi lesquels des Rafale Marine, puis les futurs chasseurs NGF (New Generation Fighter) du programme SCAF (Système de Combat Aérien du Futur), ainsi que des hélicoptères et des drones. Les technologies à bord devront garantir une compatibilité avec les systèmes de combat du futur et une interopérabilité accrue avec les alliés européens et américains.

Le PA-NG embarquera un système de combat entièrement repensé, combinant capteurs, radars et armement défensif de nouvelle génération. Son îlot, déplacé vers l’arrière, intégrera un radar à balayage électronique Sea Fire fabriqué par Thales, offrant une couverture à 360 degrés. Côté défense, le navire disposera de trois modules verticaux pour les missiles Aster, de quatre canons Bofors de 40 mm et des lanceurs Simbad-RC équipés de missiles Mistral 3. Conçu pour accueillir à terme des armes à énergie dirigée utilisant la puissance de l’électricité, ce bâtiment illustre une modernisation complète et évolutive des moyens de défense aéronavale français.

Maintenir les savoir-faire français dans les domaines du nucléaire et du naval

Derrière ce chantier naval, c’est toute la filière industrielle française qui se trouve mobilisée. Naval Group et les Chantiers de l’Atlantique vont assurer la maîtrise d’œuvre au sein de la société MO Porte-Avions, tandis que TechnicAtome et le CEA développeront les chaufferies nucléaires. Des centaines de sous-traitants seront associés dans les domaines de la chaudronnerie, de l’électronique embarquée, des systèmes d’armes et de la propulsion. Le projet représente des milliers d’emplois directs et indirects et constitue un formidable levier de maintien des savoir-faire nationaux dans les domaines du nucléaire et du naval.

Si l’ambition est claire, les défis sont immenses. À commencer par le coût, qui devrait avoisiner les 10 milliards d’euros. L’État a promis un soutien budgétaire constant, mais le risque de dérapage financier n’est pas à écarter face à l’inflation, les tensions sur les métaux stratégiques et la complexité technique. Les délais industriels pèsent lourdement sur le projet, puisque tout retard compromettrait la transition entre le Charles de Gaulle et son successeur, avec le risque d’une période sans porte-avions opérationnel.

Pilotée par la DGA (Direction Générale de l’Armement), la construction du PA-NG symbolise la volonté de la France de rester une puissance maritime et nucléaire de premier rang. En intégrant les technologies les plus avancées, ce futur porte-avions s’inscrit dans une logique de continuité et de modernisation. À l’heure où les mers redeviennent des espaces de confrontation, il illustre la détermination de Paris à tenir son rang sur la scène internationale, tout en consolidant une base industrielle de défense souveraine.

Revue du Magazine d’Actualité #49 du 6 au 10 octobre

Cette semaine, entre innovations durables, alertes systémiques et souveraineté industrielle, les signaux convergent vers un besoin accru d’anticipation.


🧬 SANTÉ & SCIENCES

Le Nobel de médecine 2025 récompense trois pionniers de la tolérance immunitaire périphérique

Le prix Nobel de médecine 2025 distingue trois chercheurs pour leurs travaux sur la tolérance immunitaire périphérique, un mécanisme essentiel pour prévenir les maladies auto-immunes. Ces découvertes ouvrent des perspectives prometteuses pour les greffes et les traitements personnalisés.
🩺 Zoom sur les avancées en immunologie

Un cube de sucre qui capte le CO₂ : le Nobel de chimie 2025 ouvre la voie à une chimie durable

Le Nobel de chimie 2025 récompense une structure cristalline innovante capable de capturer le dioxyde de carbone. Inspirée d’un simple cube de sucre, cette avancée pourrait transformer les procédés industriels vers une chimie plus respectueuse du climat.
🧪 Découvrir cette molécule anti-CO₂


⚡ ÉNERGIE & ENVIRONNEMENT

Quand le retard de la PPE3 freine la décarbonation industrielle française

Le report de la PPE3 crée une incertitude qui ralentit les investissements dans la décarbonation industrielle. Les industriels alertent sur l’absence de visibilité réglementaire, freinant les projets bas carbone à grande échelle.
🏭 Pourquoi la PPE3 est un levier stratégique

Le déroulé du black-out ibérique se confirme

L’analyse du black-out ayant touché l’Espagne et le Portugal révèle une série d’événements techniques et climatiques. Ce retour d’expérience souligne la fragilité des réseaux électriques face aux stress extrêmes et à l’interconnexion croissante.
🔎 Enquête sur une panne continentale


🧱 INDUSTRIE & MATÉRIAUX

Ostrea inaugure sa première usine de matériaux bas carbone à base de coquillages recyclés

La start-up Ostrea transforme des coquilles d’huîtres en granulats pour le bâtiment. Cette première usine marque une étape dans la valorisation des biodéchets marins et la production de matériaux de construction à faible empreinte carbone.
🏢 Coquillages et béton bas carbone

Production locale des batteries : peut-on se passer d’une alliance sino-européenne ?

Face à la dépendance asiatique, l’Europe cherche à relocaliser la production de batteries. Mais les tensions géopolitiques et les contraintes industrielles rendent difficile une autonomie complète sans coopération stratégique avec la Chine.
🔋 Décryptage des enjeux de souveraineté énergétique


💻 NUMÉRIQUE & TECHNOLOGIES

Vers un « verrouillage fossile » des infrastructures numériques : l’alerte du Shift Project

Le Shift Project alerte sur la dépendance des infrastructures numériques aux énergies fossiles. Sans transition énergétique du secteur, le numérique pourrait devenir un frein aux objectifs climatiques.
📲 Numérique et climat : un verrou à briser


👓 Bon weekend et à la semaine prochaine  !

De la science à la paix : les Nobel 2025 célèbrent l’intelligence sous toutes ses formes

L’édition 2025 des prix Nobel consacre notamment une science en transition, qui ne se contente plus d’expliquer le monde mais cherche à le transformer. Les découvertes récompensées cette année ne sont pas des curiosités académiques – elles sont mûres pour être intégrées dans des technologies de capture du carbone, de purification de l’air et de l’eau, et de stockage d’énergie. Elles constituent des ponts entre la recherche fondamentale et l’application technologique.

Quantique, IA et technologies émergentes : un saut vers la robotique et l’informatique

Cette année, le Nobel de Physique a récompensé John Clarke, Michel H. Devoret et John M. Martinis pour leurs travaux pionniers sur les circuits supraconducteurs démontrant la quantification d’énergie à l’échelle macroscopique.

Ces recherches consolident les fondements des technologies quantiques, de l’ordinateur quantique aux capteurs de haute précision. Ces travaux soulignent une tendance lourde de la recherche mondiale, celui du rapprochement entre physique quantique et ingénierie appliquée, où les effets jadis invisibles deviennent exploitables à l’échelle industrielle.

Les impacts industriels

  • En robotique et IA, les capteurs quantiques promettent une précision extrême dans la navigation, la métrologie, la détection de défauts ou la surveillance d’environnements complexes.
  • En mécanique de précision, l’attention se porte sur l’amélioration des dispositifs de contrôle, des gyroscopes et des systèmes d’asservissement.
  • En aérospatiale et défense, les capteurs quantiques peuvent révolutionner la détection gravimétrique, la navigation sans GPS et la surveillance du champ magnétique terrestre.
  • Dans le domaine de l’énergie, les dispositifs supraconducteurs ouvrent la voie à des systèmes électroniques à perte quasi nulle, idéaux pour les réseaux intelligents et la gestion fine de l’électricité.

Des matériaux aux promesses environnementales

Le Nobel de Chimie revient à Susumu Kitagawa, Richard Robson et Omar M. Yaghi, pour la création des metal-organic frameworks (MOFs) – des architectures moléculaires poreuses capables de piéger des gaz, de capter le CO₂, de purifier l’eau ou de stocker de l’énergie.

Les MOFs sont ainsi des ponts potentiels entre la chimie fondamentale et les applications industrielles en transports, automobile, aérospatial – par exemple pour des réservoirs plus légers ou des filtres de gaz –, ou encore dans l’énergie durable (captage du carbone, stockage d’hydrogène). Ces matériaux ouvrent la voie à une chimie circulaire, où les molécules polluantes deviennent des ressources valorisées.

Les impacts industriels

  • En énergie et environnement, les procédés de captage et stockage du CO₂, de purification de l’air et de l’eau sont appelés à évoluer. De même, les batteries solides ou les systèmes de stockage d’hydrogène pourraient bénéficier d’importantes améliorations.
  • En transports et automobile, des réservoirs à hydrogène plus sûrs et plus légers pourraient être conçus, tandis que les systèmes de filtres à gaz ou catalyseurs pour moteurs propres seraient optimisés.
  • En aérospatial, l’invention pourrait permettre la mise au point de matériaux ultralégers et hautement stables pour la filtration de l’air en environnement confiné ou pour les modules de vie en milieux extrêmes.

Le contenu scientifique : tolérance immunitaire périphérique et cellules T régulatrices

Le prix Nobel de Médecine a été décerné à Mary E. Brunkow (États-Unis), Fred Ramsdell (États-Unis) et Shimon Sakaguchi (Japon) pour leurs découvertes concernant la tolérance immunitaire périphérique.

Les travaux des trois lauréats sont souvent décrits comme déterminants pour l’immunotolérance périphérique, c’est-à-dire les mécanismes situés au-delà du thymus (hors de la tolérance centrale), permettant au système immunitaire de « surveiller » et de réguler les réponses immunitaires dans les tissus périphériques.

Les impacts industriels

Bien que ce Nobel soit d’abord centré sur l’immunologie, ses retombées pourraient influencer des domaines plus larges de la technologie médicale.

  • En biotechnologie et pharmacologie, des médicaments (petites molécules, anticorps, cellules modifiées) ciblant les voies de régulation immunitaire pourraient être développés.
  • En matière de diagnostic et biomarqueurs, l’invention pourrait être à l’origine de capteurs ou tests pour quantifier la fonction des T-regs, la stabilité immunitaire ou prédire la survenue de maladies auto-immunes.
  • En médecine personnalisée, il serait envisageable d’ajuster les traitements selon le profil immunitaire de chaque patient (doser les T-regs, adapter l’immunosuppression).
  • En robotique médicale et dispositifs implantables, la surveillance en continu des signaux immunitaires (cytokines, signaux cellulaires) permettrait d’ajuster le dosage thérapeutique dans les implants biocompatibles.
  • Grâce à l’intelligence artificielle et au big data, les réponses immunitaires, la prédiction des déséquilibres et l’aide aux choix thérapeutiques pourraient être modélisées.

Et l’IA ?

Aucun Nobel n’a encore couronné directement les travaux sur l’intelligence artificielle, mais son rôle transversal dans les découvertes récentes est omniprésent.

Par exemple, en automobile et transports, l’IA embarquée permettrait d’améliorer la gestion de l’énergie, l’optimisation du routage ou la maintenance prédictive.

En robotique, la combinaison de capteurs quantiques et d’IA pour des robots d’exploration autonome rendrait ces derniers capables d’évoluer dans des milieux hostiles.

Enfin, en recherche et matériaux, l’identification de nouvelles structures chimiques grâce à l’apprentissage automatique serait accélérée réduisant drastiquement les temps de conception.

Les découvertes primées et l’IA s’alimentent ainsi mutuellement, l’une produisant la donnée, tandis que l’autre en décuple la portée. Le couplage entre l’IA, les matériaux innovants et les systèmes quantiques est d’ailleurs déjà une direction fertile pour la robotique avancée, la métrologie, les systèmes autonomes et la mécanique de précision.

Les perspectives

Chimie, physique quantique, IA et matériaux se rejoignent autour de défis majeurs. Ce n’est plus seulement « la recherche pure » d’un côté, et « les transports, l’automobile, la robotique » de l’autre – mais un continuum dans lequel chaque avancée diffuse son influence.

Les technologies quantiques pourraient par exemple optimiser les chaînes de production automatisées grâce à des mesures plus fines de vibrations, de flux ou de champs électromagnétiques. Dans l’industrie énergétique, l’association des MOFs et des procédés supraconducteurs pourrait engendrer une nouvelle génération de systèmes de stockage hybride, alliant densité énergétique, sécurité et rendement accru.

Les ingénieurs, industriels, concepteurs de systèmes devront tirer parti de ces briques nouvelles pour concevoir les générations futures de machines, véhicules, robots et infrastructures. Ces Nobel constituent donc un appel à l’interdisciplinarité et à l’accélération.

Enfin, même si beaucoup de travaux récompensés devront passer par des phases de maturation, d’échelle, de fiabilité, de coût et de durabilité avant de se retrouver dans les machines ou les villes, ces prix incitent à générer des synergies entre universités, pôles technologiques, startups et filières industrielles (automobile, robotique, aéronautique) pour intégrer ces matériaux ou procédés émergents.

La remise des prix Nobel 2025 confirme dès lors que les défis les plus pressants – climat, énergie, matériaux, systèmes intelligents – ne sont plus des sujets périphériques à la « science pure », mais bien des axes structurants de la recherche contemporaine, et autant de jalons susceptibles d’irriguer les domaines de l’environnement, des transports, de l’énergie et de la mécanique d’avant-garde. Les découvertes primées cette année traduisent ainsi la fusion entre recherche fondamentale et innovation industrielle.

De la plume à la résistance : quand les Nobel célèbrent la liberté

Le Prix Nobel de la Paix a été décerné à María Corina Machado, figure majeure de l’opposition au Venezuela, pour son « combat infatigable en faveur des droits démocratiques et son rôle dans la transition pacifique face à la dictature. Le comité norvégien avait reçu cette année 338 candidatures (244 personnes et 94 organisations). Son choix vient comme un message fort : dans un monde encore en proie à de nombreuses tensions, la paix passe non seulement par la diplomatie traditionnelle, mais également par la défense courageuse de la démocratie et des libertés individuelles.

Le Prix Nobel de littérature 2025, quant à lui, a été attribué à László Krasznahorkai, en reconnaissance d’une œuvre « saisissante et visionnaire » qui, « au cœur d’un monde en proie à l’“apocalyptic terror”, réaffirme le pouvoir de l’art ».

Dans le foisonnement des Nobel cette semaine, ce choix éclaire une relation profonde entre littérature et paix : tandis que le Prix Nobel de la Paix valorise l’engagement humaniste concret, le Nobel de littérature célèbre la capacité de la création artistique à questionner, à résister, à nourrir l’empathie. Krasznahorkai, par ses textes qui sondent les abîmes de l’âme humaine, rappelle qu’il n’y a pas de paix durable sans conscience – que le silence ou la soumission ne sauraient suffire.

* À l’heure où cet article est édité, le prix Nobel d’économie n’a pas encore été annoncé.

Rafraîchir un bâtiment sans (trop) réchauffer le climat : un défi relevé par Systra France grâce à l’ingénierie augmentée

Une initiative Syntec-Ingénierie

Au travers d’une série de capsules vidéos intitulée « L’ingénierie augmentée au service du climat », la fédération professionnelle Syntec-Ingénierie – 400 entreprises adhérentes et 13 délégations régionales – a choisi de mettre en avant quatre initiatives portées par des entreprises du secteur, reposant sur l’utilisation du numérique pour simuler des scénarios, anticiper les impacts environnementaux, et concevoir des bâtiments à l’empreinte carbone réduite. Ceci, en donnant directement la parole à des ingénieur(e)s du secteur du bâtiment, afin d’illustrer le rôle de l’ingénierie pour accélérer la transition écologique et énergétique. Nous avons pu revenir en détail avec les adhérents de la fédération porteurs de ces projets, sur les tenants et aboutissants de leur travail. Pour le premier de ces quatre entretiens, rencontre avec Systra France.

En charge de différents lots techniques d’un vaste projet de construction combinant usages industriels et tertiaires, l’ingénieur spécialisé en fluides et énergies chez Systra France, Mohammed Mehdi Moumtaji, a fait appel à un logiciel de simulation thermique dynamique pour étudier les effets de différentes solutions de rafraîchissement plus vertueuses que la climatisation conventionnelle. Grâce à son puissant moteur de calcul, cet outil lui a permis de modéliser en conditions réelles le comportement thermique du bâtiment en question, comme il l’évoque dans la vidéo publiée par Syntec-Ingénierie. De quoi démontrer l’efficacité des solutions envisagées, comme nous l’explique l’expert, qui a accepté de revenir plus en détail pour Techniques de l’Ingénieur sur ce travail « d’ingénierie augmentée » au service du climat, mais aussi du confort thermique des usagers.

Techniques de l’Ingénieur : Pouvez-vous tout d’abord nous présenter en quelques points clés le projet sur lequel vous êtes intervenu en tant qu’expert en fluides et énergies ?

Mohammed Mehdi Moumtaji est ingénieur spécialisé en fluides et énergies chez Systra France
Mohammed Mehdi Moumtaji est ingénieur spécialisé en fluides et énergies chez Systra France depuis 2021. DR

Mohammed Mehdi Moumtaji : Il s’agit du projet de construction du centre de remisage et de maintenance de la ligne T10 du tramway lyonnais. Ce centre se compose de plusieurs bâtiments : le bâtiment principal – un hall de maintenance de 2 600 m2  ; un bâtiment administratif, qui abrite bureaux, salles de réunion, restaurant… répartis sur deux niveaux pour une surface totale d’environ 1 600 m2 ; un bâtiment dans lequel se trouve la station-service et de lavage des tramways ; ainsi que des bâtiments annexes, dédiés aux installations électriques, de signalisation et de sécurité. À cela s’ajoute aussi une zone de remisage étendue sur 10 000 m2 environ. L’essentiel des enjeux en matière énergétique étaient concentrés autour du bâtiment principal, le centre de maintenance, et la partie administrative qui lui est accolée.

Ce projet est caractérisé par une forte ambition écologique globale. Cela s’est notamment traduit par la mise en œuvre de plusieurs solutions techniques durables, à commencer par le raccordement au réseau de chaleur urbain, alimenté à hauteur de 64 % par des énergies renouvelables. À cela s’ajoutent 2 600 m2 de panneaux photovoltaïques en toiture, ainsi que des panneaux solaires thermiques destinés à la production d’eau chaude sanitaire.

Au-delà de ces solutions liées à l’énergie, une installation de récupération des eaux pluviales a également été mise en place, pour permettre le lavage des tramways notamment.

Quelles étaient vos missions dans le cadre de ce projet ?

En tant qu’expert en fluides et énergies, j’ai été amené à gérer plusieurs lots et sous-lots techniques : la partie thermique du bâtiment – cadrée par les réglementations RT2012 et RE2020 – et la CVC[1], au travers des équipements de traitement d’air et de chauffage. En fonction de l’exigence des réglementations thermiques, j’ai fait en sorte de trouver des solutions adaptées.

L’autre grand axe de travail auquel j’ai contribué concernait la plomberie et les fluides spéciaux, avec un angle plutôt « process », qui laisse cependant moins de marge de manœuvre sur le plan des économies d’énergie et de la réduction de l’empreinte carbone.

Les principaux leviers d’amélioration sur le plan énergétique sur lesquels j’ai pu agir dans le cadre de ce projet ont donc plutôt été ceux de la climatisation, de la ventilation, du chauffage et de l’eau chaude sanitaire.

Mes collègues et moi-même avons rédigé des guides d’aide à la décision dans lesquels nous avons présenté plusieurs solutions, accompagnées de l’investissement qu’elles impliquent, mais aussi d’une évaluation du retour sur investissement à long terme. Ce qui a naturellement permis d’appuyer les choix techniques orientés vers la transition écologique.

Vous avez, pour cela, fait appel à un outil de simulation numérique. Pourquoi, et comment l’avez-vous utilisé ?

Nous avons commencé par évaluer les effets et les bénéfices de solutions dont le choix repose avant tout sur des aspects réglementaires : isolation renforcée, brise-soleil et toiture végétalisée. Sur la partie confort estival du bâtiment administratif notamment, la RE2020 est très exigeante. Si elle n’interdit pas la mise en place d’un système de climatisation, elle implique en effet avant tout l’évaluation des performances de l’enveloppe thermique d’un bâtiment. Cela nous a donc donné une ligne directrice pour établir des scénarios de base.

Pour aller au-delà de ces aspects qui découlent directement de la réglementation, et pousser plus loin l’étude, nous avons réalisé ce que l’on appelle une simulation thermique dynamique. Nous avons pour cela utilisé un logiciel spécialisé qui s’appelle Virtual Environment, qui nous a permis d’établir des scénarios réels d’usage, à partir, notamment, de données météo représentatives de l’évolution à venir du climat. Il s’agit d’un moteur de calcul très puissant, qui combine différents algorithmes permettant de traiter des données interdépendantes. Cet outil nous fournit aussi des lignes de redressement, qui nous permettent de redresser au fil de la modélisation nos données d’entrée. Nous avons intégré dans cet outil toutes les solutions de base que j’évoquais.

À quels résultats, et à quels constats cet outil numérique vous a-t-il permis d’aboutir ?

L’un des premiers constats que nous avons dressés est que la mise en place de brise-soleil est quasi incontournable. Grâce à la simulation, nous avons en effet pu observer l’énorme différence que cette solution engendre, a fortiori en période de canicule. Et ce, même en ayant choisi, au préalable, des vitrages très performants. Nous avons d’ailleurs aussi joué, dans le cadre de ce travail de simulation, sur l’équilibre entre facteur solaire des vitrages et transmission lumineuse : l’idée était de trouver le meilleur compromis entre luminosité et protection contre la chaleur du rayonnement solaire. S’il est insuffisant, l’apport de lumière naturelle affecte en effet la consommation d’énergie primaire, en augmentant le recours à l’éclairage artificiel.

Outre les brise-soleil, nous avons évalué d’autres solutions techniques grâce à notre outil de simulation thermique dynamique, telles que la ventilation nocturne, le rafraîchissement naturel via les ouvrants, notamment pour l’atelier, qui dispose en effet de sheds dotés d’ouvrants de désenfumage utilisables également pour aérer les lieux en fonction des besoins réels, grâce à un asservissement à une station météo dotée de capteurs intérieurs et extérieurs.

Enfin, pour assurer le confort thermique estival, nous avons également intégré à la simulation non pas une solution de climatisation conventionnelle, mais un système de rafraîchissement adiabatique. Dans le cas de l’atelier notamment – à la fois haut de plafond et très étendu en surface – il est en effet tout simplement inenvisageable de mettre en œuvre la climatisation, tant les volumes d’air à rafraîchir sont importants. Et plus largement, il y a un vrai intérêt à miser sur des techniques de ce type, permettant d’assurer un confort estival sans pour autant recourir à la climatisation, qui peut en effet se révéler coûteuse de par sa consommation énergétique et générer par la même occasion une empreinte carbone non négligeable.

Le centre de remisage et de maintenance de la ligne T10 du tramway de Lyon
Le centre de remisage et de maintenance de la ligne T10 du tramway de Lyon concentre un grand nombre de solutions permettant d’en réduire l’empreinte carbone et environnementale : récupération des eaux pluviales, panneaux photovoltaïques et solaires thermiques, brises soleil, ou encore système de rafraîchissement adiabatique. © Strates Architecture

Ce n’est ainsi pas le premier projet dans le cadre duquel nous mettons en œuvre cette solution de rafraîchissement adiabatique. Nous avons donc déjà du recul sur cette technique, et avons pu établir des recommandations à destination du maître d’ouvrage, en précisant aussi ce que cela implique au niveau de l’investissement initial, et de retour sur investissement.

Dans le cadre de ce travail de simulation, nous nous sommes appuyés à la fois sur des données météo moyennées sur dix ans, des projections à l’horizon 2050, ainsi que des fichiers types représentatifs d’une année de canicule telle que celle de 2003. Cela nous a permis de simuler l’évolution de la température intérieure – et son retentissement sur le confort des occupants des bâtiments, j’y reviendrai – avec ou sans rafraîchissement adiabatique. Nous avons pu observer que cette solution permet de réduire d’environ 8 à 10 °C la température intérieure, par rapport à celle mesurée à l’extérieur, ce qui est tout à fait significatif et montre que la solution rend le bâtiment apte à faire face aux épisodes caniculaires. Il est toutefois à noter que ses effets dépendent de l’humidité ambiante – plus l’air est sec en amont, plus il peut être rafraîchi en aval –, et des débits d’air – qui sont notamment plus importants dans la partie atelier du bâtiment et dépendent aussi de la densité d’occupation des locaux.

Nous avons aussi intégré à notre modélisation deux indices clés en matière de confort thermique : le PMV (Predicted Mean Vote ou Vote Prédit Moyen) et le PPD (Predicted Percent of Dissatisfied ou Pourcent Prédit d’Insatisfaits). Ceci, afin de prendre en compte le côté subjectif du ressenti d’une même température, qui varie en effet selon l’activité de la personne, son métabolisme, son isolement thermique vestimentaire, etc.

À quoi ce travail de simulation numérique a-t-il abouti, très concrètement ?

À l’issue de ce travail, nous avons émis une série de conclusions à destination de la maîtrise d’ouvrage du projet, en soulignant notamment l’effet considérable sur la température intérieure de la combinaison des brise-soleil, de l’isolation renforcée et du rafraîchissement adiabatique, et ce, tant au niveau de l’atelier que des bureaux.

Le projet est aujourd’hui en cours de visa. Nous sommes dans la dernière ligne droite de validation des différents équipements qui seront mis en œuvre. L’exécution des travaux est déjà en cours sur le gros œuvre et certains autres lots. La partie CVC va suivre d’ici peu.

Au-delà de l’exécution du projet en tant que tel, ce travail est aussi l’occasion de mettre en lumière les solutions écologiques qui existent pour faire face aux conséquences du changement climatique. Ce sujet va en effet devenir de plus en plus important dans les années à venir. Il faut donc qu’il puisse être pris en considération par un public de plus en plus large, et pas seulement d’ailleurs par les seuls experts et ingénieurs.


[1] Chauffage, ventilation et climatisation.

Une ligne pilote stratégique pour recycler les aimants permanents européens

Un jalon stratégique pour la souveraineté industrielle européenne a été franchi. Le groupe Orano et le CEA viennent d’inaugurer une ligne pilote dédiée au recyclage et à la fabrication d’aimants permanents de haute performance à base de terres rares. Leur fabrication repose sur des métaux stratégiques, notamment le néodyme et le dysprosium, aujourd’hui produits et transformés essentiellement en Chine. Dans un contexte de dépendance accrue et de tension sur les ressources, cette initiative s’inscrit dans une logique de sécurisation des approvisionnements en Europe.

Fruit de plus de dix ans de recherche et de développement, cette ligne pilote de 220 m², installée sur le site du CEA à Grenoble, a été retenue dans le cadre du plan France Relance et du programme européen Horizon Europe. Elle associe les expertises métallurgiques d’Orano, héritées notamment du cycle du combustible nucléaire, et les savoir-faire du CEA Liten en matière de métallurgie des poudres et d’économie circulaire.

Le projet s’articule autour de deux consortiums européens regroupant une vingtaine d’entreprises et des instituts de recherche. Le premier, appelé Magellan, vise à développer une voie de recyclage « en boucle courte » par fusion et doit permettre de conserver les terres rares sous leur forme métallique, tout en réduisant de manière significative l’intensité énergétique du procédé. Cette voie évitera également les séparations des différents éléments constitutifs des aimants permanents (Néodyme-fer-bore) et le recours à des procédés plus polluants.

Le second consortium, nommé Magnolia, est axé sur le recyclage par poudre des aimants frittés usagés riches en terres rares lourdes. Son objectif est de diminuer la quantité de dysprosium utilisée tout en préservant ou en améliorant les propriétés des aimants. Il doit aussi permettre une fabrication « net-shape », un procédé consistant à donner à la matière sa forme finale en une seule étape, afin d’en améliorer le rendement.

Une éolienne offshore nécessite environ six tonnes d’aimants permanents

L’ambition de ce second consortium dépasse les seules expérimentations techniques. Il vise aussi à développer une véritable filière industrielle, capable de collecter et de démanteler les moteurs électriques, de valoriser les aimants usagés et de fabriquer de nouveaux aimants plus performants, à un coût compétitif et moins consommateur de matières critiques. À terme, cette filière pourrait contribuer à fournir une partie des besoins européens en aimants permanents, en sachant qu’un moteur de traction de véhicule électrique nécessite entre un et deux kilos d’aimants, et une éolienne offshore de 10 MW (Mégawatt) environ six tonnes.

La question de la qualité des alliages sera l’un des défis technologiques de ce projet. Pour que ces aimants recyclés atteignent le niveau de performance exigé par les applications industrielles avancées, il est indispensable de garantir une pureté chimique et une homogénéité cristalline irréprochables. La moindre impureté ou variation dans la composition des alliages peut en effet altérer les propriétés magnétiques et compromettre la fiabilité des composants. Cette exigence impose donc des procédés de recyclage d’une extrême précision, capables de restructurer la matière pour restituer des aimants aux performances comparables à celles fabriquées à partir de matières premières vierges.

Ces aimants permanents à base de terres rares jouent un rôle crucial dans la transition énergétique, car ils entrent dans la fabrication de moteurs de véhicules électriques et des turbines d’éoliennes, et sont aussi essentiels à d’autres secteurs industriels, notamment celui de la défense. Les enjeux de ces différents projets sont d’autant plus importants que d’ici 2030, le CRM Act (Critical Raw Materials Act), un règlement européen, impose de recycler au moins 25 % de la consommation de matières stratégiques, dont les terres rares. Dans le même temps, le Net-Zero Industry Act, un autre règlement européen, reconnaît les aimants permanents comme des composants essentiels aux technologies bas-carbone et incite à réduire leur dépendance vis-à-vis d’un seul fournisseur.

Ostrea inaugure sa première usine de matériaux bas carbone à base de coquillages recyclés

Ostrea inaugure officiellement, ce 9 octobre 2025, son site de production situé à Thorigné-Fouillard, à proximité de Rennes, marquant ainsi le passage à l’échelle industrielle de son procédé de transformation de coquillages recyclés en matériau minéral. Cette usine dispose désormais d’une capacité de production quarante fois supérieure à celle du précédent atelier de l’entreprise, ce qui lui permettra de répondre à une demande croissante pour des matériaux innovants et durables.

Le matériau produit est conçu à partir de coquillages recyclés issus de la filière conchylicole. Il vise à substituer des pierres naturelles ou des composites classiques, sans recours à des résines synthétiques. En mobilisant une ressource locale jusque-là largement négligée – près de 250 000 tonnes de déchets coquillés sont enfouies chaque année en France –, Ostrea ambitionne de créer une voie d’économie circulaire dans le secteur des matériaux.

Le choix du territoire breton pour implanter cette usine n’est pas fortuit, il se fonde sur une synergie entre producteurs conchylicoles, collecteurs de déchets coquilliers et opérateurs industriels. Cette intégration territoriale permet à Ostrea de sécuriser ses approvisionnements en coquilles – majoritairement issues des moules et huîtres – et de limiter les coûts de transport, tout en consolidant un écosystème local autour de la valorisation circulaire.

La montée en puissance de la production est par ailleurs soutenue par un financement public-privé. Le projet industriel bénéficie d’un soutien de l’Ademe à hauteur de 500 000 €, en cofinancement pour l’acquisition d’équipements industriels. Il a également reçu l’appui du fonds Bpifrance Amorçage Industriel, de BNP Paribas Développement, de la Région Bretagne, de Rennes Métropole, et de divers investisseurs privés.

Au-delà de la dimension industrielle, cette inauguration témoigne d’une reconnaissance institutionnelle forte puisque le 3 septembre dernier, le ministre du Commerce extérieur, Laurent Saint-Martin, s’est rendu sur le site aux côtés d’acteurs régionaux et industriels afin de souligner le potentiel structurant de l’initiative pour la réindustrialisation bas carbone en Bretagne.

L’histoire d’Ostrea (fondée autour de 2022) illustre le passage de la R&D à l’industrialisation. Auparavant, elle exploitait un atelier de plus petite taille (quelques centaines de mètres carrés) pour tester ses formulations, démontrer la robustesse de son matériau et convaincre les premiers clients. En amont, la startup avait levé environ 5 millions d’euros pour financer son passage à l’échelle.

Cette levée avait déjà été mentionnée dans la presse économique pour souligner le positionnement d’Ostrea dans le secteur des matériaux durables. L’entreprise se présente en effet comme pionnière du « terrazzo marin », un matériau qui, selon ses promoteurs, combine esthétique, performance mécanique et empreinte environnementale réduite.

La nouvelle usine représente un bond technologique. La capacité multipliée par quarante ouvre de fait la voie à une montée en gamme et à des cadences compatibles avec des marchés plus larges (mobilier, plans de travail, revêtements intérieurs). Le matériau étant sans résine et à base minérale, il ambitionne de concurrencer les pierres naturelles tout en évitant les impacts liés à l’extraction.

Dans sa stratégie de développement, Ostrea prévoit un déploiement progressif dès 2026 en France puis à l’international, notamment en Europe, avec l’objectif de s’imposer parmi les acteurs des matériaux bas carbone.

Le procédé breveté constitue un actif central de l’entreprise. Ostrea affirme que son procédé ne requiert ni cuisson ni four, ce qui limite les émissions de CO₂ liées au process de fabrication. Cela en fait une alternative crédible aux solutions traditionnelles, pour peu que les propriétés mécaniques et la durabilité soient au rendez-vous dans les applications majeures du bâtiment et de l’aménagement intérieur.

L’équation économique reste exigeante. En effet, pour convaincre les donneurs d’ordres du BTP et du design, il faut que le coût de revient, la qualité et la fiabilité du matériau soient compétitifs. Ostrea compte jouer la carte de l’innovation technologique, de la proximité des ressources (circuit court) et du « label bas carbone » pour se différencier.

En Bretagne comme ailleurs, la réussite de ce projet pourrait inspirer d’autres initiatives de valorisation de déchets locaux, dans les matériaux et les filières industrielles. Si Ostrea parvient à confirmer ses performances techniques et à sécuriser ses débouchés commerciaux, cette usine pourrait devenir une référence de l’industrie circulaire respectueuse du carbone.

Le déroulé du black-out ibérique se confirme

Fin avril 2025, on se souvient que le black-out en Espagne et au Portugal a fait couler beaucoup d’encre, chacun y allant de son commentaire sur l’origine de l’événement. Comme prévu, les gestionnaires de réseaux européens regroupés dans ENTSO-E, ont effectué une enquête et ont publié récemment leur rapport factuel. Il sera suivi dans quelques mois du rapport final, le seul qui sera en mesure de fixer la cause initiale de la panne généralisée.

Le travail d’analyse a été mené par 45 experts, sous la direction de deux experts de gestionnaires de réseaux de transport (GRT) d’électricité européens non concernés par l’événement, Klaus Kaschnitz (Autriche) et Richard Balog (Hongrie). Les GRT espagnol (RE), portugais (REN) et français (RTE) ont participé activement pour fournir et analyser les données.

Ce rapport factuel établit rigoureusement le déroulement des faits, reconnaissant d’emblée que ce black-out est l’incident le plus sérieux que le système électrique européen ait vécu depuis 20 ans. Selon l’échelle de classification des incidents utilisée par les experts, cette panne dans la zone ibérique a atteint le niveau 3, le plus élevé.

Un effondrement en une minute

La description des faits correspond aux premiers éléments qui avaient été mis en avant quelques jours après le black-out. Elle différencie les situations avant et pendant la panne généralisée, ainsi que les mesures de restauration du courant. En voici les grandes lignes.

Le 28 avril 2025, avant le black-out, la production électrique espagnole est largement excédentaire grâce aux centrales renouvelables, avec environ 5 GW exportés. Aucune congestion n’est à remarquer, l’équilibre offre-demande est assuré et il n’y a pas de situation à risque sur le réseau. De 9h à 10h30, le voltage sur le réseau 400 kV-50 Hz espagnol commence à augmenter jusqu’à frôler 435 kV. Avant 12h03, aucune oscillation significative de fréquence au-delà de 20 mHz n’est détectée. De 12h03 à 12h22, deux vagues d’oscillations ont lieu en Europe, respectivement de 0,63 et 0,21 Hz, la première affectant d’abord l’Espagne et le Portugal. Quelques mesures des GRT permettent alors de revenir en dessous de 420 kV et moins de 20 mHz d’oscillations.

À 12h32, heure officielle de début de l’incident, 208 MW d’éolien et de photovoltaïque dans le nord et le sud de l’Espagne sont brutalement perdus du réseau de transport, en moins d’une minute. Simultanément, et pour une raison encore inconnue, le réseau de distribution subit une hausse de 317 MW. Dans les vingt secondes qui suivent, c’est l’emballement, des déconnexions majeures se produisent dans plusieurs régions (Grenade, Badajoz, Séville, Ségovia, Huelva, Caceres) à hauteur d’au moins 2 000 MW. Touchant seulement l’Espagne et le Portugal à cet instant, le phénomène conduit à une hausse du voltage dépassant 460 kV et à une chute de la fréquence, démarrant ainsi la perte de synchronisme avec le reste de l’Europe, malgré des actions automatiques de sauvegarde, dont la déconnexion du réseau marocain et du réseau français.

La coupure totale de courant est effective à 12h33 et 24 secondes. Chaque GRT concerné engage alors les procédures de restauration prévues selon la réglementation. Le démarrage de centrales hydroélectriques et à cycles combinés gaz, en Espagne et au Portugal, ainsi que les reconnexions avec les réseaux marocains et français permettent petit à petit de remettre sur pied le système électrique ibérique tout au long de l’après-midi. Certaines zones restent temporairement isolées et demandent un peu plus de délais pour bénéficier de nouveau d’électricité, mais l’essentiel est fait avant 20h. La restauration du système est considérée comme complète à 00h22 au Portugal et à 4h en Espagne.

Dès la nuit (pour l’éolien) et le matin du 29 avril (pour le solaire photovoltaïque), les productions renouvelables ont pu reprendre, participant à la reprise du système.

En attente du rapport final

En l’état, le rapport factuel d’ENTSO-E laisse pour la suite la détermination de la cause initiale des perturbations et de la façon dont la gestion du voltage a été conduite. Se pose notamment la question de la possibilité pour les centrales solaires de délivrer le réactif qu’elles sont en capacité de fournir. Le comportement de certains acteurs sera également analysé, tant du côté de la production (y compris pour les petites installations connectées au réseau de distribution) que des GRT.

D’ici la publication du rapport final, les discussions entre professionnels vont continuer pour savoir ce qui a pu engendrer ce black-out, même s’il se dit déjà en coulisse qu’un des éléments déclencheurs serait des tests de conduite inadéquats par un producteur sur une centrale photovoltaïque… Si tel était le cas, l’ENTSO-E ne manquerait pas de le relever et d’établir des recommandations pour la gestion des parcs de productions et la réponse à des défauts de voltage, en vue de rendre plus sûr l’essor des énergies renouvelables électriques.

Production locale des batteries : peut-on se passer d’une alliance sino-européenne ?

Stellantis et CATL[1] ont conclu un accord en décembre 2024 pour investir jusqu’à 4,1 milliards d’euros dans la création d’une coentreprise en vue de la construction d’une usine européenne de batteries. Située sur le site de Stellantis à Saragosse, l’usine profitera d’un emplacement stratégique en Espagne, deuxième producteur automobile européen après l’Allemagne.

Expansion de la Chine

Cet accord illustre la volonté européenne de déployer une production locale de batteries et de véhicules électriques. Cette ambition a pris la forme d’une alliance européenne des batteries (EBA) lancée par l’UE en 2017. Elle vise à doter le continent d’une capacité indépendante de production de batteries et de technologies de recyclage.

La batterie représente actuellement plus du tiers du coût du véhicule. La fabrication locale offre des avantages en matière de coûts de production, notamment en permettant de supprimer les coûts liés au transport international de composants et d’optimiser la chaîne d’approvisionnement.

Néanmoins, l’association Stellantis-CATL révèle l’échec des efforts des Européens pour développer seuls cette technologie. La dépendance vis-à-vis de la Chine et en particulier de CATL, le plus grand producteur mondial de batteries au lithium, soulève des interrogations. Le point le plus problématique est l’envoi par la Chine de sa propre main-d’œuvre sur le continent européen. En effet, comme l’explique le Financial Times, CATL prévoit de faire venir 2 000 employés qualifiés en Espagne. Est-ce une manière de maintenir sa domination en protégeant la propriété industrielle ?

En outre, la future usine de Saragosse sera la troisième de CATL en Europe puisque la société chinoise est déjà présente grâce à ses deux usines de productions de batteries en Allemagne et en Hongrie.

Un autre acteur majeur chinois souhaite s’affirmer sur le continent : il s’agit du constructeur BYD. En septembre dernier, celui-ci affirmait son intention d’implanter une unité de production de batteries sur le sol européen.

Une souveraineté industrielle européenne en peine

La faillite du suédois Northvolt a freiné la montée en puissance des usines de batteries européennes. Ayant fait le choix de la technologie NMC (Nickel, manganèse, cobalt) pour ses batteries, le groupe n’a pas su prévoir la demande des fabricants automobiles pour les batteries lithium-fer-phosphate (LFP).

Une erreur que n’a pas reproduite Stellantis. Pour contrer le coût élevé des véhicules électriques, le groupe a misé sur les batteries LFP aux prix plus abordables.

Le fait que le groupe Stellantis – pourtant coactionnaire du fabricant européen de batteries ACC[2] – ait  préféré se tourner vers CATL est révélateur des faiblesses de la filière européenne . Ce partenariat a débuté en novembre 2023 quand le tandem a signé l’accord stratégique pour l’approvisionnement local en LFP destiné à la production de voitures électriques en Europe.

ACC rencontre, de son côté, des difficultés : il a interrompu les projets de gigafactories en Italie et en Allemagne en juin 2024 pour modifier sa stratégie et miser sur la technologie de batteries LFP. Quant à sa première gigafactory en France (des batteries NMC), située dans le Pas-de-Calais, la cadence de production stagne. Le fabricant a finalement dû se résoudre à faire appel à un producteur chinois de batteries pour aider à la montée en puissance de sa ligne de production.

Preuve s’il en est qu’en matière de batteries, la Chine a une longueur d’avance sur l’Europe grâce à une expertise acquise de longue date.  


[1] Contemporary Amperex Technology Co., Limited 

[2] Automotive Cells Company.  Coentreprise réunissant Stellantis, Mercedes-Benz et TotalEnergies via sa filiale Saft.

Des structures métallo-organiques aux applications multiples : le Nobel de chimie 2025 ouvre la voie à une chimie durable

Le prix Nobel de chimie 2025 a été attribué à Susumu Kitagawa (Japon), Richard Robson (Australie) et Omar M. Yaghi (États-Unis) pour leurs travaux pionniers sur les metal-organic frameworks, ou MOFs. Ces matériaux sont constitués d’ions métalliques reliés par des ligands organiques, et forment des architectures tridimensionnelles hautement poreuses. Cette porosité interne donne naissance à une surface de très grande dimension. Ainsi, si l’on dépliait et étalait toute la surface interne d’un petit cristal de MOF – disons un cube de sucre d’un centimètre –, la surface totale obtenue pourrait dépasser celle d’un terrain de football (environ 7 000 m²). Autrement dit, un volume minuscule de matière offre une surface de contact immense, ce qui en fait un matériau très efficace pour absorber, stocker ou filtrer des molécules.

Les MOFs sont nés de la convergence entre la chimie inorganique et la chimie organique. Omar Yaghi, chimiste américain d’origine jordanienne, a introduit dans les années 1990 le concept de chimie réticulaire. Cette approche permet d’assembler des blocs moléculaires de manière prévisible, afin de créer des réseaux aux propriétés sur mesure. Richard Robson a, de son côté, jeté les bases théoriques de ces structures dès les années 1980, tandis que Susumu Kitagawa a su les stabiliser et démontrer leur utilisation pratique.

La prouesse de ces chercheurs tient dans leur capacité à maîtriser l’espace au niveau moléculaire. En créant des réseaux de cavités parfaitement ordonnées, ils ont permis le stockage, la capture ou la séparation de molécules en fonction de leur taille et de leur affinité chimique. Le jury du Nobel a d’ailleurs comparé ces matériaux au sac sans fond de Hermione Granger dans Harry Potter, capable de contenir bien plus que son apparence ne le laisse deviner.

Des applications concrètes et prometteuses

Les cadres métal-organiques se distinguent aujourd’hui comme des solutions concrètes aux grands défis environnementaux et énergétiques.

D’abord, pour le captage du dioxyde de carbone, certains MOFs sont capables de piéger sélectivement les molécules de CO₂ présentes dans les gaz d’échappement ou dans l’air ambiant, ouvrant la voie à des technologies plus efficaces de capture et de stockage du carbone.

Les MOFs trouvent aussi des applications dans la purification de l’eau. Leur structure poreuse permet d’adsorber des polluants persistants, tels que les substances per- et polyfluoroalkylées (PFAS), connues sous le nom de polluants éternels pour leur résistance à la dégradation.

Autre application émergente : la récolte d’eau dans l’air aride. Certains MOFs développés par l’équipe de Yaghi peuvent absorber la vapeur d’eau atmosphérique, puis la restituer sous forme liquide à température ambiante, une innovation qui pourrait transformer l’accès à l’eau dans les zones désertiques.

Dans le domaine de l’énergie, les MOFs présentent également un fort potentiel pour le stockage de gaz légers tels que l’hydrogène ou le méthane. Leur densité de pores leur confère une capacité de stockage élevée sans nécessiter de fortes pressions, ce qui représente un atout pour le développement de filières énergétiques bas carbone.

Enfin, ces structures moléculaires se prêtent à la catalyse chimique, leur grande surface interne et leur modularité permettant de créer des sites actifs capables d’accélérer des réactions chimiques tout en réduisant la consommation énergétique ou les déchets associés.

Des défis à relever

Si les MOFs suscitent un tel engouement, leur industrialisation reste un défi. Leur stabilité en conditions réelles (humidité, chaleur, pH) demeure un enjeu, tout comme la scalabilité de leur production à grande échelle. Les chercheurs s’efforcent également d’améliorer leur durabilité et leur intégration dans des systèmes industriels, notamment pour le traitement de gaz ou la dépollution des eaux.

Mais ces obstacles n’enlèvent rien à l’impact du Nobel 2025. Ce dernier récompense en effet une nouvelle manière de penser la matière, à l’intersection de la chimie, de la physique et de l’ingénierie. À travers cette distinction, la communauté scientifique souligne que l’avenir de la chimie ne réside plus seulement dans la découverte de nouvelles molécules, mais dans l’art de les assembler intelligemment pour relever les défis du siècle.

Techniques de l’Ingénieur partenaire des Rendez-vous Carnot 2025

Les Rendez-vous Carnot sont l’événement incontournable pour transformer vos ambitions en innovations concrètes. Il rassemble en un seul lieu les 39 Instituts Carnot et l’ensemble des acteurs de la recherche et du transfert technologique, offrant aux entreprises un accès direct à des solutions de R&D sur mesure.

Cette année, Les Rendez-vous Carnot proposent une expérience enrichie, alliant rencontres qualifiées, conférences d’experts, démonstrations technologiques et moments de networking privilégiés. Pendant deux jours, l’innovation se vit à travers des échanges concrets entre acteurs de la R&D, structures de recherche, grands groupes, startups et investisseurs.

L’objectif : connecter les besoins en innovation aux expertises scientifiques et technologiques pour créer des synergies durables.

Plus d’informations sur le site officiel

Inscrivez-vous ici.

L’informatique quantique peut-elle aider l’IA ?

Durant des années, l’IA et l’informatique quantique ont été présentées comme des frères ennemis. Chacun mettait en avant ses qualités à coup de prix Nobel. En 2022, un trio de physiciens, dont le Français Alain Aspect, est récompensé pour une découverte en lien avec le calcul quantique.

Deux ans plus tard, des chercheurs ont été primés pour le développement de méthodes pionnières en IA et d’outils qui ont résolu des problèmes difficiles en biochimie pour prédire la forme tridimensionnelle des molécules.

Même si l’on parle de plus en plus de quantique, l’IA fait encore tourner les têtes pour ses capacités à révolutionner de nombreux domaines. Les grands modèles de langage (LLM) ont en effet fait des progrès significatifs en matière d’automatisation, de compréhension du langage naturel et de résolution créative de problèmes, y compris au-delà même du langage humain.

Cependant, ces modèles exigent une puissance de calcul considérable, tant pour leur formation que pour leur déploiement. Les architectures matérielles traditionnelles, basées sur l’informatique classique, ont du mal à répondre à ces besoins.

L’époque fratricide semble donc révolue. Scientifiques, ingénieurs et investisseurs sont aujourd’hui convaincus que l’union entre l’IA et l’informatique quantique peut être bénéfique pour tous. L’IA et l’informatique quantique doivent donc évoluer ensemble.

Il est essentiel d’exploiter cette puissance combinée de l’IA et de l’informatique quantique pour relever les principaux défis technologiques et sociétaux dans des domaines tels que la découverte de médicaments, la modélisation climatique et la fabrication de pointe, qui nécessitent des capacités de calcul que les méthodes classiques actuelles ne peuvent tout simplement pas gérer.

Peu de recherches sur les algorithmes d’IA quantique

Publié en mai dernier, un livre blanc examine et explore les différents points de convergence entre l’informatique quantique et l’intelligence artificielle (IA). Il décrit comment l’informatique quantique pourrait soutenir le développement de solutions IA innovantes. Il examine également des cas d’utilisation de l’IA classique qui peuvent renforcer la recherche et le développement dans les technologies quantiques, en mettant l’accent sur l’informatique quantique et la détection quantique.

« Ces deux technologies ne sont pas opposées, mais c’est un sujet très compliqué. Une chose est sûre : nous savons que l’IA classique aide à mettre au point les ordinateurs quantiques. En revanche, est-ce que l’informatique quantique est capable de générer des avancées au niveau de l’IA elle-même en faisant tourner des algorithmes sur des ordinateurs quantiques ? Là, c’est moins évident. Il y a un gros travail d’analyse à faire », précise Olivier Ezratty, cofondateur du Quantum Energy Initiative et qui a participé à la rédaction du livre blanc mentionné plus haut.

Aujourd’hui, les ordinateurs quantiques sont limités par le nombre et la qualité des qubits qu’ils peuvent utiliser. Les algorithmes quantiques d’IA ne peuvent s’améliorer qu’au rythme de l’évolution du matériel lui-même, ce qui signifie que la recherche et le développement dans ces deux domaines doivent rester synchronisés.

Par ailleurs, la plupart des recherches actuelles en IA se concentrent sur l’informatique classique. L’expertise nécessaire pour concevoir des algorithmes d’IA quantique évolutifs et pratiques reste donc très faible.

Le développement de cette discipline émergente qu’est l’ingénierie logicielle hybride représente une opportunité intéressante pour l’Europe. Elle permettrait de renforcer sa compétitivité industrielle. L’Europe dispose de solides capacités de recherche dans ces deux domaines, mais elle est prise entre la forte concurrence des États-Unis et de la Chine.

La volonté politique européenne de développer une réelle souveraineté technologique sera déterminante…

Quand le retard de la PPE3 freine la décarbonation industrielle française

Depuis plusieurs années, la France peine à publier sa troisième « version » de la PPE, pourtant cruciale pour définir les priorités énergétiques de 2025 à 2035. Initialement attendue pour 2023, la PPE3 accumule aujourd’hui deux ans de retard, suscitant des alertes du monde industriel et des acteurs des énergies renouvelables quant à la lisibilité du cadre législatif et réglementaire. Le Syndicat des énergies renouvelables (SER) réclame une publication « sans délai » de ce texte structurant afin de redonner de la visibilité aux porteurs de projets.

L’un des domaines les plus affectés est celui du solaire photovoltaïque. Dans la version la plus récente de la PPE3, l’objectif de puissance installée pour 2035 a été revisité à la baisse, passant de 75-100 GW (version initiale) à 65-90 GW. Cette cible est désormais ventilée selon les types d’installations : 41 % pour les toitures, 5 % pour les petites installations au sol et 54 % pour les grandes. Le volet industriel du solaire n’en sort pas indemne : la PPE3 prévoit de produire jusqu’à 10 GW de composants (silicium, wafers, cellules, modules) d’ici 2035, mais sans garanties fermes ni calendrier contraignant.

Le retard de la PPE3 crée un vide dans le pilotage des grandes filières d’investissement : autorisations administratives, appels d’offres, plans de financement des industriels, et attractivité des projets à horizon long terme sont ralentis. Dans le secteur électrique, seize organisations professionnelles ont signé un appel pour que le gouvernement publie « sans délai » le décret PPE3, rappelant que les bases juridiques existent déjà après des votes au Parlement. De même, des fédérations et syndicats ont adressé une lettre ouverte aux parlementaires pour accélérer ce dossier stratégique.

Parallèlement, la filière hydrogène bas-carbone, l’un des piliers de la décarbonation des usages industriels difficiles à électrifier, est la plus durement touchée. Le gouvernement a récemment acté une révision à la baisse de ses ambitions : au lieu de viser 6,5 GW d’électrolyse pour 2030, l’objectif devient 4,5 GW, et celui de 10 GW pour 2035 est ramené à 8 GW. Cette « reformatation » s’explique par des retards technologiques, des coûts de production élevés et le manque de maturité industrielle de la filière. Ces orientations revues sont d’ailleurs inscrites dans le document soumis à consultation publique de la PPE3.

Cette révision alimente des doutes sur la compétitivité de l’hydrogène « vert » : les industriels européens font état d’un écart entre les annonces ambitieuses et la réalisation concrète des projets – seuls 2 % des capacités annoncées correspondraient à des installations achevées à la date prévue. En France, la filière fait face à des retards, voire des abandons de projets : l’usine d’électrolyseur d’Elogen est à l’arrêt faute de commandes, et certains territoires se désengagent de projets hydrogène faute de perspectives suffisantes. La PPE3 semble intégrer cette crispation : les objectifs ont été « lissés » pour tenir compte du décalage anticipé entre les annonces et la réalité du marché.

La conséquence directe de ce manque de feuille de route est une perte de confiance dans l’investissement industriel. Les acteurs de l’énergie (renouvelables, nucléaire, électricité) considèrent que l’absence prolongée du décret PPE3 fragilise la relance des grands appels d’offres, le développement des infrastructures et la stabilité des portefeuilles de projets. Certains chefs d’entreprise parlent de « défiance » croissante vis-à-vis des pouvoirs publics, tandis que d’autres redoutent des départs d’activité ou des arbitrages vers des marchés moins risqués.

Enfin, le débat institutionnel autour de la nature juridique de la PPE3 – décret plutôt que loi – alimente la critique d’un manque de débat démocratique sur des choix industriels lourds. Dans un contexte politique instable, le nouveau gouvernement devra trancher rapidement pour ne pas paralyser la transition bas carbone.

Le recentrage des ambitions hydrogène et la révision des objectifs photovoltaïques, s’ils sont symptomatiques d’un pragmatisme imposé, fragilisent les trajectoires technologiques à long terme. Pour redonner confiance aux industriels, une lisibilité accrue sur les mécanismes de soutien et les calendriers apparaît urgente.

La semaine de remise des prix Nobel a commencé : le Nobel de médecine 2025 récompense trois pionniers de la tolérance immunitaire périphérique

Une avancée majeure dans la compréhension du système immunitaire

Le comité Nobel a récompensé les chercheurs américains Mary E. Brunkow et Fred Ramsdell, ainsi que le Japonais Shimon Sakaguchi, pour leurs découvertes fondamentales sur la tolérance immunitaire périphérique, un mécanisme essentiel qui empêche le système immunitaire de s’attaquer aux cellules saines de l’organisme.

Cette tolérance repose sur l’action de cellules spécialisées appelées cellules T régulatrices (Treg), qui jouent un rôle de « gardiens » du système immunitaire. Elles empêchent les lymphocytes T, normalement chargés de détruire les agents pathogènes, de s’attaquer aux cellules du corps.

Trois trajectoires scientifiques convergentes

Shimon Sakaguchi, professeur à l’Université d’Osaka, est reconnu comme le pionnier de la découverte des cellules T régulatrices. En 1995, il identifie pour la première fois cette population cellulaire, remettant en question le dogme selon lequel la tolérance immunitaire ne dépendait que de l’élimination des cellules auto-réactives dans le thymus (tolérance centrale).

Quelques années plus tard, Mary E. Brunkow et Fred Ramsdell identifient une mutation dans le gène FOXP3 chez des souris atteintes d’une maladie auto-immune sévère. Cette mutation est également retrouvée chez des patients humains atteints du syndrome IPEX, une pathologie rare et grave. Leur découverte, publiée en 2001, démontre que FOXP3 est un facteur de transcription indispensable au développement et au fonctionnement des cellules T régulatrices.

En 2003, Sakaguchi établit le lien entre FOXP3 et les cellules T régulatrices, confirmant que ce gène est le « chef d’orchestre » de leur différenciation et de leur activité.

Des implications thérapeutiques majeures

Les travaux des trois lauréats ont ouvert un nouveau champ de recherche en immunologie. En comprenant comment les cellules T régulatrices fonctionnent, les scientifiques ont pu envisager de nouvelles stratégies thérapeutiques pour traiter des maladies auto-immunes comme le diabète de type 1, la sclérose en plaques ou encore la polyarthrite rhumatoïde.

Par ailleurs, ces découvertes ont des implications en immunothérapie du cancer. En effet, les cellules T régulatrices peuvent inhiber la réponse immunitaire contre les cellules tumorales. Les chercheurs explorent donc des moyens de moduler leur activité pour renforcer l’immunité antitumorale sans déclencher d’auto-immunité).

Une reconnaissance internationale

Le prix Nobel de médecine 2025, doté de 11 millions de couronnes suédoises (environ 950 000 euros), est partagé à parts égales entre les trois chercheurs. Il s’agit du 116e prix Nobel de médecine depuis sa création en 1901).

Le comité Nobel a salué des travaux qui « ont posé les bases d’un nouveau domaine de recherche et stimulé le développement de nouveaux traitements, par exemple contre le cancer et les maladies auto-immunes ».

Perspectives

En récompensant Mary E. Brunkow, Fred Ramsdell et Shimon Sakaguchi, le comité Nobel met en lumière l’importance de la régulation du système immunitaire dans la santé humaine. Leurs découvertes sur la tolérance immunitaire périphérique et les cellules T régulatrices ouvrent la voie à des traitements innovants, à la croisée de l’immunologie fondamentale et de la médecine de précision.

Vers un « verrouillage fossile » des infrastructures numériques : l’alerte du Shift Project

Dans un éditorial récent de L’Usine Nouvelle, le questionnement central est posé : « Les datacenters vont-ils relancer les énergies fossiles en Europe ? »

Le point de départ de cette interrogation est un rapport du Shift Project, fruit de 15 mois de travail, qui met en lumière la trajectoire non maîtrisée de la consommation électrique liée aux infrastructures numériques (câblage, serveurs, refroidissement, alimentation).

Le Shift Project s’inquiète du fait que cette croissance pourrait se traduire par un recours accru aux centrales fossiles, notamment au gaz, pour assurer la flexibilité du réseau électrique face à des pointes de demande.

Mécanismes du « verrouillage fossile » numérique

Un point clef du raisonnement du Shift Project est celui de la flexibilité. En période de forte demande ou d’intermittence des renouvelables, les opérateurs de datacenters pourraient se tourner vers des sources fossiles à haut rendement ou à déploiement rapide, notamment le gaz naturel, pour garantir la continuité de service.

Un exemple frappant est donné, à travers le centre Colossus de xAI, celui-ci étant équipé d’une capacité de 400 MW de générateurs mobiles au gaz naturel. Ce choix illustre comment, dans un paradoxe apparent, des infrastructures de pointe pourraient dépendre d’équipements fossiles pour garantir leur fiabilité énergétique. Le rapport signale que, dans l’intervalle, les réseaux électriques pourraient être conduits à accroître leurs capacités gazières, comme c’est le cas aux États-Unis, avec des projections de 20 GW supplémentaires entraînant potentiellement jusqu’à 80 MtCO₂/an sans capture de carbone (CCS).

D’un point de vue géographique, l’Irlande offre quant à elle un précédent. L’installation massive de datacenters a en effet conduit à une situation dans laquelle plus de 20 % de l’électricité produit était destinée à la filière des centres de données, entraînant des tensions sur le réseau local.

Des scénarios contrastés selon le mix énergétique et les régulations

L’enjeu principal tient à la part d’énergie fossile dans le mix électrique qui alimentera les datacenters. Dans un article de CarbonBrief sur l’usage énergétique des centres de données, il est souligné que « l’usage fossile va vraisemblablement s’étendre pour alimenter les datacenters, mais les approvisionnements en énergie propre devraient croître plus vite ». En d’autres termes, la dépendance aux sources fossiles dans ce secteur ne serait pas une fatalité, à condition que la production renouvelable suive le rythme et que des mécanismes de gouvernance soient mis en place.

Le rapport de l’IEA (Agence internationale de l’énergie) sur l’usage énergétique des datacenters apporte une perspective plus technique sur les projections. Il recommande de nuancer les estimations d’énergie consommée par l’IA (qui pourraient atteindre entre 200 et 400 TWh en 2030 dans certaines hypothèses) et souligne le rôle déterminant du mix électrique utilisé pour alimenter ces installations.

Par ailleurs, plusieurs analystes alertent sur le risque que la demande croissante des datacenters accapare une grande part des nouveaux investissements en énergies renouvelables, ce qui pourrait « cannibaliser » l’effort de décarbonation dans d’autres secteurs critiques.

En Europe : risques, tensions et défis réglementaires

En Europe, la planification énergétique de la filière numérique apparaît comme insuffisante selon le rapport du Shift Project. Le think tank estime que les raccordements validés aujourd’hui satureront leur capacité d’ici dix ans, ce qui pourrait générer des conflits d’usage sur le réseau électrique national.

À l’échelle du continent, le rapport du Shift Project anticipe que la part de la consommation électrique dédiée aux datacenters pourrait atteindre 8 % d’ici 2035, entraînant le recours à davantage d’émissions de gaz.

Dans ce contexte, les choix de régulation – quotas d’émissions, subventions ciblées, mécanismes d’injection d’énergie renouvelable – seront décisifs pour éviter que le développement numérique ne devienne un cheval de Troie pour la reprise des fossiles.

Quelles perspectives possibles ?

Le scénario pessimiste est celui d’un « verrouillage fossile » : face à des pointes de demande et à l’absence de capacité de stockage ou de régulation suffisante, les opérateurs pourraient continuer à utiliser des générateurs fossiles pour assurer la résilience, verrouillant ainsi un modèle à haute émission.

Mais une trajectoire plus vertueuse est concevable. Si l’augmentation des capacités renouvelables (éolien, solaire, stockage) est pilotée de manière stratégique, et si des normes fortes de sobriété numérique et d’efficacité énergétique sont imposées, on pourrait éviter que la croissance du secteur numérique ne fasse reculer les objectifs climatiques.

Le rôle des États et des régulateurs sera central si l’on souhaite éviter l’accroissement exponentiel des émissions parallèlement au nombre croissant de datacenters. Cela passe par imposer des plafonds, contraindre l’usage de sources fossiles d’appoint, favoriser les interconnexions, anticiper les goulots d’étranglement, et intégrer les datacenters dans les schémas nationaux de transition énergétique.

Obsolescence logicielle : l’INEC se joint à la pétition contre la mort programmée de Windows 10

Windows 11 est sorti en 2021, mais ce nouveau système d’exploitation est malheureusement réservé aux ordinateurs de moins de quatre ans répondant à des critères techniques particuliers. La fin de Windows 10 pourrait ainsi envoyer « à la poubelle » jusqu’à 400 millions d’ordinateurs dans le monde, encore largement fonctionnels !

Pour Emmanuelle Ledoux, directrice générale de l’INEC, ce non-sens du point de vue de l’économie circulaire est aussi en contradiction totale avec la loi AGEC.

 

Emmanuelle LEDOUX est directrice générale de l’INEC (Crédit : INEC)

  L’Institut National de l’Économie Circulaire (INEC) est un think tank dont la mission est de promouvoir la transition d’une économie linéaire à une économie circulaire.

Emmanuelle Ledoux en est la directrice générale.

Elle a notamment contribué à une étude démontrant la nécessité d’une meilleure gestion des ressources pour réussir la décarbonation « SNBC sous contrainte de ressources » en juin 2022.

Elle a aussi coécrit, avec Grégory Richa, l’ouvrage « Pivoter vers l’industrie circulaire » publié aux éditions Dunod en octobre 2022.

Techniques de l’ingénieur : Quel message voulez-vous faire passer en vous joignant à cette pétition ?

Emmanuelle Ledoux: Ce sujet soulève plusieurs problématiques. Il y a d’une part une question de coût. Ce n’est pas pour rien que la pétition lancée par l’association Halte à l’Obsolescence Programmée (HOP) s’appelle « Non à la taxe Windows », car le remplacement des 400 millions d’ordinateurs dans le monde pourrait engendrer un coût de 10 milliards d’euros pour les utilisateurs.

Si on prend le cas de la France, certains départements estiment que le remplacement de leur parc informatique leur coûterait plus d’un million d’euros, ce qui est énorme ! Rien que pour la ville de Paris, sur les 40 000 ordinateurs du parc informatique, 14 000 sont potentiellement concernés.

Mais l’INEC souhaitait aussi faire passer un autre message : nous avons voulu rappeler que la loi française définit et restreint l’obsolescence prématurée des appareils électroniques depuis la loi AGEC (article 27). En clair, le législateur français a pris position contre la fin de vie prématurée d’appareils numériques encore fonctionnels, et l’INEC appelle simplement à faire respecter cette loi ! Nous attendons donc une décision des pouvoirs publics sur ce point.

Ces problématiques d’obsolescence concernent-elles d’autres domaines ?

Je trouve que ce sujet illustre parfaitement l’économie circulaire dans toute sa complexité et la question de l’obsolescence doit nous interroger sur l’adéquation entre puissance de calcul, fonctionnalités proposées et usage réel.

Or, la mise au rebut de milliers d’ordinateurs parfaitement fonctionnels et toujours adaptés à l’usage est problématique. Par exemple, dans les grosses structures, le parc informatique est régulièrement renouvelé, bien que fonctionnel, sans que cela vienne d’une demande des utilisateurs.

Et on constate aussi que plus on monte dans l’organigramme, plus les ordinateurs sont performants, alors que les usages se limitent souvent à du travail de bureautique qui ne demande pas de puissance de calcul. L’ordinateur, c’est un peu comme la voiture de fonction : un symbole de puissance. D’ailleurs, les voitures sont également concernées par l’obsolescence logicielle, puisqu’elles sont de plus en plus technologiques.

On peut étendre ce constat à de nombreux objets de notre quotidien, notamment les smartphones, mais aussi l’électroménager, qui est de plus en plus « tech ». Est-il réellement nécessaire de posséder un lave-linge ou un lave-vaisselle bourré de capteurs, d’électronique, connecté et avec 17 programmes, quand on sait que la plupart des gens en utilisent seulement 2 ou 3 ? Par ailleurs, plus un appareil intègre d’électronique, plus il coûte cher et plus il risque de tomber en panne !

N’est-ce pas aussi l’occasion de sortir de notre dépendance à Microsoft ?

Quand on parle d’économie circulaire, il y a toujours, en toile de fond, cette idée de lutter contre la dépendance à l’import d’un certain nombre de produits ou services. Cette obsolescence programmée de Windows 10 est peut-être le moment de remettre en question notre dépendance à Windows.

C’est difficile, car nous sommes habitués à naviguer dans l’univers Microsoft depuis des décennies. Et le fait que l’éducation nationale utilise ses licences contribue à alimenter ce monopole, mais c’est tout à fait envisageable, car l’Open Source n’est plus aussi complexe à utiliser qu’il y a 20 ans et les interfaces sont désormais bien plus accessibles.

Microsoft peut-il faire machine arrière ou espère-t-il que le monde plie ?

On peut reprocher à Microsoft son manque d’ambition sur les questions d’obsolescence logicielle. Néanmoins, je pense aussi que, compte tenu des millions de licences Windows qui sont en jeu, Microsoft n’a pas intérêt à se fâcher avec l’administration publique, donc des compromis sont sans doute possibles.

Il est important que nous puissions avoir le choix de faire durer ces ordinateurs le plus longtemps possible ou de les remplacer, mais il faudra se battre pour ça et c’est tout l’intérêt de cette pétition qui demande tout simplement le maintien des mises à jour de sécurité non payantes de Windows 10 a minima jusqu’à 2030.

Et dans le cas contraire, l’INEC appelle simplement les autorités à faire respecter la loi AGEC qui interdit de réduire délibérément la vie d’un produit !

Nota bene

Microsoft devait cesser de mettre à jour gratuitement Windows 10, le 14 octobre 2025. Mais le 26 septembre, Microsoft a décidé d’ouvrir la voie vers une prolongation des mises à jour pendant un an, pour les particuliers européens. Néanmoins, pour les professionnels, ces mises à jour demeureront payantes et ne pourront dépasser trois ans.

Revue du Magazine d’Actualité #48 du 29 septembre au 3 octobre

L’actualité est marquée par des choix stratégiques et des signaux d’alerte.


🌍 ÉNERGIE & ENVIRONNEMENT

La production de ressources fossiles augmente encore et met en péril l’Accord de Paris

Un rapport international souligne que les États continuent de miser sur les énergies fossiles, malgré les engagements climatiques. Cette trajectoire compromet sérieusement les objectifs de l’Accord de Paris et accentue les risques environnementaux.
💨 Fossiles en hausse : un signal rouge pour le climat

À Créteil, l’énergie des déchets met en route bus et camions à l’hydrogène

La ville de Créteil transforme ses déchets en hydrogène pour alimenter sa flotte de véhicules. Ce projet innovant illustre une convergence réussie entre gestion des déchets et mobilité durable.
🚌 Hydrogène local : quand les déchets propulsent les transports

🧠 INNOVATION & TECHNOLOGIES

Reproduire le système auditif des insectes pour la robotique

Des chercheurs s’inspirent du système auditif des insectes pour améliorer les capacités sensorielles des robots. Cette approche bio-inspirée pourrait ouvrir la voie à des machines plus réactives et autonomes.
🐝 Bio-inspiration : quand les insectes parlent aux robots

L’IA en entreprise est-elle créatrice ou destructrice d’emplois ?

L’intelligence artificielle bouleverse les modèles organisationnels. L’article explore ses effets ambivalents sur l’emploi, entre automatisation, transformation des métiers et création de nouvelles fonctions.
🤖 IA et emploi : entre disruption et adaptation

🏭 INDUSTRIE & SOCIÉTÉ

Décarbonation : les promesses de l’industrie française à l’épreuve des chiffres

Malgré les engagements affichés, les résultats concrets de la décarbonation industrielle restent modestes. L’article met en lumière les écarts entre les ambitions politiques et les indicateurs de performance.
💶 Décryptage des chiffres derrière les promesses vertes

Industrie française et limites planétaires : le compte à rebours s’accélère

Face aux pressions écologiques, l’industrie française est sommée de revoir ses modèles. Cet article analyse les tensions croissantes entre développement économique et respect des seuils environnementaux.
🌾 L’industrie face à ses propres limites

🌐 GÉOPOLITIQUE & STRATÉGIE

Europe 2025 : l’Agence européenne de l’environnement alerte sur un risque systémique pour le « mode de vie » européen

Un rapport de l’AEE met en garde contre une série de menaces systémiques qui pourraient bouleverser le quotidien des Européens. L’analyse appelle à une transformation profonde des politiques publiques.
🔊 Mode de vie européen : une alerte environnementale majeure


👓 Bon weekend et à la semaine prochaine  !

Décarboner le ciment : Ecocem mise sur l’innovation en France

Ecocem[1] a officiellement inauguré un centre de recherche et d’innovation à Chilly-Mazarin, en Ile-de-France, doté d’un investissement de plus de 10 millions d’euros. Ce nouvel établissement a pour mission de soutenir le développement de ses technologies de ciment à faible émission de carbone et d’accélérer leur adoption industrielle.

Le centre, d’une surface de 3 300 m², s’inscrit dans la feuille de route technologique d’Ecocem, qui vise à repousser les limites des matériaux cimentaires par des substituts au clinker, des matériaux cimentaires complémentaires (supplementary cementitious materials, SCM) ou d’autres adjuvants minéraux. Grâce à cette infrastructure, l’entreprise entend dépasser les progrès déjà apportés par sa technologie ACT (Advanced Cement Technology), aujourd’hui proche de la phase de commercialisation.

ACT est une innovation majeure développée par Ecocem pour réduire de façon drastique l’empreinte carbone du ciment. La technologie combine des substituts largement disponibles, un dosage optimisé et des procédés compatibles avec les installations existantes. Elle permettrait de réduire jusqu’à 70 % les émissions par rapport à un ciment classique. Le nouveau centre doit favoriser le perfectionnement d’ACT, l’expérimentation de variantes technologiques et la validation de nouveaux matériaux compatibles avec les contraintes industrielles et réglementaires.

L’équipe de recherche interne est dirigée par Roberta Alfani. Elle compte trente ingénieurs et techniciens aux profils multidisciplinaires, provenant de plus de dix nationalités. Elle travaille sur le ciment propre, les mortiers industriels et les solutions de chimie du bâtiment, tout en collaborant avec des universités et des acteurs de l’infrastructure. L’un des objectifs affichés est de soutenir l’élaboration de normes industrielles et d’orienter les pratiques de l’ensemble de la filière ciment-béton.

L’inauguration a été marquée par la présence de Niall Burgess, ambassadeur d’Irlande en France et Monaco, soulignant le rôle d’Ecocem comme pont industriel entre l’Irlande et la France. Le groupe, fondé en Irlande, est solidement implanté sur le marché français. Il s’appuie sur une stratégie d’industrialisation accélérée. Ainsi, récemment, Ecocem a annoncé un plan d’investissement de 170 millions d’euros pour installer quatre nouvelles lignes de production ACT en France, en complément d’une ligne initiale à Dunkerque, afin de porter sa capacité à 1,9 million de tonnes par an. Ces extensions permettront, selon ses estimations, d’éviter 800 000 tonnes de CO₂ par an et de créer environ 60 emplois pérennes.

À ce jour, Ecocem revendique déjà 18 millions de tonnes de CO₂ évitées grâce à ses innovations. Le nouveau centre devra rendre possible une réduction encore plus ambitieuse, avec une cible de 90 % de diminution des émissions dans la filière ciment d’ici 2030. L’entreprise affirme vouloir atteindre la neutralité carbone pour le ciment dès 2040, soit dix ans avant de nombreuses prévisions globales, sans recourir massivement à la capture et au stockage du carbone (CCUS).

Ce choix technologique est stratégique. En effet, la plupart des cimentiers misent sur la CCUS comme élément central de leur stratégie de décarbonation. Ecocem, en s’appuyant sur la chimie des matériaux et l’optimisation des formulations, propose une voie alternative. Le défi pour le secteur est immense : le ciment représente environ 8 % des émissions mondiales de CO₂, une part comparable à celle de l’aviation ou du transport maritime.

Cependant, réussir la transition implique plusieurs exigences. Les formulations alternatives doivent notamment répondre aux performances mécaniques, à la durabilité, aux coûts, à la compatibilité avec les procédés existants, et à l’acceptation par les maîtres d’ouvrage, les bureaux de contrôle et les standards normatifs. Le nouveau centre devra aussi alimenter les validations en conditions réelles.

Enfin, la dimension partenariale est essentielle. Ecocem prévoit ainsi de travailler avec des industriels du bâtiment, des laboratoires universitaires, des institutions de normalisation et des acteurs de l’infrastructure pour accélérer l’adoption de ses technologies bas carbone. Ce hub français se présente ainsi non seulement comme un moteur interne de R&D, mais aussi comme un point de convergence de l’écosystème européen du ciment « vert ».


[1] Ecocem

Des aimants commutables à la lumière, actifs pendant des heures : une avancée moléculaire prometteuse

Les photoswitches – molécules qui changent d’état sous l’effet de la lumière – sont au cœur de nombreuses ambitions technologiques, allant de la photopharmacologie aux mémoires optiques. Pourtant, leur application dans des dispositifs pratiques est souvent limitée par la durée de vie très courte des états actifs, qui n’est généralement que de quelques millisecondes, et par la difficulté de fonctionnement en phase solide (sous forme de film mince, cristal, polymère…). Cela limite l’intégration de ces molécules dans des dispositifs électroniques ou optiques. C’est dans ce contexte qu’une équipe de chimistes tchèques (University of Chemistry and Technology, Prague, et l’Institute of Organic Chemistry and Biochemistry) présente une innovation marquante : un nouveau type de photoswitches capables de passer, après irradiation par la lumière, d’un état non magnétique à un état actif magnétique durable, 50 % des molécules étant encore dans l’état actif au bout de six heures. Cette avancée très importante pourrait enfin permettre à l’information d’être stockée et exploitée durant un temps significatif.

Principe et originalité de l’étude

Une nouvelle molécule photoswitche capable d’être incorporée dans une matrice polymère
Des chimistes tchèques ont développé une nouvelle molécule photoswitche capable d’être incorporée dans une matrice polymère © UCT Prague

Pour arriver à ce résultat, les chercheurs ont conçu un photoswitch (acylhydrazone à base de thiényle) qui, lorsqu’il est irradié, subit non
seulement une isomérisation (réarrangement structural) mais aussi une transformation électronique fondamentale, passant d’un état fermé (sans spin non apparié) à un état radicalaire à deux électrons parallèles (triplet). Ce passage « closed to open-shell » est rare, surtout si l’on exige que le nouvel état soit stable suffisamment longtemps pour être utile dans des technologies.

Les molécules ont ainsi montré une conservation de cette forme open-shell pendant plusieurs heures – un ordre de grandeur bien au-delà des millisecondes habituelles pour des états triplets photogénérés. De plus, le commutateur fonctionne non seulement en solution, mais aussi en phase solide (par exemple dans une matrice PMMA). L’état magnétique s’avère être lisible par des techniques magnétiques ou par spectroscopie électronique, ce qui permet de découpler l’« écriture » (par la lumière) et la « lecture » (par le magnétisme). Enfin, l’« effacement » de l’information est possible par une impulsion électrochimique, ce qui confère au système les trois temps d’un dispositif mémoire : écrire, lire, effacer. Ces résultats novateurs ont été publiés dans la revue Journal of Material Chemistry C.

De nombreuses applications possibles

Cette découverte ouvre plusieurs perspectives dans des domaines de pointe. En spintronique et mémoire moléculaire, le fait de pouvoir « écrire » des spins via la lumière et de les « lire » magnétiquement pourrait permettre la mise au point de mémoires moléculaires compactes et à faible consommation. Elle pourrait s’avérer très intéressante également en chimie, pour la photocatalyse radicalaire (utilisation de la lumière pour générer des radicaux libres via un catalyseur, afin de réaliser des réactions chimiques qui seraient difficiles autrement). En condition photocommutée, la molécule peut agir en effet comme initiateur radicalaire. Dans les expériences présentées, l’équipe a utilisé l’état radicalaire pour introduire un atome de brome (Br) dans la molécule de toluène. Cela illustre la capacité du système à déclencher des réactions radicalaires sous contrôle lumineux.

Une autre utilisation plus inattendue, mais très prometteuse, est celle de la photodynamique antimicrobienne ciblée : après irradiation, la molécule est capable de produire des espèces réactives de l’oxygène (ROS) qui détruisent des bactéries résistantes aux antibiotiques (par exemple Staphylococcus aureus) avec une efficacité > 99,99 %, mais seulement dans la zone éclairée. Cela suggère un potentiel pour des traitements très localisés avec un « déclencheur optique ».

Enfin, le caractère robuste du phénomène, sa capacité à fonctionner en phase solide et son coût de synthèse modeste renforcent l’argument en faveur de son intégration future dans des dispositifs réels, notamment dans des systèmes optoélectroniques.

Encore de nombreuses questions à résoudre avant une mise en application

Bien que la démonstration soit convaincante, quelques obstacles et questions subsistent quant à sa mise en application.

En effet, même si la demi-vie dépasse les six heures, pour certaines applications (ex : mémoire permanente, stockage à long terme), cela peut être insuffisant. Il faudra donc au préalable pousser la stabilité plus loin tout en conservant la réversibilité. De plus, les travaux se limitent pour l’instant à des acylhydrazones thienyl. Il serait intéressant de tester la robustesse du concept sur d’autres familles moléculaires, y compris dans des matrices plus contraignantes (films, interfaces solides, dispositifs intégrés).

Une utilisation en électronique ou spintronique moléculaire nécessitera de connecter ces molécules à des électrodes, garantir la conductivité, maîtriser le couplage spin/transport, assurer la miniaturisation, etc. La commutation optique/magnétique ne suffit pas – il faudra mettre au point une architecture fonctionnelle complète.

Pour un usage médical (photothérapie, inactivation de pathogènes), il sera par contre crucial d’évaluer la toxicité, la pénétration, la diffusion, la stabilité dans des milieux biologiques, etc. Le contrôle spatial et temporel de l’irradiation sera particulièrement central.

Vers une nouvelle génération de matériaux

L’étude « Closed-to-open-shell ground state photoswitching of thienyl-based acylhydrazones » marque une avancée notable dans le domaine des commutations moléculaires contrôlées. En démontrant une commutation lumineuse vers un état magnétique durable, lisible magnétiquement et effaçable électrochimiquement, les auteurs ouvrent la voie à une nouvelle génération de matériaux multimodaux. Si des défis subsistent quant à la stabilité, à l’intégration et à la biocompatibilité, le concept pourrait trouver un écho fort dans la spintronique moléculaire, la catalyse contrôlée ou la photothérapie ciblée.

L’IA est-elle créatrice ou destructrice d’emplois ?

L’étude co-écrite par Simon Bunel et ses collègues, exploitant des données de l’Insee, s’intéresse à l’adoption de l’IA non générative par les entreprises françaises et à l’impact sur la demande de travail. Elle met en lumière le fait que l’IA est déployée différemment selon les secteurs, avec des catégories professionnelles largement utilisatrices de cette technologie, par rapport à d’autres qui nécessitent des compétences spécifiques.

Parmi les usages les plus fréquents en 2023, l’IA est appliquée à la comptabilité/gestion dans environ 30 % des cas, tandis que la R&D ou l’innovation représentent 24 % des usages. Dans l’industrie manufacturière notamment, près de la moitié des entreprises déclarent l’utiliser sur les chaînes de montage.

L’étude observe que, suite à l’adoption de l’IA, bon nombre d’entreprises augmentent à la fois leur effectif et leur chiffre d’affaires, signe que les gains de productivité autorisent une expansion qui peut compenser des destructions d’emploi locales. Cependant, ce constat n’est pas uniforme. Il montre notamment que des usages d’IA peuvent remplacer certaines tâches ou certains métiers, tandis que d’autres usages stimulent la demande de main-d’œuvre dans les domaines connexes.

Un résultat contre-intuitif ressort par ailleurs. Même pour des métiers souvent jugés « à risque » face à l’IA (par exemple, la comptabilité), l’étude observe parfois une hausse de la demande de ces profils dans les entreprises qui adoptent l’IA. Ce paradoxe s’explique par un effet « extension de marché ». En effet, l’amélioration de la productivité permet à l’entreprise de croître, de diversifier ses activités et donc de recruter autour de ces métiers. Mais le contraste est net selon le type d’usage. Il apparaît ainsi que l’IA utilisée pour automatiser des tâches administratives peut effectivement avoir un effet de substitution.

Vers une transformation structurelle de l’organisation interne

Au-delà des effets quantitatifs, l’étude souligne un changement d’ampleur dans la façon dont l’IA se diffuse dans les entreprises. Traditionnellement, les technologies étaient introduites « top-down ». La direction choisissait une solution, qui était ensuite déployée par les services informatiques. Avec l’IA, une tendance « bottom-up » émerge, montrant que les salariés eux-mêmes commencent à adopter des outils d’IA sans qu’ils aient été formellement prescrits par la hiérarchie.

Cette rupture – qui n’avait pas d’équivalent avec les technologies numériques précédentes – pourrait redistribuer les équilibres de pouvoir interne, nécessiter une redéfinition des processus d’acceptation technologique, et poser la question du contrôle, de la traçabilité et de la gouvernance de l’IA en entreprise.

Par ailleurs, les profils recrutés à l’issue de cette adoption tendent à être des profils techniques, diplômés, issus des filières « STIM » (science, technologie, ingénierie, mathématiques). Cela peut accentuer les inégalités internes, car ces profils bénéficient de meilleures rémunérations et positions. D’un autre côté, une vague émergente d’études sur l’IA générative suggère que ses gains pourraient profiter davantage aux employés initialement les moins qualifiés, en leur fournissant des leviers de productivité inédits.

L’étude souligne un point central, précisant que si une régulation s’avère nécessaire, elle ne doit pas viser la technologie en tant que telle, mais les usages de l’IA, car c’est leur variété qui engendre les différences d’effets observées.

Enfin, pour que la diffusion de l’IA soit socialement acceptable, l’étude insiste sur l’importance du dialogue social. Il est essentiel que les partenaires sociaux soient formés et impliqués dans les instances où se décide le déploiement de l’IA, afin de garantir une répartition équitable des gains de productivité.

Limites et perspectives : ce que l’on sait et ce qu’il reste à explorer

L’étude se concentre sur l’IA non générative, donc sur des usages calculatoires, d’aide à la décision ou d’optimisation de processus, mais elle n’aborde pas la dimension plus récente de l’IA générative (textes, images, conversations). Cela constitue une frontière importante pour les travaux futurs, car l’IA générative pourrait avoir des effets distincts (et peut-être plus larges) sur le travail.

De plus, les résultats sont observés au niveau des entreprises qui adoptent l’IA. Dès lors, ils ne permettent pas de conclure directement sur l’effet macroéconomique ou sur le sort des entreprises qui n’adoptent pas ces technologies.

Au-delà, plusieurs pistes méritent d’être approfondies :

  • une meilleure granularité des usages d’IA (dans chaque secteur) pour distinguer les tâches vraiment substituables des tâches complémentaires ;
  • le lien entre gains de productivité et salaires/conditions de travail ;
  • le rôle que peuvent jouer les politiques publiques (formation, incitations, régulation ciblée) pour orienter les usages vers des modèles socialement acceptables ;
  • comment les petites et moyennes entreprises (PME) peuvent intégrer l’IA dans un cadre de gouvernance maîtrisé.

L’étude de Simon Bunel et de ses coauteurs offre un éclairage précieux sur la complexité de l’impact de l’IA en entreprise. Loin d’un scénario binaire de destruction ou de création d’emploi, l’IA non générative se révèle instrument de transformation différenciée selon les usages. L’innovation ne se contente pas d’être imposée du sommet : elle est aussi conduite – parfois inconsciemment – par les salariés eux-mêmes.

Le défi pour les décideurs (entreprises, syndicats, pouvoirs publics) est désormais de canaliser cette dynamique dans une trajectoire qui maximise les bénéfices (productivité, croissance) tout en maîtrisant les risques (inégalités, substituabilité, désorganisation). En France comme à l’international, la question de la régulation de l’IA devra être moins : « vaut-il mieux interdire la technologie ? » que « dans quels usages et sous quelles conditions l’IA doit-elle être autorisée, encadrée, auditable ? »

Google sort son chéquier pour rester dans la course à la suprématie technologique mondiale

La compétition est intense : Amazon Web Services (AWS) a déjà investi 35 milliards de dollars entre 2011 et 2020 et prévoit d’y consacrer 35 milliards supplémentaires d’ici 2040. Cette rivalité illustre le rôle central de la Virginie comme hub mondial du cloud et de l’IA.

Le projet phare de Google est la construction d’un nouveau centre de données dans le comté de Chesterfield, pensé pour absorber les charges de travail toujours exponentielles générées par l’IA. Ce site s’ajoute aux campus déjà opérationnels dans les comtés de Loudoun et de Prince William, au cœur de la région surnommée Data Center Alley, où transite plus de 70 % du trafic Internet mondial.

Pour répondre aux besoins énergétiques colossaux de ces infrastructures, Google déploie des programmes d’efficacité énergétique et explore des solutions hybrides combinant innovations locales et technologies de gestion de l’énergie à l’échelle du système.

L’expansion en Virginie ouvre la voie à des usages concrets qui pourraient dépasser le cadre expérimental.

  • Médecine personnalisée : analyse de données génétiques et médicales à grande échelle pour proposer des traitements adaptés à chaque patient.
  • Industrie 4.0 : optimisation en temps réel des chaînes de production grâce à des algorithmes prédictifs hébergés dans le cloud.
  • Éducation augmentée : plateformes d’apprentissage adaptatif alimentées par l’IA, capable de personnaliser les parcours pédagogiques pour chaque étudiant.
  • Villes intelligentes : gestion optimisée des flux de transport, de l’énergie et de la sécurité urbaine grâce à des systèmes d’IA interconnectés.

À propos d’éducation, tous les étudiants universitaires de Virginie ont désormais accès gratuitement au programme Google AI Pro, offrant une année complète de formation en IA. Des établissements comme l’Université de Virginie et le Northern Virginia Community College participent également au programme Google AI for Education Accelerator, qui vise à intégrer l’IA dans les cursus académiques.

Un fonds dédié aux opportunités en IA

En avril 2024, Google avait annoncé un nouvel investissement d’un milliard de dollars pour agrandir ses centres de données en Virginie, accompagné de la création du Google.org AI Opportunity Fund (75 millions de dollars). Ce fonds soutient l’accès à la formation et favorise l’émergence de nouvelles carrières dans l’écosystème technologique.

Depuis son implantation, Google a investi plus de 4,2 milliards de dollars en Virginie, générant 3 500 emplois et un impact économique estimé à un milliard de dollars. Ces investissements s’inscrivent dans une dynamique plus large. Selon la Data Center Coalition, le secteur a injecté 37 milliards de dollars dans l’État au cours des deux dernières années.

L’Union européenne tente de ne pas être dépassée. Elle a lancé InvestAI, un programme destiné à mobiliser 200 milliards d’euros pour l’IA. Ce plan repose sur un partenariat public-privé inédit, présenté comme le plus important au monde dans ce domaine.

En parallèle, la France a annoncé ses propres plans massifs (ex. 109 milliards d’euros annoncés par Emmanuel Macron pour l’IA en France).

Trophées RSE de la plasturgie 2025 : POLYVIA récompense cinq entreprises exemplaires

Ces prix ont été décernés par un jury composé d’institutionnels, de donneurs d’ordres engagés, de financeurs de la transition, mais aussi d’acteurs de l’économie circulaire, non spécialistes de la plasturgie : ADEME, ARKEA Banque, Conseil national de l’Emballage, Federrec, Orée, Plateforme Automobile, Renault, Valobat. Par ailleurs, POLYVIA n’a pas participé à la sélection.

AG PLAST, un pionnier de l’économie circulaire

AG PLAST a reçu un Trophée dans la catégorie décarbonation, car cette entreprise n’est pas qu’une PME spécialiste de la transformation de grands produits : c’est aussi un précurseur de l’économie circulaire. Depuis sa reprise en 2008, l’entreprise fonde en effet sa stratégie industrielle sur la transformation de matière recyclée. Avec 6 500 tonnes de matières recyclées transformées en 2024, contre 2 000 tonnes en 2015, l’entreprise est désormais un des acteurs français du secteur les plus engagés dans la décarbonation.

Par ailleurs, si l’entreprise mise également sur l’approvisionnement local en machines, les matières recyclées proviennent majoritairement d’Allemagne, car la production française de MPR[1] ne permet pas de répondre aux besoins d’AG PLAST, en termes de rapport qualité-prix.

Enfin, son orientation RSE dépasse le simple cadre environnemental, puisque l’entreprise a mis en place des méthodes de management internes basées sur la transparence, la pédagogie, le bon sens et l’intelligence collective.

CSI Thermoformage : l’emballage thermoformé sur mesure et éco-responsable

CSI Thermoformage est un spécialiste de l’emballage thermoformé sur mesure pour les industriels. À l’instar d’AG PLAST, l’entreprise a elle aussi opéré un revirement stratégique lors de sa reprise en 2016, avec la volonté de faire du développement durable un avantage concurrentiel. En outre, elle a également remporté un trophée dans la catégorie décarbonation.

Depuis sa certification ISO 14001 en 2017, CSI fait progresser chaque année son volet RSE, en ajoutant constamment de nouveaux progrès : bilan carbone complet, incorporation de 80 % de matières recyclées, réemploi des emballages, investissement dans de l’autoproduction solaire couvrant 40 % des besoins, etc.

Mais la meilleure preuve de l’implication de l’entreprise est probablement sa Médaille Platine Ecovadis, obtenue en août 2024 et qui la place dans le top 1 % mondial RSE, avec un score RSE global de 82/100, dont 90/100 sur le volet environnemental.

CEP Office Solutions : du mobilier de bureau en R-PS issu des DEEE

CEP Office Solutions propose une nouvelle génération d’accessoires de bureau conçus à partir de polystyrène recyclé post-consommation.

L’entreprise a été récompensée par un Trophée RSE dans la catégorie économie circulaire pour Terra Nova, sa gamme d’accessoires de bureau qui allie la performance environnementale à l’esthétique et repense l’impact du mobilier de bureau, de sa fabrication à sa fin de vie.

Entièrement recyclables et fabriqués en France, ses produits sont à la fois colorés et résistants et les taux d’incorporation de matériaux recyclés vont jusqu’à 90 %.

Groupe Barbier : de la gaine d’emballage intégrant du PCR

Le Groupe Barbier est un fabricant de films en polyéthylène dont les produits sont utilisés dans de nombreux domaines. L’entreprise a elle aussi reçu un prix dans la catégorie Économie Circulaire, pour avoir développé une gaine étirable à froid intégrant 30 % de PCR[2], principalement destinée à la palettisation industrielle.

En outre, le groupe possède deux sites de recyclage : SOREP, dédié au recyclage du PCR industriel (10 000 tonnes de déchets traités par an) et le site de Chavanon, dédié au recyclage de déchets post-consommation agricoles (13 000 tonnes par an).

Festilight : le coup de cœur du jury

Festilight conçoit et fabrique, depuis 1997, des décorations lumineuses et/ou festives servant à animer les espaces publics et privés. Cette entreprise auboise, qui se démarque sous plusieurs aspects, s’est vue décerner un prix spécial. En effet, contrairement aux autres lauréats, Festilight n’est pas un transformateur « classique » de plastiques ni un acteur historique de la plasturgie, puisqu’à l’origine, elle utilisait l’aluminium comme matériau de base pour ses motifs lumineux.

Mais en 2020, Festilight s’est lancé un défi : passer de l’aluminium à l’ABS recyclé provenant de déchets PCR, notamment de DEEE[3], en utilisant un process de fabrication additive. Pour y arriver, l’entreprise a dû acquérir de nouvelles compétences, notamment en éco-conception et dans le développement de machines de fabrication additive grand format.

Avec sa collection Le Motif Français®, elle a ainsi réduit de 25 % l’impact environnemental de ses produits, ce qui prouve que le plastique peut aussi être une alternative écologique, contrairement aux idées reçues.


[1] Matières Premières de Recyclage

[2] Plastique Recyclé après Consommation

[3] Déchets d’Équipements Électriques et Électroniques

Industrie française et limites planétaires : le compte à rebours s’accélère

La trajectoire de décarbonation industrielle française s’essouffle. Selon Le Monde, les efforts consentis par les grands secteurs émetteurs – chimie, sidérurgie, ciment, métallurgie – restent en deçà des attentes. Si certains projets pilotes voient le jour, comme l’utilisation d’hydrogène bas carbone dans l’acier ou la capture et le stockage du CO₂, la plupart ne dépasseront pas la phase expérimentale avant la fin de la décennie. Ce retard met en péril l’objectif national de réduction de 35 % des émissions industrielles d’ici 2030.

Les freins sont multiples. Les industriels invoquent le coût très élevé des technologies bas carbone, la lourdeur administrative des aides publiques, et surtout la pression de la concurrence internationale. À titre d’exemple, un four électrique produisant de l’acier « vert » nécessite plusieurs centaines de millions d’euros d’investissements, dans un contexte où les marges se réduisent face à la Chine ou à l’Inde. Les fonds européens, tels que le mécanisme d’ajustement carbone aux frontières ou les financements du plan RePowerEU, sont encore jugés trop complexes ou insuffisamment fléchés.

En France, près de 20 % des émissions de gaz à effet de serre proviennent de l’industrie manufacturière. Or, la transition énergétique repose sur des leviers précis, tels que l’électrification des procédés, l’efficacité énergétique, l’hydrogène, la capture et le stockage de carbone. Pour l’instant, chacun progresse trop lentement. Cette inertie tranche avec la situation critique mise en avant par la science.

En effet, une étude relayée par Le Monde indique que sept des neuf limites planétaires définies par le Stockholm Resilience Centre sont désormais dépassées. Ces limites, qui représentent les « garde-fous » de la stabilité de la Terre depuis l’Holocène, couvrent des domaines aussi divers que le climat, la biodiversité, les cycles de l’azote et du phosphore, l’utilisation des sols, les ressources en eau douce, la pollution chimique, ou encore l’intégrité de la biosphère.

La dernière alerte concerne l’acidification des océans, due à l’absorption massive de CO₂ atmosphérique. Près d’un quart des émissions anthropiques est dissous dans les mers, ce qui entraîne une baisse du pH océanique et menace directement le plancton, base de la chaîne alimentaire marine. À terme, ce phénomène affecte la pêche, la sécurité alimentaire et le stockage naturel du carbone.

À ce jour, seules deux limites planétaires ne sont pas encore franchies : l’appauvrissement de la couche d’ozone et l’utilisation des aérosols atmosphériques. Pour les scientifiques, ce constat confirme que la trajectoire humaine est insoutenable sans inflexion majeure. L’excès d’azote et de phosphore liés à l’agriculture, la destruction des forêts, l’érosion accélérée de la biodiversité ou encore la pollution chimique menacent de déséquilibrer durablement les écosystèmes.

Ce diagnostic scientifique pose la question de la temporalité. Alors que l’urgence écologique se compte en années, la transition industrielle française s’inscrit dans un temps long, marqué par des arbitrages budgétaires, des choix technologiques complexes et une frilosité face au risque. Les industriels demandent davantage de visibilité réglementaire et financière, tandis que l’État tente de concilier impératifs climatiques et compétitivité économique.

À l’échelle européenne, certains pays avancent plus vite. L’Allemagne et la Suède investissent massivement dans l’acier décarboné, l’Espagne développe une filière hydrogène à grande échelle, et les Pays-Bas testent des infrastructures de stockage de CO₂ en mer du Nord. La France, malgré ses atouts énergétiques liés au nucléaire, tarde à enclencher un mouvement d’ensemble.

Ce décalage entre rythme industriel et rythmes planétaires résume l’un des défis majeurs du XXIᵉ siècle. Les chercheurs soulignent que l’humanité s’éloigne de plus en plus des conditions de stabilité qui ont permis son développement. Pour éviter un emballement irréversible, la décarbonation doit s’accélérer, au prix d’une réorganisation profonde des modes de production.

La France se trouve face à un choix : maintenir une logique d’ajustements progressifs ou assumer une transformation radicale, guidée par les données scientifiques.

La lenteur française et européenne ne peut cependant être isolée d’un contexte global. Les limites planétaires franchies concernent l’ensemble de l’humanité et leurs effets ne s’arrêtent pas aux frontières. La décarbonation industrielle, comme la protection des océans et des écosystèmes, ne pourra être efficace que dans le cadre d’une mobilisation collective à l’échelle mondiale. Sans cette prise de conscience universelle, l’action locale restera insuffisante face à un défi qui, par nature, dépasse toutes les nations.