Des avancées récentes dessinent le futur des matériaux ultrafins

Les découvertes dans le domaine des matériaux 2D continuent de progresser rapidement. Le panorama actuel montre non seulement une explosion du nombre de matériaux potentiellement réalisables, mais aussi une maturation dans la compréhension de leurs propriétés quantiques, électroniques et structurales. Même si des obstacles techniques restent à franchir, les applications futures semblent de plus en plus tangibles.

Pour rappel, un matériau bidimensionnel (2D) est un matériau composé d’une couche atomique ou de quelques couches atomiques seulement. Ces matériaux présentent des propriétés très distinctes de leurs homologues en 3D : mobilité des porteurs électriques élevée, exposés quantiques forts (confinement, excitons, etc.), gaps électroniques modulables, etc.

Parmi les exemples classiques, on trouve le graphène, les dichalcogénures de métaux de transition (TMD, comme le disulfure de molybdène), ou encore la silice ­2D. Ces matériaux sont étudiés pour des usages variés ­: électronique ultrafine, optoélectronique, catalyse, stockage d’énergie, purification de l’eau, etc.

Les études récentes confirment que de nouveaux types de matériaux ­2D apparaissent, et qu’ils ne sont plus seulement théoriques, mais commencent à être synthétisés et caractérisés. Une équipe de Rice University et Northwestern University a ainsi découvert un nouveau matériau ­2D, un borure de cuivre clairement défini, où les atomes de bore forment une couche atomique ordonnée avec du cuivre. Ce résultat élargit la famille des matériaux ­2D explorables.

Par ailleurs, des chercheurs en Suède, à l’Université de Linköping, ont développé une méthode permettant de synthétiser des centaines de matériaux ­2D nouveaux, ce qui pourrait accélérer la découverte de propriétés utiles dans diverses conditions.

De même, des travaux sur les matériaux 2D quantiques révèlent des comportements inédits. Ainsi, une monocouche composée de cérium, silicium et iode (CeSiI) constitue un exemple de matériau ­2D présentant des fermions lourds, ou heavy fermions, ouvrant la voie à de nouvelles recherches en physique quantique.

D’autres recherches, menées notamment sur le nitrure de bore hexagonal (hBN), montrent que certains défauts atomiques conservent une cohérence de spin sur des durées inhabituelles à température ambiante, une découverte cruciale pour envisager des applications quantiques pratiques.

Propriétés remarquables et défis techniques

Les nouveaux matériaux 2D se distinguent par des caractéristiques particulièrement prometteuses, mais ils posent également des défis considérables. Sur le plan des propriétés remarquables, les chercheurs observent des structures électroniques inédites, avec l’apparition de bandes plates, de gaps ajustables et même de fermions de type Dirac, ouvrant la voie à des comportements quantiques totalement nouveaux.

Comme indiqué plus haut, certains de ces matériaux présentent aussi la capacité exceptionnelle de maintenir des fonctions quantiques à température ambiante. Les défauts atomiques qui y apparaissent conservent notamment une cohérence de spin sur des durées inédites, une propriété rare et essentielle pour envisager des dispositifs quantiques réellement opérationnels.

À cela s’ajoute une remarquable diversité dans les combinaisons atomiques. Ainsi, au-delà des matériaux mono-élément ou binaires, il est désormais possible de concevoir des composés intégrant plusieurs métaux ou des structures multicouches, permettant d’ajuster à volonté les propriétés mécaniques, électroniques et optiques.

Ces avancées ne doivent toutefois pas masquer les difficultés persistantes. La synthèse et la stabilité des feuillets atomiques constituent notamment un premier défi. En effet, produire des monocouches régulières et homogènes, avec un nombre minimal de défauts, reste complexe, et leur maintien dans des conditions ambiantes ou industrielles est loin d’être acquis. À cela s’ajoute la question de la caractérisation. Analyser avec précision les propriétés électroniques, optiques ou magnétiques de systèmes à l’échelle atomique nécessite des outils de pointe tels que la microscopie ou la spectroscopie avancée.

L’intégration de ces matériaux dans des dispositifs concrets représente également une étape cruciale, mais difficile. Transformer un matériau modèle en un transistor, un capteur ou une électrode fiable suppose une maîtrise parfaite de la reproductibilité, des coûts et de la compatibilité avec d’autres procédés industriels.

Enfin, le contrôle des défauts reste une problématique centrale. Si certains peuvent être bénéfiques en apportant des fonctions quantiques, d’autres se révèlent nuisibles, en provoquant par exemple des pertes d’énergie ou des recombinaisons indésirables. Leur gestion fine, qu’il s’agisse de leur nature, de leur densité ou de leur influence, demeure une condition indispensable pour envisager des applications à grande échelle.

Applications potentielles et perspectives

Les découvertes récentes confirment l’ouverture de nombreuses perspectives technologiques.

Dans le domaine de l’électronique, ces matériaux ultrafins pourraient en effet donner naissance à des dispositifs flexibles et miniaturisés, combinant conductivité et souplesse mécanique, tout en étant compatibles avec divers substrats.

Les technologies quantiques constituent une autre piste majeure. Les propriétés de spin, la présence de défauts atomiques ou encore l’existence de bandes plates et de fermions lourds offrent de nouvelles voies pour stocker et traiter l’information quantique.

Les chercheurs explorent aussi le champ de la photonique et de l’optoélectronique, où l’interaction forte de ces matériaux avec la lumière permet d’envisager des applications variées, allant du contrôle de la polarisation à la génération d’excitons aux propriétés uniques.

Enfin, les domaines de la catalyse, du stockage d’énergie et de l’environnement bénéficient eux aussi de ces progrès. Les grandes surfaces spécifiques et la finesse atomique des matériaux ­2D ouvrent en effet la voie à des procédés catalytiques innovants, au développement de nouvelles électrodes pour batteries et supercondensateurs, ou encore à des solutions avancées pour la purification de l’eau.

Un tandem bactérien inédit pour produire de l’heptane vert

Ce qui pouvait relever de la science-fiction devient réalité. Des chercheurs du CEA, du CNRS et d’Aix-Marseille Université sont parvenus à produire de l’heptane grâce à un procédé biotechnologique inédit. Ce composé, qui sert à fabriquer des carburants (notamment aéronautiques) et des solvants industriels, est jusqu’à présent exclusivement issu de la distillation du pétrole. En mettre au point une version biosourcée constitue un enjeu important pour réduire la dépendance aux énergies fossiles, limiter les émissions de CO₂ et proposer des alternatives durables aux industries de la chimie et du transport.

Si des enzymes capables de produire du propane ou du butane ont déjà été exploitées, les tentatives de production d’hydrocarbures à chaîne moyenne (C7–C13), pourtant essentiels aux carburants liquides, se sont heurtées à des rendements limités et à un manque de sélectivité. Ici, les scientifiques, dont les travaux de recherche viennent d’être publiés dans la revue Biofuel Research Journal, se sont appuyés sur une enzyme découverte récemment : la Fatty Acid Photodecarboxylase (FAP). Elle a déjà démontré sa capacité à convertir des acides gras en alcanes sans besoin de cofacteurs additionnels, à température et pression ambiantes, et sous une lumière bleue.

Cette photoenzyme, qui utilise la lumière comme source d’énergie, a aussi une autre particularité intéressante : elle montre une affinité remarquable pour l’acide octanoïque, qu’elle transforme en heptane. Sauf que ce substrat est rare dans la nature. Les chercheurs ont donc choisi de le fabriquer directement à l’intérieur de bactéries E. coli grâce à une enzyme spécifique, une thioestérase. Le tandem thioestérase–FAP forme ainsi une chaîne métabolique complète, allant de la synthèse de l’acide octanoïque jusqu’à sa conversion en heptane.

Plusieurs améliorations ont été apportées à ce processus pour l’optimiser. Première avancée : la FAP a été fusionnée avec une protéine bactérienne, appelée la thiorédoxine, pour améliorer sa stabilité et multiplier par 12 son activité hydrocarbonée. Deuxième innovation : pour déclencher la production d’heptane, des inducteurs chimiques coûteux et peu pratiques comme l’IPTG (isopropyl-β-D-thiogalactopyranoside) ont été remplacés par un « interrupteur » lumineux, appelé pDawn, qui réagit directement à la même lumière bleue que la FAP.

Enfin, les chercheurs ont comparé deux stratégies distinctes. La première consiste à co-exprimer dans une seule souche bactérienne la thioestérase et la FAP, et la seconde à répartir le travail entre deux souches distinctes cultivées ensemble : l’une produisant l’acide octanoïque et l’autre le convertissant en heptane. Résultat : la co-culture s’avère nettement plus efficace, multipliant la production par 14 par rapport à la co-expression.

Des rendements de production d’heptane biosourcé jamais atteints

Dans des photobioréacteurs, l’équipe est parvenue à atteindre une production moyenne d’heptane de près de 5 mg par litre de culture bactérienne et par heure avec une pureté supérieure à 90 %. Une telle performance représente une augmentation significative de la productivité par rapport à des études précédentes. Le composé s’est révélé chimiquement identique à son équivalent fossile et les expériences montrent que le système reste viable dans le temps, avec des cultures stables sous illumination continue et un rendement reproductible. Les bactéries tolèrent la présence d’acide octanoïque jusqu’à une certaine concentration, au-delà de laquelle leur viabilité décline, ce qui fixe des limites à l’intensification du procédé.

Bien qu’encourageants, les résultats restent encore loin d’un niveau industriel. Les chercheurs évoquent plusieurs axes d’amélioration : identifier des thioestérases encore plus performantes, intervenir sur la FAP pour accroître sa robustesse, optimiser les photobioréacteurs et la gestion de la lumière. L’étude souligne aussi la difficulté à générer de grandes quantités d’acide octanoïque, ce qui suppose d’optimiser encore les voies métaboliques. Malgré ces limites, la publication constitue une première puisque jamais l’heptane n’avait été obtenu avec un tel niveau d’optimisation et de sélectivité par un organisme vivant.

L’heure est à la collaboration entre les ingénieurs et l’IA

L’adoption de l’IA dans l’industrie s’accélère : 65 % des organisations déclaraient déjà utiliser l’IA générative au quotidien fin mai 2024. Un chiffre qui est passé à 71 % début 2025.

Si l’industrie cherche encore à l’heure actuelle le juste dosage d’IA à intégrer dans ses process, de nombreux aspects de l’activité industrielle bénéficient d’ores et déjà des apports de cette technologie.

Le premier exemple concerne la maintenance prédictive. Grâce aux modèles de séries temporelles et de détection d’anomalies, l’IA anticipe les défaillances à partir de capteurs (vibrations, courants, températures, logs). Cette approche permet de réduire les arrêts non planifiés de manière substantielle, entre 15 à 30 % selon les études, mais aussi les coûts de maintenance, d’environ 25 %.

L’optimisation des procédés, qui va également avec l’amélioration de l’efficacité énergétique, bénéficie de plus en plus des apports des modèles d’IA. Ainsi, les jumeaux numériques alimentés par l’IA ajustent en temps réel les consignes de production, réduisent les rebuts et améliorent l’efficacité énergétique. Dans la supply chain, les agents IA automatisent déjà l’ordonnancement et une partie des achats, jusqu’à la génération d’ordres de commande.

De nombreuses missions sous la responsabilité des ingénieurs sont aujourd’hui concrètement impactées par les usages de l’IA. Prenons deux autres exemples : le contrôle qualité visuel et la sécurité. Les réseaux de neurones convolutionnels et les outils de vision 2D/3D remplacent de plus en plus l’échantillonnage par une inspection en continu. Des méthodes hybrides (SIFT, SSIM, PSNR combinés au deep learning) améliorent la robustesse des détections, tandis que la réalité augmentée accompagne désormais les opérateurs. Il s’agit plus aujourd’hui d’une collaboration qui s’installe entre les opérateurs et l’IA, à défaut d’un grand remplacement.

Enfin, les domaines de la sécurité et de la conformité connaissent également des mutations. Les systèmes de vision détectent le port des équipements de protection individuels, ou la présence en zone interdite par exemple. L’IA peut générer et mettre à jour des rapports de non-conformité, des procédures ou des check-lists multilingues.

Quels sont les métiers les plus impactés ?

Les métiers impactés par l’implémentation de l’IA sont de plus en plus nombreux, au premier rang desquels les opérateurs et les techniciens de maintenance : les rondes et relevés s’automatisant, les techniciens deviennent alors des superviseurs de systèmes et des analystes, qui interviennent guidés par les recommandations des modèles d’IA implémentés.

Même chose en ce qui concerne les contrôleurs qualité. Leur rôle évolue vers le pilotage de cellules d’inspection, l’étiquetage de défauts pour améliorer les modèles, et l’interprétation de tableaux de données.

L’IA trace également son sillon dans tout ce qui touche à la stratégie, à la planification et aux achats. Dans la supply chain, les agents d’IA proposent des scénarios de production et génèrent automatiquement des commandes, que les planificateurs valident. L’automatisation de certaines tâches transactionnelles est déjà une réalité.

Dernier exemple avec l’évolution du rôle des ingénieurs IT/OT et des ingénieurs data. Pour ces derniers, l’IA créé de nouveaux rôles : ingénieurs data industriels, spécialistes MLOps, experts en cybersécurité OT…

Toutefois, le principal frein reste la difficulté à passer à l’échelle : seules 16 à 22 % des entreprises atteignent réellement leurs objectifs IA pour le moment, au niveau international.

Sogeclair parie sur l’impression 3D métallique pour les secteurs critiques

L’engagement de Sogeclair dans la fabrication additive métallique marque une évolution clé pour ce spécialiste français des secteurs critiques. En investissant dans des machines de pointe, en renforçant ses capacités de test et de validation, et en s’appuyant sur des structures comme la joint-venture PrintSky, le groupe entend non seulement répondre aux exigences techniques sévères du spatial, de l’aéronautique et de la défense, mais aussi occuper une position stratégique dans les chaînes de valeur nationales et internationales autour de l’impression 3D métallique.

La fabrication additive (impression 3D métallique) s’impose ainsi progressivement comme une technologie stratégique pour les secteurs aéronautique, spatial et défense, grâce à sa capacité à produire des pièces complexes, à réduire les délais de mise sur le marché, et à optimiser l’usage des matériaux tout en maintenant une qualité élevée, essentielle pour des composants soumis à des environnements extrêmes.

Sogeclair, depuis plusieurs années, s’intéresse à ce domaine, notamment via la co-entreprise PrintSky créée avec le fabricant AddUp. PrintSky est destinée à mûrir des projets industriels de fabrication additive métallique, inclure la conception, la certification, la validation et la production de prototypes et de préséries.

L’entreprise a récemment installé sur son site de Toulouse une machine FormUp 350 d’AddUp, une imprimante à fusion laser sur lit de poudre (PBF – Powder Bed Fusion) pour les métaux. Cet équipement doit permettre de franchir un palier, en passant de la réalisation de preuves de concept à la fabrication série de pièces critiques.

Cette imprimante vient compléter un banc d’essai thermofluidique déjà en place. Ce banc simule les cycles thermiques et les contraintes fluides auxquels sont exposés les échangeurs thermiques. Cela permet de garantir la fiabilité et la performance des pièces produites par fabrication additive métallique.

Applications concrètes et projets en cours

Parmi les projets ayant fait l’objet de démonstrations déjà réussies, on peut citer le projet ECCAD, financé par la DGAC (Conseil pour la recherche aéronautique civile). Il concernait un échangeur thermique en aluminium imprimé en 3D, doté de parois très fines (jusqu’à 150 μm) et de canaux à double courbure, ce qui aurait été impossible par des techniques conventionnelles.

Grâce à ces démonstrations, Sogeclair entend proposer désormais une offre complète à ses clients, depuis la conception optimisée pour la fabrication additive, jusqu’à la qualification, la validation, et la production en série.

Enjeux et défis

Si la fabrication additive présente des avantages clairs, plusieurs défis restent cependant à relever.

Le premier concerne le coût des machines. L’investissement initial reste élevé, ce qui limite l’adoption aux entreprises de taille suffisante ou aux segments où la valeur ajoutée est importante.

Le second est celui de la certification et de la qualification. Dans les secteurs aéronautique, spatial, défense, la validation des pièces (mécanique, thermique, durée de vie, etc.) est notamment très exigeante. Sogeclair met donc en place des plateformes de validation pour fournir aux clients les données nécessaires.

L’optimisation de la conception constitue un troisième défi. Cette conception doit en effet être adaptée dès le départ (topologie, matériaux, orientation, etc.) pour tirer tous les bénéfices de la fabrication additive.

Enfin, pour passer de la présérie à la série, il faut garantir répétabilité, productivité, maintenance, maîtrise du coût unitaire. Le nouvel équipement vise précisément cette intégration industrielle.

Sogeclair ambitionne ainsi de faire de Toulouse un centre opérant non seulement des preuves de concept, mais aussi des fabrications série pour les pièces critiques. L’offre globale de la société inclura conception, qualification, fabrication, et validation, avec l’objectif d’accroître sa compétitivité auprès de grands donneurs d’ordres dans l’aéronautique, le spatial et la défense.

Le groupe suit aussi une trajectoire financière raisonnablement positive, avec une structure financière qui se renforce et un plan stratégique (« Sogeclair 2030 ») orienté vers la croissance, l’innovation et la durabilité.

Performances financières et capacités du groupe

En 2024, Sogeclair a réalisé un chiffre d’affaires consolidé de 157 millions d’euros, en croissance de +6,1 % par rapport à 2023. L’Ebitda s’élève à 16,6 M€, légèrement en baisse (-0,6 %), mais le résultat net a bondi de près de +29,8 % par rapport à l’exercice précédent.

Sur le plan opérationnel, le résultat opérationnel s’établit à 7,1 M€, ce qui représente environ 4,5 % du chiffre d’affaires, un pourcentage en légère amélioration. Le résultat net, quant à lui, correspond à environ 3,9 % du CA.

Stellantis révise sa trajectoire sur le « tout électrique » à l’horizon 2030

Jean-Philippe Imparato, chef de Stellantis Europe, a finalement officialisé ce qui était pressenti depuis plusieurs mois. Le groupe a décidé de revenir sur l’objectif de proposer une gamme 100 % électrique en Europe d’ici 2030 : « Nous affirmons très clairement le fait que les objectifs sont inatteignables », a expliqué le dirigeant. L’annonce a été faite en marge du Salon automobile de Munich 2025 alors que le plan de route du groupe automobile pour les années à venir était dévoilé.

Le groupe mise désormais sur une approche où les hybrides tiendront une place centrale comme technologies de transition. Il s’agit donc d’un assouplissement du plan « Dare Forward 2030 », présenté en 2022 par l’ancien PDG Carlos Tavares et qui prévoyait 50 milliards d’euros d’investissements pour proposer une gamme européenne entièrement électrique avant la fin de la décennie. Cette réorientation stratégique illustre la nouvelle politique menée depuis l’arrivée du nouveau directeur général, Antonio Filosa en juin dernier. Dans la droite ligne des propos tenus par Jean-Philippe Imparato, celui-ci affirme, dans un entretien accordé aux Échos, que « les objectifs de baisse de 55 % des émissions d’ici à 2030 et d’interdiction des ventes de voitures thermiques en 2035 ne sont pas réalistes ».

Une décision pragmatique

Jean-Philippe Imparato a le mérite d’être franc pour justifier le réajustement de la stratégie du groupe : « Le contexte économique n’est pas là, les stations de recharge ne sont pas là et les prix ne sont pas compétitifs ».

Prenons le cas des infrastructures de recharge insuffisantes. Même si le parc des bornes de recharge électriques sur le continent approche le million, non seulement la répartition demeure inégale selon les territoires[1], mais la dépendance est toujours trop forte à l’égard des batteries chinoises. La récente faillite de Northvolt, le fabricant suédois de batteries, souligne la difficulté à atteindre une souveraineté européenne dans ce domaine.

L’instabilité du coût de l’électricité explique également la marche arrière amorcée par le groupe.

En outre, le ralentissement de la demande des véhicules électriques est réel : au premier semestre, la part d’électriques et d’hybrides rechargeables dans les immatriculations d’utilitaires légers n’atteignait que 9,4 % en Europe.

Ce ralentissement touche aussi les pick-up électriques en Amérique du Nord. Inquiet des ventes décevantes des modèles concurrents (Chevrolet Silverado EV, Ford F-150 Lightning et Tesla Cybertruck), Stellantis a annoncé, dans un communiqué de presse datant du 12 septembre dernier, l’annulation de son pick-up RAM 1500 100 % électrique. Rebaptisé « Ramcharger », le véhicule sera finalement un modèle à autonomie prolongée c’est-à-dire qu’il associera au moteur électrique une batterie couplée à un moteur à essence pour assurer la recharge.

Miser sur la flexibilité pour faire face aux défis du secteur

Stellantis ne renonce pas aux véhicules électriques, mais mise désormais sur une stratégie multi-énergies pour garantir sa rentabilité. L’entreprise continuera de déployer des véhicules électriques, mais développera en parallèle des motorisations hybrides. Cette solution de compromis offre de la flexibilité pour faire face au déclin actuel de l’industrie automobile européenne. celle-ci doit affronter un marché dominé par la Chine et des normes réglementaires européennes trop rigides.

Quant aux exigences de la Commission européenne en matière environnementale, Antonio Filosa y répond en proposant de renouveler le parc automobile grâce à des primes à la casse accélérant la sortie des modèles les plus émetteurs. Il propose aussi des supercrédits pour favoriser des petits modèles électriques aux prix plus abordables.


[1] Précisons aussi que deux bornes sur cinq sont installées dans trois pays : les Pays-Bas, l’Allemagne et la France

Nouveau Code minier : la France va relancer son industrie minière

L’UE doit tout faire pour réduire sa dépendance envers des pays tiers (Chine, Afrique, Australie, etc.) vis-à-vis des terres rares et des métaux critiques. Pour y arriver, elle a deux solutions. D’une part elle doit opter pour une gestion plus « circulaire » de ces ressources, en développant notamment le recyclage. D’autre part, elle peut aussi partir en quête de nouveaux gisements.

La France vient de lancer une cartographie de ses gisements

Suite au choc pétrolier de 1973, qui a révélé les vulnérabilités de la France en matière d’approvisionnement en ressources minérales, le gouvernement français a confié au BRGM la réalisation d’un inventaire des ressources présentes dans notre sous-sol. Ce programme, qui s’est terminé en 1992, recensait alors 22 minerais différents.

Mais le nouvel inventaire qui a été commandé au BRGM, en 2022, par Emmanuel Macron n’est pas une simple mise à jour, car la liste des ressources critiques recherchées a considérablement évolué en 50 ans. Cette liste comprend aujourd’hui 55 substances d’intérêt, nécessaires à la transition énergétique ou numérique.

Par ailleurs, les outils ont également évolué. Grâce aux avancées technologiques en imagerie géophysique, en analyse géochimique, aux progrès dans les connaissances géologiques et au recours à des algorithmes d’intelligence artificielle pour l’interprétation des données, ce nouveau programme lancé en 2025 durera à peine cinq ans.

Il concernera essentiellement les zones montagneuses de métropole, ainsi que la partie nord de la Guyane.

Les zones ciblées par le nouvel inventaire du BRGM
Les zones ciblées par le nouvel inventaire du BRGM (Source : BRGM)

Le Code minier évolue

À l’échelle du globe, les activités minières sont malheureusement associées à des impacts environnementaux extrêmement lourds (pollution de l’eau, contamination des sols, érosion, destruction d’habitats naturels, etc.).

Il va donc de soi que les pratiques d’extraction utilisées en France doivent être en accord avec les politiques de développement durable et les réglementations environnementales. Le nouveau Code minier, dont les quatre derniers décrets viennent d’être publiés, prend ainsi en ligne de compte les enjeux actuels en termes d’environnement, mais aussi d’éthique et d’impact économique et social pour les populations.

Voici quelques exemples :

  • introduction de mécanismes novateurs, comme l’analyse environnementale, économique et sociale (AEES) et du critère du « doute sérieux » environnemental ;
  • obligation de constituer des garanties financières avant l’ouverture de travaux d’exploitation de mines et de gîtes géothermiques ;
  • renforcement de l’information et de la concertation du public et des collectivités territoriales pendant la période d’instruction des demandes de titres ;
  • prise en compte du stockage souterrain du carbone ;
  • refus possible des demandes de titre lorsqu’il y a un doute sur la possibilité d’exploitation du gisement sans porter une atteinte grave aux intérêts environnementaux.

Peut-on vraiment concilier objectifs environnementaux et considérations économiques ?

En pratique, cette réforme du Code minier suscite néanmoins des interrogations en termes de cohérence et d’efficacité. Dans un article publié sur le site Village de la Justice, Gildas Neger, Docteur en Droit, met ainsi l’accent sur la contradiction apparente qu’il y a entre « les objectifs environnementaux affichés et certaines dispositions ouvrant la voie à l’exploitation des fonds marins. »

Il souligne par ailleurs que cette réforme risque aussi d’entraîner une complexification administrative excessive aux effets potentiellement contre-productifs.

Selon lui, les nouveaux décrets parus en août incarnent malheureusement « une vision bureaucratique déconnectée des réalités écologiques et économiques, sacrifiant à la fois l’efficacité environnementale et la compétitivité industrielle française sur l’autel d’une réglementation technocratique inefficace. »

Si la relance de l’industrie minière est une nécessité d’ordre stratégique, il y a donc de sérieux doutes sur la capacité à exploiter ces ressources dans le respect des normes environnementales et en cohérence avec les réalités industrielles.

Climat 2040 : la France en position d’arbitre dans les négociations européennes

Le projet de cible de -90 % d’émissions nettes pour l’Union européenne à l’horizon 2040 constitue un moment charnière, parce qu’il oblige à concilier ambition climatique, équilibre économique et solidarité entre États membres.

La France, qui détient une position de pivot, ne bloque pas formellement sur ce projet, mais conditionne son engagement à des garanties techniques, financières et réglementaires – en particulier autour des crédits carbone et du nucléaire. Le succès ou l’échec de cet objectif dépendra autant de la fermeté du texte final que des compromis acceptables par tous, dans un contexte de compétitivité, de coût énergétique et de pression sociale accrus.

Les marges de flexibilité envisagées

La Commission européenne a mis sur la table la proposition d’amender la loi européenne sur le climat pour inclure un objectif légal de réduction nette des émissions de gaz à effet de serre de -90 % d’ici 2040 par rapport aux niveaux de 1990. Cette cible serait un jalon intermédiaire vers la neutralité carbone prévue pour 2050.

L’idée est aussi de donner une base solide pour les engagements futurs de l’UE dans les négociations internationales, notamment lors de la COP30.

Pour rendre ce cadre acceptable aux yeux des États membres, notamment les plus dépendants des secteurs industriels lourds, la Commission propose plusieurs options.

La première est de permettre l’utilisation des crédits carbone internationaux à hauteur de trois points de pourcentage de l’objectif de -90 %, à partir de 2036. La seconde passe par la reconnaissance accrue du rôle du nucléaire comme source bas carbone dans la stratégie française, et la demande de soutien spécifique pour les industries vulnérables. Enfin, il est proposé de revoir les modalités de partage de la réduction d’émissions entre États membres, en tenant compte de leurs économies, de leur mix énergétique, de leur industrie (par exemple acier, ciment) et des coûts associés.

La position française : enjeux et conditions

La France, bien que traditionnellement considérée comme un pays leader climatique, ne s’est pas alignée directement sur le texte tel qu’il a été proposé. Elle réclame certaines conditions avant de s’engager pleinement, parmi lesquelles une plus grande reconnaissance des crédits carbone (y compris internationaux), pour alléger la charge nationale. Elle souhaite également une valorisation et un soutien du nucléaire – pilier énergétique pour la France – dans l’équation des réductions d’émissions. Elle demande également des mesures de soutien pour les industries exposées aux contraintes économiques (coûts énergétiques élevés, compétition internationale, risque de perte de compétitivité).

Certains pays (l’Allemagne, les Pays-Bas, le Danemark, l’Espagne…) soutiennent l’idée d’un objectif élevé et souhaitent montrer une ambition climatique forte. D’autres se montrent plus hésitants, voire s’opposent à l’objectif. C’est le cas de l’Italie ainsi que de plusieurs pays d’Europe centrale et orientale qui craignent les coûts socioéconomiques, l’impact sur l’industrie, ou des conséquences électorales. Ils appellent à plus de flexibilité à travers des compensations, des délais, ou encore s’agissant de la part de l’effort partagé.

Des obstacles

Le vote en Conseil de l’environnement de l’UE, initialement prévu le 18 septembre, semble compromis faute de consensus. La décision risque dès lors d’être reportée à la réunion des chefs d’État en octobre, ce qui laisserait moins de temps pour formaliser les engagements avant la COP30.

Le principal obstacle demeure le partage de l’effort entre États, les modalités des compensations et de crédits carbone, le mix énergétique national (avec le nucléaire pour la France, moins pour d’autres), ainsi que l’acceptabilité politique et sociale des mesures.

L’adoption de l’objectif -90 % renforcerait pourtant la crédibilité de l’UE dans les négociations climatiques internationales et avec les citoyens, surtout autour de la COP30. Mais un objectif trop contraignant sans accompagnement financier ou sans mécanismes de transition bien conçus risquerait de provoquer des frictions fortes au sein des États, voire de déclencher des résistances ou des retards dans la mise en œuvre.

Pour la France, réussir à imposer ses conditions pourrait servir de modèle afin de concilier ambition climatique et soutien industriel. Cependant, tout dépendra de la capacité de l’UE à mettre en place des financements, des mécanismes de compensation et des infrastructures nécessaires pour la transition (énergies renouvelables, nucléaire, compensation carbone, etc.).

Vers un rebond des toitures photovoltaïques ?

Une analyse récemment publiée par Enerdata met en lumière le fait que les panneaux solaires photovoltaïques (PV) sur toitures sont encore majoritaires dans le parc PV total en Europe, avec environ 220 GW installés. En 2025, à elles seules, les toitures photovoltaïques assureront 8 % de l’approvisionnement en électricité de l’Union européenne.

Le potentiel de long terme est très important. Le Joint Research Center estime, de manière prudente, que les toitures solaires en Europe pourraient porter 1 100 GW de PV. Même en imaginant un doublement de la consommation d’électricité d’ici 2050, cette puissance couvrirait 20 % des besoins. D’autres études plus optimistes chiffrent le potentiel de production du PV en toiture à 2 700 TWh, toujours à l’échelle européenne pour le milieu du siècle, soit la totalité de la consommation actuelle !

Une forte évolution du photovoltaïque en 20 ans

Le marché solaire photovoltaïque global dans l’Union européenne a connu une forte croissance depuis 20 ans. La puissance installée est passée de 1,3 à 338 GW entre 2004 et 2024, avec l’Allemagne, l’Espagne, l’Italie et les Pays-Bas en tête. Rien qu’en 2024, 65,5 GW ont été mis en service, confirmant une dynamique encore forte. La part du PV dans la production d’électricité de l’UE, quasi nulle il y a 20 ans, est désormais d’environ 11 %, et elle pourrait atteindre 20 à 25 % en 2030 selon les estimations d’Enerdata.

Portés initialement par des tarifs de soutien public généreux, les projets PV ont peu à peu été contraints d’appuyer plus fortement la revente de leur électricité sur des références de prix des marchés de gros. La baisse des subventions nationales a été possible grâce à la baisse du prix du kilowattheure solaire : de 140 €/MWh en 2010, le LCOE (levelized cost of energy) du photovoltaïque au niveau européen est passé à environ 40 €/MWh depuis 2019, et il pourrait baisser jusqu’à 25-30 €/MWh d’ici 2050.

Cette baisse des coûts est particulièrement vraie pour les projets de grande taille au sol. Les installations sur toiture sont toujours plus chères, mais cela n’empêche pas qu’elles ont longtemps dominé le marché. Même si leur part diminue, elles ont encore représenté 60 % des nouvelles capacités installées entre 2020 et 2024.

Les pays ayant le plus développé le PV et d’autres énergies renouvelables comme l’éolien sont parfois soumis à des contraintes qui limitent la progression des capacités : conflits d’usage des sols, possibilités amoindries de raccordement aux réseaux électriques notamment à cause de délais trop longs, etc. Stimuler l’utilisation des toitures apparaît donc comme une solution intéressante : les structures des bâtiments existent, ils sont déjà raccordés au réseau, et l’autoconsommation génère un bénéfice économique aux usagers.

Panneaux plus légers et rémunération au prix spot

Parmi les obstacles à lever figure la limitation structurelle des toitures : certaines ne peuvent pas supporter le poids des panneaux photovoltaïques, en particulier sur 30 à 40 % des bâtiments commerciaux et industriels. Il faut alors envisager des types de panneaux différents, plus légers, comme l’avait fait l’entreprise CréaWatt qui est actuellement en redressement judiciaire.

L’analyse d’Enerdata souligne aussi que les installations PV sur les toitures résidentielles bénéficient encore souvent de tarifs d’achat rémunérant l’injection du surplus de production sur le réseau (système dit « net-metering » en anglais, c’est-à-dire la différence entre ce qui est consommé dans le bâtiment et la production des panneaux solaires). Cette injection se fait en dehors du signal-prix des marchés, et quand elle s’accumule au niveau national lors de périodes très ensoleillées avec peu de consommation, elle peut engendrer des congestions sur le réseau de distribution en incohérence avec les besoins d’équilibre du système électrique. Une solution serait de rémunérer le surplus au prix de marché spot (« net-billing » en anglais) : comme il est très bas (voire négatif) lors des fortes productions d’électricité, ce mécanisme inciterait les utilisateurs à investir dans des solutions de stockage par batteries stationnaires et/ou à maximiser leur autoconsommation. Ainsi, ils s’assureraient de la rentabilité économique de leur installation PV en privilégiant l’injection des électrons quand le réseau en a vraiment besoin.

Enerdata donne l’exemple de trois pays pour appuyer sa vision. Les Pays-Bas ont installé beaucoup de solaire photovoltaïque en toiture depuis des années, mais ont connu une stagnation en 2024. Dans le résidentiel, la capacité installée a ainsi été réduite par plus de deux par rapport à 2023, en anticipation de la fin du net-metering début 2027. Sur le segment commerce & industrie, la baisse est légère, mais un rebond n’est envisageable que si des panneaux solaires plus légers sont utilisés pour couvrir certaines toitures.

En Espagne, un ralentissement est aussi à l’œuvre en 2024, mais la dynamique est encore importante : 6 GW ont été installés dont 1,18 GW en toiture. La rémunération en net-billing réduit l’intérêt économique des nouvelles installations, mais le développement des batteries stationnaires et une plus grande flexibilité des bâtiments commerciaux et industriels devraient peu à peu en relancer l’intérêt. D’autant que le gouvernement espagnol maintient un objectif élevé de 76 GW de PV en 2030.

En France, l’objectif de 2050 est de 100 GW et Enerdata dit qu’au moins la moitié pourrait être assumée par les toitures PV. Différentes études estiment que les toitures ont un potentiel entre 125 à 400 TWh par an, bien plus que la production des 14 TWh en 2024. Dans la programmation pluriannuelle de l’énergie (toujours en attente), il est attendu que 41 % des nouvelles capacités photovoltaïques soient sur les toitures petites et moyennes, et 16 % sur les grandes toitures des bâtiments commerciaux, logistiques et industriels.

Bientôt la fin de l’été : tout ce qu’il faut savoir sur les îlots de chaleur urbains

Une vidéo pour comprendre 

Pour mieux appréhender les mécanismes et les impacts des îlots de chaleur urbains, nous avons travaillé avec Thomas l’Ingénieur. Ce youtubeur a réalisé une vidéo illustrant parfaitement ce phénomène. Merci à lui pour la qualité de son travail et la clarté de sa présentation.
Découvrez la vidéo ici. 

Un article de référence en accès libre 

Thomas s’est appuyé sur un de nos articles de référence : Îlots de chaleur urbainsPour vous permettre de prolonger la réflexion et d’aller plus loin, nous avons choisi de mettre cet article en libre accès jusqu’au 30 septembre 2025. 

Rappel pour les étudiants ingénieurs  

À l’occasion de la rentrée en études supérieures, il est bon de vous rappeler que la plupart d’entre vous disposez d’un accès complet à nos ressources. 

Si vous ne savez pas encore comment y accéder, n’hésitez pas à vous rapprocher des documentalistes de votre bibliothèque universitaire. 

Vers une gestion automatisée du trafic spatial pour éviter les collisions

Alors que l’orbite terrestre devient chaque jour plus encombrée, avec plus de 11 000 satellites actifs et plus de 1,2 million de débris supérieurs à 1 cm, l’Agence spatiale européenne (ESA pour European Space Agency) développe une nouvelle réponse technologique pour y faire face. Baptisée CREAM (Collision Risk Estimation and Automated Mitigation) et lancée en 2020 dans le cadre du programme Space Safety de l’ESA, elle vise à automatiser intégralement le processus d’évitement de collisions.

Actuellement, la surveillance se révèle laborieuse, chronophage et fragmentée. Les équipes chargées de la mettre en œuvre doivent à la fois identifier les rapprochements dangereux, concevoir manuellement des manœuvres d’évitement, tout en coordonnant les actions avec d’autres opérateurs. Le projet européen a pour objectif de réduire la charge de travail des opérateurs, limiter les fausses alertes et accélérer les décisions critiques, tout en renforçant la sécurité des missions.

Cet été, ce programme vient de franchir une étape majeure avec des tests menés au sol. Ces essais, conduits dans le cadre de la phase de qualification, visent à évaluer en conditions concrètes l’efficacité du système avant son déploiement orbital. Les scénarios simulés comprenaient notamment des rapprochements critiques entre objets orbitaux représentant des satellites actifs, mettant l’accent sur la réactivité et la cohérence des réponses générées.

Le prototype, fonctionnant en mode terrestre, a démontré une capacité probante à détecter les risques de collision, à générer des alertes automatisées et à proposer des manœuvres d’évitement exploitables par les équipes de contrôle au sol. Cette première campagne de tests a également servi de banc d’essai à de futures fonctionnalités d’aide à la décision, grâce à des algorithmes capables de prioriser des options de manœuvre selon des critères de risque, de coûts et de coordination inter-satellites.

Une démonstration en orbite est prévue à l’horizon 2027-2028

Ces résultats doivent servir à affiner une prochaine version qui sera envoyée dans l’espace, d’abord sous la forme d’un logiciel intégré à un satellite existant, en tant que charge utile secondaire profitant d’un lancement déjà prévu. Puis, à l’horizon 2027-2028, il est prévu d’envoyer une version enrichie dans l’espace à l’aide d’un petit satellite équipé des technologies développées durant les phases antérieures pour évaluer leurs performances dans un environnement réel et congestionné.

Au-delà de ses fonctions techniques, ce projet a été pensé comme un véritable réseau collaboratif. Il réunit en effet des opérateurs, des services de surveillance spatiale, des régulateurs et des observateurs sur une même plateforme pour fluidifier les échanges et décisions, en particulier lorsqu’il s’agit de deux satellites actifs. En cas de désaccord sur la mise en œuvre d’une manœuvre, le système peut même activer un service de médiation automatique afin de garantir la transparence, l’équité et l’efficacité.

En plus de l’évitement en temps réel, ce programme devrait apporter une contribution stratégique à l’avenir de la gouvernance spatiale. L’établissement de règles de trafic en orbite est en effet souvent freiné par la difficulté à les appliquer en l’absence de technologies adéquates. Ici, l’idée est de fournir cette base technologique, à savoir une boîte à outils normalisée qui aide les opérateurs à se conformer à de bonnes pratiques.

À l’heure où les mégaconstellations des acteurs privés se multiplient, la maîtrise du trafic spatial est devenue une urgence. Le projet CREAM incarne à la fois une réponse moderne, automatisée et équitable pour éviter les collisions, limiter la création de nouveaux débris et préserver l’espace orbital. Si ce projet s’avère concluant, il pourrait devenir l’ossature d’un cadre international de sécurité spatiale, démontrant qu’une technologie appropriée peut permettre un usage durable de l’orbite terrestre.

Accélérer la transition industrielle en misant sur de nouveaux matériaux

Avec ses quatre plateformes transverses, Arkema positionne ses efforts sur des familles de matériaux qui répondent aux grands défis industriels, tout en réduisant les impacts des procédés. Les matériaux devront ainsi être biosourcés, circulaires, légers et produits avec des procédés plus propres. Leur usage permettra notamment d’alléger les structures, de recycler les plastiques et de favoriser le recours à des ressources renouvelables. Ces innovations doivent cependant encore franchir des étapes pour être industrialisées à grande échelle et garantir la compétitivité face à une concurrence internationale particulièrement active, mais elles illustrent l’orientation forte de la chimie française vers des matériaux compatibles avec la transition énergétique et la réduction des ressources fossiles.

Alléger sans compromettre la performance

La première plateforme concerne l’allègement et le design des matériaux, indispensables pour réduire la consommation énergétique dans la mobilité. L’idée est simple. Elle consiste à diminuer le poids des structures tout en maintenant leur robustesse. Ce levier est particulièrement crucial dans les transports, où chaque kilo économisé se traduit par une consommation énergétique moindre. Arkema mise sur des composites thermoplastiques allégés, comme la résine Elium®, déjà testée pour la fabrication de pales d’éoliennes plus légères et recyclables. Ces solutions trouvent également des débouchés dans l’automobile et l’aéronautique, où la recherche d’efficacité énergétique pousse à remplacer progressivement le métal par des polymères de haute performance.

Recycler et fermer les boucles

Le deuxième pilier de la R&D d’Arkema est l’économie circulaire. Arkema développe des polymères capables d’être recyclés mécaniquement ou chimiquement, notamment les thermoplastiques hautes performances (PEKK, PEKK recyclables), avec une qualité proche des matériaux vierges. L’entreprise travaille aussi sur des formulations facilitant le désassemblage des pièces complexes, afin de mieux récupérer les composants en fin de vie. Dans le domaine de l’emballage, Arkema met en avant ses résines thermoplastiques pouvant être retraitées en fin de vie, réduisant ainsi la dépendance aux matières vierges. Ces développements sont essentiels pour répondre aux réglementations européennes qui imposent une part croissante de matériaux recyclés dans les emballages et produits plastiques.

Miser sur le biosourcé

La troisième plateforme concerne les matériaux biosourcés ou issus de la biosynthèse. Arkema investit ainsi depuis plusieurs années dans le développement du polyamide 11, un polymère haute performance produit à partir de l’huile de ricin. Utilisé dans l’automobile, l’électronique ou le sport, il illustre la capacité de la chimie française à proposer des alternatives durables aux plastiques fossiles.

Le projet Fiabilin traduit cette volonté. En valorisant le lin technique à fibres longues, Arkema et ses partenaires cherchent à créer une nouvelle génération de composites thermoplastiques allégés et résistants, susceptibles de concurrencer les fibres de verre ou de carbone. Un projet qui associe innovation industrielle et filière agricole, et qui ouvre la voie à de nouveaux débouchés pour les matériaux d’origine végétale.

Des procédés plus vertueux

Enfin, la quatrième plateforme porte sur les procédés plus performants et vertueux. L’enjeu est d’améliorer les méthodes de fabrication, afin de réduire la consommation d’énergie, limiter les émissions et minimiser les déchets. Cet axe ne concerne pas seulement la fabrication des matériaux, mais aussi leurs formulations. Arkema développe par exemple des procédés secs, moins consommateurs de solvants, et des formulations permettant de prolonger la durée de vie des produits finis. Les colles, revêtements, peintures et additifs sont ainsi conçus pour durer plus longtemps et réduire les consommations intermédiaires. Dans le domaine des revêtements, certains polymères fluorés haute durabilité réduisent la fréquence d’entretien des infrastructures, générant des économies de ressources sur tout le cycle de vie.

Atouts français, mais concurrence internationale

Si l’orientation stratégique d’Arkema est crédible, la réussite dépendra de sa capacité à transformer l’innovation en production, à lever les verrous techniques ou coût, et à s’intégrer dans un écosystème global concurrencé, un modèle à observer pour l’industrie dans le choix des priorités, des investissements, et des partenariats.

Économie bleue durable : un troisième appel à projets transnationaux

Ce troisième appel à projets, d’un montant global de 44 millions d’euros, mobilisera cette fois les financements nationaux et régionaux de 38 organisations (l’ANR[1] en ce qui concerne la France) de 28 pays[2] ainsi que de la Commission européenne. Pour être éligible, chaque projet proposé devra :

  • contribuer à la transformation vers une économie bleue durable ;
  • impacter des bassins maritimes européens ;
  • être composé d’un consortium de partenaires provenant d’au moins trois pays différents ;
  • être financé par au moins trois des organisations participantes.

Économie bleue durable : de quoi parle-t-on ?

L’idée de proposer une politique maritime intégrée, à l’échelle européenne, vient de la Commission européenne elle-même, puisqu’elle a adopté, dès 2007, un Livre Bleu visant à plus de cohérence et de coordination entre les différents domaines de l’action des États en mer.

Le concept d’économie bleue est par ailleurs relativement récent, puisque le terme est apparu pour la première fois en 2010, dans le livre « The Blue Economy », de l’économiste belge Gunter Pauli.

Derrière ce concept, il y a ainsi la volonté d’appliquer les principes du développement durable au secteur maritime, c’est-à-dire permettre aux mers et océans d’offrir des opportunités économiques et d’assurer la sécurité alimentaire, tout en protégeant l’environnement marin face aux menaces (baisse de la biodiversité, pollution, changement climatique, etc.).

SBEP : quelques exemples de projets déjà recommandés pour financement

Le partenariat SBEP qui a démarré en 2022 est conforme à cette vision. Selon une récente présentation de l’ANR, celui-ci a pour objectif « d’accélérer la transformation pour atteindre en 2030 une économie bleue qui soit neutre pour le climat, durable, productive et compétitive, tout en créant et en soutenant les conditions d’un océan durable pour les populations d’ici à 2050. »

Les projets d’innovation et de recherche qui seront proposés dans le cadre de ce partenariat devront par ailleurs correspondre aux thématiques suivantes.

  • Thématique 1 : Jumeaux numériques de l’Océan.
  • Thématique 2 : Transition des secteurs de l’économie bleue.
  • Thématique 3 : Gestion des usages de l’océan.
  • Thématique 4 : Bioressources bleues.
  • Thématique 5 : Des communautés et des entreprises côtières résilientes.

D’après l’ANR, voici les 7 projets avec 14 partenaires français, dont 13 demandent une aide financière à l’ANR. Ils font partie des 24 projets recommandés pour financement lors du second appel à projets.

Projets recommandés pour financement lors du 2e appel à projets SBEP
Les 7 projets recommandés pour financement lors du 2e appel à projets SBEP et dont les partenaires demandent une aide financière de l’ANR

Les porteurs de projets désirant participer à ce 3e appel à projets sont donc invités à se tourner vers le SBEP ou vers l’ANR.

Par ailleurs, les candidats sont fortement incités à inclure les parties prenantes comme partenaires, afin de renforcer l’innovation et la pertinence politique et sociétale des projets afin d’en maximiser l’impact. Et si vous recherchez des partenaires, n’hésitez pas à consulter l’outil de recherche spécialement mis en place par le SBEP.


[1] Agence Nationale de la Recherche

[2]  Allemagne, Belgique, Brésil, Bulgarie, Danemark, Espagne, Estonie, Finlande, France, Géorgie, Grèce, Iles Féroé, Irlande, Italie, Lettonie, Lituanie, Malte, Monténégro, Norvège, Pays-Bas, Pologne, Portugal, Roumanie, Slovaquie, Suède, Tunisie, Turquie, Ukraine

Revue du Magazine d’Actualité #45 du 8 au 12 septembre

Entre percées énergétiques, avancées en santé et régulations numériques, l’innovation trace sa route dans un contexte de transitions multiples.


⚡ ÉNERGIE & ENVIRONNEMENT

En Finlande, la plus grande batterie de sable au monde alimente désormais un réseau de chaleur

La Finlande inaugure une installation inédite : une batterie thermique à sable capable de stocker l’énergie renouvelable sous forme de chaleur. Ce système, qui alimente désormais un réseau de chaleur local, pourrait devenir un levier clé pour la décarbonation des usages thermiques.
🔋 Découvrir cette innovation énergétique en profondeur

Réacteur nucléaire à combustibles renouvelables : une levée de fonds de 23 millions d’euros pour STELLARIA

La start-up française STELLARIA franchit une étape majeure avec une levée de fonds destinée à développer un réacteur nucléaire de quatrième génération, utilisant des combustibles renouvelables. Une promesse de production bas carbone et flexible.
☢ Zoom sur cette levée stratégique dans le nucléaire innovant


🩺 SANTÉ & BIOTECH

GEAR : grâce à l’IA, le développement de thérapies géniques pour la rétine passe la surmultipliée

Le projet GEAR, piloté par l’Inserm, utilise l’intelligence artificielle pour accélérer la conception de traitements géniques ciblant les maladies de la rétine. Une avancée qui pourrait transformer la médecine personnalisée ophtalmologique.
🧬 Plonger dans les promesses de l’IA pour la santé visuelle


🧠 NUMÉRIQUE & CYBERSÉCURITÉ

Directive européenne NIS2 : un nouveau cap pour la cybersécurité des entreprises

La directive NIS2, qui entre en vigueur en octobre, impose de nouvelles obligations aux entreprises critiques en matière de cybersécurité. Elle marque un tournant réglementaire pour renforcer la résilience numérique en Europe.
🔐 Comprendre les nouvelles règles du jeu cyber

Intelligence artificielle dans les paiements et e-commerce en Europe : inégalités régionales et régulations en mouvement

L’IA transforme les usages dans les paiements numériques, mais les disparités entre pays européens persistent. L’article dresse un état des lieux des pratiques, des risques et des régulations en cours.
🤖 Explorer les enjeux IA du commerce connecté


️ POLITIQUE & INNOVATION

Nomination de Sébastien Lecornu à Matignon : quels enjeux pour l’innovation, l’industrie et la recherche ?

La nomination de Sébastien Lecornu comme Premier ministre soulève des interrogations sur les orientations futures en matière de politique industrielle, de recherche et d’innovation. L’article analyse les signaux envoyés par ce choix stratégique.
🏭 Décrypter les implications politiques pour l’innovation


🧪 MATÉRIAUX & INDUSTRIE

Des bactéries capables de transformer les déchets alimentaires en bioplastiques

Des chercheurs développent une méthode pour convertir les déchets alimentaires en bioplastiques grâce à des bactéries spécifiques. Une piste prometteuse pour une économie circulaire des matériaux.
🧃 Voir comment les déchets deviennent ressources


👓 Bon weekend et à la semaine prochaine  !

ASML et Mistral AI engagent la souveraineté technologique européenne dans un nouveau virage

L’investissement massif d’ASML dans Mistral AI est bien plus qu’une simple opération financière. Il constitue un jalon dans la stratégie européenne de souveraineté technologique, ainsi qu’un signal très fort adressé aux acteurs américains et asiatiques. Les promesses sont importantes, mais les défis restent multiples – tant sur le plan technique que politique ou réglementaire. Le succès dépendra désormais de la mise en œuvre concrète de l’alliance, à travers le degré d’intégration, les partenariats industriels, la capacité d’innover à la fois vite et rigoureusement.

Mistral AI, fondée en 2023 par d’anciens chercheurs de Google DeepMind et Meta, est devenue en peu de temps l’un des fers de lance européens dans le domaine de l’intelligence artificielle. Avec cette levée de fonds, elle est valorisée à 11,7 milliards d’euros et se hisse ainsi au premier rang dans le secteur IA en Europe.

ASML, pour sa part, est une entreprise clef de la chaîne industrielle des semi-conducteurs. Ses machines de lithographie ultraviolette extrême (EUV) sont indispensables à la fabrication des puces les plus avancées au monde. Elle engage 1,3 milliard d’euros pour une participation de l’ordre de 11 % dans Mistral AI dont elle devient le plus grand actionnaire après cette opération.

Outre la prise de participation financière, ASML obtient un siège dans le comité stratégique de Mistral, via son directeur financier, Roger Dassen. De plus, le partenariat prévoit l’intégration des modèles d’IA développés par Mistral dans le portefeuille de produits et d’outils d’ASML, ce qui devrait se traduire par des retombées industrielles.

Enjeux européens : souveraineté, concurrence, politique

L’annonce a été accueillie comme un signal fort pour l’« autonomie technologique » de l’Europe. Elle renforce l’idée que le continent ne veut plus seulement suivre les innovations majeures en IA et semi-conducteurs, mais jouer un rôle actif.

À travers le monde, la rivalité géopolitique s’accroît. Avec les tensions commerciales, les régulations américaines et les politiques d’export vers la Chine pesant sur les acteurs hi-tech, l’Europe cherche à limiter ses dépendances, que ce soit pour les puces, les algorithmes, l’infrastructure des données, etc. Le soutien d’ASML à Mistral est perçu aussi comme une riposte politique à ces dynamiques.

Limites, défis et questions ouvertes

Malgré la portée symbolique, les gains technique et industriel doivent être maintenant prouvés. Intégrer les modèles IA dans des machines de pointe de fabrication de semi-conducteurs est certes prometteur, mais complexe. Cela nécessite une coopération fine entre les équipes R&D, assurance qualité, validation, etc.

Autre défi, la concurrence internationale reste très forte. Même avec cette valorisation, Mistral reste bien en-dessous des géants américains en termes d’échelle, d’investissement cumulatif ou de portée commerciale.

Enfin, les régulations, la capacité de recrutement (ingénieurs IA, experts en hardware, data scientists), l’accès aux infrastructures (données, calcul intensif, fab fabs) demeurent des enjeux structurants. Les réglementations européennes, bonnes mais parfois lourdes, peuvent devenir des freins selon la façon dont elles sont appliquées.

Pour la France, le partenariat constitue une victoire en termes de visibilité internationale et de capacité à faire émerger des champions nationaux. Mistral représente un exemple de start-up française par sa fondation, sa R&D, ses localisations, etc. Le fait qu’ASML soit fortement investi dans la réglementation et le politique (avec notamment des conseillers français) renforce les synergies nationales.

Dans le secteur industriel, le mariage IA/semi-conducteurs prend ici une forme concrète. Ce n’est plus seulement de l’IA logicielle pour les services ou le cloud, mais une intégration dans les machines, les processus de fabrication, les outils d’ingénierie. Cela ouvre des possibilités pour des gains de performance, de maintenance prédictive, d’optimisation énergétique, etc.

Data Privacy Framework : l’Europe valide les transferts de données des Européens vers les États-Unis

Le transfert de données personnelles de l’Union européenne vers les États-Unis est depuis longtemps un véritable casse-tête juridique et opérationnel pour les entreprises des deux côtés de l’Atlantique. Invalidations et recours se sont multipliés ces dernières années.

En septembre 2023, le député de Vendée Philippe Latombe avait déposé un recours devant la CJUE, car il considère que le Data Privacy Framework (DPF) ne protège pas assez les données personnelles des européens lorsqu’elles sont hébergées dans le cloud d’opérateurs américains comme Google, Microsoft ou Amazon web service. Le principal axe du recours du député français concerne les collectes en vrac de données personnelles par les agences de renseignement à des fins de sécurité nationale.

Deux ans plus tard, la CJUE estime que « le droit des États-Unis assure une protection juridique substantiellement équivalente à celle qui est garantie par le droit de l’Union ». En un mot, les pratiques de collecte massive de données par les agences de renseignement américaines ont été jugées compatibles avec les droits fondamentaux de l’UE, compte tenu du système de contrôle judiciaire a posteriori.

Un feuilleton qui débute en 2013

Cet arrêt consolide le dernier accord transatlantique sur le transfert de données, le DPF. Toutefois, un recours devant la Cour de justice reste possible, car le cœur du problème est l’incompatibilité fondamentale entre le RGPD de l’UE, qui considère la protection des données comme un droit fondamental, et les lois de surveillance américaines, comme le FISA (Foreign Intelligence Surveillance Act instaurée dès 1978) et le Cloud Act.

Un feuilleton qui dure depuis plus de 10 ans ! Après la divulgation du programme de surveillance de la NSA par Edward Snowden en 2013, Maximilian Schrems (un activiste autrichien militant pour la protection des données privées) avait intenté une action en justice contre Facebook, ce qui a conduit à l’invalidation de Safe Harbor.

Le Privacy Shield avait été mis en place pour le remplacer en 2016, mais il a subi le même sort en 2020, après que Schrems a à nouveau intenté une action en justice. La CJUE avait de nouveau jugé que les programmes de surveillance américains, en particulier la Section 702 du FISA et l’Executive Order, étaient disproportionnés, et a également considéré que le mécanisme de médiation prévu ne se constituait pas un recours juridique suffisant.

C’est dans ce contexte de vide juridique que le DPF a été validé le 3 septembre 2025. La fin d’un long feuilleton ? Pas sûr. Max Schrems et son ONG NOYB restent sceptiques. Ils craignent la fragilité du DPF, car il repose sur un décret présidentiel qui pourrait être révoqué par une future administration, et non sur une loi.

Leur principal reproche ? Une notion de « nécessité et de proportionnalité » qui reste ouverte à l’interprétation et pourrait ne pas suffire à garantir une protection à long terme.

Nomination de Sébastien Lecornu à Matignon : quels enjeux pour l’innovation, l’industrie et la recherche ?

Le 9 septembre 2025, Sébastien Lecornu a été nommé Premier ministre, succédant à François Bayrou après quelques mois seulement passés à Matignon. Cette nomination intervient dans un climat politique marqué par l’absence de majorité claire à l’Assemblée nationale et par l’urgence de faire adopter un budget 2026 déjà contesté. Derrière la recomposition gouvernementale, se pose une question centrale : quelles implications pour l’innovation, l’industrie et la recherche, secteurs stratégiques pour l’avenir économique du pays ?

Des ambitions affichées de « rupture »

Lors de sa prise de fonction, Sébastien Lecornu a insisté sur la nécessité de marquer une « rupture sur le fond, pas seulement sur la forme ». Il a évoqué une approche « plus créative » et une volonté de travailler « plus sérieusement avec les oppositions » pour sortir des blocages institutionnels. Cet engagement à rechercher des compromis est loin d’être anecdotique. En effet, l’innovation, la recherche publique et la politique industrielle nécessitent une stabilité budgétaire et réglementaire, souvent difficile à obtenir dans un climat parlementaire instable.

Le discours de rupture laisse entrevoir la possibilité de réorienter les priorités économiques et industrielles, voire de renforcer les investissements dans des filières jugées stratégiques, qu’il s’agisse de la transition énergétique, du numérique ou de la défense. Mais ces ambitions se heurtent immédiatement aux contraintes budgétaires et politiques.

Le défi du budget 2026

Le projet de budget 2026 élaboré par François Bayrou avait suscité de fortes critiques, notamment en raison de mesures controversées comme la suppression de deux jours fériés. Sébastien Lecornu a annoncé vouloir supprimer ces « points crispants » et redistribuer l’effort fiscal. Son objectif : parvenir à un compromis avec les oppositions et les partenaires sociaux, tout en rassurant les marchés et les partenaires européens.

Or, le budget conditionne directement les marges de manœuvre en matière de recherche et d’innovation. En période de contraintes financières, le risque est grand de voir les investissements de long terme sacrifiés au profit de mesures plus visibles à court terme. La recherche fondamentale, par définition moins immédiatement rentable, pourrait en pâtir. À l’inverse, les secteurs offrant des retombées rapides – innovation industrielle appliquée, technologies de défense, numérique – pourraient bénéficier d’une attention renforcée.

Une orientation industrielle encore à préciser

Sébastien Lecornu arrive à Matignon fort de son expérience au ministère des Armées, où il a piloté la loi de programmation militaire. Cette trajectoire l’a familiarisé avec les enjeux technologiques, la coopération avec l’industrie de défense et les besoins en innovation de souveraineté. Il est donc probable que les filières liées à la sécurité, à la cybersécurité et aux technologies duales (militaires et civiles) bénéficient d’un soutien particulier. Cette orientation s’inscrirait dans une tendance européenne plus large de réarmement technologique et industriel.

Cependant, l’enjeu dépasse la seule défense. La compétitivité industrielle de la France repose aussi sur sa capacité à innover dans la transition énergétique, la robotique, les biotechnologies ou encore les matériaux avancés. Le défi pour le nouveau Premier ministre sera de donner une cohérence à une politique industrielle fragmentée, dans un contexte où les attentes des entreprises portent autant sur le financement que sur la simplification administrative.

Innovation et recherche : entre ambitions et contraintes

Dans le domaine de la recherche publique, les déclarations de Sébastien Lecornu ne dessinent pas encore de cap précis. Toutefois, son appel à des ruptures « sur le fond » pourrait se traduire par un soutien accru aux partenariats public-privé et par une meilleure articulation entre laboratoires et entreprises. Les universités et les centres de recherche attendent une programmation budgétaire pluriannuelle, condition d’une visibilité indispensable pour mener des projets de long terme.

Reste que les arbitrages financiers pèseront lourd. Si le gouvernement choisit de privilégier des secteurs stratégiques – numérique, énergie, défense –, les disciplines moins prioritaires pourraient voir leurs moyens réduits. La tension entre recherche fondamentale et recherche appliquée, déjà présente, risque donc de s’accentuer.

Une équation politique complexe

Au-delà des orientations sectorielles, la réussite de Sébastien Lecornu dépendra de sa capacité à stabiliser la vie politique. La menace de motions de censure, l’absence de majorité absolue et les tensions sociales rendent toute réforme ambitieuse difficile à mettre en œuvre. Pour l’innovation comme pour l’industrie, la prévisibilité des politiques publiques est pourtant un facteur clé. Sans elle, les entreprises hésitent à investir et les chercheurs peinent à planifier.

La volonté affichée de dialogue avec les oppositions pourrait favoriser des compromis législatifs sur les grands enjeux technologiques et industriels. Mais cette recherche de consensus risque aussi de conduire à des mesures plus modestes que les ambitions initialement proclamées.

De l’optimisme à la prudence

Deux scénarios se dessinent.

  • La dynamique de rupture : dans cette hypothèse, Sébastien Lecornu parvient à stabiliser la vie politique en nouant des compromis avec certaines oppositions. Le budget 2026 est adopté après des ajustements, permettant de dégager des marges de manœuvre ciblées pour l’innovation et la recherche.

Le Premier ministre engage alors une politique de soutien affirmé aux filières stratégiques : défense, cybersécurité, énergie bas-carbone, biotechnologies. Inspiré par son expérience au ministère des Armées, il favorise les synergies entre recherche publique et privée et encourage la constitution de pôles d’excellence.

Les crédits d’impôt recherche sont maintenus, voire renforcés, et de nouvelles incitations fiscales apparaissent pour attirer les investissements étrangers dans l’industrie de haute technologie. Les universités obtiennent une programmation budgétaire plus lisible, même si elle reste concentrée sur certaines disciplines prioritaires.

Dans ce scénario, la France renforce sa souveraineté technologique et industrielle, au prix toutefois d’une hiérarchisation assumée des financements qui laisse certains domaines de recherche en retrait.

  • La gestion contrainte : ici, le contexte politique reste instable, entre motions de censure, négociations permanentes, et pressions pour réduire le déficit public. Le budget 2026 est adopté, mais au prix de coupes et de compromis qui limitent l’ambition initiale.

Faute de marges financières, le gouvernement concentre ses moyens sur la gestion courante et sur quelques projets emblématiques à forte visibilité politique. La recherche fondamentale subit une stagnation de ses crédits, tandis que l’innovation industrielle se voit contrainte à des financements ponctuels, davantage symboliques que structurels.

L’industrie de défense conserve une place à part, bénéficiant d’une relative protection, mais les autres secteurs – énergie, numérique, sciences de la vie – avancent de manière plus dispersée, sans stratégie claire à long terme. Les entreprises hésitent à investir massivement en raison du manque de visibilité, et les chercheurs peinent à planifier leurs projets.

Dans ce scénario, la France limite la casse, mais ne crée pas l’élan attendu. Les ruptures annoncées se traduisent par des ajustements techniques plutôt que par une refonte en profondeur des politiques d’innovation.

Calogena : un petit réacteur pour chauffer la France de demain

Le projet Calogena, avec son module CAL30, incarne une ambition de taille : offrir une solution nucléaire compacte, sûre et décarbonée pour les villes. Porté par le groupe industriel Gorgé et soutenu par l’État et l’Europe, Calogena se positionne en tête dans la course à l’innovation SMR en France.

Un concept technique au service de la décarbonation

Le CAL30 est un réacteur modulaire à eau, d’une puissance thermique de 30 MW, imaginé pour remplacer les chaudières fossiles sur les réseaux urbains ou industriels. Sa technologie s’inspire des réacteurs de recherche de type « piscine », éprouvés depuis des décennies, et dont la sûreté est jugée robuste.

Le cœur du réacteur, d’un volume inférieur à 1 m³, fonctionne à basse pression (inférieure à 5 bar) et basse température, ce qui simplifie considérablement l’architecture, limite les systèmes auxiliaires et renforce la sûreté intrinsèque.

Le CAL30 a été pensé pour s’insérer directement dans des réseaux de chaleur existants, avec une empreinte au sol contenue – environ 3 000 m² pour le terrain, et moins de 1 000 m² pour les bâtiments annexes –, ce qui facilite son installation en milieu urbain dense ou sur site restreint. Il est optimisé pour le « load-following », c’est-à-dire qu’il peut adapter sa production de chaleur aux fluctuations de la demande. Le ravitaillement en combustible nécessite un seul camion tous les deux ans, loin des approvisionnements journaliers de certaines installations biomasse ou fossiles.

Une trajectoire soutenue par l’État et l’Europe

Le projet Calogena figure parmi les lauréats de l’appel à projets « Réacteurs nucléaires innovants » du programme France 2030, piloté par Bpifrance. Il bénéficie également du soutien de l’Alliance SMR industrielle européenne via le projet CityHeat.

La start-up, implantée à Paris avec une plateforme technique à Aix, a ouvert une filiale en Finlande en 2025, pays leader du chauffage urbain nucléaire, signe de son ambition européenne.

Fin août 2025, Calogena a signé une lettre d’intention avec le CEA, visant à évaluer la faisabilité d’un module CAL30 sur le site de Cadarache, avec raccordement au réseau thermique du centre. Ce projet vise un déploiement possible dès 2030, selon ses promoteurs.

Le 31 octobre 2024, Calogena a déposé un dossier d’options de sûreté auprès de l’ASN, entamant ainsi la phase de préinstruction. En juin 2025, le dossier a été enrichi pour intégrer des orientations supplémentaires sur la diversité des systèmes d’arrêt du réacteur. Par ailleurs, Calogena mène une procédure similaire avec l’autorité finlandaise STUK pour envisager une implantation en Finlande.

Avantages et défis

Le CAL30 promet une chaleur stable, sûre et décarbonée – avec un coût compétitif et une empreinte carbone minimale – tout en offrant une souveraineté énergétique, notamment dans les collectivités locales.

Toutefois, les défis restent tangibles. Ainsi, l’industrialisation du concept, les procédures réglementaires à calibrer pour un réacteur de cette taille, et l’empêchement de forte concurrence sur le marché du chauffage urbain constituent autant d’obstacles à lever avant une commercialisation à grande échelle.

Éolien offshore : une étude alerte sur les émissions chimiques des parcs en mer

La filière éolienne offshore connaît une expansion sans précédent, avec 80,9 GW (gigawatts) installés dans le monde à la fin de l’année dernière et des objectifs européens dépassant les 150 GW d’ici 2030. Si cette dynamique illustre la montée en puissance des énergies renouvelables, elle s’accompagne d’interrogations croissantes sur ses impacts environnementaux. Une étude parue dans Marine Pollution Bulletin fournit la première synthèse exhaustive sur les émissions chimiques associées aux parcs éoliens en mer.

Au total, 228 composés susceptibles d’être relâchés par les infrastructures offshore ont été identifiés par une équipe internationale de chercheurs. Ces substances, dont 62 figurent déjà sur des listes de produits chimiques prioritaires au niveau international, couvrent un spectre large allant des composés organiques liés aux revêtements de protection jusqu’aux métaux issus des anodes sacrificielles, en passant par des huiles, des solvants et des additifs divers.

L’étude montre que les revêtements servant à protéger les différents matériaux qui constituent les éoliennes -notamment contre la corrosion- concentrent 58 % des substances identifiées. Ces couches à base de polyuréthane ou de résines époxy, appliquées sur les structures en acier, subissent une dégradation progressive due entre autres à l’action mécanique des vagues et au sel, libérant des particules et des produits de décomposition.

Les anodes sacrificielles constituent la deuxième source d’émissions avec 12 % des composés recensés. Conçues pour se dissoudre et protéger l’acier des turbines, elles diffusent entre autres de l’aluminium, du zinc et de l’indium, et parfois des impuretés toxiques telles que le nickel et le mercure. Les chercheurs distinguent par ailleurs les émissions continues, directement liées au fonctionnement normal des structures, des rejets intermittents observés lors des opérations de maintenance et des émissions accidentelles, qui provoquent des fuites et des déversements. Les mousses anti-incendie, les huiles et les lubrifiants figurent parmi les vecteurs identifiés.

Des mesures alternatives sont identifiées pour limiter les risques

Si certains effets écotoxicologiques commencent à être décrits, comme l’accumulation de métaux dans les tissus de mollusques ou l’altération de fonctions physiologiques chez différentes espèces marines, la connaissance globale reste lacunaire. Les tests de toxicité portent encore majoritairement sur des espèces d’eau douce et ne tiennent pas toujours compte des paramètres propres au milieu marin. De plus, l’évaluation des risques liés à des mélanges complexes de substances, tels qu’ils sont présents dans l’environnement, reste embryonnaire alors que des effets synergiques ou antagonistes sont probables.

Plusieurs mesures alternatives sont identifiées pour limiter ces émissions de produits chimiques. Parmi elles figurent de nouveaux revêtements biosourcés pour lutter contre la corrosion ou encore le recours à des huiles lubrifiantes biodégradables. Des mesures structurelles peuvent aussi être mises en place, comme l’installation de systèmes à double paroi pour limiter les risques de fuites accidentelles.

À noter que les systèmes de protection cathodique à courant imposé, qui sont présentés comme une solution pour éviter les relargages de substances métalliques des anodes sacrificielles, peuvent néanmoins produire des sous-produits halogénés, notamment des composés chimiques contenant du chlore, dont l’impact reste à ce jour mal documenté.

Sur le plan réglementaire, les auteurs mettent en évidence l’absence de cadre harmonisé à l’échelle internationale. Face à la montée en puissance de l’éolien offshore, ils préconisent de considérer la question des émissions chimiques comme un enjeu central de la durabilité. Ils appellent à la mise en œuvre de protocoles de suivi systématiques, à l’intégration des risques chimiques dans les études d’impact et à une hiérarchisation des substances les plus préoccupantes pour orienter les efforts de recherche et de régulation. À défaut, l’essor d’une énergie présentée comme propre pourrait générer une pollution diffuse et durable des écosystèmes marins, compromettant une partie des bénéfices environnementaux attendus de la transition énergétique.

Les routes sous surveillance pour repérer leurs dégradations

Les nids-de-poule, les crevasses, ou encore les fissures représentent des pièges pour les automobilistes. Or, cette situation ne s’améliore pas en France. En 2023, 19 % des routes françaises étaient considérées comme en mauvais état, selon un rapport de l’Observatoire national de la route. Mais les réparations coûtent très cher. L’État a évalué la facture à 15,7 milliards d’euros.

Pour réduire cette facture, l’hexagone pourrait s’inspirer des Pouilles, une région située dans l’extrême sud-est de l’Italie. Avec le fabricant de pneumatiques Pirelli, elle va déployer le premier système de surveillance routière au monde.

Le Pirelli Cyber Tyre comprend des logiciels et des capteurs intégrés directement dans la bande de roulement du pneu. Il peut ainsi mesurer la pression, la température ainsi que les irrégularités de l’asphalte. Ce dispositif sera complété par des caméras installées à bord de véhicules. Les données visuelles seront traitées par le système d’analyse vidéo de la société suédoise Univrses.

Maintenance routière plus rapide

Pirelli Cyber Tyre collectera et traitera, grâce à des algorithmes innovants, des informations provenant de capteurs placés à l’intérieur de la bande de roulement, en analysant des facteurs tels que la rugosité et les irrégularités de l’asphalte. De son côté, la technologie Univrses permettra, grâce à des caméras, de surveiller l’état des routes ainsi que la signalisation horizontale et verticale.

Une fois traitées, ces données seront consultables par la Région via des tableaux de bord numériques. La Région aura ainsi accès aux informations collectées pendant la phase pilote. Ce service vise à permettre une maintenance routière plus rapide et plus efficace, contribuant ainsi à améliorer la sécurité du réseau routier.

Les premières voitures fournies à la Région par la société de location Ayvens – l’un des leaders dans les services de location longue durée et de gestion de flotte – ont commencé à rouler en juillet dernier.

En plus du projet, Pirelli développe un autre système pour surveiller les autoroutes.

La France et les technologies critiques : un paysage contrasté en 2025

Le Critical and Emerging Technologies Index 2025, publié par le Belfer Center de l’université Harvard, dresse un état des lieux des forces et faiblesses technologiques de 25 pays. Cet index se distingue par une approche fine, structurée en piliers transversaux (capital humain, financement, cadre réglementaire, sécurité, intégration internationale) et en indicateurs spécifiques par technologie. Plus de 3 000 données ont été collectées, allant du nombre de publications et brevets au volume des investissements publics et privés.

Cette méthodologie permet de comparer des pays de tailles très différentes et de faire ressortir des tendances structurelles.

Le rapport issu de cette analyse classe la France au 9ᵉ rang, une place en ligne avec son poids économique mondial (7ᵉ PIB). Cependant, bien qu’honorable, ce résultat traduit surtout une situation contrastée selon les domaines.

Trois secteurs porteurs : IA, quantique et spatial

Dans trois filières, la France fait mieux que défendre sa place.

La France occupe ainsi le 6ᵉ rang mondial pour l’intelligence artificielle, ce qui confirme la vitalité de l’écosystème tricolore, soutenu par la stratégie nationale IA et des centres de recherche reconnus.

Elle figure par ailleurs au 7ᵉ rang pour les technologies quantiques, preuve que les efforts consentis dans ce secteur émergent commencent à porter leurs fruits, avec un tissu de startups, laboratoires et projets collaboratifs dynamiques.

Enfin, elle se place au 5ᵉ rang mondial pour le spatial, portée par le savoir-faire du CNES et d’Airbus, mais aussi par la montée en puissance des acteurs privés.

Ces résultats placent la France parmi les leaders européens, et montrent que sa taille modeste ne l’empêche pas d’occuper un rôle stratégique dans des domaines d’avenir.

Retards en semi-conducteurs et biotechnologies

À l’inverse, deux secteurs apparaissent comme des angles morts de la stratégie française.

La France se classe ainsi 12ᵉ, loin derrière les champions asiatiques (Corée du Sud, Taïwan, Japon) ou les États-Unis pour les semi-conducteurs. Or ces composants sont la base de toutes les technologies numériques, de l’IA aux réseaux de communication.

Elle occupe également la 12ᵉ place pour les biotechnologies, un rang en retrait alors que la France pouvait autrefois s’appuyer sur des leaders industriels et académiques. La perte de vitesse dans ce domaine est particulièrement notable face aux États-Unis et à la Chine.

Ces faiblesses constituent un risque stratégique : elles fragilisent la souveraineté technologique et l’autonomie industrielle du pays.

Quelles priorités pour la France ?

Au niveau continental, l’Europe affiche une bonne compétitivité dans la plupart des secteurs. Cependant, elle souffre d’une dépendance marquée dans les semi-conducteurs, face aux puissances asiatiques et américaine. La France n’échappe pas à cette tendance, et sa position médiane dans l’Index reflète les forces et fragilités de l’ensemble européen.

Le rapport du Belfer Center dresse la photographie d’un pays à double visage. Innovant et compétitif dans des secteurs d’avenir, il est capable de rivaliser avec les grandes puissances, mais il se révèle aussi vulnérable dans des domaines stratégiques, qui conditionnent l’ensemble des autres technologies.

Dans un contexte où la compétition mondiale autour des technologies critiques s’intensifie, ces contrastes interrogent sur la capacité de la France à maintenir son rang et à assurer son indépendance technologique.

Le rapport du Belfer Center invite dès lors la France à capitaliser sur ses points forts en consolidant ses positions dans l’IA, le quantique et le spatial. Ces filières doivent rester prioritaires, car elles représentent autant d’atouts industriels et scientifiques.

Il recommande par ailleurs de corriger les faiblesses en semi-conducteurs et biotechnologies. Les solutions évoquées passent par une augmentation des financements, un renforcement des partenariats internationaux et une meilleure structuration des filières.

Directive européenne NIS2 : un nouveau cap pour la cybersécurité des entreprises

NIS2, c’est le serpent de mer de la cybersécurité en France ! Cela fait des mois que la directive européenne « Network and Information Security » doit être transposée dans le droit français.

Malgré la date limite de transposition fixée au 17 octobre 2024 par la Commission européenne, la France joue les tortues. En cause, la valse des gouvernements depuis des mois. L’hexagone n’est pas le seul à traîner des pieds.

Une dizaine de pays (Suède, Portugal, Espagne, Pologne, Grèce…) est au même stade. Les bons élèves se comptent sur les doigts d’une main : Belgique, Italie, Lettonie, Hongrie, Lituanie l’ont transposé dès 2024.

Une telle situation est inquiétante, car NIS2 marque un tournant majeur dans la stratégie de cybersécurité du continent. Loin d’être une simple mise à jour, NIS2 est une refonte complète visant à renforcer la résilience des entreprises et des services essentiels.

L’une des principales faiblesses de la première directive NIS était son champ d’application trop restreint. NIS2 corrige le tir en ciblant un éventail plus large d’organisations. La directive s’applique désormais à toute entité, publique ou privée, qui opère dans l’un des nombreux secteurs critiques, et qui emploie plus de 50 personnes ou génère plus de 10 millions d’euros de chiffre d’affaires.

Elle introduit surtout une classification claire.

  • Les « Entités Essentielles » (EE) : ce sont les piliers de notre économie et de nos sociétés. La liste inclut l’énergie, les transports, la banque, la santé, les infrastructures numériques et l’eau potable.
  • Les « Entités Importantes » (IE) : cette nouvelle catégorie englobe des secteurs tout aussi vitaux, mais considérés comme moins critiques en cas d’interruption majeure. On y trouve la gestion des déchets, la fabrication de produits chimiques, l’industrie alimentaire, les services postaux, ou encore les grands sites de e-commerce.

Résultat, en France, environ 15 000 entités sont directement visées par NIS2, contre 300 sous NIS1.

Obligations claires et fortes amendes

NIS2 impose des obligations concrètes pour garantir un niveau de sécurité élevé. Les entreprises concernées doivent mettre en œuvre une série de mesures techniques et organisationnelles pour gérer les cyberrisques :

  • mise en place de politiques de gestion des risques et de mesures techniques adaptées (pare-feu, segmentation réseau, chiffrement, etc.) ;
  • surveillance continue des systèmes et détection précoce des incidents ;
  • plan de réponse aux incidents et procédures de continuité d’activité ;
  • formation et sensibilisation régulières des collaborateurs ;
  • audit et évaluation régulière des dispositifs de sécurité.

Et si les entreprises ne les appliquent pas, la sanction sera lourde. Pour les EE, la non-conformité peut entraîner des sanctions allant jusqu’à 10 millions d’euros ou 2 % du chiffre d’affaires mondial de l’entreprise. Pour les EI, c’est 7 millions d’euros ou 1,4 % du chiffre d’affaires mondial.

Mais la sanction n’est pas que financière. La directive rend également les cadres responsables de la gestion des risques liés à la cybersécurité. En cas de non-respect grave des règles, ils peuvent se voir imposer des audits de sécurité, voire des interdictions temporaires d’exercer des fonctions de gestion.

En conclusion, NIS2 n’est pas juste une formalité réglementaire. En faisant de la cybersécurité une question de survie financière et de responsabilité de la direction, la directive vise à inciter les entreprises à passer du statut de cible passive à celui d’acteur proactif de leur propre résilience numérique.

Décarboner la mobilité en France : un virage encore trop lent

Alors que la France tente de verdir ses modes de déplacement, le secteur des transports reste à la traîne, freinant une transition écologique pourtant urgente. Les chiffres montrent des progrès, mais les freins structurels et sociaux pèsent lourd. En 2023, selon les derniers chiffres des ministères de l’Aménagement du territoire et de la Transition écologique, les émissions de gaz à effet de serre de ce secteur ont baissé de 5,4 % par rapport à 2019, atteignant 126,8 millions de tonnes équivalent CO₂. Une avancée à relativiser puisque les transports représentent toujours près de 34 % des émissions nationales, en tête devant tous les autres secteurs.

Le transport routier domine, concentrant 60 % des émissions du secteur, dont 53 % rien que pour les voitures particulières et 24 % pour les poids lourds (camions, bus, cars). Entre 1990 et 2023, l’amélioration technologique a permis de réduire les émissions unitaires, avec une baisse de 24 % du CO₂ par kilomètre parcouru. Néanmoins, le vieillissement du parc, l’augmentation de la puissance et de la taille des véhicules, ainsi que la prédominance des motorisations essence ont pour effet de freiner cette amélioration.

La feuille de route française pour les mobilités propres présentée fin 2024 prévoit une baisse de 31 % des émissions du secteur d’ici 2030. Pour y parvenir, elle mise sur plusieurs leviers, notamment le développement du ferroviaire pour les marchandises, l’électrification du parc automobile et la promotion des mobilités actives et partagées (vélo, marche, covoiturage). Mais chacun de ces piliers rencontre ses propres limites.

Le fret ferroviaire, peu émetteur (neuf fois moins de CO₂ par tonne-kilomètre que la route), reste encore marginal en France, représentant seulement 10 % des volumes transportés, alors que la moyenne européenne est à 18 % et l’Allemagne à 23 %. L’objectif fixé par la loi « Climat et résilience » d’atteindre 18 % d’ici 2030 semble hors de portée. Cette ambition est freinée par le manque d’infrastructures, la priorité donnée aux transports de voyageurs et une logistique routière plus souple.

Les émissions par Français ont progressé de 7 % ces vingt-cinq dernières années

Côté automobile, les ventes de voitures électriques progressent certes, représentant 13 % des nouvelles immatriculations en 2024, mais elles ne composent encore que 2,2 % du parc total. L’objectif de 15 % à l’horizon 2030 semble là aussi lointain. Quant à la marche et au vélo, ils restent très minoritaires face à l’usage massif de la voiture : 82 % des trajets s’effectuent encore en automobile, contre seulement 11,2 % en train. Le vélo gagne du terrain avec près de 2 millions de ventes l’an dernier, mais reste loin de pouvoir inverser la tendance.

Selon une étude publiée par l’Ademe, les émissions par Français liées à la mobilité ont augmenté de 7 % entre 1994 et 2019. Une hausse due non pas à un nombre accru des déplacements, qui sont restés globalement stables, mais à l’allongement moyen des distances parcourues (+18 %). Résultat : malgré une baisse de 10 % des émissions par kilomètre liée aux progrès techniques, l’effet rebond l’emporte, avec une hausse de 7 % des émissions par personne et de 20 % au total en tenant compte de la croissance démographique.

Deux sources principales d’émissions dominent. D’abord, les trajets quotidiens en voiture, responsables de 85 % des distances parcourues localement et 95 % des émissions associées, sont aggravés par l’étalement urbain et la baisse du taux de remplissage des véhicules. Ensuite, les voyages longue distance, favorisés par l’essor de l’avion, ont vu leurs émissions bondir de 35 %. Si les performances des avions se sont améliorées (−45 % par passager-kilomètre), la multiplication des trajets a annulé ces gains.

L’Ademe pointe aussi du doigt une fracture sociale dans l’accès au transport aérien, puisque les 25 % des Français les plus aisés concentrent plus de la moitié des distances parcourues. Derrière cette inégalité se pose une question cruciale : comment cibler les plus gros émetteurs sans pénaliser les plus modestes ? Les auteurs de l’étude avancent l’idée d’une taxe progressive sur les vols fréquents, accompagnée d’alternatives ferroviaires renforcées. Pour les mobilités locales, les pistes sont connues : lutter contre l’étalement urbain, rapprocher les logements et les services, développer les transports publics, le covoiturage et les mobilités douces.


Crédit visuel principal : freepik

En Finlande, la plus grande batterie de sable au monde alimente désormais un réseau de chaleur

En juin 2025, Pornainen, une commune du sud de la Finlande, a inauguré une installation hors norme : une batterie de sable de 13 mètres de haut et 15 mètres de diamètre, remplie de 2 000 tonnes de stéatite concassée. Derrière ce cylindre imposant, une promesse simple : stocker l’énergie quand elle est abondante et bon marché, pour restituer de la chaleur propre en continu.

Avec cette installation, la Finlande démontre qu’il est possible de décarboner massivement la chaleur sans recourir à des technologies complexes ou à des matières premières rares. La batterie de sable de Pornainen n’est pas qu’une curiosité technologique : elle est la preuve que l’innovation, alliée au pragmatisme, peut ouvrir de nouvelles voies pour la transition énergétique européenne.

La chaleur, talon d’Achille de la transition

Si l’électricité attire l’essentiel de l’attention dans la transition énergétique, c’est bien la chaleur qui pèse le plus lourd dans la consommation finlandaise. Près d’un logement sur deux est raccordé à un réseau urbain, alimenté jusqu’ici par la biomasse et, en appoint, par le fioul. Mais depuis l’arrêt des importations russes et la montée en puissance des énergies renouvelables intermittentes – notamment l’éolien, dont la capacité a dépassé les 8 GW en 2024 –, la Finlande doit repenser son approvisionnement.

Dans ce contexte, la batterie de Pornainen apparaît comme un chaînon manquant : elle capte l’électricité excédentaire pour chauffer le sable jusqu’à 600 °C, puis restitue cette chaleur selon les besoins du réseau local.

L’installation affiche une capacité de 100 MWh et une puissance de 1 MW, soit dix fois plus que le premier démonstrateur de Kankaanpää en 2022. Les pertes thermiques restent limitées grâce à une isolation efficace, permettant de conserver l’énergie plusieurs mois. En été, la batterie peut couvrir presque un mois des besoins de chaleur de la commune ; en hiver, près d’une semaine.

Au-delà de la performance technique, l’impact est immédiat : suppression totale du fioul, réduction de 60 % de l’usage de biomasse et baisse de 70 % des émissions, soit 160 tonnes de CO₂ évitées chaque année.

Derrière ce projet se cache la jeune pousse Polar Night Energy, fondée en 2018 par Tommi Eronen et Markku Ylönen. Leur pari : miser sur un matériau simple, peu coûteux et abondant – du sable ou des roches concassées – pour proposer une alternative robuste aux solutions de stockage classiques. Leur premier succès, à Kankaanpää, avait déjà attiré l’attention internationale ; avec Pornainen, ils changent d’échelle.

Le financement repose sur un investissement de Loviisan Lämpö, opérateur local de chaleur et filiale du fonds CapMan Infra, avec Polar Night Energy comme entrepreneur principal. L’entreprise a par ailleurs levé 7,6 millions d’euros en 2024 auprès d’investisseurs privés et bénéficie du soutien de Business Finland pour la recherche et le développement.

Intelligence artificielle et circularité

La batterie n’est pas seulement un réservoir de chaleur. Grâce à une solution d’optimisation développée par Elisa Industriq, elle fonctionne en interaction avec le marché de l’électricité finlandais : elle se charge lorsque les prix sont bas et restitue l’énergie quand la demande est forte. Cette flexibilité contribue à stabiliser le réseau et à tirer parti des renouvelables.

Autre atout : l’utilisation de stéatite issue des déchets de l’industriel Tulikivi. En transformant un sous-produit en ressource énergétique, le projet illustre la logique d’économie circulaire chère aux pays nordiques.

Une vitrine pour l’Europe

L’expérience de Pornainen pourrait faire école. Les batteries de sable présentent un potentiel pour tous les réseaux de chaleur d’Europe du Nord et de l’Est, mais aussi pour certaines industries gourmandes en chaleur, de l’agroalimentaire à la chimie. À plus long terme, Polar Night Energy travaille sur le concept de « power-to-heat-to-power », qui permettrait de reconvertir une partie de l’énergie stockée en électricité.

GEAR : grâce à l’IA, le développement de thérapies géniques pour la rétine passe la surmultipliée

Acronyme de « Gene therapy Evaluation for the retina using AAV and AI-based Rational design », GEAR est un programme collaboratif mené conjointement par l’Institut de la vision, ADLIN Science et WhiteLab Genomics. Doté d’un budget de 4 millions d’euros, il est soutenu par l’État et la région Île-de-France dans le cadre de l’appel à projets régionalisé i-Demo du plan France 2030, opéré par Bpifrance, et a obtenu la labellisation du pôle de compétitivité Medicen.

Cofondatrice et cheffe de cabinet de WhiteLab Genomics, Lucia Cinque revient pour Techniques de l’Ingénieur sur les objectifs de cet ambitieux programme et les outils mis en œuvre pour y parvenir. Elle nous dévoile également de premiers résultats clés obtenus par le trio de partenaires en mars dernier.

Techniques de l’Ingénieur : Pouvez-vous tout d’abord nous présenter, en quelques mots, les trois acteurs impliqués dans le programme GEAR, et nous en préciser les rôles respectifs ?

 Lucia Cinque, cheffe de cabinet de WhiteLab Genomics
Titulaire d’un doctorat de l’ENS-PSL, Lucia Cinque est aujourd’hui cheffe de cabinet de WhiteLab Genomics, qu’elle a cofondée en 2019.

Lucia Cinque : L’Institut de la vision – avec lequel nous travaillions déjà sur d’autres projets – est un institut phare en France, et même l’un des plus réputés au monde. Il nous amène à la fois ses connaissances des pathologies rétiniennes, un accès aux échantillons de patients et aux modèles précliniques, ainsi que son expertise dans le développement de traitements innovants.

WhiteLab Genomics, que je représente, est une techbio spécialisée dans l’utilisation de l’IA pour améliorer et accélérer les développements de thérapies géniques. Notre technologie propriétaire d’intelligence artificielle permet d’analyser des données biologiques complexes et de concevoir in silico des candidats thérapeutiques optimisés, réduisant ainsi les délais de développement, les coûts et les risques associés.

ADLIN Science propose quant à elle une plateforme à destination, notamment, de l’industrie pharmaceutique, qui permet de structurer les données utilisées pour entraîner des modèles d’IA. Cette solution collaborative nous permet donc d’intégrer toutes les données à partir desquelles nous travaillons dans le cadre de ce projet.

Quelle est l’approche thérapeutique sur laquelle ce programme « GEAR » se concentre ?

Un programme visant à optimiser la conception des vecteurs AAV
Le programme mené par WhiteLab Genomics et ses partenaires vise notamment à optimiser la conception des vecteurs AAV. © WhiteLab Genomics

L’Institut de la vision et nous-mêmes nous intéressons tout particulièrement à ce que l’on appelle la médecine génomique, une famille de thérapies avancées qui passent par le transport d’un « matériel » thérapeutique jusqu’à une cellule malade. Pour mener à bien ce type de stratégie, il y a deux approches possibles : on peut soit réaliser directement une injection, dans le cadre d’une approche « in vivo », soit, notamment dans le cadre d’une thérapie cellulaire, prélever au préalable du sang ou des cellules spécifiques, avant de les traiter ex vivo puis de les réinjecter finalement au patient. L’injection contient en quelque sorte un « véhicule » – on parle de vecteur – capable d’amener ses « passagers » – qui sont des éléments thérapeutiques – à destination. À condition bien sûr d’avoir la bonne adresse : il ne s’agit pas de décharger les passagers n’importe où, mais bien de délivrer précisément et exclusivement les séquences thérapeutiques au niveau des cellules malades. Dans le cadre de notre projet, la cible est l’œil, et plus précisément la rétine, un tissu formé notamment de cellules clés pour la vision que l’on appelle les photorécepteurs.

Le laboratoire avec lequel nous travaillons dans le cadre du programme GEAR – dirigé par Deniz Dalkara – est spécialisé dans les maladies oculaires ayant une composante inflammatoire, en particulier la DMLA – qui est la première cause de malvoyance après cinquante ans – et se concentre particulièrement, pour cela, sur l’approche que je décrivais, celle de la médecine génomique. L’œil a en effet pour avantage d’être un organe fermé, dans lequel on peut injecter un matériel thérapeutique sans risque de migration, et donc d’effets indésirables ailleurs dans l’organisme. Pour cette raison, l’œil concentre à lui seul beaucoup d’espoirs en matière de thérapies avancées, et fait donc l’objet de nombreux programmes de recherche comme le nôtre.

Quels sont justement vos principaux objectifs avec ce projet ?

Notre objectif, dans le cadre de ce programme GEAR, est avant tout de parvenir à augmenter la précision d’adressage du matériel thérapeutique dans l’œil. L’objectif sous-jacent est aussi d’optimiser la conception des vecteurs, pour pouvoir diminuer les doses injectées, et donc réduire drastiquement les coûts de ces traitements innovants, qui restent aujourd’hui très élevés.

Notre ambition est aussi de développer des vecteurs haute-performance, qui nous permettent de traiter la rétine dans son intégralité malgré l’injection d’une faible dose de traitement. Aujourd’hui, les injections n’ont qu’un effet localisé, qui ne permet pas au patient de recouvrer une vision normale sur la totalité du champ visuel.

Quel est l’intérêt de faire appel à « l’IA » dans le cadre de ce programme ?

Notre approche basée en grande partie sur l’utilisation d’outils d’IA nous permet d’accélérer fortement la découverte de vecteurs performants, en réalisant rapidement sur ordinateur des criblages qui nous auraient pris beaucoup de temps au laboratoire. Après criblage massif par les algorithmes d’IA, nous obtenons une short list d’une cinquantaine de candidats à haut potentiel, qui donneront, in fine, deux ou trois candidats vecteurs qui pourront être testés sur un modèle animal. Cela va aussi nous permettre, au passage, de réduire drastiquement le recours à l’expérimentation animale, qui est pour l’heure massivement utilisée pour la recherche dans le domaine de la médecine génomique.

La plateforme HTS Core Facility de l’Institut de la Vision
L’Institut de la Vision dispose notamment d’une plateforme visant à développer de nouvelles approches de criblage haut et moyen débit : la HTS Core Facility. © LAardhuin

Ces vecteurs haute performance nous permettront également à terme de réduire les doses injectées, et donc les coûts des traitements, tout en assurant une distribution des séquences thérapeutiques sur toute la rétine.

L’institut de la vision mène lui aussi, en interne, des travaux faisant appel à des outils d’IA. Ils ont toutefois adopté une stratégie différente de l’approche rationnelle que j’évoquais, qui est celle de l’évolution dirigée. Nous échangeons donc régulièrement des données, via la plateforme d’ADLIN Science, dans l’espoir que la combinaison de ces deux approches nous permette d’améliorer encore plus les performances de ces vecteurs viraux.

L’explicabilité des résultats reste un enjeu majeur, a fortiori dans le domaine de la recherche thérapeutique… Comment avez-vous pris en compte cet aspect ?

La plateforme que nous utilisons est construite autour d’un principe d’explicabilité très forte. Un grand nombre – une vingtaine – des « briques » d’IA qui la constituent sont très largement basées sur des données humaines de haute qualité. Cela nous offre la possibilité de vérifier et de valider les prédictions qui sont faites. Poser un regard critique sur les résultats reste en effet fondamental. On ne peut pas se permettre de baser un programme de recherche thérapeutique uniquement sur une approche computationnelle. Il s’agit d’un grand accélérateur, qui nous permet aussi de réduire les coûts et le recours à l’expérimentation animale, mais qui ne nous dispense pas de passer par un certain nombre d’étapes clés en laboratoire, ne serait-ce que pour des raisons réglementaires.

Pour quelle(s) maladie(s) de l’œil espérez-vous parvenir à développer des traitements, à terme ?

Notre projet ne concerne pas une maladie en particulier, mais vise plutôt à concevoir des « véhicules » qui nous permettront à terme de traiter entre cinquante et soixante maladies oculaires différentes. Obtenir ne serait-ce qu’un ou deux vecteurs hautement performants nous permettrait de lancer une dizaine de programmes de développement de médicaments de thérapie génique, avec l’appui de partenaires pharmaceutiques.

Il existe d’ailleurs déjà un médicament de thérapie génique – le Luxturna – destiné au traitement d’une maladie de l’œil que l’on appelle la dystrophie rétinienne héréditaire. Cette réussite nous permet vraiment d’espérer obtenir des résultats aussi spectaculaires pour d’autres pathologies, grâce aux nombreux projets de recherche en cours comme le nôtre, mais aussi les nombreux candidats-médicaments déjà en phase d’essai clinique.

Vous avez justement annoncé un premier résultat clé en mars dernier. De quoi s’agit-il ?

Comme je l’évoquais, notre objectif est avant tout de développer des vecteurs capables d’atteindre des cellules-cibles bien précises ; autrement dit, des véhicules capables d’aller jusqu’à la bonne adresse. Or, pour cela, il nous fallait au préalable trouver les bonnes « portes d’entrée », c’est-à-dire, biologiquement parlant, des récepteurs de surface, situés, comme leur nom l’indique, à la surface des cellules. L’enjeu, pour nous, était d’identifier des récepteurs les plus spécifiques possible aux cellules de la rétine sensibles à la lumière, en évitant donc les autres types cellulaires. Nous avons pour cela fait tourner des modèles d’IA sur des données issues de séquençage haut débit. Cela nous a permis de trouver quatre récepteurs à très haut potentiel, que l’Institut de la vision a ensuite pu tester sur un modèle pathologique. Ces tests ont notamment permis de confirmer le caractère très spécifique de ces récepteurs vis-à-vis des cellules sensibles à la lumière.

Nous avons alors sélectionné deux de ces quatre récepteurs de surface, sur la base notamment de premiers résultats expérimentaux obtenus par l’Institut de la vision, mais aussi d’un regard critique sur la sécurité de leur utilisation : il faut éviter qu’une fois ciblé, un récepteur puisse engendrer des désordres biologiques dans l’organisme…

Quelles perspectives le franchissement de cette étape clé ouvre-t-il ?

Cela va nous permettre de nous atteler désormais à la conception de vecteurs basés sur un type de virus à ADN dit « adéno-associé », ou AAV. En recourant à nouveau à des outils d’IA, nous allons en modifier certaines séquences, pour le rendre spécifique aux deux récepteurs de surface que nous avons identifiés. Il s’agit d’une approche dite « rationnelle », ou « rational design », qui consiste à identifier tout d’abord une cible, avant de modifier en connaissance de cause certaines séquences génomiques du vecteur pour qu’il puisse s’y lier spécifiquement. Cette stratégie est guidée par l’IA, ou, plus précisément, par les données humaines dont on nourrit nos modèles.

Le travail auquel nous nous consacrons désormais ne concerne plus des données génomiques, mais des données de structures protéiques, et d’interactions moléculaires. Notre objectif est de livrer les parties du vecteur – de petites séquences d’acides aminés qu’on appelle des peptides – modifiées pour qu’elles soient spécifiques des récepteurs que j’évoquais.

Nous transmettrons alors les cinquante meilleurs candidats à l’Institut de la vision, qui se chargera de les tester sur des modèles in vitro – des organoïdes – et des modèles porcins spécifiques à l’étude de maladies rétiniennes, idéalement en début d’année prochaine.

Nous en sommes pour l’heure à un tiers du programme. Nous avons encore un peu moins de deux ans devant nous pour parvenir à développer nos premiers vecteurs.

Revue du Magazine d’Actualité #44 du 1 au 5 septembre

Cette semaine, les innovations s’invitent dans les débats, entre relance manufacturière, conquête spatiale, percées scientifiques et défis environnementaux.


⚡ ÉNERGIE & ENVIRONNEMENT

Le coût des énergies renouvelables devient imbattable

Les énergies renouvelables affichent désormais des coûts de production inférieurs à ceux des sources fossiles, selon les dernières analyses de l’IRENA. Cette compétitivité accrue pourrait accélérer la transition énergétique mondiale, notamment dans les pays en développement.
🌅 Pourquoi les renouvelables changent la donne énergétique

Un nouveau revêtement pour des fenêtres économes en énergie

Des chercheurs ont mis au point un revêtement intelligent capable de réguler la température intérieure des bâtiments en fonction des saisons. Ce matériau pourrait réduire significativement les besoins en chauffage et climatisation.
🪟 Une innovation qui optimise les performances thermiques

EPR de Flamanville : pas de pleine puissance avant cet automne

Le réacteur nucléaire EPR de Flamanville ne devrait atteindre sa pleine puissance qu’à l’automne, en raison de tests supplémentaires. Ce nouveau report illustre les défis techniques persistants du projet.
Suivez les dernières étapes du chantier nucléaire français


 🧪 SCIENCES & TECHNOLOGIES

Une horloge nucléaire pourrait éclaircir un des plus grands mystères de l’Univers

Une équipe de chercheurs travaille sur une horloge nucléaire d’une précision inédite, qui pourrait permettre de tester certaines théories fondamentales de la physique, notamment la variation des constantes universelles.
🕣 Les coulisses d’une révolution temporelle


🏭 INDUSTRIE & SOCIÉTÉ

RELIEF : un assistant IA de chiffrage qui aide les industriels à passer du cahier des charges au devis

La startup RELIEF propose une IA capable d’automatiser le chiffrage industriel à partir d’un cahier des charges. Un outil prometteur pour accélérer les processus de réponse aux appels d’offres.
📓 Comment l’IA transforme le chiffrage industriel

Le secteur manufacturier français redémarre en août 2025

Après un été calme, l’industrie manufacturière française montre des signes de reprise. Les indicateurs de production repartent à la hausse, portés par la demande intérieure et les investissements.
📈 Analyse d’un redémarrage industriel attendu

Ariane 6 : l’espoir européen dans un ciel de plus en plus compétitif

Le lanceur Ariane 6, attendu pour son premier vol, incarne les ambitions spatiales européennes face à la concurrence américaine et chinoise. Un enjeu stratégique pour l’indépendance technologique du continent.
🚀 Les enjeux du nouveau lanceur européen


👓 Bon weekend et à la semaine prochaine  ! 

Écologie et santé, deux secteurs majeurs du marché du travail

Le paysage de l’emploi à la rentrée 2025 montre une conjonction de besoins forts dans les secteurs environnementaux, sanitaires et technologiques. La transition écologique et numérique se traduit concrètement par une forte demande d’ingénieurs, techniciens et soignants. Ces secteurs offrent ainsi des opportunités solides, sous réserve d’un accompagnement ciblé et de formations spécialisées.

L’analyse publiée sur CJL-Conseil met notamment en avant deux secteurs particulièrement structurants pour la rentrée : les métiers liés à l’environnement (notamment les ingénieurs en énergies renouvelables et spécialistes de l’efficacité énergétique) et ceux de la santé comme les infirmiers ou techniciens de laboratoire, toujours très demandés. Cette orientation reflète une double dynamique : la transition écologique, qui requiert des compétences techniques avancées, et un besoin structurel en soins, renforcé par des enjeux de résilience sanitaire. Un ingénieur reconverti dans le domaine des énergies renouvelables témoigne notamment, dans cette analyse, des aspirations des nouveaux talents du secteur, qui sont d’allier expertise technique et impact durable.

Compétences et formation : s’adapter à un marché en mutation

Les parcours de formation évoluent pour répondre à ces besoins, avec davantage de programmes spécialisés en technologies vertes, en biotechnologies ou en diagnostic médical – favorisant la reconversion et la montée en compétence des profils techniques et techniques appliquées à l’innovation verte.

À cela s’ajoutent les métiers émergents dans le numérique et la tech, portés par le développement de l’IA et des environnements numériques complexes – data scientists, prompt engineers, techniciens datacenters –, qui créent un nouveau vivier d’opportunités professionnelles transversales, notamment dans l’énergie ou la santé.

Les données de France Travail confirment que les besoins de recrutement restent massifs dans plusieurs secteurs. Ces métiers couvrent les services aux personnes, l’agriculture, la santé, la logistique et le numérique.

Dans le secteur industriel, malgré un léger recul (153 000 postes prévus contre 182 500 en 2024), les besoins restent considérables, particulièrement pour les métiers du numérique, de la cybersécurité, de la data ou encore les techniciens de maintenance.

Impacts sur l’économie et les trajectoires professionnelles

Cette forte demande de profils spécialisés stimule les initiatives économiques et la diversification des parcours. Les entreprises investissent davantage dans la formation interne et les partenariats avec les établissements d’enseignement supérieur. Les domaines porteurs – énergie renouvelable, santé, numérique – offrent des perspectives de carrière pérennes et alignées avec les transitions écologique et technologique.

SAP investit plus de 20 milliards d’euros dans le cloud souverain afin de renforcer la conformité des secteurs régulés

Dans un contexte de renforcement des réglementations telles que le RGPD, ITAR (États-Unis) ou PIPEDA (Canada), les organisations des secteurs de la santé, de la défense ou des services publics font face à l’exigence croissante de garder le contrôle total sur leurs données et leur infrastructure. À cela s’ajoute un besoin pressant d’accélérer l’adoption des technologies cloud et IA sans compromettre la conformité.

L’offre étendue baptisée SAP Sovereign Cloud vient en réponse à ces défis. Elle est conçue pour permettre une transformation digitale sécurisée, conforme et souveraine.

L’entreprise consacrera plus de 20 milliards d’euros à cette initiative sur la prochaine décennie. Il s’agit là d’un engagement stratégique pour renforcer l’autonomie numérique de l’Europe et soutenir les industries à forte exigence réglementaire. Cet effort financier inclut l’extension de l’infrastructure, la recherche, le développement et le déploiement de personnel dédié à l’échelle locale.

Trois modèles de déploiement pour des besoins variés…

SAP propose plusieurs options de déploiement permettant aux organisations de choisir le niveau de souveraineté qui leur convient.

  • SAP Cloud Infrastructure (IaaS) : cette plateforme cloud opérée par SAP est fondée sur des technologies open-source, avec tous les centres de données situés dans l’UE pour garantir le respect du RGPD et d’autres normes européennes.
  • SAP Sovereign Cloud On-Site : cette infrastructure est gérée par SAP mais hébergée directement dans les centres de données sélectionnés par le client ou appartenant à celui-ci, offrant un contrôle maximal des données sur place.
  • Delos Cloud (Allemagne) : cette solution souveraine spécifiquement destinée au secteur public allemand est adaptée aux exigences locales de souveraineté et de conformité réglementaire.

… et quatre piliers de la souveraineté numérique

L’architecture de SAP Sovereign Cloud s’appuie sur quatre dimensions essentielles pour garantir une pleine souveraineté.

  • Souveraineté des données : les données sensibles restent dans le territoire légal du client, empêchant tout transfert non autorisé hors des juridictions concernées.
  • Souveraineté opérationnelle : seules des équipes locales ou autorisées peuvent accéder et maintenir l’infrastructure, avec les habilitations nécessaires.
  • Souveraineté technique : les environnements sont isolés, avec un contrôle de bout en bout, incluant l’encryptage ou l’infrastructure dédiée.
  • Souveraineté légale : les entités juridiques et les opérations respectent le cadre réglementaire local, limitant l’influence étrangère ou les risques liés aux entités externes. Ce modèle répond précisément aux exigences complexes des secteurs régulés.

Innovation sans compromis : cloud, IA et business suite

Grâce à SAP Sovereign Cloud, les organisations peuvent exécuter leur SAP Business Suite dans des environnements souverains tout en profitant des cycles d’innovation — plateforme SAP BTP, Business AI intégrée, etc. L’architecture garantit que la souveraineté n’entrave pas la capacité d’innovation technologique et la transformation digitale continue.

L’offre est actuellement disponible dans plusieurs pays, avec des centaines d’experts locaux pour encadrer la livraison et accompagner les clients au plus près de leurs exigences réglementaires.

SAP a déjà déployé cette offre en Allemagne, France, Royaume-Uni, Canada… et travaille à son extension sur d’autres marchés, y compris l’Australie ou les États-Unis, afin d’élargir la couverture digitale souveraine mondiale.

Le marché du cloud souverain connaît une croissance rapide, avec des projections à 23,8 % de CAGR et une valorisation attendue de 648 milliards de dollars d’ici 2033. SAP montre également des retours sur investissement significatifs, notamment 8,9 millions de dollars de bénéfices annuels pour les ERP grâce à la sécurité renforcée et l’efficacité opérationnelle, et des retours à trois ans jusqu’à 275 % dans certains cas d’usage.

Avec cette initiative, SAP se positionne clairement comme un acteur pivot du cloud souverain, surtout en Europe. Ce positionnement répond aux défis géopolitiques et réglementaires croissants, notamment face à la dépendance vis-à-vis des hyperscalers américains.

Comme l’a souligné le PDG de SAP, Christian Klein, les tensions commerciales et les questions de contrôle des infrastructures cloud renforcent l’intérêt pour des alternatives souveraines.

Des bactéries capables de transformer les déchets alimentaires en bioplastiques

Les PHA sont une famille de bioplastiques obtenus par fermentation bactérienne, dont la composition et la structure chimique varient suivant différents paramètres : nature du substrat, type de bactérie, conditions de fermentation, etc.

L’équipe de chercheurs américaine propose d’utiliser une bactérie appelée C. necator, afin de convertir les déchets alimentaires en acide lactique, puis en PHB, un monomère de PHA à courtes chaînes carbonées.

La fermentation lactique limite les émissions de CO2 et CH4

En milieu aérobie, la dégradation de la matière organique par des micro-organismes conduit forcément à la formation de CO2, puisque les sucres sont complètement transformés en CO2 et en H2O.

À l’inverse, le processus de fermentation anaérobie (c’est-à-dire sans oxygène) qui se produit lors de la méthanisation conduit majoritairement à la formation de CH4, un gaz à effet de serre bien plus puissant que le CO2, mais qui a l’avantage d’être utilisable comme biogaz.

De son côté, la fermentation lactique est également un processus anaérobie, mais qui n’émet pas de CO2 ni de CH4, les sucres étant transformés en acide lactique. Or, cet acide lactique est une molécule particulièrement polyvalente, qui peut servir de matière première à de nombreux produits, notamment des polymères biodégradables, des solvants biosourcés (esters lactiques), des plastifiants, mais aussi à de nombreux précurseurs chimiques (propylène glycol, acryliques, etc.).

La transformation de déchets alimentaires en acide lactique répond ainsi à un double enjeu environnemental. D’une part, elle évite une partie des émissions de CO2 et d’autre part, elle réduit le gaspillage, puisque le déchet redevient une ressource.

Un fort potentiel d’industrialisation

Les travaux conduits par l’équipe de chercheurs de l’Université de Binghamton et publiés dans la revue Bioresource Technology présentent, en outre, un fort intérêt industriel, car ils offrent des perspectives de réduction des coûts de production en PHA.

En effet, la production de plastiques biodégradables est actuellement réputée pour être très coûteuse, car elle repose sur des substrats de sucre raffiné et des cultures pures de micro-organismes. Le fait d’utiliser des déchets organiques au lieu du sucre raffiné permet donc de réduire fortement le coût en matière première, tout en diminuant l’impact environnemental.

Par ailleurs, le procédé mis en place par les chercheurs est particulièrement robuste, à condition de maîtriser certains paramètres : mélange des types d’aliments dans des ratios connus et contrôle de la température et du pH durant la fermentation, afin de favoriser la croissance des bactéries productrices d’acide lactique.

Les résultats de l’étude démontrent également que les déchets utilisés peuvent être stockés pendant au moins une semaine, sans réduire le taux de bioconversion, ce qui offre une certaine flexibilité dans la collecte à échelle industrielle.

Les travaux se poursuivent, avec de nouveaux objectifs, notamment l’exploitation des résidus de fermentation en tant qu’engrais organiques, mais aussi la recherche de partenaires industriels.

Intelligence artificielle dans les paiements et e-commerce en Europe : inégalités régionales et régulations en mouvement

L’adoption de l’IA dans les secteurs des paiements et du e‑commerce connaît une progression marquée en Europe, mais de fortes disparités régionales apparaissent. Les pays baltes et nordiques – notamment la Lettonie, la Norvège et l’Estonie – affichent des taux d’usage régulier de l’IA bien au‑delà de la moyenne européenne. La Pologne et la Slovénie enregistrent également un rythme d’adoption plus soutenu que leurs homologues. À l’inverse, des économies plus importantes comme l’Allemagne, la France et les Pays‑Bas restent en retrait, tandis que l’Espagne est à la traîne, avec peu d’intégration de l’IA dans les processus métiers. Bien que les expérimentations soient nombreuses, la maturité opérationnelle demeure, dans la majorité des cas, un objectif lointain.

Régulation : un avantage concurrentiel pour ceux qui l’intègrent tôt

Le rapport souligne également que l’application simultanée de dispositifs tels que l’EU AI Act, DORA (Règlement sur la résilience opérationnelle numérique) et le RGPD, impose une révision des stratégies IA des entreprises. Celles incorporant ces exigences réglementaires dans leur plan d’action – notamment pour les cas d’usage à risque élevé comme la détection de fraudes ou le scoring de crédit – bénéficient d’un avantage structurel sur leurs concurrents. À l’inverse, les entreprises ne faisant que des preuves de concept risquent de se faire dépasser.

Crise de confiance et menaces IA émergentes

Un autre point saillant concerne l’absence de confiance du public vis‑à‑vis de l’IA. Dans la majorité des pays européens, moins de la moitié des utilisateurs estiment que les bénéfices de l’IA l’emportent sur les risques, avec une confiance particulièrement faible dans les régions nordiques et occidentales. Cette méfiance est alimentée par l’émergence de fraudes sophistiquées, comme les deepfakes, la création d’identités synthétiques ou le phishing généré par IA.

Le document aborde plusieurs questions centrales :

  • Quelles régions d’Europe affichent les taux d’adoption les plus élevés en entreprise ?
  • Quelles sont les applications IA les plus courantes dans les entreprises européennes en 2024 ?
  • Quelles menaces de fraude alimentées par l’IA émergent en 2025 ?
  • Quel est le potentiel économique de l’IA générative (GenAI) en Europe d’ici 2030 ?
  • Quels pays européens suivent des stratégies nationales d’IA contrastées en 2025 ?

Ces axes de questionnement offrent une vision multifacette de l’enjeu IA dans le secteur financier numérique.

Le rapport met en garde contre une approche trop compliance-first et trop centrée sur l’innovation symbolique plutôt que l’adoption fonctionnelle : tant que la confiance reste faible et que les infrastructures demeurent peu robustes, l’intégration effective de l’IA restera superficielle. L’importance du capital humain — experts IA, compétences numériques – est également soulignée comme un facteur déterminant pour passer des pilotes à la scalabilité.

Enfin, le rapport préconise une meilleure coordination régionale, permettant aux organisations de bénéficier d’un cadre préféré (compliance + innovation). Il suggère que l’alignement effectif avec le droit – en anticipant les obligations et en les intégrant dès la conception de projet IA – constitue aujourd’hui un facteur de différenciation stratégique.