Cybersécurité applicative et hébergement web : quelles garanties techniques pour des déploiements sous WordPress ?

Vulnérabilités structurelles de WordPress : un défi technique récurrent

WordPress est fréquemment ciblé en raison de sa popularité, mais les failles exploitées ne relèvent pas uniquement de son cœur logiciel. Ce sont surtout les plugins tiers, souvent mal maintenus, ainsi que les configurations par défaut qui introduisent des vecteurs d’attaque. La gestion des permissions, l’interface d’administration exposée et les pratiques de mise à jour insuffisantes accentuent encore la vulnérabilité du socle applicatif. Pour les ingénieurs systèmes, cela implique une surveillance constante du cycle de vie logiciel, ainsi qu’une évaluation continue de la sécurité des composants additionnels.

L’hébergement sécurisé : un maillon essentiel de la chaîne de confiance

Dans cette perspective, le recours à un hébergement WordPress sécurisé avec IONOS permet de consolider l’ensemble de l’architecture technique. Il ne s’agit plus simplement d’exécuter du code PHP dans un environnement LAMP, mais de s’appuyer sur une infrastructure capable de résister à des attaques ciblées et de garantir la disponibilité des données. La segmentation réseau, les pare-feu applicatifs, le chiffrement SSL/TLS natif, les sauvegardes chiffrées ou encore la supervision proactive constituent autant de briques essentielles à l’élaboration d’un système défensif robuste. Ces éléments doivent être envisagés comme interdépendants et alignés avec une stratégie globale de défense en profondeur.

Prenons l’exemple d’un déploiement WordPress en contexte industriel : l’environnement doit permettre le cloisonnement des instances de test et de production, le durcissement des accès SSH et FTP, ainsi que la supervision continue des flux réseau. Dans ce cadre, la couche d’hébergement devient un partenaire opérationnel à part entière, intégré dans la gouvernance de sécurité de l’entreprise.

De l’infrastructure à l’automatisation : vers une intégration DevSecOps

L’évolution des pratiques vers une culture DevSecOps impose que la sécurité ne soit plus un processus post-déploiement, mais un élément intrinsèque au pipeline de développement. Les équipes techniques attendent donc de leur hébergeur une compatibilité native avec les chaînes CI/CD, une capacité à créer des environnements de staging isolés, mais aussi des interfaces d’audit complètes pour suivre les actions système, les modifications de fichiers sensibles et l’état des vulnérabilités connues.

Les solutions modernes proposent déjà des mécanismes d’analyse automatique du code applicatif, la surveillance des versions de plugins, ainsi qu’une journalisation exhaustive des événements. L’objectif est de ne pas ajouter une couche de complexité, mais bien d’offrir une visibilité opérationnelle continue, indispensable à toute démarche de conformité (ISO 27001, RGPD) et de gestion des risques.

Résilience, souveraineté, conformité : les nouveaux standards de l’hébergement web

Un hébergement technique ne se résume plus à une question de capacité ou de bande passante. Les enjeux de souveraineté des données, de réversibilité des services et de disponibilité contractuelle (SLA) s’imposent désormais dans les cahiers des charges, y compris pour des sites construits sur WordPress. Là où des solutions d’entrée de gamme peuvent répondre à des besoins ponctuels, les projets d’envergure, notamment dans les secteurs réglementés ou critiques, nécessitent une infrastructure maîtrisée, documentée et alignée sur les exigences normatives du secteur.

La question de la localisation des données, de leur chiffrement au repos, du cloisonnement logique entre clients et de la compatibilité avec les exigences européennes (notamment les directives NIS2 ou DORA dans les domaines critiques) devient centrale. L’adéquation entre infrastructure d’hébergement et gouvernance IT est donc une condition de réussite dans le déploiement d’une stratégie WordPress sécurisée à grande échelle.

À l’heure où les menaces ciblées se multiplient, la sécurité d’un site web même basé sur un CMS populaire comme WordPress ne peut plus être pensée indépendamment de son environnement d’exécution. L’hébergement n’est plus une commodité, mais une composante stratégique, capable de renforcer ou d’affaiblir la posture de sécurité globale. Dans cette optique, opter pour un hébergement WordPress sécurisé s’inscrit dans une logique rationnelle d’ingénierie de la cybersécurité. Il s’agit moins de sous-traiter que de s’appuyer sur une infrastructure fiable, évolutive, et conforme aux exigences techniques des systèmes d’information modernes.

La nouvelle stratégie énergétique allemande de la coalition Merz dévoilée

En Allemagne, le nouveau chancelier Friedrich Merz et leader des conservateurs est parvenu à sceller un accord de coalition avec les sociaux-démocrates. Il prend la forme d’un document de 146 pages, qui constitue la feuille de route du futur gouvernement pour les quatre années à venir, sans pour autant être juridiquement contraignant. Alors que le pays est confronté à des défis historiques liés entre autres à la menace russe et à la guerre commerciale de Donald Trump, ce contrat met l’accent sur la compétitivité industrielle du pays tout en maintenant les objectifs climatiques européens. Il dresse aussi un panorama de la future stratégie énergétique du pays, dont voici les principaux points à retenir.

Le nouveau cap énergétique prévoit plus de renouvelables, avec la volonté d’exploiter tout le potentiel de l’énergie solaire et éolienne ainsi que la bioénergie, la géothermie et l’énergie hydraulique. Pour soutenir ce développement, l’accord prévoit notamment de mettre en place des mesures de simplification administrative et une planification accélérée. Les citoyens et les entreprises seront encouragés à s’impliquer dans cette transition via des dispositifs de partage de l’énergie ou d’autoconsommation collective.

Parallèlement, l’Allemagne veut bâtir une véritable économie de l’hydrogène et jouer un rôle de premier plan dans ce domaine en Europe. Pour cela, il est prévu de bâtir un réseau de transport de ce vecteur énergétique pour relier les centres industriels de tout le pays en fonction des besoins, y compris dans le sud et l’est du pays. La feuille de route prévoit aussi de renforcer l’utilisation de technologies innovantes telles que la valorisation de la chaleur des eaux usées et la récupération de chaleur.

Pour sécuriser la transition énergétique, jusqu’à 20 GW de nouvelles centrales électriques à gaz sont prévues d’ici à 2030. Ces infrastructures devront être convertibles à l’hydrogène vert et être construites en priorité sur les sites de centrales existantes dans toute l’Allemagne. L’accord de coalition prévoit aussi d’utiliser davantage les capacités disponibles des centrales de cogénération à usage industriel. Ces centrales à gaz permettront non seulement d’éviter les pénuries d’approvisionnement, mais aussi de réduire les coûts de production d’électricité.

Une baisse du prix de l’électricité et une modernisation du réseau

Le captage et le stockage du CO2 refont surface dans le débat, puisque la coalition veut adopter un cadre législatif pour utiliser légalement ces technologies, tant pour les émissions du secteur industriel que pour les centrales à gaz. L’utilisation de méthodes de captation directe dans l’air devrait aussi être facilitée. Concernant le stockage du CO2, il devrait être autorisé en mer, en dehors de la mer territoriale, dans la zone économique exclusive (ZEE) et sur le plateau continental de la mer du Nord, ainsi que sur terre, là où la géologie s’y prête et où l’acceptation est acquise.

Grâce à une baisse de la taxe sur l’électricité au niveau minimum autorisé par l’Union européenne et à une division par deux des redevances du réseau de transport, une diminution du prix de l’électricité d’au moins 5 centimes par kilowattheure est programmée. Le réseau électrique doit aussi faire l’objet d’une modernisation, avec un recours accru au numérique et au stockage. Concernant la sortie du charbon, le calendrier précis reste conditionné à l’achèvement des nouvelles centrales à gaz, mais l’arrêt est officiellement prévu au plus tard en 2038. Quant au nucléaire, la coalition n’envisage pas de relancer l’atome en Allemagne.

Au niveau européen, le pays plaide en faveur d’une union de l’énergie renforcée, avec des infrastructures transfrontalières, des marchés intégrés, ainsi que la suppression des obstacles liés aux aides d’État. L’objectif final est de réduire les dépendances stratégiques, en particulier vis-à-vis des importations fossiles, mais aussi d’éviter de créer de nouvelles dépendances dans des technologies clés telles que les énergies renouvelables.

L’ISS : une fuite en avant ?

L’ISS[1], mise en orbite en 2000 et hébergeant des astronautes venus du monde entier dans le cadre d’une coopération internationale[2], va être probablement désorbitée plus tôt que prévu. Le premier à l’avoir suggéré est Elon Musk dans un message sur X, posté le 20  février dernier, dans lequel il précise la date fatidique : 2027 ; soit bien avant 2030, la date programmée par la NASA. « Il est temps de commencer les préparatifs pour la désorbitation de l’ISS. (…) Allons sur Mars », a-t-il écrit.

La plate-forme qui a permis la réalisation de plus de 4 000 expériences scientifiques a accompli sa mission et n’a plus d’utilité selon lui. Il souhaite concentrer les activités spatiales sur des projets plus ambitieux et notamment sur son cheval de bataille préféré : la conquête de Mars.

La volonté d’une désorbitation anticipée de l’ISS peut surprendre quand on sait que SpaceX a décroché un contrat de près d’un milliard de dollars pour concevoir le véhicule qui assurera la descente vers l’atmosphère terrestre à la date fixée par la NASA, à savoir 2030.

Un épisode de science-fiction

Une mésaventure récente illustre la phase de déclin dans laquelle se trouve la station : alors qu’ils étaient partis initialement pour huit jours afin de tester la capsule Starliner de Boeing, des astronautes américains sont restés bloqués dans l’ISS. Une histoire qui finit bien puisqu’ils sont revenus sur Terre, le 18 mars dernier, à bord d’une capsule Crew Dragon de l’entreprise SpaceX. Un séjour qui aura duré neuf mois dans l’espace.

Des fuites qui ouvrent une brèche

Cet épisode reste toutefois anecdotique par rapport à un autre problème plus préoccupant : une fuite d’air persistante à bord d’un module russe de l’ISS. Tout commence en septembre 2019 quand une fuite de 0,54 kg par jour est détectée. Le débit ne cessant d’augmenter, la fuite a atteint 1 kg par jour en janvier 2020. En octobre, la localisation de la fuite est identifiée sur le segment PrK situé à l’arrière du module russe de service et d’habitation Zvezda.

Des fissures sont découvertes et résorbées avec les moyens du bord en mars 2021. Un nouveau signalement a lieu en février 2024 par les responsables spatiaux russes qui quantifient, dans le même module, une perte de 1 kg d’air par jour. Deux mois plus tard, le volume est passé à près de 1,7 kg d’air par jour.

Le segment étant un tunnel de communication avec d’autres parties de la station orbitale, l’équipage à bord a opté pour la fermeture du sas du PrK ce qui permet de l’isoler du reste de la station.

Une fissure dans l’entente diplomatique

Depuis cinq ans, le problème n’a connu aucune résolution, car ni la NASA ni Roscosmos[3] ne parviennent à se mettre d’accord sur la cause de ces fissures. Selon l’Inspecteur général de la NASA, les causes sont à rechercher du côté des soudures internes ou externes, le module Zvezda lancé en 2000 étant un des éléments les plus anciens de l’ISS. Roscosmos, de son côté, minimise l’ampleur des dégâts. Comment envisager l’avenir lorsque le temps passé à maintenir en bon état la station est supérieur à celui consacré à des expériences scientifiques ?

Les partenaires internationaux de la NASA maintiennent toujours leur engagement jusqu’en 2030, Roscosmos étant engagée jusqu’en 2028 pour le moment.

En mai dernier, Washington a semblé abonder dans le sens de Musk en annonçant, pour 2026, une réduction budgétaire de 500 millions de dollars dans le programme de l’ISS. Une réduction qui suggère de revoir à la baisse la taille et les rotations de l’équipage, les vols de ravitaillement ainsi que les activités scientifiques. Le coût du maintien de l’ISS était déjà très lourd pour la NASA dont la participation s’élève, par an, à environ 3 milliards de dollars. Son engagement sera donc difficile à tenir si les financements ne suivent pas.


[1] Station spatiale internationale

[2] Entre les États-Unis, la Russie, l’Europe, le Japon et le Canada

[3] Agence spatiale de Russie

Les insectes volants disparaissent à vue d’œil : que révèle le rapport Bugs Matter 2024 ?

Le constat n’est plus seulement anecdotique : les insectes volants se raréfient sur nos routes, et nos pare-brise en témoignent. Le rapport Bugs Matter 2024, publié par le Kent Wildlife Trust et l’organisation Buglife, évalue l’abondance des insectes à l’échelle nationale au Royaume-Uni. En seulement trois ans, le nombre d’insectes volants enregistrés a chuté de plus de 60 % au Royaume-Uni.

Comment ces résultats ont-ils été obtenus ? Depuis 2021, des milliers de citoyens se sont portés volontaires pour participer à cette enquête. Le principe est simple : avant un trajet en voiture, le participant nettoie sa plaque d’immatriculation avant de lancer l’application mobile dédiée. Cette dernière enregistre le parcours via GPS. À l’arrivée, il compte les insectes écrasés sur la plaque et prend une photo. L’objectif est de capturer, à grande échelle, un indicateur de la présence des insectes volants dans l’environnement.

Afin de garantir la qualité des données, seules certaines conditions sont retenues. Les trajets doivent avoir lieu entre mai et septembre, ne pas être effectués sous la pluie, ni être trop courts ou trop rapides. Les données GPS erronées sont également écartées. Grâce à cette rigueur méthodologique, près de 26 000 trajets ont pu être analysés depuis le lancement du projet, représentant plus de 760 000 kilomètres parcourus. En 2024, ce sont 651 nouveaux participants qui se sont engagés, venant s’ajouter aux 9 575 personnes déjà impliquées.

Les résultats sont préoccupants. Entre 2021 et 2024, le nombre d’insectes observés sur les plaques d’immatriculation a diminué de 62,5 %. Le recul était très net entre 2021 et 2023, avec une forte baisse chaque année. En 2024, la tendance semble se ralentir, avec une baisse de « seulement » 8 % par rapport à l’année précédente. Ce ralentissement pourrait signaler un changement de dynamique, qu’il faudra confirmer ou infirmer lors de la prochaine campagne.

Géographiquement parlant, le déclin observé concerne toutes les régions du Royaume-Uni. L’Écosse, le Pays de Galles, l’Angleterre et l’Irlande du Nord enregistrent tous des baisses similaires, supérieures à 55 %. Une autre tendance ressort clairement de l’étude : les insectes sont beaucoup moins présents en ville. Les participants qui circulent en milieu urbain rapportent environ 60 % de collisions en moins que ceux qui empruntent des routes rurales. Ce constat rappelle l’impact profond de l’urbanisation sur la biodiversité locale.

L’analyse statistique des données a permis de mettre en évidence plusieurs facteurs influençant l’abondance d’insectes. La température joue un rôle important : plus il fait chaud, plus les insectes sont actifs et nombreux à entrer en collision avec les véhicules. La vitesse du véhicule, la durée du trajet, l’altitude ou encore la région traversée influencent également les résultats. On observe, par exemple, davantage d’insectes dans le nord et l’ouest du Royaume-Uni. À l’inverse, les camions, plus hauts et plus aérodynamiques, écrasent moins d’insectes que les voitures.

Cependant, les chercheurs prennent soin de nuancer leurs conclusions. Ce que mesure cette étude, ce n’est pas uniquement le nombre d’insectes présents dans l’environnement, mais aussi leur niveau d’activité. Il est donc possible que les insectes soient toujours présents, mais qu’ils volent moins en raison de conditions climatiques particulières. Malgré cette incertitude, la baisse enregistrée est cohérente avec d’autres études indépendantes, qui pointent toutes un déclin inquiétant des insectes.

La disparition progressive des insectes volants menace de nombreux équilibres écologiques. Pollinisateurs, recycleurs, régulateurs des écosystèmes, ils sont essentiels à la vie sur Terre. Les causes de ce déclin sont bien connues : destruction des habitats, pollution, pesticides, changement climatique. Le projet Bugs Matter permet de rendre ce phénomène visible et mesurable à grande échelle. Son prolongement en 2025 sera crucial pour suivre l’évolution de la situation, et orienter les politiques publiques pour inverser cette tendance de fond.

Télécharger le rapport Bugs Matter publié en avril 2024

La rédaction a demandé à un agent d’IA générative de dégager les informations principales du rapport.

Le texte résultant a été dument relu, analysé, et modifié de façon à proposer au lecteur un contenu à la hauteur de la qualité attendue par le Magazine d’Actualité.

Awake Challenge : voitures autonomes et ingénierie sur la ligne de départ

Transitions opérationnelles vers l’industrie du futur, décarbonation, relocalisation des chaînes de valeurs…, Awake met au cœur de ses projets une expertise fortement marquée par des notions environnementales et de responsabilité. Son objectif : engager les ingénieurs et les industries vers des technologies conciliant le vivant et l’innovation. À travers le challenge qu’elle organise pour la quatrième fois, Awake souhaite mettre en avant la transformation ambitieuse et l’engagement dans une industrie responsable.

L’Awake Challenge permet ainsi aux futurs ingénieurs de confronter leurs idées autour d’un projet valorisant les compétences techniques de leurs métiers en devenir. Le challenge fait notamment la part belle à la créativité puisqu’une dizaine d’équipes devront chacune imaginer un véhicule autonome à échelle 1/10ème. À l’issue d’une compétition contre la montre, l’équipe gagnante remportera un prix de 4 000 euros et son école recevra 2 000 euros récompensant son accompagnement pédagogique.

Cet événement est une réelle occasion de valoriser l’innovation étudiante, l’enseignement de l’ingénierie et plus largement des technologies embarquées appliquées à la mobilité autonome.

Modalités

Chaque équipe dispose d’un budget de 900 euros lui permettant de mener à bien son projet.

Seront représentées par une dizaine d’équipes composées de 3 à 6 étudiants : l’ECE (2 équipes), l’ENSAM Châlons-en-Champagne (3 équipes), l’ENSI Caen, l’ISEL, l’IPSA Paris, l’IPSA Toulouse, Polytech Dijon et Polytech Nancy.

La journée débutera dès 14 h par les essais libres et l’homologation des véhicules, avant de laisser place aux courses officielles.

L’Awake Challenge se déroulera le mercredi 4 juin au Gymnase du foyer Henri Planchat, 18 rue des Pavillons – 92800 Puteaux

L’industrie française de l’armement est montée en cadence en 2024

La loi de programmation militaire a en effet permis à la Direction générale de l’armement, qui vient de publier son bilan d’activité 2024, d’orchestrer une montée en cadence sans précédent, assumant pleinement la transition vers une véritable économie de guerre. Une montée en cadence qui aura finalement précédé les multiples et contradictoires annonces de Donald Trump sur la volonté américaine de laisser l’Europe gérer sa propre sécurité.

Avec plus de 21 milliards d’euros engagés pour équiper les forces militaires cette année, et 1,6 milliard d’euros pour préparer les technologies du futur, l’effort budgétaire est sans précédent. Avec à la clé des cadences de production qui s’envolent : le temps de fabrication des radars a par exemple été divisé par trois, les livraisons de missiles multipliées par six, et la production d’obus de 155 mm par soixante. C’est toute une filière industrielle qui est poussée à se réorganiser et à accélérer, pour s’adapter à un contexte international plus incertain que jamais.

La DGA a lancé en 2024 un plan d’accompagnement des PME stratégiques, tandis que des innovations de rupture sortent des laboratoires et rejoignent déjà les armées : drones téléopérés, armes laser, simulateurs, outils de cybersécurité… Plusieurs d’entre elles ont été déployées en conditions réelles à l’occasion des Jeux olympiques de Paris, renforçant ainsi les capacités de surveillance et de neutralisation des menaces.

Les exportations tricolores se portent bien

Sur le front des exportations, la France confirme son statut de poids lourd mondial. En effet, Les commandes d’armement ont atteint 18 milliards d’euros en 2024, grâce notamment aux contrats Rafale, aux sous-marins, ou aux canons CAESAR. La coopération européenne s’intensifie également, avec de nouveaux jalons pour le SCAF (avion de combat du futur), le MGCS (char de nouvelle génération) et la production conjointe de missiles Mistral.

Ce que le rapport de la DGA laisse également transpirer, c’est une réorganisation en profondeur de la chaîne logistique en cours depuis l’année dernière, avec une relocalisation de la production de poudres, la création de stocks stratégiques chez les industriels, la sécurisation des approvisionnements critiques et la mise en place de référentiels cybersécurité, entre autres.

Ainsi, la DGA multiplie les dispositifs pour rendre la Base industrielle et technologique de défense (BITD) plus résiliente et autonome.

Cette accélération pose aussi un défi humain, notamment en termes de recrutement, de formation et de fidélisation : une réserve industrielle de défense a été créée pour renforcer les effectifs en cas de besoin. Des actions ont aussi été engagées pour faciliter l’emploi dans les territoires, notamment via des conventions avec France Travail, et pour mieux faire dialoguer le secteur civil et le monde militaire.

2024 marque donc un tournant stratégique qui, au vu du contexte international, que ce soit sur le front russe ou par rapport aux américains, paraît s’imposer. Face aux tensions géopolitiques, la France a décidé de transformer sa capacité militaire en profondeur, notamment en termes de souveraineté technologique, d’agilité industrielle et d’attractivité économique. Une tendance qu’on devrait voir opérer chez nos voisins européens également, si l’on en croit l’ambition européenne affichée récemment. Reste à savoir dans quelle mesure le contexte économique tendu actuellement rendra possible cette mutation.

Avec FeNNix-Bio1, Qubit Pharmaceuticals en passe de révolutionner la modélisation moléculaire

Créée en 2020, la deeptech Qubit Pharmaceuticals s’attelle depuis lors au développement de nouveaux candidats médicaments en misant, pour cela, sur une approche axée autour de trois piliers technologiques complémentaires : le calcul quantique, le calcul hautes performances (HPC) – une technologie hybride qui s’incarne notamment dans son émulateur Hyperion-1 – mais aussi l’intelligence artificielle. Un vaste champ disciplinaire dans lequel la jeune pousse innovante vient justement d’annoncer avoir réalisé une percée majeure, en développant un modèle de fondation aux capacités a priori inédites : FeNNix-Bio1. Sorte de couteau suisse de la modélisation moléculaire, l’outil permettrait en effet de modéliser de manière dynamique le comportement de molécules de tous types, et ce avec une précision mais aussi une rapidité jamais atteintes jusqu’à présent d’après ses créateurs. De quoi ouvrir des perspectives aussi inédites que prometteuses dans le secteur pharmaceutique, mais aussi bien d’autres domaines, comme nous l’expliquent Jean-Philip Piquemal, professeur à Sorbonne Université, directeur du Laboratoire de Chimie Théorique[1], co-fondateur et directeur scientifique de Qubit Pharmaceuticals, et Robert Marino, P.-D.G. de Qubit Pharmaceuticals.

Techniques de l’Ingénieur : Qu’est-ce qui vous a conduits à vous lancer dans le développement de ce modèle de fondation novateur sur lequel vous levez aujourd’hui le voile, FeNNix-Bio1 ?

Jean-Philip Piquemal est à l’origine du lancement de Qubit Pharmaceuticals
Jean-Philip Piquemal fait partie des cinq scientifiques à l’origine du lancement de Qubit Pharmaceuticals. © Qubit Pharmaceuticals

Jean-Philip Piquemal : L’origine fondamentale du projet tient tout simplement à la raison d’être de Qubit Pharmaceuticals, qui vise en effet avant tout à développer des outils de modélisation moléculaire. Ceci, dans le but de remplacer la phase préclinique du cycle de développement d’un médicament par un ensemble de calculs, et ainsi de réduire drastiquement les besoins en matière de synthèse, et donc, in fine, de permettre des économies de temps, mais aussi d’argent substantielles.

À la création de l’entreprise en 2020, des modèles d’IA dans ce domaine existaient déjà, certes, et se révélaient d’ailleurs assez rapides pour beaucoup d’entre eux, mais n’offraient toutefois pas suffisamment de précision. Or, dans le domaine pharmaceutique, allier rapidité et précision est tout simplement crucial. Cette alliance de la rapidité et d’une précision chimique[2] comparable à celle de l’expérience constitue ainsi le fondement de nos travaux de recherche.

Nous avons donc lancé, il y a quelques années, de premières études dans le domaine de l’IA, avec l’objectif de développer des modèles susceptibles « d’apprendre » la physique et la chimie.

À cela s’est ajouté notre objectif de nourrir ces modèles à partir, non pas de données réelles issues d’expériences menées en laboratoire, mais de données dites « synthétiques », bien moins coûteuses à produire, car fruits, elles aussi, de calculs informatiques.

Nous avons, entretemps, assisté à la naissance d’AlphaFold, un système d’IA capable de prédire la structure 3D des protéines. Cet outil – qui a d’ailleurs valu le prix Nobel de chimie l’an dernier à ses créateurs – a rapidement été présenté comme une avancée susceptible de révolutionner la recherche pharmaceutique. Sauf que, dans ce domaine, la structure des protéines ne fait pas tout, loin de là.

D’où notre idée d’aller au-delà de la seule modélisation de la structure des protéines, en développant un modèle d’IA particulier, car appartenant à la catégorie des « foundation models », ou « modèles de fondation » en français, et permettant de modéliser l’interaction d’un médicament avec sa cible quelle qu’elle soit : protéine, ARN, ADN, membrane cellulaire… Ce qu’AlphaFold n’est pas capable de faire correctement, même dans sa dernière version, AlphaFold 3. Ceci, notamment parce que la structure des protéines n’est pas figée, qu’elle évolue au cours du temps, ce qui implique la réalisation d’une quantité colossale de calculs pour modéliser l’interaction d’un médicament avec cette structure mouvante. Des calculs qui n’étaient, jusqu’à très récemment, réalisés que sur la base de méthodes physiques soit très exactes mais aussi très coûteuses, soit limitées par leur côté « paramétrique », nécessitant des semaines, voire des mois d’ajustements. C’est dans ce contexte qu’a émergé, l’an dernier, le modèle de fondation que nous dévoilons aujourd’hui, FeNNix-Bio1.

Quelles sont les particularités de ce modèle ? Qu’est-ce qui le distingue fondamentalement de ses prédécesseurs ?

J.-P. P. : Notre modèle de fondation se positionne en aval d’un modèle tel qu’AlphaFold : à partir d’une structure protéique donnée, il se révèle capable d’en simuler la dynamique, mais aussi et surtout les interactions avec une autre substance, notamment une potentielle molécule thérapeutique. Le tout, en un temps très réduit, et avec une précision équivalente à ce que l’on obtient par l’expérience. Et ce, en outre, sans nécessiter la moindre donnée expérimentale d’entraînement. De par notre savoir-faire dans le domaine du calcul hautes performances, nous avons en effet misé sur la production de données synthétiques, un vaste ensemble – des millions – de « briques » élémentaires semblables à des fractions de protéines. Il s’agit, concrètement, de petites molécules composées de deux à cinquante atomes, accompagnées de leur configuration électronique, elle-même modélisée grâce à des calculs basés sur la physique quantique. Produites une fois pour toutes grâce à des supercalculateurs[3], ces données synthétiques nous ont ainsi permis, ensuite, d’entraîner notre modèle de fondation en assemblant tout simplement ces briques à la manière d’un Lego, sans recourir à des données expérimentales. C’est l’une des grandes forces de notre approche.

À partir de cela, notre modèle de fondation se révèle capable de simuler des réactions chimiques de manière dynamique, « remplaçant » ainsi l’équation de Schrödinger, avec un niveau d’erreur très réduit, inférieur à celui de l’expérience. Nous avons d’ailleurs battu un record de précision, que nous présentons dans l’une des deux prépublications[4] que nous avons mises en ligne récemment.

Robert Marino, P.-D.G. de Qubit Pharmaceuticals
Robert Marino est le P.-D.G. de Qubit Pharmaceuticals depuis sa création en mai 2020. © Qubit Pharmaceuticals

Robert Marino : Quelques-unes de ces données synthétiques ont d’ailleurs été générées grâce à notre émulateur Hyperion-1. Ce n’est qu’un début, mais cela démontre en tout cas, d’une part, que c’est faisable dès maintenant, mais aussi, d’autre part, qu’à partir du moment où nous disposerons d’un véritable ordinateur quantique, nous pourrons encore améliorer et accélérer les choses. Nous anticipons ainsi la convergence entre informatique quantique et IA.

J.-P. P. : Une autre particularité de FeNNix-Bio1 est qu’il « connaît » la réactivité des molécules. Cela va ainsi aider les chimistes médicinaux à identifier des voies de rétrosynthèse. Une fois modélisée, il faut en effet qu’une molécule thérapeutique puisse, concrètement, être synthétisée en laboratoire. Il s’agit là aussi d’une avancée majeure par rapport aux modèles existants jusqu’alors.

Simulation des interactions entre une molécule thérapeutique et sa cible
Le modèle de fondation développé par Qubit Pharmaceuticals se destine notamment à la simulation des interactions entre une molécule thérapeutique et sa cible. © Qubit Pharmaceuticals

À quelles applications concrètes ce modèle de fondation se destine-t-il ?

J.-P. P. : Puisqu’il ne se limite pas à la modélisation de structures, mais qu’il permet aussi de simuler des réactions chimiques, FeNNix-Bio1 se destine à n’importe quel type d’application en chimie, qu’elle soit pharmaceutique ou non. Notre modèle de fondation est par exemple également capable de produire, en quelques secondes, des données telles que des spectres RMN, infrarouges, UV, etc. Il regroupe ainsi toute la panoplie des outils du chimiste.

Parce qu’il est nourri de données issues de la physique quantique, FeNNix-Bio1 permet aussi de simuler le comportement physique de l’eau dans ses différentes phases, et de modéliser ainsi avec précision le comportement des ions et des molécules en solution. Il s’agit d’une avancée majeure, dont ne sont absolument pas capables les autres modèles, tels qu’AlphaFold.

Cela se révèle notamment crucial en chimie pharmaceutique, puisque toutes les cibles potentielles des médicaments baignent dans l’eau salée dont est en grande partie constitué le corps humain. On peut ainsi modéliser des interactions de manière dynamique, comme si l’on filmait ce qui se passe réellement dans nos tissus, et ce, à une vitesse compatible avec des travaux de recherche pharmaceutique.

La palette d’applications potentielles est d’autant plus large que notre modèle peut être réentraîné sur de nouvelles données en l’espace de quelques jours seulement, là où les modèles de langage comme ceux de ChatGPT, par exemple, nécessitent des mois – et donc aussi de grandes quantités d’énergie – pour évoluer.

R.M. : Nous nous concentrons, dans le cadre de nos travaux de développement de nouveaux candidats médicaments, sur différents axes dans le domaine pharmaceutique, mais notre modèle – parce qu’il peut facilement être réentraîné sur n’importe quel type de données comme vient de l’indiquer Jean-Philip – va aussi trouver des applications dans tous les domaines de la chimie et des sciences de la vie en général : en chimie pharmaceutique et cosmétique, mais aussi dans le domaine des enzymes industrielles, ou encore du côté de la chimie des matériaux, pour produire par exemple des électrolytes de batteries électriques, ou encore des membranes de dessalement.

L’an dernier, la jeune pousse Bioptimus[5] s’est elle aussi lancée dans un projet de développement d’un modèle de fondation dédié à l’étude du vivant. Faut-il y voir un potentiel concurrent de votre modèle, FeNNix-Bio1 ?

R.M. : Il s’agit plutôt d’une solution complémentaire à la nôtre. Leur modèle, h-optimus-1, se destine en effet à la compréhension de mécanismes biologiques qui entrent en jeu dans le cadre d’une maladie, de l’échelle moléculaire jusqu’au niveau d’un organisme tout entier. Notre modèle FeNNix-Bio1, lui, va de l’électron à la molécule. Les modèles de fondation sont, de toute façon, amenés, à terme, à interagir les uns avec les autres : AlphaFold peut d’ores et déjà générer des données utilisables par FeNNix-Bio1, qui lui-même pourra tout à fait transmettre des résultats au modèle de Bioptimus. Chacun travaille à son échelle, avec des données différentes.

Outre son utilisation pour vos propres travaux de développement de candidats médicaments, comptez-vous justement mettre à disposition votre modèle FeNNix-Bio1 à d’autres acteurs ? Si c’est le cas, selon quelles modalités ?

R.M. : Nous allons effectivement, bien entendu, exploiter ce modèle pour découvrir de nouveaux médicaments. Mais notre objectif est aussi qu’il soit utilisé plus largement par d’autres acteurs de la recherche académique et industrielle. Cela nous semble en effet d’autant plus important que le développement de FeNNix-Bio1 est le fruit d’un partenariat public-privé entre Sorbonne Université et Qubit Pharmaceuticals.

J.-P. P. : Nous allons en effet mettre à disposition notre modèle à la fois dans une déclinaison open-source[6], mais aussi dans une version propriétaire destinée à des applications industrielles plus poussées. Grâce à la possibilité de réentraînement qui le caractérise, c’est même à toute une famille de modèles – plus spécialisés – que FeNNix-Bio1 permettra de donner naissance ; publics pour certains d’entre eux, propriétaires pour d’autres. Ce modèle de fondation est ainsi un véritable couteau suisse, qui va permettre de générer beaucoup d’autres solutions, qui viendront non pas remplacer, mais plutôt « augmenter » les chimistes humains.


[1] Sorbonne Université/CNRS

[2] Seuil fixé à 1 kcal/mol, en dessous duquel le résultat est indiscernable de l’expérience.

[3] Supercalculateurs Jean Zay, EuroHPC et Aurora.

[4] Plé T., et al. A Foundation Model for Accurate Atomistic Simulations in Drug Design. ChemRxiv. 2025 ; Benali A., et al. Pushing the Accuracy Limit of Foundation Neural Network Models with Quantum Monte Carlo Forces and Path Integrals. arXiv. 2025.

[5] Comment la jeune start-up française Bioptimus ambitionne de connecter les échelles de la biologie grâce à l’IA

[6] Le code est pour l’heure accessible aux relecteurs des prépublications actuellement soumises à des revues à comité de lecture par Qubit Pharmaceuticals. Une partie de ce code sera également rendue publique cet été.

Face au protectionnisme américain, l’industrie navale française se positionne

Dans sa récente note de position intitulée Impact de la politique protectionniste de la nouvelle administration Trump pour le secteur naval, le GICAN, ne laisse guère de place au doute. « La relance de l’industrie maritime américaine n’est pas un accident politique, mais un choix stratégique assumé par l’administration Trump ».

Pour le GICAN, l’Europe ne doit donc pas être naïve : pour conserver une industrie navale forte, elle devra défendre ses intérêts stratégiques avec autant de détermination que la Chine et les États-Unis. Si elle ne le fait pas, elle deviendra le simple spectateur d’une compétition mondiale qui tient désormais davantage du chacun pour soi que du multilatéralisme.

Des actions visant à restaurer la domination maritime américaine

On entend parfois dire que Trump est fou. En réalité, si les mesures prises par son administration peuvent paraître extrêmes, elles sont la conséquence de constats réels. Et en ce qui concerne le secteur maritime, il faut remonter à 2024 pour comprendre la stratégie actuelle, lorsque les États-Unis ont lancé, sous l’administration Biden, une enquête portant sur les distorsions de concurrence liées aux « actes, politiques et pratiques de la Chine visant à dominer les secteurs maritime, logistique et de la construction navale ».

Or, les conclusions de ce rapport ont été révélées en janvier 2025 et il n’aura pas fallu longtemps à l’administration Trump pour publier des ordres exécutifs visant à restaurer la domination maritime américaine.

Le GICAN estime que ces mesures peuvent avoir trois conséquences pour l’industrie navale :

  • Redirection des commandes vers des pays comme le Japon et la Corée du Sud.
  • Réorganisation de la chaîne de valeur, au détriment des équipementiers européens.
  • Fuite du savoir-faire des constructeurs navals européens, poussés à investir aux États-Unis.

Les recommandations stratégiques du GICAN

D’ailleurs, en matière de questions maritimes, les États-Unis ne se contentent pas de mesures protectionnistes. C’est toute une nouvelle législation qui est en préparation, notamment avec le « SHIPS for America Act », dont le but est de développer une flotte sous pavillon américain et de stimuler la demande de nouvelles constructions et de réparations dans les chantiers navals du pays.

Face à de telles ambitions, l’Europe n’a donc pas le choix : elle devra répondre avec une vraie stratégie industrielle tout aussi ambitieuse.

Le GICAN propose ainsi 22 actions « permettant de soutenir la compétitivité des chantiers européens et d’inciter à la commande des armateurs en Europe ».

Ces actions concernent tous les aspects de la filière maritime : résilience de la supply chain, protection des infrastructures maritimes, technologies propres, digitalisation, montée en compétences et renforcement de notre accès au marché.

Un risque de fuite d’investissements vers les USA

Les premiers impactés par cette politique agressive seront les armateurs ayant des activités aux États-Unis, mais aussi les consommateurs américains, puisque les redevances imposées aux navires seront répercutées sur les prix des biens importés.

Néanmoins, le GICAN souligne qu’à court terme, comme les États-Unis ne disposent pas encore de capacités de production suffisantes, cela pourrait pousser les armateurs à se tourner vers l’Europe pour la construction de navires.

Mais sur le moyen et long terme, la stratégie visant à inciter les investisseurs à s’implanter aux États-Unis pourrait bien menacer nos industries. Car, il faut l’admettre, cette politique de relocalisation « forcée » a une chance de fonctionner !

Il suffit de voir comment le groupe français CMA-CGM a réagi aux annonces concernant les redevances sur les navires construits en Chine[1] : dès le lendemain, le groupe déclarait vouloir investir « 18,52 milliards d’euros aux États-Unis, destinés au développement d’infrastructures et de terminaux logistiques pour le transport maritime. »

Si l’annonce avait de quoi ravir Trump, le GICAN note dans son rapport que « cet investissement massif, réalisé par un acteur européen majeur, constitue autant de ressources qui ne bénéficieront pas à l’industrie de construction navale européenne. »

Le gouvernement français (qui a récemment appelé au patriotisme économique) n’a pas apprécié non plus. Il faut dire que, compte tenu du contexte de guerre commerciale ouvertement lancée contre l’Europe, cette annonce de l’armateur a été perçue, au mieux comme une gifle, au pire comme une forme de trahison.

La politique de Trump, un frein à la croissance du marché des drones maritimes

Par ailleurs, cette politique risque aussi d’impacter le marché des drones maritimes, dont les exportations ont triplé entre 2022 et 2023, boostées par une dynamique de croissance vers les États-Unis ! Or, l’écosystème français est particulièrement riche, puisque plusieurs industriels français sont actifs dans ce domaine[2].

Néanmoins, bien que les appels d’offres se multiplient outre-Atlantique, la répercussion des taxes Trump sur les prix risque malheureusement de pénaliser les solutions françaises et aussi de freiner la croissance du marché.

Mais restons positifs : avec l’administration Trump, tout est possible. Car une guerre commerciale ne fait pas de gagnants et, face au recul de l’économie américaine, de nouvelles annonces pourraient bien amener le président américain à reculer sur certains points dans les mois à venir.


[1] Selon le plan publié en février, les navires construits en Chine devraient entre 500 000 et 1,5 million $ pour chaque escale portuaire. Ces frais ont depuis été revus à la baisse, notamment pour les petits navires et les navires transportant des exportations agricoles.

[2] SeaOwl, EXAIL, Marine Tech, SeaProven, SIRENHA, Marinetech, etc.

Analyser l’air intérieur avec l’IRES

L’IRES a été créé en 2010 par le docteur Pierre Muller à Strasbourg. Spécialisé dans la chimie analytique, il se concentrait au départ sur l’analyse de l’eau. « Depuis quelques années, elle est très bien contrôlée partout, si bien que nous nous sommes attaqués à une autre problématique, dont l’intérêt est très récent : la pollution de l’air intérieur », explique le président du laboratoire. Nous passons près de 80 % de notre temps à l’intérieur et l’air y est souvent bien plus pollué qu’à l’extérieur. Les émissions liées au mobilier, à l’utilisation de produits chimiques ou la présence de moisissures peuvent avoir des effets néfastes sur la santé. Le laboratoire réalise ses analyses principalement à l’aide de mèches de cheveux. Les molécules absorbées se retrouvent dans le poil et y restent tant qu’il ne tombe pas ou est coupé. Il est ainsi possible de mesurer l’exposition des mois précédents.

Différents dispositifs

L’IRES développe également des outils qui permettent à tous de mesurer la qualité de l’air intérieur. « Nous essayons de trouver des dispositifs de prélèvement simples, qui peuvent être employés par des personnes non spécialisées. Nous envoyons les capteurs (capteur de poussière à fixer sur l’aspirateur, à laisser plusieurs jours chez soi…) et les utilisateurs nous les renvoient ensuite. Nous extrayons les différentes molécules collectées et les comparons à une banque de données qui comprend une moyenne des composés présents dans l’air intérieur », explique Nathalie Ulrich, directrice et responsable qualité et métrologie à l’IRES. Ils servent notamment aux établissements recevant du public (crèches, hôpitaux, écoles…), qui ont l’obligation depuis 2018 d’analyser l’air intérieur.

En 2021, le laboratoire a également lancé un bracelet en silicone, comme celui que l’on porte en festival, qui permet aux particuliers de connaître leur exposition au quotidien, commercialisé sous la marque Kudzu Science, pour moins de 150 euros. « Lorsque l’on a développé ce bracelet, nous avons pensé qu’il serait utile pour mesurer la contamination des populations à risque tels que les agriculteurs, ceux qui habitent près des champs ou les pompiers. Ce bracelet en silicone, sans plastifiant, imite la peau humaine et crée un réseau qui va emprisonner les molécules. Une fois qu’il nous est retourné, nous le découpons en plusieurs parties pour réaliser des analyses. Les molécules sont extraites grâce à des solvants spécifiques selon les molécules recherchées », explique la directrice. Les résultats, disponibles en 10 à 15 jours, permettent de savoir si l’on a été exposé à des plastifiants, des perturbateurs endocriniens, des métaux lourds, des pesticides ou encore des allergènes et des moisissures, et ce, même à l’état de trace. 30 % de ces kits sont expédiés à l’étranger, en majorité aux États-Unis et au Canada.

Aider la recherche

Grâce à ses nombreux dispositifs, et notamment son bracelet, l’IRES souhaite participer aux études réalisées par une vingtaine de cohortes, en particulier sur les liens entre certaines molécules et les risques de cancers. « La plus grosse regroupe 25 000 volontaires. Nous avons également collaboré avec l’association Générations Futures ou encore certains députés qui voulaient sensibiliser au sujet des PFAS. C’est nous qui avons réalisé leur analyse de cheveux et avons montré qu’ils contenaient toutes ces substances dangereuses », ajoute Nathalie Ulrich.

Si le laboratoire collabore avec la recherche, elle travaille aussi avec le privé. À la suite d’une restructuration en 2017, il devient une filiale d’Edéis ingénierie, une entreprise spécialisée dans la conception et la construction de bâtiments. « Ensemble nous avons lancé un label qui vise à référencer les peintures, colles, et revêtements de sol ayant un faible impact sur la qualité de l’air intérieur, en prenant en compte 76 substances chimiques », développe Pierre Muller. Dans la continuité de ce projet, l’IRES sortira bientôt une application pour smartphones, sur le même modèle que Yuka, pour les matériaux de bricolage (peintures, colles, revêtements, meubles…).

Maguelonne Chambon : « Garantir l’exactitude, ce maître étalon aux limites sans cesse repoussées »

Pouvez-vous nous parler de votre parcours professionnel ?

J’ai commencé par des études en physique, puis une école d’ingénieurs à Strasbourg avec une spécialisation en optique. Après un stage aux États-Unis sur les lasers, j’ai travaillé chez Bull SA dans le domaine des télécoms sur une expérience de chirurgie laser sur microcircuits. Mon rôle était d’installer des dispositifs laser pour intervenir en urgence sur les nouveaux circuits. À l’époque, on parlait de micro ; aujourd’hui, on est passé à la nano.

Ensuite, je suis entrée dans la métrologie, où je pensais rester trois ans… mais cela fait bientôt 36 ans maintenant. J’ai occupé plusieurs postes : chargée de programme en métrologie électrique et en métrologie du temps et des fréquences, cheffe de service, puis directrice de la recherche scientifique et technologique au Laboratoire national de métrologie et d’essais (LNE). En parallèle, je me suis investie dans plusieurs domaines : l’organisation de conférences internationales, la coopération technique internationale (notamment avec le Maghreb, l’Asie, et les pays de l’Est qui rejoignaient l’Europe), et même l’édition scientifique. Une diversité de missions que j’ai toujours aimée.

À partir des années 2000, je me suis plus impliquée dans l’Association européenne de métrologie, maintenant appelée Euramet, au départ en tant que secrétaire générale, puis membre du Bureau des directeurs, et plus récemment en tant que présidente du comité EPM (European Partnership on Metrology), qui coordonne les projets de recherche cofinancés par la Commission européenne.

Depuis 2010, je dirige la recherche scientifique et technologique au LNE, en supervisant à la fois les travaux du laboratoire, la coordination de la métrologie française (avec ses dix laboratoires), la normalisation, la documentation et les archives. Je représente également la France à l’échelle européenne et internationale aux côtés du directeur général – un rôle riche qui ne laisse pas de place à l’ennui !

Cette année, le LNE fête les 150 ans de la signature de la Convention du mètre. Qu’est-ce que cela signifie et quels ont été les impacts des unités de mesure pour les sciences et sociétés ?

La Convention du mètre est un moment exceptionnel dans l’histoire des sciences. Elle est née dans le sillage de la Révolution française, à une époque où les unités de mesure variaient d’un territoire à l’autre. Les chercheurs ont alors imaginé un système uniforme et décimal, capable de s’adapter à l’évolution technologique.

Ce système, qui a commencé avec le mètre, le kilogramme et la seconde, a été conçu pour être diffusé à l’échelle internationale. Des institutions ont été créées, comme le CNAM pour conserver les étalons. L’Observatoire de Paris était quant à lui en charge du temps depuis déjà bien longtemps. Les définitions ont évolué avec le temps : pour le kilogramme, nous sommes passés d’un décimètre cube d’eau à un étalon en platine iridié, puis à des constantes physiques fondamentales. Et avec chaque évolution, on gagnait en précision.

En 1875, 17 nations ont signé la Convention du mètre, créant un traité diplomatique scientifique encore en vigueur aujourd’hui. Ce traité a permis la création d’un Bureau international des poids et mesures, le BIPM, chargé de disséminer ce système et de l’adapter aux progrès scientifiques.

Le système métrique s’est élargi avec le temps : ampère, candela, kelvin, mole… Il a permis des avancées majeures, notamment dans la recherche scientifique, la santé, la physique quantique ou les technologies de pointe (comme les horloges atomiques ou les capteurs cryogéniques). Aujourd’hui, il repose sur des constantes physiques fondamentales, garantissant une précision inégalée.

Adopté par plus de 100 pays, représentant 90 % du PIB mondial, ce système est utilisé par tous les chercheurs, même dans des pays qui n’ont pas officiellement adhéré à la convention. Grâce à cette vision partagée, la métrologie continue de jouer un rôle clé en accompagnant les grandes évolutions scientifiques et technologiques.

Quelles sont les principales différences entre métrologie scientifique, industrielle et légale ?

La différence réside dans la finalité et le cadre d’application de chaque type de métrologie. La métrologie légale est imposée par des règlements et des directives européennes. Elle vise à garantir, grâce à des protocoles précis, que le produit livré – qu’il s’agisse d’un équipement ou d’un service – correspond exactement à ce que le consommateur ou l’entreprise a payé. On pense notamment aux pompes à essence, qui doivent être contrôlées pour éviter toute fraude. En résumé, la métrologie légale, c’est ce côté « régalien » et commercial qui vérifie que tout est conforme aux normes en vigueur. C’est là que la métrologie apporte la partie scientifique et technique pour assurer que ce qui est délivré respecte les exigences.

La métrologie scientifique, elle, se situe en amont. C’est là que nous travaillons sur les références fondamentales, sur les mesures avec le plus haut niveau de précision, souvent en explorant des zones d’incertitude très faibles. Le travail de recherche en métrologie, ce que je trouve particulièrement passionnant, consiste à développer des connaissances et des techniques qui, plus tard, seront transférées à l’utilisateur. C’est ce lien entre recherche fondamentale et application concrète qui est, pour moi, le véritable moteur de notre domaine.

Quant à la métrologie industrielle, elle englobe toute la chaîne allant du laboratoire accrédité jusqu’à l’utilisateur final. Ici, il s’agit de répondre à un besoin pratique dans un cadre industriel, tout en prenant en compte les écarts entre une référence de laboratoire ultra-précise et ce qui est réellement nécessaire sur le terrain. Par exemple, dans l’industrie automobile, la précision apportée par un micromètre est largement suffisante en mécanique (il en est différemment si on parle des circuits électroniques, bien sûr), alors que dans l’espace, des mesures pouvant atteindre une précision de 10⁻¹² sont indispensables.

Il existe également de grandes différences en termes de niveaux d’incertitude selon le domaine d’application. Dans le domaine du temps et des fréquences, par exemple, nous utilisons des horloges dont la précision peut atteindre des niveaux extraordinairement fins (de l’ordre de 10⁻¹⁸). En revanche, dans des applications plus critiques, comme la radiothérapie, même un écart minime a des conséquences considérables pour le patient. En chimie, les mesures peuvent varier du micro au nano, selon les concentrations, alors que pour des mesures de rayonnement, on se situe souvent autour d’un écart en pourcentage.

Bref, chaque domaine impose des exigences différentes ; c’est ce qui rend ce métier si varié et passionnant : il faut savoir adapter nos méthodes et notre précision aux besoins spécifiques, qu’ils soient scientifiques, industriels ou légaux.

Quels sont les secteurs d’activité où la métrologie est la plus critique ?

Ce n’est pas forcément une question de criticité au sens strict, c’est surtout que tous les secteurs ont besoin de métrologie. Après, tout dépend de ce qu’on met derrière le mot « critique ». Dans la santé, par exemple, on parle de criticité parce qu’il y a des enjeux de sécurité et de risques pour les patients. Dans d’autres domaines, c’est moins une urgence vitale qu’un besoin stratégique : l’industrie évolue très vite, et si on veut accompagner cette transformation, il faut être présent. Donc ce n’est pas toujours « critique » au sens d’un danger immédiat, mais c’est nécessaire, indispensable au développement.

Quelles sont les évolutions qui transforment la métrologie aujourd’hui ?

La métrologie connaît aujourd’hui des transformations majeures, portées par les progrès technologiques et les besoins croissants en précision. L’adoption d’unités fondées sur des constantes fondamentales, comme la constante de Planck, permet déjà des mesures de masse dix fois plus précises qu’auparavant. Et cette évolution se poursuit : une nouvelle définition de la seconde est attendue d’ici cinq à dix ans, avec des systèmes capables d’atteindre une précision de 10⁻¹⁸, ouvrant la voie à des applications inédites.

Ces gains de précision ne sont pas abstraits : ils permettent, par exemple, de détecter plus rapidement des mouvements géologiques ou de mieux caractériser des phénomènes physiques complexes. L’émergence des technologies quantiques accélère encore cette transformation. Les futurs capteurs quantiques, souvent utilisés en environnement cryogénique, nécessiteront des mesures de fréquence et de phénomènes électroniques d’une extrême finesse.

La métrologie s’adapte donc en amont, pour accompagner ces avancées scientifiques. Elle ne se limite plus aux unités classiques comme le mètre ou le kilogramme : l’introduction de la mole en 1971 en est un exemple marquant, essentiel pour les sciences du vivant. Aujourd’hui, la précision des mesures permet de détecter très tôt certains biomarqueurs liés à des maladies neurodégénératives – une avancée décisive pour espérer traiter ces pathologies plus efficacement. Ces évolutions soulignent combien la métrologie est au cœur des grands enjeux scientifiques, technologiques et humains.

Comment la métrologie s’adapte-t-elle aux enjeux et exigences de l’industrie 4.0 ?

Les industriels ont souvent des besoins précis ; notre rôle est d’être un peu en avance pour pouvoir y répondre. Aujourd’hui, avec l’essor du numérique dans l’industrie, on travaille sur les réseaux de neurones, les jumeaux numériques, l’intelligence artificielle, et même les technologies quantiques. Ces dernières peuvent sembler lointaines, mais elles arrivent. Je me souviens d’une réunion avec l’ancien DG de Trescal : quand on lui a parlé de la possibilité d’auto-étalonnage avec des systèmes quantiques, il a été très surpris, parce que ça touche directement à son cœur de métier. Il faut donc accompagner les industriels dans leur adaptation, les aider à intégrer ces technologies et à faire évoluer leurs pratiques. Le numérique transforme tout et le Covid a accéléré cette évolution. Le métier de métrologue va évoluer lui aussi : on fera toujours des étalonnages, mais certainement que l’on se tournera plus vers de l’assistance technique, dans le développement de nouveaux protocoles adaptés à ces changements, tout en gardant une base de références matérielles. Mais à terme, ce ne sera plus le sujet central.

Quels sont les défis majeurs que la métrologie devra relever face aux enjeux climatiques et environnementaux ?

Même si les enjeux climatiques ne semblent plus vraiment être une priorité pour l’Europe, ce qui est dommage, ce domaine nécessite toujours de la métrologie, parce que sans comparaison et mesures correctes, il ne peut pas y avoir de suivi fiable. On a besoin de références, de bases de données, et surtout de méthodes statistiques pour comprendre l’évolution des paramètres dans le temps, notamment environnementaux.

Le rôle de la métrologie sera surtout d’accompagner les organismes chargés de traiter les questions climatiques en leur fournissant des données comparables. Cela dit, on ne s’attend pas à de grandes évolutions, car les méthodes de mesure sont déjà bien établies. Il reste quelques domaines, comme l’acidité des océans, où des mesures de pH plus précises pourraient encore être nécessaires, sauf peut-être pour des problématiques que nous n’avons pas encore identifiées. En revanche, sur des sujets comme la qualité de l’air, la pollution ou la gestion de l’eau, notre contribution portera surtout sur la mise en œuvre de nouvelles directives.

Un autre défi important à venir concerne les TCE (éléments critiques pour la technologie) et l’usage de matériaux recyclés comme réponse à l’épuisement des ressources. La métrologie devra s’adapter pour qualifier ces nouvelles matières : comment mesurer leur dosage, leur efficacité, leur pureté, ou détecter leur origine ? Aujourd’hui, on ne sait même pas distinguer un matériau recyclé d’un matériau pur dans certains emballages. Et ça devient un enjeu économique majeur, car des pays comme la Chine misent sur la production de matériaux purs qui est moins chère, tandis qu’en Europe, on essaie de valoriser le recyclé. Si on ne progresse pas vite, on sera à la traîne, et ça, c’est aussi un risque commercial et stratégique.

À quoi ressemblera la métrologie dans dix ans avec l’essor des technologies émergentes ?

Je vois plusieurs grandes évolutions en métrologie : d’un côté, les technologies quantiques, qui vont profondément transformer le domaine, et de l’autre, l’intégration de l’intelligence artificielle dans les dispositifs médicaux et d’instrumentation. La numérisation va aussi beaucoup progresser, avec l’utilisation de jumeaux numériques et du machine learning.

En métrologie, les évolutions prennent du temps, mais dans dix ans, le métier de métrologue sera très différent : certains systèmes pourront s’auto-étalonner, et notre rôle sera davantage de vérifier leur bon fonctionnement que d’assurer l’étalonnage. Le calcul des incertitudes de mesure avec ces nouveaux outils, notamment ceux intégrant l’IA, deviendra un enjeu majeur.

Cela créera beaucoup d’opportunités dans les mathématiques appliquées à la physique et à la chimie. Mais il faudra aussi relever le défi de leur formation, car avec la complexité croissante et la tendance au « zapping », fidéliser des talents ne sera pas simple. Il y aura un vrai enjeu de ressources humaines à intégrer.

Quels sont les conseils que vous donneriez à de jeunes ingénieurs qui souhaiteraient se spécialiser en métrologie ?

Je dirais qu’il est important de réfléchir tôt aux domaines qui nous passionnent – santé, instrumentation, numérique, mathématiques – car changer de voie devient de plus en plus difficile avec la spécialisation. Les technologies avancent vite, et malgré les outils numériques, une solide base de connaissances reste toujours indispensable. Il faut aider les jeunes à se projeter sans les effrayer, en leur montrant que des disciplines comme la physique ne sont pas plus compliquées que d’autres, à condition d’y mettre de la curiosité et de l’effort.

La métrologie est un domaine génial, car on voit directement l’impact de la recherche sur des applications du quotidien : par exemple, j’ai pu suivre le développement des premières horloges à fontaines atomiques, et aujourd’hui, leurs applications sont partout – navigation, GPS, gravimétrie. C’est impressionnant de voir comment un tel programme scientifique a permis, avec les évolutions technologiques des systèmes, de changer notre quotidien. Qui aujourd’hui se passerait d’un GPS dans sa voiture ? Et tout cas cet aspect donne beaucoup de sens au travail, ce qui est un besoin très fort chez les jeunes aujourd’hui.

Enfin, je trouve essentiel de valoriser aussi les femmes scientifiques comme Marie Curie, dont l’engagement et les découvertes ont eu un impact énorme, et de continuer à faire connaître d’autres figures souvent oubliées.

Propos recueillis par Maya Huguenin

Les contributions de Maguelonne Chambon à Techniques de l’Ingénieur

Maguelonne Chambon collabore avec Techniques de l’Ingénieur en tant qu’autrice et experte scientifique et depuis 2015.

Spécialisée en métrologie, elle occupe notamment un rôle clé au LNE et représente aujourd’hui la France au niveau national mais également international.

Offre
– Mesures – Analyses

Articles
Étalons métrologiques fondamentaux
Organisation du réseau national de métrologie française et LNE
Programmes européens de recherche en métrologie

Des propositions pour défossiliser l’industrie chimique et la rendre plus compétitive

L’industrie chimique européenne est l’une des plus énergivores du continent. En 2022, elle a absorbé près de 20 % de l’énergie totale consommée par le secteur industriel, selon Eurostat. En cause : des procédés nécessitant de la chaleur, de la pression et de l’électricité en continu pour transformer principalement du pétrole et du gaz en molécules utiles. La dépendance aux combustibles fossiles reste donc encore forte et la transition verte de cette industrie représente un défi majeur pour l’Union européenne. La Renewable Carbon Initiative (RCI) vient de publier un rapport présentant plusieurs propositions afin de défossiliser ce secteur.

Lancée en 2020, ce réseau regroupe des acteurs majeurs de l’industrie des produits chimiques et des matériaux, avec des entreprises comme BASF, Clariant ou encore Arkema. Il promeut l’usage de carbone renouvelable en remplacement des ressources fossiles dans les processus industriels. Dans un contexte où l’industrie chimique européenne montre des signes inquiétants de désindustrialisation, ce collectif affirme qu’aujourd’hui, le passage à une chimie décarbonée n’apparaît plus comme une simple ambition environnementale, mais aussi comme une stratégie industrielle majeure. Selon lui, cette transition est le passage obligé pour accroître la compétitivité et la résilience de l’Europe sur le marché mondial.

Parmi ses propositions, la RCI réclame une reconnaissance politique explicite de l’objectif de défossilisation de la chimie de la part des plus hautes instances de l’UE. Une telle orientation donnerait un signal clair aux acteurs industriels et aux investisseurs, tout en servant de socle aux futures politiques européennes. Le réseau insiste sur le rôle central que doit jouer le carbone renouvelable, issu de la biomasse, du recyclage ou de la capture et de la valorisation du CO₂, en remplacement des combustibles fossiles.

Pour accélérer ce basculement, la RCI propose de mettre en place des objectifs contraignants afin d’utiliser du carbone renouvelable dans les produits chimiques et les matériaux. Ceux-ci pourraient par exemple être intégrés à des textes existants comme le PPWR (Proposal Packaging and Packaging Waste Regulation), un règlement européen sur les emballages et les déchets d’emballages, ou encore le règlement ELV (End-of-Life Vehicles) relatif aux véhicules hors d’usage, ainsi que le règlement ESPR (Ecodesign for Sustainable Products Regulation), qui vise à encourager la conception et la fabrication de produits durables.

Des règles de commerce équitable sur les importations de carbone renouvelable

En parallèle, le collectif propose de faire évoluer le système européen d’échange de quotas d’émissions (UE ETS pour European Union Emissions Trading System) dans le but de faciliter la transition vers le carbone renouvelable, en mettant l’accent sur l’utilisation de la technologie de captage et d’utilisation du carbone (CCU pour Carbon Capture and Utilisation). Celle-ci consiste à capter le CO2 pour l’utiliser comme matière première directe ou pour la synthèse de carburants, de produits chimiques ou de matériaux.

Étant donné que l’un des freins majeurs est l’accès aux matières premières de substitution, la RCI appelle à un cadre européen harmonisé permettant de valoriser les déchets comme intrants et de garantir l’approvisionnement local en biomasse durable. L’établissement de règles de commerce équitable sur les importations de carbone renouvelable est également jugé prioritaire, dans une logique de compétitivité et d’autonomie stratégique. Autre prérequis : offrir aux entreprises un accès à des énergies renouvelables compétitives en échange d’engagements contraignants en matière de défossilisation.

La transition vers le carbone renouvelable ne peut réussir sans une articulation fine entre les secteurs de l’énergie et des matériaux. La RCI propose donc un équilibrage réglementaire entre l’énergie et les matériaux utilisant du carbone renouvelable, dans le but de maximiser les synergies. Toutes ces propositions doivent s’accompagner de mécanismes de soutien financier pour faciliter la transition vers le carbone renouvelable, avec pour objectif final de repositionner l’Europe comme le leader mondial d’une chimie circulaire et durable.

Revue du Magazine d’Actualité #33 : du 19 au 23 mai

De la découverte en laboratoire à l’innovation industrielle… On scrute pour vous chaque semaine les tendances de l’industrie.

La stratégie nationale pour l’hydrogène : un avenir incertain malgré des ambitions révisées

Alors que la France s’efforce de se positionner en leader de l’hydrogène décarboné, la révision de sa stratégie nationale met en lumière des défis économiques et industriels majeurs. Entre projets suspendus et objectifs revus à la baisse, l’avenir de cette filière cruciale pour la transition énergétique reste incertain.
L’avenir incertain de l’hydrogène en France

Black-out du 28 avril en Espagne et au Portugal : l’Europe face à ses défis énergétiques

Le black-out du 28 avril dernier en Espagne et au Portugal a mis en lumière la fragilité des systèmes électriques, dépendants d’un équilibre technique précis. L’ENTSO-E a lancé une enquête pour déterminer les causes exactes, avec un rapport attendu dans six mois.
Enquête sur le black-out ibérique : ce que l’on sait déjà

Marie Perrin distinguée pour sa méthode d’extraction des terres rares, plus propre et rapide que les techniques traditionnelles

L’Office européen des brevets a récompensé Marie Perrin pour sa technique novatrice d’extraction des terres rares. En s’inspirant de la nature, elle a développé un procédé qui réduit considérablement les déchets toxiques et les étapes chimiques complexes. Cette avancée pourrait redéfinir l’industrie des terres rares et en favoriser un développement plus durable.
L’innovation à même de transformer l’industrie des terres rares

Le projet EMME : la France en route vers la souveraineté minérale

Dans un contexte de transition énergétique, le nickel et le cobalt sont devenus des matières premières essentielles. Le projet EMME, prévu pour 2028, ambitionne de créer une unité de conversion de ces métaux en Gironde. Ce projet pourrait non seulement réduire les émissions de CO2, mais aussi créer 500 emplois, tout en renforçant l’indépendance énergétique de la France.
Les enjeux du projet EMME et son impact sur l’économie française

La chimie française face à une tempête économique et géopolitique

Face à une série de fermetures d’usines et à une baisse de la production, la chimie française est en crise. France Chimie alerte sur les menaces pesant sur des milliers d’emplois et appelle à un plan d’action national et européen pour redresser la situation.
Les défis de la chimie en France

Inscrivez-vous aux webinars à venir

Les capacités en énergie éolienne et solaire de la Chine dépassent le thermique

C’est une première pour un pays qui a bâti sa croissance économique pendant des décennies sur une production d’électricité fortement carbonée. La Chine vient de voir ses capacités de production d’énergie éolienne et solaire dépasser celles des centrales thermiques, marquant une étape majeure dans sa transition énergétique. Selon les données de l’Administration nationale de l’énergie (ANE), à la fin du premier trimestre 2025, la capacité installée combinée de l’énergie solaire et éolienne a atteint 1 482 gigawatts (GW), dépassant la capacité thermique, qui plafonne à 1 451 GW. Cette progression est le fruit de nouveaux investissements records dans les énergies renouvelables, puisqu’au cours des trois premiers mois de l’année, le pays a ajouté 74,33 GW de nouvelles capacités solaire et éolienne.

Ce tournant énergétique chinois ne s’est pas fait en un jour. Dès le début des années 2010, le pays s’est imposé comme un acteur incontournable du photovoltaïque mondial, à la fois en termes de production d’équipements et de déploiement domestique. En 2024, les énergies solaire et éolienne ont produit 1 830 milliards de kilowattheures (kWh), soit environ 20 % de l’électricité nationale, mais ce niveau est encore loin d’une domination en volume. Le charbon reste en effet une réalité structurelle du système électrique chinois, puisqu’il représente encore environ 60 % de l’électricité produite. À titre de comparaison, cette part s’élevait à environ 80 % en 2011.

Cette difficulté à réduire plus fortement le rôle joué par le charbon est liée entre autres à la forte augmentation de la consommation électrique en Chine. Celle-ci a progressé de près de 7 % l’année dernière, après une augmentation comparable l’année précédente. Cette hausse s’explique notamment par le développement de nombreuses industries à forte intensité d’électricité, telles que les semi-conducteurs, qui nécessitent la fabrication de métaux comme l’acier, l’aluminium et le cuivre. Ainsi que par l’électrification des transports, puisque environ un véhicule sur deux mis en circulation est électrique ou hybride rechargeable.

De nouvelles centrales à charbon construites pour stabiliser le réseau électrique

Malgré l’essor des énergies renouvelables, la Chine reste donc fortement dépendante du charbon. En 2024, le pays a approuvé par ailleurs la construction de 99,5 GW de nouvelles capacités de production d’électricité au charbon, une décision dénoncée par certaines ONG environnementales, mais justifiée par les autorités comme une mesure de soutien à la stabilité du réseau. Le caractère intermittent du solaire et de l’éolien, combiné à une demande énergétique toujours croissante, oblige en effet Pékin à maintenir des centrales thermiques pour garantir la sécurité d’approvisionnement. Pour compléter son offre d’électricité bas carbone, le pays mise aussi sur le développement du nucléaire (environ 57 GW installés fin 2024, avec une dizaine de réacteurs en construction) et de l’hydroélectricité (environ 420 GW).

Tout en étant le leader mondial en matière de développement des énergies renouvelables, la Chine reste encore le plus grand émetteur mondial de gaz à effet de serre dans le monde. Elle s’est engagée à atteindre un pic de ses émissions de CO₂ avant 2030 et la neutralité carbone d’ici 2060. Ces engagements nécessiteront une transformation radicale du mix électrique au cours des deux prochaines décennies. Selon les projections de l’AIE, la Chine devrait représenter près de 60 % de l’ensemble des capacités renouvelables installées dans le monde d’ici 2030, sur la base des tendances actuelles du marché et des cadres politiques actuels par les gouvernements.

Le président Xi Jinping a réaffirmé le mois dernier, lors d’un sommet sur le climat coorganisé par les Nations unies et le Brésil, que les efforts de la Chine « ne ralentiront pas, quelle que soit l’évolution de la situation internationale ». Une déclaration perçue comme un signal politique fort, dans un contexte géopolitique tendu et de repli de certains pays, comme les États-Unis, sur leurs objectifs climatiques. Avec des investissements continus et une volonté politique affirmée, la Chine semble déterminée à poursuivre sa transition vers une économie plus verte et durable.

Recyclage chimique des plastiques : état des lieux 2025

Les difficultés économiques que rencontrent la Chine et les tensions géopolitiques actuelles provoquent un ralentissement de la croissance du secteur pétrochimique, au niveau mondial. Si Polyvia constate un ralentissement des investissements dans le recyclage chimique et l’annulation de certains projets, environ 45 unités de recyclage chimique supplémentaires devraient néanmoins être installées dans le monde à partir de 2028, selon le document produit en février 2025 par le service Affaires économiques de Polyvia.

L’Europe, futur leader du recyclage chimique ?

75 % des unités de recyclage chimique actuelles sont situées en Europe. Selon Plastics Information Europe, cette position de leader du continent européen devrait se confirmer dans les années qui viennent, puisque, parmi les 45 futures unités annoncées dans le monde, 31 seront en Europe.

Toutefois, si cette tendance est positive, la mise en place d’une vraie filière de recyclage chimique va nécessiter un fort soutien de la part de l’UE. C’est d’autant plus essentiel que le marché européen du recyclage chimique est stimulé par les obligations réglementaires d’incorporation de matières recyclées, en particulier la PPWR¹ !

Pour que ces nouvelles usines prospèrent, il leur faudra :

  • un cadre réglementaire spécifique au recyclage chimique ;
  • des normes de qualité et de sécurité harmonisées, pour les produits fabriqués à partir de plastiques recyclés chimiquement ;
  • un soutien financier et des incitations.

Concernant ce dernier point, notons que la Commission européenne vient récemment de faire un pas en avant, en autorisant la France à aider la filière, à hauteur de 500 millions d’euros.

La Commission a ainsi jugé que « le régime est nécessaire et approprié pour permettre le déploiement du recyclage chimique des plastiques ».

Cette autorisation ouvre donc la voie à un recyclage chimique à grande échelle en France, un premier signal fort pour la filière.

Densité et volume, les deux principaux critères des pétrochimistes

Tous les projets de recyclage chimique ne suscitent pas le même intérêt. Selon Polyvia, les projets d’unités de recyclage chimique les plus populaires concernent les applications à fort volume et à forte densité de déchets. Il y a deux cas emblématiques : le recyclage chimique des pneus en fin de vie et celui des matelas, deux produits difficiles à recycler par les méthodes traditionnelles.

Prenons l’exemple des pneus. La société Bolder Industrie, basée aux États-Unis, va installer une filiale à Anvers, en Belgique, dans le but de recycler 4 millions de pneus en fin de vie, chaque année. Ce volume représente à peine 2 % des 200 millions de pneus usagés annuels produits par l’Europe : le potentiel industriel est donc important ! Le projet est ainsi fortement subventionné, par l’Europe (32 millions d’euros du Fonds d’innovation) et par la Région flamande (2 millions d’euros).

D’autres projets sont également en cours, et impliquent à la fois des fabricants de pneus, des investisseurs et des sociétés qui maîtrisent les technologies de recyclage chimique (voir tableau ci-dessous).

Projets en lien avec le recyclage chimique des pneumatiques
Projets en lien avec le recyclage chimique des pneumatiques (source : Polyvia)

Des projets annulés ou retardés

Polyvia constate néanmoins que les volumes disponibles ne sont pas un critère suffisant pour susciter un intérêt de la part des pétrochimistes, ceux-ci étant plus frileux sur les applications utilisant des déchets à faible densité, notamment les emballages plastiques.

Fin 2024, Suez a ainsi annulé son projet de recyclage chimique du PET et autres déchets plastiques mixtes, alors que les travaux devaient débuter en 2025. Deux raisons sont invoquées : « L’inflation des coûts du projet et la situation macroéconomique ».

De son côté, le groupe Eastman a décidé de retarder son projet d’usine de Port-Jérôme2, mais pour des raisons réglementaires. Selon Eastman, le point bloquant serait le flou réglementaire de l’UE sur le sujet.

Car la nouvelle directive de l’UE connue sous le nom de PPWR devrait favoriser le recyclage des emballages, donc ce type de projet, la décision de l’UE « d’ouvrir la voie à l’importation de plastiques recyclés provenant de pays tiers », créerait en parallèle « un déséquilibre concurrentiel dans le marché européen de la matière recyclée ». Si le projet est maintenu, Eastman attend néanmoins d’y voir plus clair pour se lancer.


1 Packaging and Packaging Waste Regulation
2 sur la commune de Saint-Jean-de-Folleville, en Seine-Maritime – 76

Les thèses du mois : « L’IA entre dans l’usine du futur »

Pour notre dossier de décembre, « L’IA entre dans l’usine du futur », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

Inventaire dynamique des émissions de méthane pour l’Industrie pétrolière et gazière basé sur l’Intelligence Artificielle
Jade Eva Guisiano
Thèse en Sciences de l’ingénieur, soutenue le 24/06/2024
Laboratoire d’Informatique, Signal et Image, Électronique et Télécommunication

Intelligence artificielle pour les systèmes d’énergie renouvelable
Gabriel Narvaez Morales
Thèse en Génie électrique, soutenue le 18/01/2024
Laboratoire d’Analyse et d’Architecture des Systèmes

Détection et isolation hybrides robustes des défauts par l’intégration du Bond Graph et de l’intelligence artificielle : application à la production d’hydrogène vert
Balyogi Mohan Dash
Thèse en Automatique, productique, soutenue le 07/03/2024
Centre de Recherche en Informatique, Signal et Automatique de Lille

Advanced data validation methods for wastewater sensors using Artificial Intelligence
Imane Zidaoui
Thèse en Hydraulique urbaine, soutenue le 06/05/2024
Laboratoire des sciences de l’ingénieur, de l’informatique et de l’imagerie

Analyse du comportement des tunnels, enrichie par des outils d’intelligence artificielle
Alec Tristani
Thèse en Géotechnique, soutenue le 25/10/2024
Laboratoire Navier

Application de l’intelligence artificielle à l’exploitation des mesures de déflexion pour la caractérisation mécanique des structures de chaussées
Abdelgader Abdelmuhsen
Thèse en informatique, soutenue le 30/09/2024
Laboratoire Auscultation, Modélisation, Expérimentation des infrastructures de transport

Approches Hybrides et Méthodes d’Intelligence Artificielle Basées sur la Simulation Numérique pour l’Optimisation des Systèmes Aérodynamiques Complexes
Sergio Torregrosa jordan
Thèse en Sciences pour l’ingénieur, soutenue le 16/01/2024
Procédés et Ingénierie en Mécanique et Matériaux

Approche basée sur l’intelligence artificielle pour la conception préliminaire de lignes d’assemblage hybrides dans l’industrie automobile
Anass Elhoud
Thèse en Informatique, soutenue le 16/12/2024
FEMTO-ST : Franche-Comté Électronique Mécanique Thermique et Optique – Sciences et Technologies

Contrôle du réseau cloud basé intelligence artificielle
Abderrahmane Redha Alliche
Thèse en Informatique, soutenue le 07/06/2024
Laboratoire Informatique, signaux et systèmes

Méthodes hybrides d’intelligence artificielle pour les applications de navigation autonome
Ziming Liu
Thèse en Informatique, soutenue le 28/02/2024
Inria

L’intelligence artificielle, un outil d’évolution pour les industries du futur

Un extrait de « Intelligence artificielle dans le cadre de la transformation numérique », par Moamar SAYED MOUCHAWEH

 L’intelligence artificielle (IA) est une composante importante de la transformation numérique. Elle intervient à partir de méthodes et techniques élaborées en fonction des objectifs recherchés, de leurs domaines d’applications, mais également des interactions entre les différents acteurs du marché visés et/ou des domaines d’application déterminés. L’IA se base sur des connaissances et données recueillies à l’aide de systèmes hétérogènes et qui seront ensuite utilisées via des outils d’aide à la décision afin de résoudre un problème spécifique. Celui-ci peut par exemple être la recherche d’une plus grande efficacité énergétique ou de maintenance, d’une protection contre les pannes ou les intrusions.

En s’appuyant sur l’Internet des objets (IoT), le cloud, l’échange de données ou encore l’analyse prescriptive, des business models innovants se construisent autour des technologies numériques. Ils aboutissent ainsi à créer de nouvelles sources de revenus et à générer de nouvelles opportunités de services. Ils sont ainsi la promesse de productivité accrue, de qualité et de rentabilité, et laissent également espérer une plus grande sécurité des systèmes industriels, le tout dans un budget qu’il convient de respecter afin de ne pas rendre le service économiquement inaccessible.

À ce stade, la transformation numérique intervient sur trois plans distincts. Le premier rassemble toutes les technologies numériques utilisées par les clients afin d’exécuter les fonctionnalités avancées, ou pour capturer des données opérationnelles.

Le second plan s’appuie sur les technologies numériques nécessaires à la connexion des parties prenantes via les réseaux de communication sans fil.

Enfin, le dernier plan correspond à la transformation des données en informations et actions valorisables afin de planifier les opérations permettant la réduction des coûts, l’atténuation des risques et la génération de revenus. C’est là qu’interviennent différentes technologies numériques, dont l’intelligence artificielle.

L’IA met ainsi en jeu des capacités analytiques dédiées respectivement à la description par le recueil de données sensorielles, au diagnostic en identifiant des causes, à la prédiction par la modélisation du futur, ou encore à la prescription à partir de laquelle des solutions pourront être élaborées.

Ces quatre types de capacités d’analyses sont complémentaires. Elles nécessitent un traitement en continu des données afin d’améliorer la précision des prévisions et d’offrir la meilleure option de décision.

Avant de déterminer la technique d’IA la plus adaptée qui sera utilisée, il convient de définir préalablement l’objectif recherché, la méthode d’apprentissage employée pour l’atteindre, et le domaine d’application. Il peut s’agir de résoudre des problèmes, de fournir des services en termes d’automatisation ou financiers, de développer la télémédecine ou d’engager son industrie sur le chemin de la transition énergétique.

Exemple d’efficacité dans le cadre de la transition énergétique

La transformation numérique est particulièrement impliquée dans la gestion, la surveillance et la planification des opérations de génération, transport, distribution et consommation des ressources énergétiques, distribuées pilotées par l’électronique de puissance. Il est ainsi possible de réduire progressivement l’inertie mécanique du réseau électrique, mais aussi de mieux gérer le déséquilibre de puissance entre production et charge. Les capacités de traitements sont également améliorées grâce au cloud computing, mais le volume de données sur la production et la consommation d’énergie est énorme. L’intelligence artificielle permet de transformer ces données en valeur afin d’offrir des informations efficaces et indispensables à la fourniture de l’énergie, tout au long de la chaîne. L’IA permet également d’anticiper les mutations à venir ou problématiques à envisager pour construire un réseau intelligent.

Les méthodes d’apprentissage utilisées

Ici, les techniques basées sur l’IA ont pour objectifs la prédiction ou l’optimisation. D’une part, il est important de pouvoir prédire la demande d’énergie électrique, dont l’origine peut être diverse et dépendre de l’état de santé des matériels. D’autre part, il est indispensable d’être en mesure de minimiser un coût ou les risques, quelle que soit leur origine, et de maximiser la flexibilité des usages.

Pour y parvenir, l’intelligence artificielle se construit à partir d’apprentissages automatiques. Ceux-ci sont respectivement supervisé, non supervisé et semi-supervisé.

L’apprentissage supervisé s’appuie sur l’interprétation de données étiquetées recueillies au préalable. Afin d’envisager de possibles évolutions, l’apprentissage non supervisé est une alternative puisque le modèle ne nécessite pas de données étiquetées. Ce faisant, cet apprentissage non supervisé n’offre pas toujours une bonne précision du mode construit. Dans ce cadre, un apprentissage semi-supervisé peut permettre le lancement de l’apprentissage du modèle puisque des données non étiquetées sont utilisées pour améliorer la précision.

Un apprentissage en profondeur permet de construire un modèle basé sur l’utilisation de données brutes.

L’IA, incontournable outil du futur

L’IA prend sa source dans différents types de données, choisies en fonction de l’objectif recherché. Les modes d’apprentissage variés qu’elle met en œuvre permettent d’élaborer de nouveaux services, de diminuer les coûts tout en offrant la meilleure efficacité et une plus grande sécurité. Composante essentielle de la transition des entreprises vers une industrie 4.0, à toutes les strates de son fonctionnement, l’intelligence artificielle permet dès lors d’envisager de nouvelles sources de revenus.

Comprendre les enjeux d’un Système de Management de l’Intelligence Artificielle (SMIA)

 Dans le contexte dynamique de l’intelligence artificielle (IA), il est essentiel d’assurer une utilisation éthique et responsable de ces technologies. Le potentiel de l’IA est immense et il est difficile d’en prévoir tous les effets immédiatement. Les risques émergents lors du développement et de l’application doivent être gérés de façon à instaurer la confiance envers l’IA. Pour garantir des technologies d’IA sûres, fiables et éthiques, des processus de gouvernance stricts sont nécessaires. Un système de management de l’intelligence artificielle (SMIA) certifié ISO/CEI 42001 répond à cette exigence. Il aide également les entreprises à se conformer aux lois en vigueur sur l’IA et à combler les lacunes de confiance.

Vers une IA éthique et sécurisée

La norme ISO/CEI 42001 propose un cadre structuré pour la gestion de l’intelligence artificielle, visant à établir, mettre en œuvre et améliorer un système de management de l’IA. Elle définit les exigences pour évaluer, limiter et surveiller les risques, permettant aux organisations d’identifier et de traiter les risques potentiels avant qu’ils ne deviennent problématiques. Cette approche proactive assure le fonctionnement sécurisé, fiable et éthique des systèmes d’IA, minimisant ainsi les risques pour les individus et la société. La norme s’applique au développement, à la mise en œuvre et à l’utilisation des technologies d’IA, et concerne tout organisme développant des systèmes d’IA pour autrui ou intégrant l’IA dans ses processus existants.

Exclusif ! Téléchargez le dossier en intégralité

RAPPORT COMPLET

La mise en œuvre d’un Système de Management de l’Intelligence Artificielle (SMIA) offre différents avantages, au-delà de la sécurité et de la fiabilité technologique :

  • Conformité à la réglementation : La conformité à la réglementation est cruciale dans le contexte de l’évolution mondiale des lois sur l’IA. Un Système de Management de l’Intelligence Artificielle (AIMS) conforme à la norme ISO/IEC 42001 permet aux organisations de se préparer et de se conformer aux réglementations actuelles et futures, notamment la législation européenne sur l’IA. Cette conformité assure une gestion efficace des exigences légales, renforçant ainsi la capacité des entreprises à naviguer dans un paysage réglementaire en constante évolution.
  • Efficacité opérationnelle et réduction des coûts : La norme ISO/IEC 42001 offre des directives pour optimiser les processus d’intelligence artificielle, visant à réduire les répétitions et à améliorer l’efficacité globale. En rationalisant les opérations d’IA et en garantissant la fiabilité et l’efficacité des systèmes d’IA, les organisations peuvent réaliser des économies significatives et accroître leur compétitivité sur le marché. Cette norme joue un rôle crucial dans l’amélioration de l’efficacité opérationnelle et la réduction des coûts, permettant ainsi aux entreprises de maximiser leur potentiel et de se démarquer dans un environnement concurrentiel.
  • Développement et utilisation éthiques de l’IA : La norme ISO/IEC 42001 souligne l’importance de principes éthiques dans le développement et l’utilisation de l’IA, tels que l’équité, la non-discrimination et le respect de la vie privée. En respectant ces principes, les systèmes d’IA s’alignent sur les valeurs sociétales et les intérêts publics. Une approche éthique de l’IA améliore la réputation des organisations et soutient l’objectif d’une innovation responsable dans ce domaine.
  • Amélioration et innovation continues : La norme ISO/CEI 42001 promeut l’amélioration continue et l’innovation dans le management de l’IA. Elle préconise des révisions régulières du système de management pour assurer l’efficacité des organisations face aux évolutions technologiques et aux défis de l’IA. Cet engagement envers l’amélioration continue soutient une culture d’innovation et renforce la confiance des parties prenantes.

La norme ISO/CEI 42001 s’appuie sur la structure harmonisée de l’ISO, facilitant l’intégration d’un AIMS avec d’autres systèmes de management pour une gouvernance globale. Selon l’enquête ViewPoint de DNV, la cybersécurité est le principal risque associé à l’implémentation de l’IA, tel que rapporté par les participants. Les entreprises peuvent optimiser leur AIMS en le combinant avec un système de management de la sécurité de l’information conforme à la norme ISO/IEC 27001 et/ou un système de management de la confidentialité de l’information selon la norme ISO 27701.

Renforcer la transparence et l’efficacité

Un système de management de l’IA conforme à la norme ISO/CEI 42001 présente divers avantages, tels que l’amélioration de la gestion des risques et de l’efficacité opérationnelle, ainsi que le renforcement de la confiance et de la transparence. Les organisations peuvent instaurer une gouvernance stricte et, en obtenant une certification par une entité indépendante comme DNV, prouver leur engagement envers des pratiques d’IA responsables. Cette transparence est cruciale pour renforcer la confiance des parties prenantes, y compris les clients, les régulateurs et le public. En somme, un système de management de l’IA conforme à la norme ISO/CEI 42001 permet aux organisations de maximiser le potentiel de l’IA tout en protégeant les intérêts des individus et de la société.

Exclusif ! Téléchargez le dossier en intégralité

RAPPORT COMPLET


Ce texte est une version abrégée de l’article source consacré à la SMIA sur le site DNV. Cliquez ici pour le lire dans son intégralité.

« L’IA modifie profondément la logique de production »

Braincube est une entreprise française spécialisée dans l’intelligence artificielle industrielle. La start up propose une plateforme logicielle dédiée à l’optimisation des performances industrielles à partir des données de production passées au crible d’algorithmes d’intelligence artificielle et de machine learning. Ceci afin d’identifier les leviers de performance sur la production industrielle, la qualité, ou encore la sobriété pour ses clients, dont de grands groupes industriels dans des secteurs industriels variés – agroalimentaire, chimie, automobile, matériaux… -.

Laurent Laporte, PDG et co-fondateur de Braincube[1], a expliqué à Techniques de l’Ingénieur comment l’intelligence artificielle redéfinit la production industrielle : pilotage dynamique des lignes, optimisation des recettes, réduction des gaspillages, adaptation en temps réel… Mais aussi comment elle transforme les métiers, les compétences, et les modèles industriels.

Techniques de l’Ingénieur : Quelle est la différence entre digitalisation et transformation numérique dans l’industrie ?

Laurent Laporte : On confond souvent les deux, alors qu’elles recouvrent des réalités très différentes. La digitalisation, c’est la numérisation d’un processus existant. Par exemple, remplacer un tableau blanc avec des marqueurs par un écran tactile où l’on saisit les plans d’action, les suivis, etc. C’est une amélioration, mais on reste dans le cadre de l’organisation initiale. La transformation numérique, en revanche, consiste à repenser entièrement la manière de produire. L’IA entre en jeu ici : elle permet d’automatiser, de proposer des décisions optimisées, et d’aller bien au-delà de la simple saisie. Elle devient un levier de performance. Cette transformation implique aussi un changement managérial important, car elle remet en cause des habitudes bien ancrées dans l’usine. On passe d’une logique d’outil à une logique de système global optimisé.

Quels sont les principaux cas d’usage de l’IA dans les usines aujourd’hui ?

Il existe cinq grands cas d’usage qui reviennent régulièrement. Le premier, c’est la réduction des gaspillages : matière première, eau, produits non conformes. Le deuxième concerne l’optimisation de l’efficacité des machines, c’est-à-dire produire plus avec le même équipement. Ensuite, il y a la gestion des matériaux, par exemple doser plus finement un composant coûteux comme la colle ou le polymère. Le quatrième usage, c’est la consommation d’énergie, qui est une priorité stratégique aujourd’hui. Et enfin, il y a l’amélioration des caractéristiques produits : rendre un papier plus blanc, par exemple, peut améliorer son attractivité commerciale sans augmenter les coûts. L’IA, en analysant des milliers de données issues du processus, identifie les facteurs les plus influents pour chaque objectif et permet des ajustements précis en temps réel.

Quels sont les freins actuels à l’implémentation de l’IA dans les usines ?

Le premier frein, c’est l’infrastructure. Dans de grands groupes industriels, seules 10 à 20 % des usines sont aujourd’hui capables d’exploiter pleinement les solutions d’IA : elles sont bien équipées en capteurs, en systèmes de collecte de données, et en connectivité. Le reste est souvent obsolète, fragmenté, ou trop peu instrumenté. Ensuite, il y a les aspects humains. L’IA change la façon de travailler, et cela génère des inquiétudes, notamment du côté des opérateurs qui craignent une perte de contrôle ou une forme de déqualification. Il faut donc accompagner cette transition avec pédagogie. Enfin, l’acceptabilité managériale est un sujet. Mettre en place une IA dans un environnement aussi exigeant que l’atelier suppose que les résultats soient fiables, mesurables, et qu’ils s’intègrent dans le quotidien sans alourdir les tâches. L’IA doit prouver qu’elle apporte une vraie valeur.

En quoi l’IA change-t-elle concrètement la façon de produire ?

L’IA modifie profondément la logique de production. Traditionnellement, on appliquait une ‘recette’ moyenne, issue de l’expérience, valable dans la majorité des cas. Mais cette méthode ne prend pas en compte les variations réelles de l’environnement industriel : température, qualité des matières premières, cadence, etc. Avec l’IA, on entre dans une logique de pilotage dynamique. On identifie, grâce à l’analyse de données historiques, les facteurs les plus influents sur la qualité ou la performance, et on ajuste les réglages en temps réel. C’est comme passer d’un régulateur de vitesse classique à une voiture autonome qui adapte sa vitesse, sa trajectoire et ses réactions en fonction de la route, du trafic et des conditions météo. Cela permet non seulement d’optimiser les performances, mais aussi de mieux maîtriser les aléas et d’anticiper les dégradations de qualité ou les défauts avant qu’ils ne surviennent.

Quels sont les impacts de cette évolution sur les métiers dans l’usine ?

Ils sont majeurs. D’abord au niveau des dirigeants d’usine, qui doivent désormais être capables de quantifier le potentiel de productivité accessible avec les technologies disponibles, de prioriser les investissements, et de construire des scénarios économiques fondés sur la donnée. Les ingénieurs, eux, doivent s’approprier de nouveaux outils d’analyse, produire des modèles prédictifs, tester, itérer et déployer des IA opérationnelles. Quant aux opérateurs, leur rôle évolue aussi : ils doivent interagir avec des systèmes d’aide à la décision, suivre des instructions dynamiques, et parfois céder le contrôle sur certains réglages à l’algorithme. Cela demande de la formation, mais aussi une transformation culturelle. Certains profils peuvent se sentir déstabilisés, tandis que d’autres, notamment les plus jeunes, s’adaptent plus naturellement à ces environnements digitalisés.

L’IA peut-elle contribuer à une relocalisation de la production industrielle ?

Oui, potentiellement. L’un des leviers, ce serait de taxer le transport international, notamment lorsqu’il repose sur des modes polluants. Cela rendrait la production locale plus compétitive. Si l’on ajoute à cela des outils d’optimisation puissants comme l’IA, qui permettent de produire mieux avec moins de ressources, on retrouve une équation économique favorable à l’industrie de proximité. Cela favoriserait aussi la circularité : récupération de matière, production proche des bassins de consommation, réduction de l’empreinte logistique. Ce serait un retour à des logiques industrielles régionales, plus autonomes, et résilientes face aux aléas géopolitiques et climatiques. Encore faut-il avoir les infrastructures énergétiques et humaines pour soutenir cette transformation.

Quels exemples concrets illustrent le potentiel de l’IA dans l’optimisation industrielle ?

Dans le secteur du papier, par exemple, une usine peinait à augmenter la vitesse de production à cause de casses fréquentes. En analysant les données, les équipes ont pu identifier les causes des arrêts, mettre en place des actions correctives, et augmenter progressivement la cadence sans compromettre la qualité. Autre cas : une entreprise cosmétique au Brésil visait une amélioration de 20 points de TRS. L’analyse IA a révélé trois axes d’action : optimiser les paramètres existants, améliorer la précision des saisies humaines, et ajouter des capteurs pour affiner la mesure. Dans les mines, où les enjeux de rendement sont massifs, l’IA permet d’optimiser les étapes de broyage et de séparation chimique, ce qui se traduit directement en millions d’euros d’économies. À chaque fois, la clé, c’est de capter les signaux faibles dans des environnements complexes.

L’IA est-elle bien acceptée par les opérateurs de terrain ?

C’est un sujet sensible. Les opérateurs expérimentés peuvent ressentir une forme de dépossession face à des outils qui prennent des décisions à leur place. Il y a aussi la peur de devenir ‘le prochain’ à être remplacé. Or, l’objectif n’est pas forcément de supprimer des postes, mais de rendre le travail plus précis, moins pénible, et plus sûr. Cela suppose de bien expliquer les bénéfices, d’impliquer les équipes dans les projets, et d’adapter les outils à la réalité du terrain. Pour les nouvelles générations, en revanche, l’usage d’interfaces numériques, de consignes dynamiques ou d’algorithmes est perçu comme normal. C’est un changement culturel de fond, qui peut aussi renforcer l’attractivité de l’industrie si on l’accompagne bien.

Quel rôle pourrait jouer l’IA dans la réindustrialisation de la France ?

L’IA peut être un accélérateur puissant de réindustrialisation, mais elle ne suffit pas à elle seule. Le principal frein en France aujourd’hui, ce n’est pas la technologie, mais la main-d’œuvre, l’énergie, et parfois la complexité réglementaire. Beaucoup de zones rurales ont un tissu industriel vivant mais peinent à recruter. Dans certains cas, il y a même des commandes refusées faute de personnel. L’IA peut permettre de produire mieux avec moins, mais il faut aussi un projet global : valoriser les territoires, créer des écosystèmes locaux avec des centres de décision proches des sites de production, et assurer une autonomie énergétique. C’est une vision industrielle et territoriale à reconstruire, dans laquelle l’IA est un outil, pas une fin en soi.

Propos recueillis par Pierre Thouverez


[1] Braincube

Black-out en Espagne : l’enquête est lancée

L’ampleur du black-out qui a touché l’Espagne et le Portugal le 28 avril dernier à 12h33 a brutalement rappelé que le système électrique repose sur un fonctionnement technique très précis. Une rupture trop forte de l’équilibre prévu par les gestionnaires de réseaux de transport (GRT) peut rapidement engendrer une coupure totale de l’électricité… et donc une paralysie quasi complète de l’activité d’une région ou d’un pays.

Heureusement, l’événement qui a touché la péninsule ibérique n’a pas eu trop de conséquences graves : les lieux d’activités sensibles comme les hôpitaux ont utilisé leurs générateurs de secours ; la coupure ayant eu lieu principalement l’après-midi, elle n’a pas posé des soucis d’alimentation électrique nocturne ; les mesures de sécurité prises par la France ont évité une propagation sur le reste du continent européen.

L’impact médiatique a été très fort, conduisant des personnes plus ou moins qualifiées (et souvent plutôt moins) à pointer telle ou telle cause. Pourtant, l’expérience montre qu’il faut attendre plusieurs semaines voire plusieurs mois avant que des conclusions sérieuses et fondées soient tirées sur les raisons d’un tel événement.

Le précédent black-out (partiel) dans les Balkans le 21 juin 2024 le montre bien : ce jour-là, la forte chaleur générant une hausse de consommation d’électricité avait été spontanément pointée du doigt. Mais, après enquête, il s’est avéré que deux courts-circuits avaient été causés par de la végétation et que les pannes résultantes avaient enclenché un effet domino par manque de vision globale du réseau régional des GRT concernés et par des moyens insuffisants pour rehausser le voltage sur les lignes.

Enquête à suivre de l’ENTSO-E

Pour déterminer les causes réelles du récent incident ibérique, le groupement des gestionnaires de réseaux européens, ENTSO-E, a lancé une enquête. Avec les régulateurs, il a constitué un panel de dix experts européens qui fera d’abord un rapport factuel sur ce qui s’est passé, et donnera ensuite une liste de recommandations. Aucun délai n’est précisé, mais les textes européens fixent un maximum de six mois.

Le black-out est appelé « état de panne généralisée » dans le règlement européen 2017/1485. Il est caractérisé par au moins une des conditions suivantes : « perte d’au moins 50 % de la demande dans la zone de contrôle du GRT concerné ; absence totale de tension pendant au moins trois minutes » dans cette zone « entraînant le déclenchement des plans de reconstitution » (article 18).

La reconstitution est la période où les GRT organisent le retour de l’électricité sur le réseau après la panne généralisée. Dans le cas du 28 avril 2025, plusieurs actions consécutives ont été réalisées : à 12h44, la ligne 400 kV entre la France et l’Espagne (côté ouest des Pyrénées) a été remise en service, permettant progressivement l’alimentation du réseau espagnol ; à 13h04, la connexion Maroc-Espagne a aussi été réactivée puis à 13h35 celle avec la France sur le côté est de la frontière. Simultanément, dès le début de la reconstitution, des centrales hydroélectriques espagnoles disposant d’une capacité de « black start » (c’est-à-dire un redémarrage sans aucune aide du réseau) se sont reconnectées ; elles ont été suivies à 16h11 et 17h26 par deux centrales portugaises fonctionnant également en black start. Entre l’Espagne et le Portugal, une ligne de 220 kV a été remise en service à 18h36 puis une autre de 400 kV à 21h35. La reconstitution était terminée après minuit au Portugal et vers 4 heures du matin en Espagne.

Origine du black-out : ce qu’on sait et ce qu’on ne sait pas

La seule certitude sur le déclenchement du black-out, c’est sa rapidité. Tout s’est joué en moins de deux minutes. À 12h32 et 57 secondes, une série d’interruptions a eu lieu en Espagne, faisant disparaître 2,2 GW du réseau en 20 secondes. Apparemment, ce serait au niveau des sous-stations de Grenade, Badajoz et Séville. La fréquence sur la péninsule ibérique a alors baissé pour atteindre 48 Hz à 12h33 et 21 secondes (au lieu de 50 Hz), déclenchant ainsi automatiquement la déconnexion de quasiment toutes les unités de production ibériques et des lignes avec la France, pour éviter la perte de synchronisme. Quelques centrales ont aussi été arrêtées automatiquement dans le Sud-ouest français, dont la centrale nucléaire de Golfech.

Plusieurs pistes ont été évoquées sur l’origine des interruptions initiales. Un incendie proche du réseau français vers Perpignan ou Narbonne ? RTE a confirmé qu’il n’y en avait pas eu. Un événement météorologique exceptionnel ? Le Météo-France espagnol a précisé qu’il n’y en avait pas eu. Une cyberattaque sur le réseau espagnol ? Le gestionnaire de réseau REE (Red Eléctrica Española) a très vite écarté cette possibilité, mais une enquête judiciaire le précisera. Des oscillations anormales de fréquence et de tension sur le réseau européen repérées une heure avant le black-out auraient-elles eu une incidence ? La ministre espagnole de la Transition énergétique Sara Aegesen a évoqué cette hypothèse, mais sans qu’elle soit étayée pour l’instant.

Juste avant le black-out, l’Espagne produisait son électricité majoritairement (à 70 %) avec de l’éolien et du solaire photovoltaïque. Le pays était en situation d’export : 1 000 MW vers la France, 2 000 MW vers le Portugal et 800 MW vers le Maroc. Des voix se sont élevées pour attaquer ces énergies renouvelables variables, mais là aussi, rien de tangible à date. L’Espagne est désormais habituée à ces niveaux sans que cela ait déclenché des black-out précédemment. Les renouvelables ont d’ailleurs bien servi pour réalimenter la péninsule (voir graphe), au contraire du nucléaire qui a mis quatre jours pour revenir sur le réseau.

réseau électrique-Espagne
Puissance disponible sur le réseau électrique en Espagne le 28 avril 2025 (en gigawatts)
Source : REE, d’après un graphique publié par La Vanguardia

D’ailleurs, quand bien même le solaire ou l’éolien auraient joué un rôle dans l’événement du 28 avril, cela justifierait-il de les condamner ? En 1987, la France a connu une coupure de courant majeure dans l’ouest à cause de la centrale thermique de Cordemais : à l’époque, ce type de centrale n’a pas été remis en cause pour autant !

IA dans les usines : « Quand le « pourquoi » est clair, les freins tombent »

Ancien responsable de l’IA et de la data chez Orano, président et co-fondateur de Vatiotech, cabinet de consulting en stratégie technologique, Pacôme Perez a partagé avec Techniques de l’Ingénieur son expérience de terrain dans le déploiement de l’intelligence artificielle au cœur de l’industrie, dans les usines. De la maintenance prédictive aux enjeux de souveraineté numérique, en passant par les limites des modèles face à l’imprévu, il dresse un panorama des conditions nécessaires à une transformation industrielle réussie s’appuyant sur l’intelligence artificielle.

Techniques de l’ingénieur : Quel a été votre rôle chez Orano ?

Pacôme Perez : Chez Orano, j’étais responsable de l’intelligence artificielle et de la data au sein de la direction de l’innovation. Cela impliquait d’intervenir sur de nombreux sites, très hétérogènes en termes d’infrastructures et de maturité technologique : des sites anciens comme Pierrelatte, d’autres très récents comme Melox, ou des configurations mixtes comme au Tricastin. J’ai aussi travaillé à l’international sur des projets de mines d’uranium au Niger, au Kazakhstan ou au Canada. Mon travail consistait à accompagner les équipes sur des problématiques industrielles concrètes, en développant des modèles d’IA pour la maintenance prédictive, l’optimisation de procédés ou la gestion de la production. L’IA était alors utilisée comme levier opérationnel, avec un objectif clair : créer de la valeur mesurable pour l’usine.

Comment l’IA transforme-t-elle la maintenance industrielle ?

L’IA change profondément la manière d’aborder la maintenance. Avant, nous fonctionnions selon un calendrier fixe : maintenance curative quand il y a casse, ou préventive selon un seuil arbitraire. L’IA permet d’aller plus loin avec la maintenance prédictive, en analysant l’historique des défaillances et les données en temps réel. Cela permet de prédire le moment optimal pour intervenir. Mais ce n’est pas tout : le vrai enjeu désormais, c’est la maintenance prescriptive, qui intègre les contraintes économiques. On ne remplace pas une pièce uniquement parce qu’elle va casser, mais parce que son remplacement à tel moment est plus rentable qu’à un autre. Cela implique de construire des modèles numériques de l’usine – des jumeaux numériques – capables de simuler les conséquences globales d’un arrêt ou d’un changement sur la chaîne de production.

Quels sont les freins persistants au déploiement de l’IA dans les usines ?

Le principal frein n’est plus technique. La captation de données est souvent déjà en place grâce aux automates. On sait stocker les données, mais on ne sait pas encore la valoriser de manière cohérente. Souvent, les projets d’IA sont lancés sans lien direct avec les objectifs business. Il manque une traduction des priorités stratégiques vers les cas d’usage concrets sur le terrain. Ainsi, beaucoup d’énergie est déployée pour peu de résultats mesurables. Il faut que les projets soient orientés par une vraie vision industrielle. Cela peut être l’amélioration de la qualité, la réduction des coûts, l’augmentation de la production… Sans vision claire, l’IA reste sous-exploitée.

Quelle est la limite de l’IA face aux imprévus industriels ?

L’IA fonctionne très bien dans des contextes connus. Elle excelle à reproduire des schémas passés et à détecter des régularités. Mais dès que l’on sort de son champ d’apprentissage, elle devient peu fiable. Un événement géopolitique, une panne administrative, un conflit social sont des situations où seule l’expérience humaine permet de prendre une décision adaptée. C’est pourquoi il est essentiel de former les utilisateurs à comprendre les limites du modèle. Un bon système d’IA indique non seulement sa prédiction, mais aussi sa zone d’incertitude. L’humain reste indispensable pour valider, arbitrer, décider.

Quel est l’impact de l’IA générative aujourd’hui dans l’industrie ?

L’IA générative n’a pas révolutionné la technologie, mais les coûts d’accès. Ce qui coûtait 50 000 € il y a encore cinq ans peut maintenant être réalisé pour quelques milliers d’euros. Cela permet à des PME ou à des secteurs aux marges réduites d’explorer des cas d’usage IA. Mais cela pose aussi de vraies questions de souveraineté : utiliser des modèles SaaS américains dans des industries critiques est risqué. Que se passe-t-il si demain l’accès à ces services est coupé ? L’industrie a besoin de solutions robustes, autonomes, intégrées. Cela implique de réfléchir à des modèles embarqués, à des IA physiques, capables de tourner indépendamment dans des systèmes critiques.

Quels sont les nouveaux enjeux liés à la sécurité des modèles d’IA ?

Il ne suffit pas de créer un bon modèle. Il faut qu’il soit robuste aux capteurs défectueux, aux attaques extérieures, aux biais, au vieillissement de l’environnement… Un capteur qui se dérègle peut fausser toute une chaîne de production. Un modèle mal protégé peut être cloné, ou ses données volées. La cybersécurité ne concerne plus seulement les données brutes, mais aussi les modèles eux-mêmes. Il faut donc bâtir des systèmes capables d’alerter quand ils sortent de leur zone d’expertise, de qualifier leur propre niveau de confiance, et d’intégrer des protections contre le bruit ou les manipulations adverses.

Pensez-vous qu’il faut développer l’IA en interne dans les entreprises industrielles ou faire appel à des experts ?

L’implémentation peut sembler simple techniquement : il est facile aujourd’hui d’importer un modèle en Python et de l’exécuter. Mais la compréhension profonde des limites, des risques et des mécanismes mathématiques reste complexe. C’est pourquoi il faut un double accompagnement : des équipes internes acculturées à l’IA et capables de relier la technologie aux enjeux métiers, et des experts externes avec une formation solide en mathématiques, en sécurité et en modélisation. C’est à l’intersection de ces deux compétences que les projets IA réussissent.

Comment accompagner les industriels dans cette transformation ?

Mon activité actuelle consiste à faire le lien entre les enjeux stratégiques des dirigeants et les technologies disponibles. Je travaille avec des entreprises employant de 60 à 20 000 salariés, en m’assurant que les cas d’usage IA sont bien alignés avec les objectifs de rentabilité, de croissance ou d’innovation. On ne fait pas de la technologie pour la technologie : on la met au service d’un projet d’entreprise. Quand le « pourquoi » est clair, les freins tombent. Les équipes comprennent le sens des outils, les dirigeants investissent au bon endroit, et l’impact est réel.

Propos recueillis par Pierre Thouverez

Le « super bois », avenir d’une construction décarbonée ?

L’utilisation massive de bétons et d’acier fait que le secteur du bâtiment et de la construction est l’un des plus polluants en termes d’émissions de gaz à effet de serre. L’ADEME estime ainsi que ce secteur est responsable de 23 % des émissions nationales, soit 43,8 millions de tonnes équivalent CO2 (en 2021). Une empreinte carbone non négligeable, qui est principalement liée à la production des matériaux de construction comme le béton, le ciment et l’acier, très énergivores et reposant généralement sur l’utilisation d’énergies fossiles. Les process de fabrication sont également très gourmands en eau, notamment pour le béton. Décarboner le secteur du bâtiment et de la construction est donc l’un des points à considérer sérieusement si l’on souhaite atteindre la neutralité carbone, d’ici à 2050, comme le prévoient les Accords de Paris signés par la France.

Les nombreux avantages du bois

Si de nombreuses solutions sont envisagées, comme l’augmentation de la part des énergies renouvelables dans les process de fabrication et la conception des bâtiments, la rénovation, le réemploi et le recyclage, les industriels cherchent désormais à intégrer dans leurs constructions une plus grande part de matériaux dits « bas carbone » et biosourcés, comme le bois, la paille ou le chanvre. Cet objectif d’une éco-conception, qui vise à intégrer des solutions plus écologiques tout au long du cycle de vie des bâtiments, se heurte cependant à certaines limitations, inhérentes à ces matériaux d’origine naturelle. Le bois par exemple, présente le désavantage d’être sensible au feu et de se dégrader très vite s’il n’est pas correctement entretenu et traité. Ses atouts sont pourtant nombreux : il s’agit d’un matériau biodégradable et renouvelable, dont l’utilisation permet de réduire la production de déchets et la consommation d’eau sur un chantier. Son assemblage est facile, il présente une grande longévité lorsqu’il est bien entretenu, et permet une excellente isolation thermique et hydrométrique (bien supérieure au béton). Des avantages que la société américaine InventWood[1] tente depuis plusieurs années de renforcer, pour faire du bois un matériau de construction encore plus intéressant.

Grâce à l’ingénierie moléculaire, InventWood a ainsi réussi à transformer le bois en un nouveau matériau présentant des caractéristiques qui pourraient impacter le secteur de la construction dans les prochaines années. C’est du moins leur objectif. Les ingénieurs de la société ont ainsi supprimé certains composants spécifiques de la structure cellulaire du bois et l’ont compressé sous des conditions bien précises. Cette approche a permis de produire un matériau biogénique composite conservant les avantages du bois naturel (isolation thermique, texture, facilité d’utilisation, esthétique naturelle) tout en améliorant d’autres aspects. Le « super bois » ainsi obtenu s’avère être résistant au feu, étanche à l’eau, imputrescible et résistant aux parasites, tout en présentant un rapport résistance/poids près de dix fois supérieur à celui de l’acier !

Du super bois produit par ingénierie moléculaire

À la base du super bois, il y a du bois ordinaire, composé de cellulose et de lignine. Le procédé d’ingénierie moléculaire inventé en 2018 par Liangbing Hu, chercheur à l’Université du Maryland, et dont InventWood est désormais propriétaire, repose sur le renforcement du réseau de cellulose via la suppression de la plus grande partie de la lignine et de l’hémicellulose en faisant bouillir le bois dans une solution de NaOH (hydroxyde de sodium ou soude caustique) et Na2SO3 (sulfite de sodium). Un traitement chimique similaire à la première étape de la création de la pulpe de bois pour la fabrication du papier. Le bois traité, composé quasi exclusivement de cellulose, est ensuite compressé, une action qui permet la formation de liaisons chimiques entre les atomes d’hydrogène des nanofibres de cellulose. Le matériau obtenu est ainsi quatre fois plus dense que le bois d’origine, mais présente une résistance qui s’avère être dix fois supérieure. Cette technique n’utilise ni colle ni polymères synthétiques, affirme Alex Lau, PDG d’InventWood.

La société prévoit de lancer ses tout premiers produits commerciaux cet été, en utilisant comme base des copeaux de bois de faible valeur pour fabriquer dans un premier temps des éléments de façade pour les immeubles commerciaux et résidentiels, qui nécessitent toutefois d’être stabilisés par une imprégnation aux polymères afin d’être utilisés en extérieurs. L’objectif de la société est cependant de produire des poutres structurelles de toutes dimensions ne nécessitant aucune finition. Mais la gamme d’utilisation de ce nouveau matériau pourrait être bien plus vaste et dépasser la sphère des chantiers de construction, en raison de son faible coût de production, de sa légèreté et de sa versatilité. Le super bois pourrait ainsi être utilisé dans la confection de certaines pièces automobiles ou dans l’aérospatial.


[1] InventWood

L’UE à l’heure de l’IA industrielle ?

L’initiative AI Factory a d’ores-et-déjà, fin 2024, annoncé la création de sept usines d’IA, via une entité juridique et de financement spécialement mise en place pour chapeauter les investissements consacrés au développement de l’IA au niveau européen. Cette entité, EC EURO HPC (Entreprise Commune pour le Calcul à Haute Performance Européen), doit faire le pont entre les différentes usines d’IA déjà mises en oeuvre – elles sont au nombre de 7 – et à venir – 6 nouveaux projets d’usines d’IA ont été sélectionnés en février 2025 -, pour un engagement financier à hauteur de 10 milliards d’euros.

L’idée est d’ouvrir autour de supercalculateurs existants, des écosystèmes visant à favoriser le développement de modèles et d’applications d’IA générative, principalement à destination de la recherche et de l’industrie.

Parmi les projets déjà sélectionnés fin 2024, le projet finlandais, qui accueille à Kajaani l’usine d’IA la plus avancée en matière d’infrastructures, fondée sur le supercalculateur LUMI, est le plus abouti. Ce site joue déjà un rôle central dans le maillage européen, en offrant une capacité de calcul massive, déjà opérationnelle. 

En Allemagne, l’infrastructure installée à Stuttgart, autour du supercalculateur HammerHAI, se positionne comme moteur de l’ingénierie numérique, orienté en particulier vers le développement de l’industrie manufacturière. 

L’Italie, de son côté, a installé son usine d’IA à Bologne sur la base du supercalculateur IT4LIA. Ce site se distingue par une spécialisation autour de l’univers des sciences de la vie et des simulations complexes. 

Au Luxembourg, l’usine de Bissen, baptisée L-AI Factory, se veut un démonstrateur européen d’IA responsable et durable, avec un objectif fort de mutualisation au service des PME. 

En Suède, le projet Mimer entend soutenir la recherche dans des domaines comme la climatologie, en mettant l’IA au service des simulations environnementales. 

Plus au Sud, l’Espagne a de son côté choisi de renforcer sa capacité existante en adossant son usine d’IA à l’infrastructure MareNostrum 5 à Barcelone, avec une spécialisation dans les jumeaux numériques et la médecine personnalisée.

Le septième et dernier projet validé en 2024 concerne la Grèce, qui développe à Athènes une usine d’IA autour du supercalculateur Daedalus, focalisée sur les modèles de langage et l’optimisation des systèmes publics.

6 nouvelles AI Factory (usines d’IA) d’ores et déjà sélectionnées

La seconde vague d’usines d’IA, annoncée en mars 2025, vient compléter cette architecture avec des orientations spécifiques et complémentaires. En France, le projet AI2F s’appuie sur le supercalculateur Jean-Zay de Paris-Saclay et met l’accent sur la formation, l’open science et l’accès facilité aux chercheurs et start-up. Il se distingue par sa volonté de promouvoir une IA éthique et frugale. 

En Allemagne, un second site, lié cette fois au supercalculateur exascale Jupiter, vise à pousser les frontières du calcul à très grande échelle, avec des projets sur l’IA générative et les grands modèles de fondation. 

L’Autriche, avec son projet AI:AT, s’oriente vers l’intégration de l’IA dans les chaînes industrielles traditionnelles, avec une approche centrée sur les besoins des entreprises manufacturières. 

En Bulgarie, l’AI Factory BRAIN++ implantée à Sofia ambitionne de développer des outils linguistiques et robotiques adaptés aux langues et contextes d’Europe de l’Est, avec un fort ancrage dans l’innovation locale. 

En Pologne, le projet PIAST se concentre sur l’IA appliquée à des secteurs stratégiques tels que l’espace, l’énergie et la robotique, tout en encourageant la transition numérique des PME. 

Enfin, la Slovénie a lancé le projet SLAIF, qui a pour objectif de proposer des solutions d’IA pour améliorer les services publics, notamment dans les domaines de la santé, de l’éducation et de l’administration. L’intégration dans les projets sélectionnés de pays comme la Bulgarie, la Slovénie, ou encore la Pologne est un signal fort, l’UE ayant fait le choix de sortir des pôles traditionnels d’innovations pour créer un écosystème le plus large possible autour des usages de l’IA.

Ce réseau européen d’usines d’IA, bien que fragmenté, doit permettre, avec une gouvernance et une coordination adaptées, d’irriguer les filières industrielles pour implémenter concrètement dans les chaînes de valeurs les gains de compétitivité permis par l’usage de l’IA. C’est à cette seule condition que les 13 usines d’IA ne seront pas que des vitrines du savoir-faire européen.

Marie Perrin, la chimiste qui pourrait révolutionner l’industrie des terres rares

L’Office européen des brevets a annoncé, le 6 mai dernier, qu’elle décernera un prix qui pourrait bien bouleverser l’industrie mondiale des terres rares. Destinée à récompenser les dix jeunes innovateurs de demain, l’édition 2025 a distingué Marie Perrin pour avoir mis au point un nouveau procédé d’extraction des terres rares. Cette technique, qui a été brevetée, s’inspire de la nature et présente donc l’avantage d’être plus propre et plus rapide que les méthodes conventionnelles jugées trop polluantes.

« Les terres rares ne sont pas rares, il suffit de savoir les extraire »

La lauréate a commencé à s’intéresser aux terres rares durant le doctorat qu’elle préparait à l’école polytechnique fédérale de Zurich. Ces métaux sont, en réalité, répandus dans la croûte terrestre ; la dénomination trompeuse est liée à la difficulté à laquelle se sont heurtés les scientifiques pour parvenir à les isoler et les purifier.

La technique conçue par la chimiste cible spécifiquement l’europium parmi les 17 terres rares répertoriées. En raison de son pouvoir luminescent, cet élément est indispensable pour les écrans LED et les luminaires à faible consommation d’énergie comme les ampoules. Son idée innovante repose sur le recyclage qui permet de récupérer l’europium dans des déchets électroniques où sa concentration est jusqu’à vingt fois supérieures à celles contenues dans des minerais naturels.

Une technique novatrice

Sa méthode innove par sa rapidité grâce à des techniques avancées de filtration et de séparation. En déclenchant une réaction redox[1] par l’interaction entre, d’un côté, les poudres de phosphore issues des lampes cassées et de l’autre, des petites molécules bio-inspirées contenant du soufre, elle est parvenue à séparer l’europium des autres éléments. La récupération s’effectue ainsi en une seule étape avec un haut niveau de pureté alors qu’elle nécessite, avec les méthodes habituelles, des centaines d’étapes chimiques complexes et polluantes. Au bout de quelques heures, suite à cette seule étape, un précipité doré enrichi en europium se forme.

Concilier innovation et préservation de l’environnement

En éliminant les étapes d’extraction minière, de séparation et de raffinage, cette nouvelle technique permet de réduire les déchets toxiques engendrés par l’utilisation des nombreux produits chimiques. Par exemple, la production d’une tonne d’oxydes de terres rares nécessite d’employer de 6 à 7 tonnes de sulfate d’ammonium et de 1,2 à 1,5 tonne d’acide oxalique. L’extraction et le traitement d’une tonne de terres rares peuvent engendrer jusqu’à 2 000 tonnes de déchets toxiques, dont des composés radioactifs.

Pour développer sa technique à une échelle industrielle, la chimiste a fondé une start-up baptisée REEcover[2]. Des recycleurs assurent le traitement des lampes. La chimiste souhaite élargir le spectre des métaux ciblés en s’intéressant désormais aussi au recyclage des terres rares utilisées dans les aimants comme le néodyme et le dysprosium qui entrent dans la composition des voitures électriques et des éoliennes.

Cette découverte laisse-t-elle envisager un ralentissement dans la course à l’extraction minière des terres rares qui sont devenues incontournables avec l’essor des technologies numériques ? En toile de fond, ces éléments clés sont également un instrument de puissance géopolitique, la Chine demeurant dans une position de monopole. Le recyclage pourrait changer la donne alors que moins de 1% des terres rares sont recyclées.


[1] Réaction d’oxydoréduction 

[2] De l’anglais Rare Earth Elements

Revue du Magazine d’Actualité #32 : du 12 au 16 mai

De la découverte en laboratoire à l’innovation industrielle… On scrute pour vous chaque semaine les tendances de l’industrie.

IA et recherche d’actualités : quand la précision fait défaut

Une étude récente met en lumière les failles des outils de recherche par IA, qui, malgré leur popularité croissante, peinent à fournir des informations précises. Les chercheurs ont constaté que ces modèles citent souvent des sources incorrectes, ce qui soulève des inquiétudes quant à leur utilisation pour des recherches d’actualités.
Les failles des moteurs de recherche IA révélées par une étude

Opportunités et défis de l’IA dans l’ingénierie

L’essor de l’intelligence artificielle dans l’ingénierie ouvre la voie à des innovations sans précédent, permettant de simuler des scénarios complexes et de réduire les coûts de développement. Toutefois, les ingénieurs doivent naviguer entre les opportunités offertes par l’IA et les défis liés à la qualité des données, la sécurité et la dépendance technologique.
L’impact de l’IA sur l’industrie et ses enjeux

OMI : une taxe carbone mondiale pour le transport maritime

L’Organisation maritime internationale a franchi une étape cruciale en adoptant un mécanisme de tarification du carbone pour le transport maritime mondial. Ce système, qui vise à réduire les émissions de CO₂ de 20 % d’ici 2030, marque un tournant dans un secteur longtemps négligé par les efforts climatiques. Quels sont les enjeux et les défis de cette nouvelle réglementation ?
Un accord historique pour le climat : la taxe carbone maritime expliquée

Comac, le nouvel acteur qui bouscule Boeing et Airbus

Les tensions commerciales entre les États-Unis et la Chine, exacerbées par les droits de douane imposés par l’administration Trump, bouleversent l’industrie aéronautique mondiale. Boeing, déjà affaibli par des crises internes, se retrouve en mauvaise posture face à Airbus, qui parvient à mieux résister grâce à ses stratégies d’implantation. Ces bouleversements profitent à Comac, le constructeur chinois qui s’impose progressivement sur le marché.
L’ascension de Comac : une nouvelle ère pour l’industrie aéronautique ?

Batteries Li-ion : vers des solutions plus durables et sûres

Face aux défis posés par les batteries Li-ion, cet article propose un tour d’horizon des innovations en matière de stockage d’énergie, avec un focus sur les batteries Li-soufre et zinc-ion, prometteuses pour l’avenir.
Les innovations en matière de stockage d’énergie et leurs impacts

WattAnyWhere : l’avenir des solutions énergétiques décentralisées

WattAnyWhere, sous la direction d’Alexandre Laybros, propose une solution énergétique innovante qui pourrait transformer le secteur de l’énergie. En convertissant l’éthanol en électricité propre, l’entreprise répond à la demande croissante en énergie tout en réduisant les émissions polluantes.
L’éthanol fait sa place en tant que source d’énergie propre

Inscrivez-vous aux webinars à venir

L’intelligence artificielle : un outil à double tranchant pour les ingénieurs

L’intelligence artificielle est omniprésente. Et cette situation devrait s’accentuer dans les prochaines années. Selon les dernières données du cabinet Statista, le secteur mondial de l’IA pourrait dépasser les 500 milliards de dollars de chiffre d’affaires d’ici 2028, soit une multiplication par quatre par rapport à la taille du marché estimée en 2023.

L’intelligence artificielle présente de nombreuses opportunités dans divers secteurs. Pour les ingénieurs, elle met à disposition de puissants outils permettant d’optimiser leurs processus et d’améliorer leurs performances. Selon une étude de McKinsey (2020), l’IA pourrait augmenter la productivité des ingénieurs de 40 % grâce à l’automatisation des tâches répétitives. Par exemple, les algorithmes de machine learning peuvent analyser des volumes massifs de données en temps réel, permettant une prise de décision plus rapide et plus précise.

De plus, l’IA permet de simuler des scénarios complexes, réduisant ainsi les coûts et les risques associés aux prototypes physiques. Les ingénieurs peuvent tester virtuellement différentes configurations avant de passer à la production, ce qui accélère le développement de nouveaux produits.

Malgré ses avantages, l’IA présente également des défis. L’un des plus importants reste la qualité et la fiabilité des données utilisées : un algorithme reste aussi bon que les données qu’on lui fournit !

La dépendance excessive à l’IA

Il convient notamment de relativiser un peu l’étude citée de McKinsey car elle repose sur des hypothèses optimistes concernant l’adoption rapide et généralisée de l’IA. En réalité, de nombreuses entreprises rencontrent des obstacles techniques et organisationnels qui ralentissent cette adoption.

En outre, l’IA nécessite des investissements importants en termes de formation et d’infrastructure. L’IA impose une montée en compétence rapide des professionnels. Les entreprises doivent former leurs ingénieurs à l’utilisation des nouvelles technologies et investir dans des systèmes informatiques performants. Or, 65 % des ingénieurs interrogés dans une étude de l’INRIA (2024) estiment devoir acquérir de nouvelles compétences en science des données pour rester compétitifs.

Un autre défi est la question de la sécurité et de la confidentialité des données. Les systèmes d’IA manipulent souvent des données sensibles, et toute faille peut avoir des conséquences graves. Les ingénieurs doivent donc s’assurer que les solutions d’IA qu’ils adoptent sont sécurisées et conformes aux réglementations en vigueur.

Ce défi est amplifié par les enjeux technologiques actuels, notamment les cybermenaces de plus en plus sophistiquées et les exigences réglementaires de plus en plus strictes en matière de protection des données.

Enfin, il y a le risque de dépendance excessive à l’IA. Les ingénieurs doivent veiller à ne pas perdre leurs compétences critiques en s’appuyant trop sur les algorithmes. Un équilibre doit être trouvé entre l’utilisation de l’IA comme outil d’assistance et la préservation de l’expertise humaine.

L’intelligence artificielle représente une révolution pour les ingénieurs, offrant des opportunités inédites, mais aussi des défis considérables. Pour tirer pleinement parti de l’IA, il est essentiel de former les ingénieurs aux nouvelles technologies et d’investir dans des infrastructures adaptées.

Boeing et Airbus : les deux constructeurs inégaux face aux droits de douane

Les droits de douane initiés par Donald Trump et les tensions commerciales exacerbées qui ont suivi entre les États-Unis et la Chine ont pour effet de bouleverser l’équilibre du secteur aéronautique mondial. Face aux nouvelles mesures protectionnistes mises en place, les deux géants de l’aviation, Boeing et Airbus, se retrouvent en première ligne. Mais alors que l’on pourrait croire à un impact équitable, les premiers éléments laissent entrevoir un déséquilibre, puisque le constructeur américain semble en bien plus mauvaise posture que l’européen.

En cause, la riposte chinoise qui a instauré des tarifs douaniers prohibitifs de 125 % sur certains produits américains, dont figurent en priorité les avions, en réponse aux taxes de l’administration Trump de 145 % sur les produits chinois. Résultat immédiat : les compagnies chinoises, qui comptaient historiquement sur Boeing pour renouveler leurs flottes, suspendent leurs commandes. China Eastern, Air China ou encore China Southern ont gelé, voire annulé, des dizaines d’acquisitions prévues en 2025 et en 2026. Or, la Chine représente environ 15 % du carnet de commandes global de Boeing. Un niveau très important pour un constructeur déjà affaibli par des années de crise autour du modèle 737 Max et à un moment où sa trésorerie est déjà extrêmement tendue.

Boeing pourrait encore être plus impacté si Pékin décide de mettre en place des sanctions additionnelles pour restreindre son accès à certains composants et métaux stratégiques d’origine chinoise, compliquant encore sa production. Le constructeur américain subit également indirectement l’impact des tensions commerciales, notamment par la désorganisation des chaînes d’approvisionnement mondiales. Face à cette situation, il explore des solutions, notamment en recherchant de nouveaux débouchés, mais la saturation du marché et la concurrence accrue d’Airbus limitent ses options.

De son côté, Airbus semble être en mesure de mieux résister. Déjà, ses avions assemblés en Europe et importés vers les États-Unis sont actuellement soumis à des taxes douanières moins élevées de 10 %, mais qui pourraient tout de même grimper à 20 ou 25 % après une période de suspension de 90 jours décidée par l’administration Trump. De plus, le constructeur européen dispose d’une usine d’assemblage à Mobile, en Alabama, d’où sortent les A320neo et les A220. Cette implantation permet à Airbus de contourner partiellement les droits de douane imposés aux avions assemblés en Europe, en bénéficiant d’un statut de production domestique américaine.

Le chinois Comac veut faire de l’ombre aux deux géants de l’aéronautique

Par contre, les modèles long-courriers comme l’A350 ou l’A330, qui ne sont pas assemblés aux États-Unis, sont directement exposés aux nouveaux tarifs. Et certaines compagnies aériennes américaines clientes d’Airbus, notamment American Airlines, ont annoncé qu’elles ne souhaitent pas absorber les coûts supplémentaires engendrés par ces droits de douane, laissant présager une répercussion sur les prix des billets ou des reports de commandes.

Ironie du sort, ces bouleversements profitent en arrière-plan à un troisième acteur : le chinois Comac. Alors que Boeing et Airbus se battent pour conserver leur influence, le constructeur chinois accélère la mise en service de son moyen-courrier C919, dont l’exploitation commerciale a débuté en 2023 et qui depuis assure plusieurs liaisons intérieures de la Chine. Et depuis le 1er janvier 2025, il a effectué son premier vol commercial international entre Shanghai et Hong Kong, marquant une étape importante dans son déploiement régional. Bien que le C919 reste dépendant de nombreux composants étrangers, notamment américains, les restrictions sur Boeing créent une fenêtre d’opportunité inédite pour Comac.

Pour pénétrer les marchés occidentaux, il devra auparavant obtenir des certifications de sécurité, notamment auprès de la FAA (Federal Aviation Administration) aux États-Unis et de l’EASA (European Union Aviation Safety Agency) en Europe. Si des progrès ont été réalisés avec cette dernière agence, l’obtention de la certification américaine reste incertaine en raison des tensions géopolitiques. En attendant, Comac cherche à étendre sa présence en Asie, notamment en ouvrant des bureaux à Hong Kong et à Singapour. Ces initiatives visent à accroître son influence dans des régions où les tensions commerciales pourraient inciter les compagnies aériennes à diversifier leurs fournisseurs.

La recharge de véhicules électriques à partir d’éthanol, ça marche et WattAnyWhere le prouve !

Nous avons demandé à Alexandre Laybros, cofondateur de WattAnyWhere, de nous en parler.

Alexandre Laybros, co-CEO de WattAnyWhere
Alexandre Laybros, co-CEO de WattAnyWhere (crédit : WattAnyWhere)

WattAnyWhere est une entreprise franco-suisse qui développe des solutions énergétiques décentralisées, sur le concept des distributed energy resources (DERs), promu par l’Agence Internationale de l’Énergie (IEA), dans le but de répondre à la demande croissante en électricité.

L’entreprise propose un générateur à pile à combustible qui convertit l’éthanol en électricité propre sans polluant, à destination du commerce de détail, des opérateurs de recharge de véhicules électriques et de l’industrie.

Techniques de l’ingénieur : Comment s’est déroulée cette première démonstration off-grid ?

Alexandre Laybros : Cette démonstration, qui a eu lieu à Sion, au sein du laboratoire CELECTIS[1], consistait à tester le système en conditions de laboratoire, c’est-à-dire le générateur, avec sa source d’éthanol, relié au conteneur intégrant l’ensemble de l’électronique de puissance.

Pour rappel, notre système comporte « 3 étages » :

  • L’éthanol est reformé dans un gaz de synthèse qui contient l’hydrogène.
  • Ce gaz de synthèse est injecté dans la pile à combustible.
  • Le courant produit en DC est converti en AC afin d’alimenter une borne de recharge de véhicules électriques classique, de 22 kW.
Le système SOFC WattAnyWhere
Fonctionnement du système SOFC WattAnyWhere (crédit : WattAnyWhere)

Pour cet essai, nous avons placé les deux premiers étages à l’intérieur du laboratoire et installé l’électronique de puissance à l’extérieur du bâtiment, à proximité d’une borne de recharge de véhicules électriques.

Véhicule en cours de charge avec le système WattAnyWhere
Véhicule en cours de charge avec le système WattAnyWhere (crédit : WattAnyWhere)

Grâce aux compteurs électriques placés à différents endroits du système, nous avons ainsi démontré l’injection du courant depuis la pile, jusqu’à l’électronique de puissance. Pour ce qui est de la voiture, la preuve de la recharge était fournie par l’écran du véhicule, qui indiquait la charge maximale : 10 kW.

Pourquoi 10 kW ? Parce que c’était l’objectif fixé par Shell, dans le cadre du programme Shell GameChanger, pour passer à l’étape suivante : les essais en conditions réelles.

À ma connaissance, c’est la première fois qu’un essai de recharge concluant a lieu, avec un procédé électrochimique, depuis le bidon d’éthanol jusqu’à la voiture électrique, à un tel niveau de puissance, sans émissions polluantes et sans bruit.

Pouvez-vous nous parler de la prochaine étape du programme Shell GameChanger ?

Cet essai en laboratoire nous permet de valider le niveau TRL 6, en termes de maturité technologique. La prochaine étape, le TRL 7, sera atteinte à partir du moment où nous aurons réussi à installer l’ensemble des équipements dans un conteneur, ce qui démontrera la transportabilité complète du système.

Ce futur essai Proof Of Concept consistera donc à placer le conteneur sur un camion et à le livrer jusqu’à la station-service Shell de Val Neuvy, sur l’autoroute A10. Mais, au-delà du transport, cet essai validera aussi le fait de pouvoir connecter et utiliser la machine sur site.

L’autre aspect qui nous intéresse également, avec ce programme, c’est de démontrer la possibilité d’alimenter la station en énergie, en se connectant au tableau basse tension du site. C’est donc aussi un pas vers d’autres cas d’usage qui permettront à WattAnyWhere de se développer.

Quels sont ces cas d’usage sur lesquels vous travaillez ?

Il y a une myriade d’applications : alimentation de bâtiments, remplacement des génératrices diesel sur les chantiers, alimentation des festivals, des usines… Bref, toutes les situations pour lesquelles un apport de puissance local est nécessaire et où le réseau électrique n’est pas en mesure de fournir l’énergie, soit à cause des délais de connexion, soit en raison d’un prix au kWh trop élevé.

Je précise d’ailleurs qu’avec WattAnyWhere, il est possible de diviser par trois le prix au kWh pour les professionnels[2] !

Car malgré ce qu’on entend dans les médias concernant la baisse de l’électricité pour les particuliers, nous constatons que la compétitivité des professionnels est toujours pénalisée par des prix élevés, autour de 30 centimes d’euros le kWh.

Et au-delà du prix élevé, les professionnels ont également des problèmes d’accès à l’électricité. Aujourd’hui, quand une entreprise de taille moyenne veut installer un nouveau point de recharge de véhicule électrique, elle doit « prendre son ticket » et attendre son tour.

Voici un exemple : le site ArcelorMittal de Dunkerque a pour stratégie de remplacer ses fours à gaz par des fours électriques, ce qui nécessite 200 MW de puissance. Or, des chantiers d’une telle ampleur sont prioritaires pour EDF, ENGIE ou ENEDIS et utilisent énormément de ressources, au détriment de projets qui ont seulement besoin de quelques centaines de kW.

Comment envisagez-vous la suite ? La commercialisation est-elle pour bientôt ?

Si tout va bien, nous devrions atteindre la phase pilote TRL 8 en 2026 et la commercialisation d’un produit entièrement indépendant et opérationnel est prévue pour 2027. Nous avons d’ailleurs déjà des demandes de la part d’entreprises qui souhaitent décarboner leurs activités, notamment dans le bâtiment.

Concernant les financements, nous avons lancé une levée de fonds en série A pour accélérer le développement et l’industrialisation. Bien entendu, nous sommes toujours à la recherche de nouveaux partenaires !

D’ailleurs, le 9 avril était une très bonne journée pour nous, puisque nous avons aussi été identifiés dans le mapping 2025 des startups françaises à impact, par Bpifrance. Cette visibilité supplémentaire devrait également nous aider pour la suite.


[1] Partenaire de WattAnyWhere

[2] Dans son récent livre, Anne Lauvergeon, ancienne patronne d’Areva, renvoie à EDF la responsabilité de ce coût trop élevé de l’électricité

L’intelligence artificielle pilier de l’usine du futur

L’intelligence artificielle est en train de redéfinir l’industrie moderne. Dans les usines, les gains liés à l’implémentation des technologies d’IA sont nombreux. Automatisation intelligente, maintenance prédictive, optimisation logistique, contrôle qualité renforcé, doivent permettre l’émergence d’usines 5.0 capables de produire plus vite, mieux, et plus durablement.

L’automatisation est sans aucun doute l’un des postes où l’IA peut opérer des gains radicaux sur la chaîne de production. En effet, les systèmes automatisés pilotés par IA, qui supplantent petit à petit les chaînes de production classiques, permettent d’adapter dynamiquement la production à la demande, en temps réel, et en tenant compte des aléas éventuels.
De grands leaders industriels comme BMW ont d’ores et déjà intégré des cobots sur leurs chaînes de production avec succès. Ces derniers travaillent côte à côte avec des humains pour intégrer de petits composants sur la chaîne de production. 

La détection d’erreurs, parfois invisibles à l’œil nu, permet également, via l’IA, d’automatiser le contrôle qualité et d’améliorer son efficacité, dans le secteur automobile par exemple.

Cette vague d’automatisation boostée à l’IA porte le nom d’automatisation cognitive, combinant des modèles de commande automatique classique avec des modèles cognitifs qui permettent à des procédés industriels d’agir de manière autonome, dans des environnements imprévisibles. Pour résumer, ces modèles apprennent pour être en mesure de prendre des décisions en temps réel de manière autonome, en imitant les mécanismes cognitifs humains, avec des applications en robotique intelligente, mais aussi sur l’ensemble des machines de l’usine, ou sur le système de pilotage d’un véhicule autonome par exemple.

Un autre domaine où l’IA vient apporter des gains dans le fonctionnement des usines est la maintenance prédictive. Grâce à l’usage de capteurs et d’algorithmes d’IA, les industriels sont aujourd’hui en mesure de prédire avec précision les pannes éventuelles de machines. Avec tous les gains induits sur la production et les coûts de réparation des machines concernées, on passe ainsi d’une gestion de l’urgence en cas de panne à une anticipation intelligente des défaillances du parc.

L’IA est également de plus en plus utilisée pour optimiser la chaîne logistique. En analysant en temps réel les données liées à la gestion des entrepôts, aux conteneurs acheminés de par le monde, un industriel peut optimiser sa production et optimiser ses livraisons, et s’adapter au mieux aux imprévus pour être toujours en mesure de livrer ou d’être livré dans des délais qui participent à maximiser sa compétitivité. Comme pour le reste, l’efficacité des ces process assistés par l’IA augmente à mesure que l’industriel se met en capacité de récolter le maximum de données de qualité, en temps réel.

Dernier point, sur lequel les industriels travaillent d’arrache pied depuis la crise sanitaire, l’agilité de la chaîne de production. Ajuster la production en fonction de la demande, et être en mesure de s’ajuster à des variations imprévisibles est aujourd’hui un facteur de compétitivité crucial pour les industriels. L’IA est un outil très puissant pour y parvenir : analyse des médias, détection des signaux faibles, des tendances… L’intégration de ces données permet aux modèles d’IA d’optimiser comme jamais auparavant le fonctionnement des chaînes de production, et d’anticiper, autant que cela est possible, les événements susceptibles de justifier une augmentation ou une baisse immédiate de la production.

Evidemment, l’implémentation de l’IA sur l’ensemble des facteurs de performance d’une usine a un coût colossal, et les industriels doivent identifier avec tact sur quels leviers ils veulent agir, mais au vu des gains de compétitivité généré, il devient impossible pour les grands acteurs actuels de ne pas avoir de politique d’implémentation d’IA dans leurs processus.

Les batteries prises au piège de la transition énergétique

La pertinence de ce choix est analysée ici puisque, dans le cadre de la transition énergétique, les batteries sont devenues un des outils principaux de l’électrification accélérée du système économique européen ainsi que du stockage de l’énergie nécessaire à la compensation de l’intermittence des productions électriques éoliennes et photovoltaïques.

Les composants précités sont les électrodes et l’électrolyte. Une batterie est en effet composée de plusieurs cellules connectées les unes aux autres, chacune d’entre elles étant constituée de quatre éléments : une électrode positive, une électrode négative, un électrolyte et un séparateur entre les deux électrodes qui ne permet le passage que des ions. Les électrodes sont raccordées à un circuit électrique extérieur via un collecteur de courant (une plaque conductrice).

Les batteries de loin les plus utilisées actuellement sont celles à lithium-ion (Li-ion). Elles sont présentes dans des applications variées telles que les téléphones portables, les PC portables, les voitures électriques et le stockage d’énergie.

Quand la cellule se charge, les ion Li+ migrent vers l’anode et sont intégrés dans sa structure, tandis que les électrons s’accumulent sur la cathode. Quand elle se décharge, c’est-à-dire quand les électrons passent dans le circuit électrique extérieur auquel la cellule est connectée (le courant électrique), les ions Li+ font le mouvement inverse et retournent vers la cathode.

Les appareils électroniques portables tels que les téléphones ou les pc utilisent principalement des batteries lithium polymère avec une cathode composée de dioxyde de lithium et de cobalt (LiCoO2) et une anode en carbone (entre autres, le graphite), l’électrolyte étant un sel, l’hexafluorophosphate de lithium (LiPF6), dissous dans un mélange de carbonate d’éthylène de propylène ou de diméthyle. Les batteries NMC (cathode nickel, manganèse, cobalt) sont une référence dans les batteries lithium-ion pour voitures électriques nécessitant une forte densité d’énergie et un haut rendement.

D’autres types de batteries, dont celles avec une cathode contenant du phosphate de fer et de lithium, offrent même des durées de vie plus longues et des taux de décharge plus élevés.

Même si la batterie Li-ion est très largement utilisée, elle présente néanmoins de sérieux problèmes. Elle est notamment onéreuse et présente un risque d’embrasement soudain avec dégagement de gaz toxique.

L’échauffement vient le plus souvent de températures trop élevées, de chocs (collisions ou accidents) ou d’un court-circuit. Une batterie qui prend feu libère également de l’oxygène, ce qui alimente l’incendie. Lors d’une collision, pour éteindre l’incendie d’une VE, l’eau, la mousse, la poudre sèche et le CO2 ne peuvent pas être utilisés, car ils ne font qu’aggraver le problème. L’explosion des batteries au lithium-ion dégage une fumée toxique.

Quant aux matériaux de la cathode tels que le cobalt, ils sont relativement rares. Ainsi le cobalt n’est qu’un sous-produit des mines de cuivre et de sel. Néanmoins, il est possible d’en réduire la consommation en recouvrant la cathode de la pile par du graphène (couche de carbone d’un atome d’épaisseur, très solide et bon conducteur d’électricité), ce qui permet d’en prolonger la durée de vie. Si le cobalt est utilisé, c’est qu’il offre l’avantage d’offrir une conductivité élevée, favorisant l’évacuation de la chaleur et diminuant ainsi, sans les annuler, les risques précités d’embrasement.

Un autre inconvénient important des batteries Li-ion est qu’elles sont tributaires de l’approvisionnement en lithium, dont les gisements sont mal répartis géographiquement. Ce dernier est majoritairement extrait dans seulement trois pays : l’Australie (près de la moitié de la production mondiale), le Chili et la Chine. Et pour compliquer les choses, les deux tiers du lithium produit dans le monde sont ensuite transformés en Chine, un risque majeur pour l’UE.

La production de batteries en Europe est non seulement faible, mais elle était et est encore concentrée dans quelques pays (Allemagne, Hongrie, Pologne et Suède) et est toujours largement contrôlée par des entreprises étrangères (américaines, chinoises et sud-coréennes).

La disponibilité des matières premières, dont les métaux rares, étant essentielle dans le cadre de la volonté de la Commission européenne d’accélérer le déploiement des voitures électriques, il s’avère indispensable d’en réduire les importations. Dans ce contexte, le recyclage des batteries Li-ion ne peut être négligé. Même s’il ne sera pas suffisant pour se passer des importations, il contribuera du moins à les diminuer.

Afin de soutenir ce principe d’économie circulaire, la réglementation européenne a prévu que les batteries produites doivent contenir un pourcentage de matériaux provenant de batteries recyclées. En outre, l’Europe souhaite produire ses propres batteries dans des Gigafactories.

Bref, si les batteries Li-ion se sont améliorées ces dernières années, elles ne sont pas exemptes de problèmes notamment en matière de sécurité (risque d’incendie), de durabilité des matériaux, de poids, de temps de charge, d’autonomie et de capacité de stockage et – at last but not least – de fourniture de lithium, matériau rare dont la production est dominée par la Chine.

Pour préserver sa souveraineté, l’UE serait bien inspirée de s’intéresser davantage aux batteries n’utilisant pas ou peu de matériaux rares et en particulier, celles qui sont plus performantes que les accumulateurs Li-ion. De telles alternatives existent. Citons-en deux très prometteuses.

La batterie Li-soufre

Son électrode négative contient du lithium et son électrode positive du soufre, lequel est un matériau bon marché et abondant.

Son principal intérêt est sa densité énergétique très élevée, de l’ordre de deux à trois fois supérieur à celle de l’accumulateur Li-ion. Par rapport à ce dernier, elle est plus légère et moins polluante, moins dangereuse, moins coûteuse et performe mieux à basse température. Elle permet une charge ultrarapide.

Sa substitution à la batterie Li-ion permettrait, par exemple, à un smartphone de fonctionner beaucoup plus longtemps ou à une voiture électrique de parcourir nettement plus de km avant de devoir être rechargés.

Toutefois, elle perd rapidement en capacité lorsqu’on la recharge souvent. Les prototypes actuels ne peuvent accomplir autant de cycles de charge que les batteries Li-ion conventionnelles. Des chercheurs ont observé que l’adjonction de poudre de quartz permet d’enrayer la perte de capacité qui intervient dans le temps. En outre, avec cette addition de poudre de quartz dans l’électrolyte, la performance de la batterie Li-soufre augmente de 25 à 30 % selon Claire Villevieille, chercheuse à l’Institut de recherche suisse PSI (Paul Scherrer Institut).

L’université de Monash en Australie compte commercialiser plus rapidement que Stellantis et Zeta Energy sa batterie Li-soufre. La légèreté, la haute densité énergétique et la grande autonomie de cette dernière permettent aux chercheurs de l’université susmentionnée de viser le marché des drones.

Ses principaux inconvénients sont qu’elle est sujette à la corrosion et qu’elle dure moins longtemps que sa concurrente à Li-ion.

La batterie zinc-ion

Elle présente de nombreux avantages que ne possède pas, ou pas assez, la batterie Li-ion : une sécurité accrue, un coût réduit, une grande abondance, un risque d’incendie et d’explosion considérablement plus faible, l’électrolyte étant aqueux, un grand nombre de charges et de décharges sans dégradation significative.

En ce qui concerne cette dernière propriété, des chercheurs des universités Hopkins et Cornell ont découvert qu’un polymère spécial appliqué sur les électrodes de batteries à zinc-ion permet d’allonger leur durée de vie, cette technique atténuant les dommages causés par la charge rapide.

En effet, lorsque la batterie subit une charge rapide, les ions de zinc se déplacent entre l’anode et la cathode à une vitesse élevée, conduisant à la formation de filaments métalliques (dendrites) de zinc qui peuvent traverser la séparation entre les électrodes, provoquant un court-circuit et rendant la batterie inutilisable. L’ajout d’une petite concentration de polyéthylène glycol (PEG) dans l’électrolyte crée une couche mince sur la surface des électrodes qui empêche la formation des brins métalliques.

Les batteries zinc-ion offrent un grand potentiel pour le stockage stationnaire en termes de capacité élevée, de faible coût et d’absence de toxicité.

L’industrie européenne des batteries Li-ion ne représente qu’environ 14 % de la production mondiale et dépend largement d’entreprises asiatiques. Les importations de ces dernières en Europe proviennent principalement de la Chine et de la Corée du Sud qui dominent l’ensemble de la chaîne, de l’extraction des matières premières à la fabrication des batteries.

Même si l’UE exploitait ses propres réserves de Li (largement insuffisantes), il lui faudrait encore importer 13 des 34 matières critiques selon la Commission européenne.

En outre les prix européens ne peuvent être compétitifs face à la Chine et aux États-Unis puisque ces derniers disposent d’une énergie nettement meilleur marché.

Dès lors, l’UE et ses États membres devraient investir également dans le développement de batteries alternatives telles que celles précitées, n’utilisant pas ou peu de matériaux rares et offrant des performances nettement supérieures à celles des batteries Li-ion.

L’auteur, Jean-Pierre Schaeken Willemaers, est un ancien membre du comité de direction de Engie Tractebel international et actuellement directeur de la recherche à l’Institut Thomas More, Paris