Au premier abord, la lumière négative peut apparaître comme un phénomène contre-intuitif. Celui-ci peut être observé lorsqu’un matériau émet moins de lumière que prévu. Habituellement, la luminosité augmente lorsqu’un objet émet de la lumière. Cet effet ne se produit pas dans le cas de la lumière négative où l’émission réduit le rayonnement total observé par rapport au rayonnement de fond. Le matériau peut ainsi apparaître plus sombre que son environnement, donnant l’impression qu’il absorbe davantage de rayonnement qu’il n’en émet. La lumière négative serait donc « plus sombre que l’obscurité ». Elle assombrit la lueur au lieu de l’intensifier et agit comme une lampe torche capable de « projeter l’obscurité » par rapport à la lumière ambiante. La lumière négative peut, par exemple, être observée dans les semi-conducteurs.
Un outil de dissimulation
Les propriétés de la lumière négative ont été exploitées par des scientifiques pour développer un moyen permettant de transmettre secrètement des informations en les dissimulant sous forme de rayonnement thermique ambiant. Pour y parvenir, Michael Nielsen, professeur d’ingénierie à l’Université de Nouvelle-Galles du Sud à Sydney et principal auteur de l’étude publiée le 5 mars dernier, a utilisé un procédé constitué de diodes thermoradiatives. S’appuyant sur le rayonnement infrarouge, le procédé rend uniquement la chaleur ambiante détectable par des caméras thermiques ; le motif créé est invisible, car les émissions sont identiques au bruit de fond thermique.
En dissimulant les données dans le rayonnement thermique naturel, l’équipe a réussi à transférer 100 kilobits de données par seconde. Un transfert indétectable par les observateurs extérieurs. Cette technologie a été nommée « communication thermoradiative sans signature ».
Alors que la plupart des méthodes de dissimulation des communications consistent à crypter les données pour rendre le message illisible, cette technique apporte une sécurité supérieure, car elle rend les données impossibles à intercepter. Comment tenter de déchiffrer le message lorsqu’aucune trace du message émis n’est détectable ? Le message n’est pas rendu incompréhensible comme avec le chiffrement standard mais invisible.
Bien que le débit initial de 100 kbit/s soit assez modeste, il ne serait pas difficile, selon Nielsen, de transférer des dizaines de mégabits par seconde avec les appareils existants et d’atteindre des vitesses de plusieurs gigabits par seconde avec des appareils plus performants utilisant du graphène.
Les perspectives que laisse entrevoir cet accroissement de la sécurité des données sont vastes. En particulier, les secteurs de la défense qui comprennent des communications confidentielles stratégiques et celui de la finance qui doit sécuriser ses transactions pourraient tirer profit de ce renforcement.
Plus généralement, à côté de la création de systèmes de communications quantiques inviolables, la lumière négative pourrait offrir des potentialités nouvelles dans le domaine de l’optique avancée ou de la puissance de calcul des ordinateurs quantiques.
La lumière négative est un phénomène qui reste largement à explorer. Il est intéressant de noter que la technique utilisée par l’équipe de Nielsen avait auparavant été mise en œuvre dans le cadre d’un autre projet nommé « soleil nocturne ». Le but était de produire de l’énergie solaire après le coucher du soleil en captant le rayonnement infrarouge absorbé par la Terre durant la journée et qui était libéré la nuit.
Le plastique figure parmi les secteurs industriels directement exposés à la guerre au Moyen-Orient, parce qu’une large part de sa production repose sur des dérivés d’hydrocarbures comme le naphta, base de nombreux polymères. Le lien avec la crise énergétique est renforcé par le rôle stratégique du détroit d’Ormuz, par lequel transitait encore en 2025 environ un quart du commerce maritime mondial de pétrole et près de 20 millions de barils par jour. Dans le contexte actuel, les flux d’hydrocarbures y ont fortement chuté, ce qui a immédiatement renchéri les matières premières de la pétrochimie, tandis que les cours du brut ont franchi le seuil des 100 dollars le baril en mars.
La répercussion sur les transformateurs est déjà visible. Le prix du naphta a bondi de 60 % au cours du seul mois de mars, tandis que des fournisseurs ont commencé à appliquer des hausses de 20 à 40 % sur certaines références. Dans ce cadre, la plasturgie française se retrouve confrontée à une double contrainte. La première est le coût des résines vierges, mécaniquement tiré vers le haut par la tension pétrolière. La seconde est la fragilité logistique, car le ralentissement du trafic maritime et le renchérissement du transport perturbent l’arrivée des volumes importés.
La tension est particulièrement sensible pour les industriels qui dépendent de flux venus d’Asie ou du Golfe. Il est estimé qu’en 2025, 10 à 15 % de la matière vierge importée par les plasturgistes provenait du Moyen-Orient. L’exposition n’implique pas une rupture générale à l’échelle européenne, mais elle augmente le risque de retards ou d’arrêts de livraisons pour les entreprises les plus dépendantes de ces origines. Dans certaines usines françaises, la visibilité reste courte. Des acteurs du secteur indiquent disposer d’environ deux mois de couverture entre stocks de produits finis et stocks de matières premières, au-delà desquels l’équation devient plus délicate.
Un choc industriel qui remonte jusqu’aux produits du quotidien
L’impact ne se limite pas aux résines achetées par les transformateurs. Le plastique entre dans la composition d’une multitude de biens de consommation et de produits industriels, des emballages aux composants automobiles, en passant par l’électroménager et le bâtiment. Quand le coût des polymères grimpe, l’ensemble de la chaîne se tend. La fabrication de contenants, dont les bouteilles, fait partie des segments immédiatement exposés, parce qu’elle dépend de molécules pétrochimiques comme l’éthylène et le propylène, elles-mêmes affectées par les perturbations sur le brut et les produits intermédiaires.
La situation est d’autant plus sensible que l’Agence internationale de l’énergie qualifie l’épisode actuel de plus forte perturbation de l’histoire du marché pétrolier mondial, en raison de l’effondrement des flux passant par Ormuz et du nombre limité de voies alternatives. Pour la plasturgie, cela signifie que la hausse des coûts ne relève pas seulement d’un mouvement spéculatif de court terme. Elle traduit aussi une remise en cause temporaire d’équilibres d’approvisionnement construits sur des matières abondantes, transportées à bas coût et livrées avec une grande régularité.
Le recyclé retrouve un peu d’oxygène sans effacer la vulnérabilité du secteur
Cette séquence redonne toutefois un peu d’air au plastique recyclé. Depuis plusieurs mois, les recycleurs européens subissaient la concurrence de plastiques vierges importés à bas prix, en provenance notamment de Chine et du Moyen-Orient. Avec la remontée du pétrole, l’écart de prix entre matière vierge et matière recyclée a commencé à se resserrer, ce qui provoque un frémissement de la demande. Ce mouvement reste encore modeste, mais il signale un rééquilibrage de marché qui pourrait profiter, au moins ponctuellement, aux producteurs européens de recyclé.
L’amélioration reste néanmoins fragile. L’Europe avait doublé sa capacité de recyclage des plastiques entre 2017 et 2022, de 6 à plus de 12 millions de tonnes, mais plusieurs fermetures récentes ont déjà amputé l’outil industriel d’environ un million de tonnes de capacités. Dans le même temps, l’objectif européen de 55 % de recyclage des emballages plastiques d’ici 2030 est maintenu. Le conflit ne change donc pas la structure de fond du secteur. Il met plutôt en lumière une dépendance persistante aux hydrocarbures, une vulnérabilité logistique forte et la difficulté à sécuriser une filière industrielle compétitive sur le long terme.
Au total, la guerre au Moyen-Orient agit comme un révélateur brutal. Elle montre que le marché du plastique reste étroitement arrimé à l’énergie fossile, que les chaînes d’approvisionnement demeurent exposées aux détroits stratégiques et que la compétitivité du recyclage dépend encore largement du niveau des cours pétroliers. Pour les industriels français, le choc est déjà concret. Pour les consommateurs, il pourrait bientôt devenir visible dans le prix de plusieurs produits courants.
Nous avons interrogé Julie Voyer, Directrice du salon, au sujet de ces nouveautés.
Julie Voyer, Directrice de Global Industrie (Crédit photo : Alex Snow)
60 000 participants et 2 300 exposants sont attendus pour cette 8e édition du plus grand salon français dédié à l’industrie.
L’ensemble de la chaîne de valeur industrielle y sera représenté, des fabricants d’équipements, périphériques et consommables aux fournisseurs de services.
Comme chaque année, sous-traitants et donneurs d’ordre, PME et grands groupes se retrouveront dans un esprit visant à fédérer l’industrie française en tant que véritable communauté.
Techniques de l’ingénieur : À quoi faut-il s’attendre pour cette édition 2026 ?
Julie Voyer : Cette année, l’accent sera mis sur les nouvelles technologies : intelligence artificielle, sécurisation de la donnée, cybersécurité, stockage de la donnée, dématérialisation, jumeaux numériques, etc.
Nous avons décidé de donner une visibilité à cet ensemble d’offres qui font évoluer le pilotage de la production et de l’efficacité énergétique, à travers une zone dédiée : le « Village des technologies numériques ».
Un nouveau pôle dédié à la partie intralogistique va aussi faire son apparition : « l’Entrepôt connecté by GI », co-créé avec Proxinnov et connecté par HubOne. Nous avions déjà une offre dédiée à la robotique, notamment aux robots mobiles AGV, AIV et AMR[1], mais nous voulions la renforcer afin d’intégrer l’ensemble des flux de la supply chain, de manière plus globale.
L’autre nouveauté de 2026 est la création du Booster, un accélérateur d’innovation industrielle qui donnera aux industriels des leviers de développement et d’accompagnement.
Enfin, comme les autres années, le « Village industrie circulaire » mettra l’accent sur les sujets de décarbonation, d’industrie circulaire et de RSE, car nous conservons cette conviction forte que l’industrie de demain sera plus durable, moins polluante, plus vertueuse.
Pouvez-vous nous parler du Booster ?
Le Booster vient combler un besoin essentiel qui n’avait pas été suffisamment développé jusqu’ici à Global Industrie. Ce Booster donnera des clés aux industriels qui désirent être accompagnés dans le développement de leur entreprise, sur de multiples sujets : ouverture aux marchés internationaux, montée en compétence des collaborateurs, enjeux de normalisation, démarches RSE, financement de l’innovation, etc.
Le Booster apportera ainsi du contenu d’expertise complémentaire. Il sera organisé en cinq pools d’exposants, dont quatre seront dédiés à ces thématiques, le cinquième étant un pool dédié à l’innovation.
Enfin, il y aura aussi une Agora centrale dédiée aux enjeux clés des industriels. Durant les quatre jours, la scène principale du Booster permettra d’échanger des regards d’experts, retours d’expérience et cas d’usage concrets. De grands groupes industriels y dévoileront leurs stratégies d’innovation, afin d’informer les sous-traitants TPE, PME et ETI de leurs besoins à court ou moyen terme.
Le but est de les aider à sécuriser leur chaîne de valeur, puisqu’on sait qu’un grand groupe ne peut innover seul : il a besoin que ses sous-traitants le suivent et l’accompagnent dans sa stratégie. Pour nous, il s’agit aussi de démontrer l’importance du collectif, la nécessité de considérer l’industrie comme une filière où chaque entreprise a un rôle à jouer.
La nouveauté cette année est que nous ferons en sorte de récompenser la collaboration industrielle la plus forte, celle qui aura permis de témoigner des liens les plus forts avec des PME et des plus forts développements dans un territoire.
Que trouvera-t-on dans le « pool innovation » ?
C’est la première fois que les laboratoires et l’innovation seront aussi bien représentés à Global Industrie. Les PEI seront présents, tout comme le réseau des Carnot, ainsi que le Comité Robotique France 2030, qui aura des démonstrateurs sur place.
Ce sera par ailleurs l’occasion de présenter aux industriels les projets qui ont été financés par France 2030 et ce qu’ils vont apporter à l’industrie de demain.
Cette année, nous valoriserons aussi les hommes et femmes qui innovent, pas uniquement les innovations en elles-mêmes, à travers un nouveau prix « Les Voix de l’Industrie ».
L’attractivité de l’industrie est un enjeu majeur. Comment cette thématique sera-t-elle abordée cette année ?
Il y a actuellement plus de 150 000 postes à pourvoir dans l’industrie. Cela veut dire que l’industrie crée de la valeur, ce qui est une bonne chose, mais ça montre aussi qu’elle a un énorme besoin de se rendre désirable afin d’attirer de nouveaux talents.
À Global Industrie, nous poursuivons nos actions envers la jeunesse et nous cherchons à lui montrer que l’industrie tient déjà une place centrale dans sa vie quotidienne à travers la consommation de biens industriels.
Depuis quelques années, nous travaillons avec des collectifs dont l’objectif est de diffuser la « bonne parole » et d’élargir l’aura de l’industrie, de manière positive. Si les partenariats avec Elles Bougent, Les meufs de l’industrie ou Les influstriels se renforcent, cette année, nous irons encore plus loin en travaillant avec des créateurs de contenu, des voix capables de s’adresser directement aux 8 000 jeunes attendus sur le salon et de « prêcher pour l’industrie ». Inox Tag interviendra, par exemple, sur la deuxième journée du salon (31 mars).
Le programme est donc chargé ! Comment seront organisées les interventions sur la Grande Scène ?
La première journée sera sur le thème « Nos industries face au monde », donc avec une forte dimension internationale : dépendance aux marchés mondiaux, concurrence, dépendances, etc.
La deuxième journée sera dédiée à « L’accompagnement de nos industries en mouvement » et aux territoires. Cette journée sera aussi l’occasion de valoriser les actions locales.
La troisième journée sera consacrée à l’innovation, à la recherche et au développement. Le volet numérique sera aussi mis en avant, comme puissant levier de transformation des modèles de nos industries.
Enfin, la dernière journée concernera le poumon de l’industrie, c’est-à-dire la jeunesse. On y abordera notamment l’avenir des métiers de l’industrie, leur attractivité et les problématiques de recrutement et de formation.
Une liste non exhaustive des intervenants annoncés à GI2026
Des « surprises » sont-elles prévues ?
Malgré les difficultés liées à la conjoncture économique et aux dimensions géopolitiques, nous constatons une certaine combativité des industriels et un intérêt fort, notamment de la part des politiques.
Cette année, nous devrions avoir huit ministres sur le salon, dont le ministre de l’Industrie, qui sera présent durant les quatre jours pour faire avancer les thématiques que nous portons.
Désormais, Global Industrie est identifié comme un moment collectif de l’industrie où les pouvoirs publics font des annonces, délivrent des messages sur des sujets de fond et se nourrissent des retours des industriels afin de légiférer.
D’ailleurs, les parlementaires (députés et sénateurs) seront aussi représentés, puisque nous accueillerons plusieurs délégations des deux chambres.
Le mot d’ordre de cette année est « positivons l’industrie » : Global Industrie démontrera, une fois de plus, comment ce collectif industriel peut s’engager collectivement, en restant combatif et résilient.
[1] Les trois technologies principales de robots mobiles autonomes
Pour notre dossier de mars, « Fabrication additive : la France face au défi d’une filière industrielle souveraine », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.
La fabrication additive repose sur un principe simple, celui d’un objet obtenu couche par couche par ajout de matière à partir d’un modèle numérique. Cette logique bouleverse les schémas classiques fondés sur l’enlèvement de matière ou le formage. Elle supprime, dans de nombreux cas, le recours aux outillages dédiés ou aux ébauches brutes, tout en ouvrant l’accès à des géométries internes et externes difficilement réalisables autrement.
Les modes de production actuels s’organisent autour de deux grands ensembles. Le premier demeure le prototypage rapide, qui accélère la validation des formes, de l’ergonomie ou de certaines fonctions avant industrialisation. Le second correspond à la fabrication rapide, elle-même structurée entre outillage rapide et fabrication additive directe. Dans l’outillage rapide, la technologie sert à produire des moules, des empreintes ou des modèles intermédiaires. Dans la fabrication additive directe, l’objectif est la production de pièces finies, denses et fonctionnelles.
Cette montée en puissance de la production directe s’explique par la maturité atteinte par certains procédés, notamment la fusion sur lit de poudre, dont la précision s’est accrue et l’offre matière élargie. De plus, ses propriétés mécaniques sont devenues comparables à celles obtenues par d’autres techniques de fabrication. La compétitivité se joue surtout sur les petites séries, les pièces complexes et les composants à forte valeur ajoutée, la technologie permettant aussi de réduire sensiblement les pertes de matière sur certaines pièces aéronautiques par rapport à l’usinage.
Les secteurs les plus avancés en matière de fabrication additive sont déjà identifiés. L’aéronautique, la défense, le spatial et le médical figurent parmi les pionniers. Dans ces secteurs, la technologie apporte des réponses concrètes à plusieurs enjeux industriels, avec des structures allégées, des assemblages simplifiés, ainsi que des formes internes plus faciles à produire. En outre, dans le domaine médical, les implants et prothèses sont mieux adaptés à chaque patient.
Une maturité contrastée selon les matériaux et les procédés
La maturité industrielle de la fabrication additive s’apprécie d’abord au regard des matériaux utilisés. Quatre grandes familles sont concernées, respectivement les métaux, les polymères, les céramiques et les composites.
En volume, les polymères restent dominants avec 80 % des volumes vendus, tandis que les métaux occupent une place croissante, portée par l’intérêt industriel pour la fabrication directe. Cette progression reste toutefois encadrée par des contraintes fortes, telles qu’une disponibilité limitée des nuances, un coût matière élevé, des exigences de pureté et de granulométrie, la nécessité d’une atmosphère contrôlée pour certains alliages et des précautions sanitaires dans la manipulation des poudres fines.
Côté polymères, plusieurs procédés sont déjà bien maîtrisés. La photopolymérisation en cuve offre une bonne précision et des états de surface de qualité, mais elle reste limitée par la variété et les performances des résines, qui vieillissent et ne conviennent pas toujours aux prototypes fonctionnels exigeants. La projection de matière se distingue par sa capacité à produire du multi-matériaux et de la couleur, avec une gamme étendue de matériaux utiles pour simuler le comportement de pièces injectées. L’extrusion de matière, très répandue grâce à son coût d’accès réduit, domine sur les machines de bureau et professionnelles, mais sa qualité reste plus adaptée au prototypage et à certains usages ciblés qu’à une fabrication de pièces critiques.
Pour les métaux, la situation est différente. La fusion sur lit de poudre apparaît comme le procédé le plus mature pour la production de pièces fonctionnelles en petite série. Elle est déjà qualifiée pour certaines fabrications en série dans l’aéronautique, avec des gains sur l’intégration de fonctions et la réduction du nombre de composants. Le dépôt de matière sous énergie concentrée, autre procédé utilisé notamment pour les métaux, est lui aussi orienté vers des applications industrielles, avec toutefois une précision moindre et des épaisseurs de couche plus importantes, ce qui le place dans une logique industrielle différente.
D’autres procédés restent plus limités en maturité pour des usages mécaniques élevés. La projection de liant accepte une large palette de matériaux, des polymères aux métaux en passant par les céramiques, mais la fragilité des pièces obtenues impose souvent infiltration ou frittage et réserve ce procédé à des applications peu chargées mécaniquement. La stratification de couches conserve, elle aussi, des usages spécifiques.
Cette diversité confirme que la maturité de la fabrication additive n’est pas uniforme. Elle est élevée pour certaines combinaisons de procédés et de matériaux, en particulier dans les métaux à haute valeur ajoutée et dans plusieurs applications polymères de prototypage avancé, mais elle reste plus partielle dès qu’entrent en jeu les exigences de certification, de qualification, de répétabilité et de coût.
La contribution potentielle à la souveraineté industrielle peut être déduite de plusieurs caractéristiques déjà établies. La technologie réduit la dépendance aux outillages lourds, raccourcit les cycles de développement, permet l’internalisation de certains prototypes et protège ainsi la confidentialité des produits en cours de conception. Elle favorise aussi une production à la demande, la sous-traitance locale via des prestataires spécialisés, et l’émergence d’un écosystème fondé sur les fichiers numériques, les compétences et les capacités de fabrication distribuées. Pour les petites séries, les pièces stratégiques ou le sur-mesure, cette logique ouvre la voie à une production plus proche du besoin, moins dépendante des chaînes longues et plus apte à sécuriser des savoir-faire industriels.
Cette perspective reste conditionnée à la levée de verrous encore clairement identifiés, notamment le coût des machines et des matières, la taille des pièces et les exigences de qualification.
Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 9 avril 2026 !
Organisée de concert par le CEA, INES-Technologies, Capenergies, Tenerrdis, HoloSolis et Carbone, cette journée de conférences et tables rondes a réuni producteurs, porteurs de gigafactories, énergéticiens, acteurs publics, experts R&D et spécialistes du recyclage pour aborder les enjeux auxquels le secteur est confronté. Derrière la diversité des interventions, un même constat s’est imposé : alors que le photovoltaïque entre dans une nouvelle phase de déploiement mondial, l’Europe reste fragilisée par sa dépendance industrielle, au moment même où la maîtrise des technologies énergétiques devient un enjeu de souveraineté.
La journée a d’abord permis de replacer le sujet dans son contexte mondial. Le solaire photovoltaïque n’est plus une technologie émergente, mais l’un des piliers de l’électrification bas carbone. Les chiffres rappelés par Gaëtan Masson (Becquerel Institute) illustrent ce changement d’échelle : la dynamique d’installation est désormais massive, avec des centaines de gigawatts installés chaque année et la place croissante du solaire dans les systèmes électriques, en Europe et dans le reste du monde. Cette accélération se heurte toutefois à une réalité bien identifiée : la très forte concentration de la chaîne de valeur en Chine, qui conserve une avance considérable sur la production de cellules, de modules, des volumes et, de plus en plus, du leadership technologique.
Ce déséquilibre structurel a traversé l’ensemble des échanges. Car si l’Europe sait encore innover, elle ne produit plus à la hauteur de ses ambitions. Plusieurs intervenants ont rappelé que ces 15 dernières années, la compétition internationale s’est profondément durcie, au point de marginaliser une grande partie des capacités industrielles européennes. Le sujet ne se limite donc plus à la seule compétitivité-prix. Il concerne désormais la sécurité d’approvisionnement, la maîtrise technologique, la résilience des chaînes de valeur et, à terme, la capacité du continent à ne pas subir les choix industriels d’autres puissances.
Dans ce contexte, l’innovation apparaît comme l’un des principaux leviers de reconquête. Les interventions de l’IPVF et du CEA-Liten ont mis en avant plusieurs axes de différenciation technologique. À l’IPVF, Gilles Goaer a insisté sur la nécessité d’accélérer le passage du laboratoire à l’usine, avec un travail de fond sur les cellules à haut rendement, notamment les architectures tandem associant silicium et pérovskites. L’enjeu est connu : améliorer les performances, tout en préparant des procédés compatibles avec une industrialisation à grande échelle. Au CEA-Liten, David Duca a présenté des développements innovants pour diminuer l’usage de matières premières dans les cellules PV, réaliser des modules plus légers, plus flexibles et adaptés à des usages spécifiques, notamment dans le spatial. Ces travaux traduisent une orientation claire : pour exister face à la concurrence asiatique, la filière européenne devra combiner montée en performance, adaptation à des marchés de niche et réduction des coûts d’intégration.
Cette logique d’innovation appliquée a également été illustrée par plusieurs entreprises en phase de déploiement. Heliup, spin-off du CEA créée en 2022, mise ainsi sur des modules ultralégers pour les toitures à faible capacité portante, avec une approche orientée bâtiment et autoconsommation. Le positionnement est révélateur d’une tendance plus large : plutôt que de se battre sur les seuls volumes, certains acteurs français cherchent à se différencier par l’usage, l’intégration et la réponse à des contraintes applicatives précises. Voltec Solar, de son côté, a rappelé les difficultés mais aussi les conditions de maintien d’une production de modules en Europe. Dans un environnement où les prix mondiaux restent sous très forte pression, la compétitivité ne peut reposer uniquement sur l’outil industriel ; elle suppose aussi des débouchés, une visibilité réglementaire et des critères de marché plus favorables aux productions européennes.
C’est précisément sur ce point que les échanges ont pris une dimension plus politique. Plusieurs intervenants ont souligné les limites d’un cadre de marché qui, pendant des années, a privilégié quasi exclusivement le prix dans les appels d’offres. Pour les industriels, cette logique a contribué à renforcer la dépendance aux importations, en rendant extrêmement difficile l’émergence d’une production locale compétitive. La perspective d’une évolution des règles européennes, notamment à travers le Net-Zero Industry Act, est donc suivie avec attention. L’idée d’introduire des critères valorisant la production européenne, l’empreinte carbone, la résilience d’approvisionnement ou encore la contribution à la souveraineté industrielle a été largement soutenue au cours de la journée.
Pour autant, les attentes s’accompagnent de réserves. Plusieurs participants ont souligné que la rédaction des critères et leur mise en œuvre concrète seront décisives. Un affichage en faveur du « made in Europe » ne produira d’effets que s’il est juridiquement robuste et opérationnel dans les appels d’offres. La question du périmètre géographique, celle des accords de libre-échange ou encore le risque de contournement par des productions localisées hors de Chine mais contrôlées par des groupes chinois ont été explicitement évoqués. En creux, c’est toute la difficulté d’une politique industrielle européenne qui est apparue : soutenir une base productive sans fermer le marché, tout en évitant que les nouveaux dispositifs n’aboutissent qu’à des effets d’annonce.
Au-delà des critères de marché, la reconstruction de la filière suppose surtout des capacités industrielles nouvelles. Les projets de giga-usines, comme Carbon ou HoloSolis, sont emblématiques de cette ambition. Il ne s’agit plus seulement d’assembler des modules, mais de remonter progressivement l’ensemble de la chaîne de valeur, des cellules jusqu’aux lingots et wafers. Cette stratégie répond à un impératif simple : sans intégration industrielle suffisante, l’Europe restera dépendante des segments les plus critiques de la production. Mais elle pose immédiatement la question du financement, du calendrier et de l’accompagnement public. Plusieurs intervenants l’ont rappelé : entre l’innovation de laboratoire et l’usine à pleine capacité, le principal obstacle est celui du passage à l’échelle, avec des besoins élevés en capitaux, en équipement et en sécurisation commerciale.
Un autre thème s’est imposé comme un marqueur de maturité de la filière : celui de la fin de vie des panneaux et du recyclage. À mesure que les volumes installés augmentent, la capacité à collecter, traiter et valoriser les matériaux devient un enjeu industriel à part entière. Les interventions de Soren, Rosi et du CEA avec sa ligne pilote installée chez Envie 2E Aquitaine ont montré que le recyclage ne se limite plus à une obligation environnementale. Il constitue aussi un gisement de valeur, en particulier pour des matériaux stratégiques comme le silicium, l’argent, le cuivre et le verre. La perspective de réinjecter ces matières dans de nouveaux cycles de production change la nature du débat : la filière photovoltaïque ne peut plus être pensée uniquement en phase de déploiement, mais comme un écosystème complet, de la conception à la seconde vie, jusqu’au recyclage avancé.
Ce point est d’autant plus sensible que plusieurs intervenants ont insisté sur la pression croissante qui pèse sur certaines ressources. Dans ce contexte, l’écoconception, la réparabilité, la durabilité et la recyclabilité deviennent des critères industriels autant qu’environnementaux. La structuration d’une filière française ou européenne du recyclage pourrait ainsi contribuer, à terme, à réduire une partie de la dépendance extérieure tout en créant de nouvelles activités à forte valeur ajoutée.
Au final, cette journée aura mis en lumière une équation désormais bien identifiée, mais encore loin d’être résolue. La France et l’Europe disposent d’acteurs de recherche de premier plan, de projets industriels ambitieux et d’un marché appelé à croître fortement. Mais la réussite de cette stratégie dépendra de la capacité à articuler quatre dimensions : innovation technologique, industrialisation, cadre réglementaire et financement. Sans cette cohérence d’ensemble, la progression du solaire pourrait continuer à se faire au prix d’une dépendance durable. À l’inverse, si les signaux de marché, les outils publics et les investissements convergent, le photovoltaïque pourrait devenir l’un des terrains les plus concrets d’une reconquête industrielle européenne.
Loin de la traiter comme une technologie de substitution, le groupe y voit un levier de compétitivité, de souveraineté industrielle et de performance environnementale, tout en préparant les réacteurs de demain, que ce soient SMR, réacteurs embarqués, ou systèmes ultra-compacts.
La mise en service industrielle, prévue en mai 2026, de la nouvelle usine de Romans-sur-Isère, entièrement dédiée à la fabrication additive, matérialise cette ambition.
Mohamed Zouari, responsable des activités fabrication additive chez Framatome, détaille pour Techniques de l’Ingénieur cette stratégie multi-axes et les enjeux industriels de ce nouvel outil de production.
Techniques de l’Ingénieur : Quelle est la philosophie générale de Framatome vis-à-vis de la fabrication additive ?
Chez Framatome, nous n’avons pas une vision de la fabrication additive comme quelque chose qui va remplacer les procédés classiques. La fabrication additive vient en complément d’une fabrication classique, déjà déployée et éprouvée en interne. Pour certaines pièces, certaines applications, elle apportera un intérêt. Pour d’autres, la fabrication conventionnelle restera la meilleure option. Notre force, c’est d’abord d’être fabricants de composants nucléaires depuis des décennies – équipements sous pression nucléaire, systèmes de contrôle – et c’est cette maîtrise de la fabrication qui nous a permis d’intégrer les procédés additifs avec le niveau d’exigence que requiert le nucléaire.
Comment organisez-vous les axes stratégiques de la FA au sein du groupe ?
Nous distinguons les axes à court terme et les axes qui s’inscrivent dans la durée.Le premier axe court terme, c’est la qualité et la répétabilité. Les procédés additifs sont automatisables et, une fois qualifiés, ils présentent une répétabilité élevée, donc moins de volatilité. C’est un vecteur de maîtrise de la qualité en série. Le deuxième, c’est la compétitivité en termes de coûts. Pour certains composants, on part directement de la matière première pour arriver à des géométries quasi finies, ce qui réduit les opérations intermédiaires et peut générer des économies significatives. Le troisième axe est celui de la stabilisation et de la souveraineté de la supply chain. La fabrication additive constitue une voie de fabrication alternative qui permet de contourner des problèmes de contrôle à l’export, de fournisseurs défaillants ou d’obsolescence. Pour un groupe comme Framatome, dont les priorités sont la sûreté, la qualité, puis le lead time, c’est un enjeu majeur.
Enfin, la fabrication additive nous permet d’accélérer les délais de fabrication, d’optimiser nos stocks de pièces de rechange et de mieux piloter nos stratégies de maintenance sur les réacteurs en exploitation.
Qu’en est-il en ce qui concerne le long terme ?
L’axe majeur à moyen et long terme, c’est l’accès à des géométries complexes impossibles à réaliser par les voies conventionnelles. Cela nous ouvre des perspectives de performances que nous n’avons pas aujourd’hui : des échangeurs thermiques plus compacts à capacité d’échange équivalente, des pièces monoblocs à la place d’assemblages multi-composants, avec des gains directs en termes de temps d’intervention en zone contrôlée pour nos équipes de maintenance.
Cette maîtrise des géométries complexes est aussi clé pour préparer les réacteurs futurs : réacteurs modulaires compacts (SMR), réacteurs embarqués dans des sous-marins ou des applications spatiales. Être leader dans la fabrication additive aujourd’hui, c’est être prêts le jour où ces programmes seront lancés. C’est une décision stratégique pleinement assumée.
Enfin, un axe que nous suivons avec beaucoup d’attention est celui de la performance environnementale. Sur certaines applications, nous avons des cas démontrant une réduction d’empreinte carbone allant jusqu’à 80 % de CO₂ par rapport à la fonderie conventionnelle. C’est un argument de poids dans le contexte des exigences ESG du groupe.
Quels types de pièces ou de performances visez-vous concrètement grâce à la FA ?
Les critères de performance sont multiples : géométrie, coût de fabrication, rendement du composant, lead time. Prenons un exemple concret : une roue de pompe. Sa géométrie complexe – des bords d’attaque, des surfaces gauches – est difficilement accessible par forgeage ou moulage classique. En fabrication additive, on y accède directement. Avec pour résultat un meilleur débit hydraulique avec le même gabarit, ce qui signifie une meilleure performance du système.
Autre cas concret, la consolidation de pièces. Nous avons des composants qui étaient fabriqués en 19 pièces distinctes et que nous produisons désormais en monobloc. Pour nos équipes de maintenance qui interviennent en zone contrôlée – avec des doses à gérer – passer de 19 manipulations à une seule est un gain opérationnel et radioprotectionnel considérable.
Nous avons aussi développé des outillages de soudage spécifiques grâce à la fabrication additive, ce qui nous permet d’intervenir dans des zones très confinées, inaccessibles avec des outils conventionnels. Le champ applicatif est donc vraiment très large.
Comment gérez-vous la qualification des pièces destinées à l’industrie nucléaire ?
La maturité de nos procédés nous a conduits à une approche basée sur la maîtrise du mode opératoire, et non sur une qualification pièce par pièce systématique, ce qui était le cas dans les phases exploratoires initiales. Framatome, en lien avec EDF et d’autres acteurs de la filière a développé des référentiels de qualification spécifiques à la FA dans le nucléaire. Ces référentiels portent sur la maîtrise du procédé d’élaboration de la matière et du composant. Une fois le mode opératoire validé, la répétabilité est assurée. Nous ne « cassons » plus des pièces en série pour les qualifier : nous maîtrisons ce que nous faisons.
Quid du travail préalable de digitalisation nécessaire à la FA ?
C’est un point essentiel. La fabrication additive exige un travail de conception numérique en amont significatif : modélisation CAO, simulation, puis « slicing », c’est-à-dire la définition des trajectoires de fabrication couche par couche. Chez Framatome et dans le groupe EDF, nous avons numérisé une grande partie de notre catalogue de pièces depuis plusieurs années. Il nous arrive encore de reconstruire une maquette numérique à partir de plans papier pour des pièces obsolètes, mais c’est de plus en plus marginal. L’infrastructure numérique est un prérequis incontournable.
Pouvez-vous décrire le Centre de Fabrication Additive de Romans-sur-Isère et ce qu’il représente pour Framatome ?
Le Centre de Fabrication Additive (CFA) de Romans-sur-Isère n’est pas un centre de recherche, ni un démonstrateur technologique : c’est une usine de production industrielle. Sa mise en service industrielle est prévue pour mai 2026. Elle est dimensionnée pour fournir des pièces pour le nucléaire civil et la défense, avec un spectre de production très large : de quelques millimètres jusqu’à 6 mètres de long, de 20 kilogrammes à 25 tonnes et au-delà. C’est une plage de gabarits qui est tout à fait caractéristique des applications nucléaires.
Quels procédés de FA sont mis en œuvre dans cette usine ?
Framatome travaille aujourd’hui sur sept procédés de fabrication additive et avancée. Les procédés en série, sur lesquels nous sommes matures, sont principalement le LPBF, le WAAM (le fil fondu), et le cold spray. Nous sommes également très matures sur la compaction isostatique à chaud, que nous considérons comme de la fabrication avancée.
L’usine de Romans-sur-Isère intègre en particulier le WAAM et le LPBF, qui représentent à eux deux la grande majorité de notre volume de production en fabrication additive. Le cold spray était déjà internalisé précédemment.
Quels matériaux de fabrication utilisés dans cette usine ?
Nous couvrons l’ensemble des matériaux de la chaîne de valeur nucléaire : aciers ferritiques, aciers austénitiques, duplex, et bien sûr les alliages base nickel omniprésents dans les équipements sous pression des circuits primaires. C’est une couverture matériaux très complète, parfaitement alignée avec les spécifications des réacteurs EPR et des futurs designs.
Quels sont les fournisseurs d’équipements de l’usine ?
Pour le WAAM, nous utilisons des systèmes robotisés personnalisés. Les robots ou manipulateurs proviennent de MX3D, société dans laquelle le groupe EDF est actionnaire. Mais les solutions déployées chez nous sont des configurations sur mesure : ce que vous trouvez chez Framatome n’est pas le produit standard de MX3D, c’est une intégration adaptée à nos contraintes nucléaires spécifiques.
Cette usine est-elle également pensée pour les réacteurs de nouvelle génération comme les SMR ?
Absolument, et c’est même l’un des piliers de la raison d’être de cette usine. Framatome doit être prêt le jour où les programmes SMR et les réacteurs ultra-compacts seront en phase de conception industrielle. Ces réacteurs exigeront des composants aux géométries optimisées, produits en série avec une qualité irréprochable. C’est exactement ce que la fabrication additive nous permet de faire. Cette usine, c’est notre déclaration d’intention : Framatome sera là, prêt, au rendez-vous de l’énergie nucléaire du futur.
MS4ALL est une start-up deeptech spécialiste de la simulation moléculaire, fondée en 2023.Elle est issue du Laboratoire GREMI (CNRS – Université d’Orléans) et bénéficie de plus de 20 ans de recherche au CNRS en simulation moléculaire.
MS4ALL a développé MS4Nature PRO, une solution basée sur la dynamique moléculaire réactive qui permet de caractériser la dégradation des PFAS ou « polluants éternels » dans l’eau, via la simulation moléculaire.
Techniques de l’ingénieur : MS4ALL est une jeune entreprise. Quelle est son histoire ?
Édouard Lété : Nous sommes une start-up issue du laboratoire Gremi, une Unité Mixte de Recherche (UMR 7344) du CNRS et de l’Université d’Orléans.
Notre solution de simulation repose sur les travaux de Pascal Brault, qui est directeur de recherche au CNRS et également cofondateur et conseiller scientifique de MS4ALL. Durant ces vingt dernières années, il a développé une approche de simulation moléculaire particulière, dont nous possédons la licence d’exploitation exclusive et mondiale du savoir-faire.
Les applications de cette approche se trouvent principalement dans la dégradation des micropolluants, y compris les PFAS, qui sont un enjeu majeur. Il y a cinq ans encore, quand nous parlions de PFAS, le grand public ne savait pas de quoi il s’agissait. Désormais, l’ampleur de la pollution au PFAS est connue de tous, notamment grâce aux travaux du Forever Pollution Project, porté par plusieurs médias en Europe (dont le journal Le Monde) et auquel le CNRS participe.
Pour rappel, les PFAS sont des molécules synthétiques très performantes qui ont été développées après la 2de Guerre mondiale. Ces molécules sont très stables, grâce aux liaisons fluor-carbone. Malheureusement cette hyper stabilité chimique les rend très persistantes dans l’environnement, ce qui conduit à une contamination diffuse et à une accumulation.
En quoi l’approche proposée par MS4ALL peut-elle aider à traiter le problème des PFAS ?
L’équipe de MS4ALL est composée de 11 personnes, dont 50 % de chercheurs
La simulation moléculaire est utilisée depuis longtemps pour développer de nouveaux médicaments. Sans entrer dans les détails, cela consiste à résoudre des équations de Schrödinger, des équations de mécanique quantique très lourdes qui permettent de simuler des molécules comprenant jusqu’à 150 atomes, les temps de calcul étant trop élevés au-delà de cette limite.
L’approche développée au CNRS est différente et bien plus performante, puisqu’elle est 1 000 fois plus rapide et permet d’étudier de très gros systèmes de l’ordre de 150 000 atomes. Le principe est de créer une « boîte de simulation » à l’échelle moléculaire, qui peut être comparée à un verre d’eau dans lequel on place une molécule avec différents éléments.
L’idée est alors d’observer comment évolue le système et de tester les interactions chimiques qui s’y produisent. Ce « microscope virtuel » permet ainsi de surveiller si une dégradation de la molécule se produit et aussi de déterminer en quoi elle va se dégrader.
MS4Nature Pro est un outil d’aide à la décision qui aide à accélérer la recherche expérimentale basée sur de longues campagnes d’essais-erreurs, en orientant les choix, réduisant ainsi le nombre de tests expérimentaux à produire, ainsi que les coûts associés.
On peut faire l’analogie avec les crash-tests automobiles : avant d’arriver au stade expérimental, les constructeurs automobiles font des milliers de simulations. Quand ils passent au stade du test en conditions réelles, il faut qu’ils soient déjà quasiment certains du résultat, car un test non concluant leur ferait prendre au moins six mois de retard dans le développement d’un véhicule. C’est exactement le même principe ici.
Exemple : simulation de la dégradation du PFOA en milieu aqueux, en présence de péroxyde d’hydrogène et d’ozone
Avez-vous un exemple concret à nous présenter ?
Il y a quelques années, une enquête journalistique a révélé que l’ancienne papeterie de Stenay, dans la Meuse (fermée depuis 2024), était responsable d’une pollution massive aux PFAS. Cette pollution a été causée par l’épandage de boues issues de l’usine, durant des années, sur au moins 2 700 hectares de champs alentour, ce qui a fini par contaminer les sources d’eau potable.
Quand un opérateur de traitement de l’eau est informé d’une telle pollution, il se tourne alors vers un centre de recherche et lui demande si la station est en mesure ou pas de traiter le PFAS détecté. Si le polluant est connu et que des méthodes de traitement existent, le centre de recherche peut apporter une réponse. Dans le cas contraire, il devient nécessaire de lancer des essais expérimentaux, ce qui peut durer de nombreux mois.
Les industriels du traitement de l’eau ont donc besoin d’outils qui leur permettent rapidement d’anticiper les actions à mettre en place lorsqu’un PFAS est détecté. Devront-ils simplement apporter des ajustements à la station ou devront-ils arrêter la production d’eau potable ?
Comme MS4Nature peut évaluer à la fois la cinétique de dégradation d’une molécule et établir les chemins de dégradation, cet outil répond donc aux besoins d’acteurs comme SUEZ, qui est aussi l’un de nos clients.
Par ailleurs, la réglementation concernant les PFAS est amenée à se durcir. Prenons l’exemple du TFA, un produit de dégradation de la famille des PFAS, qui fera partie des molécules à rechercher dans l’eau potable, à partir de 2027. À compter de cette date, les eaux dont une pollution au TFA est avérée devront obligatoirement être traitées. Or, comme le TFA est aussi l’une des molécules les plus difficiles à traiter, il est urgent de trouver des solutions efficaces !
La lutte contre les PFAS est-elle aussi un enjeu majeur pour l’ensemble de l’industrie ?
Les PFAS sont bien entendu une urgence environnementale et sanitaire, mais ils deviennent également une urgence industrielle et financière. Les industriels ne peuvent plus attendre que la réglementation sur les PFAS se durcisse pour chercher des solutions de substitution. D’une part, la réglementation avance très vite, et d’autre part, les PFAS ont un effet repoussoir sur les investisseurs.
L’objectif de MS4ALL est d’aider les industriels à trouver des solutions de traitement adaptées à chaque substance et aussi d’accélérer la substitution des PFAS. C’est ce que nous faisons avec plusieurs sociétés et MS4Nature Pro leur permet d’avancer plus vite sur la recherche de solutions alternatives.
À qui MS4Nature Pro s’adresse-t-il ?
MS4ALL signifie Molecular Simulation for All, ce qui traduit notre ambition de démocratiser ce type de simulation. Comme nous l’avons évoqué, cet outil peut donc aussi bien être utilisé par les professionnels de l’eau (ARS, laboratoires d’analyse, municipalités, etc.) que par les industriels, même s’ils ne sont pas experts dans la simulation numérique.
En effet, MS4Nature Pro prend la forme d’une application web qui ne demande aucune expertise en simulation moléculaire et ne nécessite pas d’achat d’ordinateurs puissants, ni même de logiciel, grâce au Calcul Haute Performance (HPC), à une architecture native sur le Cloud et une base de données de 118 000 micropolluants, dont plus de 14 000 PFAS.
MS4Nature Pro permet ainsi d’anticiper les polluants émergents, les sous-produits de dégradation, de concevoir des traitements plus performants et d’obtenir un rapport de dégradation complet.
À sa tête, Philippe Verlet, ingénieur issu du monde de la machine-outil, qui a fait le pari il y a dix à quinze ans de réorienter son entreprise vers la robotique et la fabrication additive. Dans un contexte de réindustrialisation, de fragilité des chaînes d’approvisionnement et de montée en puissance des enjeux de souveraineté, il livre aux Techniques de l’Ingénieur sa vision d’une technologie qu’il refuse d’enfermer dans l’étiquette « impression 3D » : pour lui, la fabrication additive n’est rien de moins qu’une nouvelle façon de produire, à condition de maîtriser l’ensemble de la chaîne numérique qui l’accompagne.
Techniques de l’Ingénieur : Pouvez-vous nous présenter VLM Robotics ?
Philippe Verlet : VLM Robotics, c’est une entreprise de 35 personnes basées au sud de Bordeaux, avec une culture qui vient du monde de la machine-outil. Il y a dix à quinze ans, je me suis orienté vers la robotique, non pas pour faire du pick-and-place, mais parce que les robots apportent une agilité extraordinaire : la capacité à traiter des petites séries, à faire plusieurs métiers autour d’une même pièce. Nous avons développé quatre domaines d’activité complémentaires : la fabrication de machines robotisées, la participation à des projets de R&D avec les grands groupes industriels, la production directe de pièces en fabrication additive, et enfin le développement de systèmes de mesure embarquée. Ces quatre activités sont indissociables : pour vendre des machines, il faut d’abord prouver qu’on sait faire les pièces, ce qui suppose d’être dans les projets R&D, et pour qualifier ces pièces, il faut instrumenter les procédés.
Vous vous positionnez délibérément sur la fabrication additive métal grande dimension. Pourquoi ce choix ?
C’était une décision stratégique très claire : en allant vers le grand format et le métal, on s’éloigne de l’univers des plastiques et des machines de bureau, et on entre dans l’industrie lourde : l’aéronautique, le naval, l’énergie, la défense, le spatial. Sur ces marchés, les pièces peuvent peser deux, trois tonnes, et les dimensions dépassent largement ce que peut faire une machine conventionnelle. Les robots sont parfaitement adaptés à cela : leur volume de travail est bien plus grand que celui d’une machine-outil classique, et ils permettent d’amener les métiers autour de la pièce – additive, soustractive, contrôle – dans une même cellule. C’est ce positionnement qui nous a permis de travailler avec des partenaires comme Naval Group ou des acteurs du spatial et de la défense.
La « maturité » de la fabrication additive est souvent débattue. Quel est votre point de vue ?
C’est une question piège, parce qu’on a tendance à comparer la fabrication additive à la forge ou à la fonderie, qui ont des décennies d’existence. Ce n’est pas le bon angle. La maturité ne viendra pas de la machine elle-même, de l’imprimante qui fait pousser la matière. Elle viendra de la capacité à intégrer une vraie continuité numérique tout au long du processus : modélisation multi-physique en amont, jumeau numérique pour anticiper le comportement de la pièce, instrumentation en production pour surveiller les paramètres clés, contrôle adaptatif, et enfin traçabilité complète. Quand on dit « fabrication additive », on parle en réalité de tout un écosystème de métiers. C’est ce que j’appelle le manufacturing au sens large, et c’est ce qui nous distingue d’une simple machine à déposer de la matière.
Vous insistez sur le jumeau numérique. Comment l’intégrez-vous concrètement dans vos projets ?
On distingue trois niveaux de jumeaux numériques. Le premier concerne la machine elle-même : comment va-t-elle se comporter, peut-elle tenir les cadences et les précisions requises ? Le deuxième concerne le procédé : comment va se comporter la matière couche après couche, comment anticiper la cristallographie, les contraintes thermiques ? Et le troisième – le plus précieux pour nos clients – c’est le jumeau numérique de l’histoire de la pièce. Parce qu’on fabrique souvent des pièces uniques, on ne peut pas les couper en deux pour vérifier ce qui s’est passé à l’intérieur. Le jumeau numérique nous permet de livrer avec la pièce toute son histoire thermique, mécanique, et physique. C’est la clé de la qualification. Et pour alimenter ces jumeaux, on développe nos propres systèmes de mesure embarquée, parce que les capteurs du marché ne suffisent pas.
Quels sont aujourd’hui les secteurs industriels les plus actifs en fabrication additive métal grande dimension ?
On travaille sur plusieurs secteurs en parallèle. L’énergie d’abord, avec des applications sur les grandes pales de turbines hydrauliques, la réparation de pièces en service, et depuis peu le secteur du nucléaire qui commence à évaluer sérieusement l’intérêt économique et technique de la fabrication additive pour des pièces qu’on ne sait plus faire autrement. Le naval, avec Naval Group qui a démontré la faisabilité sur des hélices de grande dimension, des pièces en TRL 9, c’est-à-dire montées sur des bateaux réels. Le spatial, avec des moteurs de fusée ou des propulseurs en Inconel. Et des applications plus industrielles comme les tunneliers, où l’on fabrique des pièces de deux à trois tonnes combinant usinage dur et dépôt de matière, sans oublier les outillages et moules pour la fonderie, où la fabrication additive présente un vrai intérêt économique.
Le nucléaire revient souvent dans les conversations. Où en est-on réellement sur ce secteur ?
Le nucléaire s’intéresse sérieusement à la fabrication additive depuis quelques années. L’argument économique et technique est là : on a perdu des forges, des fonderies, et les pièces demandées sont de plus en plus grandes, notamment pour les nouveaux réacteurs. La fabrication additive peut combler une partie de ce déficit industriel. Mais le principal frein reste la qualification : les processus de validation dans le nucléaire sont très longs, très stricts, ce qui est légitime. Ça avance cependant, et parfois parce qu’il n’y a pas d’autre solution. Quand la filière traditionnelle n’est plus là, on est obligé de se tourner vers de nouvelles technologies.
Comment intégrez-vous l’intelligence artificielle dans vos processus, et quels sont vos garde-fous ?
On utilise l’IA au quotidien pour accélérer, écrire du code, optimiser des algorithmes, c’est un outil formidable de productivité. Mais dès qu’il s’agit d’un processus industriel certifié, on est confronté à une limite fondamentale : l’IA vous livre toujours un résultat avec un taux d’incertitude. Donc notre approche, qu’on développe avec le CEA notamment, c’est d’utiliser l’IA comme outil d’optimisation, mais de qualifier son résultat par des mesures physiques indépendantes. L’IA peut optimiser la boucle de régulation thermique, mais c’est la mesure de la température réelle dans la pièce qui valide ou non ce résultat. On ne déléguera jamais la qualification à un algorithme dont on ne comprend pas les décisions internes.
La crise Covid puis la guerre en Ukraine ont-elles changé la nature des demandes de vos clients industriels ?
Complètement, et en plusieurs étapes. Le Covid a d’abord mis en lumière la fragilité des chaînes d’approvisionnement mondiales et a donné une légitimité politique à la réindustrialisation, avec des programmes comme France Relance. Ensuite, la guerre en Ukraine a ajouté une dimension souveraineté beaucoup plus profonde. On se pose maintenant des questions très concrètes : peut-on encore fabriquer une pièce critique avec un logiciel américain, un robot japonais et une matière première qui vient d’ailleurs ? Ces questions, que nos clients industriels dans la défense ou le naval se posent désormais ouvertement, créent une demande réelle pour des solutions locales. Et c’est une opportunité pour nous.
Concrètement, comment VLM Robotics répond-elle à cette demande de souveraineté industrielle ?
On travaille à plusieurs niveaux. Sur les machines, on réfléchit à la conception de robots qui puissent être pensés et partiellement produits en France ou en Europe, en s’appuyant sur des partenaires locaux pour les axes linéaires, les réducteurs – je pense à des acteurs comme Redex – ou l’électronique embarquée, dont on fait une partie nous-mêmes. Sur les logiciels, on est très attentifs aux solutions françaises émergentes en FAO et en simulation, parce que la dépendance aux logiciels américains est une vraie vulnérabilité. Sur les matériaux, on travaille avec des producteurs français de fils métalliques spéciaux pour des alliages à haute valeur ajoutée comme le titane ou l’Inconel. Ce n’est pas possible partout – sur les commandes numériques, par exemple, on travaille avec Siemens parce qu’on a perdu cette compétence en France – mais là où on peut développer des alternatives souveraines, on le fait.
Quel regard portez-vous sur la compétitivité française et européenne en fabrication additive métal, notamment face à la Chine ?
C’est nuancé. Sur certains matériaux stratégiques comme le titane, la Chine est l’un des deux grands fournisseurs mondiaux avec la Russie : nous avons un problème de dépendance réel sur ce point. La fabrication additive peut en partie y répondre en étant beaucoup plus économe en matière : on dépose exactement ce dont on a besoin, parfois en réutilisant des chutes. Sur les machines elles-mêmes, la France a des acteurs sérieux. Et sur les compétences, on a une vraie chance avec un tissu d’industries variées – naval, spatial, aéronautique, énergie, défense – qui n’existe dans aucun autre pays européen à cette échelle. C’est une richesse qu’on ne mesure pas toujours. Ce qu’il faut maintenant, c’est accélérer les coopérations franco-allemandes et européennes, entre autres, parce que la réponse souveraine sera forcément collective à cette échelle.
Industrie européenne : la guerre du prix de l’électricité est relancée
La nouvelle poussée des prix de l’énergie en Europe remet sous pression les industriels les plus électro-intensifs, de la chimie à la métallurgie, déjà fragilisés par des coûts durablement supérieurs à ceux de leurs concurrents américains ou asiatiques.
À Bruxelles, le débat ne porte plus seulement sur l’urgence conjoncturelle, mais sur les outils à activer pour éviter une nouvelle dégradation de la compétitivité manufacturière européenne.
La Commission travaille sur des baisses de taxes sur l’électricité, une plus grande souplesse sur les aides d’État et un soutien ciblé aux sites industriels les plus exposés.
En parallèle, la pression monte autour du marché carbone européen, certains États réclamant un allègement temporaire quand d’autres refusent de fragiliser le signal-prix climatique.
La prochaine étape sera la présentation détaillée des arbitrages de Bruxelles sur fiscalité, ETS et soutien d’urgence, avec en toile de fond le risque de fractures entre États aux marges budgétaires inégales.
Au-delà de l’urgence, le sujet va se prolonger dans le débat sur le Clean Industrial Deal : comment garantir une électricité abondante, décarbonée et compétitive sans sacrifier les objectifs climatiques ni accélérer les délocalisations.
Dassault-Airbus : le FCAS au bord de la rupture, l’Europe sous pression
Lancé en 2017 par la France et l’Allemagne, puis élargi à l’Espagne, le FCAS devait incarner le grand programme structurant de l’aéronautique de défense européenne, avec un système de combat aérien appelé à remplacer à terme les flottes actuelles autour de 2040.
Mais le dossier est aujourd’hui grippé par le bras de fer entre Dassault Aviation et Airbus, au cœur d’un conflit sur le pilotage du futur avion de combat, le partage industriel et le contrôle des fournisseurs.
En fixant une échéance à mi-avril, Berlin a transformé un contentieux industriel en test politique majeur, alors que les arbitrages budgétaires allemands approchent et que Paris pousse pour sauver un programme jugé stratégique.
Les prochaines semaines seront donc décisives : soit la médiation franco-allemande débouche sur un compromis de gouvernance et relance le programme, soit le FCAS s’enfonce dans une crise qui rouvrira la question d’alternatives européennes, voire d’un rapprochement allemand avec d’autres projets comme le GCAP.
Pour l’actualité industrielle, le vrai sujet n’est plus seulement l’avion du futur : c’est la capacité de l’Europe à aligner souveraineté, budget, propriété intellectuelle et partage de la valeur entre ses grands champions.
L’UE peut-elle encore tenir sa promesse sur les pesticides interdits ?
Promis en 2020 dans la stratégie européenne sur les produits chimiques, l’arrêt des exportations de pesticides interdits dans l’UE reste enlisé, alors même que ce commerce continue d’exposer la contradiction entre ambition sanitaire européenne et intérêts de l’industrie chimique.
Le sujet a repris de la force après les révélations de Public Eye, selon lesquelles près de 122 000 tonnes de pesticides bannis dans l’UE ont encore été notifiées à l’export en 2024, soit bien plus qu’en 2018.
En parallèle, le Parlement européen continue de pousser Bruxelles à légiférer, pendant que certains États, comme la Belgique, ont déjà avancé au niveau national.
La suite se jouera désormais sur trois fronts : d’abord, la capacité de la Commission à transformer son étude d’impact lancée en 2023 en proposition législative crédible ; ensuite, la pression politique croissante d’eurodéputés et d’ONG pour rouvrir le dossier ; enfin, le rapport de force avec une ligne bruxelloise plus favorable à la compétitivité et à l’allègement réglementaire.
Autrement dit, dans les prochains mois, ce dossier pourrait devenir un test grandeur nature : soit Bruxelles assume une rupture avec ce « double standard », soit la promesse de 2020 s’enfonce un peu plus dans la zone grise de la politique industrielle européenne.
NewSpace européen : 2026, l’année de vérité pour la souveraineté orbitale
Avec les succès récents d’Ariane 6 et le retour des lancements institutionnels européens, comme le nouveau contrat signé pour les satellites Galileo, l’Europe tente de reconstituer une filière spatiale capable de garantir un accès autonome à l’orbite.
Mais le vrai défi industriel se joue désormais au-delà du lanceur lourd : dans la montée en puissance de MaiaSpace, qui vise des opérations commerciales en 2026, et des micro-lanceurs privés soutenus par le European Launcher Challenge, conçu pour faire émerger une offre plus agile et compétitive.
Le paysage reste toutefois instable : PLD Space avance vers un premier vol de Miura-5 en 2026, tandis qu’Orbex traverse une crise sévère, rappelant à quel point cette course mêle innovation, financement et exécution industrielle.
Les prochains mois seront donc décisifs : cadence d’Ariane 6, arbitrages de l’ESA sur ses futurs champions, premier tir de démonstration chez MaiaSpace ou nouveau test des start-up les plus avancées.
Au fond, le sujet qui monte n’est plus seulement spatial : c’est celui d’une Europe capable, ou non, de bâtir une base industrielle complète face à la pression de SpaceX et des nouveaux entrants privés.
Cobalt : la tension qui peut rebattre les cartes des batteries jusqu’en 2030
La tension sur le cobalt remet brutalement en lumière une fragilité majeure de la filière batterie : la dépendance au Congo, qui pèse pour environ 72 % de l’offre mondiale, alors que les quotas décidés après la suspension des exportations ont déjà fait bondir les prix et raréfié la matière disponible pour les fabricants.
Pour l’automobile et les producteurs de cellules, le sujet n’est plus seulement minier : il touche désormais le coût des batteries, la sécurisation des approvisionnements et l’arbitrage entre chimies riches en nickel-cobalt et solutions moins exposées comme le LFP.
La prochaine séquence se jouera d’abord sur l’exécution des quotas congolais et sur la reprise effective des flux vers la Chine, où les stocks mobilisés par Glencore montrent déjà que le marché est entré dans une zone de tension aiguë.
Ensuite viendra le test industriel de l’Indonésie, appelée à monter en puissance dans la chaîne batterie sans pouvoir, à ce stade, compenser pleinement le manque congolais.
Au fond, les prochains mois diront si cette crise reste un choc de court terme, ou si elle accélère une recomposition plus profonde de l’industrie batterie entre diversification minière, nouvelles chimies et redéfinition des stratégies d’achat des constructeurs.
Si son marché reste encore limité à l’échelle de l’industrie mondiale, son potentiel de transformation des procédés de conception, de production et de maintenance en fait un levier majeur de compétitivité technologique.
Dans un contexte marqué par l’accélération des investissements aux États-Unis et en Chine, la structuration de la filière européenne devient un enjeu critique. Jean-Daniel Penot, Président de France Additive, l’association qui fédère l’écosystème français de la fabrication additive, revient sur les dynamiques actuelles du secteur, les forces et fragilités de l’industrie française, ainsi que sur le rôle que cette technologie pourrait jouer dans les stratégies de réindustrialisation et de souveraineté industrielle.
Techniques de l’Ingénieur : La fabrication additive existe depuis plusieurs décennies. Où en est aujourd’hui son développement industriel ?
Jean-Daniel Penot : La fabrication additiveou impression 3D industrielle repose sur un ensemble de procédés dont les premiers brevets remontent aux années 1980. Pendant longtemps, ces technologies ont été utilisées principalement pour le prototypage ou pour des applications expérimentales.
Le véritable tournant intervient dans les années 2010, lorsque la technologie commence à être intégrée pour la production industrielles. Il faut toutefois bien comprendre qu’elle ne remplace pas les procédés traditionnels : elle s’y ajoute comme un procédé complémentaire, particulièrement pertinent pour certains types de pièces. Aujourd’hui, elle est notamment utilisée pour la production de petites séries, la fabrication de pièces de rechange ou encore la personnalisation industrielle. Dans le ferroviaire par exemple, certaines entreprises s’en servent pour produire des pièces dont les plans ont disparu ou dont les fournisseurs n’existent plus.
Quels sont aujourd’hui les principaux leviers de valeur de la fabrication additive pour l’industrie ?
Trois grands facteurs expliquent son intérêt. Le premier est la capacité à produire des pièces uniques ou des petites séries, notamment dans des contextes de maintenance ou de réparation. C’est particulièrement utile dans des secteurs où les cycles de vie des équipements sont très longs.
Le deuxième atout est la performance des pièces produites. La fabrication couche par couche permet de créer des géométries extrêmement complexes, impossibles à obtenir avec des procédés conventionnels. On peut ainsi optimiser les flux thermiques, les passages de fluides ou la structure mécanique d’un composant.
Dans le spatial, par exemple, certains moteurs de fusée intègrent désormais des pièces imprimées en une seule opération alors qu’elles nécessitaient auparavant l’assemblage de dizaines d’éléments.
Le troisième avantage est la flexibilité de production. Une même machine peut produire des pièces pour des secteurs très différents. Cette flexibilité s’est révélée particulièrement précieuse lors de la crise du Covid-19, lorsque certaines entreprises ont pu rapidement produire des équipements médicaux.
Quelle est aujourd’hui la taille du marché de la fabrication additive ?
Le marché mondial représente environ 25 milliards de dollars, ce qui reste relativement limité à l’échelle de l’industrie manufacturière. En France, on estime qu’il représente environ 500 millions d’euros.
Après une décennie de croissance très forte, parfois supérieure à 20 % par an, le secteur a connu un ralentissement entre 2024 et 2025. Plusieurs facteurs comme les incertitudes géopolitiques, les tensions commerciales ou encore le report de certains investissements industriels expliquent ce ralentissement.
Parallèlement, nous observons une phase de consolidation du marché, avec des acquisitions importantes et parfois des faillites d’acteurs technologiques.
Comment se positionne la France dans cet écosystème mondial ?
La France possède plusieurs atouts importants. Elle dispose d’abord de grands utilisateurs industriels – Safran, Airbus, ArianeGroup ou encore Michelin – qui ont joué un rôle moteur dans l’adoption de ces technologies.
Elle bénéficie également d’un écosystème de recherche dynamique, avec de nombreux laboratoires et une cinquantaine de thèses soutenues chaque année sur ces sujets.
Enfin, la France est présente sur une grande partie de la chaîne de valeur : logiciels, matériaux, machines et production de pièces. Le principal défi réside toutefois dans la taille des entreprises de la filière. Beaucoup d’acteurs restent de taille relativement modeste et peinent à atteindre une masse critique suffisante pour rivaliser avec leurs concurrents allemands ou américains.
Quel rôle joue France Additive dans cet environnement ?
France Additive est l’association qui fédère la filière française de la fabrication additive. Elle rassemble aujourd’hui environ 150 membres, couvrant l’ensemble de la chaîne de valeur : industriels, centres de recherche, utilisateurs finaux et institutions. Notre objectif est de structurer la filière et de favoriser les synergies entre ces acteurs. Il s’agit notamment de renforcer les échanges d’expérience, de créer des collaborations et de développer une véritable dynamique collective.
Comment cela se traduit-il concrètement ?
Notre action repose sur plusieurs axes. Nous organisons d’abord de nombreux événements et groupes de travail qui permettent aux industriels d’échanger sur leurs problématiques : certification, maturité technologique ou encore modèles économiques.
Nous travaillons également à l’internationalisation de la filière, en accompagnant les entreprises françaises sur les grands salons internationaux et en développant des partenariats avec d’autres organisations européennes.
Enfin, nous menons un travail de sensibilisation auprès des décideurs publics, afin de mieux faire comprendre les enjeux industriels et stratégiques de la fabrication additive.
Vous préparez également le lancement d’un observatoire de la fabrication additive. Pourquoi ?
Il existe encore peu de données consolidées sur l’état réel de la filière en France. Nous allons donc lancer un observatoire dédié, qui permettra de suivre l’évolution du secteur, de mesurer les investissements et de comparer la position française avec celle d’autres pays. L’objectif est de fournir aux acteurs publics et privés des indicateurs fiables pour mieux orienter les politiques industrielles.
La fabrication additive est souvent associée à la souveraineté industrielle. Est-ce justifié ?
Oui, absolument ! La fabrication additive est relativement peu sensible au coût de la main-d’œuvre, car la valeur repose principalement sur la machine et sur la conception de la pièce. Cela signifie qu’il est possible de produire de manière compétitive en Europe.
Elle peut donc contribuer à des dynamiques de relocalisation ou de réindustrialisation, notamment dans les secteurs à forte valeur ajoutée.
Mais son intérêt est surtout stratégique : dans certains domaines comme le spatial ou l’aéronautique, elle peut permettre de concevoir des produits radicalement nouveaux et donc de prendre un avantage technologique.
Quel rôle joue la fabrication additive dans les industries de défense ?
Elle est déjà très utilisée pour le maintien en condition opérationnelle des équipements. La fabrication additive permet de produire rapidement des pièces de rechange, y compris à proximité des zones d’opération. Cela réduit considérablement les contraintes logistiques. Dans certains conflits actuels, elle est utilisée pour réparer des équipements, produire des composants de drones ou adapter rapidement certains systèmes.
Cela ne remplacera évidemment pas les procédés industriels traditionnels, mais cela apporte une flexibilité opérationnelle importante.
Sommes-nous à un moment charnière pour la fabrication additive ?
Oui, clairement. Les investissements sont aujourd’hui très importants aux États-Unis et en Asie. Si l’Europe ne prend pas pleinement conscience du potentiel stratégique de cette technologie, elle risque de se retrouver dans une situation comparable à celle du solaire, où l’essentiel de la chaîne de valeur a été capté par d’autres régions du monde.
À l’inverse, si nous parvenons à structurer la filière et à soutenir l’innovation, la fabrication additive pourrait devenir un levier majeur de compétitivité pour plusieurs industries européennes.
Peut-elle transformer en profondeur l’industrie manufacturière dans les prochaines années ?
Elle ne remplacera pas les procédés industriels traditionnels. Mais elle va continuer à se diffuser dans de nombreux secteurs. Nous observons déjà une diversification très importante des applications, que ce soit dans l’aéronautique, l’énergie, le luxe, les biens de consommation, voire la construction.
La fabrication additive va donc progressivement prendre sa place dans l’écosystème manufacturier, là où elle apporte une véritable valeur ajoutée.
Dans un contexte où les frontières entre secteurs s’estompent, les annonces soulignent une dynamique européenne et internationale en pleine intensification.
🧠 IA & NUMÉRIQUE
L’automobile devient un moteur de croissance de l’industrie des puces
L’industrie automobile s’impose désormais comme un acteur central de la demande mondiale en semi‑conducteurs. La montée en puissance des véhicules électriques et des systèmes d’aide à la conduite stimule l’innovation, poussant les fabricants de puces à adapter leurs technologies aux exigences de sûreté et de fiabilité du secteur. Cette évolution redistribue progressivement les priorités industrielles et technologiques au niveau global.
🔗 Comment l’automobile redéfinit les puces
AMI Labs ou l’ambition d’une IA qui comprend le monde
AMI Labs présente une nouvelle approche de l’intelligence artificielle visant à modéliser la compréhension du monde réel. L’entreprise développe des systèmes capables d’intégrer des connaissances complexes, de raisonner et d’interagir de manière contextualisée. Le projet ambitionne de franchir un cap dans la conception d’IA généralistes tout en intégrant des critères de traçabilité et de sécurité.
🤖 Découvrir cette IA « qui comprend » le monde
Avec « Vera Rubin », Nvidia ambitionne de redéfinir les frontières de l’IA
Nvidia dévoile « Vera Rubin », une architecture pensée pour accélérer les capacités d’entraînement et d’inférence de modèles d’IA de très grande taille. Cette plate‑forme se distingue par une puissance de calcul accrue et une optimisation poussée du traitement distribué. Elle pourrait renforcer encore davantage la position dominante de Nvidia sur le marché des infrastructures IA.
⚙️Explorer le bond technologique de Vera Rubin
Laval Virtual 2026 : la XR industrielle et l’IA immersive au cœur du rendez-vous européen des technologies immersives
L’édition 2026 de Laval Virtual mettra l’accent sur la réalité étendue (XR) appliquée à l’industrie, ainsi que sur de nouvelles formes d’IA immersive. L’événement souhaite fédérer les acteurs européens autour d’usages concrets : formation, maintenance, supervision, collaboration homme‑machine. Une stratégie qui confirme la montée en maturité du marché XR professionnel.
🕶️ Aperçu des innovations XR attendues
🌍 SCIENCE, MATÉRIAUX & ESPACE
Ville lunaire durable : le défi des matériaux face à un environnement extrême
Le développement de futures infrastructures lunaires repose sur des matériaux capables de résister aux contraintes extrêmes : radiations, variations thermiques, abrasion, absence d’atmosphère. L’article explore les pistes d’ingénierie avancées, de l’utilisation du régolithe local aux nouveaux composites conçus pour optimiser durabilité et autonomie. Les premiers concepts posent les bases de futurs habitats extraterrestres.
🌕Comprendre les enjeux matériaux d’une ville lunaire
🔬 TECHNOLOGIES DE RUPTURE & INDUSTRIE EUROPEENNE
EURO-Q-EXA : un saut technologique pour l’Europe
EURO‑Q‑EXA marque une étape clé pour la souveraineté numérique européenne avec la mise au point d’un futur supercalculateur exploitant des technologies quantiques hybrides. Ce projet vise à renforcer les capacités de simulation, d’optimisation et de recherche fondamentale au sein de l’Union. Il s’inscrit dans une stratégie de long terme pour rivaliser avec les géants mondiaux du HPC.
🇪🇺 Voir comment l’Europe prépare son supercalcul quantique
Journées Usines Ouvertes : plus de 450 sites à découvrir les 20 et 21 mars prochains
L’initiative « Usines Ouvertes » propose d’explorer plus de 450 sites industriels en France. L’opération vise à valoriser les savoir‑faire, attirer de nouveaux talents et renforcer le lien entre industrie et société. Elle met également en lumière l’évolution des procédés productifs, de l’automatisation avancée aux démarches de décarbonation.
🏭 Plonger dans les coulisses de l’industrie française
✈️ AÉRONAUTIQUE & INDUSTRIE MONDIALE
Commande géante en Chine, Boeing joue un contrat majeur de plus de 500 avions
La Chine envisage une commande massive de plus de 500 avions auprès de Boeing, une opération susceptible de redéfinir l’équilibre du marché aéronautique mondial. Pour Boeing, ce contrat représenterait un soutien stratégique après plusieurs années complexes, tandis que la Chine renforcerait sa capacité de transport aérien pour accompagner la croissance de sa mobilité intérieure et internationale.
🛫 Analyser les enjeux d’un contrat aérien colossal
Le méthane est un puissant gaz à effet de serre d’origine humaine, le plus important après le CO2. Bien que sa durée de vie soit beaucoup plus courte, son effet sur le réchauffement climatique est 86 fois plus élevé que le CO2 sur une période de 20 ans. Après une progression régulière depuis 2007, sa concentration dans l’atmosphère s’est fortement accélérée à partir de 2020, culminant à 16,2 parties par milliard (ppb : part per billion), avant de redescendre à 8,6 ppb en 2023. Alors que jusqu’ici, cette évolution rapide a longtemps échappé à une explication claire, une étude internationale publiée dans la revue Science vient d’en révéler les deux causes principales.
Le premier facteur identifié concerne la chimie atmosphérique. Le méthane est principalement éliminé grâce aux radicaux hydroxyles (OH), qui sont souvent décrits comme jouant un rôle clé dans le « nettoyage » de l’atmosphère. Or, des analyses montrent que ces espèces chimiques ont connu une baisse entre 2020 et 2021, provoquant un affaiblissement du pouvoir oxydant de l’atmosphère.
Cette diminution serait en grande partie liée aux confinements instaurés pendant la pandémie de Covid-19. Durant cette période, certaines activités humaines, notamment le trafic routier et aérien, se sont en effet fortement réduites et ont entraîné une chute des émissions d’oxydes d’azote (NOx) et de monoxyde de carbone (CO). Ces deux composés ont la particularité d’être directement impliqués dans les réactions chimiques qui régulent la concentration de radicaux OH. Résultat : l’atmosphère a temporairement perdu une partie de sa capacité à dégrader le méthane.
Les chercheurs estiment que cette baisse des radicaux OH explique à elle seule entre 74 % et 80 % des variations annuelles du taux de croissance du méthane entre 2019 et 2023. Ce n’est que lorsque les niveaux de radicaux OH ont commencé à remonter en 2022 et 2023 que la capacité de destruction du méthane s’est à nouveau renforcée, contribuant à ralentir l’augmentation de sa concentration atmosphérique.
Le rôle grandissant des écosystèmes inondés
Mais la chimie atmosphérique ne suffit pas à expliquer la flambée du méthane. Les scientifiques ont aussi identifié une augmentation importante des émissions de méthane provenant de sources naturelles, notamment des zones humides (marais, lacs, sols saturés en eau…). Entre 2019 et 2020, les émissions mondiales auraient augmenté d’environ 22 millions de tonnes de méthane par an.
L’épisode météorologique nommé « La Niña » serait à l’origine de l’apparition de conditions climatiques plus humides sur la période 2020 à 2023. Il s’est caractérisé par des pluies abondantes, notamment en Afrique tropicale et en Asie du Sud-Est, et celles-ci ont provoqué une saturation des sols en eau. Ce phénomène a favorisé l’activité de micro-organismes dans les marais et les zones inondées, qui ont la capacité de produire du méthane à partir de la matière organique dans des milieux anaérobies. Lorsque les surfaces inondées s’étendent, les conditions deviennent donc particulièrement favorables à ces émissions.
Pour confirmer l’origine de cette hausse, les chercheurs ont également analysé la signature isotopique du méthane atmosphérique. Les différentes sources de méthane (fossiles, incendies ou processus biologiques) laissent en effet des empreintes chimiques distinctes. Les scientifiques ont observé une diminution de la proportion de carbone-13 dans le méthane atmosphérique, qui correspond à une signature compatible avec des sources de méthane d’origine microbienne dans les zones humides ou les écosystèmes inondés. À l’inverse, les scénarios impliquant une forte hausse des émissions provenant des combustibles fossiles ou des incendies ne reproduisent pas ces signatures isotopiques.
L’étude souligne également les limites des modèles actuellement utilisés, en particulier leur capacité à représenter la variabilité de l’étendue des zones humides ainsi que du niveau des eaux. Les chercheurs recommandent donc d’améliorer la surveillance de ces écosystèmes, à l’aide d’images satellitaires, combinées à des mesures isotopiques plus précises. Contrairement à certaines hypothèses, cette publication montre que les émissions issues des combustibles fossiles et des feux de forêt ont joué un rôle mineur dans l’augmentation récente de la concentration de méthane dans l’atmosphère.
Après l’eau, le ciment est la ressource la plus consommée par l’humain, au détriment de l’environnement. Plus de 4 milliards de tonnes sont ainsi produites annuellement émettant plus de 8 % du CO2 anthropique. Ce matériau est fabriqué à partir de calcaire (source de calcium) et d’argiles (source de silicium, d’aluminium et de fer) extraits dans des mines. Les deux minéraux sont ensuite broyés et chauffés à 1 500°C en grande majorité grâce à des énergies fossiles. Au cours de ce processus, qui s’appelle la calcination, le calcaire libère du CO2 en grande quantité : 0,8 tonne pour chaque tonne de ciment. « Les émissions liées au ciment viennent à 60 % du procédé chimique en lui-même. Même si on utilise des énergies vertes, il ne sera pas possible de décarboner complètement ce secteur pour tendre vers la neutralité carbone. C’est pour cela que nous avons conçu un ciment qui ne contient pas de calcaire, basé sur une autre chimie », explique Mohend Chaouche, directeur de recherche au CNRS et spécialiste en science des matériaux. Depuis dix ans, il collabore avec les industriels pour développer des ciments à bas carbone. Certains ont déjà été employés dans le chantier du grand Paris ou encore au village olympique. En 2020, en partenariat avec la professeure Fatma Briki de l’université Paris-Saclay, il a fabriqué un ciment qui serait neutre en carbone à la production, dans le cadre du projet Cimen soutenu par CNRS-Innovation. Ce dernier a abouti au dépôt d’un brevet CNRS, et se poursuit au sein du projet Concerto épaulé par la Commission européenne à travers le programme Horizon Europe.
S’émanciper du calcaire
Pour produire ce ciment, les inventeurs et inventrices utilisent une matière première de départ constituée de roches dites ultramafiques, abondantes à travers le monde et distribuées sur le littoral, principalement au niveau des zones de subduction où se rencontrent les plaques tectoniques. En Europe, on retrouve ainsi de larges gisements le long de la côte Océanique Espagnole, au sud de la France et de l’Angleterre, en Norvège et dans les Alpes. « Ces roches sont dites plutoniques et durcissent avant leur remontée en surface terrestre en refroidissant au contact de l’eau. Elles contiennent du magnésium et du silicium en proportions idéales pour ce nouveau ciment. Une fois extraites, elles sont traitées selon un procédé mécano-chimique complètement électrifiable, ce qui nous permet d’utiliser des énergies renouvelables », explique le chercheur. Toute la difficulté de cette technique est de rendre cette roche réactive et c’est sur cette partie que les laboratoires ont déposé leur brevet. Pour l’instant le projet en est encore au TRL 4. Les prochaines années verront la montée en puissance du procédé afin de passer à l’échelle industrielle et à la création d’une start-up pour installer un premier pilote.
Aujourd’hui les cimenteries sont situées au plus près du calcaire, c’est-à-dire à l’intérieur des terres. Le ciment est ensuite déplacé jusqu’aux chantiers. Si la production de ce ciment peut être décarbonée, reste que le transport continue d’émettre du CO2, tant que les camions fonctionnent à l’énergie fossile. « Nous ne pouvons pas résoudre tous les problèmes, dès que nous consommons, il y a un impact. En décarbonant la fabrication, nous éliminons tout le CO2 issu du procédé chimique. En outre, comme notre méthode est électrifiable, les émissions dues aux énergies fossiles sont absentes, ce qui n’est pas le cas du ciment classique. Par ailleurs, le procédé de fabrication de notre ciment consomme trois fois moins d’énergie que celui du ciment classique. Mais étant donné que nous utilisons de l’électricité, cela nous coûte plus cher. Nous devons encore optimiser la procédure afin qu’elle soit compétitive », ajoute Mohend Chaouche. Dans le cadre du projet Horizon Europe, ils réaliseront une analyse de cycle de vie de leurs procédés.
Un écosystème international de l’innovation immersive
Avec plus de 5 000 visiteurs issus d’environ 35 pays, le salon constitue une porte d’entrée vers l’écosystème international de la XR. Les participants couvrent un large spectre de profils : décideurs industriels, ingénieurs, scientifiques, créateurs de contenus ou encore start-ups spécialisées dans les technologies immersives.
Au-delà de l’exposition, l’événement fonctionne comme un véritable écosystème favorisant les échanges entre exposants, conférenciers, chercheurs et investisseurs. L’objectif est de soutenir la collaboration et d’accélérer l’intégration des technologies immersives dans les chaînes de valeur industrielles, notamment pour la simulation, la formation et la conception collaborative.
XR, IA et nouvelles interfaces : les tendances 2026
L’édition 2026 mettra notamment en avant plusieurs tendances technologiques, dont la convergence entre intelligence artificielle et environnements immersifs, les interfaces homme-machine avancées, les dispositifs haptiques ou encore les technologies de scan volumétrique et de capture de mouvement. De nouvelles méthodes de rendu 3D, telles que le Gaussian Splatting, ainsi que les approches multisensorielles intégrant toucher ou odeur figurent également parmi les thématiques émergentes.
Le programme s’articulera autour de plusieurs formats : exposition d’entreprises, conférences professionnelles, Tech Talks destinés aux développeurs et Doctoral Consortium permettant à des doctorants de présenter leurs travaux à des experts industriels et académiques. Des compétitions internationales viendront également mettre en avant des projets portés par des start-ups, des laboratoires ou des étudiants.
Un observatoire des usages industriels de la XR
À mesure que les technologies immersives se diffusent dans l’industrie, la santé, la formation ou la simulation, Laval Virtual permet de suivre les évolutions du secteur. L’édition 2026 devrait ainsi offrir un aperçu des applications émergentes et des futurs usages de la XR dans les environnements professionnels.
A l’occasion de Laval Virtual 2026, l’article suivant est en consultation libre jusqu’au 15 avril 2026 :
Boeing se rapproche d’une opération qui pourrait compter parmi les plus importantes de son histoire récente. Des discussions portent sur jusqu’à 500 737 MAX, avec en parallèle des échanges sur environ 100 787 et 777X. Une telle opération constituerait la première grande commande chinoise pour Boeing depuis près d’une décennie, dans un marché qui avait longtemps absorbé chaque année des centaines d’avions Airbus et Boeing avant un net ralentissement des livraisons ces dernières années.
Le volume évoqué souligne l’importance de la demande aérienne chinoise. Les besoins du pays restent élevés, avec un marché intérieur et régional qui continue d’exiger des appareils de renouvellement et de croissance. Des analystes cités par Reuters estiment qu’il faut au moins 1 000 avions importés pour soutenir l’expansion du trafic et remplacer les appareils plus anciens. Dans ses propres projections, Boeing anticipe pour la Chine une flotte commerciale de 9 755 avions en 2044, contre 9 000 livraisons attendues sur la période dans son panorama mondial par région.
Cette perspective redonnerait du poids à Boeing en Chine, où la présence commerciale du constructeur s’est contractée. Les commandes fermes d’origine chinoise ne représentent plus qu’environ 2 % du carnet de Boeing, avec 133 appareils identifiés, même si une partie du carnet attribué à des clients non nommés pourrait inclure des transporteurs chinois. Dans le même temps, Pékin mène aussi des discussions sur une autre commande de 500 avions Airbus, ce qui montre que les choix d’achat restent insérés dans un arbitrage industriel et diplomatique plus large.
Un dossier commercial étroitement lié au contexte politique
La vente potentielle ne relève pas uniquement des besoins des compagnies aériennes. Son calendrier a été associé à la rencontre prévue entre Donald Trump et Xi Jinping, initialement annoncée entre le 31 mars et le 2 avril 2026 à Pékin. Le projet de sommet devait aussi servir de cadre à d’autres discussions commerciales, notamment sur les achats chinois de produits agricoles américains et sur plusieurs points de friction entre les deux pays.
Ce schéma a néanmoins été modifié. Le 18 mars 2026, la Maison Blanche a indiqué que la Chine avait accepté de reporter la visite du président américain à Pékin, initialement prévue deux semaines plus tard. Il a été précisé qu’une nouvelle date devait être recherchée rapidement, Donald Trump évoquant un déplacement en Asie dans cinq à six semaines en raison des contraintes liées à la guerre en Iran. Le possible accord aéronautique ne disparaît pas pour autant, mais son annonce éventuelle n’est plus arrimée au calendrier initial.
Le dossier illustre aussi la dépendance des grands contrats aéronautiques aux relations bilatérales. En avril, dans un contexte de tensions commerciales, les compagnies chinoises avaient été amenées à suspendre temporairement la réception de nouveaux avions Boeing avant une reprise plus tard au printemps. Des mois de discussions ont ensuite repris autour d’une commande de grande ampleur. Les échanges engagés à l’été 2025, puis encore à l’automne lors d’une visite de parlementaires américains à Pékin, montraient déjà que ce contrat était considéré comme un enjeu stratégique pour la relation commerciale sino-américaine.
Un signal industriel majeur pour Boeing
Pour Boeing, l’enjeu dépasse la seule valeur symbolique. Une commande de cette taille renforcerait la visibilité du 737 MAX, programme essentiel pour la montée en cadence du groupe. Le constructeur prévoit d’ailleurs d’augmenter la production mensuelle du 737 MAX de 42 à 47 appareils au milieu de l’année 2026 et vise environ 500 livraisons sur l’ensemble de l’exercice. Une décision d’achat de grande ampleur en Chine conforterait donc à la fois la charge industrielle et la lisibilité commerciale du constructeur sur le moyen terme.
Le volet gros-porteurs aurait également une portée particulière. Les discussions portant sur des 787 et des 777X signalent un intérêt qui ne se limite pas aux liaisons domestiques ou régionales, mais touche aussi les besoins de long-courrier et de renouvellement de flotte sur des segments plus exigeants. À ce stade, plusieurs points restent toutefois non résolus et aucune confirmation officielle n’a été donnée par Boeing sur l’aboutissement du contrat. La négociation reste donc ouverte, avec un volume potentiel considérable, une forte dimension diplomatique et un impact possible sur l’équilibre entre Boeing, Airbus et le marché aérien chinois dans les prochains mois.
En permettant de produire des pièces directement à partir d’un modèle numérique par superposition de couches de matière, la fabrication additive ouvre de nouvelles perspectives en matière de conception, de production et de logistique industrielle. Dans un contexte de recomposition des chaînes d’approvisionnement et de tensions géopolitiques, elle est de plus en plus perçue comme un outil potentiel de souveraineté industrielle pour la France et pour l’Europe. Toutefois, si ses atouts sont réels, ses limites montrent qu’elle ne peut constituer à elle seule une solution globale de réindustrialisation. Voyons pourquoi.
Tout d’abord, la fabrication additive présente de nombreuses caractéristiques qui en font un outil intéressant pour renforcer l’autonomie industrielle. Contrairement à de nombreux procédés traditionnels, elle ne nécessite pas d’outillage spécifique : une pièce peut être produite directement à partir d’un fichier numérique. Cette capacité permet de réduire les délais de fabrication et d’accélérer le développement de nouveaux produits. Elle offre également une grande flexibilité industrielle, puisqu’une même machine peut produire des pièces très différentes selon les besoins.
Cette flexibilité ouvre la voie à des modèles de production plus locaux. Les pièces peuvent être fabriquées au plus près de leur lieu d’utilisation. Cela permet de réduire les dépendances logistiques, et limite les risques de ruptures d’approvisionnement. Dans certains secteurs industriels, comme la maintenance ferroviaire ou aéronautique, l’impression 3D permet déjà de produire rapidement des pièces de rechange lorsque les fournisseurs ont disparu ou que les délais d’approvisionnement sont trop longs.
Plus largement, la fabrication additive permet de renforcer la résilience des chaînes de valeur industrielles en réduisant la dépendance à des fournisseurs uniques ou à des chaînes logistiques complexes, un atout qui compte énormément depuis la crise de la Covid, et les tensions géopolitiques qui n’ont cessé de s’enchaîner depuis.
Une technologie adaptée à la fabrication de pièces à haute valeur ajoutée
Un autre avantage stratégique réside dans la capacité de cette technologie à produire des pièces aux géométries complexes et optimisées. La fabrication couche par couche permet en effet de concevoir des composants plus légers, plus performants et intégrant plusieurs fonctions en une seule pièce. Dans l’aéronautique ou le spatial par exemple, ces innovations peuvent générer des gains de performance significatifs et réduire le nombre d’assemblages nécessaires.
Cependant, les limites de la fabrication additive invitent à la prudence. Tout d’abord, le marché de l’impression 3D reste encore relativement restreint à l’échelle de l’industrie mondiale. Bien que la technologie progresse rapidement, elle ne représente aujourd’hui qu’une part très limitée de la production manufacturière globale. Par ailleurs, la fabrication additive est bien plus adaptée aux petites séries, aux pièces complexes ou à forte valeur ajoutée qu’à la production de masse. Dans de nombreux cas, les procédés industriels traditionnels demeurent plus compétitifs pour fabriquer de grandes quantités de pièces simples.
Un autre défi concerne la maîtrise complète de la chaîne technologique. La fabrication additive implique non seulement des machines et des matériaux spécifiques, mais aussi des logiciels, des bases de données et des compétences de conception avancées. La souveraineté industrielle suppose donc une maîtrise globale de cet écosystème technologique, depuis la conception numérique jusqu’au contrôle des pièces produites.
Une concurrence internationale intense
Enfin, la concurrence internationale constitue un enjeu majeur. Les investissements dans la fabrication additive sont particulièrement importants aux États-Unis et en Asie, où de nombreux acteurs cherchent à prendre des positions dominantes dans les machines, les matériaux ou les plateformes numériques associées. Dans ce contexte, la France et l’Europe doivent renforcer leurs capacités industrielles afin d’éviter un décrochage technologique.
Pour résumer, la fabrication additive peut contribuer à la souveraineté industrielle en apportant flexibilité, innovation et résilience aux chaînes de production. Mais son impact dépendra largement de la capacité à structurer une filière industrielle complète et compétitive. Plutôt qu’une révolution totale de l’industrie, elle apparaît aujourd’hui comme un levier stratégique parmi d’autres pour renforcer la compétitivité et l’autonomie technologique de l’industrie française.
Au-delà de l’annonce spectaculaire du fondateur de « SpaceX », la perspective d’une ville lunaire renvoie à une question centrale pour l’ingénierie spatiale : la capacité des infrastructures à fonctionner durablement dans un environnement extrême. La Lune constitue en effet un laboratoire naturel où se combinent des contraintes rarement réunies ailleurs : amplitudes thermiques majeures, flux radiatif élevé, impacts de micrométéorites, et régolithe très abrasif. Dans ces conditions, la fiabilité des matériaux et des systèmes devient un enjeu central.
Un environnement qui redéfinit le dimensionnement des structures
À la surface de la Lune, l’alternance des jours et des nuits lunaires provoque des variations de température particulièrement importantes, pouvant aller d’environ -133°C à plus de +120°C (au niveau de l’équateur). Ce différentiel thermique d’environ 250°C se traduit par des dilatations significatives des structures. À titre d’exemple, pour un module habitable de 10 m de longueur, fabriqué en aluminium (coefficient de dilatation thermique linéaire : 23 × 10⁻⁶ °C⁻¹), l’allongement serait proche de 6 cm*. Par ailleurs, la répétition de ces cycles thermiques aboutit à la fatigue thermique qui réduit la durée de vie des structures.
À ces contraintes s’ajoute une exposition directe au rayonnement spatial. Dépourvue d’atmosphère et de magnétosphère, la surface lunaire reçoit un flux important de particules énergétiques. Les mesures de l’instrument « LND » embarqué sur le robot « Chang’E 4 » indiquent des doses annuelles de l’ordre de 500 mSv. Outre l’enjeu de la protection des astronautes, ces radiations peuvent altérer les matériaux utilisés, en particulier les polymères et certains composites, susceptibles de se fragiliser progressivement et de perdre en élasticité.
Une contrainte supplémentaire de taille réside dans le régolithe lunaire lui-même. Ce « sol » minéral, composé de particules anguleuses de plusieurs dizaines de micromètres et chargées électrostatiquement, adhère facilement aux surfaces. Son caractère abrasif favorise l’usure et la contamination des matériaux. Les scientifiques tentent de créer une solution potentielle à ce problème en développant un dispositif nommé Electrodynamic Dust Shield (EDS), capable de repousser la poussière lunaire grâce à des électrodes qui créent un champ électrique non uniforme autour de la surface protégée.
Le régolithe comme matériau de construction : solution concrète ou illusoire ?
Le régolithe lunaire est étudié comme matériau de construction potentiel dans le contexte de l’In Situ Resource Utilization (ISRU), qui consiste à exploiter les ressources disponibles directement sur la Lune afin de limiter les masses transportées à partir de la Terre et le coût correspondant. Transformé par frittage thermique ou par fusion partielle, il peut former des blocs ou des structures consolidées. Des essais réalisés sur des simulants de régolithe transformés indiquent des densités comprises entre 2,5 et 3 g/cm³, et une résistance moyenne à la compression de l’ordre de 30 MPa (comme dans le cas du frittage par micro-ondes ou par laser) – des valeurs dans le même ordre de grandeur que celles du béton conventionnel. Des expérimentations conduites par l’Agence Spatiale Européenne (ESA) ont également abouti à la fabrication, par impression 3D, d’un bloc de démonstration de 1,5 tonne à partir d’un simulant de sol lunaire.
Outre son intérêt comme matériau de construction, le régolithe pourrait jouer un rôle de blindage protectif contre les radiations. Les études du centre de recherche NASA Langley estiment que 300 g/cm2 de régolithe de densité 1,6 g/cm³ (correspondant à une couverture de près de 2 m) seraient nécessaires au minimum pour réduire l’exposition aux radiations à 270 mSv/an environ. D’autre part, une étude utilisant l’outil numérique « OLTARIS » propose l’utilisation de 160 g/cm2 de ce même type de régolithe pour garder la dose effective des radiations en dessous de 150 mSv en 180 jours, ou d’un blindage multicouches avec aluminium et polyéthylène intégrés pour davantage d’efficacité. Néanmoins, de telles protections nécessitent la manipulation de plusieurs tonnes de matériaux par mètre carré d’unités construites, ce qui rend le défi autant logistique et énergétique que structurel. Même dans ces configurations-là, le niveau d’exposition resterait nettement supérieur à la limite annuelle moyenne de 20 mSv recommandée par la Commission Internationale de Protection Radiologique (ICRP) pour les professionnels exposés aux rayonnements ionisants.
Les matériaux fonctionnels : piliers invisibles d’une ville lunaire
Au-delà de la durabilité des structures et des matériaux de construction, l’autonomie énergétique reste une préoccupation essentielle. En raison d’une nuit lunaire d’environ quatorze jours terrestres, la production d’électricité de source solaire sur la Lune est intermittente. Les installations photovoltaïques doivent être alors combinées à des dispositifs capables d’assurer une alimentation électrique continue. Or les batteries lithium-ion, aujourd’hui largement utilisées pour le stockage de l’énergie dans les systèmes spatiaux, voient leurs performances diminuer fortement à basse température (inférieure à -20°C) si elles ne sont pas maintenues dans une plage thermique contrôlée.
D’où un autre défi majeur : la gestion thermique. En l’absence d’atmosphère, la dissipation de chaleur ne peut se faire que par rayonnement. Les équipements électroniques, les systèmes de stockage d’énergie et les modules pressurisés produisent pourtant une quantité importante de chaleur. Des radiateurs thermiques, associés à des revêtements optiques à forte émissivité ou à des matériaux à changement de phase, sont ainsi étudiés afin de stabiliser la température des infrastructures lunaires. Certaines recherches portent notamment sur des radiateurs « intelligents » intégrant le « VO₂ », un composé thermochromique capable de moduler son émissivité infrarouge et de réguler la dissipation de chaleur par rayonnement.
Enfin, les systèmes de support de vie reposent eux aussi sur des matériaux spécialisés. Des adsorbants solides permettent par exemple de capter le dioxyde de carbone de l’air intérieur, tandis que des membranes filtrantes et des catalyseurs interviennent dans les systèmes de recyclage de l’eau et de l’air. L’électrolyse de l’eau issue du système de récupération permet quant à elle la génération de l’oxygène nécessaire à la respiration.
Bien que l’efficacité de ces systèmes fonctionnels, utilisés dans les stations spatiales, reste à démontrer dans l’environnement lunaire, elle devrait constituer une partie intégrante de toute stratégie de construction autonome in situ.
La perspective d’une ville lunaire durable relève autant d’une vision scientifique que de l’ambition. Si l’échéance de dix ans paraît audacieuse, elle pourrait aussi jouer un rôle d’accélérateur pour la recherche et l’innovation technologique. Entre contraintes environnementales extrêmes et exploitation des ressources locales, la fiabilité des matériaux constitue un élément clé d’une présence humaine prolongée sur la Lune. À plus de 380 000 km de la Terre, celle-ci pourrait ainsi devenir le laboratoire grandeur nature de l’ingénierie des matériaux du futur.
Toujours plus loin. Nvidia occupe aujourd’hui plus de 80 % du marché, mais le fondeur californien ne cesse de repousser les limites et les frontières. En baptisant sa prochaine puce Vera Rubin (du nom d’une astronome américaine dont les travaux ont confirmé l’hypothèse de la présence de matière noire dans la périphérie des galaxies), le fondeur veut révolutionner l’IA agentique.
Sur son site, l’entreprise indique que « la plateforme NVIDIA Rubin est conçue pour l’ère de l’IA agentique et du raisonnement, et elle est pensée pour maîtriser la résolution de problèmes en plusieurs étapes et les workflows massifs à long contexte à grande échelle. »
L’architecture Vera Rubin, dont la production en volume est prévue pour le second semestre 2026, repose sur une synergie inédite entre calcul et mémoire. Là où les générations précédentes se concentraient sur la puissance brute, la plateforme Rubin est pensée comme un écosystème global.
Le cœur de cette machine est le GPU Rubin, qui promet d’atteindre 50 pétaflops de performance, soit 2,5 fois plus que la Blackwell Ultra, la puce de Nvidia sortie en août 2025. Mais, le véritable « game-changer » réside dans l’intégration de la mémoire HBM4.
Avec une bande passante atteignant les 22 To/s, Nvidia s’attaque au goulot d’étranglement historique du secteur. Pour les LLM dépassant le billion de paramètres, cette fluidité signifie une réduction drastique du temps d’inférence et, par extension, une baisse des coûts opérationnels pour les entreprises.
Trois défis majeurs
Mais, pour relever ces défis, Nvidia a dû maîtriser la gravure en trois nanomètres (procédé N3 de TSMC). Un niveau de gravure qui présente des contraintes physiques et logistiques majeures.
Le premier défi a été thermique. Avec une consommation pouvant grimper jusqu’à 2 300 W par accélérateur (contre 1 200 W pour les générations actuelles), le refroidissement par air devient obsolète. Le passage massif au refroidissement liquide direct est désormais une obligation, imposant une refonte totale de l’infrastructure des centres de données.
Le second casse-tête a été la fabrication car cette nouvelle puce s’appuie sur un design « multi-die » ultra-complexe. Assembler 336 milliards de transistors demande une précision chirurgicale.
Il y a enfin le contexte géopolitique. Les restrictions d’exportation vers certains marchés comme la Chine forcent Nvidia à scinder ses lignes de produits, complexifiant la rentabilité de la recherche et développement (R&D).
L’arrivée de Vera Rubin est aussi un moyen pour Nvidia de conserver sa position de leader. Car ses concurrents le marquent à la culotte ! AMD, son principal challenger, mise sur une stratégie agressive en matière de mémoire. L’Instinct MI450X, attendu à la même période, cherche à concurrencer directement Rubin sur la bande passante, en se positionnant comme une alternative plus ouverte grâce à l’écosystème logiciel ROCm.
Les géants du cloud développent aussi leurs propres puces (TPU, Trainium 3) pour être moins dépendants de Nvidia. Leur avantage ? Elles sont conçues spécifiquement pour leurs propres charges de travail, procurant une efficacité énergétique que Nvidia, qui doit rester polyvalent, peine parfois à égaler.
Reste aussi le fondeur historique américain, Intel. Après des années difficiles, Intel mise sur le rapport performance-prix pour séduire les entreprises qui n’ont pas les moyens de s’offrir les « superclusters » de Jensen Huang.
Si Nvidia semble conserver une avance technologique confortable, le coût énergétique et la complexité d’implémentation de ces nouveaux monstres de silicium ouvrent en effet une brèche pour des concurrents plus agiles ou spécialisés.
La bataille pour le cerveau de l’IA ne fait que commencer…
Vous cherchez la meilleure solution pour emballer vos marchandises ? Qu’il s’agisse d’objets de valeur, fragiles ou encombrants, sachez qu’il existe des options d’emballage adaptées à chaque besoin, notamment en carton.
Mais attention, un carton mal choisi peut entraîner des dommages, des retours clients et des coûts supplémentaires ! À l’inverse, un carton adapté permet de protéger efficacement vos articles et de les expédier en toute sécurité.
La première chose à vérifier, c’est que la forme du carton correspond au type de produit que vous expédiez. Dans la plupart des cas, les boîtes rectangulaires sont choisies pour leur polyvalence et leur facilité de stockage. Elles s’empilent facilement, optimisent l’espace et s’adaptent à une grande variété de marchandises.
Cependant, il existe aussi des formats spécifiques pour les objets aux dimensions irrégulières ! Par exemple, un carton plat conviendra parfaitement à un article fin tel qu’un livre, un document ou un cadre. De son côté, un carton cylindrique sera plus approprié pour expédier une affiche roulée, un poster ou un plan.
Choisir le bon format permet :
de limiter les mouvements à l’intérieur du colis ;
de réduire la quantité de calage nécessaire ;
et d’optimiser l’espace lors du transport.
Plus le produit est maintenu, moins il risque de subir des chocs, et c’est un point à ne pas sous-estimer !
La taille du carton
Une fois que vous avez trouvé la forme, il vous faut ajuster la taille. En effet, un carton trop grand augmente l’espace vide, nécessite plus de rembourrage et augmente le coût d’expédition. En revanche, un carton trop petit peut exercer une pression excessive sur votre marchandise et l’endommager.
La taille idéale est donc celle qui vous permet de conserver une marge suffisante pour la protection. En règle générale, il faut prévoir entre 2 et 5 cm d’espace autour du produit.
Un carton bien dimensionné permet :
d’éviter le surcoût lié au poids volumétrique ;
d’optimiser la préparation des commandes ;
et de faciliter le stockage en entrepôt.
L’épaisseur du carton
L’épaisseur détermine la résistance du carton. On distingue généralement :
le carton simple cannelure, adapté aux produits légers (jusqu’à 10 kg) ;
le carton double cannelure, recommandé pour les articles plus lourds ou fragiles (entre 10 et 30 kg) ;
le carton triple cannelure, utilisé pour les charges importantes (au-delà de 30 kg) ou les expéditions longue distance.
Plus le produit est lourd ou sensible aux chocs, plus le carton doit être robuste. Néanmoins, si votre marchandise n’est pas fragile, opter pour une version plus épaisse ne fera qu’alourdir le colis et augmenter les coûts.
Le bon compromis consiste à adapter la résistance au poids réel de la marchandise et aux contraintes de transport (empilement, manutention ou durée du trajet).
Les protections supplémentaires
Même avec un carton bien dimensionné, une protection interne est parfois indispensable pour les produits fragiles. Papier froissé, coussins d’air ou film bulle sont souvent utilisés pour stabiliser la marchandise et absorber les chocs pendant le transport.
Il existe également des cartons avec un système de protection intégré. En effet, certains modèles sont dotés d’un calage prédécoupé ou d’une mousse intérieure, ce qui limite les mouvements sans ajouter de matériaux supplémentaires.
Opter pour un modèle avec protection intégrée peut simplifier la préparation des colis, tout en garantissant un excellent niveau de sécurité !
Sécurisez vos expéditions avec des cartons adaptés
Pour choisir le carton adapté à vos marchandises, vous devez donc prendre en compte la forme, la taille, l’épaisseur et le niveau de protection attendu.
En plus de garantir une expédition sécurisée, investir dans les bons emballages permet d’optimiser toute la chaîne logistique : faciliter la préparation des commandes, réduire le temps de mise en colis, limiter les retours et simplifier le stockage.
Alors, prenez le temps d’analyser la nature de vos produits et vos contraintes logistiques afin de sécuriser vos envois et d’améliorer l’efficacité de votre organisation.
Un carton bien choisi, c’est une marchandise protégée et une expédition maîtrisée !
Tous les participants se sont montrés très motivés et ont obtenu de très bons résultats, bravo à eux !
Voici le classement des équipes :
L’équipe : « les nilpotents » avec un score de 70,69% de bonnes réponses de l’INSA Rouen
L’équipe : « Akatsuki » avec un score de 68,26% de l’INSA Rouen
L’équipe : « les 7 nains avec un score de 53,15% de l’ENSICAEN
L’équipe : « Caenbattants » avec un score de 38,08% de l’ENSICAEN
L’équipe : « wigga » avec un score de 37,27% de l’ENSICAEN
Ils ont également eu l’occasion de remporter des récompenses attractives, allant d’un week-end à Paris pour les premiers à un escape game pour les deuxièmes et des goodies pour les autres.
Vous n’avez pas participé cette année ? Envie de relever le défi et de remporter des lots incroyables vous aussi ? Restez connectés et suivez nos publications : un prochain Défi pourrait bien être lancé très bientôt !
Inspirée des Journées du Patrimoine, cette initiative d’ampleur nationale vise à rapprocher les Françaises et Français de tous âges et de tous statuts – lycéens, demandeurs d’emploi, grand public… – des usines qui maillent le territoire. L’action se veut à la fois un moyen de sensibiliser le public aux enjeux de la réindustrialisation, une opportunité pédagogique pour les enseignants, et un moyen de susciter des vocations chez les jeunes comme chez les personnes en reconversion, auprès desquels l’industrie souffre encore, en effet, d’un lourd déficit d’image et d’attractivité. C’est ce que nous explique Stéphane Gorce, président de la Société des ingénieurs Arts et Métiers, qui revient également pour Techniques de l’Ingénieur sur la conjoncture et les grands enjeux auxquels l’industrie française se trouve aujourd’hui confrontée.
Techniques de l’Ingénieur : Quel bilan tirez-vous de la première édition de ces Journées Usines Ouvertes, lancées l’an dernier ? Sur quelles évolutions avez-vous travaillé pour cette deuxième édition qui se profile ?
Stéphane Gorce : L’édition 2025 des Journées Usines Ouvertes a permis à 20 000 personnes environ de visiter près de 240 usines en France. Les acteurs de l’écosystème pro-industrie ont bien perçu l’impact de cette initiative inspirée des Journées du patrimoine, visant à réconcilier les Français et l’industrie. Ce qui représente un véritable défi collectif…
Depuis cette première édition de l’an dernier, nous avons pu développer de multiples partenariats. La Société des ingénieurs Arts & Métiers est notamment devenue membre du comité de pilotage de la Semaine de l’industrie. Nous avons également intégré le comité de pilotage de l’Année de l’Ingénierie, sous l’égide du CNRS. Nous avons aussi développé des relations avec France Travail, que cette initiative intéresse particulièrement : elle est une belle occasion, pour des personnes en recherche d’emploi, de découvrir un environnement qu’elles connaissent souvent mal, voire n’imaginent peut-être même pas… Nous avons par ailleurs beaucoup travaillé avec Forindustrie, pour permettre notamment aux gagnants de cette initiative inspirée des jeux vidéo de visiter des sites accessibles à l’occasion de ces Journées Usines Ouvertes.
Alors que, l’an dernier, nous avions pensé et organisé l’évènement essentiellement depuis nos bureaux de l’Avenue d’Iéna[1], cette année, nous nous sommes davantage appuyés sur nos 120 correspondants territoriaux, mais avons aussi eu l’opportunité de travailler en étroite collaboration avec France Industrie, ainsi que les quelque 180 correspondants locaux de Territoires d’Industrie.
Leur implication à nos côtés nous a permis de concrétiser l’ambition que j’ai souhaité donner à cette deuxième édition : territorialiser l’évènement. C’est une très bonne nouvelle, et le travail partenarial que nous avons mené y est pour beaucoup. L’organisation de l’évènement reste, certes, assurée par les Gadz’Arts, mais les parties prenantes sont désormais beaucoup plus larges.
Combien de sites le public pourra-t-il découvrir cette année ?
Nous tablons, à ce jour [interview réalisée le lundi 9 mars 2026, n.d.l.r.] sur l’ouverture d’environ 460 usines. À la mi-janvier, nous avons organisé un webinaire d’information, à l’occasion duquel 120 entreprises environ étaient présentes… Elles ont pu exprimer leur satisfaction vis-à-vis de la première édition de l’an passé. Cela a contribué à rassurer les nouveaux participants à cette deuxième édition des Journées Usines Ouvertes – qui sont donc nombreux !
Outre le renforcement du maillage territorial de l’évènement, ce quasi-doublement du nombre de sites accessibles reflète-t-il également un élargissement des secteurs industriels représentés ?
Oui, absolument ! Nous aurons par exemple beaucoup plus d’entreprises dans le domaine de l’agroalimentaire ou encore de la chimie, qui étaient assez minoritaires l’an dernier. Nous sommes heureux d’avoir sur la liste des sites ouverts beaucoup de grands noms de l’industrie, mais aussi d’acteurs moins connus.
Comme vous le dites, la répartition des sites sur le territoire est aussi améliorée. Je pense par exemple à la région toulousaine, peu représentée l’an dernier, mais pour laquelle de nombreuses usines seront ouvertes cette année. Il s’agit-là d’un signe supplémentaire du passage à la vitesse supérieure de ces Journées Usines Ouvertes. Bien que nous ne l’ayons sans doute pas encore atteinte, nous avançons doucement mais sûrement vers notre vitesse de croisière.
Quelle affluence espérez-vous ? Quels sont les publics cibles de l’évènement ?
Nous espérons à nouveau atteindre les 20 000 visiteurs, voire davantage, puisque la campagne de communication auprès du grand public n’a pas encore commencé [au 9 mars, n.d.l.r.]. La bonne nouvelle pour nous est que le public scolaire semble déjà conquis par l’évènement !
Nous avons par ailleurs bénéficié d’importants soutiens gouvernementaux, à commencer par celui de l’ex-ministre chargé de l’Industrie et de l’Énergie Marc Ferracci. Nous avons aussi signé une convention avec Régions de France, qui promeut ainsi l’évènement, notamment auprès des lycéens.
Le vendredi 20 mars s’adressera ainsi en premier lieu aux visiteurs scolaires, mais aussi aux demandeurs d’emploi accompagnés par France Travail. La journée du samedi 21 mars sera quant à elle l’occasion d’accueillir le grand public au sens large, y compris les jeunes et leurs parents.
Quels objectifs visez-vous au travers de ces Journées Usines Ouvertes ?
L’esprit de ces visites est avant tout pédagogique. Nous avons d’ailleurs élaboré avec l’aide du ministère de l’Éducation nationale un livret à destination des enseignants. Nous avons aussi construit des questionnaires qui seront distribués aux demandeurs d’emploi, afin qu’ils puissent nous faire part de leur perception de ces Journées. L’idée n’est toutefois pas de viser un nombre précis de signatures de contrats suite à l’évènement… Nous souhaitons, avec ces Journées Usines ouvertes, mener une action de long terme. Il s’agit, pour Les Gadz’Arts, de réaliser une mission citoyenne, en apportant leur pierre à l’édifice de la réindustrialisation – un vrai défi de souveraineté et d’indépendance pour la France.
Nous sommes d’ailleurs frappés par la sensibilité des jeunes vis-à-vis de ces aspects. Ces mots de « souveraineté » et « d’indépendance » résonnent positivement chez beaucoup d’entre eux.
La mission que nous nous sommes donnée consiste donc à combiner ces enjeux de souveraineté avec les défis environnementaux, de mixité, etc. Tout cela progresse – je le constate particulièrement auprès de jeunes ingénieurs – et est désormais pleinement inscrit dans nos grilles d’analyse.
Attirer les personnes en reconversion fait-il également partie de vos objectifs ?
Bien sûr ! L’industrie forme, et se montre capable d’accueillir des personnes aux parcours atypiques, à qui elle offre en outre la possibilité de progresser.
L’enjeu, pour les attirer, est aussi de parvenir à bâtir un récit. C’est un autre aspect sur lequel nous sommes en train de travailler.
Alors que nous sommes de plus en plus dans une société de l’instant, l’industrie s’inscrit quant à elle dans une logique de long terme – on ne fabrique pas un Rafale en trois clics… ! Notre domaine se place donc un peu à contretemps… De la même façon, dans une société qui peut être vue comme individualiste, l’industrie prône quant à elle l’esprit d’équipe et la coopération.
On peut ainsi voir dans l’industrie une sorte de « contre-culture ». Il nous semble donc important de l’expliquer au plus grand nombre – y compris aux jeunes d’ailleurs, qui sont aujourd’hui en quête de sens. C’est vraiment cette logique du temps long et de la coopération que nous avons à cœur de défendre, et d’assumer, au travers de ces Journées Usines Ouvertes.
2025 s’est achevée sur un bilan négatif en matière de création nette d’usines. Restez-vous malgré tout optimistes quant à l’avenir industriel de la France ?
Dans l’édito que j’ai écrit pour le dernier numéro en date d’Arts & Métiers Magazine, j’ai mis en avant cette citation du philosophe Alain : « Le pessimisme est d’humeur ; l’optimisme est de volonté ». Vous avez raison, les derniers chiffres ne sont pas très bons, et les perspectives peu rassurantes au regard des crises géopolitiques actuelles… Je peux toutefois vous dire que les industriels ont la volonté de ne rien lâcher. Il faut donc avant tout prendre du recul et observer comment les choses évoluent sur le temps long. Si 2025 n’a, c’est certain, globalement pas été une bonne année pour l’industrie, il faut aussi mettre en lumière le positif. Il est trop facile de ne se focaliser que sur les fermetures de sites. C’est une réalité qu’il ne faut pas nier, mais si elle occulte le reste, alors le tableau qui est dépeint n’est pas fidèle : il ne faut pas donner la fausse impression selon laquelle l’industrie serait synonyme d’instabilité de l’emploi. Ce n’est absolument pas le cas. Nous devons donc, collectivement, œuvrer pour aller à l’encontre de tout cela.
Autre aspect conjoncturel : la vague de l’IA déferle actuellement dans de nombreux domaines… Qu’en est-il dans l’industrie ?
L’intelligence artificielle n’est pas déconnectée de l’industrie. Les données utilisées par l’IA peuvent d’ailleurs typiquement être celles générées par les usines ! Le secteur ne peut donc pas faire l’impasse sur les outils d’IA. Cette déferlante de l’intelligence artificielle représente donc une fenêtre d’opportunités, dont l’industrie doit, de toute façon, s’emparer.
Les méthodes basées sur l’IA sont désormais enseignées aux futurs professionnels, au même titre que toutes les autres techniques de l’ingénieur que l’on connaît. Lorsque l’on interroge les enseignants, on s’aperçoit également que, si tout est aujourd’hui plus puissant et véloce, les logiques derrière les outils d’IA actuels sont en fait utilisées de longue date. L’IA est donc déjà pleinement ancrée dans l’industrie, mais va effectivement s’y développer de plus en plus. Cela fait partie des défis qui nous attendent en matière de formation. Et pas que des ingénieurs ; l’IA doit devenir l’outil de tous.
Une troisième édition de ces Journées Usines Ouvertes est-elle d’ores et déjà prévue l’an prochain… ?
Tout à fait ! Notre ambition est vraiment d’en faire un rendez-vous annuel. Nous avons d’ailleurs à cœur de déterminer le plus tôt possible les dates de cette prochaine édition. Nous devrions donc être en mesure de le faire dès le 21 mars prochain…
[1] Siège de la Société des ingénieurs Arts & Métiers, situé dans le XVIe Arrt parisien.
EPR2, prolongation, SMR : en 2026, le nucléaire recrute pour tenir le planning
Du 9 au 13 mars 2026, la Semaine des métiers du nucléaire portée par France Travail et l’Université des Métiers du Nucléaire a assumé un message industriel clair : la filière doit sécuriser un « pipeline compétences » pour tenir la relance. L’ordre de grandeur est massif – 100 000 recrutements d’ici 2035 – car les besoins additionnent construction neuve, exploitation, supply chain et ingénierie de maintenance.
Dans les territoires, la phase amont se poursuit via les concertations EPR2 et leurs bilans, qui conditionnent acceptabilité, foncier, logistique et capacité des entreprises locales à monter en charge.
Le « grand chantier » reste toutefois l’exploitation à long terme : l’ASNR travaille sans a priori sur le cap des 60 ans et au-delà, et la Cour des comptes juge la prolongation compétitive si la maîtrise industrielle des arrêts et modifications est au rendez-vous.
C’est aussi ce qui explique la focalisation RH sur les métiers de tuyauterie/soudage qualifié, contrôle-commande, radioprotection et méthodes d’arrêts de tranche, largement mis en avant dans la semaine nationale.
En parallèle, la filière se « recompose » autour de nouveaux débouchés : la PPE3 inscrit l’électrification et fixe un cap hydrogène avec jusqu’à 8 GW d’électrolyseurs en 2035, ce qui remet sur la table la fourniture d’électricité pilotable et la compétitivité du kWh.
Enfin, sur les SMR, l’appétit industriel est réel mais le régulateur alerte déjà sur des calendriers parfois trop optimistes, avec une doctrine attendue en 2026 sur l’instruction des projets. À court terme, l’enjeu de la Semaine du Nucléaire est donc très opérationnel : convertir l’intérêt en formations, en habilitations et en capacité d’exécution pour que 2026 devienne l’année où la relance passe du discours au planning.
Quantique : 2027, la bascule industrielle
L’horizon 2027 se précise parce que la bataille se déplace du « nombre de qubits » vers le qubit logique, c’est-à-dire la capacité à exécuter des circuits profonds grâce à la correction d’erreurs. Chez Google, les surface codes dynamiques illustrent cette inflexion : moins de goulots matériels, moins d’erreurs corrélées, et une trajectoire plus crédible vers des codes réellement « scalables ».
Ce virage devient industriel quand il se couple au calcul intensif : l’Europe pousse des architectures hybrides quantique-HPC, avec l’inauguration d’Euro-Q-Exa et une montée annoncée à 150 qubits d’ici fin 2026. Même logique du côté de l’offre : Pasqal a livré à CINECA un système 140+ qubits conçu pour s’insérer dans des chaînes de calcul où le QPU ne traite que les « étapes dures » (optimisation, matériaux) et laisse le reste au supercalculateur.
Sur les usages, la standardisation post-quantique du NIST transforme déjà la cryptographie en chantier d’industrialisation, pendant que les agences poussent des calendriers de migration, comme le NCSC. Les prochains mois devraient donc se jouer sur des preuves « dures » : stabilité des qubits logiques, décodage temps réel, intégration outillée dans des pipelines HPC, et surtout des cas d’usage démontrables en chimie computationnelle et optimisation où la valeur ne dépend pas d’une promesse, mais d’un gain mesuré.
VE made in China : après le précédent Volkswagen, la guerre des exemptions commence
Le lancement d’AMI Labs marque un changement d’échelle dans la trajectoire de Yann LeCun. La société, installée à Paris, a levé plus d’un milliard de dollars pour une valorisation de 3,5 milliards de dollars, ce qui la fait entrer d’emblée dans la catégorie des licornes, avec une équipe fondatrice issue en grande partie de l’écosystème de Meta et de la recherche en intelligence artificielle. Cette opération place immédiatement le projet dans le champ des acteurs mondiaux capables d’investir massivement dans les infrastructures de calcul, le recrutement scientifique et le développement de nouveaux modèles.
Cette création d’entreprise prolonge une conviction déjà formulée fin 2025, lorsque l’idée d’une « intelligence avancée » était opposée à ce qui était présenté comme l’illusion d’une montée en puissance illimitée des LLM. Ces grands modèles de langage étaient décrits comme utiles pour produire du texte ou du code, mais insuffisants pour atteindre une compréhension robuste du monde physique, de la causalité et de la logique. La différence d’approche qui apparaît aujourd’hui tient au fait que ce constat n’est plus seulement théorique. Il devient la base d’un programme industriel structuré autour d’une nouvelle génération de modèles d’IA.
Auparavant, l’accent était mis sur la limite intrinsèque des LLM. Le cœur du raisonnement reposait sur l’idée que ces systèmes fonctionnent par prédiction autorégressive, sans ancrage direct dans le réel, et qu’ils demeurent vulnérables aux hallucinations, précisément parce qu’ils ne comprennent pas le monde qu’ils décrivent. Avec AMI Labs, le discours se déplace légèrement. Il ne s’agit plus seulement d’affirmer que les LLM ne suffiront pas, mais de soutenir que les world models1 constituent une voie complémentaire pour résoudre des tâches plus complexes, à partir de vidéos, d’environnements 3D et de données spatiales. Cette nuance est importante, car elle remplace une opposition frontale par une logique d’extension des capacités de l’IA.
Des world models pour comprendre et anticiper le réel
L’architecture mise en avant s’inscrit dans le prolongement des travaux sur JEPA (Joint Embedding Predictive Architecture), conçue pour apprendre des représentations abstraites d’images ou de vidéos et mieux modéliser la dynamique du monde réel. Elle est notamment présentée comme une alternative aux modèles génératifs classiques. Là où un modèle génératif cherche à reconstruire des détails, JEPA vise des représentations abstraites qui captent l’essentiel d’une scène ou d’une situation, ce qui doit permettre d’apprendre plus efficacement à partir du monde observable. Dans la continuité de cette logique, AMI Labs affirme vouloir construire des systèmes capables de comprendre le monde réel, de disposer d’une mémoire persistante, de raisonner et planifier, tout en restant contrôlables et sûrs.
Le passage de la théorie à l’entreprise modifie aussi la portée du projet. Les applications évoquées concernent la robotique, l’industrie, la simulation numérique ou encore certains usages du divertissement, c’est-à-dire des domaines dans lesquels l’interaction avec le monde physique, la prévision d’actions et l’évaluation de leurs conséquences sont centrales. La société a d’ailleurs indiqué que sa première phase serait consacrée à la recherche avant une confrontation progressive à des partenaires commerciaux, ce qui confirme une volonté de transformer une intuition scientifique en infrastructure applicable.
Une divergence stratégique devenue projet industriel
La différence la plus nette entre la phase de réflexion sur les limites des LLM et le lancement d’AMI Labs tient à la transformation d’une conviction théorique en projet industriel. L’argumentation initiale insistait en effet sur la bulle spéculative entourant les LLM et sur la nécessité d’une meilleure architecture pour rapprocher l’IA d’une forme de compréhension réelle. Désormais, cette orientation s’est concrétisée pour devenir une entreprise mondiale financée par un large consortium d’investisseurs, organisée autour d’une équipe de recherche expérimentée, et dotée de moyens pour développer ses propres modèles.
En ce sens, Yann LeCun ne se contente plus de souligner les limites de l’horizon des LLM. Il cherche à installer une autre grammaire de l’intelligence artificielle, dans laquelle le langage ne serait plus le point de départ unique de l’intelligence machine, mais une composante d’un système plus large ancré dans le monde. L’enjeu n’est donc pas seulement de proposer un concurrent aux modèles dominants, mais d’orienter autrement la recherche et, potentiellement, celui des futurs usages industriels de l’IA.
1 Les world models désignent des systèmes d’intelligence artificielle conçus pour apprendre une représentation du monde physique et en anticiper l’évolution, afin de mieux raisonner, planifier et agir.
Au contraire de l’usinage, qui consiste à retirer de la matière, la fabrication additive, également appelée impression 3D, désigne un ensemble de procédés permettant de fabriquer des pièces par ajout de matière couche après couche. Depuis une vingtaine d’années, elle connaît un véritable essor et est utilisée dans des secteurs aussi variés que l’aérospatial, l’automobile, le médical ou encore le bâtiment. Mais son développement ne repose pas seulement sur des machines et nécessite des compétences spécifiques. Voici six profils de métiers recherchés pour mettre en œuvre cette technologie.
L’ingénieur R&D
Il occupe une position stratégique dans l’évolution de la fabrication additive, puisque son rôle consiste à concevoir de nouveaux procédés, développer de nouveaux matériaux et améliorer les performances des systèmes d’impression. L’ingénieur R&D est souvent employé dans des laboratoires industriels ou des centres de recherche, dans lesquels il mène des expérimentations et développe des innovations susceptibles d’être industrialisées. Son objectif est de repousser les limites actuelles de la fabrication additive, notamment en matière de précision, de vitesse de production ou de nouvelles applications industrielles.
Le concepteur pour la fabrication additive
Également nommé designer pour la fabrication additive, ce métier nécessite de maîtriser une approche spécifique appelée Design for Additive Manufacturing (DfAM), dont la finalité est de chercher à optimiser et à tirer parti des formes complexes permises par cette technologie. Par exemple, cette fonction suppose de connaître les particularités des structures lattice ou en treillis, permettant de rendre les pièces plus légères et plus solides, ou encore l’optimisation topologique, une méthode permettant d’obtenir une répartition optimale de la matière.
L’ingénieur d’applications
Son travail consiste à faire le lien entre les différentes solutions techniques proposées par la fabrication additive et les besoins des industriels. L’ingénieur d’applications doit être en mesure d’analyser les besoins des clients, d’identifier les pièces pouvant être produites en impression 3D, de recommander les procédés et les matériaux les plus adaptés et enfin d’accompagner les clients dans l’intégration de la technologie retenue, notamment dans la prise en main des machines. Ce professionnel doit faire preuve d’une grande maîtrise des différentes méthodes d’impression, telles que la fusion sur lit de poudre, le dépôt de fil fondu ou la stéréolithographie.
L’ingénieur matériaux
Une grande variété de matériaux peut être utilisée dans la fabrication additive : plastiques, métaux, alliages, composites, céramiques techniques… L’ingénieur doit donc être capable de les sélectionner et d’anticiper les propriétés mécaniques et thermiques des pièces imprimées. Il est amené à réaliser des essais et des analyses dans le but de comprendre le comportement des matériaux pendant et après l’impression, grâce notamment à l’étude des microstructures.
L’ingénieur procédés
La qualité d’une pièce imprimée en 3D dépend de plusieurs paramètres du procédé utilisé, parmi lesquels la puissance du laser, la température, la vitesse de dépôt ou l’orientation de la pièce. Le travail de l’ingénieur procédés consiste donc à optimiser ces paramètres, pour notamment atteindre la densité et les propriétés mécaniques recherchées pour chaque pièce. Pour cela, il est amené à analyser les différentes étapes du processus, à mettre en place des protocoles d’essais et à développer des méthodes de production industrialisables, tout en garantissant leur répétabilité. Sa fonction nécessite d’utiliser de la modélisation pour anticiper les défauts et améliorer les performances des pièces.
Le technicien ou opérateur en impression 3D
Sa fonction consiste à assurer la production au quotidien. À partir d’un modèle numérique, il prépare le fichier de fabrication, configure la machine et surveille l’impression des pièces. Ce travail inclut également le post-traitement, c’est-à-dire le nettoyage, le retrait des supports, ainsi que le contrôle qualité. Le technicien doit maîtriser plusieurs technologies d’impression et les logiciels de préparation des fichiers.
Entre innovations de rupture, enjeux de souveraineté et transformations profondes du paysage énergétique et numérique, les ingénieurs voient se dessiner les contours d’une industrie en mutation rapide.
⚙️ MATÉRIAUX & TECHNOLOGIES AVANCÉES
Micro- et nanofabrication 3D : vers une rupture avec les résines polymères grâce à l’assemblage optofluidique
Les procédés de micro- et nanofabrication 3D sont aujourd’hui limités par la dépendance aux résines polymères. Une étude récente propose une alternative de rupture : l’assemblage optofluidique de particules, permettant de structurer directement une grande variété de matériaux à l’échelle micro/nano. Cette approche ouvre la voie à des microdispositifs multifonctionnels dotés de propriétés mécaniques, optiques ou électriques inédites, dépassant les limites actuelles de la polymérisation à deux photons. Elle représente une avancée majeure pour la microrobotique, la photonique et les bio‑dispositifs.
🧬 Explorer l’innovation en optofluidique
Tordre la fibre optique limiterait les pertes de signal
Une équipe de chercheurs démontre qu’une simple torsion appliquée à une fibre optique multicœur améliore sensiblement la transmission lumineuse. Cette géométrie spiralée réduit le couplage entre cœurs et permet à la lumière de contourner aisément les défauts internes du matériau. Le résultat : une robustesse accrue du signal, sans nécessiter de modifications lourdes des procédés de fabrication. Une avancée prometteuse pour les télécommunications haut débit et les systèmes de détection optique.
🔦Découvrir la fibre torsadée haute‑performance
MATIÈRES PREMIÈRES & DÉCARBONATION
Récupérer les terres rares grâce à la cellulose
Face à la demande croissante en terres rares lourdes, des chercheurs ont mis au point une nanocellulose capable d’adsorber sélectivement le dysprosium dans des solutions mixtes. Cette structure cristalline biosourcée ouvre la voie à un recyclage beaucoup plus propre et sélectif que les procédés solvants traditionnels, tout en répondant aux besoins croissants de l’industrie électronique, énergétique et magnétique. Une innovation stratégique pour sécuriser les chaînes d’approvisionnement.
🧪 Une nouvelle voie verte pour recycler les terres rares
⚡ ÉNERGIE & INFRASTRUCTURES
Les opérateurs de datacenters font face à des délais de raccordement qui s’allongent
️Malgré une électricité française abondante et décarbonée, l’afflux massif de projets industriels et numériques entraîne un allongement critique des délais de raccordement. Les opérateurs de datacenters doivent désormais attendre entre trois et sept ans pour être branchés au réseau, freinant l’essor des infrastructures IA et cloud. La situation reflète une tension globale en Europe, où la demande dépasse la capacité des réseaux électriques existants.
🏗 Comprendre les tensions sur le raccordement électrique
Sizable Energy veut transformer la profondeur marine en batterie géante
Une start‑up italienne transpose le principe du pompage‑turbinage dans les profondeurs marines pour créer une solution de stockage longue durée basée sur une saumure dense. Deux réservoirs reliés par une conduite verticale permettent de convertir l’électricité excédentaire en énergie potentielle gravitationnelle, avec un rendement annoncé de 80 %. Cette approche pourrait lever les limites topographiques des STEP terrestres et proposer une alternative modulaire, offshore et hautement scalable.
🌊 Une batterie sous‑marine pour stabiliser les réseaux
INDUSTRIE & SOCIÉTÉ
Pénurie de talents industriels : un enjeu stratégique pour la souveraineté et la performance
L’industrie française souffre d’un déficit structurel de compétences, notamment en maintenance, ingénierie électrique et métiers techniques. Alors que la réindustrialisation peine à accélérer, cette pénurie fragilise la performance, la fiabilité et la transformation des sites industriels. Les besoins croissants en compétences qualifiées pour accompagner l’automatisation, l’électrification et les systèmes numériques renforcent l’urgence d’une stratégie nationale sur les talents.
👨🏭 Les défis RH qui freinent la réindustrialisation
Google veut plus de souplesse dans les réglementations numériques européennes
Face à l’accumulation de réglementations européennes (RGPD, DMA, DSA), Google plaide pour une « souveraineté numérique ouverte ». L’entreprise estime que les exigences actuelles peuvent freiner l’innovation et pénaliser les acteurs européens dépendant des infrastructures cloud américaines. Elle pousse pour un cadre équilibré, garantissant la protection des données tout en favorisant l’interopérabilité et l’agilité des services numériques.
💻 Les enjeux de la souveraineté numérique ouverte
Installée au Leibniz Supercomputing Centre (LRZ) près de Munich, cette machine a pour mission de fournir un accès concret à l’informatique quantique pour les chercheurs et l’industrie en Europe.
L’Allemagne, en hébergeant ce système, joue un rôle central dans cette dynamique, avec un budget de 3 milliards d’euros alloué aux technologies quantiques d’ici 2026.
Reposant sur la plateforme Radiance de l’entreprise finlandaise IQM et disposant actuellement de 54 qubits supraconducteurs, l’ordinateur permettra de développer et d’exploiter des applications quantiques locales. Cette machine renforcera aussi la compétitivité européenne face à la concurrence internationale, notamment américaine et chinoise.
D’ici la fin 2026, Euro-Q-Exa sera complété par un second système plus puissant de 150 qubits, renforçant ainsi la capacité quantique opérationnelle de l’Europe. Ce déploiement s’inscrit dans une stratégie plus large visant à intégrer l’informatique quantique aux infrastructures de calcul haute performance (HPC) existantes.
Comme tous les autres ordinateurs quantiques EuroHPC, le nouveau système offrira en effet aux utilisateurs finaux européens l’accès à une architecture hybride classique-quantique.
Maladies neurodégénératives
Destiné principalement à la recherche et à l’innovation, il sera également accessible à un large éventail d’utilisateurs européens, du monde universitaire et industriel au secteur public. Les applications potentielles sont très variées : simulation de matériaux, optimisation de processus industriels, cryptographie, ou encore intelligence artificielle.
Mais, d’ores et déjà, des premiers groupes de recherche européens ont manifesté leur intérêt pour Euro-Q-Exa afin de déchiffrer les causes des maladies neurodégénératives, de développer les méthodes de pharmacologie assistée par ordinateur, d’affiner les modèles climatiques et d’améliorer les réseaux électriques.
Cependant, l’un des enjeux majeurs reste la préparation au « jour Q », ce moment où les ordinateurs quantiques pourront casser les systèmes de chiffrement actuels, menaçant la sécurité des communications et des infrastructures critiques.
Euro-Q-Exa s’inscrit dans un réseau plus large de six ordinateurs quantiques européens, chacun utilisant des technologies différentes (qubits supraconducteurs, ions piégés, photons, etc.), répartis en Allemagne, France, Espagne, Italie, Pologne et République tchèque. Cette diversité technologique permet à l’Europe de couvrir un large spectre de recherches et d’applications, tout en évitant une dépendance excessive à une seule technologie.
Avec Euro-Q-Exa, l’Europe affiche explicitement sa volonté de devenir un acteur clé dans le domaine quantique. Le projet ne se limite pas à la puissance de calcul : il vise aussi à créer un écosystème durable, en formant une nouvelle génération de chercheurs et d’ingénieurs, et en favorisant les partenariats entre le public et le privé.
La compétition internationale est intense. L’Europe, grâce à des initiatives comme Euro-Q-Exa, cherche à ne pas être dépassée.
Le secteur automobile s’est imposé en quelques années comme l’un des moteurs de la croissance de l’industrie des semi-conducteurs. Cette évolution s’explique en grande partie par la transition vers le véhicule électrique, qui a modifié de manière profonde l’architecture électronique des voitures. Chaque nouveau modèle embarque dorénavant une quantité toujours plus grande de puces, faisant exploser la demande mondiale. D’après une analyse d’un acteur de ce secteur, la taille de ce marché devrait passer d’environ 40 milliards de dollars en 2024 à plus de 103 milliards d’ici 2033, soit une progression soutenue sur près d’une décennie.
À la base de cette croissance, l’électrification est sans conteste le facteur majeur du boom des puces automobiles. Un véhicule électrique a besoin de près du double de semi-conducteurs qu’un modèle thermique, et peut même en embarquer jusqu’à 3 000 pour une voiture haut de gamme. Ces puces sont en effet nécessaires pour gérer la puissance entre la batterie et les moteurs, surveiller l’état des cellules pour assurer la sécurité et l’autonomie, et réguler la température pour préserver tous les composants.
Dans le même temps, les véhicules sont de plus en plus équipés de systèmes d’aide à la conduite (ADAS pour Advanced driver-assistance systems) qui font aussi grimper la demande. On peut citer par exemple le freinage d’urgence, le maintien dans la voie ou la détection des obstacles. Ces fonctions reposent sur une multitude de capteurs et de processeurs qui analysent en permanence l’environnement de la voiture, qui devient un véritable ordinateur sur roues.
De leur côté, les conducteurs sont à la recherche de voitures plus intelligentes et plus sûres, ce qui stimule encore la demande de fonctions électroniques sophistiquées. Ils réclament une connectivité toujours plus riche avec des écrans tactiles, un système de navigation et une connexion 4G/5G qui alimente la demande en puces. Par ailleurs, le développement des voitures connectées capables de recevoir des mises à jour OTA (Over-the-air) ou de communiquer avec des infrastructures externes accentue encore la demande pour des solutions de traitement des données.
Un autre facteur explicatif tient à l’évolution des normes de sécurité. Ainsi, certaines réglementations obligent les constructeurs à intégrer des technologies qui reposent elles aussi sur des semi-conducteurs. C’est le cas notamment de l’ABS électronique, de la gestion dynamique de la stabilité ou encore des protocoles de communication sécurisée des données.
Vers un parc automobile de plus en plus électrique
Les ventes de véhicules électriques, de plus en plus nombreuses, contribuent aussi à l’explosion de la demande en semi-conducteurs, qui entraîne automatiquement une hausse de la consommation de ces composants. Selon l’AIE (Agence internationale de l’énergie), la mise en circulation de véhicules électriques pourrait quadrupler d’ici 2030, par rapport à 2024, pour atteindre environ 250 millions d’unités dans le monde (hors deux-roues et trois-roues).
Bien plus qu’un simple assemblage de moteurs et de carrosseries, l’automobile devient une plateforme électronique complexe. Le coût des puces représente à présent une part croissante de la valeur totale d’une voiture électrique, bien supérieure à celle observée dans les modèles thermiques traditionnels. Une évolution qui n’est pas sans poser de nouveaux défis, à commencer par les chaînes d’approvisionnement.
La pénurie de semi-conducteurs pendant la pandémie de Covid-19 a servi de coup de semonce. Elle a brutalement rappelé aux constructeurs leur dépendance et les a poussés à nouer des partenariats à long terme avec les fabricants de puces. Certains constructeurs automobiles conçoivent également depuis longtemps leurs propres puces, à l’image de Tesla et du chinois BYD. D’autres constructeurs traditionnels tels que Toyota, Hyundai, Stellantis et General Motors (GM) emboîtent à présent le pas. Au-delà de la simple sécurisation des stocks, l’enjeu dorénavant est de reprendre la main sur ces technologies devenues le cœur même de l’automobile.
Alors que le monde accélère sa transition vers des systèmes énergétiques basés sur l’éolien et le solaire, l’un des principaux défis reste celui du stockage d’énergie. La question n’est plus seulement de produire de l’électricité bas carbone, mais de la rendre pilotable pour l’aligner sur la consommation. La start-up italienne Sizable Energy a développé une solution innovante de stockage longue durée en transposant la technologie déjà éprouvée de l’hydroélectricité dans le milieu océanique.
Le concept repose sur une architecture à deux réservoirs flexibles, l’un flottant à la surface de la mer et l’autre ancré dans le fond marin à plusieurs centaines de mètres de profondeur. Ces deux réservoirs sont reliés par une conduite verticale équipée de turbines réversibles pour le transport d’un fluide. Celui-ci a la particularité d’être une saumure saturée en sel, environ 20 % plus dense que l’eau de mer, permettant d’augmenter sa masse volumique sans accroître proportionnellement son volume. Selon l’entreprise, ce fluide présente également un autre avantage, celui de limiter le risque de corrosion lié à une faible concentration en oxygène dissous, ce qui crée un environnement plus protecteur pour les matériaux de la structure.
Concrètement, lorsque du courant électrique est disponible en excès, notamment lors d’épisodes de forte production éolienne ou solaire, des pompes sont actionnées pour monter le fluide depuis le réservoir inférieur jusqu’au réservoir supérieur. Cette opération permet ainsi de stocker de l’électricité sous la forme d’une énergie potentielle gravitationnelle. À l’inverse, quand la demande est supérieure à la production d’énergie, le fluide redescend par gravité vers le réservoir inférieur et, en traversant les turbines, génère de l’électricité qui peut être injectée dans le réseau. Selon Sizable Energy, le rendement aller-retour de cette technologie atteint 80 %.
La force de cette solution tient à sa capacité à exploiter la profondeur du milieu marin. Sur terre, les installations hydroélectriques à pompage nécessitent des sites topographiquement adaptés avec des dénivelés importants, ce qui limite leur implantation. Alors qu’en mer, il est possible de tirer parti de la colonne d’eau naturellement présente et donc d’un potentiel d’énergie gravitationnelle sans dépendre de reliefs spécifiques.
Une alternative aux aménagements terrestres lourds
Cette solution présente par ailleurs plusieurs avantages opérationnels et environnementaux. Elle utilise la technologie déjà éprouvée des STEP : stations de transfert d’énergie par pompage. Elle n’occupe pas de surface terrestre, un atout significatif, surtout dans des zones à forte densité d’usage du sol. Sizable Energy met aussi en avant sa modularité et le fait qu’elle soit « scalable », ce qui permet de penser des installations allant du mégawatt-heure au gigawatt-heure sans contraintes géologiques majeures.
La technologie a déjà franchi plusieurs étapes importantes dans son développement. Pour valider sa robustesse, des essais ont été réalisés dans un institut de recherche maritime aux Pays-Bas, où des tests de simulation en bassin simulant des vagues ont montré que le système pouvait résister à des environnements marins difficiles. D’autres essais en mer au large de Reggio de Calabre, en Italie, ont permis de démontrer la fiabilité du système d’assemblage et la durabilité des modules flottants.
L’entreprise a prévu de construire une centrale de démonstration de plusieurs MWh en Méditerranée, au large des côtes italiennes. En octobre dernier, elle a réussi à lever 8 millions de dollars pour accélérer son déploiement commercial qui doit débuter dès cette année. Sizable Energy a identifié des emplacements potentiellement compatibles dans plus de 50 pays, couvrant toutes les grandes zones géographiques, allant de la Méditerranée à l’Asie du Sud-Est, en passant par l’Amérique latine et l’Océanie.
Selon l’AIE (Agence internationale de l’énergie), la capacité mondiale de stockage de l’électricité pour faire face à la montée rapide de l’éolien et du solaire devra atteindre près de 970 GW d’ici 2030, soit une multiplication par environ 35 par rapport aux niveaux de 2022. Même si ce chiffre concerne essentiellement les technologies de stockage par batteries, il donne un ordre de grandeur des besoins futurs pour intégrer plus largement les énergies renouvelables intermittentes.
Le bug de l’an 2038 n’est pas une rumeur tardive née autour d’une échéance spectaculaire. Il découle d’un choix ancien et central de l’informatique Unix, qui compte le nombre de secondes écoulées depuis le 1er janvier 1970 à 00 h 00 min 00 s UTC. Tant que cette valeur est stockée dans un entier signé de 32 bits, sa borne supérieure reste fixée à 2 147 483 647 secondes. Cette limite correspond exactement au 19 janvier 2038 à 03 h 14 min 07 s UTC. Une seconde plus tard, la valeur déborde et devient négative, ce qui peut être interprété comme une date du 13 décembre 1901.
Le sujet rappelle forcément le passage à l’an 2000, mais le mécanisme n’est pas le même. Le problème de 2000 venait d’années codées sur deux chiffres dans de nombreux logiciels, tandis que celui de 2038 est lié à une limite binaire de représentation du temps. Il ne menace donc pas tous les ordinateurs indistinctement, mais les systèmes qui conservent encore des structures temporelles sur 32 bits, y compris dans des couches profondes du système, du noyau jusqu’aux bibliothèques logicielles et à certains formats de fichiers.
Cette fragilité ne concerne d’ailleurs pas uniquement le moment exact de janvier 2038. Des erreurs peuvent apparaître bien avant, dès qu’un logiciel manipule des dates lointaines, calcule des échéances, attribue une durée de vie à des données ou génère des certificats valables très longtemps. Des cas concrets ont déjà été documentés dans des produits industriels, notamment autour de certificats expirant au-delà de janvier 2038 et de mécanismes de durée de vie de données fondés sur des horodatages trop proches de la limite.
Une panne moins visible qu’un grand crash
Le risque le plus crédible n’est pas celui d’un arrêt simultané et mondial, mais d’une multitude de dysfonctionnements dispersés. Un programme peut refuser une date future, un système de fichiers peut enregistrer un horodatage incohérent, une API peut renvoyer une erreur de débordement, un certificat peut devenir inutilisable, ou encore une application métier peut produire des calculs faux sur des contrats ou des échéances longues. Le manuel Linux précise déjà qu’un exécutable utilisant un time_t sur 32 bits pourrait déclencher une erreur lorsque l’heure système dépassera 03 h 14 min 08 s UTC le 19 janvier 2038.
Les infrastructures anciennes sont les plus exposées. Dans l’écosystème Linux, plusieurs interfaces historiques fondées sur timeval ou timespec ont été remplacées parce que leur champ tv_sec déborde en 2038 sur les architectures 32 bits. Le noyau recommande désormais des équivalents sur 64 bits. Des correctifs ont aussi été apportés au fil des années à des sous-systèmes précis, preuve que le problème n’est pas théorique mais traité morceau par morceau.
Les systèmes de fichiers illustrent bien cette transition inachevée. La documentation du noyau Linux indique par exemple que l’ancien format V4 de XFS ne peut pas stocker des horodatages au-delà de 2038, ce qui a conduit à sa dépréciation au profit du format V5. Ailleurs, certaines limitations ne peuvent pas être corrigées simplement par une mise à jour logicielle lorsqu’elles sont inscrites dans la structure même des métadonnées.
La sortie passe par le 64 bits
La réponse technique est connue depuis longtemps. Elle consiste à adopter des représentations temporelles sur 64 bits, que ce soit dans les systèmes d’exploitation, les bibliothèques, les applications et parfois les formats d’échange. Oracle rappelle explicitement qu’un time_t sur 64 bits écarte la limite de janvier 2038 et que les applications qui doivent fonctionner au-delà de cette date ont intérêt à migrer vers un environnement 64 bits. Même dans certains anciens environnements Linux, des ajustements ont été apportés pour permettre l’usage d’un temps codé sur 64 bits et limiter ainsi le risque lié à l’an 2038.
Le vrai défi est donc moins conceptuel qu’industriel. De nombreux systèmes encore en service ne sont ni visibles du grand public ni faciles à remplacer. Il peut s’agir d’équipements embarqués, d’automates, d’outils industriels, de vieux logiciels métiers ou de composants compilés depuis longtemps et jamais revalidés pour l’après 2038. Dans ces cas, la correction demande souvent un audit complet des dépendances temporelles, des tests sur dates futures et parfois une migration matérielle, pas seulement un simple correctif applicatif.
Le bug de l’an 2038 ne relève donc ni du fantasme ni de la catastrophe universelle annoncée. Il s’agit d’un défaut informatique bien identifié et techniquement soluble, précisément daté, déjà documenté dans des systèmes réels. Mais il rappelle qu’en informatique, les choix les plus discrets, comme la taille d’un entier stockant l’heure, peuvent devenir des failles structurelles plusieurs décennies plus tard.