Pénurie de talents industriels : un enjeu stratégique pour la souveraineté et la performance

Selon le baromètre BlueDocker 2026, le technicien de maintenance industrielle figure parmi les profils les plus recherchés en 2025 (12,1 %), suivi des dessinateurs-projeteurs mécaniques et électriques (9,4 %).

Pour Pierre Vandenhove, PDG de DV GROUP, cette situation constitue un enjeu stratégique majeur.

Pierre Vandenhove, PDG de DV Group (crédit : DV GROUP)

 Pierre Vandenhove est PDG de DV GROUP, leader européen couvrant l’ensemble de la chaîne de valeur de l’usine grâce à ses quatre Business Units : DV DIGITAL, DV ENGINEERING, DV MAINTENANCE et DV CONTROL.

Du bureau d’études aux ateliers, DV GROUP accompagne les industriels vers une performance durable.

Chiffres clés :

  • 350 collaborateurs
  • 50 M€ de CA en 2024
  • 25 implantations européennes

Techniques de l’ingénieur : Quel est le métier de DV GROUP ?

Pierre Vandenhove : Le cœur de métier de DV GROUP est technique, mais il est avant tout porté par les femmes et les hommes qui le font vivre. Nous intervenons sur l’ensemble du cycle de vie des installations industrielles : ingénierie, maintenance, contrôle et intégration de solutions digitales.

Notre mission est d’aider les industriels à sécuriser, fiabiliser et transformer leur outil de production pour le rendre plus performant, plus agile et plus efficient. Cela mobilise des expertises polyvalentes et pointues.

Dans notre secteur, la valeur ne réside pas uniquement dans la technologie, mais dans la maîtrise technique, l’expérience et le sens des responsabilités de nos équipes. Nos compétences constituent le socle de notre performance et de notre développement.

Pourquoi dit-on que la France est en pénurie de ces profils techniques alors qu’elle perd des usines ?

Il existe effectivement une tension structurelle. La France dispose d’infrastructures énergétiques et industrielles majeures, notamment d’un parc nucléaire puissant. Cependant, les compétences techniques nécessaires à la maintenance, à l’ingénierie et à la transformation de ces installations se sont progressivement raréfiées.

Nous évoquons souvent le manque de soudeurs. Mais la pénurie concerne également les électrotechniciens, les automaticiens, les techniciens de maintenance ou encore les projeteurs industriels.

Nous faisons face à une fragilisation des savoir-faire techniques stratégiques. Cette situation complexifie la réindustrialisation et fragilise notre compétitivité.

Comment s’explique cet abandon de formations techniques fondamentales ?

Un tournant culturel s’est opéré à partir des années 1980. Les filières techniques ont progressivement perdu en attractivité et en reconnaissance. L’orientation massive vers les filières générales a contribué à marginaliser les parcours industriels.

Or, une économie industrielle solide repose sur un continuum de compétences techniques, du technicien à l’ingénieur. La réussite professionnelle ne peut pas être exclusivement associée aux filières académiques généralistes. Elle doit également valoriser l’excellence technique.

Comment attirer les jeunes générations vers les métiers de la maintenance ?

Il est essentiel de rétablir une vérité simple : les métiers de la maintenance et de l’ingénierie sont des métiers à haute valeur ajoutée, porteurs de sens et d’impact concret.

La maintenance industrielle garantit la continuité de production, la sécurité des installations et la performance énergétique. Elle constitue un pilier de la compétitivité industrielle.

Ces métiers sont exigeants : ils impliquent parfois des horaires décalés et une forte responsabilité opérationnelle. Néanmoins, ils offrent en contrepartie une employabilité exceptionnelle, des perspectives d’évolution rapides, des niveaux de rémunération attractifs et une sécurité professionnelle durable.

Aujourd’hui, la tension sur le marché est telle que les jeunes talents disposent d’un pouvoir de choix inédit.

Quelles actions mettez-vous en place pour attirer et conserver des talents ?

L’alternance constitue l’un des piliers de notre stratégie. Nous intégrons chaque année une trentaine d’alternants.

Nous avons structuré un dispositif de tutorat croisé, la DV ACADEMY : les jeunes alternants apportent leur maîtrise des nouveaux outils et leur approche technologique, les collaborateurs expérimentés transmettent leur expertise opérationnelle et leur culture industrielle.

Nous avons dédié une ressource interne à l’accompagnement des alternants, car il s’agit d’un investissement stratégique de long terme.

Cette politique porte ses fruits : entre 70 % et 80 % des collaborateurs intégrés il y a quinze ans sont toujours présents dans l’entreprise et ont évolué vers des fonctions à responsabilité.

Au-delà de l’alternance, et toujours dans le cadre de la DV ACADEMY, nous avons développé une plateforme interne structurée en modules de formation.

Elle permet : d’organiser le transfert des savoirs critiques, de sécuriser les compétences techniques stratégiques, d’accompagner l’évolution professionnelle de nos équipes.

Dans un contexte de tension sur les talents, la fidélisation passe par la montée en compétence continue et la valorisation des parcours.

En dehors de l’alternance, collaborez-vous avec les écoles pour promouvoir les métiers industriels ?

Oui, de manière proactive. Nous intervenons auprès d’établissements scolaires et universitaires pour présenter la réalité des métiers industriels.

Il est fondamental d’expliquer aux jeunes que les filières techniques ne sont pas des voies par défaut, mais des trajectoires d’excellence et d’ambition.

Nous organisons des journées d’immersion, participons à la co-construction de contenus pédagogiques et collaborons étroitement avec plusieurs écoles et universités.

La reconquête industrielle passera nécessairement par la reconquête des vocations.

Tordre la fibre optique limiterait les pertes de signal

La lumière alimente tout ce qui nous entoure, depuis les outils de communication jusqu’à ceux de détection. Pourtant, les plus infimes imperfections peuvent disperser cette lumière et ainsi affaiblir les signaux qu’elle transmet. Dans une fibre optique conventionnelle telle qu’employée dans les télécommunications, la lumière est guidée le long d’un seul et unique cœur qui lui permet de voyager selon deux directions : en avant ou en arrière. La moindre imperfection du cœur en verre disperse alors la lumière, que ce soit en la laissant fuir hors de la fibre ou en la reflétant dans la direction opposée à celle attendue. Le résultat est le même : une dégradation, voire une destruction du signal convoyé. En principe, l’ajout de cœurs à la fibre optique devrait créer des canaux supplémentaires afin de recueillir davantage de données. Seulement, en pratique, la lumière tend à « se coupler » entre les cœurs voisins. Les canaux se mélangent alors, ce qui introduit du bruit et limite la quantité d’informations transitant par la fibre multicœur. Heureusement, une collaboration de scientifiques semble avoir trouvé la solution adéquate. Celle-ci est détaillée dans le journal Nature Photonics en date du 20 février 2026.

Une simple torsion pour une meilleure transmission

L’idée est la suivante : ajouter une torsion à la fibre optique lors de sa fabrication laisserait un chemin plus robuste à la lumière, tout en minimisant les défauts d’usinage pouvant causer des pertes de signal. Elle provient d’un travail d’équipe entre les chercheurs de l’université de Bath, de l’université de Cambridge et leurs partenaires internationaux. La nouvelle fibre tordue multicœur présente des états protégés de la lumière, qui suit naturellement la torsion et évite le couplage entre les cœurs. En fait, quand la lumière rencontre un défaut sur son chemin, elle s’écoule simplement autour de lui au lieu de se disperser. Résultat : une transmission du signal bien plus robuste qu’à l’accoutumée !

La torsion étant appliquée au sein même des étapes habituelles de fabrication de la fibre, elle ne nécessite aucun processus spécial à mettre en œuvre. Par conséquent, la fibre tordue partage de nombreux traits avec une fibre optique standard comme sa flexibilité, sa transmission du signal avec un minimum de perte, et la possibilité de la produire avec des longueurs étendues. Pour vérifier la validité de leur invention, les scientifiques ont conçu la fibre tordue au Centre for Photonics de l’université de Bath avant de la tester dans les laboratoires d’optique de cette même université. Ils en concluent un avenir radieux pour la nouvelle fibre optique. En effet, elle devrait permettre des connexions ultra-fiables pour la transmission de données entre puces, appareils ou composants électroniques. De plus, elle pourrait diriger efficacement les signaux lumineux dans les communications avancées (quantique), la détection de précision (imagerie médicale) et les technologies quantiques émergentes.

Google veut plus de souplesse dans les réglementations numériques européennes

Environ 10 milliards de dollars ! C’est le montant total des amendes (9,5 milliards pour être précis) infligées par l’Union européenne à Google depuis 2017. Et la facture pourrait s’alourdir.

Le géant américain est en effet visé par une nouvelle enquête de l’UE, pouvant amener jusqu’à 40 milliards de dollars d’amende. Le motif ? Google gonflerait artificiellement les prix de vente de l’espace de publicité disponible sur ses services, afin de faire payer toujours plus aux annonceurs.

Trop, c’est trop. En février, Google a donc officiellement appelé l’Union européenne à adopter un modèle de « souveraineté ouverte » dans le domaine numérique. Cette proposition est présentée comme une alternative aux approches protectionnistes ou purement libérales.

Pour convaincre l’UE d’être plus souple, le directeur juridique d’Alphabet (maison mère de Google) met en avant le « paradoxe compétitif ». Selon l’entreprise, la quête de souveraineté de l’Europe pourrait paradoxalement freiner son propre développement.

À être trop pointilleuse sur les réglementations numériques (RGPD, DMA, DSA), l’UE pourrait ralentir l’innovation de ses propres entreprises qui utilisent les infrastructures des « hyperscalers » américains. Le message de Google est clair : l’Europe reste souveraine grâce aux outils des GAFAM… mais à condition de ne pas fermer son marché.

Casse-tête pour l’Europe

Le concept de « souveraineté ouverte » vise à concilier deux impératifs souvent perçus comme contradictoires. D’un côté, la protection des intérêts nationaux (ou régionaux, dans le cas de l’UE) et, de l’autre, l’ouverture aux innovations et aux acteurs mondiaux.

Concrètement, cette « souveraineté ouverte » pourrait se traduire par des règles communes pour l’accès et l’utilisation des données, garantissant à la fois la sécurité et l’interopérabilité. Ce concept reposerait aussi sur un cadre réglementaire stable qui encourage l’innovation sans sacrifier la protection des données ou la concurrence loyale. Et, enfin, une collaboration renforcée entre acteurs publics et privés, y compris les géants américains et européens du numérique.

Derrière ce discours officiel se cache la volonté de Google d’éviter une fragmentation du marché numérique européen, qui pourrait compliquer ses opérations. Le géant veut aussi se positionner comme partenaire des institutions européennes, plutôt que comme un acteur extérieur à réguler.

Pour l’UE, le sujet est complexe. D’un côté, elle doit protéger ses citoyens et ses entreprises contre les risques liés à la dépendance technologique (cybersécurité, influence étrangère, etc.). De l’autre, elle ne peut pas se permettre de couper les ponts avec les acteurs majeurs du numérique, sous peine de ralentir son développement économique et technologique.

Le débat entre une Europe qui protège ses frontières numériques et une Europe qui s’intègre au marché mondial restera au cœur de l’agenda politique de 2026.

Nouvelle identité, nouveau site : 2026 marque un tournant pour Techniques de l’Ingénieur

Aujourd’hui, un nouveau jour se lève sur Techniques de l’Ingénieur, avec nos petits lutins, symbole des équipes qui ont œuvré pour donner vie à cette nouvelle étape. 

En 2026, nous évoluons avec une plateforme plus intuitive, plus fluide et pensée pour vous accompagner toujours au mieux dans la réalisation de vos projets.  

Cette nouvelle expérience est à votre disposition : nous espérons que vous prendrez plaisir à redécouvrir et utiliser votre site favori chaque jour.

Les équipes de Techniques de l’Ingénieur 

Les actualités à suivre : Europe, IA, matières premières, impression 3D…

De l’énergie aux engrais : comment Ormuz peut redéclencher une crise de compétitivité

Les perturbations dans la zone du détroit d’Ormuz se transmettent à l’industrie européenne par trois canaux : prix de l’énergie, ruptures d’intrants (chimie/engrais/minéraux) et désorganisation logistique. Ormuz n’est pas qu’un sujet pétrole : l’AIE rappelle que le détroit concentre une part critique des flux, dont près de 20 % du commerce mondial de GNL en 2025, avec très peu d’alternatives crédibles. La situation est d’autant plus sensible que le choc peut se doubler d’un allongement des routes maritimes (cap de Bonne-Espérance) et d’une flambée des primes de guerre, ce qui renchérit mécaniquement les coûts « rendus usine ».

Le point de bascule pour l’industrie sera la durée : si la perturbation s’installe, l’Europe devra arbitrer entre sécurisation de cargaisons (au prix fort) et réduction de charge dans les secteurs les plus exposés (chimie, sidérurgie, matériaux à haute température), exactement les chaînes déjà fragilisées depuis 2022. À moyen/long terme, l’épisode accélère une logique déjà à l’œuvre, consistant à découpler compétitivité et dépendance fossile via électrification, efficacité et hydrogène, dans l’esprit du Clean Industrial Deal.

Autrement dit, Ormuz remet sur la table une équation d’ingénieur : réduire l’exposition systémique aux chocs géopolitiques en transformant les bilans énergétiques… plutôt qu’en changeant seulement de fournisseur.

Tarifs US : Pourquoi la parenthèse juridique ne règle rien pour les industriels européens

La Cour suprême américaine a invalidé une large partie des tarifs Trump fondés sur l’IEEPA, ouvrant une séquence industrielle dominée par l’incertitude opérationnelle (facturation, incoterms, clauses de révision prix, délais de dédouanement). Dans la foulée, un juge du commerce international a ordonné à la CBP de lancer les remboursements en « liquidant » les entrées sans appliquer les droits illégaux – un sujet de cash-flow massif pour importateurs et clients finaux. Mais la mécanique est lourde : la douane reconnaît avoir encaissé environ 166 Md$ et alerte sur des dizaines de millions d’entrées à traiter, ce qui nourrit un risque de frictions administratives et d’arriérés.

Dans les mois qui viennent, les industriels doivent se préparer à un double scénario : un pipeline de contentieux/settlements pour standardiser la procédure de remboursement, et la recherche par Washington de nouveaux leviers légaux pour reconfigurer les droits, donc une volatilité persistante. Côté Européen, le message est déjà politique : Bruxelles affirme qu’un accord doit rester un accord et refuse toute hausse unilatérale, ce qui laisse planer le risque symétrique de contre-mesures si les tarifs revenaient sous une autre forme.

À moyen terme, l’impact principal pour l’industrie (France/UE) sera la re-négociation des contrats export (prix, partage du risque douane, clauses de hardship) et le re-dessin des plans supply chain « US-exposés », tant que la trajectoire tarifaire restera juridiquement instable.

Made in Europe : ce qui peut changer la donne pour l’automobile européenne dans les mois à venir

La proposition Industrial Accelerator Act (« Made in EU ») vise à conditionner aides publiques et marchés à des exigences de contenu local et de bas-carbone, avec l’automobile explicitement dans le viseur. Pour les OEM et équipementiers, l’impact se lit déjà en ingénierie achats : sécurisation des cellules/modules, recalage des BOM, et arbitrage « coût vs conformité » si des pièces critiques restent fortement importées.

La Commission met en avant l’effet levier des achats publics, mais les constructeurs alertent sur le risque de perturbation de chaînes d’approvisionnement et de tensions commerciales.

Dans les mois qui viennent, le débat va se cristalliser sur les « trusted partners » (par exemple le Royaume-Uni et le Japon) : selon l’ouverture retenue, l’industrie automobile peut soit fluidifier sa supply chain, soit subir des effets de bord (double sourcing, requalification fournisseurs).

En parallèle, la bataille économique se jouera sur les batteries : T&E estime que le dispositif pourrait réduire l’écart de coût EU vs Chine à horizon 2030 si l’échelle industrielle suit.

À moyen terme, le « Made in Europe » deviendra un sujet d’architecture produit : plus de standardisation plateformes, relocalisation d’étapes de transformation, et CAPEX accélérés chez les fournisseurs capables de prouver l’origine et de démontrer une empreinte limitée… avec in fine un risque d’augmentation des coûts et des délais d’industrialisation.

De la première pierre au ramp-up : l’équation ProLogium à court terme

Avec la pose de la première pierre le 10 février, ProLogium transforme un projet longtemps commenté en chantier, dans un contexte de marché VE plus hésitant et de CAPEX sous scrutin. L’industriel assume un démarrage prudent : sa feuille de route vise une première phase industrielle en 2028 (0,8 GWh), puis une montée à 4 GWh en 2030 et 12 GWh en 2032, en misant sur sa génération « Gen4  » de batteries à électrolyte inorganique.

Cette trajectoire matérialise aussi le recalage déjà documenté : le passage à une nouvelle génération techno a repoussé le calendrier initial, et la filière française attend désormais la démonstration « véhicule + coût + cadence ».

Le vrai juge de paix sera l’industrialisation : qualification procédé, rendement, contrôles qualité, et sécurisation des intrants/équipements (céramiques, matériaux, lignes) pour tenir la montée en puissance annoncée. Côté écosystème, Dunkerque devient un nœud d’entraînement : sous-traitants machines, métrologie, automatisation, gestion thermique/sécurité, et compétences process. À moyen/long terme, l’option d’expansion reste ouverte : ProLogium indique avoir réservé du foncier pour aller progressivement vers 48 GWh, mais la vitesse dépendra des contrats d’offtake et de la traction réelle du marché.

Réarmement européen : des annonces aux lignes de production, le vrai test 2026–2027

Avec ReArm Europe/Readiness 2030, Bruxelles cherche à lever le goulot principal : transformer l’argent en capacité livrable, via plus de flexibilité budgétaire et un effet levier de financement. Le bras financier le plus concret est SAFE, un dispositif de prêts longue maturité (jusqu’à 150 Md€) pour soutenir des achats « massifs et urgents » et tirer l’outil industriel vers le haut. En parallèle, le cadre « industrie » s’épaissit : l’UE capitalise sur l’ASAP (munitions) et l’EDIRPA (achats conjoints), tout en basculant dans une logique plus structurelle avec EDIP (montée en puissance, sécurisation supply chain).

Le test sera l’exécution : la Commission commence déjà à valider des plans nationaux, et les prochaines vagues conditionneront les carnets de commandes (munitions, missiles, capteurs, véhicules) et la visibilité CAPEX des industriels. Si le cycle s’enclenche, l’impact se diffusera bien au-delà des « primes » : électronique durcie, matériaux (alliages/energetics), mécanique (usinage, fonderie, véhicules), et montée des contraintes de qualification/traçabilité. À moyen terme (2026–2028), l’enjeu clé pour l’industrie sera de sécuriser compétences et intrants, tout en évitant le piège « approvisionnement sans standardisation » qui fragmente la production et renchérit les coûts.

Récupérer les terres rares grâce à la cellulose

Le dysprosium est une des terres rares dites lourdes les plus largement utilisées. On la retrouve ainsi dans la conception de puissants aimants pour les moteurs et les générateurs, ainsi que dans les semi-conducteurs notamment. Ce métal est central dans le développement des appareils magnétiques avancés et dans les technologies d’énergie propre, du fait de sa grande stabilité thermique. Mais séparer cette terre rare lourde de terres rares légères comme le néodyme reste extrêmement difficile. La faute à de subtiles différences de rayon ionique et de nombre de coordinations – c’est-à-dire le nombre d’atomes, de molécules ou d’ions voisins les plus proches dans les trois dimensions d’un atome central. Selon les prévisions, la demande en dysprosium devrait augmenter de 2600 % sur les 25 prochaines années ! Parvenir à le recycler de manière efficace et respectueuse de l’environnement est donc un défi à relever prestement, ce que se sont évertuées à réaliser des équipes de recherche de l’université Park et de l’université d’État de l’Iowa. Leurs travaux ont été publiés le 16 février 2026 dans le journal Advanced Functional Materials.

Adsorption réussie du dysprosium par la nanocellulose

Actuellement, l’extraction des terres rares passe majoritairement par l’usage de solvants. Cependant, cette méthode est peu efficace avec une sélectivité faible, sans compter la pollution chimique et ses répercussions environnementales. Dans cette nouvelle étude, les scientifiques ont donc cherché à partir d’un « filtre » biosourcé. Ils se sont plus précisément penchés sur la cellulose, cet élément fondamental composant les parois cellulaires des plantes. En ajustant sa structure moléculaire, les équipes de recherche sont parvenues à créer un très petit matériau cristallin – à peine 100 nanomètres de long, soit 1000 fois plus petit qu’un cheveu humain ! Cette nanocellulose était couverte à chaque extrémité de minuscules chaînes de cellulose (ou nanocristaux) ayant l’allure de cheveux.

Pour utiliser leur filtre, les chercheurs l’ont plongé dans une solution aqueuse de néodyme et de dysprosium. L’idée était d’observer la capacité de la nanocellulose à séparer les métaux dissous par adsorption, autrement dit en collectant sélectivement leurs ions en surface. Et effectivement, une fois exposée à la solution, la nanocellulose a montré une sensibilité spécifique au dysprosium comparée à d’autres matériaux en cellulose. Sa sélectivité envers le dysprosium était ainsi 16,65 fois supérieure à celle du néodyme. À l’avenir, cette nouvelle technologie d’isolation et de récupération du dysprosium pourrait ouvrir la voie en tant que moyen commercial plus rapide et plus propre de recycler les différentes terres rares.

Revue du Magazine d’Actualité #65 du 2 au 6 mars

Entre défis climatiques, accélération technologique et impératifs de souveraineté, les priorités européennes et françaises se redessinent rapidement.


⚡ ÉNERGIE & ENVIRONNEMENT

Transition énergétique : Bruxelles peine à sécuriser ses matières premières critiques

Le rapport de la Cour des comptes européenne souligne les fragilités persistantes de l’UE dans l’approvisionnement en métaux essentiels à la transition énergétique. Malgré un règlement adopté en 2024 et plusieurs partenariats internationaux, les résultats tardent à se concrétiser et la dépendance vis-à-vis d’un petit nombre de pays reste préoccupante.
Pourquoi les métaux critiques deviennent un enjeu stratégique


+4 °C, l’Europe au pied du mur

Une nouvelle analyse scientifique met en garde contre l’insuffisante préparation du continent face à des scénarios de réchauffement extrêmes. Au-delà de +3 °C, les impacts sur les infrastructures, l’économie, la santé et les services essentiels se cumuleraient, mettant sous tension la capacité d’adaptation de l’UE.
Explorer les scénarios climatiques qui menacent l’Europe


SCIENCE, INDUSTRIE & TECHNOLOGIES

Fusion nucléaire : les startups privées sont-elles en train de doubler ITER ?

Alors que le projet ITER accuse un retard de huit ans, des acteurs privés ambitieux avancent rapidement sur des technologies alternatives. Tandis que le tokamak géant poursuit ses installations, l’écosystème mondial de la fusion se diversifie avec des approches plus agiles.
Découvrir comment la fusion privée change la donne


L’ADEME relance l’appel à projets DECARB IND 25 en 2026

L’agence ouvre une nouvelle fenêtre pour financer des projets industriels de décarbonation : efficacité énergétique, électrification, recyclage des matières, ou encore captage du CO₂. Une initiative alignée sur la SNBC 3 et indispensable pour accélérer la transition des sites industriels.
Des opportunités pour les industriels


La France soutient financièrement les « Pionniers de l’IA »

L’État dévoile 23 lauréats sélectionnés pour accélérer la montée en puissance de technologies d’IA souveraines. Ces projets couvrent robotique, santé, matériaux, sécurité et industrie, et illustrent l’ambition nationale en matière d’innovation stratégique.
Plonger dans les projets IA qui façonneront les prochaines années

Industrie de défense : les défis de la montée en cadence

Face à une demande accrue et à un contexte géopolitique sous tension, la filière française doit transformer profondément ses modes de production. Entre besoins en capacités, recrutements et supply chain, les obstacles restent nombreux pour atteindre une véritable « économie de guerre ».
Comprendre les limites de la montée en puissance industrielle


MATÉRIAUX & SYSTÈMES ÉLECTRIQUES

Pourquoi certaines batteries électriques résistent mieux à l’emballement thermique ?

Toutes les cellules lithium-ion ne réagissent pas de la même façon en situation de surchauffe. Cet article décrypte la composition interne des batteries, le rôle du séparateur, les réactions exothermiques successives et l’impact des différentes chimies sur la sécurité.
Focus sur les mécanismes de sécurité dans les batteries actuelles 


Bon week-end et bonne lecture.

Aluminium, engrais, chimie, des chaînes d’approvisionnement fragilisées au-delà des hydrocarbures

La montée des tensions autour de l’Iran ne se limite pas aux hydrocarbures et rejaillit sur plusieurs marchés industriels. Métaux, engrais et chimie se retrouvent ainsi exposés à des problématiques touchant à la fois la logistique, l’énergie et les assurances maritimes.

Le point de fragilité le plus visible concerne le détroit d’Ormuz, passage clé entre le Golfe et l’océan Indien, dont la perturbation provoque des retards, des déroutements et des surcoûts d’assurance qui se répercutent sur des flux industriels.

Dans ce contexte, certaines compagnies maritimes ont annoncé la suspension de réservations de fret maritime vers plusieurs pays du Golfe et l’arrêt de traversées par Ormuz, ce qui réduit mécaniquement l’offre de transport disponible à court terme.

La tension est renforcée par des incidents de sécurité en mer, avec des attaques rapportées sur des navires commerciaux et des centaines de navires en attente de transit, ce qui alimente l’incertitude des chargeurs.

Pour l’aluminium, les répercussions sont immédiates. En effet, le Moyen-Orient pèse autour de 8 % de la production mondiale d’aluminium. Un ralentissement des expéditions au départ du Golfe peut donc rapidement réduire les volumes disponibles sur le marché international et alimenter des tensions sur les prix. Une partie de cette offre s’est ainsi retrouvée contrainte, côté expédition, lorsque l’un des principaux producteurs de Bahreïn a annoncé l’arrêt de ses livraisons et la mise en œuvre de clauses de force majeure, en lien avec l’impossibilité de naviguer dans la zone. En parallèle, un arrêt d’exploitation a été communiqué pour une grande unité au Qatar, avec un redémarrage présenté comme potentiellement long, ce qui augmente le risque d’un déficit prolongé.

En conséquence, les prix sur le contrat à trois mois ont réagi rapidement au LME (London Metal Exchange, Bourse des métaux de Londres), avec plus de 5 % de hausse sur l’aluminium. Ce prix a ainsi atteint son plus haut niveau depuis avril 2022, tandis que les primes du marché physique ont aussi augmenté, en Europe sur la référence duty paid et aux États-Unis sur la référence US Midwest.

Engrais et intrants agricoles, un risque de propagation rapide

L’impact sur les engrais apparaît également critique, car Ormuz concentre une part majeure des exportations de certains intrants agricoles, notamment l’urée et le soufre, essentiels aux fertilisants azotés et phosphatés. Les volumes qui transitent par Ormuz représentent environ 35 % des exportations mondiales d’urée et 45 % des exportations mondiales de soufre, ce qui rend le système vulnérable au moindre blocage.

La tension s’est traduite par une hausse des prix de l’urée granulée au Moyen-Orient, annoncée à plus 130 dollars la tonne, et par une hausse de l’ammoniac en Europe, donnée à plus 130 dollars pour atteindre 725 dollars la tonne sur les références suivies.

Des arrêts de production et d’exportations ont été signalés dans la région, y compris au Qatar et en Iran, ce qui durcit les disponibilités au moment où débute la période d’épandage dans l’hémisphère Nord.

Le risque de transmission aux prix alimentaires est mis en avant par plusieurs analyses, l’argument étant que les engrais soutiennent une part importante de la production agricole mondiale et que la fenêtre de décision des agriculteurs est courte. D’autres évaluations centrées sur la logistique soulignent qu’environ un tiers des engrais mondiaux, en incluant soufre et ammoniac, transitent par Ormuz, ce qui corrobore l’idée d’un goulot d’étranglement.

Chimie et plastiques, l’effet domino par le naphta et le fret

Dans la chimie, la vulnérabilité se joue d’abord sur les matières premières de base, notamment le naphta, utilisé comme charge de vapocraquage pour fabriquer des plastiques et des intermédiaires.

Une partie des flux de naphta depuis le Moyen-Orient vers l’Asie, évaluée autour de 4 millions de tonnes par mois, est perturbée, poussant certains industriels à réduire leurs taux d’utilisation et à chercher des alternatives d’approvisionnement.

Des déclarations de force majeure et des annulations d’appels d’offres d’importation ont été signalées chez des acteurs asiatiques, ce qui illustre une mise sur pause des transactions et une difficulté à former les prix dans l’immédiat.

Les marges du naphta en Asie ont, de fait, bondi jusqu’à leur niveau le plus haut depuis quatre ans, donné à 173 dollars la tonne au-dessus du Brent, ce qui se répercute sur la compétitivité des chaînes pétrochimiques.

Au-delà des charges, les marchés des polymères ont connu un gel temporaire des offres, avec des propositions retirées ou suspendues au Moyen-Orient et sur des marchés clients comme l’Inde, la Turquie ou l’Afrique.

Des hausses de primes de risque ont par ailleurs été observées sur certaines cargaisons, avec des montants rapportés autour de 120 dollars la tonne sur des flux de polypropylène liés à la zone, ce qui renchérit le coût du produit rendu à destination.

Les exportations de chimie de base sont aussi exposées, car le méthanol constitue le premier poste d’exportation chimique de l’Iran, à plus de 9 millions de tonnes en 2025 d’après l’ICIS Supply and Demand Database. Un blocage ou un fort ralentissement des expéditions maritimes ferait surtout sentir ses effets chez les importateurs de méthanol et les industries qui l’utilisent comme matière première.

Enfin, certaines chaînes plus spécifiques, comme la soude caustique, subissent l’effet transport, avec des coûts de fret en hausse dès lors que les routes sont redessinées et que l’énergie renchérit, ce qui pèse sur les prix finaux de nombreux procédés industriels.

À court terme, les tensions s’expliquent donc principalement par trois mécanismes : la contrainte logistique autour d’Ormuz, la volatilité des prix de l’énergie et la revalorisation du risque maritime. Elles se combinent pour tendre simultanément les secteurs de l’aluminium, de l’engrais et de la chimie.

Dans le même temps, les autorités européennes ont indiqué ne pas constater d’inquiétude immédiate sur l’approvisionnement en pétrole ou en gaz, tout en suivant la situation. Cette position laisse apparaître que les effets les plus rapides se font sentir sur les chaînes d’approvisionnement très dépendantes des flux maritimes et des intermédiaires chimiques.

Les opérateurs de datacenters font face à des délais de raccordement qui s’allongent

109 milliards d’euros d’investissement dans l’IA et les datacenters ont été annoncés au Sommet de l’IA en février 2025. Ces chiffres gigantesques ont de quoi nous réjouir, mais ils poussent aussi à réfléchir sur notre capacité à accueillir des projets d’ampleur.

Si, selon RTE, il n’y a pas d’inquiétude à avoir « sur la capacité de la France à produire suffisamment d’électricité pour satisfaire les besoins des datacenters », l’afflux de demandes de raccordement rallonge néanmoins les délais d’attente.

Dans l’Usine Nouvelle, Charles-Antoine Beyney, directeur général de l’entreprise DataOne, fait ainsi part de son désarroi : « Créer un datacenter en France, c’est l’enfer : pour tirer 1,2 kilomètre de câbles, on nous annonce qu’il faut trois ans. »

Entre trois et sept ans pour raccorder un datacenter

Selon un article du journal Le Monde, plus de 140 projets d’usines ou de datacenters avaient signé un contrat de raccordement en février 2025, représentant une puissance de 21 gigawatts. Or, cela équivaut au double de l’énergie actuellement sollicitée par l’industrie !

Que penser de tels chiffres ? Pour RTE, ces chiffres sont artificiels. D’une part, « le taux de concrétisation de tels projets reste faible » et, d’autre part, les porteurs de projets ont tendance à surestimer largement leur consommation d’électricité.

Néanmoins, que les projets aboutissent ou non, l’afflux de demandes oblige RTE à rallonger les délais de raccordement, freinant le « boom » des datacenters et de l’IA. Dans Politico, Olivier Micheli, le patron de Data4, avançait, en 2025, des délais de raccordement qui seraient « passés de deux à trois ans en moyenne à plus de cinq ans et même parfois sept ans. »

Les délais de raccordement sont-ils vraiment plus longs en France ?

En matière de raccordement, la France n’est cependant pas un plus mauvais élève que les autres, car la crise actuelle est globale. En clair, la demande explose partout, alors que l’infrastructure électrique peine à suivre. Si les délais peuvent aller jusqu’à cinq ou sept ans en France, ils sont encore plus élevés à Francfort et à Londres (7-10 ans).

En Irlande, la situation est encore pire : le pays accueille plus de 80 datacenters, principalement centrés dans la région de Dublin et consommant 22 % de l’électricité du pays, ce qui pousse les autorités à envisager un moratoire sur l’extension des datacenters.

Quelles sont les perspectives d’évolution ?

Pour améliorer la situation, RTE souhaite néanmoins changer les règles concernant le raccordement, en sortant de « la logique du premier arrivé, premier servi ». Le 30 janvier 2026, les acteurs des datacenters se sont d’ailleurs entretenus à ce sujet, avec la ministre déléguée en charge de l’Intelligence artificielle et du Numérique, Anne le Hénaff.

Il est donc clair que RTE est en capacité de raccourcir ces délais en priorisant certains projets et il le fait déjà pour des projets industriels considérés comme stratégiques. C’est par exemple le cas de la nouvelle usine de freins carbone de Safran, dont le délai de raccordement par RTE a été raccourci à 45 mois contre 60 mois habituellement.

Sur le plan européen, des réformes sont également en cours pour réduire les délais et fiabiliser l’accès au réseau, pour l’industrie. La Commission européenne encourage notamment les États membres à mettre en place des bonnes pratiques : anticipation des investissements dans le réseau, transparence des tarifs de raccordement, dématérialisation totale des procédures, ou encore tri des demandes selon la maturité des projets.

Le marché automobile français décroche encore, l’électrification s’accélère

La rupture de tendance observée depuis plusieurs mois se confirme avec un recul proche de 15 % des immatriculations de voitures neuves en février 2026 par rapport à février 2025, et une baisse d’environ 11 % sur les deux premiers mois de l’année. Les chiffres de la Plateforme automobile indiquent 120 764 immatriculations de voitures particulières neuves en février 2026, soit – 14,70 % sur un an, et 227 921 immatriculations sur janvier et février, soit – 11,05 % en données brutes.

La baisse ne se limite pas aux voitures particulières si l’on regarde l’ensemble des véhicules légers, même si les utilitaires légers ont évolué différemment sur le mois. Ainsi, 149 633 véhicules légers neufs ont été immatriculés en février 2026, en baisse de 11,88 %, et 281 453 l’ont été sur les deux premiers mois, en baisse de 9,16 %, tandis que les véhicules utilitaires légers neufs atteignent 28 869 en février, en hausse de 2,24 %.

Le décrochage ressort encore plus fortement quand la comparaison se fait avec l’avant-pandémie. Le niveau de février 2026 est présenté comme inférieur d’environ 30 % à celui de février 2019, ce qui représente près de 100 000 voitures en moins sur les deux premiers mois de l’année par rapport à la même période de 2019. Ce diagnostic d’un marché en retrait durable est également repris dans des analyses sectorielles diffusées au début mars 2026, qui reprennent la baisse de 14,7 % en février et soulignent le retour vers des volumes historiquement bas pour un mois de février, hors chocs industriels exceptionnels.

Une électrification qui résiste à la baisse des volumes

La singularité du début 2026 tient au fait que la baisse des volumes coexiste avec une progression des ventes de véhicules électriques. Les immatriculations de voitures électriques sont annoncées en hausse de 28 % en février 2026 par rapport à 2025, dans un contexte où le bonus écologique et les livraisons liées au leasing social sont mis en avant comme facteurs de soutien. La part de marché des voitures électriques est donnée à 27 % sur le mois dans cette même analyse, alors que les motorisations diesel tombent à 3 %, l’essence à 15  %, et les hybrides atteignent 53 %. Selon l’étude de la SDES (services des statistiques du ministère du développement durable), la part des voitures électriques se situe à 26,4 % en février 2026, et place les hybrides rechargeables à 5,4 %, ce qui confirme un ordre de grandeur autour de 26 à 27 % selon les périmètres et catégories retenus.

Cette recomposition du mix énergétique n’est pas neutre pour l’industrie. L’électrification est associée à un soutien de la production en France, avec une production de voitures annoncée en hausse de 17 % en 2025, au-delà d’un million d’unités, auxquelles s’ajoutent 400 000 véhicules utilitaires. Sur le terrain commercial, certaines marques se distinguent sur le début d’année. Il est fait état de plus de 7 000 immatriculations sur deux mois pour Skoda, en hausse de 47 % par rapport aux deux premiers mois de 2019, tandis que BMW recule moins que le marché, avec un positionnement produit et tarifaire jugé plus constant sur la durée.

Prix, fiscalité et marché à deux vitesses

Pour sa part, le durcissement du malus CO2 au 1er janvier 2026 touche désormais des citadines dans certaines versions, avec des exemples chiffrés à 50 euros pour une version de Renault Clio et 240 euros pour une version de Peugeot 208. Dans le même temps, les prix moyens des motorisations électrifiées reculent en janvier, de l’ordre de 3 % pour les voitures 100 % électriques et les hybrides, alors que les motorisations thermiques progressent, avec un prix moyen essence mentionné à 24 850 euros et un diesel à 42 362 euros dans les données citées. Par ailleurs, bonus déduits, le prix d’une électrique peut pour la première fois passer sous celui d’un thermique, tandis que l’offre de modèles affichés à moins de 29 000 euros en prix catalogue se développe, avec des bonus annoncés entre 3 500 et 7 700 euros selon les revenus et l’origine de la batterie. Dans les meilleures ventes de février, la Citroën  C3, disponible aussi en version électrique, passe devant la Dacia Sandero.

Le contraste est encore plus visible quand on regarde l’occasion. Sur janvier et février, le marché de l’occasion est donné en baisse de 5 %, à 853 169 transactions, avec une montée des véhicules de plus de dix ans qui représentent 50 % des transactions, en hausse de 6 %, tandis que les voitures de moins de cinq ans reculent de 3 %. Cette image d’un marché à deux vitesses oppose des flottes d’entreprises incitées à électrifier leurs choix et des ménages plus contraints qui se replient vers des véhicules plus âgés pour contenir la dépense.

Le mouvement s’inscrit enfin dans un contexte européen moins porteur en début d’année. Dans l’Union européenne, les immatriculations de voitures neuves reculent de 3,9 % en janvier 2026 par rapport à janvier 2025, tandis que la part de marché des voitures électriques atteint 19,3 % et celle des hybrides 38,6 %, avec une baisse de la part cumulée essence diesel à 30,1 % sur le mois. Dans ce cadre, les perspectives restent sensibles aux facteurs macroéconomiques et géopolitiques, cités comme éléments pesant sur la visibilité du secteur au moment où les volumes fléchissent et où la transition technologique s’accélère.

Micro- et nanofabrication 3D : vers une rupture avec les résines polymères grâce à l’assemblage optofluidique

Ces dernières années, la fabrication additive à l’échelle micro- et nanométrique a profondément modifié les stratégies de conception en science des matériaux. Au-delà du simple contrôle de la composition chimique, elle permet désormais d’agir sur l’architecture interne des structures avec une précision submicronique, ouvrant la voie à la fabrication de matériaux architecturés et de dispositifs multifonctionnels intégrés.

Parmi les procédés de référence figure la polymérisation à deux photons (2PP), une technique d’écriture directe reposant sur l’absorption optique non linéaire d’impulsions laser femtosecondes. La réaction photochimique ne se produit qu’au point focal, permettant la fabrication de géométries tridimensionnelles complexes avec une résolution inférieure au micron, voire de l’ordre de 100 nm dans certaines configurations optimisées. Cette technologie est aujourd’hui largement utilisée pour la réalisation de microlentilles, de cristaux photoniques tridimensionnels, de micro-engrenages, de micro-ressorts ou encore d’échafaudages biomimétiques destinés à l’ingénierie tissulaire.

Un verrou matériaux identifié

Malgré ses performances, la 2PP présente toutefois une limitation structurante : elle repose quasi exclusivement sur des résines polymères photosensibles. Même si des stratégies de post-traitement (pyrolyse vers des céramiques, métallisation secondaire, infiltration) permettent d’élargir partiellement le champ applicatif, le matériau de départ demeure un polymère.

Cette contrainte limite notamment la diversité des propriétés mécaniques possibles, les performances électriques et thermiques, l’intégration native de fonctions conductrices, magnétiques ou semi-conductrices, ou encore la conception directe de structures multi-matériaux.

Dans une perspective de microrobotique avancée, de métamatériaux photoniques actifs ou de microdispositifs biomédicaux robustes, cette dépendance aux résines constitue aujourd’hui un verrou technologique.

Changement de paradigme : l’assemblage optofluidique

Une étude récente publiée dans la revue Nature par des chercheurs de l’Institut Max Planck et de la National University of Singapore propose cependant une approche alternative fondée sur l’assemblage optofluidique de micro- et nanoparticules.

Contrairement à la 2PP, qui repose sur une solidification locale d’un précurseur liquide, cette méthode adopte une logique d’assemblage dirigé. Des particules fonctionnelles (polymériques, céramiques, métalliques ou semi-conductrices) sont dispersées dans un milieu fluide. Des champs optiques focalisés génèrent des forces de gradient permettant de piéger, déplacer et positionner ces particules avec une grande précision tridimensionnelle.

L’architecture finale est obtenue par organisation spatiale contrôlée de ces « briques » élémentaires. La stabilité mécanique est assurée par des interactions interparticulaires (forces de van der Waals, interactions de surface, consolidation lors du séchage), sans recours à une polymérisation.

Micro- et nanofabrication 3D par assemblage optofluidique
Principes de la micro- et nanofabrication 3D par assemblage optofluidique et exemple de microstructures réalisées © MPI-IS, Lyu et al. 2026, Nature

Sur le plan conceptuel, il s’agit d’un passage d’une écriture par réaction chimique locale à une écriture par assemblage physique de particules fonctionnelles.

Performances et apports

Dans leur étude, les auteurs démontrent la capacité à fabriquer des microstructures tridimensionnelles autoportantes avec une précision adaptée aux échelles micro- et nanométriques. L’intérêt majeur réside dans la compatibilité intrinsèque avec une large variété de matériaux (métaux, oxydes, céramiques techniques ou matériaux biocompatibles), à condition qu’ils puissent être dispersés sous forme particulaire.

Cette approche ouvre plusieurs perspectives, comme par exemple la fabrication de multi-matériaux natifs par intégration directe de particules aux propriétés conductrices, magnétiques ou optiques distinctes dans une même architecture. Des avancées en fonctionnalité embarquée sont également envisageables, grâce à la possibilité d’intégrer, dès la phase d’assemblage, des éléments actifs au sein d’une structure porteuse.

Pour la microrobotique, cela signifie la possibilité de concevoir des architectures combinant structure mécanique, conduction électrique et fonctions optiques dans un même objet fabriqué en une seule séquence.

En photonique, l’assemblage contrôlé de particules à indice ou propriétés plasmoniques spécifiques pourrait faciliter la réalisation de cristaux photoniques 3D. En biomédical, l’utilisation directe de céramiques ou de matériaux bioactifs pourrait améliorer la stabilité et la durabilité des micro-implants.

Enjeux technologiques et limites

Malgré son potentiel, l’assemblage optofluidique reste à un stade exploratoire et soulève plusieurs défis. L’assemblage particule par particule peut en effet limiter le débit de production, la transposition vers des procédés industrialisables reste à développer, le comportement sous contraintes thermiques ou dynamiques élevées à tester, tout comme la stabilité à long terme et l’homogénéité structurale.

Vers une nouvelle génération de microstructures fonctionnelles

En s’affranchissant de la dépendance aux résines photosensibles, l’assemblage optofluidique propose une voie alternative crédible pour la micro- et nanofabrication tridimensionnelle. Il ne s’agit pas nécessairement de remplacer la 2PP, dont la maturité industrielle est avancée, mais d’élargir le spectre des architectures et des matériaux accessibles.

Cette approche pourrait ainsi constituer l’une des briques technologiques de la prochaine génération de dispositifs microtechnologiques multifonctionnels, à l’interface entre fabrication additive, ingénierie des matériaux et systèmes intelligents intégrés.

Pourquoi certaines batteries électriques résistent mieux à l’emballement thermique ?

L’essor des véhicules électriques, du stockage stationnaire et des appareils électroniques portables a mis en lumière un risque particulièrement surveillé : l’emballement thermique des batteries. Ce phénomène, relativement rare au regard des millions de cellules en circulation, n’en reste pas moins spectaculaire lorsqu’il se produit. Il se caractérise par une élévation incontrôlée de la température, susceptible d’entraîner un incendie, voire une explosion, et de représenter un danger pour les personnes et les infrastructures environnantes. Comment ce processus se déclenche-t-il réellement, et en quoi varie-t-il selon les technologies de batteries utilisées ?

Au cœur de la plupart des batteries modernes se trouvent des cellules électrochimiques qui stockent l’énergie sous la forme chimique. Une cellule lithium-ion typique est constituée d’une anode, généralement fabriquée à partir de graphite, d’une cathode dont la composition varie selon la technologie, d’un électrolyte liquide inflammable et d’un séparateur poreux qui empêche le contact direct entre l’anode et la cathode. C’est précisément la défaillance de ce séparateur qui initie souvent l’emballement thermique, car lorsqu’il se décompose, le contact direct des électrodes provoque un court-circuit interne et une production de chaleur.

Ce premier réchauffement peut rester localisé. Mais si la température dépasse certains seuils, plusieurs réactions chimiques exothermiques s’enchaînent. Une publication parue dans la revue Processes précise que le film protecteur à la surface de l’électrode négative se décompose lorsque la température devient supérieure à 80 °C, libérant des gaz et de la chaleur. Ensuite, l’électrolyte commence à se dégrader, tandis que la cathode se décompose à des températures plus élevées, libérant parfois de l’oxygène qui alimente la combustion. À ce stade, la réaction s’auto-entretient et accélère plus vite que la capacité de dissipation de chaleur du système, et conduit à l’emballement thermique.

Le type de chimie de la batterie influence fortement la façon dont se produit ce phénomène. Par exemple, les batteries à base de lithium-fer-phosphate (LFP) ont une structure cristalline dite olivine beaucoup plus stable thermiquement que les cathodes à base de nickel, manganèse et cobalt (NMC) ou à base de nickel-cobalt-aluminium (NCA). Dans des essais thermiques, les cellules LFP présentent des températures d’initiation de la réaction bien plus élevées et des taux d’auto-chauffement plus faibles que leurs homologues NMC ou NCA.

Cette stabilité accrue s’explique en partie par la faible libération d’oxygène lors de la décomposition de la cathode LFP, ce qui réduit la combustion interne et la propagation de la réaction. En revanche, les cathodes à structure en couches comme celles de type NMC ou NCA libèrent de grandes quantités d’oxygène lorsqu’elles se décomposent, favorisant une combustion plus intense et une propagation plus rapide de l’emballement thermique.

Des seuils d’emballement plus élevés pour les batteries sodium-ion

D’après une étude parue dans Journal of Energy Storage, les batteries de type sodium-ion présentent une plus faible propension à l’emballement thermique que celles de type lithium-ion, car leurs températures de déclenchement de réactions auto-entretenues ont tendance à être plus élevées. Des essais ont d’ailleurs montré une production de gaz et de fumée ainsi qu’une escalade thermique généralement plus faible de ces batteries, qui sont donc considérées comme ayant un profil de sécurité amélioré dans des scénarios d’utilisation intense ou défaillante.

Au-delà des technologies utilisées dans ces batteries, l’emballement thermique est considéré comme un problème d’ingénierie globale conditionné par un grand nombre de paramètres. Il dépend notamment de la façon dont les cellules sont assemblées, du système de gestion thermique et de surveillance de la batterie, du type de refroidissement, ainsi que des systèmes de sécurité intégrés qui peuvent isoler ou couper des cellules défaillantes avant qu’une réaction en chaîne ne se propage.

Techniques de l’Ingénieur participe à Global Industrie !

Le rendez-vous qui fait rayonner l’industrie française

Pendant quatre jours, plus de 60 000 professionnels, 2 500 exposants et 750 intervenants se réuniront pour penser, accélérer et valoriser l’industrie de demain. Prenez votre badge dès maintenant :

Global Industrie 2026

Un catalyseur business à 360°

Conçu comme un véritable carrefour d’opportunités, le salon fédère l’ensemble de l’écosystème : industriels, territoires, fédérations, start-up, investisseurs et décideurs politiques. Structuré autour de 14 univers complémentaires, Global Industrie offre aux entreprises des leviers concrets pour :

  • développer leur activité grâce à une base d’1 million de contacts qualifiés,
  • identifier les innovations majeures,
  • accéder à des partenaires stratégiques,
  • anticiper les grandes mutations technologiques et sociétales,
  • attirer et recruter les talents.

Plus qu’un salon, Global Industrie est un moteur d’innovation, de performance et de souveraineté industrielle.

Fil rouge 2026 : créativité et Made in France

Cette édition mettra à l’honneur la créativité industrielle française et la dynamique du Made in France. Un parcours inédit au cœur du salon illustrera la manière dont les technologies industrielles nourrissent la création et les savoir-faire d’excellence.

Cette thématique inspirera également la 5ᵉ édition des Golden Tech, concours emblématique valorisant plus de 100 candidats dans 11 métiers industriels. Placée sous le signe de « L’Art de vivre à la française », la compétition mettra en scène des épreuves alliant tradition et innovation : robotique appliquée à la gastronomie, optimisation d’ateliers de confection, soudage d’éléments de flacons de parfum ou encore réalisation de malles métalliques. Un show en continu qui célèbre l’excellence industrielle française.

Nouveauté 2026 : l’Espace Booster

Pensé pour orienter efficacement les industriels vers des solutions immédiatement activables, l’Espace Booster réunira une soixantaine d’acteurs autour d’un hub central. Objectif : faciliter les mises en relation et proposer un accompagnement personnalisé autour de quatre grands piliers : financement/investissement, international, compétences et conseil.

Vingt start-up, sélectionnées à l’issue d’un appel à manifestation d’intérêt, y présenteront des solutions opérationnelles pour répondre aux défis actuels de la transformation industrielle. Ateliers courts, rendez-vous experts et espaces d’échanges directs viendront compléter ce dispositif résolument pragmatique.

Le Village des Technologies Numériques : un hub stratégique

Déjà reconnu comme un espace clé du salon, le Village des Technologies Numériques franchit une nouvelle étape en 2026. Aux côtés de la 5G privée, de la cybersécurité et de l’IA industrielle, trois nouveaux piliers structurent désormais son offre :

  • cloud et edge computing,
  • jumeaux numériques,
  • data centers.

Sur 450 m², plus de cinquante exposants – parmi lesquels Hub One, Nokia et Araiko – présenteront des solutions dédiées à la performance, à la sécurité et à la souveraineté numérique des infrastructures industrielles.

Nouveau Village Manutention / Stockage / Logistique

Autre temps fort de l’édition parisienne : un village de 4 000 m² dédié à la manutention, au stockage et à la logistique. Une soixantaine d’exposants y dévoileront des solutions pour la supply chain, la maintenance et le transport industriel.

Point d’orgue : l’« Entrepôt connecté by GI », une immersion dans l’usine logistique du futur, avec postes de préparation optimisés, pilotage en temps réel des performances, innovations en robotique et amélioration de l’ergonomie et de la sécurité au travail.

Porter la voix de l’industrie

Global Industrie, c’est aussi une tribune d’expression. Sur la Grande Scène, les grands enjeux sectoriels seront débattus : compétitivité internationale, transformation industrielle, innovation ou encore attractivité des métiers auprès des jeunes générations.

La GITV, plateau TV installé au cœur du salon, ainsi que les nombreuses scènes thématiques, viendront amplifier la visibilité des initiatives et des acteurs qui façonnent l’industrie française.

Un rendez-vous stratégique pour l’avenir

Plus grand rassemblement industriel en France et parmi les trois premiers en Europe, Global Industrie incarne un moment d’engagement collectif au service de la France industrielle.

En 2026, le salon confirme sa vocation : connecter les écosystèmes, accélérer les coopérations et démontrer que l’industrie est plus que jamais un levier de compétitivité, d’innovation et de rayonnement.

Industrie de défense : les défis de la montée en cadence

Le 13 juin 2022, soit quatre mois après l’invasion de l’Ukraine par la Russie, le président annonçait « nous entrons dans une économie de guerre ». Malheureusement, force est de constater que, trois ans et demi plus tard, le compte n’y est pas et Emmanuel Macron a tenu à le rappeler lors de ses vœux aux armées de janvier 2026.

Il a néanmoins commencé par saluer les efforts faits, les cadences ayant parfois doublé ou triplé. Bien qu’il n’ait pas parlé du Rafale dans son discours, les récents chiffres de production communiqués par Dassault Aviation laissent à penser que l’entreprise fait partie des bons élèves. En effet, 26 Rafale ont été produits en 2025, dont 11 pour la France, contre 21 appareils en 2024 (14 pour la France) et la barre des 30 avions devrait normalement être atteinte pour 2026.

Or, si l’objectif fixé est d’au moins trois avions par mois (36 par an), le PDG de Dassault, Éric Trappier, a annoncé le 21 mars 2025 que l’entreprise allait passer à « cadence 4 » d’ici 2027 et étudiait même le passage à cadence 5 (60 avions par an).

Néanmoins, dans son discours, ce n’est pas l’exemple du Rafale que le président a choisi, mais un autre, bien plus révélateur de l’écart entre la situation actuelle et une « véritable économie de guerre » : celui des drones. Il a rappelé que la France est « en retard sur les drones », notamment par rapport à l’Ukraine, qui a su innover et surtout massifier sa production, puisque le pays a produit 4 millions de drones en 2025, contre seulement quelques milliers en France !

L’accélération de la production est en cours

Souhaiter entrer en « économie de guerre » est une chose, mais être en mesure de le faire réellement en est une autre. En effet, passer d’un rythme de production « en temps de paix » à une production structurée pour la guerre nécessite :

  • une transformation profonde de l’industrie, avec une augmentation des capacités de production, une standardisation et une supply chain robuste ;
  • des ressources humaines formées, avec un recrutement accéléré dans l’industrie, une fidélisation et des formations ciblées (soudeurs, électroniciens, opérateurs CNC, etc.) ;
  • un financement massif et rapide, via une hausse des budgets militaires.

Comme la hausse de 6,5 milliards des crédits alloués à la défense pour 2026 a finalement été adoptée par le parlement, après quatre mois d’attente, l’industrie de la défense va pouvoir aborder 2026 avec de bonnes perspectives financières.

En revanche, pour ce qui est d’augmenter les capacités de production, qui semblent aujourd’hui au bord de la saturation, et réduire les durées de développement, il faudra du temps. Bien que la situation semble évoluer trop lentement pour le chef de l’État, une accélération globale de l’industrie de l’armement est néanmoins amorcée.

La direction générale de l’armement (DGA) vient, par exemple, de commander deux munitions téléopérées, au fabricant de missiles MBDA. Or, ces munitions ont été développées dans un temps très court, puisqu’il s’est passé à peine un an et trois semaines entre l’officialisation du contrat et la livraison, ce qui est « une cadence inconnue dans les programmes d’armement traditionnels », selon Hugo Coqueret, responsable du business développement des affaires terrestres et aéroterrestres chez MBDA.

Par ailleurs, pour arriver à un tel résultat et gagner ce marché, MBDA a dû changer de méthode, c’est-à-dire commencer à travailler sur le projet avant même que l’appel d’offres ne soit lancé et donc que les financements ne soient débloqués par la DGA. En outre, la DGA fait également des efforts de simplification administrative et d’accélération.

Ce n’est pas le seul exemple illustrant les changements en cours. On peut également citer le projet Chorus, un partenariat entre Renault et l’ETI Turgis & Gaillard, dont le but est de permettre à la DGA de transposer l’expérience du secteur automobile en matière de production massive à bas coût, à la production de drones militaires. Si le projet est présenté comme une initiative test, il marque néanmoins une rupture, aussi bien pour la DGA que pour Renault, puisque c’est la première fois que la DGA fait appel à un grand industriel civil pour produire en masse une munition téléopérée (MTO) longue portée.

Un secteur qui recrute à tour de bras

Sur le plan des ressources humaines, l’industrie de la défense fait face à des défis gigantesques, car il lui est impossible d’augmenter les cadences sans profils qualifiés. Or, comme chacun le sait, la France fait actuellement face à des pénuries de compétences, notamment en soudage, chaudronnerie et maintenance. Comme le rappelle Benoit Labrousse, Président de Randstad France, l’industrie de défense se retrouve donc en « concurrence frontale avec le secteur nucléaire et, plus largement, avec l’ensemble des industries requérant ces compétences ».

Pour lui, l’industrie de défense doit actionner trois leviers stratégiques :

  • recruter des talents extérieurs, provenant d’autres secteurs industriels connexes, comme l’automobile ou l’aérospatiale civile ;
  • pérenniser les savoir-faire en misant notamment sur l’alternance et la montée en compétence des équipes ;
  • valoriser l’attractivité technique de ces métiers et opérer les transformations qui permettront d’accueillir les jeunes talents pour qui le secteur de la défense n’est pas une évidence, et semble moins attractif que le numérique ou l’automobile.

La dynamique de recrutement est cependant déjà en place et, dans les mois qui viennent, l’industrie de la défense va embaucher massivement. On peut citer en exemple le groupe Thalès, acteur majeur de l’aérospatiale, de la défense et des technologies critiques qui prévoit de recruter 3 300 personnes sur le sol français en 2026, Naval Group, leader du naval de défense, qui envisage 1 200 CDD et CDI, et 900 stagiaires et alternants, ou encore le missilier MBDA, qui avance le chiffre de 900 recrutements.

La France soutient financièrement les « Pionniers de l’IA »

Depuis 2018 et la remise du rapport Villani sur l’intelligence artificielle, la France a structuré sa stratégie nationale autour de l’IA, financée par le plan d’investissement France 2030.

La troisième phase de ce plan, lancée lors du Sommet pour l’action sur l’IA en février 2025, se concentre sur l’application de l’IA dans des secteurs clés pour la productivité et la souveraineté technologique. L’appel à projets « Pionniers de l’IA », opéré par Bpifrance et l’Agence NALU (Inria), s’inscrit dans cette logique. Il vise à faire de la France un précurseur en innovation technologique, en répondant aux défis de souveraineté et de compétitivité.

Les 23 lauréats, annoncés le 10 février 2026, ont été sélectionnés pour leur potentiel de réplicabilité, leur complexité technique et leur impact organisationnel. Cinq secteurs se distinguent particulièrement : la robotique, la conception industrielle, la sécurité, la santé, et la transition écologique.

Parmi les lauréats, plusieurs projets illustrent la diversité des applications de l’IA. Dans le domaine de la santé, le projet MAGRITTE, porté par RAIDIUM, développe un modèle d’analyse d’images pour accélérer les diagnostics des radiologues, en s’appuyant sur une base de données inédite d’un milliard d’images hébergées en France. En robotique, le projet AIDE2, piloté par le CEA, vise à déployer un réseau VLM optimisé sur un robot d’assistance pour le maintien à domicile des personnes dépendantes.

Une logique de collaboration

Dans l’industrie, le projet ORCHESTRO, mené par Gobano Robotics et Nio Robotics, permet l’orchestration de différents modèles d’IA pour automatiser les processus de production des PME et ETI. Le projet BATMANE, porté par ENTALPIC, utilise l’IA pour accélérer la découverte de nouveaux matériaux pour les batteries, en collaboration avec des laboratoires académiques et des acteurs industriels.

En sécurité, le projet NOESIS, développé par ARLEQUIN, propose des outils d’analyse des signaux faibles sur les réseaux sociaux et les médias, afin d’éclairer les décideurs sur les enjeux stratégiques.

L’appel à projets « Pionniers de l’IA » s’inscrit dans une logique de collaboration entre acteurs publics, privés et académiques. Les lauréats bénéficient non seulement d’un soutien financier, mais aussi de la possibilité de s’associer à des laboratoires et des industriels pour passer à l’échelle.

Cette approche est complétée par d’autres initiatives, comme le programme France Legaltech, qui vise à accélérer l’adoption de solutions d’IA dans le domaine juridique. Parmi les lauréats de ce programme, on trouve des plateformes comme Allaw, qui facilite l’accès au droit, ou Dastra, spécialisée dans la conformité réglementaire (RGPD) grâce à l’IA.

Avec ces nouveaux lauréats, la France entend jouer un rôle de premier plan dans la révolution de l’IA, en misant sur l’innovation, la souveraineté technologique et la collaboration entre tous les acteurs de l’écosystème.

Les projets soutenus couvrent des enjeux majeurs, de la santé à l’industrie, en passant par la sécurité et l’environnement. Ils témoignent d’une volonté de transformer les défis technologiques en opportunités économiques et sociales.

Reste à savoir si ces initiatives suffiront à positionner durablement la France parmi les leaders mondiaux de l’IA, face à des concurrents comme les États-Unis ou la Chine.

L’ADEME relance l’appel à projets DECARB IND 25 en 2026

Ce dispositif géré par l’ADEME est la suite de l’appel à projets DECARB IND initié dans le cadre du plan France Relance. Il fait partie du plan France 2030 et s’inscrit dans la dynamique du paquet « Fit for 55 » de la Commission européenne.

Un appel à projets aligné sur la SNBC 3

Cette prolongation de DECARB IND 25 est en cohérence avec l’objectif de réduction des émissions de gaz à effet de serre de l’industrie défini par la Stratégie Nationale Bas Carbone 3 (SNBC 3).

Or, pour atteindre cet objectif de réduction de 42 % entre 2021 et 2030, l’industrie devra passer de 78 MtCO₂eq émis par an en 2021 à 45 MtCO₂eq par an à horizon 2030.

Quels sont les projets éligibles

Pour être éligibles, les projets devront répondre à un cahier des charges précis et entrer dans au moins une des quatre thématiques suivantes.

1) Efficacité énergétique

Cette catégorie concerne les projets visant à réduire la consommation énergétique par le remplacement d’équipements, l’optimisation de procédés, la récupération de chaleur fatale (si associée à d’autres leviers éligibles), la valorisation électrique de chaleur fatale et la valorisation de combustibles fatals.

2) Modification du mix énergétique

Les projets visant à l’électrification des procédés (fours, PAC, remplacement des compresseurs, etc.), l’intégration d’énergies thermiques renouvelables et les techniques de récupération non couvertes par le Fonds Chaleur, sont ici concernés.

3) Modification du mix matières

Les changements concernant les matières premières peuvent également avoir un impact fort, sur les émissions globales d’un site industriel. L’utilisation de matières premières recyclées (MPR) au lieu de matière vierge (notamment en plasturgie), tout comme les procédés de recyclage, font partie des leviers principaux.

4) Captage, stockage et utilisation du CO₂ (CCS/CCU)

Les projets de captage et de séquestration du carbone entrent également dans le périmètre de DECARB IND 25, sous certaines conditions détaillées dans la FAQ proposée par l’ADEME.

Comment candidater ?

Pour connaître l’éligibilité de votre projet, vous pouvez d’ores et déjà contacter l’ADEME à cette adresse.

Par ailleurs, l’ADEME a également fixé des critères stricts, autant sur le plan financier que de la réduction des émissions de CO₂. Pour être éligible, toute opération d’investissement dans l’appareil productif et/ou des utilités devra :

  • engendrer un coût d’investissement supérieur à 3 M€ sur un même site industriel ;
  • être associé à une demande d’aide strictement inférieure à 30 M€ ;
  • permettre une réduction minimum de 1 000 tCO2e par an des émissions de GES.

Enfin, n’attendez pas l’ouverture de l’appel à projets pour constituer votre dossier ! Tous les documents nécessaires, ainsi que la liste des pièces justificatives à fournir, sont disponibles sur la page dédiée à DECARB IND 25.

Techniques de l’Ingénieur participe à Techinnov !

20 ans au service de l’innovation

Depuis deux décennies, Techinnov s’impose comme le rendez-vous incontournable où se rencontrent business et innovation. En 20 ans, l’événement a vu naître des centaines de projets, accompagné la transformation d’entreprises et contribué à l’intégration durable d’innovations dans notre quotidien. Une réussite collective qui témoigne de la vitalité de l’écosystème français.

Une conviction fondatrice : l’innovation se construit ensemble

Créé sous l’impulsion de la CCI Essonne, en partenariat avec la CCI Paris Ile-de-France, Techinnov est né d’une idée forte : l’innovation doit être portée collectivement.

Depuis 20 ans, l’événement propose un espace privilégié d’échanges et de rencontres entre laboratoires de recherche, startups, grands groupes et investisseurs. Objectif : favoriser la croissance des entreprises innovantes et accélérer le passage de l’idée au marché.

Au fil des éditions, Techinnov a su fédérer les territoires d’innovation, désireux de valoriser leur attractivité et leur compétitivité à travers les startups qu’ils accompagnent.

Une 20ᵉ édition sous le signe de l’ambition nationale

Pour sa 20ᵉ édition, Techinnov prend une dimension nationale avec la représentation de nombreuses régions françaises. Cette ouverture se traduit également par la création de deux prix dédiés aux régions, venant compléter les catégories historiques :

  • GreenTech
  • FoodTech & Agritech
  • HealthTech
  • Défense & Sécurité
  • Transformation Numérique
  • Tech2030

Une évolution qui confirme la volonté de l’événement de refléter la diversité et la richesse de l’innovation sur l’ensemble du territoire.

Un soutien affirmé dans un contexte exigeant

Dans un environnement économique marqué par des bouleversements conjoncturels, Techinnov réaffirme plus que jamais son engagement aux côtés des entreprises.

Derrière les milliers de rendez-vous d’affaires organisés chaque année se dessinent des trajectoires entrepreneuriales, des avancées technologiques concrètes et un impact économique réel. Techinnov agit ainsi comme un véritable catalyseur de croissance.

Un événement pensé pour les startups

Chaque année, Techinnov met en lumière des startups visionnaires. Participer à l’événement, c’est :

  • Booster sa croissance
  • Accéder à des opportunités d’affaires ciblées
  • Rencontrer des décideurs et investisseurs clés
  • Intégrer un réseau d’acteurs majeurs de l’innovation

En 20 ans, Techinnov est devenu bien plus qu’un salon : un moteur de connexions stratégiques et un accélérateur de projets.

Cap sur l’avenir

Fidèle à sa mission, Techinnov continue de regarder vers l’avenir avec la même énergie qu’à ses débuts : s’inspirer pour créer, innover pour améliorer, explorer pour avancer. Un engagement durable au service de l’innovation française et de celles et ceux qui la font vivre au quotidien.

Fusion nucléaire : les startups privées sont-elles en train de doubler ITER ?

Le projet ITER avance, lentement mais sûrement

En juillet 2024, Pietro Barabaschi, directeur général d’ITER, annonçait le report à au moins  2033 de la première production de plasma, une étape indispensable à la fusion et initialement prévue pour 2025. La production « d’énergie magnétique complète », initialement prévue pour 2033 dans le calendrier initial, a également été décalée à 2036.

Néanmoins, malgré les nombreux déboires et les retards, il y a des signes tangibles que ce projet titanesque avance. La construction de la chambre à vide toroïdale du tokamak, constituée de neuf éléments soudés ensemble, est notamment bien avancée, puisque le 4e module a été installé fin janvier. L’objectif est de terminer la mise en place de ces éléments fin 2026.

D’autres projets publics se développent à l’international

ITER n’est pas le seul programme visant à démontrer la faisabilité de la fusion contrôlée à grande échelle, qui soit financé par des États. Le plus remarquable est le dispositif JT‑60SA, inauguré au Japon, fin 2023. Il a été conçu et financé par l’Union européenne et le Japon dans le cadre de la collaboration « Approche Élargie ».

Le JT-60SA est, à ce jour, le plus grand dispositif de fusion nucléaire en fonctionnement. Néanmoins, ce n’est pas un « concurrent » d’ITER, puisqu’il a été conçu pour soutenir le fonctionnement d’ITER et étudier la meilleure façon d’optimiser la conception et le fonctionnement des centrales à fusion qui seront construites dans les années futures. Le CEA est d’ailleurs fortement impliqué dans le projet.

En dehors d’ITER et JT‑60SA, voici une liste des principaux projets de fusion publics répertoriés dans le monde.

Principaux projets publics de fusion recensés dans le monde
Principaux projets publics de fusion recensés dans le monde

Néanmoins, ce tableau couvre uniquement les grands projets publics stratégiques de dimension internationale. Pour avoir une liste complète, il faudrait ajouter les dispositifs universitaires, les petits tokamaks nationaux et l’ensemble des installations historiques toujours en service.

Une foule d’acteurs privés se lancent également

Selon la base de données de l’AIEA dédiée aux projets de fusion, il y aurait (au 27 février 2026) 116 projets publics de fusion recensés dans le monde et pas moins de 66 projets privés.

Si la majorité des projets privés sont situés aux États-Unis (35 sur 66), l’Europe en compte 15, la Chine 7 et le Japon 4. Une compétition féroce semble donc être lancée dans le domaine de la fusion nucléaire « privée ».

En février 2026, la start-up américaine Helion Energy est notamment devenue le premier acteur privé à « démontrer une fusion deutérium-tritium (DT) mesurable et atteindre des températures de plasma de 150 millions de degrés Celsius. » Outre le record de température, c’est surtout, selon la Sfen[1], la première fois qu’une entreprise arrive à « obtenir et exploiter du tritium pour ses opérations de fusion nucléaire ».

Bien que les États-Unis aient démarré plus tôt que les autres cette course à la fusion privée, l’Europe n’est pas en reste. L’Allemagne, qui avait choisi de sortir du nucléaire en arrêtant ses dernières centrales en 2023, a maintenant pour ambition de devenir le premier pays à maîtriser la fusion. Or, l’Allemagne se distingue déjà avec quatre entreprises privées.

Proxima Fusion, Marvel Fusion et Focused Energy ont ainsi présenté une feuille de route commune sur le développement de l’industrie allemande de la fusion. Proxima Fusion a d’ailleurs pour ambition de construire la première centrale à fusion au monde basée sur une conception stellarator, un dispositif de confinement magnétique différent du Tokamak, et qui présente des avantages et inconvénients différents du Tokamak.

De son côté, Gauss Fusion, une autre start-up allemande qui travaille à la conception d’un stellarator, veut démontrer, à travers un rapport de 1 000 pages, qu’elle serait capable de construire un tel réacteur à fusion de 1 GW à l’horizon 2045.

Deux start-up françaises sont également en lice : GenF, créée en 2024, suite à un projet lancé par Thalès et Renaissance Fusion (2020), qui mise, tout comme Gauss et Proxima, sur l’architecture stellarator. L’entreprise va d’ailleurs lancer, en 2026, une ligne pilote de production de bandes supraconductrices haute température, un composant complexe qui est la clé de la technologie stellarator.

La course mondiale à la fusion nucléaire est donc lancée. Que le vainqueur soit un acteur public ou privé, une seule certitude : la réussite d’un projet d’une telle ampleur repose sur une étroite collaboration internationale.


[1] Société française d’énergie nucléaire

Les actualités à suivre : Europe, IA, matière premières, impression 3D…

Sommet « Made in Europe » : mars 2026, le test grandeur nature de la préférence européenne

Mars 2026 s’ouvre sur une séquence très « exécution » : la Commission doit dévoiler le 4 mars son plan « Made in Europe » (Industrial Accelerator Act), après un report dû à des désaccords sur le périmètre.

Le cœur du dispositif consiste à introduire des seuils de contenu local pour les projets financés par fonds publics (batteries, solaire/éolien, hydrogène, nucléaire, véhicules électriques), avec un débat sur la définition de « local ».

Dans l’immédiat, la bataille des filières s’intensifie : la sidérurgie pousse pour intégrer l’acier bas-carbone, et plaide pour un périmètre géographique resserré.

Le sujet sera politiquement cadré lors du Conseil européen des 19–20 mars à Bruxelles, où l’équilibre entre la souveraineté, le coût des projets et les frictions commerciales sera arbitré.

Dans les mois suivants, l’impact sera très concret pour l’industrie : critères d’éligibilité aux aides, rédaction des cahiers des charges, clauses « origine » chez les EPC et intégrateurs, et recalage des stratégies de sourcing.

À moyen terme, l’enjeu est d’éviter un « texte-slogan » : tout se jouera sur la méthode de calcul (composants vs valeur), les exemptions, et la vitesse d’application.

À long terme, si les règles sont stables, le « Made in Europe » peut devenir un signal d’investissement (batteries, équipements énergie, matériaux) et réduire certains écarts de compétitivité, comme le suggèrent des travaux récents sur les batteries.

De l’IA « utile » à l’IA « certifiable » : les jalons 2026 du règlement européen

Depuis l’entrée en vigueur de l’AI Act, l’actualité n’est plus au débat mais à l’exécution : les interdictions et l’obligation de littératie IA s’appliquent déjà, et les règles de gouvernance ainsi que les obligations pour les modèles IA à usage général (GPAI) sont entrées en application le 2 août 2025.

La prochaine marche, elle, est très proche : au 2 août 2026, le règlement devient pleinement applicable (avec une transition plus longue pour certains systèmes « high-risk » intégrés à des produits réglementés, repoussée à 2027).

Pour l’industrie, l’impact immédiat est contractuel : dès maintenant, les achats doivent exiger l’inventaire des cas d’usage IA, leur qualification de risque, et des preuves de maîtrise (données, traçabilité, tests, supervision humaine) avant toute généralisation en production.

Dans les mois qui viennent, l’enjeu est de transformer les pilotes en systèmes « auditables » : mise en place d’une gouvernance, d’un cadre qualité et de procédures de suivi post-déploiement, pendant que les fournisseurs de modèles s’alignent (ou non) sur le Code de pratique GPAI publié le 10 juillet 2025, devenu un signal de conformité pour une partie du marché.

Autre étape à anticiper : d’ici août 2026, les États doivent disposer de « bacs à sable » réglementaires, ce qui peut accélérer certains déploiements encadrés… mais aussi standardiser les attentes des autorités.

En clair, 2026 sera moins l’année des POC que celle de la preuve : qui sait documenter, contractualiser et monitorer l’IA gagnera les appels d’offres… Les autres verront leurs projets ralentis par les exigences de mise en conformité.

Avion du futur : Berlin hésite, la chaîne de valeur européenne retient son souffle

Le SCAF/FCAS revient en tête de l’agenda industriel européen après les signaux envoyés par Friedrich Merz : une décision est attendue « dans les prochaines semaines » sur l’avenir du programme et, surtout, sur la réalité d’un chasseur de nouvelle génération (NGF) commun.

Le chancelier allemand a multiplié les messages de prudence, estimant qu’il reste à voir si FCAS peut produire un avion commun, tout en jugeant que le programme pourrait davantage déboucher sur des systèmes que sur un seul appareil.

Dans l’immédiat, l’enjeu pour l’industrie n’est pas seulement « continuer ou arrêter », mais quel périmètre sauver : un scénario évoqué consiste à décorréler le NGF (risque de split franco-allemand) tout en conservant des briques communes (drones/remote carriers, cloud de combat, intégration).

Dans les mois qui viennent, les répercussions seront très concrètes sur la chaîne de valeur : gel ou redéploiement des budgets, re-planification des démonstrateurs, et arbitrages « make or buy » sur les capteurs, calculateurs critiques, liaisons de données, cybersécurité OT, ainsi que sur les matériaux (haute température, furtivité, structures composites).

À moyen terme (2026-2028), une clarification rapide conditionnera la capacité des équipementiers à investir dans des lignes qualifiées défense (composants durcis, packaging, tests) et à sécuriser les talents (logiciel temps réel, systèmes, simulation).

La décision annoncée « dans les prochaines semaines » est donc un jalon industriel autant que stratégique : elle dira si l’Europe capitalise sur une base commune ou si elle organise une divergence durable de ses filières aéronautique, électronique et systèmes.

Matières premières : la souveraineté se joue en 2026… dans les procédures

L’UE est passée en 2026 de l’ambition à l’exécution du Critical Raw Materials Act (CRMA) : des objectifs 2030 (extraction/raffinage/recyclage) et surtout le levier des « Strategic Projects » censé accélérer permis et financement.

Une première liste a déjà été sélectionnée, mais l’actualité immédiate rappelle le « mur industriel » : la Cour des comptes européenne juge que la diversification des imports reste faible à ce stade.

Sur le terrain, l’acceptabilité est déjà un facteur bloquant, avec des recours contre des projets emblématiques. Et côté aval, un signal faible inquiète : GKN a renoncé à son projet d’usine d’aimants permanents, une brique critique dominée par la Chine.
Prochain rendez-vous : la Commission lance une deuxième vague de sélection, qui dira si le label se traduit enfin en décisions d’investissement (FID), contrats d’offtake et chantiers. En clair, 2026 et 2027 seront le test : accélérer les projets sans perdre la bataille des permis, du cash… et de la « licence sociale ».

Airbus fait entrer le titane imprimé en 3D dans le « monde série » du long-courrier

Airbus fait passer l’impression 3D du titane du registre « R&D » au registre « industrialisation ». L’avionneur détaille sa stratégie w-DED (wire-Directed Energy Deposition) pour produire de grandes pièces structurelles avec moins de pertes matière qu’en usinage.
Le signal fort, c’est l’entrée dans la chaîne série : Airbus indique avoir commencé l’intégration en production de pièces w-DED sur l’A350, dans la zone du contour de porte-cargo, avec une séquence de qualification (CND/usinage/installation) typique des pièces critiques.

Ce choix « porte-cargo » n’est pas anodin, il met la technologie au contact des enjeux actuels de l’aéronautique : montée en cadence, réduction des lead times, et maîtrise coût/masse sur des sous-ensembles fortement industrialisés.

Dans les mois qui viennent, l’effet d’entraînement se jouera sur la supply chain : capacité des fournisseurs qualifiés à monter en débit, normalisation des plans de contrôle (CND, traçabilité matière, paramètres procédé), et arbitrage économique entre forge/usinage et « near-net-shape » additive.

À moyen/long terme, si Airbus confirme des gains coût-délai sur des pièces « grandes dimensions », le w-DED peut rebattre les cartes des investissements (robots/DED, cellules d’usinage, métrologie), accélérer le design-to-print et pousser l’industrie à standardiser davantage la qualification des procédés additifs pour les structures.

Webinar : Améliorer les Performances des Piles à Combustible et des Électrolyseurs avec COMSOL Multiphysics®

Organisé jeudi 12 mars à 11h, ce webinar en accès libre met en avant l’optimisation du design et des performances des piles à combustible et des électrolyseurs, par la modélisation et la simulation numérique. Elles permettent de tester virtuellement leurs conditions de fonctionnement et en tenant compte de la gestion hydrique et thermique.

La plateforme de simulation COMSOL Multiphysics® et son module complémentaire Fuel Cell & Electrolyzer offrent un large éventail de fonctionnalités permettant d’analyser les systèmes de piles à combustible et d’électrolyseurs, que l’électrolyte utilisé soit une membrane polymère, une solution alcaline, des oxydes solides ou encore des sels fondus. Le logiciel inclut des réactions électrochimiques prédéfinies aux électrodes, des données thermodynamiques prédéfinies pour les mélanges de gaz, des fonctionnalités pour modéliser la mécanique et la thermique de l’assemblage membrane-électrode, ainsi que les écoulements multiphasiques et monophasiques dans les couches poreuses et les canaux.

Les capacités de COMSOL Multiphysics® pour analyser le fonctionnement des piles à combustible et des électrolyseurs et améliorer leurs performances, en illustrant les fonctionnalités clefs vis-à-vis de cette thématique seront présentées durant ce webinar.

 

+4°C, l’Europe au pied du mur

Le sujet aujourd’hui n’est donc plus de trancher entre une trajectoire unique de réchauffement, mais de modifier la façon dont l’Europe planifie ses décisions. En conséquence, il s’agit de fonder l’adaptation sur une gamme de scénarios crédibles, y compris des scénarios élevés, afin de tester la robustesse des infrastructures, des budgets et des politiques publiques, plutôt que de dimensionner l’action uniquement sur un scénario central ou souhaité. De plus, la préparation doit désormais intégrer des scénarios dépassant les objectifs politiques, compte tenu des impacts déjà constatés et parce que certaines trajectoires de réchauffement ne peuvent pas être écartées à ce stade.

Une mise à jour récente de recommandations scientifiques européennes insiste sur un point simple. L’adaptation ne peut plus être traitée comme un supplément de politique climatique, car les risques touchent la sécurité des services critiques tels que l’eau, l’énergie, l’alimentation, la santé, mais aussi la stabilité économique. La température moyenne mondiale a quant à elle déjà atteint environ 1,4°C au-dessus du niveau préindustriel. Par ailleurs, l’Europe se réchauffe environ deux fois plus vite que la moyenne globale.

Cette accélération se traduit par des aléas plus fréquents et plus sévères, avec des vagues de chaleur, des sécheresses, des incendies, des inondations, l’élévation du niveau de la mer et l’érosion côtière évoquées comme des menaces qui concernent toutes les régions européennes. Le sujet n’est plus seulement l’ampleur des risques, mais leur cumul et leur propagation. Une même séquence climatique peut affecter les infrastructures, perturber des chaînes d’approvisionnement, fragiliser des écosystèmes et mettre sous tension les finances publiques.

Des dommages déjà mesurables, des scénarios de référence à formaliser

Le débat s’appuie aussi sur des ordres de grandeur déjà observés. Une estimation récente attribue en moyenne autour de 45 milliards d’euros par an de dommages économiques aux infrastructures et actifs physiques en Europe, tandis que la chaleur extrême est associée à des dizaines de milliers de décès prématurés, dont une estimation de 24 000 durant l’été 2025. À ces pertes s’ajoute un enjeu de couverture financière, puisqu’une analyse publiée mi-février 2026 indique qu’environ seulement un quart des pertes économiques liées aux catastrophes climatiques dans l’Union est actuellement assuré.

Dans ce contexte, l’adoption d’une référence commune pour la planification est privilégiée. Il est proposé de préparer les politiques publiques et les investissements à des risques compatibles avec une trajectoire mondiale de 2,8 à 3,3°C de réchauffement d’ici 2100, en soulignant que le niveau de réchauffement ressenti en Europe serait plus élevé. Cette logique s’accompagne d’une demande de « stress tests » utilisant aussi des scénarios plus défavorables, afin d’identifier ce qui casse en premier dans les réseaux, les bâtiments, les systèmes de santé, l’agriculture ou les zones littorales.

Le raisonnement rejoint un diagnostic plus large sur les vulnérabilités du continent. Une évaluation européenne des risques climatiques publiée en 2024 identifie 36 risques majeurs menaçant notamment la sécurité énergétique et alimentaire, les écosystèmes, les infrastructures, l’eau, la stabilité financière et la santé, avec l’idée que plusieurs risques ont déjà atteint des niveaux critiques et peuvent devenir catastrophiques sans action rapide. Cette évaluation insiste sur le fait que l’adaptation doit être coordonnée, car une partie des risques est transfrontalière et concerne des systèmes interconnectés.

De la stratégie à l’exécution, un enjeu de cohérence et de financement

Sur le plan institutionnel, l’Union dispose déjà d’une stratégie d’adaptation adoptée en 2021, avec l’objectif de rendre l’adaptation plus intelligente, plus rapide et plus systémique, tout en renforçant l’action internationale. Cette stratégie s’accompagne d’un chantier annoncé pour aller davantage vers un cadre intégré de résilience climatique et de gestion des risques.

Le point de friction se situe dans la mise en œuvre. Les recommandations récentes pointent des efforts jugés insuffisants. Elles appellent à mobiliser des investissements publics et privés, ainsi qu’à clarifier la manière dont le budget européen et des mécanismes de partage du risque peuvent absorber la hausse du coût des impacts climatiques. Sur le terrain, la discussion se traduit par des arbitrages concrets, comme éviter de construire en zones exposées aux inondations ou adapter l’urbanisme pour réduire l’exposition aux pics de chaleur.

Enfin, la préparation à des scénarios très élevés ne remplace pas la réduction des émissions. Le même ensemble de recommandations rappelle qu’il existe des limites à l’adaptation et que chaque incrément de réchauffement augmente les impacts, ce qui rend les réductions d’émissions indispensables en parallèle des politiques de résilience. L’alerte sur un monde à 4°C sert ainsi de test de robustesse, pour mesurer ce que l’Europe doit renforcer dès maintenant afin de protéger ses populations, ses infrastructures et ses bases économiques dans un climat déjà plus instable.

Transition énergétique : Bruxelles peine à sécuriser ses matières premières critiques

Lithium, nickel, cobalt, cuivre, gallium…, ces matières premières critiques sont au cœur des technologies bas carbone. Or, l’Union européenne dépend massivement des importations pour la plupart d’entre elles et certaines de ces ressources proviennent majoritairement d’un seul pays tiers. C’est le cas du bore, fourni à 99 % par la Turquie, du magnésium à 97 % par la Chine, ou encore du lithium, qui provient à 79 % du Chili. Dans un rapport, la Cour des comptes européenne dresse un constat sévère sur cette situation. Selon elle, la stratégie adoptée par l’Europe pour limiter sa dépendance reste fragile et surtout, les résultats concrets tardent à se matérialiser.

Vingt-six ressources sont actuellement inscrites sur la liste européenne des matières premières critiques jugées indispensables aux technologies liées à la transition énergétique, dont 15 sont considérées comme stratégiques. En 2024, l’UE a adopté un règlement pour sécuriser son approvisionnement, qui fixe plusieurs cibles à l’horizon 2030, à savoir extraire sur le sol européen 10 % de la consommation annuelle de matières stratégiques, en transformer 40 % et en recycler 25 %. Aucune matière première stratégique ne doit par ailleurs dépendre à plus de 65 % d’un seul pays tiers. Ces objectifs ne sont toutefois pas contraignants et la méthodologie ayant conduit à ces seuils reste peu transparente, rapportent les auditeurs. Il apparaît en plus que les données utilisées sont parfois anciennes et les projections concernant la demande sont incertaines.

Ces dernières années, 14 accords stratégiques ont été conclus avec des pays producteurs dans le but de sécuriser les approvisionnements de l’Europe, mais selon la Cour, ils ne se sont pas soldés par de véritables résultats sur les importations. De plus, pour environ la moitié des matières premières examinées, les volumes en provenance de pays partenaires ont diminué entre 2020 et 2024. Certaines négociations, notamment avec les États-Unis, ont par ailleurs été interrompues tandis que plusieurs partenaires affichent des indicateurs de gouvernance jugés faibles, ce qui accroît les risques politiques et juridiques.

Des taux de recyclage très en dessous des ambitions

Le développement de l’économie circulaire constitue un autre axe de la stratégie européenne. Mais là encore, l’ambition se heurte à la réalité puisque les taux actuels de recyclage sont très faibles. Sept des 26 matériaux présentent des taux compris entre 1 % et 5 %, tandis que dix ne sont pas recyclés du tout. Les objectifs européens ne sont généralement pas fixés matière par matière, ce qui limite les incitations pour les métaux les plus complexes à récupérer, comme les terres rares ou le palladium.

Le rapport indique que les recycleurs européens doivent faire face à des coûts énergétiques élevés, à une faible disponibilité des déchets exploitables et à des difficultés réglementaires. Faute d’incitations suffisantes à l’utilisation de matières recyclées, la demande reste pour l’heure incertaine. Alors qu’il pourrait réduire la pression sur l’extraction primaire et renforcer l’autonomie stratégique, la Cour considère que le potentiel de circularité est loin d’être exploité.

La réduction de la dépendance passe aussi par le développement des capacités internes. Mais l’exploration, l’extraction et la transformation restent limitées sur le territoire européen. Les obstacles sont multiples et sont liés à des difficultés d’accès au financement, à une rentabilité incertaine, à des coûts énergétiques élevés, à des procédures d’autorisation longues et complexes, ainsi qu’à des contraintes environnementales. La Commission a prévu des « guichets uniques » et des procédures accélérées pour les projets stratégiques, mais leur déploiement reste progressif. Surtout, aucun financement européen dédié n’est spécifiquement attaché au label « projet stratégique ». Nombre de projets identifiés en 2024 et 2025 se trouvent à un stade précoce de développement et ont peu de chances, selon la Cour, de contribuer significativement à la sécurisation de l’approvisionnement d’ici 2030.

Dans ces conditions, la trajectoire actuelle laisse planer un doute sérieux sur la capacité de l’Union à atteindre les objectifs qu’elle s’est fixés d’ici à la fin de la décennie. Selon les auditeurs, la stratégie existe, mais ses instruments restent partiellement opérationnels et ses effets difficiles à mesurer. L’UE risque donc de voir sa transition énergétique freinée non par un manque d’ambition climatique, mais par une pénurie de ressources.

Techniques de l’Ingénieur participe à JEC World 2026 !

JEC World est le principal salon au monde dédié aux matériaux composites, à leurs technologies et à leurs secteurs d’applications.

Organisé chaque année à Paris depuis plus de 60 ans, JEC World est l’événement de référence de l’industrie, rassemblant tous les acteurs majeurs de l’ensemble de la chaîne de valeur des composites, dans un esprit d’innovation, de business et de networking.

JEC World est également une source d’inspiration et de découvertes, visité par des professionnels issus des industries utilisatrices finales telles que l’aéronautique et le spatial, la mobilité et le transport, les infrastructures et la construction, les énergies renouvelables et la gestion de l’eau, jusqu’aux équipements sportifs et à l’électronique grand public.

En 2026 l’évènement proposera un programme de conférences inspirant, explorant les tendances majeures qui façonnent l’avenir de l’industrie des composites. Les sessions de cette édition mettront l’accent sur des thèmes clés tels que les matériaux circulaires et le design & la simulation, et mettront en lumière des secteurs stratégiques comme la construction, l’aéronautique et le maritime, moteurs d’un développement plus durable et performant des solutions composites.

Les participants découvriront les dernières innovations, les tendances technologiques et les avancées de la recherche qui stimulent le progrès dans ces domaines essentiels.

Grâce à un format combinant keynotes, panels d’experts et présentations de produits, les conférences favoriseront les échanges approfondis, le partage de connaissances et la génération d’insights concrets et exploitables. Rejoignez les leaders, innovateurs et experts internationaux pour anticiper les prochaines grandes transformations de la chaîne de valeur des composites et rester à la pointe de l’évolution du secteur.

Techniques de l’Ingénieur participe à Paris Space Week 2026 !

Paris Space Week 2026 s’affirme comme un véritable catalyseur de croissance et le carrefour d’affaires incontournable de l’industrie spatiale mondiale. L’événement réunit décideurs, acheteurs et fournisseurs autour d’un objectif clair : générer des opportunités concrètes et accélérer le développement de l’écosystème spatial.

Un événement 100 % business

La force de PSW réside dans la mise en relation directe entre donneurs d’ordres en quête de solutions innovantes et startups ou fournisseurs capables de relever les défis technologiques de demain. Grâce à une plateforme de rendez-vous B2B qualifiés et préprogrammés, l’événement favorise la génération de leads, la signature de partenariats et la croissance des acteurs européens et internationaux.

Des formats dédiés à l’innovation et à l’expertise

Pour soutenir cette dynamique, plusieurs formats structurent les échanges :

  • Signature Talks : panels d’experts et de décideurs, animés notamment par Astech et KPMG, autour de sujets clés tels que l’IA et la souveraineté, la décarbonation spatiale (avec ESA, CNES et Cosmos for Humanity), la réglementation ou encore le financement européen.

  • Innovation Spotlight – Pitch : sessions courtes de présentation de solutions face aux donneurs d’ordres (nouveaux usages en orbite, matériaux aérospatiaux, etc.).

  • PSW Innovation Challenge : grand concours réunissant les startups les plus prometteuses (Observation de la Terre & Services, Technologies satellitaires, Hardware/Numérique).

Une dimension internationale affirmée

L’édition 2026 s’ouvrira par une intervention officielle de la NASA sur la coopération internationale autour du programme Artemis II. Panels d’investisseurs (Citicourt, OTB Ventures, Space Founders), technologies de rupture, observation de la Terre : PSW couvre l’ensemble de la chaîne de valeur spatiale.

Chiffres clés 2026
  • Plus de 1 500 décideurs et professionnels attendus

  • Près de 400 exposants

  • 70 délégations internationales

  • 4 grandes thématiques : Satellites, Lanceurs, Systèmes au sol et Applications spatiales (IA, cybersécurité, observation de la Terre)

De la connectivité globale aux lanceurs nouvelle génération, Paris Space Week 2026 est le hub où se dessine l’avenir de la conquête et de l’économie spatiales.

Informations pratiques
Dates : mardi 10 et mercredi 11 mars 2026 (8h30–18h00)
Lieu : Espace Champerret – 6 rue Jean Oestreicher, 75017 Paris
Programme et inscriptions : www.paris-space-week.com

Bientôt l’heure du renouveau chez T.I

En attendant de vous montrer ce qui arrive chez T.I, voici cinq articles pour explorer ce que le printemps fait bouger : 

Restez attentifs : T.I bourgeonne bientôt, l’heure du renouveau approche…  

Les thèses du mois : « Le Chips Act, pari industriel de l’Union européenne »

Pour notre dossier de février, « Le Chips Act, pari industriel de l’Union européenne », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

Synthèse de nanocristaux semi-conducteurs pour les applications Q-LED
Pierre Machut
Chimie organique
Grenoble-Alpes

Fabrication and doping of semiconducting/insulating polymer blend aerogels for thermoelectric
Souhail Essadiki
Chimie des polymères
Strasbourg

Semiconductor heterostructures based on earth-abundant elements for photovoltaic applications : from material to device
Wafae El Berjali
Physique
Université de Lorraine

Simulations numériques à l’échelle atomique des dommages induits par les radiations dans les semi-conducteurs
Julien Parize
MicroNano Systèmes
Université de Toulouse

​Noise and dynamics of hybrid plasmonic semiconductor lasers for InP-based quantum integrated optical communications
Di Cui
Electronique et Optoélectronique
Institut polytechnique de Paris

Preparation of new Resorcinol-Formaldehyde resin semiconductors and research on photocatalytic nitrogen fixation applications
Ning Zhang
Chimie des matériaux
Lyon 1

Mise en place d’une méthodologie d’éco-conception dans la R&D des semi-conducteurs intégrant les défis de la mise à l’échelle industrielle
João Carlos Lopes Barbosa
Génie Industriel : conception et production
Université Grenoble Alpes

Architecture et conception d’une boucle de rétroaction à température ambiante entre les chaînes de mesure et de contrôle de Qubits semi-conducteurs à température cryogénique
Mathieu Toubeix
Physique appliquée
Université Grenoble Alpes

Analyse de sensibilité et machine learning et leurs applications pour accélérer l’évaluation des performances analogiques de circuits de semi-conducteurs en présence de plusieurs sources de variations paramétriques
Damien Remot
Mathématiques et Applications
Université de Toulouse

Architectures multi-niveaux et multi-buffers pour la commande rapprochée de composants à semi-conducteurs de puissance en SiC incluant la surveillance de leur état de santé et leur protection en régime extrême dans le domaine de l’aéronautique.
Mathis Picot-Digoix
Génie Électrique
Université de Toulouse

 

Semi-conducteurs et capteurs, l’autre moteur discret de la microélectronique

Un extrait de « Capteurs à semi-conducteurs », par Alfred PERMUY, Eric DONZIER, Fadhel REZGUI

Au niveau le plus général, un capteur à semi-conducteur est construit autour d’un élément sensible dont les propriétés électriques varient sous l’effet d’une grandeur d’entrée. La chaîne de mesure consiste ensuite à conditionner, amplifier et interpréter cette variation pour obtenir une information stable et calibrée. Toute la difficulté est de concilier sensibilité, reproductibilité, tenue en température, bruit, vieillissement et compatibilité de fabrication.

Piézorésistance, effet Hall, optique, chimie, les grandes voies de transduction

Pour les capteurs à semi-conducteurs en silicium, l’un des effets physiques les plus exploités est la piézorésistance, c’est-à-dire la variation de résistivité sous contrainte mécanique. Dans le silicium, l’effet peut être très marqué et dépend fortement de l’orientation cristalline, du type de dopage et de la température. Cette anisotropie est un atout, car elle permet d’optimiser la sensibilité en choisissant le bon alignement des jauges dans le cristal.

Concrètement, des résistances implantées ou diffusées dans une membrane de silicium forment souvent un pont de mesure. Lorsque la membrane se déforme sous une pression ou une accélération, les résistances évoluent et créent un signal différentiel. Cette logique est au fondement de nombreux capteurs MEMS de pression, d’accélération ou de force, intégrés ensuite avec l’électronique de lecture.

Cette approche met immédiatement en évidence les contraintes de l’ingénierie capteur. La réponse est sensible à la température, non seulement parce que la résistivité du silicium varie, mais aussi parce que la contrainte mécanique dépend des dilatations et de l’assemblage. Les décalages de zéro, les dérives et les dispersions de fabrication imposent donc des stratégies de compensation, par conception mécanique, par choix de dopage, par calibration ou par correction électronique.

Pour mesurer un champ magnétique, les semi-conducteurs exploitent notamment l’effet Hall et la magnétorésistance. L’effet Hall repose sur la force de Lorentz qui dévie les porteurs lorsqu’un courant circule dans un matériau soumis à un champ magnétique. Il en résulte une tension transverse proportionnelle au champ. Ici, la mobilité des porteurs est un paramètre clé, car elle influence la sensibilité et la robustesse vis-à-vis de certains défauts géométriques. C’est l’une des raisons pour lesquelles, selon les exigences, on peut préférer au silicium des matériaux à plus forte mobilité, notamment parmi les semi-conducteurs III-V.

La magnétorésistance, de son côté, repose sur une variation de résistance en présence d’un champ, avec des déclinaisons qui vont du comportement classique à des effets beaucoup plus prononcés dans des empilements ou matériaux dédiés.

En optoélectronique, les semi-conducteurs sont des convertisseurs lumière-électricité particulièrement efficaces. Dès que l’énergie des photons dépasse l’énergie de gap, des paires électron-trou sont créées. Selon la structure, ces charges sont séparées et collectées, produisant un courant ou une tension. La photodiode, polarisée en inverse, illustre bien ce principe et offre un compromis très intéressant entre sensibilité, linéarité et vitesse. La rapidité dépend des capacités internes, des temps de transit et de la recombinaison, ce qui explique pourquoi la conception de la jonction, la géométrie et les matériaux sont déterminants. À l’échelle des systèmes, ces détecteurs s’intègrent dans des chaînes qui vont du simple photorécepteur jusqu’aux capteurs d’image.

Dans les capteurs d’imagerie, l’héritage MOS est central. Le principe consiste à convertir des photons en charges, puis à stocker et transférer ces charges de manière contrôlée. Historiquement, le CCD a matérialisé cette approche par un transfert séquentiel, tandis que les capteurs CMOS modernes ont poussé plus loin l’intégration en associant directement, au niveau du pixel, une partie de l’électronique de lecture. Dans les deux cas, la maîtrise des interfaces, des capacités parasites, du bruit, de l’uniformité et des courants d’obscurité est un enjeu aussi important que la conversion optique elle-même.

Les capteurs chimiques à semi-conducteurs introduisent une autre idée forte, celle de la surface comme zone active. Dans les oxydes semi-conducteurs, l’adsorption de molécules et les réactions de surface modifient la densité de porteurs près de l’interface, ce qui se traduit par une variation de conductivité. Le signe et l’amplitude de la réponse dépendent du type de conduction, n ou p, ainsi que de la microstructure, de la température et de l’environnement. Les structures MOS peuvent aussi jouer un rôle de capteur, en particulier lorsque la grille est réalisée dans un matériau catalytique. Des métaux comme le palladium, par exemple, peuvent interagir avec l’hydrogène et provoquer des variations mesurables de caractéristiques électriques. Ces dispositifs sont puissants, mais ils posent des défis de stabilité, car la surface peut se dégrader, s’empoisonner ou évoluer de manière irréversible, ce qui impose des stratégies de régénération, de protection ou de recalibration.

Intégration et miniaturisation, quand le capteur devient un système sur puce

Le fil rouge de ces technologies est l’intégration. Les semi-conducteurs permettent une fabrication collective, reproductible, avec des gains de coût et de performance quand les volumes augmentent. Ils facilitent aussi l’embarquement du conditionnement analogique, de la conversion numérique et même d’une partie du traitement, ce qui mène à des capteurs dits intelligents, capables de compenser, filtrer et diagnostiquer leur propre état. La miniaturisation n’est pas une promesse automatique de meilleure métrologie, car elle peut amplifier le bruit relatif, les effets de surface et les dispersions. Elle ouvre néanmoins des perspectives, notamment lorsque de nouveaux régimes physiques ou de nouvelles architectures deviennent accessibles.

De l’ingénierie à la décision, la maîtrise des risques devient un accélérateur de carrière

Pour beaucoup d’ingénieurs, le parcours professionnel classique ajoute au fil des années une dimension management à l’expertise technique. Ce duo fonctionne tant que l’environnement reste lisible. Or les entreprises évoluent dans une réalité où les menaces ne s’additionnent plus, mais se combinent, entre volatilité géoéconomique, ruptures technologiques, pressions réglementaires, tensions sociales et contraintes environnementales. Dans ce contexte, compléter un profil technique et management par une compétence structurée de compréhension et de gestion des risques permet de franchir un cap, celui qui mène vers des fonctions de pilotage et de décision.

L’international, nouveau centre de gravité des décisions

L’intérêt est aussi lié au terrain sur lequel se jouent désormais de nombreuses décisions, celui des organisations internationales. Pour progresser dans des groupes exposés à la compétition globale, il ne suffit plus d’optimiser un procédé ou de tenir un planning. Il faut savoir interpréter des signaux faibles, anticiper des scénarios, sécuriser des dépendances critiques, puis transformer cette lecture en recommandations actionnables. Autrement dit, passer de l’analyse à l’arbitrage. Une formation spécialisée en intelligence stratégique aide précisément à installer ce troisième pilier, celui qui complète la technique et le management en apportant une méthode pour décider sous incertitude.

Pour l’ingénieur, l’enjeu est donc simple. Il ne s’agit pas de s’éloigner de la technique, mais d’ajouter une capacité à organiser l’intelligence dans l’entreprise, à hiérarchiser les risques et à éclairer des arbitrages. Cette compétence peut devenir un accélérateur crédible vers des postes de décisionnaires, là où la maîtrise des risques et la vision stratégique comptent autant que l’excellence opérationnelle. Le MSc in Strategic Intelligence and Global Risks s’inscrit dans cette logique.

Pourquoi est-il important d’anticiper les évolutions et ruptures auxquelles sont confrontées les entreprises ?

Philippe Hoddé, concepteur et co-directeur du programme : « Dans un monde géoéconomique, géopolitique et géosociologique complexe et volatile, dont la multipolarité des enjeux entraîne une hyper compétition toujours plus omniprésente, il est devenu impératif pour les équipes dirigeantes des entreprises, quelle que soit leur taille, d’acquérir des connaissances actionnables permettant de qualifier, anticiper et appréhender les risques globaux et les rapports de force à des fins de décisions de compétitivité. Il est donc indispensable de faire passer les organisations du stade réactif au stade offensif afin de leur donner une meilleure capacité d’innovation concurrentielle.

Les ingénieurs jouent un rôle primordial dans ces différents domaines d’action. Leur appréhension des questions techniques et industrielles associées aux enseignements délivrés dans le MSc in Strategic Intelligence and Global Risks leur permettront d’être des acteurs incontournables de la prise de décision aux plus hauts niveaux de leurs organisations. »

Wargames, crises, leadership : la gestion des risques en conditions réelles

Le programme vise à rendre opérationnelle la gestion des risques, en s’appuyant sur des mises en situation. L’approche privilégie l’apprentissage par l’action, avec un stage intensif de leadership, des wargames et des simulations de crise. L’objectif est d’entraîner la prise de décision quand le temps manque, que les données sont partielles et que les marges de manœuvre sont réduites. Le parcours se prolonge par un mémoire de fin d’études et une expérience professionnelle de plusieurs mois, afin d’ancrer les méthodes dans un cas réel et de confronter l’analyse à la complexité des organisations.

En quoi le programme se distingue-t-il d’autres cursus ?

« L’objectif du MSc in Strategic Intelligence and Global Risks est de former les jeunes professionnels et futurs managers à la maîtrise des pratiques, des connaissances et de la recherche d’informations en matière d’intelligence stratégique. Cette ambition nécessite d’être préparé aux risques globaux afin de construire des idées, des décisions et des innovations. Ainsi les acteurs économiques pourront agir en conscience compétitive en tenant compte des apports du renseignement sur la concurrence, les données climatiques et politiques afin de défendre, développer ou maintenir leur avantage compétitif.

Concrètement, l’intelligence stratégique et la maîtrise des risques globaux permettent de répondre à de nombreuses problématiques auxquelles sont confrontées les entreprises :

  • choix de partenaires ;
  • fusions, acquisitions, croissance externe ;
  • innovation et anticipation des tendances ;
  • gestion des risques réglementaires et de conformité ;
  • protection contre la prédation économique ;
  • optimisation de l’expérience client et des opérations ;
  • détection et anticipation des risques émergents. »

Maîtriser les règles du jeu avec le MSc in Strategic Intelligence and Global Risks

Un autre atout du programme, particulièrement pertinent pour une cible ingénieurs, tient à sa perspective européenne. L’international y est en effet conçu comme un levier pédagogique pour comparer des cultures de décision et des environnements de risque au sein d’un espace économique et réglementaire très intégré.

Deux séquences structurent cette dimension. Un voyage d’études est ainsi prévu à Turin, au United Nations System Staff College, présenté comme l’institution de formation du système des Nations unies. Une seconde période se déroule à Oulu, en Finlande, dans le cadre d’un échange avec l’Université d’Oulu, avec des visites d’entreprises et une immersion dans un environnement scandinave où les enjeux technologiques et géopolitiques sont particulièrement présents.

Cette orientation européenne peut compter pour des ingénieurs qui visent des responsabilités dans des groupes opérant largement sur le continent, ou en interaction constante avec ses normes, ses chaînes de valeur et ses dépendances stratégiques.

Quelles sont les forces du MSc in Strategic Intelligence and Global Risks ?

« L’ambition de notre programme correspond aux nouvelles problématiques et besoins exprimés par les organisations, qu’elles soient privées ou publiques, au travers de nombreuses publications sur le sujet de l’intelligence stratégique, en France et à l’étranger. À cela s’ajoutent des mises en garde de la part d’acteurs ou décideurs de premier plan (comme des représentants du Parlement et du Sénat français) sur les risques économiques, politiques et climatiques qui menacent les entreprises françaises et plus largement européennes. »

Sur le fond, le programme met donc en avant des défis qui structurent la décision dans la plupart des entreprises. La géopolitique d’abord, abordée comme une grille de lecture des rapports de force, des dépendances et des vulnérabilités, utile pour sécuriser une supply chain, arbitrer des implantations, ou anticiper l’effet de mesures extraterritoriales. La cybersécurité ensuite, devenue un risque systémique à mesure que l’industrie se numérise, que les systèmes industriels se connectent et que la donnée prend une valeur stratégique. L’environnement enfin, traité comme un facteur de transformation et de risque, au moment où les choix d’investissement, d’innovation, de conformité et de réputation sont de plus en plus contraints par le climat et la réglementation.

Retrouvez ici toutes les informations sur le MSc in Strategic Intelligence & Global Risks d’emlyon business school.

Contact : Nathalie Durand-Souvannasoth
+33 4 12 05 87 53

Le diamant pour créer le semi-conducteur ultime

En 2019, cinq chercheurs de l’institut Néel, laboratoire CNRS grenoblois, créent la start-up DiamFab pour développer une technologie de semi-conducteur en diamant. Afin de poursuivre les travaux entre DiamFab et l’institut, est lancé en 2025 un laboratoire commun, DiamLab, composé de quatre chercheurs de l’Institut Néel, et de trois responsables R&D de DiamFab. L’objectif de ce laboratoire est d’utiliser le diamant pour faire de l’électronique de puissance et fabriquer des semi-conducteurs. Ces derniers sont généralement composés de silicium ou de nitrure de gallium.

Dans les voitures électriques, où la puissance est plus importante, Tesla a recours au carbure de silicium. « Nous pensons que le prochain saut technologique sera le passage au diamant qui convertit mieux la puissance dans un volume réduit et limite les pertes d’énergie », explique Gwenolé Jacopin, chargé de recherche à l’Institut Néel du CNRS et directeur du laboratoire DiamLab. Lui et ses équipes maîtrisent la croissance du diamant pour le rendre isolant, conducteur, voire supraconducteur. Leur expertise se base sur l’arrangement des atomes de carbone. Ils arrivent ainsi à remplacer un atome de carbone sur un million par un atome de bore, ce qui change la conductivité du diamant. Ils font croître le diamant par une synthèse en phase vapeur grâce à du méthane et du dihydrogène avec un plasma créé par micro-ondes. Le carbone se dépose par monocouche. Cette méthode était déjà connue dans le monde de la joaillerie. « Tout l’art de notre procédé est d’arriver à faire croître du diamant et non du graphite, notamment grâce à l’hydrogène qui empêche cela en favorisant les liaisons cristallines. Nous avons également une bonne maîtrise de la pureté et de la concentration de bore dans nos différentes couches », ajoute le chercheur. Ces couches de diamants sont développées sur un substrat qui est ensuite intégré dans les composants électriques et couplé avec des capacités et des résistances.

Avec cette technologie, l’encombrement est plus faible, ce qui offre un bénéfice en termes de dissipation thermique. D’autant que le diamant évacue naturellement la chaleur. L’intérêt de cette technique reste qu’elle ne dépend pas de métaux lourds ou de matières premières critiques. Tous les éléments peuvent être facilement produits en France. Son prix est compensé par les avantages qu’il procure : moins de pertes de chaleur, un poids plus léger et une augmentation des performances.

Des pistes à explorer

L’un des objectifs est d’augmenter la taille des wafers fonctionnalisés pour obtenir le plus de composants possible en un lot de croissance. « Aujourd’hui nous travaillons sur des petits substrats. Mais pour produire en masse, nous avons besoin d‘augmenter leur taille pour avoir un modèle économique viable. Le domaine des semi-conducteurs est soumis à des standards en taille de substrat et tant que nos échantillons sont trop petits ils ne peuvent pas être intégrés dans la chaîne de production », ajoute Gwenolé Jacobin.

L’autre point de recherche de DiamLab et Diamfab est le dopage du diamant non pas avec du bore, mais avec de l’azote pour une utilisation dans les capteurs quantiques. « Lorsqu’on met de l’azote dans du diamant, il se crée un centre coloré : un atome d’azote est associé à une lacune de carbone. Cela engendre des émetteurs quantiques, qui produisent un seul photon à la fois et dont on peut contrôler les propriétés avec différentes excitations. Cela présente aussi des applications dans la mesure du champ magnétique », conclut Gwénolé Jacopin.