De la découverte en laboratoire à l’innovation industrielle… On scrute pour vous chaque semaine les tendances de l’industrie.
Le Salon du Bourget 2025 : quand l’industrie aéronautique se réinvente sous pression
Alors que le crash du Dreamliner Air India 171 et les tensions au Moyen-Orient assombrissent le Salon du Bourget 2025, l’industrie aéronautique s’est réunie autour de la décarbonation, de la souveraineté industrielle et du réarmement européen. Les acteurs du secteur naviguent entre crises et innovations. Bourget 2025 : les défis de l’industrie aéronautique
La France en tête de l’innovation high tech : retour sur VivaTech 2025
VivaTech 2025 a marqué un tournant dans l’industrie technologique européenne. Avec des annonces majeures comme le projet Mistral Compute de NVIDIA et Mistral AI, et des innovations vertes présentées par plus de 40 startups, cet événement a prouvé que l’Europe est prête à rivaliser avec les géants mondiaux. Retour sur les faits marquants de VivaTech 2025
Stellantis : Antonio Filosa face aux enjeux de l’électrification
Antonio Filosa, fort de ses 25 ans d’expérience, s’apprête à diriger Stellantis à partir du 23 juin. Sa nomination met fin à une période d’incertitude suite à la démission de Carlos Tavares. Filosa devra redresser un groupe en difficulté, marqué par une baisse des ventes et des bénéfices. Les missions d’Antonio Filosa à la la tête de Stellantis
L’industrie de l’IA sous tension : Nvidia et la concurrence chinoise
Les restrictions américaines sur les exportations de processeurs vers la Chine pourraient-elles finalement stimuler l’innovation locale ? Nvidia, malgré une perte de chiffre d’affaires significative, continue de croître, mais doit désormais composer avec une concurrence féroce et un marché en pleine évolution, où l’IA générative joue un rôle central. L’impact des décisions américaines sur le marché des semi-conducteurs
Relocalisation industrielle : vers une nouvelle stratégie économique ?
Alors que la relocalisation industrielle est perçue comme une solution pour renforcer la souveraineté nationale, l’OCDE met en lumière les risques économiques associés. Le rapport préconise une gestion agile des risques et une coopération internationale pour maintenir la stabilité économique mondiale. Relocalisation : solution ou piège économique ?
Cosmétique durable : de la conception à la mise en marché
Face à des réglementations de plus en plus strictes et à une demande croissante pour des produits naturels, l’industrie cosmétique doit innover. Techniques de l’Ingénieur présente une nouvelle offre pour guider les acteurs du secteur vers des solutions durables. Comment l’industrie cosmétique s’adapte aux enjeux de durabilité ?
Le méthane, un gaz à effet de serre plus puissant que le CO2, est responsable d’environ 30 % du réchauffement climatique depuis l’ère préindustrielle. À lui seul, le secteur des combustibles fossiles (pétrole, gaz et charbon) représente plus d’un tiers des émissions d’origine humaine. Malgré les alertes scientifiques et les engagements politiques, le dernier rapport intitulé « Global Methane Tracker » de l’Agence internationale de l’énergie (AIE) révèle que les émissions de méthane liées à l’énergie n’ont toujours pas atteint leur pic. En 2024, plus de 120 millions de tonnes ont été rejetées dans l’atmosphère, une quantité alarmante compte tenu des moyens existants pour la réduire.
Pour la première fois, l’AIE intègre dans son suivi les installations abandonnées et constate que les puits de pétrole et de gaz désaffectés, ainsi que les anciennes mines de charbon, ont émis environ 8 millions de tonnes de méthane l’année dernière. À cela s’ajoutent les émissions issues de la bioénergie, provenant en grande partie de la combustion incomplète de la biomasse traditionnelle utilisée pour la cuisson et le chauffage dans les économies en développement, qui contribuent à hauteur de 20 millions de tonnes supplémentaires.
Les experts sont formels : des technologies efficaces et peu coûteuses pourraient permettre de réduire jusqu’à 70 % des émissions de méthane dans le secteur des énergies fossiles. Certaines d’entre elles, comme les systèmes de récupération de vapeurs ou le remplacement des joints humides des compresseurs par des joints secs, offrent des retours sur investissement très rapides, parfois en moins d’un an. Malgré cela, seulement 5 % de la production mondiale de pétrole et de gaz répond aujourd’hui à une norme d’émissions quasi nulles.
Alors que des solutions techniques à bas coûts existent, leur mise en œuvre reste donc le maillon faible. Pourtant, depuis le lancement de l’Engagement mondial sur le méthane en 2021, suivi de la Charte de la décarbonation du pétrole et du gaz en 2023, les promesses se sont multipliées, couvrant aujourd’hui environ 80 % de la production mondiale de pétrole et de gaz. Dans les faits, peu d’entreprises ont formulé de véritables plans d’action, et encore moins ont démontré des réductions concrètes et vérifiables.
De nombreux pays sous-estiment leurs émissions de méthane
Le rapport de l’AIE met aussi en lumière un problème de transparence et souligne que dans la majorité des pays, les émissions sont déclarées sur la base d’estimations obsolètes, sans mesures directes. Or, de nouvelles données satellitaires, de plus en plus précises, démontrent une sous-estimation de près de 80 % des émissions mondiales par rapport aux inventaires nationaux transmis à la Convention-cadre des Nations unies sur les changements climatiques (CCNUCC). Depuis 2024, de nouveaux satellites, comme MethaneSAT ou Sentinel 5P, permettent désormais de détecter aussi bien les super-émetteurs que les petites fuites récurrentes.
Au-delà de la lutte contre le changement climatique, la réduction des émissions de méthane constitue une opportunité pour la sécurité énergétique mondiale. Il est en effet possible de capter le méthane actuellement perdu par le secteur des combustibles fossiles et l’AIE estime que près de la moitié des quantités rejetées pourraient être remises sur le marché. Mais ce potentiel reste largement inexploité, à cause notamment du manque d’infrastructures, de difficultés d’accès au financement, de la faiblesse des incitations réglementaires ou encore de la fragmentation des responsabilités au sein des chaînes d’approvisionnement.
Selon le rapport, les installations abandonnées émettent désormais plus que certains grands pays producteurs. Près de 8 millions de puits de pétrole et de gaz, dont l’exploitation a pris fin, subsistent à travers le monde et la plupart de leurs émissions proviennent de fermetures récentes. Quant aux techniques de cuisson traditionnelles, elles restent une source majeure d’émissions, mais aussi de mortalité. Le rapport rappelle que 2 milliards de personnes n’ont toujours pas accès à une cuisson propre, entraînant près de 3 millions de décès prématurés chaque année. Réduire le méthane relève donc d’un triple enjeu : climatique, énergétique, mais aussi sanitaire.
Après Dubaï et Bakou, c’est au tour de Belém, capitale de l’État du Para, dans le nord du Brésil (8e producteur de pétrole au monde), d’accueillir la prochaine conférence mondiale sur le climat[1]. Rappelons néanmoins que le Brésil prévoit, comme les deux précédents organisateurs des COP, d’augmenter sa production de pétrole dans les années à venir. Une position aberrante, qui illustre le paradoxe des COP et toute la difficulté de l’action climatique.
La COP des COP ?
Les accords de Paris vont bientôt fêter leurs dix ans et entrer dans leur troisième période quinquennale d’application (2026-2030). Concrètement, cela implique que les engagements de réduction d’émission qui figurent dans les contributions déterminées au plan national, les fameux NDC, devront être revus, pour chaque pays.
Or, sur les presque 200 signataires de l’accord de Paris de 2015, 13 seulement ont soumis leur stratégie actualisée de réduction des émissions avant la date limite du 10 février 2025. Ils n’étaient pas plus d’une vingtaine à la date du 31 mai. Même l’UE, habituellement plus assidue, est en retard !
Néanmoins, ces retards ne sont pas à interpréter comme un renoncement, car les pays prennent désormais plus de temps à développer leurs NDC. Pour Ana Toni, directrice générale de la COP 30, la qualité des feuilles de route s’est fortement améliorée, car « les pays développent des plans sectoriels et ils regardent comment ils vont aider à investir dans ces plans. »
Mais, comme le souligne Christian de Perthuis, fondateur de la Chaire Économie du climat, le contexte international n’est pas franchement favorable, entre « l’arrivée de Trump, le remplacement probable de Trudeau par un conservateur dont le premier des mots d’ordre est le démantèlement de la taxe carbone canadienne et les valses hésitations de l’Union européenne sur la mise en œuvre du Green Deal. »
Par ailleurs, la position de la Chine n’est pas claire non plus, puisqu’elle a relancé, en 2024, la construction de centrales thermiques à charbon, tout en poursuivant la croissance exceptionnelle de son parc solaire et éolien[2].
Pourtant les enjeux de cette future COP sont cruciaux et les six prochains mois seront déterminants. La ministre brésilienne de l’Environnement, Marina Silva, qualifie même la COP30 de « COP des COP », celle qui devra être un exemple de coopération entre les pays afin d’arriver « avant la COP 2030 à un alignement sur l’urgence climatique ».
Une diplomatie climatique sans les États-Unis est possible
Il est évident que le succès de la lutte contre le changement climatique est conditionné par la coopération entre un maximum d’États. Mais la grande question est : une politique climatique commune est-elle envisageable, sans les États-Unis ?
Pour Ana Toni, directrice de la COP 30, un multilatéralisme climatique est possible et peut même devenir une force. Selon elle, le fait que les États-Unis aient quitté l’accord de Paris est une mauvaise nouvelle, mais elle considère qu’il est plus constructif de consacrer du temps et de l’énergie à travailler avec les 197 pays qui restent dans l’accord.
En outre, il ne faut pas oublier que les États-Unis avaient déjà quitté l’accord de Paris au cours du premier mandat de Trump, ce qui n’avait pas entraîné, à l’époque, de retraits massifs de la part d’autres pays.
L’autre crainte serait d’entrer dans une période d’inaction, marquée par un manque d’intérêt pour la lutte contre le changement climatique. Mais là encore, il y a des raisons d’espérer, car, malgré le retour aux énergies fossiles porté par Trump, la plupart des pays ont conscience que leur avenir est dans le passage aux énergies décarbonées. Selon l’AIE, le marché mondial des technologies propres devrait ainsi exploser pour passer de 700 milliards en 2023, à 2 000 milliards d’ici 2035.
D’autre part, ce que fait l’administration Trump n’est pas non plus représentatif de tout ce qu’il se passe aux États-Unis. Une lutte interne est d’ailleurs en cours, au niveau politique : le fait que 24 états américains, représentant plus de la moitié du PIB des États-Unis, se soient engagés à poursuivre les objectifs de l’accord de Paris n’est-il pas un signe fort ?
[1] Son nom officiel est « Conférence internationale des parties de la convention-cadre des Nations unies sur les changements climatiques », ou CCNUCC
[2] Avec une capacité totale installée de 887 GW en solaire et 521 GW en éolien (chiffres de janvier 2025), la Chine a construit plus que le reste du monde cumulé, dans ce domaine !
La période Covid n’a d’ailleurs rien d’anodin, puisque c’est sur cette base que depuis 2021, de nombreux pays dont la France – et les Etats-Unis, mais pas la Chine – se sont engagés à compenser les émissions de CO2 liées au trafic aérien à travers un mécanisme appelé CORSIA, pour “Régime de compensation et de réduction du carbone pour l’aviation internationale”, mis en place par l’organisation de l’aviation civile internationale. Le principe est simple : les compagnies aériennes, prenant comme référence leurs émissions de GES d’avant Covid, se sont engagées à travers ce mécanisme à ne pas dépasser ce seuil après la pandémie, et à le faire baisser par la suite. Tout dépassement du seuil fixé entraînant une compensation financière de la part des compagnies aériennes. Un système aujourd’hui basé sur le volontariat, et qui doit devenir obligatoire à partir de 2027.
Mais ce système comporte plusieurs trous dans la raquette. D’abord, ne sont prises en compte que les émissions concernant les vols internationaux, les émissions nationales relevant des politiques nationales ou européennes. Ensuite, on sait aujourd’hui que les émissions de GES dues à l’aviation ne concernent pas que le CO2 : il faut aussi prendre en compte les traînées de condensation, la production des oxydes d’azote, entre autres. Le mécanisme CORSIA prône également la compensation au lieu de la réduction des émissions, ce qui n’engage pas les compagnies aériennes dans des changements drastiques de leurs pratiques.
Selon l’organisation Transport et Environnement, l’extension des réglementations européennes – notamment SEQE-EU – aurait rapporté 23 fois plus d’argent que la mise en place du système CORSIA. Ce dernier apparaît donc beaucoup plus avantageux pour les compagnies aériennes. Ce manque à gagner risque d’avoir un impact sur la capacité des compagnies aériennes à financer les innovations nécessaires qui permettront au secteur aérien d’atteindre la neutralité carbone en 2050.
Compenser plutôt que réduire
Au premier rang de ces innovations figurent les carburants d’aviation durable, ou SAF. Issus de matières organiques (biocarburants) ou de procédés synthétiques à base de CO₂ capté et d’hydrogène vert (e-carburants), ces carburants alternatifs permettent de réduire fortement les émissions nettes de CO₂. L’Union européenne impose leur incorporation progressive dans les carburants : 2 % de SAF dès 2025, 6 % en 2030, et 70 % en 2050. La France, avec son électricité peu carbonée, est bien placée pour produire des e-carburants très peu émetteurs. Mais les volumes restent aujourd’hui modestes, c’est le moins que l’on puisse dire, les coûts très élevés, et la filière peine encore à se structurer.
Ensuite, pour transformer la flotte et réduire les émissions de GES, la recherche aéronautique française travaille sur de multiples pistes. Le CORAC, soutenu par la DGAC et le GIFAS, coordonne les efforts industriels, avec un objectif : mettre en service d’ici 2035 une nouvelle génération d’avions dits « zéro émission », à hydrogène ou à propulsion hybride. Airbus, Safran et d’autres start-up travaillent sur des technologies de rupture comme les moteurs Open Fan, l’intégration motrice à l’arrière du fuselage, ou l’avion à hydrogène.
Un virage industriel majeur, qui nécessitera plusieurs milliards d’euros d’investissements publics et privés dans les dix prochaines années.
Dernière piste d’importance aujourd’hui, la propulsion électrique. Encore trop limitée pour les vols long-courriers, elle trouve un terrain d’expérimentation dans l’aviation régionale. Biplaces de formation, avions navettes ou hybrides de 9 à 19 passagers sont déjà en phase de test. Aura Aero, Enuee ou encore Eviation développent des prototypes d’avions électriques ou hybrides capables d’assurer des liaisons courtes à faibles émissions. Une réponse à la fois aux enjeux climatiques et aux besoins de désenclavement territorial.
SI le principe de l’électrique a de nombreux avantages, comme pour l’électrique routier, les infrastructures à mettre en place rendent l’équation beaucoup plus complexe qu’il n’y paraît.
Ainsi, le sentiment qui prédomine aujourd’hui reste – et il peut être transposé à de nombreux secteurs d’activité contraints de faire baisser leurs émissions – que l’équation économique et la gestion de l’augmentation du trafic doit être menée de front avec l’impératif de réduction de l’empreinte carbone. Un fameux “en même temps” qui permet aujourd’hui à l’aérien de gagner du temps, dans un secteur d’activité qui ne représente “que” 5% des émissions de GES à l’échelle du territoire.
L’OCDE est connue pour militer depuis sa création pour une libéralisation des échanges au niveau international, dans le but de favoriser la circulation des biens au sein d’une économie mondialisée.
La crise sanitaire liée à l’épidémie de la Covid 19, a permis de constater à quel point l’éclatement des chaînes de production a fragilisé la capacité de nombreux pays à être souverains sur la production de biens – masques, respirateurs, médicaments… -.
D’où la volonté de nombreux pays de relocaliser certaines productions et de réindustrialiser, afin de tirer les leçons de cet épisode sanitaire, auquel a succédé la guerre en Ukraine, qui a contraint les Européens à prendre conscience de leur dépendance au gaz russe. Aujourd’hui, le conflit entre la Russie et l’Ukraine est toujours en cours, et l’élection de Donald Trump aux Etats-Unis est venue ajouter une dose supplémentaire d’incertitude au niveau international, argument supplémentaire pour, autant que possible, gagner en autonomie et être souverain sur des chaînes de production ciblées.
Si on reste sur le cas tricolore, de nombreuses initiatives ont été mises en branle pour gagner en souveraineté sur de nombreuses productions : médicaments, batteries, puces électroniques, énergie… Les plans comme France Relance et France 2030 alimentent financièrement et structurent cette volonté. Car la relocalisation des productions coûte cher et ne se révèle viable que si elle est soutenue, au moins dans un premier temps.
Privilégier l’agilité à la fermeture
Cette volonté de relocalisation et les investissements et soutiens massifs pour accompagner ces processus industriels pourraient, c’est ce que fait ressortir un rapport de l’OCDE publié début juin, avoir des impacts très négatifs sur l’économie mondiale. Ainsi, l’organisation table sur un recul potentiel du commerce mondial de près de 18%, et sur un baisse du PIB mondial de plus de 5%. Des chiffres prévisibles, pas forcément quantitativement mais tendanciellement : en effet, la relocalisation implique forcément un repli commercial sur le territoire national, et la suspension d’importations afin de favoriser l’émergence d’acteurs locaux.
Dans le cadre de son rapport, l’OCDE cible les Etats-Unis, le Royaume-Uni, la Corée du Sud, et dans une moindre mesure le Canada, l’Afrique du Sud et l’Australie comme principaux “perdants”, économiquement parlant, d’un scénario de relocalisation massif.
L’hexagone, qui possède des industries fortement intégrées, n’est pas citée comme victime principale, et présente un risque économique “modéré” face à une relocalisation au niveau mondial.
Plus intéressant, le rapport tend à montrer que l’atteinte d’une plus grande résilience face aux crises, grâce à la relocalisation des productions, ne va pas de soi. Au contraire, « la volatilité du PIB augmente dans plus de la moitié des économies modélisées, ce qui met à mal l’idée que la relocalisation est intrinsèquement source de stabilité ».
D’où des recommandations qui s’appuient plus sur l’agilité que sur le repli sur soi : « Le rapport souligne que pour assurer la résilience, il ne faut pas éliminer les risques mais savoir les gérer. Les chaînes d’approvisionnement les plus efficaces sont les chaînes agiles (capables de réagir rapidement), adaptables (capables d’évoluer), et alignées (sur les intérêts communs des entreprises, pouvoirs publics et parties prenantes). Ces qualités sont essentielles pour faire face aux perturbations sans s’extraire du commerce international ».
Plus concrètement, l’OCDE insiste sur la nécessité de fluidifier les formalité douanières pour accélérer les échanges, d’être plus transparent au niveau de la réglementation afin d’aider les entreprises à anticiper les changements, et d’harmoniser les normes, afin de réduire les risques de rupture dans les chaînes d’approvisionnement.
Cocorico, la France a du talent ! Dans différents domaines high tech, l’hexagone compte des développeurs et des ingénieurs de qualité et qui sont appréciés dans le monde entier. La preuve avec le salon Vivatech.
Dans le cadre d’un partenariat historique, le fondeur américain NVIDIA et Mistral AI ont annoncé « Mistral Compute », une infrastructure d’IA basée sur le cloud, de plusieurs milliards d’euros et construite de bout en bout en Europe. Au cours des deux prochaines années, la feuille de route prévoit 20 « usines d’IA » et 200 centres de données à travers la France, l’Allemagne, l’Italie et l’Espagne – garantissant la résidence des données locales et réduisant la dépendance à l’égard des hyperscalers non européens comme Google, Microsoft…
NVIDIA a également choisi VivaTech pour lancer la GTC Paris, l’édition régionale inaugurale de sa conférence phare sur la technologie GPU. Son patron charismatique, Jensen Huang, a donné des conférences sur les percées de l’IA générative tandis que des « ateliers » permettaient aux visiteurs de tester la robotique pilotée par l’IA et les outils de développement de l’IA low code. Ce mélange d’expositions et de conférences sur les technologies de pointe a marqué un nouveau chapitre dans les événements technologiques régionaux.
Pour la première fois, VivaTech s’est associé au magazine high tech TechCrunch pour organiser ses Global Awards. Plus de 1 500 candidatures ont été sélectionnées pour aboutir à une liste de 30 lauréats dans les catégories « Impact ». Parmi les lauréats figurent Reme-D.Inc (traitements biotechnologiques personnalisés pour la peau grâce à la conception de peptides pilotée par l’IA), Verley (solutions de transport maritime entièrement électriques et sans émissions) et Genesis (diagnostics de la santé des sols pilotés par l’IA).
Mais à part Mistral, quelle autre startup a retenu l’attention des experts ? La startup tricolore qui a probablement fait le plus sensation, c’est Habs, rapidement surnommée le « Neuralink » français en référence à la société d’Elon Musk qui planche sur des implants cérébraux.
Mais l’approche de l’entreprise française n’est pas invasive. Elle repose sur des capteurs placés sur le front pour décrypter notre activité cérébrale.
À noter que la seconde édition du pôle de développement durable de VivaTech a mis l’accent sur l’innovation verte avec un pavillon tentaculaire de 1 500 m². Organisé par EDF, il a rassemblé plus de 40 startups, ONG et entreprises partenaires pour présenter des solutions d’économie circulaire – des emballages biosourcés et des matériaux de capture du carbone aux réseaux intelligents et aux systèmes de réutilisation de l’eau – sous un même toit.
En conclusion, VivaTech 2025 a trouvé un équilibre entre un salon high tech « généraliste » et un rendez-vous technique, focalisé cette année sur la prochaine étape de l’IA.
Techniques de l’Ingénieur vous propose un tête-à-tête avec quatre¹ de ces scientifiques, pour évoquer à la fois leur carrière, et leur vision de la place des femmes dans le monde de la recherche scientifique.
Pour le premier entretien de cette série, partons à la rencontre de la lauréate nord-américaine de ce prix L’Oréal-Unesco Pour les Femmes et la Science 2025 : la professeure Barbara Finlayson-Pitts, récompensée pour ses travaux de recherche en chimie atmosphérique.
Professeure au sein du département de Chimie et co-directrice de l’Institut de Recherche Intégrée sur l’Atmosphère de l’Université de Californie à Irvine (USA), Barbara Finlayson-Pitts est une éminente spécialiste de la chimie atmosphérique. Ses travaux pionniers ont en effet largement contribué à bouleverser notre compréhension des mécanismes chimiques fondamentaux à l’origine de la formation de la pollution atmosphérique, et plus particulièrement du smog, dans lequel sont régulièrement plongées de nombreuses villes dans le monde. En permettant ainsi d’affiner les outils de modélisation atmosphériques, les résultats qu’elle a obtenus au cours de sa carrière ont permis la mise en place de politiques publiques plus pertinentes en matière de lutte contre la pollution de l’air. Pionnière dans son domaine, Barbara Finlayson-Pitts espère que son exemple incitera les jeunes filles à oser se lancer dans une carrière scientifique telle que la sienne, aussi formidable que passionnante, pour reprendre ses mots.
Techniques de l’Ingénieur : Qu’est-ce qui vous amenée à consacrer votre carrière aux sciences de l’environnement, et plus particulièrement à la chimie atmosphérique ?
Barbara Finlayson-Pitts : Lorsque j’étais jeune étudiante à l’Université Trent, au Canada, j’ai eu la chance de suivre les cours d’un enseignant exceptionnel qui, dans le cadre de son laboratoire de chimie physique, nous a fait découvrir la chimie des aurores boréales ; un sujet sur lequel il avait mené un travail de post-doctorat. Cela a été une véritable révélation pour moi. Je me suis dit : « Oh ! Il y a de la chimie dans l’atmosphère ! » Je m’imaginais jusqu’alors qu’il s’agissait simplement d’un milieu inerte… J’ai donc commencé à m’intéresser au sujet, par des lectures notamment qui m’ont permis de découvrir une chimie absolument fascinante.
Ensuite, je me suis aperçue qu’une petite communauté de chercheurs s’intéressait à la pollution de l’air, et plus spécifiquement au smog. Le sujet était particulièrement prégnant à Los Angeles il y a plusieurs décennies. Le phénomène est devenu si intense, qu’en déterminer les causes – afin, in fine, de trouver comment y remédier – s’est révélé impératif. En 1970, j’ai donc décidé de me rendre en Californie, pour y effectuer un doctorat sur le sujet, que j’ai obtenu en 1973.
Si vous ne deviez retenir qu’un ou deux exemples de découvertes majeures auxquelles vous avez contribué, lesquelles citeriez-vous ?
Oh, c’est une question difficile ! (Rires) Mon équipe et moi avons en effet travaillé sur tant de chouettes sujets ! Je pense malgré tout que l’une des principales avancées qui m’a fait connaître est la découverte du rôle des particules de sel marin en tant qu’accélératrices du phénomène de formation du smog dans des villes côtières telles que Los Angeles.
C’est d’ailleurs toujours assez délicat à expliquer au grand public. Les gens ont en effet tendance à croire que ces particules d’origine naturelle sont directement à l’origine de la pollution atmosphérique. Or, ça n’est pas le cas ! Pour qu’il y ait pollution atmosphérique, il faut en effet qu’il y ait des émissions de particules d’origine anthropique – notamment celles qui sont issues de la combustion de ressources fossiles – et que celles-ci interagissent avec ces particules naturelles que j’évoquais, telles que le sel marin.
Parallèlement à cela, j’ai aussi fait des découvertes vraiment intéressantes concernant des aspects plus fondamentaux de la chimie atmosphérique. En général, c’est plutôt la chimie fondamentale qui permet d’apporter un éclairage sur la chimie atmosphérique. Mais mon équipe et moi avons plutôt choisi d’adopter la démarche inverse, en construisant un dispositif expérimental – une chambre à aérosols – nous permettant d’étudier les réactions entre les particules que j’évoquais. Au départ, uniquement des particules solides, puis également des particules à l’état liquide – beaucoup plus complexes à étudier expérimentalement – lorsque je suis arrivée à l’Université de Californie à Irvine.
Nous pressentions qu’une réaction d’oxydation entrait en jeu, avec pour conséquence la formation de molécules de dichlore, Cl2. Nous avons donc adjoint à la chambre un équipement très sophistiqué capable de mesurer de très faibles concentrations de ce dichlore potentiellement formé… Et c’est effectivement ce qui s’est produit : nous avons pu détecter la formation de cette molécule, et donc, en conclure que cette réaction que nous pressentions pouvait effectivement se dérouler dans l’atmosphère, en contribuant alors à la formation du smog.
Cette réaction a ainsi pu être intégrée aux grands modèles atmosphériques développés par mes collègues ingénieurs. L’un de mes étudiants, particulièrement brillant, s’est ensuite lancé, dans le cadre de son master, dans un projet de modélisation, qui nous a permis d’aller plus loin encore dans la compréhension du phénomène. Les résultats qu’il a obtenus par simulation se sont en effet révélés très largement inférieurs aux quantités de dichlore que nous mesurions expérimentalement… Pour expliquer cette différence, nous en sommes arrivés à la conclusion que les réactions entre le sel et les autres aérosols devaient avoir lieu au niveau de la surface de ces particules. Ce qu’aucun chimiste ne pensait alors possible…
Cette découverte a ainsi profondément modifié notre vision fondamentale de la chimie liée à ces particules atmosphériques, et a finalement amené de nombreux autres chercheurs à s’intéresser au sujet.
À quelles applications concrètes vos découvertes fondamentales ont-elles d’ores et déjà mené, ou pourront-elles aboutir à l’avenir ?
Ces découvertes liées à mes travaux permettent aujourd’hui aux spécialistes de la modélisation atmosphérique de déterminer les politiques les plus pertinentes et les plus économiquement viables visant à protéger la santé et le bien-être des populations, mais aussi le climat mondial. J’ai l’espoir que tout cela finisse par nous permettre de régler une fois pour toutes le problème crucial de la qualité de l’air.
Comment accueillez-vous ce Prix International L’Oréal-Unesco Pour les Femmes et la Science qui vous a été décerné le 12 juin dernier ? Pensez-vous que votre exemple puisse inciter d’autres femmes, et plus particulièrement des jeunes filles en âge scolaire, à se lancer elles aussi dans une carrière scientifique ?
Ce prix est pour moi une reconnaissance exceptionnelle, qui récompense le travail de toute une vie !
En ce qui concerne mon potentiel statut de role model pour de futures femmes scientifiques…, eh bien, vous savez, avant que je ne débute véritablement ma carrière, à la toute fin des années 1960, une conférence en chimie atmosphérique a eu lieu, réunissant une centaine de personnes. Parmi elles, aucune femme ! En 1973, trois femmes ont assisté à ce même évènement – j’étais l’une d’entre elles. Aujourd’hui, cette conférence compte près de 50 % de femmes. Je n’ai pour ma part pas eu de role model, mais les choses ont donc fini par changer !
Je me suis d’ailleurs aperçue, au fil des années, que mon équipe de recherche était majoritairement composée de femmes. Dans le cadre des cours que je donne à l’université, j’ai aussi constaté la tendance qu’ont beaucoup de femmes à s’impliquer dans des travaux de recherche susceptibles d’avoir un effet immédiatement tangible, de faire avancer la société vers davantage de bien-être. C’est également ce qui m’a motivée à me lancer dans la carrière scientifique que récompense aujourd’hui ce prix L’Oréal-Unesco Pour les Femmes et la Science.
J’espère qu’il contribuera à montrer à la jeune génération qu’en tant que femme, embrasser une carrière scientifique peut être quelque chose de formidable et de passionnant, et les incitera à faire ce choix.
¹ La cinquième lauréate de cette 27e édition était absente pour raisons de santé lors de cette cérémonie du 12 juin 2025.
L’industrie cosmétique est aujourd’hui confrontée à de multiples enjeux : garantir la performance et la sécurité des produits, satisfaire les attentes des consommateurs, tout en respectant des réglementations de plus en plus contraignantes. À cela s’ajoute une exigence croissante en matière de durabilité, qui incite à développer des formulations plus respectueuses de l’environnement, intégrant davantage d’ingrédients d’origine naturelle.
Pour répondre à la tendance de naturalité des produits, une attention particulière est portée aux molécules d’intérêt biosourcées, aux procédés d’éco-extraction des actifs, à la formulation des extraits, ainsi qu’aux tests réglementaires associés.
Destinée aux ingénieurs, chercheurs, formulateurs, toxicologues, responsables qualité, ainsi qu’aux professionnels de l’innovation et de la R&D, cette ressource documentaire fournit les outils méthodologiques et les données techniques utiles pour suivre les dernières avancées scientifiques et technologiques du secteur.
Rédigée par des experts issus du monde académique et industriel, cette nouvelle offre est coordonnée par Véronique NARDELLO-RATAJ, professeure de chimie à l’Université de Lille et membre du laboratoire Unité de Catalyse et Chimie du Solide (UCCS). Spécialiste de la formulation cosmétique, ses recherches portent sur la catalyse d’oxydation, la dégradation des huiles et des parfums, ainsi que la physicochimie des formulations.
Une perte de chiffre d’affaires de 4,5 milliards de dollars d’un coup de crayon ! En avril, l’administration Trump a bloqué l’exportation vers la Chine du processeur H20 de Nvidia. Un coup dur pour le fabricant américain, car la seconde économie mondiale a représenté 13 % de ses ventes totales l’année dernière.
Pas de quoi déboussoler cette entreprise dont la capitalisation boursière atteint les 3,3 billions de dollars ! Son chiffre d’affaires trimestriel s’est élevé à environ 44 milliards de dollars au premier trimestre 2025 de son exercice comptable, en hausse de 12 % par rapport au quatrième trimestre et de 69 % par rapport à l’année précédente.
Mais pour la maison blanche, cette décision vise deux objectifs. Premièrement, freiner les progrès militaires de la Chine et, deuxièmement, protéger la domination américaine sur l’industrie de l’IA.
Ce processeur H20 n’est pas classé dans la catégorie des modèles haut de gamme du fondeur Nvidia. Mais il est suffisamment performant pour le développement de solutions basées sur l’IA. Pour le patron de Nvidia, Jensen Huang, ces restrictions sont « un échec ».
Au salon Computex à Taipei, il a déclaré que ces contrôles avaient plutôt stimulé les développeurs chinois. Ce n’est pas la première fois que le fabricant subit de telles décisions. En 2022, l’administration de Joe Biden avait imposé des contrôles à l’exportation sur la vente de semi-conducteurs avancés à la Chine. Nvidia avait alors conçu spécifiquement la puce H20 pour se conformer à ces restrictions.
La sanction du marché
Mais l’émergence récente de DeepSeek, une société chinoise d’IA générative, a suscité de nouvelles inquiétudes aux États-Unis. Cette start-up rebat les cartes en proposant l’équivalent de ChatGPT, mais qui s’appuie sur des puces moins puissantes. « Les entreprises locales (chinoises, NDLR) sont très, très talentueuses et très déterminées, et le contrôle des exportations leur a donné l’esprit, l’énergie et le soutien du gouvernement pour accélérer leur développement », a déclaré le patron de Nvidia lors du Computex à Taipei.
Mais les Chinois ne sont pas les seuls à vouloir prendre des parts de marché à Nvidia. Ses deux principaux rivaux, AMD et Intel, veulent aussi proposer des alternatives aux GPU de Nvidia, tout aussi capables d’entraîner la prochaine génération de grands modèles de langage (LLM).
Et si, au final, les restrictions de l’administration américaine sur les exportations de processeurs avaient moins d’impacts que l’évolution du marché ? Une grande partie du business model de Nvidia repose sur l’hypothèse que la demande de services d’IA générative restera forte au cours de la prochaine décennie.
Rien n’est moins sûr. De nombreuses entreprises commencent à se demander si les rendements qu’elles obtiennent actuellement sur les déploiements d’IA générative valaient vraiment le temps et l’argent qu’elles y ont consacrés l’année dernière…
Alors que Boeing est encore affecté par lecrash du Dreamliner Air India 171 survenu le 12 juin dernier et que la guerre en Ukraine entame sa seconde année, l’édition 2025 du plus grand salon aéronautique mondial se tient également sous la menace d’un conflit au Moyen‑Orient opposant Israël et l’Iran, ainsi que sous l’épée de Damoclès des surtaxes américaines évoquées par l’administration Trump. C’est dans cette atmosphère très tendue que le monde de l’aéronautique se réunit. Quelle place restera-t-il pour évoquer les sujets de la décarbonation de l’aérien, de la souveraineté industrielle, du réarmement voulue par l’Europe ?
Le crash de l’appareil indien, qui a causé plus de 240 victimes, a jeté une ombre immédiate sur le salon : Boeing a dans la foulée annulé la venue de son PDG et le conglomérat GE a reporté ses activités au Bourget, afin de participer aux investigations en cours. En parallèle, l’escalade des agressions entre Israël et l’Iran affecte les itinéraires aériens au Moyen‑Orient, poussant les compagnies à redéfinir leurs routages et renforçant le climat d’incertitude. Quatre stands israéliens ont même été fermés par les organisateurs, provoquant unevive réaction des autorités israéliennes. Le salon du Bourget, traditionnel lieu de démonstrations spectaculaires, devient de fait une tribune pour déployer des messages industriels et étatiques, ce qui est aux antipodes de la volonté des organisateurs.
Dans ce cadre, le volet industriel est plus crucial que jamais. En effet, la reprise post‑Covid atteint son point culminant : Airbus, qui annonce environ 8 700 appareils en carnet de commandes, et Boeing, qui prévoit d’accélérer ses cadences sur les 737 MAX et 787 malgré les remous actuels, cherchent à rassurer leurs clients et les marchés. Toutefois, ces ambitions se heurtent aux problèmes persistants de chaîne d’approvisionnement, fragilisés par la pénurie de composants électroniques, de matériaux composites, les retards de livraisons, et la fragilité des fournisseurs tiers.
Innovation et souveraineté
Le salon, qui réunit cette année plus de 2 400 exposants venus de 48 pays, avec près de 150 aéronefs exposés et 210 démonstrations en vol, devient également le cœur d’une démonstration de souveraineté technologique. et des ambitions de décarbonation du secteur. En témoigne l’annonce par Safran et Saft d’unpartenariat stratégique pour développer des batteries aéronautiques, répondant à l’enjeu de réduction des émissions de CO₂ et d’indépendance énergétique européenne.
Thales, Dassault, MBDA, ou encore des start-ups comme Turgis & Gaillard, vont présenteer drones autonomes, des systèmes d’intelligence artificielle embarqués, de cybersécurité aérospatiale, ou encore de satellites à usage dual et de radars anti-drones. Dans cette version marquée par des enjeux militaires croissants, l’industrie européenne veut démontrer qu’elle est capable de rivaliser avec les acteurs américains ou russes.
L’aspect économique n’est pas en reste. Le salon va attirer plus de 300 000 visiteurs cette année, dont 130 000 professionnels. Des recruteurs venus de toute l’industrie doivent répondre à une urgence en termes d’emplois : selon le GIFAS,25 000 recrutements sont prévus en 2025, après les 29 000 embauches déjà réalisées en 2024. Un tiers des profils sont des jeunes diplômés, et la féminisation de la filière progresse. Le secteur veut désormais attirer des compétences dans le numérique, la robotique, l’IA et la gestion de projet, pour mieux faire face aux défis de productivité et d’innovation.
Mais les incertitudes persistent. Les menaces dedroits de douane américains – entre 10 % et 20 % sur les appareils européens – risquent de perturber les équilibres commerciaux. Airbus, qui plaide pour le respect des accords de libre-échange aéronautique signés en 1979, multiplie les échanges diplomatiques avec Bruxelles et Washington. Dans l’ombre de ces tensions commerciales, de nombreuses PME renforcent leur présence en Europe ou aux États-Unis, comme l’illustre le rachat parSphèrea d’une société américaine issue du groupe Konrad.
L’articulation entre défis industriels, économiques et géopolitiques se matérialise aussi dans les innovations présentées. Aura Aero, PME toulousaine spécialisée dans l’aviation régionale bas carbone, a prévu une démonstration de son avion hybride-électrique ERA, soutenu par Airbus, Safran et Thales. Ce projet incarne la volonté européenne de souveraineté technologique, dans un monde où la maîtrise des chaînes de valeur devient stratégique.
Dans le même temps, Boeing risque fort de rester en retrait, marqué par l’impact émotionnel du crash en Inde et focalisé sur les actions correctives et la sécurisation de ses modèles.
Ainsi,l’édition 2025 du Bourget 2025 qui s’ouvre pourrait s’avérer inédite. Face à un enchevêtrement de crises, l’Europe veut renforcer sa place industrielle, sécuriser ses chaînes d’approvisionnement et préparer l’aviation de demain, propre, sûre et plus autonome. Si les acrobaties aériennes émerveillent encore les foules, ce sont les alliances industrielles, les engagements climatiques et les arbitrages diplomatiques qui donneront à cette édition son importance historique.
Que vous soyez en CAP, en école d’ingénieur ou même docteur, c’est le moment de rencontrer directement les recruteurs, découvrir les métiers, et pourquoi pas, décrocher un stage, une alternance ou un emploi.
Au programme :
Des stands d’entreprises (startups, PME, ETI, grands groupes)
L’opération Avion des Métiers pour explorer les carrières du secteur
Des échanges avec les pros, du dépôt de CV, et des offres d’emploi en ligne dès juin
Et surtout : l’entrée est gratuite pour les étudiants le vendredi 20 juin !
Il suffit de demander votre e-billet sur https://www.siae.fr/ avec une carte étudiante (française ou ISIC).
📍 Où ça ? Au salon du Bourget
Alors si vous cherchez un bon plan pour booster votre avenir pro, on vous recommande vivement d’y aller !
En reprenant le flambeau à partir du 23 juin prochain, Antonio Filosa inaugurera une nouvelle ère pour Stellantis[1]. Sa nomination, annoncée en mai dernier, met fin à plusieurs mois d’incertitudes concernant l’identité du successeur de Carlos Tavares suite à la démission de ce dernier en décembre 2024.
Homme du sérail, Antonio Filosa pourra mettre à profit ses 25 ans d’expérience. Il a débuté au sein de FCA[2] où il dirigea notamment les opérations sud-américaines. En 2023, après la fusion avec PSA survenue deux ans auparavant, il prit les rênes de la marque Jeep. Il aura la lourde mission de redresser un groupe en perte de vitesse, marqué par une baisse des ventes de 14 % au premier trimestre 2025 par rapport à 2024 sur la même période. Quant au bénéfice net, celui-ci a plongé de 70 % en 2024.
Composer avec l’héritage légué par Carlos Tavares
Difficile de prévoir quelle direction prendra le groupe avec son nouveau dirigeant ; sa position concernant l’électrification demeure mystérieuse.
Néanmoins, en octobre 2023, il avait créé la surprise en choisissant de s’associer avec le Chinois Leapmotor, spécialisé dans le 100 % électrique. Avec une prise de participation de 20 %, il étoffait ainsi son offre de voitures électriques abordables en Europe, avec notamment la citadine T03 et le SUV C10.
Antonio Filosa va-t-il marcher dans les pas de son prédécesseur en maintenant la transition vers l’électrique ou reculer en optant pour l’hybride et le thermique ? Une prise de position qui ne devra pas négliger les réalités du marché qui peuvent retarder le virage de l’électrification.
C’est ainsi que le 14 mai dernier, une note interne relayée par Les Échos dévoilait que Stellantis avait changé ses plans et décidé de repousser l’objectif du 100 % électrique pour 2030. En cause, les ventes décevantes des véhicules électriques sur l’année 2024 en Europe avec une baisse de 6 % par rapport à l’ensemble de l’année 2023.
Un changement de cap qui est déjà visible dans l’usine de Metz, spécialisée dans les moteurs électriques. Elle devait fournir 800 000 unités cette année. Elle n’en produira finalement que 450 000.
Autre revirement : en février dernier, le groupe automobile a annoncé le maintien de sa production diesel et son renforcement. Cette décision, motivée par le manque d’attrait des véhicules électriques, est à rebours d’une industrie automobile qui souhaite en finir avec le diesel. Alors qu’elle devait initialement cesser la production des moteurs 1.5 et 2.2 diesel afin d’aboutir à leur retrait du marché en 2025, l’usine de Trémery va maintenir cette activité jusqu’en 2030.
Un avenir placé sous le signe de la prudence ?
Pour le moment, Stellantis préfère miser sur le principe des plateformes multiénergies qui offrent des alternatives thermiques ou hybrides. La prise de risque pour les marques est minimale. Est-ce judicieux quand on assiste à l’avancée frénétique des constructeurs chinois ou à la spécialisation du groupe Renault dans l’électrique avec sa filiale Ampere ?
Stellantis, en offrant une longueur d’avance à ses concurrents, pourrait pâtir de son manque d’audace.
[1] Groupe composé de 15 marques (dont Peugeot, Citroën, Fiat, Jeep, Opel) issues de la fusion PSA-FCA
De la découverte en laboratoire à l’innovation industrielle… On scrute pour vous chaque semaine les tendances de l’industrie.
LiDAR HD : trois modèles numériques pour une France en 3D
L’Institut national de l’information géographique et forestière (IGN) a franchi une étape cruciale en mettant à disposition trois modèles numériques issus de la technologie LiDAR HD. Ces modèles, couvrant l’Hexagone, la Corse et les DROM, ouvrent la voie à de nombreuses applications concrètes, allant de la prévention des inondations à la gestion sylvicole. Les modèles numériques de l’IGN transforment la cartographie française
Industrie en crise : les secteurs les plus touchés par la baisse des recrutements
Face à une conjoncture économique incertaine, l’APEC anticipe une baisse des recrutements de cadres en 2025. Les secteurs industriels subissent de plein fouet cette tendance, mais certains domaines comme l’énergie montrent des signes d’optimisme. Découvrez les détails de cette étude et les implications pour le marché de l’emploi. Quels secteurs industriels souffrent le plus de la baisse des recrutements ?
SAFE : vers une souveraineté technologique et industrielle du réarmement en Europe
L’Union européenne se mobilise pour renforcer sa défense avec le programme ReArm EU. À travers le programme SAFE, l’UE prévoit de cofinancer les acquisitions militaires des États membres et d’associer certains pays tiers. Nous vous détaillons ce projet de 150 milliards d’euros et les enjeux de souveraineté industrielle qu’il soulève. Les enjeux du réarmement européen et les conditions d’accès pour les pays tiers
Supercalculateur Jean Zay : pilier de la Souveraineté numérique française
En mai dernier, le CNRS a annoncé une avancée majeure avec l’extension du supercalculateur Jean Zay, propulsant la France au sommet de la recherche scientifique grâce à une puissance de calcul inégalée de 125,9 PFlops/s. Cette innovation, fruit d’une collaboration avec Hewlett Packard Enterprise, marque un tournant décisif pour la communauté scientifique française. Les avancées technologiques du supercalculateur Jean Zay et ses applications
Vers une bioéconomie circulaire : le rôle des produits biosourcés
Les produits biosourcés, issus de la biomasse végétale ou animale, se positionnent aujourd’hui comme un levier essentiel pour la réindustrialisation durable en France. Présents dans divers secteurs tels que le bâtiment, les cosmétiques, les transports et l’emballage, ils incarnent une tendance qui va au-delà de la mode. Cependant, leur développement est freiné par des obstacles tels que la compétition pour la biomasse, la structuration insuffisante des filières, et des verrous techniques et réglementaires. Cet article expose les défis et les opportunités de ce secteur en pleine expansion. Les produits biosourcés et la réindustrialisation durable
Des piles à combustible fongiques
Les matériaux biosourcés, tels que la cellulose et la lignine, sont de plus en plus prisés pour leur durabilité et leur biodégradabilité. Cependant, leurs performances limitées freinent leur adoption. Des chercheurs de l’EMPA ont trouvé une solution innovante en s’inspirant de la nature : un matériau vivant à base de mycélium de champignon, offrant des propriétés étonnantes et une stabilité accrue. Il pourrait être utilisé dans la production de petites batteries biodégradables. Un matériau à base de champignon utilisé pour des batteries
Le nettoyage avec la vapeur sèche, une alternative aux gobelets jetables
Au mois de mai dernier, dans un communiqué de presse, le CNRS a annoncé l’extension 4 du supercalculateur Jean Zay. Fruit d’une collaboration avec Hewlett Packard Enterprise, il est hébergé par l’Idris[1] sur le plateau de Saclay. Avec une technologie portant sa puissance à 125,9 PFlops/s[2], cette extension marque un tournant pour la recherche scientifique. Dorénavant, ce sont 125,9 millions de milliards d’opérations qui peuvent être effectuées par seconde !
Une puissance de calcul démultipliée au fil des années
L’inauguration officielle de cette extension[3], le 13 mai dernier, s’inscrit dans la dynamique à l’œuvre depuis son lancement en 2019, marquée par des améliorations successives pour satisfaire des besoins croissants. En effet, la puissance de calcul disponible doit suivre le mouvement effréné des innovations technologiques en IA. À ses débuts, le supercalculateur présentait une puissance de 15,9 Pflops/s, soit une multiplication par dix de sa puissance de calcul par rapport à son prédécesseur Turing. Durant l’été 2020, une première extension atteignant 28 PFlops/s a vu le jour, suivie d’une seconde, en juin 2022, portant sa puissance à 36,85 PFlops/s.
Une nouvelle architecture
GENCI[4] et le CNRS ont choisi Eviden[5] pour fournir la nouvelle infrastructure. Dotée de la convergence HPC[6]/IA, la mise à jour de Jean Zay inclut notamment les GPU[7] Nvidia H100.
Grâce à cette innovation technologique, la chaleur dégagée résiduelle de l’installation peut être réutilisée pour chauffer l’équivalent de 1 500 foyers sur le plateau de Saclay, via un système de refroidissement nouvelle génération à eau tiède proposé par Eviden.
Un outil à la disposition de la communauté scientifique française
Dans toute la France, les équipes de recherche peuvent désormais accéder gratuitement à cette ressource exceptionnelle qui permet d’exploiter des quantités de données opulentes. Des avancées considérables sont attendues, grâce à cette montée en gamme, dans d’innombrables domaines de recherche (astronomie, conduite autonome, nouvelles énergies, agriculture) avec des applications industrielles majeures. Surtout, l’objectif est d’accroître la recherche dans le domaine stratégique de l’IA.
Le nombre annuel de projets retenus dans ce domaine a été multiplié par vingt en cinq ans grâce à cet outil. Ce sont plus de 1 400 projets IA accueillis en 2024 contre 72 en 2019.
Pilier technologique de la souveraineté française
La volonté affichée est de renforcer la souveraineté numérique de la France et plus largement celle de l’Europe en matière de calcul à haute performance. Ce nouveau dispositif s’intègre dans le programme européen EuroHPC qui a pour ambition de mutualiser des ressources européennes pour développer des supercalculateurs.
Le projet AI Factory France, lauréat de ce programme en mars dernier, va profiter des performances du supercalculateur Jean Zay qui est mis à sa disposition par la France. Ce projet souhaite fédérer un écosystème collaboratif allant des startups aux grands groupes industriels, en passant par les laboratoires de recherche et les écoles d’ingénieurs.
Une première étape dans le déploiement d’une stratégie plus large pour une souveraineté technologique forte pouvant s’imposer à l’échelle mondiale.
[1] Institut du développement et des ressources en informatique scientifique du CNRS
[2] Pétaflops par seconde
[3] En service déjà depuis plusieurs mois
[4] Grand équipement national de calcul intensif
[5] Propose des technologies basées sur l’IA (filiale du Groupe Atos)
Issus de la biomasse végétale ou animale, les produits biosourcés sont présents dans de nombreux secteurs, du bâtiment aux cosmétiques, en passant par les transports ou l’emballage. Loin de constituer une simple tendance, ils incarnent aujourd’hui un levier de réindustrialisation durable que la France cherche à structurer à travers une stratégie dédiée.
L’étude de l’Ademe sur le marché français des produits biosourcés dresse un panorama contrasté. D’un côté, la diversité des applications est indéniable. Le bâtiment arrive en tête des volumes utilisés, avec des matériaux isolants en fibres végétales ou des bétons biosourcés. Viennent ensuite les secteurs du transport, où l’on retrouve des bioplastiques dans les composants intérieurs des véhicules, et la chimie, qui capte à elle seule la majorité des applications biosourcées à l’échelle mondiale : solvants, additifs, résines…
Mais cette dynamique reste fragile. Le premier obstacle réside dans la compétition entre usages de la biomasse : alimentaire, énergétique ou industriel. En France, l’essentiel du carbone agricole est déjà accaparé par l’alimentation humaine, animale et les exportations, ne laissant qu’une fraction pour les usages industriels. Le bois, ressource stratégique pour les matériaux de construction et la chimie verte, fait lui aussi l’objet de fortes tensions entre filières.
Le deuxième frein majeur réside dans la structuration insuffisante des filières. Beaucoup d’acteurs sont encore locaux, artisanaux, et peu connectés aux chaînes industrielles. Le manque d’infrastructures logistiques, de bioraffineries territoriales et de normes harmonisées freine la massification. Le potentiel reste éclaté et donc difficile à valoriser à grande échelle.
À cela s’ajoutent des verrous techniques et réglementaires : les industriels attendent des garanties sur la performance et l’impact environnemental des produits biosourcés. Mais faute d’indicateurs homogènes et d’analyses de cycle de vie partagées, la transparence est limitée et la confiance incertaine, pour le moment.
Pourtant, les leviers de transformation existent. L’étude met en avant le rôle stratégique de la commande publique, notamment dans la construction. L’innovation, portée par les start-ups et les centres techniques, ouvre de nouvelles perspectives, en particulier dans les biopolymères ou les solvants verts. La stratégie nationale d’accélération pour les produits biosourcés prévoit également des financements ciblés, des standards techniques, et un ancrage dans les réglementations européennes.
Mais au-delà du développement en amont, la fin de vie des produits biosourcés reste encore aujourd’hui un angle mort, car la recyclabilité, la compostabilité ou la valorisation énergétique de ces produits doivent être anticipées dès la conception.
À l’heure où la relocalisation industrielle et la décarbonation deviennent des priorités stratégiques, les produits biosourcés peuvent s’imposer comme les vecteurs d’un nouveau modèle économique. Encore faut-il dépasser l’effet de vitrine, et bâtir une bioéconomie circulaire, cohérente, exigeante, dans un premier temps au niveau de l’hexagone.
La rédaction a demandé à un agent d’IA générative de dégager les informations principales de cette étude.
Le texte résultant a été dument relu, analysé, et modifié de façon à proposer au lecteur un contenu à la hauteur de la qualité attendue par le Magazine d’Actualité.
Clément Houllier, cofondateur et CEO d’auum (Crédit : auum)
auum est l’acronyme du slogan de cette jeune entreprise engagée dans la lutte contre le plastique à usage unique : « Arrêtons l’Usage Unique Maintenant ».
L’histoire d’auum (à prononcer [Om]) a débuté en 2018, à la suite d’un constat : en France, nous consommons encore plus de 5 milliards de gobelets jetables par an.
Trois ans de R&D auront été nécessaires pour développer la technologie permettant à son lave-verre professionnel à vapeur sèche de voir le jour.
Cette petite machine, qui porte le nom d’auum-S, est capable d’éliminer 99,9 % des bactéries sans aucun produit chimique, en utilisant seulement 10 cl d’eau par cycle.
Après une première levée de fonds de 1 million d’euros en 2020, suivie d’un deuxième tour de table de 7 millions d’euros en 2022, auum vient d’annoncer une nouvelle levée de 15 millions d’euros, qui permettra à l’entreprise de poursuivre son développement et de déployer 10 000 machines, contre 1 500 actuellement.
Techniques de l’ingénieur : Qu’est-ce qui vous a amené à développer cette technologie de nettoyage à la vapeur sèche ?
Clément Houllier : Nous sommes partis d’un constat : le secteur du nettoyage innove assez peu, contrairement à des secteurs comme l’aéronautique, le spatial, les télécoms ou la microélectronique qui ont connu des avancées technologiques importantes durant ces 30 dernières années.
Nous en avons conclu qu’il y avait énormément à faire, sur le volet réutilisation et technologies propres, économes en ressources. On s’est donc orienté vers la vapeur sèche, afin d’apporter un nouvel angle à ce secteur du nettoyage.
Quels sont les points forts de la vapeur sèche ?
C’est une vapeur qui est surchauffée autour de 136°C et composée de molécules d’eau à l’état gazeux. Elle possède ainsi des propriétés dégraissantes et désinfectantes qu’on n’obtient pas avec la vapeur dite humide, qui contient encore beaucoup d’eau à l’état liquide.
Nous avons commencé par développer une technologie autour de la vapeur sèche, pendant 6 à 12 mois et on s’est vite aperçu qu’il y avait de nombreux cas d’usage potentiels, notamment le nettoyage des boîtes alimentaires, des gourdes, des contenants cosmétiques, des tasses, etc.
On a donc choisi de se concentrer sur un secteur particulièrement porteur, avec une vraie profondeur de marché : celui du remplacement des gobelets plastiques jetables, en entreprise, par des tasses réutilisables.
La machine auum-S (source : auum)
Après avoir lancé la R&D de la machine, nous avons déployé notre propre usine de production, à Châtillon. En septembre 2021, nous avons entamé la commercialisation des premières machines et nous développons le business, depuis cette période, en France, mais aussi au Benelux, en Suisse et bientôt dans les pays nordiques.
Le marché est énorme : entreprises, concessionnaires, cliniques, résidences seniors, aires d’autoroute, bref, tous les endroits où on consomme du café.
Comment fonctionne cette machine ?
Du point de vue technologique, c’est assez complexe. On parle de vapeur, mais en réalité nous sommes sur trois phases : de l’eau liquide pour retirer les particules sur les contenants (de lait notamment), ensuite de la vapeur surchauffée pour la désinfection et enfin de l’air pour refroidir et sécher, tout ça dans un volume restreint.
auum a déposé trois brevets, sur le fonctionnement de la machine, sur la manière dont on utilise la vapeur et sur le nettoyage du verre. Il y a eu beaucoup de R&D et nous continuons à en faire, grâce à une équipe qui continue de s’étoffer et à des subventions France 2030.
D’autres brevets seront donc probablement déposés à l’avenir, si des nœuds technologiques sont identifiés et débloqués.
Quels sont les atouts du point de vue environnemental ?
Il y en a plusieurs. Le premier est la consommation d’eau, car le lavage à la main d’une tasse va consommer plus d’eau que notre machine et bien plus encore que la fabrication d’un gobelet en carton. Tout ceci a été quantifié par une étude d’analyse de cycle de vie (ACV) comparative, réalisée avec l’agence d’écoconception Coopérative Mu.
D’après l’ACV, la solution auum a un impact sur l’épuisement des ressources en eau trois fois moins élevé que celui des mugs nettoyés au lave-vaisselle.
Par ailleurs, l’impact carbone de la solution auum est deux fois moins élevé que celui d’un gobelet jetable en carton !
Gobelets, mugs, eco-cups Vs solution auum : quel impact sur l’environnement ? (Extrait de l’étude ACV comparative coopérative Mu et auum)
Et qu’en est-il du point de vue économique ?
Quand on développe un tel produit, l’objectif est d’être à iso-prix par rapport au produit remplacé, c’est-à-dire l’utilisation de gobelets jetables. Nous estimons que la machine est rentable pour les entreprises à partir de 50 employés, un chiffre rapidement atteint, donc c’est un bon point.
Il y a aussi d’autres points importants : la praticité, la simplicité d’usage et le plaisir du consommateur. Car notre but est que la machine remplace le gobelet et améliore aussi l’expérience du consommateur. On boit rarement du bon café dans un gobelet, de même qu’on ne boit pas de bon vin dans un gobelet. Pourtant, le monde de l’entreprise s’est habitué à utiliser ces gobelets, avec une expérience un peu désastreuse. Nous voulons changer cette perception !
Vous venez d’annoncer une nouvelle levée de fonds de 15 millions d’euros. Quelles sont vos ambitions ?
L’objectif est de poursuivre notre développement en Europe, afin d’étendre notre présence sur le marché. Nous travaillons avec des partenaires de distribution comme Sélecta ou JDE et nous les accompagnons dans le remplacement des gobelets jetables. Ce business model indirect nous permet d’accélérer notre déploiement en Europe, mais il nécessite une structuration de toute la partie commerciale.
Ces fonds serviront aussi à développer la partie industrielle, à améliorer la qualité et la stabilité, tout en réduisant les coûts, mais aussi à poursuivre nos efforts de R&D et à explorer les autres applications.
Pouvez-vous nous parler de ces autres applications potentielles ?
Nous travaillons activement sur deux autres verticales, notamment le nettoyage de contenants cosmétiques en verre ou inox pour faire du remplissage en boutique. Nous obtenons des résultats prometteurs sur les encrassements cosmétiques, huiles, sérums, shampoings, gels douche, etc.
L’autre marché qui nous intéresse est très différent, puisqu’il concerne le nettoyage de panneaux solaires encrassés par des champignons, lichens, fientes d’oiseaux, etc. Si la technologie employée est la même que pour le nettoyage de contenants, un brossage mécanique est par ailleurs nécessaire, compte tenu des niveaux d’encrassement élevés.
Notre prototype a d’ores et déjà donné des résultats assez bluffants, sur de petites surfaces de panneaux, mais l’objectif est d’industrialiser cette technologie pour permettre le nettoyage de parcs solaires d’envergure (plus de 500 000 m²).
Les matériaux biosourcés comme la cellulose, la lignine ou la chitine sont de plus en plus utilisés dans l’industrie et font l’objet d’une recherche poussée. Ils présentent en effet de nombreux avantages, notamment une production durable et une biodégradabilité. Toutefois, leur utilisation sous leur forme pure reste encore limitée. En cause : des performances moindres par rapport aux produits de synthèse. Si certaines propriétés (solidité, résistance, souplesse…) peuvent être augmentées par transformation chimique, ces manipulations engendrent cependant souvent une perte de durabilité.
Des chercheurs de l’EMPA pourraient cependant avoir trouvé la solution à ce problème : s’inspirer de la nature en produisant un matériau vivant à base de mycélium de champignon.
Un champignon comestible pour produire un matériau vivant
Pour se reproduire, les champignons développent en effet un ensemble de filaments appelés hyphes, qui s’enracinent dans le substrat nutritif. Mais ce n’est pas tout. Ils produisent également une matrice extracellulaire, qui se compose d’un réseau de macromolécules fibreuses, de protéines et autres substances. Cela permet au champignon de se doter d’une structure et de développer d’autres propriétés fonctionnelles.
Pour leur étude, les scientifiques ont sélectionné une souche de champignon comestible et bien connu de nos forêts : le Schizophylle commun, que l’on trouve habituellement sur le bois mort. Cette souche a la particularité de produire en grandes quantités du schizophyllane et de l’hydrophobine, deux macromolécules aux propriétés très intéressantes pour l’industrie. Le schizophyllane est un polysaccharide s’apparentant à une nanofibre très longue. L’hydrophobine est quant à elle une protéine dont la structure permet son accumulation au niveau des interfaces entre des liquides polaires et apolaires, comme le savon.
Mais pour pouvoir tirer parti des propriétés de ces macromolécules, les chercheurs ont dû développer une autre approche que celle habituellement utilisée dans les travaux portant sur le mycélium. Ces structures filamenteuses font en effet l’objet d’une attention accrue ces dernières années, mais ces recherches impliquent le plus souvent un nettoyage des fibres puis un traitement chimique, un procédé qui, s’il augmente les performances, implique également une perte de durabilité.
Un matériau biodégradable aux propriétés étonnantes
Dans le cadre de l’étude publiée récemment dans la revue Advanced Materials, les chercheurs du laboratoire Cellulose and Wood Materials ont pris le parti de ne pas altérer le mycélium, mais de l’utiliser dans son intégralité en n’effectuant qu’une optimisation ciblée, afin de conserver la matrice extracellulaire et ses propriétés. « Nous combinons les méthodes éprouvées de traitement des matériaux à base de fibres avec le domaine émergent des matériaux vivants », explique Gustav Nyström dans un communiqué de presse. Cela pour produire un matériau composite à base de fibres vivantes. Les premiers tests ont démontré tout l’intérêt de cette approche : la combinaison du schizophyllane et de l’hydrophobine présente dans le mycélium de Schizophylle commun a notamment permis la production d’une émulsion très stable. Contrairement aux émulsions produites par l’industrie, qui tendent à se séparer en plusieurs phases au fil du temps, cette émulsion de mycélium garde voire accroît sa stabilité. Le champignon vivant continue en effet de produire des molécules au fil du temps, évitant ainsi la dégradation du matériau. Le Schizophylle commun étant considéré comme un champignon non toxique et comestible, son utilisation pour la fabrication de cosmétique ou comme émulsifiant alimentaire est donc tout à fait envisageable.
Mais la gamme d’utilisation de ce nouveau matériau vivant ne s’arrête pas là. Il pourrait même s’appliquer à des domaines dans lequel on ne l’attendrait pas de prime abord. Grâce à leur nouvelle approche, les scientifiques peuvent en effet définir les propriétés finales du matériau en influençant le développement du champignon via la modification des conditions du milieu de culture. Cela ouvre une très grande diversité d’applications. Les longues nanofibres de schizophyllane ont par exemple permis de produire un biofilm très fin possédant une très bonne résistance à la déchirure. Ce film de mycélium est également sensible à l’humidité et pourrait donc être utilisé pour fabriquer des capteurs biodégradables.
En explorant encore plus loin les propriétés de ce matériau vivant, les scientifiques pensent même envisageable de produire des… batteries biodégradables, dont les électrodes seraient composées d’un papier de champignon vivant. Il s’agit plus précisément de piles à combustible fongique.
Vers le développement de piles à combustible fongique
Dans une précédente publication, parue dans ACS Sustainable Chemistry & Engineering, les chercheurs du laboratoire Cellulose and Wood Materials de l’EMPA ont ainsi annoncé avoir développé une telle pile à combustible fonctionnelle. Celle-ci fonctionne en exploitant le métabolisme des champignons, qui transforment les nutriments en énergie. Une partie de l’énergie produite peut ainsi être transformée en électricité. Deux champignons différents ont été combinés pour produire cette pile à combustible : une levure, située du côté de l’anode, libère des électrons. De l’autre côté, la cathode est occupée par la tramète pubescente, un champignon de la pourriture blanche, qui produit une enzyme permettant de capturer les électrons et de les évacuer de la cellule. Ces champignons eux-mêmes font partie intégrante de la pile, qui est fabriquée par impression 3D. Certes, la puissance délivrée n’est pas très forte, mais toutefois suffisante pour alimenter un petit capteur pendant quelques jours, du type de ceux utilisés en agriculture ou lors d’études environnementales. L’avantage de ces piles fongiques est qu’elles peuvent être stockées désactivées (les champignons sont à l’état séchés) puis activées sur le lieu d’utilisation tout simplement en nourrissant la cellule avec des nutriments et de l’eau.
L’objectif est donc désormais d’augmenter les performances de ces piles fongiques, qui une fois utilisées, peuvent se biodégrader entièrement sur place.
Dans un contexte de guerre en Ukraine et face au revirement géopolitique de l’administration Trump, l’Union européenne a lancé un ambitieux plan d’investissement baptisé « ReArm EU » pour booster son industrie de défense et assurer la sécurité du continent à long terme. Le programme SAFE (Security Action for Europe) s’inscrit dans ce projet et prévoit d’aider les États membres à se réarmer en cofinançant 50 % de leur acquisition, sur la base de leurs plans nationaux. Ils auront jusqu’à la fin de l’année 2030 pour faire leur demande de prêts, cependant les contours exacts de ce programme, doté d’un budget de 150 milliards d’euros, restent encore flous.
L’une de ses grandes nouveautés est la possibilité d’associer certains pays tiers, comme la Norvège, l’Islande ou le Royaume-Uni, aux mécanismes d’achats communs. D’autres pays comme la Turquie et la Corée du Sud seraient également intéressés, cependant des conditions seront exigées à tous ces candidats potentiels, qui devront au préalable signer un pacte de défense, ainsi qu’un accord commercial avec l’UE.
D’autres critères pour accéder aux prêts sont en cours de négociation, à commencer par l’origine des achats d’armes. Selon Euractiv, les pays n’ont pas encore réussi à « s’entendre sur les conditions précises permettant aux entreprises de défense extérieures au bloc de décrocher des contrats dans le cadre du programme de prêt ». À l’origine, la Commission européenne proposait qu’au moins 65 % de la valeur des produits militaires achetés dans le cadre du programme devait être produite dans l’UE, en Norvège ou en Ukraine. « Mais des questions subsistent sur la manière de comptabiliser les dépenses auprès des sous-traitants, ainsi que sur les conditions d’octroi de l’accès aux industries de défense des pays non membres de l’UE qui concluent des accords commerciaux bilatéraux avec l’UE », souligne le site d’information.
Un point de discussion concerne les sous-traitants impliqués dans les contrats de défense, et de savoir si cette sous-traitance par les entreprises de défense européennes à des entreprises extérieures à l’UE doit être considérée comme étrangère ou européenne. Selon Euractiv, « les entreprises sont considérées comme des sous-traitants si elles contribuent à hauteur de 15 % ou moins à la valeur du produit et, selon le texte actuel, ne seraient généralement pas comptabilisées séparément comme des dépenses de pays tiers. »
Encadrer strictement les conditions d’accès des pays tiers au programme
De son côté, l’Association européenne des industries de sécurité et de défense (ASD) soutient le programme SAFE, mais insiste sur le fait que son mécanisme de financement doit bénéficier en priorité aux entreprises établies dans l’UE. Selon un document consulté par Euractiv, des entreprises majeures telles qu’Airbus, Saab et MBDA, représentées par l’ASD, plaident pour que les fonds européens restent sur le continent. L’association souligne également que les fabricants européens augmentent déjà leurs capacités de production et devraient être priorisés, surtout dans un contexte où les stocks étrangers s’épuisent.
Et concernant la participation de pays tiers, elle ne s’oppose pas totalement à leur intégration, mais demande que celle-ci soit strictement encadrée. Le Royaume-Uni pourrait, selon l’ASD, faire figure d’exception, en raison de ses liens industriels étroits avec des groupes européens comme MBDA ou Leonardo, et de ses négociations en cours pour un pacte de défense avec l’UE.
Quoi qu’il en soit, les prêts accordés pour cofinancer des achats conjoints d’armement devront être remboursés par les États membres et les pays tiers associés, comme d’autres programmes de prêts financés par des emprunts de l’UE. Et au-delà de tous ces critères techniques qui restent à préciser, le programme SAFE démontre une véritable ambition politique, celle de structurer le marché européen de la défense, de réduire ses dépendances extérieures, et de faire émerger une véritable souveraineté technologique et industrielle.
Fin mars, l’IGN[1] – établissement public à caractère administratif ayant pour mission d’assurer la production, l’entretien et la diffusion de l’information géographique de référence en France – a en effet annoncé avoir franchi une étape clé de ce projet inédit, en mettant à disposition de tous – collectivités, acteurs privés, mais aussi grand public – trois premiers modèles numériques issus des mesures LiDAR réalisées progressivement depuis 2021 sur l’ensemble du territoire français : Hexagone, Corse et DROM[2]. Chef de projet LiDAR HD à l’IGN, Loïc Gondol revient pour nous sur les origines de cette démarche, nous en expose la méthodologie, et nous décrit par le menu ces trois premiers livrables, qui ouvrent la voie à une multitude d’applications concrètes.
Techniques de l’Ingénieur : Qu’est-ce qui a conduit l’IGN à lancer ce projet, en 2021 ?
Loïc Gondol : Ce projet est le fruit d’une conjonction de facteurs, qui ont constitué un terreau favorable à son lancement. L’un d’eux est un rapport parlementaire sur les données géographiques souveraines, remis en juillet 2018 par Valéria Faure-Muntian – alors députée de la Loire – à Mounir Mahjoubi et Brune Poirson, respectivement secrétaire d’État au Numérique et ministre de la Transition écologique et solidaire. Parmi les préconisations de ce rapport, l’une d’elles pointait en effet la nécessité d’établir un référentiel altimétrique précis et homogène du territoire français.
À cela s’ajoutent les besoins exprimés par un certain nombre d’acteurs publics de disposer de données altimétriques précises sur tout le territoire. Ceci, pour guider la mise en œuvre de certaines politiques publiques, portant notamment sur les risques (inondations…), la gestion sylvicole, etc.
Le plan de relance nous a par ailleurs permis d’obtenir des financements, puis de lancer concrètement le projet, en 2021, effectivement.
Comment avez-vous, concrètement, organisé et mis en œuvre ce projet ?
Pour établir ce référentiel altimétrique précis et homogène sur tout le territoire, nous avons misé sur la technique LiDAR. Concrètement, nous avons choisi de placer des capteurs LiDAR à bord d’avions, seuls aéronefs à permettre une mise en œuvre de la technique au niveau de la France entière en l’espace de cinq ans – notre ambition de départ. Nous avions déjà une certaine expérience sur la technique, mais pas à cette échelle.
Nous avons ainsi décidé, outre nos propres moyens, de faire appel à des sous-traitants, ce qui a amené L’IGN à se positionner en tant que coordinateur de cet écosystème d’acteurs.
Nous avons, au début du projet, mené des campagnes d’acquisition en été et en hiver, puis uniquement en hiver, sur la période du 15 novembre au 15 avril. À l’heure qu’il est, nous avons pu couvrir environ 500 000 km2, soit près de 90 % du territoire. Nous prévoyons de couvrir les 10 % restant l’hiver prochain.
Outre l’acquisition des données, une bonne partie de notre travail consiste également, en parallèle, à les traiter. Nous devons notamment les caler dans un environnement 3D géoréférencé – en utilisant des données issues des centrales inertielles embarquées à bord des avions aux côtés des capteurs LiDAR – et leur appliquer un système de classification, afin de catégoriser les points en fonction de ce qu’ils représentent : sol et sursol.
Nous ne disposions pas, pour cela, de chaîne de traitement « sur étagère ». Nous avons ainsi commencé par sous-traiter ces opérations de traitement, tout en développant, en parallèle un processus interne, qui nous a finalement permis d’internaliser ce travail à partir de 2023.
Nous avons aujourd’hui traité à peu près la moitié des données déjà acquises.
Une quinzaine de mois est nécessaire, en moyenne, entre l’acquisition et la mise à disposition des données aux utilisateurs. Même si les opérations sont très largement automatisées – à l’aide notamment d’algorithmes d’IA – des contrôles humains restent nécessaires, en fin de processus.
Quel est, dans les grandes lignes, le principe de base de la technique d’acquisition que vous avez mise en œuvre, le LiDAR ?
Cette technique repose d’abord et avant tout sur l’émission d’un rayon laser, formant un cône. Émis – dans notre cas – vers le sol depuis un avion à 1 800 mètres d’altitude, ce rayon rencontre des obstacles (cime des arbres, toits des bâtiments, sol…) qui renvoient alors ce rayon vers le capteur. Le système mesure le temps que met la lumière pour aller et revenir vers le capteur, et donc, in fine, la distance qui le sépare des surfaces rencontrées.
Un des grands avantages de cette technologie, dans le cadre notamment du projet que nous menons, est qu’elle permet à la fois de mesurer la hauteur des arbres et l’altitude des terrains présents sous le couvert forestier.
Pourquoi parlez-vous plus spécifiquement de LiDAR « HD » ?
« HD » signifie dans ce cas « haute densité ». Dans le cadre du programme que nous menons, nous nous sommes en effet fixé l’objectif d’une densité moyenne de dix points par mètre carré, ce qui était tout simplement impensable il y a dix ans seulement, tant la donnée aurait été difficile à traiter avec les moyens de calcul de l’époque. Nous avons donc accolé ce label « HD » pour signifier le franchissement d’une étape technique majeure par rapport à la décennie précédente.
Aujourd’hui, l’acquisition peut, certes, se faire avec des densités plus élevées encore – parfois au-delà de cent points par mètre carré – mais plutôt sur des surfaces plus restreintes que celles d’un pays tout entier. Cela n’aurait en effet pas forcément d’intérêt à l’échelle de tout le territoire, et serait en outre difficilement viable, économiquement parlant…
Vous avez annoncé en mars dernier la mise à disposition de trois types de modèles issus de ce travail d’acquisition et de traitement de données LiDAR : des modèles numériques de terrain, de surface et de hauteur. Qu’est-ce qui caractérise chacun d’entre eux ?
Le premier d’entre eux, le modèle numérique de terrain, ou MNT, est une modélisation, une représentation théorique du sol « nu », débarrassé de sa végétation et de tout élément artificiel. Ce type de modèle est essentiellement utilisé en dehors des zones urbaines, notamment pour effectuer des simulations d’écoulement, dans le cadre par exemple de la prévention des inondations. Les MNT peuvent également révéler certaines structures archéologiques invisibles à l’œil nu.
Le deuxième modèle que nous mettons à disposition de tous est un modèle numérique de surface, ou MNS. Sa philosophie est tout à fait différente : il représente en effet la hauteur des bâtiments, de la végétation… C’est-à-dire tous les objets du sursol. Plutôt destiné à un usage en milieu urbain, il permet par exemple de modéliser des ombres portées, de potentiels îlots de fraîcheur ou de chaleur…
Enfin, le troisième d’entre eux – le modèle numérique de hauteur, ou MNH – est le résultat de la « soustraction » entre les deux précédents, MNT et MNS. Il donne ainsi la hauteur des toits des bâtiments, de la cime des arbres, etc. Il permet, par exemple, de suivre le développement et l’état de santé d’une forêt.
Ces trois modèles, complémentaires, vont ainsi permettre de répondre dès aujourd’hui à des besoins très concrets : simulation d’aménagements du territoire, d’implantations de moyens de production d’énergies renouvelables, applications dans le domaine de la sécurité et de la défense, ou encore du génie civil, de l’assurance… Ces modèles vont, en outre, être rendus disponibles en open data, ce qui permettra au grand public d’y accéder, pour tout un tas d’usages que l’on n’imagine pas encore.
Quelle sera la place de tout ou partie de ces modèles dans le futur jumeau numérique du pays que vous construisez aux côtés du Cerema et de l’Inria ?
Le MNT que j’évoquais sera l’une des données d’entrée de ce futur jumeau numérique, mais outre les données physiques qui le constituent, bien d’autres données thématiques s’y ajouteront : occupation des sols, observations météorologiques… Ce futur jumeau numérique constituera l’étape d’après. Il s’agira en effet d’agréger un grand nombre de données, pour pouvoir, in fine, réaliser tout type de simulation et de projection, n’importe où au sein du territoire.
Sous l’action, notamment, des bouleversements climatiques en cours, certaines parties du territoire – forêts, littoraux, montagnes… – évoluent désormais très rapidement. Quid, dans ce contexte, de la mise à jour des données de ce programme LiDAR HD ?
Le renouvellement des campagnes d’acquisition fait effectivement partie de nos préoccupations. Nous n’avons pas déterminé, pour l’heure, la fréquence des nouveaux survols que nous aurons à réaliser, mais la donnée étant effectivement pour partie périssable, elle requiert des mises à jour régulières. Un exemple est celui des forêts : alors qu’il misait jusqu’à présent sur un suivi à 20 ans, l’ONF entend désormais réduire ce délai à cinq ans seulement, au vu de la vitesse à laquelle évolue la végétation. La problématique est la même dans le domaine des risques littoraux, du risque inondation, ou encore des risques liés aux effets du changement climatique sur les bâtiments. Nous étudions donc différents scénarios visant à renouveler régulièrement une partie de ces données LiDAR HD, avec bien entendu, en toile de fond, un enjeu primordial, celui du financement de ces futures opérations.
[1] Institut national de l’information géographique et forestière.
Le titre du rapport des prévisions de recrutement 2025 de l’APEC est évocateur : « Retournement de tendance pour les recrutements de cadres ». Car si la période post-covid a été marquée par une croissance de l’emploi des cadres – le niveau record ayant été atteint en 2023 avec 330 700 recrutements –, l’heure n’est plus aux réjouissances.
Après trois années de croissance soutenue, l’emploi des cadres est désormais impacté par la baisse des investissements des entreprises, provoqué par l’instabilité géopolitique au niveau international et l’incertitude politique qui perdure depuis la dissolution de l’Assemblée nationale en juin 2024.
Des investissements industriels en diminution
Selon le baromètre de l’attractivité des territoires publié par le Groupe SCET et Ancoris, le nombre de projets industriels serait en diminution et refléterait un ralentissement global de la dynamique industrielle en France. Par ailleurs, les investissements directs étrangers sont aussi clairement en diminution, passant de 12 % en 2020-2021 à seulement 4 % en 2024.
En outre, ce baromètre met en lumière un problème de fond : la perte d’attractivité internationale pour le développement économique.
Qu’en sera-t-il de 2025 ? Malheureusement, l’instabilité géopolitique et la politique de guerre commerciale menée par Trump ne devraient guère améliorer les choses.
Emploi industriel des cadres, en baisse : quels sont les secteurs industriels les plus touchés ?
Dans son rapport, l’APEC observe, assez logiquement, une corrélation entre diminution des investissements et baisse de l’emploi des cadres. Néanmoins, les tendances varient selon les secteurs et les régions.
D’une manière globale, nous avons observé un fort recul de l’emploi des cadres dans l’industrie en 2024 (- 7 %) et les entreprises ont entamé 2025 avec des prévisions de recrutement en baisse de 3 %.
Les trois secteurs où la baisse est la plus grande sont :
automobile, aéronautique et autres matériels de transport (- 5 %) ;
mécanique-métallurgie (- 5 %) ;
chimie et industrie pharmaceutique (- 4 %).
Ce constat n’est pas surprenant, compte tenu des difficultés rencontrées notamment par le secteur automobile européen et la crise actuelle qui touche le secteur de la pétrochimie. Mais contrairement à ces trois secteurs, le domaine « énergie /eau /gestion des déchets » se démarque par son optimisme, avec + 4 % de prévisions d’embauche en 2025. Cette tendance serait d’ailleurs directement liée à la relance de la filière nucléaire.
De la découverte en laboratoire à l’innovation industrielle… On scrute pour vous chaque semaine les tendances de l’industrie.
Désorbitation de l’ISS : Elon Musk et la conquête de Mars en ligne de mire
La Station spatiale internationale, symbole de la coopération spatiale, pourrait être désorbitée plus tôt que prévu. Elon Musk, dans un message sur X, a suggéré une date bien avant celle fixée par la NASA. Cet article porte sur les raisons derrière cette décision et les enjeux pour l’avenir de l’exploration spatiale. Comment Elon Musk envisage l’avenir de l’ISS et la conquête de Mars
Les États-Unis secouent le sommet énergétique : une opposition frontale aux politiques anti-fossiles
Lors du dernier sommet international sur l’énergie, les États-Unis ont exprimé une opposition ferme aux politiques anti-fossiles, critiquant l’AIE pour son soutien aux énergies renouvelables. Ce changement de ton pourrait marquer un tournant dans la géopolitique énergétique mondiale L’influence des États-Unis sur la politique énergétique mondiale
Transition énergétique en Allemagne : le plan audacieux du chancelier Merz
Le nouveau chancelier allemand, Friedrich Merz, a réussi à sceller un accord de coalition avec les sociaux-démocrates, ouvrant la voie à une transformation énergétique majeure. Ce document de 146 pages, bien que non contraignant, trace la feuille de route pour les quatre prochaines années, mettant l’accent sur la compétitivité industrielle et les objectifs climatiques européens. Comment notre voisin allemand prévoit de renforcer son économie de l’hydrogène et de moderniser son réseau électrique ? Un accord de coalition qui pourrait changer l’avenir énergétique de l’Allemagne
Waga Energy : pionnière de la valorisation du biogaz en France et à l’international
À Clermont-Ferrand, Waga Energy et Valtom ont relevé le défi de coupler deux sources de biogaz pour produire du biométhane. Ce projet inédit en Europe, qui a nécessité des innovations techniques et réglementaires, marque une avancée majeure vers une plus grande souveraineté énergétique. L’innovation de Waga Energy pour une énergie renouvelable
Quand calcul quantique et IA s’unissent pour transformer la chimie pharmaceutique
Qubit Pharmaceuticals dévoile FeNNix-Bio1, un modèle de fondation qui pourrait bien bouleverser le secteur pharmaceutique. En s’appuyant sur des technologies de pointe comme le calcul quantique et l’intelligence artificielle, ce nouvel outil permet de modéliser les interactions moléculaires avec une rapidité et une précision sans précédent. Cette percée ouvre de nouvelles perspectives pour la découverte de médicaments. Avancées dans la deeptech avec le modèle FeNNix-Bio1
L’IA au cœur de la transformation digitale : l’entretien avec Matthieu Deboeuf-Rouchon pré Vivatech
A l’approche de l’édition 2025 du salon Viva Technologies, l’expert en transformation digitale Matthieu Deboeuf-Rouchon, nous apporte ses perceptions des grandes tendances de ce grand rendez-vous, avec un focus particulier sur l’intelligence artificielle et la cybersécurité. Les grandes tendances de Vivatech 2025 avec un expert en transformation digitale
Le coup de pouce de Techniques de l’Ingénieur durant votre stage : jeu concours photo
Découvrez comment participer à notre concours et tentez de remporter des prix très très sympas ! Suivez simplement quelques étapes simples pour soumettre votre photo et vous pourriez être notre grand gagnant. Participez à notre concours photo et gagnez un super cadeau !
Comment récupérer efficacement l’eau de l’air environnant ? Dans un environnement humide, il est habituel d’utiliser de l’énergie pour refroidir une surface de collecte. Mais une équipe interdisciplinaire mêlant des scientifiques de l’Université de Pennsylvanie (États-Unis) et de la University College de Londres (Angleterre) a fait plus fort encore en découvrant une nouvelle classe de matériaux. Ici, pas de refroidissement mais un simple principe de condensation capillaire, quand la vapeur d’eau se condense dans de petits pores même à un taux d’humidité faible. La nouveauté réside dans le fait que l’eau n’est plus piégée à l’intérieur de ces pores mais goutte à la surface du matériau. Lequel est décrit plus en détails dans le journal Science Advances en date du 21 mai 2025.
Une éponge mi-nanoparticules mi-polymère
Tout a débuté avec l’idée d’explorer l’utilisation de films composites de nanoparticules et de polymère nanoporeux et amphiphiles. Autrement dit, des films présentant une partie hydrophile et une partie hydrophobe. Le matériau employé par les chercheurs se composait d’abord de nanoparticules de dioxyde de silicium (SiO2) de tailles variées (7, 22 et 60 nanomètres) capables d’attirer l’eau alentour. Ensuite, une couche de plastique (du polyéthylène) venait jouer le rôle de l’hydrofuge, pour des films d’une épaisseur totale de 130 nanomètres, 250 nanomètres et davantage. En observant leur évolution au fil du temps, l’équipe de recherche a remarqué la formation de gouttelettes en surface. S’agissait-il d’un simple artefact dû au gradient de température du laboratoire ? Pour en avoir le cœur net, l’équipe a augmenté l’épaisseur des films… qui produisaient encore plus d’eau ! Ce qui venait confirmer leur première impression : ils étaient en présence d’un matériau pouvant capturer l’humidité de l’air et la rejeter simultanément sous forme de gouttelettes.
Les chercheurs ont alors cherché à optimiser la condensation et la formation de gouttelettes microscopiques. Un comportement permis par l’équilibre trouvé entre hydrophobie et capillarité, de la même manière que le buvard aspire l’encre ou qu’une éponge se gonfle d’eau. Ils ont donc commencé à tester différentes fractions de polymère et tailles de nanoparticules afin d’atteindre le meilleur équilibre possible. Un travail toujours en cours actuellement, et qui s’accompagne d’une mise à l’échelle de l’ensemble du matériel pour un usage réel. Cette nouvelle classe de matériaux pourrait permettre à l’avenir d’obtenir une source supplémentaire d’eau dans les régions les plus arides, ainsi que de refroidir par évaporation des appareils électroniques ou des bâtiments.
Un tirage au sort désignera le grand gagnant, qui remportera une session d’escape game pour 6 personnes ou une soirée dans une salle de jeux d’arcades.
Et pour les autres, pas de panique ! Nous choisirons également les deux photos les plus stylées, et leurs auteurs recevront un lot de goodies Techniques de l’Ingénieur.
Bonne chance !
Retrouve le règlement complet du concours ici.
Sont appelés légumes-feuilles les légumes dont la partie consommée correspond aux feuilles de la plante. Une fois récoltés, les légumes-feuilles sont souvent réfrigérés afin de ralentir leur détérioration et la perte qui s’ensuit. Une perte qui représente près de 30 % du total de perte alimentaire, soit de quoi nourrir plus d’un milliard de personnes ! Mais la réfrigération n’est pas parfaite et requiert de l’énergie et des infrastructures inaccessibles dans certaines régions du monde. Qu’à cela ne tienne, des chercheurs du Massachusetts Institute of Technology (MIT) et de la Singapore-MIT Alliance for Research and Technology (SMART) ont pensé à une solution : la mélatonine. En plus de nous aider à nous endormir, cette hormone présente naturellement chez de nombreuses plantes les aide à réguler leur croissance et leur vieillissement. Et pour l’injecter aux légumes-feuilles, les chercheurs ont même pensé aux aiguilles ! L’ensemble de leur invention est présenté dans le journal Nano Letters du 21 mai 2025.
Des choux de Chine à la durée de conservation étendue
L’équipe de recherche a d’abord mis au point de petits patchs de micro-aiguilles faites de fibroïnes de soie (des protéines) longues de 700 micromètres. Celles-ci peuvent traverser la peau dure et cireuse des plantes sans déclencher de stress en réponse, et ainsi délivrer des quantités précises de mélatonine au sein des tissus internes. Pour leurs tests, les scientifiques se sont penchés sur le cas du chou de Chine (Brassica rapa sous-espèce chinensis), qui est récolté en le coupant de son système racinaire. Reste alors sa base, d’où partent les faisceaux vasculaires distribuant eau et nutriments à l’ensemble de la plante. Pour vérifier la faisabilité de leur projet, les scientifiques ont injecté à l’aide des micro-aiguilles un colorant fluorescent afin de suivre son trajet dans les feuilles du légume. Une fois cette étape validée, ils ont comparé la durée de conservation des choux de Chine habituels avec des cas aspergés de mélatonine ou plongés dedans. Résultat : aucune différence notable. Ils pouvaient donc passer à l’application des patchs…
Les patchs de micro-aiguilles emplies de mélatonine ont été appliqués à la main. Un patch est vu dans l’encart. Crédits : Dr. Yangyang Han ; MIT News.
Les choux se sont vus appliquer des patchs à la main au niveau de leur base, avant d’être stockés dans des boîtes en plastique. L’équipe de recherche a ensuite surveillé l’évolution de leur masse, de leur apparence visuelle et de leur concentration en chlorophylle. Dans une pièce à température ambiante (25°C), les légumes sont restés comestibles 4 jours de plus que les versions non traitées (soit 8 jours). Sous réfrigération (4°C), la durée de conservation a été augmentée de 5 à 10 jours (soit plus de 25 jours). Pour expliquer ce résultat, l’équipe a réalisé une analyse transcriptomique (sur l’ensemble des ARN issus de la transcription du génome), qui a montré le rôle de régulateur de la sénescence de la mélatonine en modulant la synthèse de l’auxine (une phytohormone de croissance), du système antioxydant et de la dégradation de la chlorophylle. De plus, la dose administrée par les patchs ne semblait pas altérer la concentration naturelle de mélatonine dans les plantes récoltées. Dans le futur, le travail à la main pourrait être fait directement par des tracteurs, des drones autonomes, voire d’autres équipements de ferme.
Avez-vous rêvé d’être à la place de Will Smith dans un véhicule qui ressemble à une Audi TT dans le film I-Robot ? Ou peut-être préférez-vous remplacer Tom Cruise dans la Lexus de Minority Report ? Ces rêves seront peut-être une réalité dans quelques années.
Les véhicules autonomes (voitures et camions), longtemps perçus comme des fantasmes de science-fiction, commencent à apparaître grâce aux recherches et aux essais menés notamment par Google, Tesla ou encore Volvo. Pour l’instant, il s’agit de véhicules semi-autonomes équipés de technologies avancées, telles que le mode autopilote qui permet de diriger, accélérer et freiner sur autoroute.
Google a déjà mené des tests à grande échelle de voitures autonomes sur des routes publiques avec les robotaxis Waymo. Ses 2 500 véhicules ont déjà atteint les 20 millions de kilomètres autonomes. Elon Musk, patron de Tesla, a dévoilé le prototype du Cybercab lors d’un événement en octobre 2024.
Argo AI, une entreprise soutenue par Ford et Volkswagen, a lancé des essais de véhicules autonomes à Miami et prévoit un lancement commercial dès l’an prochain. En Chine, Baidu, le géant de l’internet, a développé sa propre flotte de véhicules autonomes (600 robotaxis) appelée Apollo RT6.
L’industrie des véhicules autonomes est perçue comme l’avenir des transports, avec la promesse de réduire les accidents, de fluidifier le trafic et de révolutionner la mobilité urbaine.
Les experts estiment que d’ici 2030, les voitures autonomes seront courantes sur nos routes. Dubaï annonce même vouloir convertir 30 % de ses trajets urbains en mobilité autonome dès 2026.
Un service de navettes autonomes (mini bus développé par Navya, repris en 2023 par Gaussin et Macnica), électriques et sans conducteur, a été expérimenté pendant un an à Lyon. Paris et Barcelone ont des projets respectifs de 5 000 robotaxis Renault-Nissan et une flotte 100 % électrique développée par SEAT-Volkswagen.
Qui est responsable en cas d’accident ?
Les véhicules autonomes utilisent une combinaison de capteurs, de caméras et d’intelligence artificielle pour naviguer sur les routes. L’un des principaux atouts des véhicules autonomes réside dans leur potentiel à réduire les accidents de la route. En éliminant l’erreur humaine, principale cause des accidents, ces véhicules pourraient sauver des milliers de vies chaque année. De plus, ils offrent la possibilité de fluidifier le trafic, réduisant ainsi les embouteillages et le temps de trajet.
Cependant, malgré ces avancées, plusieurs défis subsistent. Les systèmes d’IA, bien que sophistiqués, peinent encore à gérer des scénarios imprévisibles, comme un comportement humain erratique ou des conditions météorologiques défavorables. La fiabilité des capteurs dans ces situations reste perfectible, et le coût élevé de ces technologies limite leur déploiement à grande échelle.
Autre défi majeur : la prise des décisions en situation d’urgence. Par exemple, si une voiture autonome doit choisir entre protéger ses passagers ou des piétons en cas d’accident inévitable, quelle décision doit-elle prendre ?
La réglementation est l’un des principaux défis.
Qui serait responsable ? Le constructeur, le développeur du logiciel ou l’utilisateur (pourra-t-on encore parler de « conducteur » d’ailleurs ?) ?
Enfin, l’acceptation sociale reste un facteur déterminant. Les utilisateurs doivent être convaincus de la fiabilité et de la sécurité des véhicules autonomes avant de les adopter. Des campagnes d’information et des démonstrations publiques seront essentielles pour rassurer le grand public.
Bien que les voitures autonomes soient déjà une réalité, leur généralisation nécessite de surmonter des défis techniques, éthiques et économiques. Les efforts conjoints des entreprises, des chercheurs et des législateurs seront cruciaux pour façonner un avenir où les véhicules autonomes deviendront la norme, offrant une mobilité plus sûre et plus efficace pour tous.
Depuis une dizaine d’années, la société grenobloise Waga Energy s’est spécialisée dans un domaine bien particulier : elle récupère le biogaz émis par les installations de stockage de déchets non dangereux (ISDND), généré par la décomposition des déchets organiques enterrés, et elle l’épure pour en faire un biométhane injectable dans le réseau de GRDF.
L’opération repose sur une innovation brevetée par la jeune entreprise lors de sa création en 2015 : dans sa Wagabox®, elle combine une filtration membranaire et une distillation cryogénique pour séparer le méthane des autres composants contenus dans le biogaz des ISDND.
« Cette technologie de rupture a été obtenue après 15 années de R&D. La partie membranaire permet d’extraire le CO2, et la partie cryogénique permet de filtrer l’azote et l’oxygène d’un côté et le méthane de l’autre. En effet, en les portant à – 160°C, le méthane devient liquide et descend dans la colonne de distillation tandis que l’azote et l’oxygène, restés gazeux, sont extraits » explique Nicolas Paget, directeur général délégué de Waga Energy.
L’opération permet d’obtenir un biométhane conforme aux spécifications demandées par GRDF (plus de 98 % de méthane) avant de l’injecter dans le réseau de gaz à 3,9 bar.
Coupler deux sources différentes de biogaz : une première !
À Clermont-Ferrand, un projet initié en 2020 a enfin été mis en service fin 2024. Il concerne l’ISDND de Puy-Long (80 mètres de haut, 80 Mt de déchets stockés) géré par le syndicat Valtom et une unité de méthanisation qui est intégrée au pôle de valorisation des déchets ménagers Vernéa juste à côté.
A. Besse / Waga Energy
L’originalité a été de concevoir le couplage des deux sources de biogaz : d’un côté celui de la méthanisation riche en CH4 (plus de 50 % de la composition du gaz) à hauteur de 1,3 Mm3/an, et de l’autre celui de l’ISDND, un peu moins riche (40 à 55 % de CH4) mais en plus grande quantité (6 Mm3). « Au fil du temps, la plus grande collecte de déchets organiques va augmenter l’apport de biogaz par la méthanisation, tandis que le gisement du biogaz de l’ISDND diminuera », précise Olivier Mezzalira, directeur général du Valtom.
Trois défis ont dû être relevés par Waga Energy et le Valtom, qui ont créé ensemble une société dédiée, Valtom Énergie Biométhane. Le premier défi, réglementaire, a été de faire accepter ce biogaz hybride par l’administration, car ce n’était pas prévu dans les textes. Le second, tarifaire, a obligé à montrer la viabilité économique du projet en optant pour le tarif d’injection du biométhane le plus bas, celui prévu pour les ISDND.
Le dernier défi, technique, a consisté à trouver la bonne consigne de régulation pour mélanger les deux biogaz, celui de la méthanisation arrivant comprimé, et celui de l’ISDND étant acheminé par dépression.
Ce couplage est une première en Europe. Lors de l’inauguration le 13 mai, le préfet du Puy-de-Dôme, Joël Mathurin, n’a pas manqué de le rappeler en soulignant « l’audace technologique, partenariale et administrative de ce projet qui participe à la stratégie nationale de la France et à la recherche d’une plus grande souveraineté énergétique ».
Le mélange des deux biogaz dans un volume tampon est épuré de l’H2S qu’il contient, et il est séché. Il passe ensuite dans la Wagabox® pour finir de l’épurer avec une production prévue de 15 GWh par an de biométhane, de quoi satisfaire la consommation en gaz de 2 000 ménages ou de 60 bus avec une ressource locale et renouvelable.
L’installation de Valtom Énergie Biométhane a nécessité un investissement de 3,5 millions d’euros, incluant une subvention de l’Ademe de 390 000 euros et un financement participatif d’Enerfip de 180 000 euros. Les émissions de gaz à effet de serre évitées sont estimées à 2 500 tCO2eq par an.
Un développement qui s’internationalise
Avec ce projet clermontois, Waga Energy compte désormais 23 sites en exploitation en France, auxquels s’ajoutent trois projets en construction. À la suite de sa première installation mise en service en France en 2017, l’entreprise a aussi développé sa présence à l’international. Destination ? Le Canada (quatre installations et une en construction), les États-Unis (trois installations et douze en construction), l’Espagne (une installation et une en construction) et l’Italie (deux en construction).
Entrée en Bourse à Euronext Paris en 2021, l’entreprise compte désormais 250 salariés, dont 180 en France. Côté technique, elle regarde de près la possibilité de capter le CO2 issu du biogaz, avec un site pilote en cours de développement.
Qui n’a pas encore utilisé une plateforme d’IA pour écrire ou résumer un texte ? Depuis l’apparition du chatbot ChatGPT d’OpenAI en décembre 2022, le monde entier et la France se sont approprié cet outil.
La 3e édition du baromètre sur « la perception et l’usage des IA génératives par les Français » le confirme. Réalisée par l’Ifop pour le compte de Talan, groupe international de conseil et d’expertises technologiques, cette enquête nous informe que 86 % des sondés ont déjà entendu parler de ces technologies (contre 78 % en 2024). Ce taux de notoriété atteint même 91 % chez les moins de 35 ans.
En particulier, les IA génératives continuent de séduire toujours plus de Français : 45 % des sondés déclarent l’adopter au quotidien (+ 40,6 % en un an). Effectuer des recherches (34 %), gagner du temps dans la vie quotidienne (28 %) et corriger des fautes d’orthographe (23 %) sont les trois principaux usages.
Sans surprise, ChatGPT reste le plus utilisé (72 % des sondés), devant Gemini de Google (20 %), Copilot de Microsoft (12 %). Cocorico ! Le chat du français Mistral (la seule startup européenne qui subsiste face aux Américains) gagne du terrain avec 6 %, à côté de Deepseek, l’IA chinoise.
Une perte de contrôle de la qualité
Comme toute innovation, l’IA générative reste un outil qu’il faut être capable de maîtriser pour en tirer le meilleur parti. Elle présente des avantages et des inconvénients. L’IA générative permet d’automatiser des tâches répétitives et chronophages, libérant ainsi du temps pour des activités plus créatives et stratégiques. Par exemple, 44 % des dirigeants d’entreprises prévoient de moderniser les données pour mieux tirer parti de l’IA générative. Elle peut aussi augmenter la productivité en générant rapidement des rapports, des analyses et des contenus.
Mais la principale menace est la suppression d’emploi. Un PDG sur quatre s’attend à ce que l’IA générative entraîne des suppressions d’emplois de 5 % ou plus en 2024.
L’adoption croissante de l’IA générative peut aussi entraîner une dépendance technologique, réduisant les compétences humaines et incitant à la paresse intellectuelle. Cela peut conduire à la production de contenus génériques et peu circonstanciés.
Il y a « la perte de contrôle de la qualité de ce que l’on fait. Si personne ne revérifie le résultat de l’IA, et qu’on prend cela pour argent comptant, nous n’aurons bientôt plus les moyens de garantir notre qualité, notre contenu, parce que ça va dériver dans le temps. Les IA, c’est très bien. Il faut y aller, mais il faut contrôler », insiste Julien Dreano, Responsable de la sécurité des systèmes d’information (RSSI) du groupe Framatome.
Reste l’épineuse problématique de la confidentialité des données. L’apparition aussi soudaine qu’impressionnante de DeepSeek a révélé que les données fuitaient vers des serveurs chinois. Rien de nouveau, puisque de très nombreuses applications récupèrent les données des utilisateurs sans les informer explicitement. D’ailleurs, tout ce que nous écrivons dans ChatGPT est stocké sur des serveurs américains et exploité…
La différence majeure est que des salariés sont de plus en plus tentés d’utiliser l’IA pour rédiger des rapports contenant des données financières ou sensibles. Même tentation de la part d’avocats et de juristes pour réduire les délais de rédaction de dossiers de contentieux familiaux…
De nombreuses entreprises s’inquiètent du développement du shadowAI, c’est-à-dire l’utilisation de l’IA sans l’approbation des départements informatiques ou de sécurité. Les risques sont réels.
Une récente étude de Cybernews a révélé que les outils d’IA affichent des performances souvent médiocres en matière de cybersécurité. Sur les 52 solutions analysées, 84 % ont subi au moins une violation de données. Pire, un tiers a fait l’objet d’une fuite au cours des 30 derniers jours.
En plus de failles de sécurité, 93 % des plateformes présentaient des problèmes de configuration SSL/TLS, qui sont essentiels pour chiffrer les communications entre les utilisateurs et les outils. Une mauvaise configuration permet aux pirates d’intercepter ou de manipuler plus facilement des informations sensibles…
Matthieu Deboeuf-Rouchon est un expert reconnu des sujets autour de l’innovation et de la transformation digitale. En 2008 il fonde son cabinet de conseil en Transformation Digitale et Innovation. En 2017 il rejoint les équipes de Capgemini Engineering. Il est co-auteur du « Guide de Survie du Consumer Electronics Show : comment organiser, vivre & optimiser sa visite du plus grand salon mondial de la Tech ! ». Il est aussi membre du jury du CES Innovation Awards 2024. Passionné par l’impact des technologies sur la Société, les Entreprises et les Êtres humains, il co-anime le podcast Innovation & Prospective Talk.
Techniques de l’Ingénieur : L’édition 2025 mettra en avant plusieurs thèmes clés : IA, santé, Cybersécurité… Quel thème sera le plus abordé, selon vous ?
Matthieu Deboeuf-Rouchon : comme sur d’autres salons et conférences, ce sera encore l’IA. En revanche, ce qui change, c’est moins l’IA pour la révolution que l’IA pour l’action. La preuve, 85 % des entreprises annoncent vouloir augmenter leur budget autour de l’intelligence artificielle. Il s’agit d’une accélération forte du passage du champ des possibles au champ des probables et des souhaitables : l’efficience opérationnelle, l’automatisation, d’apporter plus rapidement de solutions sur les prises de décisions, la désinformation… Concernant cette problématique, nous allons présenter une démonstration sur les deepfakes.
L’IA rejoint une autre thématique forte de ce salon, la cybersécurité.
En effet, l’IA s’intègre maintenant dans les solutions de cybersécurité et de détection des fraudes. L’IA favorise la détection proactive et donc les réponses aux incidents cyber. Mais d’un autre côté, l’essor de l’IA engendre aussi des risques. Nous avons évoqué les deepfakes. Il y a aussi la problématique de la souveraineté des données et des impacts sur la vie privée.
La mobilité reste aussi une thématique forte de cette édition
Ce n’est pas tant les voitures électriques que les nouvelles formes de mobilité qui sont présentées sur ce salon. J’ai notamment repéré la start-up italienne Nex qui a développé des bus électriques modulaires. L’IA est également présente dans la mobilité en s’intégrant dans les sujets sous-jacents : l’optimisation des itinéraires, la réduction de la congestion de trafic… Ces exemples confirment que nous sommes entrés dans une tech un peu plus humble. Il s’agit de répondre aux besoins quotidiens.
Le retail est encore très présent avec le magasin du futur. Il ne s’agit pas d’un concept qui ne s’est jamais vraiment concrétisé ?
Ce n’est pas facile de réunir des mondes qui sont totalement opposés, le numérique et le physique. Le retail a subi de plein fouet, et de façon très accélérée, l’arrivée de nouveaux acteurs et un changement profond du comportement des consommateurs. On a cru qu’une tablette tactile dans une boutique, c’était de la tech. En fait, elle doit être au service de l’expérience client avec une meilleure gestion des stocks notamment et une personnalisation des conseils. Il faut replacer l’humain au cœur de l’expérience, en délaissant la visibilité de la tech.
Pour célébrer encore un peu plus l’innovation, Vivatech organise un nouveau prix : « l’Innovation of the year Award ». À qui remettriez-vous ce prix ?
Je le remettrai à Pioniq Technologies. Cette start-up parisienne travaille sur la conception de batteries à l’état solide, sans matériaux « critiques » comme le lithium ou le cobalt. Je pourrais aussi remettre ce prix à Pasqal qui développe des processeurs quantiques exploitant des atomes neutres organisés en grilles structurées – des arrays 2D/3D – sur lesquelles le processeur quantique vient « écrire » les calculs. Un pas de plus dans la simulation quantique pour modéliser la physique de matériaux, les réactions chimiques ou les molécules complexes voire impossibles à reproduire sur un supercalculateur classique. Et ce n’est qu’un exemple ! Ces deux exemples font partie des solutions qu’on ne voit pas, qui ne sont pas connues, mais qui peuvent impacter durablement à la fois le climat et l’industrie.
Sans surprise, les États-Unis ont marqué leur forte opposition aux politiques anti-fossiles durant ce sommet. Tommy Joyce, secrétaire adjoint par intérim à l’Énergie pour les affaires internationales, ne s’est d’ailleurs pas privé de critiquer l’AIE, jusqu’ici perçue, à juste titre, comme le porte-étendard des énergies renouvelables et de la neutralité carbone, en déclarant : « Certains veulent réglementer toutes les formes d’énergie, sauf les soi-disant renouvelables, jusqu’à leur disparition complète, au nom de la neutralité carbone. Nous nous opposons à ces politiques néfastes et dangereuses ».
Sous la pression des États-Unis, l’AIE ménage les énergies fossiles
Soucieux de ménager la susceptibilité américaine, Fatih Birol, le patron de l’AIE, a cette fois présenté le gaz et le pétrole comme des « éléments clés du mix énergétique ». Une position à l’opposé de 2021, lorsque l’AIE appelait à arrêter immédiatement« tout nouveau projet d’exploration en matière d’hydrocarbures » afin de tourner définitivement la page des énergies fossiles, ce qui avait fortement irrité les producteurs de pétrole.
En 2025, l’heure n’est plus au remplacement des énergies fossiles, mais à la « diversification des sources d’énergie ». Si ce changement de ton de l’AIE peut être perçu comme un renoncement, il faut aussi le voir comme une manière de ménager les pays producteurs de pétrole et de gaz, notamment l’Arabie Saoudite, absente du sommet (tout comme la Russie), ainsi que les États-Unis, uniquement représentés par des secrétaires d’État adjoints par intérim.
Pour l’Organisation des pays exportateurs de pétrole (OPEP), qui reprochait à l’AIE de proposer des scénarios de neutralité carbone irréalistes, ce revirement est donc également une bonne nouvelle.
Les questions énergétiques sont avant tout géopolitiques
Malheureusement, il est difficile de séparer production d’énergie et géopolitique, surtout dans le climat actuel. L’Europe, dont la dépendance aux importations de gaz russe (mais aussi américain) reste problématique, en est d’ailleurs le parfait exemple.
Si la présidente de la Commission européenne, Ursula von der Leyen, a proposé, le 6 mai 2025, une feuille de route permettant à « l’Europe de rompre complètement ses liens énergétiques » avec la Russie, la forte dépendance de certains pays européens (Slovaquie, Autriche), au gaz russe pourrait compliquer cette tâche.
Quoi qu’il en soit, comme le dit Keir Starmer « l’Europe ne doit plus jamais être dans une position où la Russie pense pouvoir nous faire chanter avec de l’énergie ». Reste à savoir si l’Europe saura se donner les moyens d’éviter un tel chantage, à l’avenir.
Mais il n’y a pas que le gaz qui pose problème en matière de chantage. L’autre grand absent à ce sommet, la Chine, dispose d’un monopole sur la production et le raffinage des terres rares, des ressources stratégiques qui entrent, par exemple, dans la fabrication des aimants permanents pour les turbines d’éoliennes.
Or, du point de vue de la Chine, les terres rares et les métaux stratégiques sont une arme commerciale, déjà utilisée par le passé, notamment lors de la fameuse crise des terres rares de 2010-2011. Cette arme vient d’ailleurs d’être brandie une nouvelle fois, contre les États-Unis, en réponse à la hausse des droits de douane imposée par Trump et elle le sera encore à l’avenir.
Si l’Europe veut continuer de miser sur les « énergies propres et produites localement », elle devra donc également composer avec la Chine afin de sécuriser son approvisionnement en terres rares.
Deux visions du monde opposées, et l’AIE en arbitre
Ce sommet signerait-il la fin du clivage énergies fossiles/renouvelables ou serait-il au contraire le signe d’une rupture encore plus marquée entre climatosceptiques et pro-renouvelables ?
Le directeur exécutif de l’AIE, Fatih Birol, a raison de ne pas tomber dans le piège américain de la polarisation, car, pendant que deux visions du monde s’opposent, l’urgence climatique demeure.
Il préconise ainsi « trois règles d’or », pour faire face aux menaces persistantes concernant la sécurité énergétique :
diversification des sources d’énergie ;
prévisibilité des politiques ;
coopération entre États.
Ce dernier point est essentiel, car aucune politique énergétique stable ne pourra émerger sans coopération.
Ce constat est tout aussi valable en ce qui concerne la bataille climatique. Malheureusement, la position américaine pro-fossile et anti-renouvelable n’augure rien de bon pour la COP30, qui se tiendra au Brésil en novembre prochain. D’ailleurs il est fort probable que les États-Unis n’y soient pas présents du tout.
Il ne faudra désormais plus compter sur le rôle moteur qu’avaient les États-Unis sous l’administration Biden. Dix ans après les accords de Paris, la lutte contre le réchauffement climatique semble donc bien mal engagée.