L’électrolyse de l’eau de mer permet de produire de l’hydrogène et de stocker du dioxyde de carbone (CO2), le tout de manière durable. Mais pourquoi s’arrêter en si bon chemin ? Les sous-produits minéraux de cette réaction électrochimique pourraient, en plus de piéger le carbone, servir dans la fabrication de futurs matériaux de construction. Quand on sait que l’eau de mer recouvre environ 70 % de la surface de la Terre, la manne promet d’être titanesque… Reste que le processus varie énormément selon les conditions appliquées au système (voltage, densité de courant, etc.). Des chercheurs de l’université Northwestern, à Evanston (Illinois, États-Unis), ont pris sur eux de tester un maximum d’associations de paramètres dans le but d’extraire les conditions offrant un rendement optimal de minéraux avec la bonne composition chimique. Le résultat de leur labeur est paru le 18 mars 2025 dans le journal Advanced Sustainable Systems.
Injecter du carbone pour mieux le stocker
Le processus mis au point par les scientifiques de l’université Northwestern démarre par l’insertion d’électrodes dans de l’eau de mer. L’application d’un courant électrique a alors pour effet de séparer les molécules d’eau en hydrogène gazeux et ions hydroxyde. Pendant ce temps, l’équipe de recherche s’évertue à injecter du CO2 gazeux dans la solution aqueuse. Ce changement de composition de l’eau entraîne une augmentation de la concentration en ions bicarbonate. Ces derniers ainsi que les ions hydroxyde réagissent ensuite avec d’autres ions dissous présents naturellement dans ce milieu – le calcium (Ca) et le magnésium (Mg). En s’associant, les ions précipitent et forment des minéraux solides, comme l’hydroxyde de magnésium (Mg(OH)2) et le carbonate de calcium (CaCO3).
Le matériau négatif en carbone piège le CO2 de façon pérenne et le rend utilisable pour la construction. Crédits : Northwestern University.
L’ensemble de l’opération rappelle la manière dont les coraux et les mollusques fabriquent leur coquille, si ce n’est que l’énergie électrique est remplacée par l’énergie métabolique dans leur cas. Le matériau précipité lors de l’expérience peut contenir plus de la moitié de sa masse sous forme de CO2 piégé. Mais tout dépend de sa composition, qui elle-même dépend des conditions appliquées au cours du processus. Heureusement, les chercheurs américains ont mâché le travail et déterminé celles menant au maximum de matériau avec une capacité de stockage maximale. À l’avenir, ces dépôts électrochimiques pourraient remplacer le sable et/ou le gravier dans la confection du béton (soit 60 à 70 % de ce matériau), mais aussi participer à la fabrication de ciment, de plâtre et de peinture – toujours dans le domaine de la construction.
Pour notre dossier de Mars, « France 2030, une réponse au contexte économique et géopolitique actuel ? », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.
L’innovation est un moteur indispensable pour toute entreprise, puisqu’elle lui permet de grandir et surtout de résister à la concurrence. Cependant, chercher à innover à tout prix, en ignorant l’intérêt réel d’un nouveau produit ou service, serait inutile, voire périlleux, puisqu’il n’assurera pas d’avantage compétitif durable. L’innovation se conduit donc à travers un réseau impliquant tout autant la R&D que le service marketing.
Répondre aux évolutions technologiques et sociétales
La notion d’innovation recouvre plusieurs facettes. Elle peut concerner un produit/service existant qu’elle viendra améliorer, ou bien la création de celui-ci. Elle peut être également choisie dans une optique d’optimisation des coûts et d’une augmentation de la productivité. En intégrant de nouvelles technologies, elle permet par ailleurs de diversifier une offre, d’accéder à de nouveaux marchés et surtout de lutter contre une concurrence parfois à bas coûts. Enfin, dans un environnement où les problématiques économiques, environnementales et sociales se font prégnantes, l’innovation permet à une entreprise de se démarquer.
Relocaliser pour innover
S’il est fréquent qu’une partie importante de la production de biens industriels (et logiciels) soit réalisée ou sous-traitée dans des pays émergents, il serait simpliste de croire qu’une entreprise européenne puisse devenir durablement un simple bureau d’études et de conception alimentant une marque et un réseau de distribution sans maîtrise des technologies et de la capacité de production. D’une part, il n’y a aucune fatalité à ce niveau, d’autre part la relocalisation de la production de produits et systèmes de haute technologie peut permettre d’optimiser la relation R&D – marketing – supply chain.
Le choix de spécialisation des sites de production et le renouveau des technologies de process font donc partie de la stratégie d’innovation. Ils constituent notamment un élément déterminant des stratégies d’innovation actuelles et à venir.
Lever les freins…
Pourtant, l’innovation peut aussi être freinée par les habitudes, tant des clients que de l’entreprise. Ainsi, quelle serait l’utilité de faire évoluer un produit proposé sur le marché depuis des années ? De même, une innovation peut se heurter à des résistances internes et externes, de crainte d’une déstabilisation des habitudes et des structures existantes. En cela, accompagner les collaborateurs à acquérir de nouvelles compétences, mais aussi la sensibilisation à l’importance de l’innovation et de l’adaptation aux évolutions technologiques feront partie intégrante du parcours d’innovation.
Les notions de concurrence ou d’acceptabilité sont donc importantes à considérer. Cependant, dans tous les cas, il est indispensable que l’entreprise évite de s’installer dans la routine, se détache de ses succès passés et sache investir dans des technologies nouvelles.
Enfin, le système français est particulièrement conservateur et ne favorise pas toujours le comportement innovateur. Le poids considérable de l’État dans le processus de recherche et développement (supérieur à tous les autres pays de l’OCDE) et son intervention directe à travers les « grands programmes » déforment ainsi la perception du processus d’innovation au niveau français qui considère que l’État doit aider principalement les innovations de rupture à caractère technologique.
… et soutenir
S’engager dans un parcours innovant ne peut se faire en ignorant les problématiques de financement et de rentabilité. L’innovation implique en effet souvent un investissement initial élevé avec un retour incertain sur cet investissement. Les entreprises peuvent dès lors hésiter à investir dans des projets dont la rentabilité n’est pas garantie à court terme. Il faut donc parvenir à cet équilibre délicat consistant à considérer à la fois la recherche des applications possibles des technologies maîtrisées au niveau des produits et des marchés, la recherche de solutions technologiques et la connaissance fine des besoins du client comme du contexte d’utilisation. Ces enjeux se situent également dans le contexte du volet écologique du développement durable, qui nécessite de prendre en compte les enjeux environnementaux, notamment le changement climatique, dont les signes sont de plus en plus visibles et alarmants.
Plusieurs pistes permettent de soutenir l’innovation. Celle-ci peut être ouverte et impliquer différents acteurs tels que les startups, les institutions et les clients. Il est également possible d’imaginer des écosystèmes d’innovation favorisant la co-création.
Enfin, des alliances et projets collaboratifs d’innovation des principaux acteurs d’une filière peuvent se créer, dépasser largement le cadre de cette filière et conduire à des solutions modifiant profondément de nombreux usages.
En conclusion, l’innovation – essentielle pour la pérennité des entreprises et le développement économique – rencontre de nombreux obstacles liés aux habitudes, aux coûts et à l’acceptabilité sociale. Il est donc crucial de la soutenir via une culture d’innovation, un financement adéquat, et une ouverture à de nouvelles approches.
Pour répondre à ces ambitions portées par la vénérable Société des ingénieurs Arts & Métiers, plus de 200 sites industriels ouvriront leurs portes en fin de semaine prochaine : au grand public le 5 avril, mais aussi, la veille, aux publics scolaires. Une action qui se veut à la fois une opportunité pédagogique pour les enseignants, et un moyen de susciter des vocations chez les jeunes, auprès desquels l’industrie souffre encore, en effet, d’un lourd déficit d’image et d’attractivité. C’est ce que nous explique Stéphane Gorce, président de la Société des ingénieurs Arts et Métiers, qui revient également pour Techniques de l’Ingénieur sur la genèse de cet évènement voué à devenir, à l’instar des Journées du Patrimoine, un rendez-vous annuel.
Techniques de l’Ingénieur : Pouvez-vous, en quelques mots, nous décrire ce qu’est la Société des Ingénieurs Arts & Métiers, que vous présidez depuis novembre dernier ?
Stéphane Gorce : La Société des Ingénieurs Arts & Métiers a été créée au milieu du XIXe siècle. Il s’agit aujourd’hui de la plus importante association d’ingénieurs en France. Elle regroupe en effet 34 000 personnes – les Gadz’Arts – réparties sur tout le territoire national mais aussi à l’étranger, et qui représentent une large palette d’activités, notamment industrielles.
En matière d’actions, l’association mène d’une part un travail tourné vers les élèves de l’école, en les guidant notamment pour l’obtention de bourses, ou encore en contribuant à l’amélioration de leurs conditions d’apprentissage, au travers du programme de financement Evolutive Learning Factories (ELF), qui permet d’aider à financer certains équipements de recherche et d’enseignements. D’autre part, nous menons également des actions de solidarité envers les anciens élèves, ainsi que diverses manifestations territoriales. L’association est ainsi très active, et permet de fédérer une véritable communauté.
Qu’est-ce qui a motivé le lancement, pour la première fois cette année, des Journées Usines Ouvertes ?
L’école a comme principale volonté, depuis plusieurs années, de former les leaders des industries responsables. En 2023, une question nous est ainsi apparue : comment incarner cette volonté ? Nous nous sommes alors fixé trois objectifs : faire connaître nos « héros », les grands ingénieurs qui, aujourd’hui, développent des technologies et procédés originaux, novateurs ; contribuer à réconcilier les Français et l’industrie ; mais aussi, troisièmement, réussir à attirer les talents. À partir de ces trois piliers, nous avons défini trois grandes actions.
La première, pas encore mise en œuvre pour l’instant, est la création d’un prix de l’ingénieur, et de l’entrepreneur Arts & Métiers. Cela devrait se mettre en place dans les mois qui viennent. La deuxième action que nous avons, quant à elle, d’ores et déjà mise en œuvre, a été la publication, à l’automne dernier, des résultats d’un Observatoire Arts & Métiers des Industries responsables, réalisé conjointement avec l’IFOP et le directeur de son pôle Opinion & Stratégies d’Entreprises, Jérôme Fourquet. Cet « instantané » de la perception des Français de l’Industrie a permis de mettre en lumière plusieurs aspects notables : plus de 85 % d’entre eux, tout d’abord, considèrent que l’industrie et l’un des piliers de notre économie, un élément de souveraineté capital ; mais aussi, que seuls 11 % des Français recommanderaient sans réserve un travail dans l’industrie à leurs proches… Cet écart a ainsi été un véritable révélateur du déficit d’image dont souffre notre secteur. Déficit qui tient d’ailleurs en grande partie selon moi à l’invisibilisation des objets, au profit des services. Or, derrière chaque service se cachent des machines, des équipements, des objets de très haute technologie…
Nous avons alors entamé une réflexion qui nous a amenés jusqu’à une idée toute simple : ouvrir les usines. Cette troisième grande action vise en effet à répondre à cet objectif crucial : donner à voir pour donner envie. Mais surtout, donner à voir la réalité de l’industrie d’aujourd’hui, à mille lieues des romans de Zola… Les usines font aujourd’hui la part belle à la robotique, à l’IA, etc. Et ne sont en aucun cas des lieux d’asservissement.
C’est ainsi que nous avons imaginé le lancement de ces premières Journées Usines Ouvertes, un évènement voué à devenir un rendez-vous annuel, à l’instar des Journées du Patrimoine.
Nous avons d’abord longuement réfléchi aux dates les plus appropriées – que nous avons finalement fixées aux 4 et 5 avril prochains – avant de partir en quête de partenaires. Nous nous sommes ainsi progressivement entourés d’acteurs et d’institution de renom tels que CCI France, France Industrie, Territoires d’industrie, Bercy, certaines régions, ou encore le ministère de l’Éducation nationale… Pour n’en citer qu’une partie. D’autres sont aussi spontanément venus vers nous, comme le Comité Richelieu, qui rassemble près de 4 000 PME et ETI de haute technologie.
Qu’est-ce qui distingue ces deux journées des 4 et 5 avril ?
Le samedi 5 avril, les usines ouvriront leurs portes au grand public, dans le but notamment, comme je l’évoquais, de réconcilier l’industrie et les Français.
La veille, le vendredi 4 avril, les visites seront cette fois réservées aux publics scolaires. Nous avons d’ailleurs préparé des outils pédagogiques validés par le ministère de l’Éducation nationale qui permettront aux enseignants de prolonger les visites par en travail en classe. L’enjeu est en effet de redonner envie aux jeunes de s’intéresser aux métiers de l’industrie.
Pour cela, il nous semble d’ailleurs également crucial de redonner leur place aux sciences et technologies à l’école, pour former dès leur plus jeune âge les ingénieurs de demain. Les ingénieurs, certes… Mais aussi, d’ailleurs, les ingénieures, au féminin ! Aux concours d’entrée des grandes écoles, nous avons en effet constaté, en 2024, un recul de la part de filles accédant aux grandes écoles : une conséquence directe de la récente réforme du lycée. Ce n’est assurément pas une bonne nouvelle ! L’industrie a besoin de tout le monde, des hommes ET des femmes.
Former filles et garçons en sciences et technologies est d’autant plus capital dans le contexte actuel des bouleversements climatiques et environnementaux que nous vivons. Seuls les gens qui auront le bagage scientifique suffisant pourront apporter un avis éclairé et objectif pour orienter, dans la bonne direction, l’industrie de demain.
Avez-vous en tête quelques exemples de sites industriels qui ouvriront leurs portes ?
Ces Journées seront l’occasion de visiter des sites de toutes tailles : de la PME au grand groupe industriel, en passant par un grand nombre d’ETI du secteur. L’une des premières usines à nous avoir manifesté son intérêt pour l’évènement est Airbus Helicopters, à Marignane. À ce site se sont progressivement ajoutés d’autres acteurs industriels incontournables, à l’image des Chantiers de l’Atlantique, des aciéries ArcelorMittal de Dunkerque et de Florange, ou encore quatre sites de Thales, pour ne citer que quelques exemples. Au total, ce seront plus de 220 usines – deux fois plus que ce que nous imaginions au départ – qui ouvriront leurs portes pour cette première édition ! Et ce sera sans doute encore bien plus dès l’an prochain.
Je suis frappé par l’engouement suscité par cette initiative : tout le monde s’y met ! Y compris des institutions publiques telles que le ministère de l’Éducation nationale et le ministère de l’Industrie. Tout le monde a, je pense, conscience que nous sommes aujourd’hui dans un moment crucial pour le secteur. Il faut que l’on agisse collectivement, et concrètement !
La France a effectivement connu au cours des dernières décennies une forte désindustrialisation[1]. Cette tendance semblait vouée à ralentir, voire s’inverser il y a quelques mois[2]… Qu’en est-il aujourd’hui ?
Ces derniers mois, nous avons à nouveau connu une baisse de la création nette d’usines. Il y a cependant deux aspects à considérer : cet aspect conjoncturel, certes, mais aussi, à plus longue échelle de temps, une tendance structurelle. Le travail que nous menons aujourd’hui, au travers notamment de ces Journée Usines Ouvertes, s’inscrit ainsi dans le temps long, et vise à améliorer les choses progressivement. Même si des éléments conjoncturels peuvent légitimement inquiéter, la clé, selon nous, reste toutefois la ténacité, la pugnacité. La réindustrialisation est en effet le fondement de notre souveraineté. Les Français en prennent d’ailleurs de plus en plus conscience, notamment depuis la crise sanitaire.
La situation en Ukraine et les récentes déclarations du Président Trump ont fait l’effet d’une déflagration en Europe. Si rien n’est aujourd’hui acté, les dirigeants des pays de l’Union Européenne ont exprimé le besoin impérieux de renforcer leurs armées, en considérant comme acquis le fait que les Etats-unis ne constituaient plus un allié indéfectible. De fait, l’Europe, qui a pendant des décennies mis en sourdine ses capacités de défense et compté sur le géant américain pour garantir sa sécurité, se retrouve aujourd’hui dans une situation inédite et fragile. Et devant la nécessité de se réarmer et de mettre en place une stratégie continentale pour assurer sa défense militaire, devant une potentielle menace venue de l’Est. Menace déjà prise en compte depuis trois ans et l’invasion russe en Ukraine.
Dès le 11 mars, Emmanuel Macron a réuni les 30 chefs d’état-major de l’UE, plus celui du Royaume-Uni et de la Turquie, pour évoquer la situation ukrainienne, et l’avenir immédiat de la défense européenne.
En ce qui concerne la défense exclusivement française, le ministre des Armées a évoqué l’objectif d’un budget de 90 milliard d’euros par an pour la défense, alors que ce dernier pour 2025 est de l’ordre de 50,5 milliards. La loi de programmation militaire prévoit de le porter à 69 milliards à horizon 2030. Il va donc falloir trouver de l’argent.
Au niveau continental, le plan ReArm Europe, annoncé il y a quelques jours, pourrait représenter quelque 800 milliards d’euros. Concrètement, le vieux continent veut faciliter la capacité des Etats à emprunter et à mobiliser des capitaux pour investir dans les industries de défense, sans que cela ne vienne poser de problème vis-à-vis des taux d’endettement des Etats, sujet sur lequel l’UE est en général plutôt inflexible. Il ne s’agit donc pas pour l’Europe d’investir à corps perdu dans son industrie de défense, mais plutôt de pousser ses pays membres à le faire plus facilement. Il est vrai que depuis les années 2000, alors que les Etats-Unis (+65,7 %), la Russie (+292 %) et la Chine (+592 %) poursuivaient le renforcement de leurs moyens de défense en augmentant leurs dépenses, l’Europe (+19,7 %) plafonnait.
Au niveau français, les fleurons de la défense s’appellent Airbus Defence and Space, Ariane Group, Arquus, Dassault Aviation, MBDA, Naval Group, Nexter, Safran, Thales… Des géants industriels, qui drainent avec eux tout un écosystème comptant pas moins de 4000 PME pour près de 260 000 emplois.
Au niveau européen, d’autres leaders industriels comme BAE Systems, Leonardo ou Rolls Royce font également partie des géants de la défense.
Le plan d’investissement ne cible pas spécifiquement le domaine de la défense, et pour ainsi dire aucun projet financé à l’heure actuelle n’est directement lié à l’augmentation de la capacité de l’hexagone à assurer sa propre sécurité. Pour autant, de nombreux domaines stratégiques, comme la souveraineté numérique, l’accès aux composants stratégiques, ont trait, de près ou de loin, à l’autonomisation de la France sur le plan militaire.
Parmi les grands groupes industriels fleurons de la défense tricolore, nombre d’entre eux bénéficient de soutiens financiers pour des projets portés par France 2030.
C’est le cas de Thalès – projet DECOR, projet CarbChaser entre autres – par exemple. Reste à savoir si certains de ces projets pourraient voir leur scope modifié, pour être en mesure d’offrir une synergie entre la volonté de réindustrialisation et la nécessité d’atteindre rapidement une autonomie dans le domaine de la défense, qu’elle soit étatique ou continentale.
« L’inexistence ou l’inefficacité des dispositifs de sécurité incendie […] tend à expliquer l’importance des conséquences économiques [des évènements impliquant des batteries lithium] pour les sites industriels. » Voilà ce qu’écrivait, dans une synthèse publiée en janvier 2022, le Bureau d’analyse des risques et pollutions industrielles (BARPI), après avoir passé au crible pas moins de 36 cas d’incendies liés aux batteries lithium survenus chez des industriels qui les fabriquent, les testent, ou les emploient en tant qu’équipements.
La donne pourrait toutefois bien finir par changer. Depuis quelques années, émergent en effet des solutions de protection spécifiquement pensées pour faire face aux incendies liés aux batteries lithium, et plus particulièrement au mécanisme central qui en est à l’origine : l’emballement thermique. Des solutions qui ont notamment en commun le fait de miser sur la précocité de la détection du phénomène. C’est par exemple le cas d’un système mis au point par le groupe allemand Wagner, que nous vous présentions en mai 2023, mais aussi, autre exemple, celui d’une solution imaginée dès 2010 par l’entreprise étasunienne Nexceris avec le soutien de l’U.S. Navy, et mise en œuvre à l’échelle industrielle depuis 2017 : Li-ion Tamer.
Li-ion Tamer : dompteuse de batteries lithium
Le secret de la solution réside notamment dans ses capteurs, qui ne détectent en effet ni les flammes ni la fumée d’un potentiel incendie de batterie, mais plutôt des effluents gazeux… Et pour cause : « Avant même l’incendie, la défaillance d’une batterie lithium se traduit d’abord par un phénomène de venting, un dégagement de vapeurs d’électrolytes », explique Romuald Dumont, responsable Prescription en régions AuRA et PACA chez Esser by Honeywell, spécialiste des systèmes de sécurité incendie, qui distribue la solution en France[1]. C’est donc cette manifestation précoce, ce signe avant-coureur de l’incendie, que le système Li-ion Tamer permet de détecter. « Cela dépend évidemment du type de batterie et de la nature exacte de la défaillance, mais cette approche permet, en moyenne, de donner l’alerte cinq à dix minutes avant le déclenchement de l’incendie », chiffre M. Dumont. Une longueur d’avance capitale pour éviter un potentiel « effet domino » au sein d’une installation.
Pour assurer cette détection précoce, les capteurs embarquent notamment des algorithmes spécifiques qui leur permettent d’identifier précisément la signature du mélange gazeux émis dans l’atmosphère par un accumulateur défaillant, composé notamment de carbonate de diéthyle, l’un des principaux composants de l’électrolyte des batteries au lithium. Des capteurs de surveillance capables de couvrir une zone de vingt mètres carrés, d’une durée de vie annoncée comme égale à celle du système de batteries dont ils assurent la surveillance – et ce, sans besoin de réétalonnage – et qui sont en outre associés à des capteurs dits « de référence », positionnés au niveau des entrées d’air de la zone à surveiller. Cette association de capteurs permet ainsi de minimiser le risque de déclenchement de fausses alertes.
Pour fonctionner, cet ensemble de capteurs de surveillance et de référence est relié à un contrôleur, au travers de hubs capables, chacun, de recevoir le signal d’une douzaine de détecteurs ; signal transmis au travers de câbles Ethernet par le biais du protocole Modbus TCP/IP. « En rajoutant des hubs, on peut grimper jusqu’à une centaine de capteurs si nécessaire », précise M. Dumont. De quoi, ainsi, surveiller tous types d’installations faisant appel à des batteries au lithium : systèmes de stockage d’énergie (BESS), systèmes d’alimentation sans interruption (UPS) de data centers, lignes de production et d’assemblage de batteries, ou encore garages pour flottes de véhicules électriques et autres entrepôts de stockage de vélos ou de trottinettes électriques.
Un secteur de la mobilité très porteur pour cette solution en plein développement sur le marché français, comme en témoigne Julien Poiron, directeur du segment Incendie chez Securitas Technology France, filiale du groupe éponyme spécialisée dans l’intégration, la maintenance et la télésurveillance de systèmes de sécurité électronique, et qui se charge, aux côtés d’Honeywell, du déploiement de Li-ion Tamer dans l’Hexagone : « On ressent une forte demande, en premier lieu de la part des acteurs de la mobilité électrique. De grandes marques de vélos électriques ont par exemple déjà fait appel à nous pour installer cette solution, au même titre que quelques constructeurs haut de gamme de voitures électriques et sous-traitants du secteur automobile ».
Des clients pour qui l’intégrateur façonne des solutions sur mesure, adaptées aux spécificités de leurs installations respectives et au fonctionnement de leur système de protection incendie préexistant.
Comme le souligne Julien Poiron, Li-ion Tamer n’est en effet pas voué à remplacer les dispositifs conventionnels de détection incendie, mais plutôt à les compléter. « L’alerte précoce peut-être transmise à n’importe quelle centrale de détection incendie. Grâce à la télésurveillance que nous assurons, nous pouvons alors, en cas d’alerte, agir en fonction du cahier des charges du client », explique-t-il. Il ne suffit en effet pas d’alerter précocement… « Il faut aussi intervenir le plus rapidement possible, en prenant les mesures adaptées, telles que l’immersion de la batterie », ajoute-t-il.
De concert avec le responsable Prescription d’Esser by Honeywell Romuald Dumont, l’expert de Securitas Technology, ainsi, l’assure : aussi précoce que puisse être l’alerte, face au risque incendie lié aux batteries lithium, « la réactivité de toute la chaîne d’intervention aval se révèle elle aussi absolument cruciale ».
Batterie lithium et prévention du risque incendie : une autre solution lancée en ce début d’année
Outre le système Li-ion Tamer tel que présenté ci-dessus, Honeywell a lancé au début de cette année une déclinaison de la solution incarnée, cette fois, par un petit capteur autonome. « Ce dispositif se destine notamment aux armoires de stockage et de charge de petites batteries lithium-ion, utilisées par exemple sur des outils électroportatifs », explique le responsable Prescription d’Esser by Honeywell Romuald Dumont. « Cette solution adaptée aux petits volumes intéresse un panel de clients très large, notamment dans le petit commerce et les PME », note à son tour le directeur du segment Incendie chez Securitas Technology France, Julien Poiron.
[1] En 2020, c’est en effet avec la maison-mère de l’entreprise, Honeywell, que Nexceris a conclu un accord de partenariat visant à accroître la diffusion de la solution sur le marché mondial.
Depuis le lancement de France 2030 en 2022 et la volonté tricolore de soutenir l’émergence de futurs champions industriels dans des secteurs ciblés à fort potentiel dans le futur, notamment au vu de l’actuelle transition énergétique et des mutations technologiques en cours, certains éléments de contexte ont évolué. Dans le secteur des batteries par exemple, jugé stratégique au vu du déploiement de la mobilité électrique, la situation actuelle n’incite guère à l’optimisme, avec des ventes de véhicules électriques en baisse à mesure que les aides à l’achat disparaissent. Certains projets de gigafactories de production de batteries ont été arrêtés ou retardés, en France et en Europe. Il en va de même pour les projets liés au recyclage de ces batteries, très logiquement.
Dans le nucléaire aussi le réajustement est en cours. En témoigne la remise à plat du projet Nuward, qui doit voir son design simplifié, pour dérisquer le projet.
Un secteur qui pourrait sévèrement pâtir des réajustements actuels est celui de l’hydrogène. Si les technologies hydrogène sont considérées comme un pion essentiel de la transition énergétique, notamment pour offrir des solutions de mobilité, de stockage énergétique et de décarbonation d’industries lourdes, l’adoption de cette molécule est plus lente que prévue. Et la production d’hydrogène vert reste aujourd’hui très chère et marginale.
Ainsi l’adoption de l’hydrogène pour la mobilité lourde reste aujourd’hui très limitée, notamment à cause du développement des poids lourds électriques. Ainsi, si l’ambition de développer l’utilisation de l’hydrogène pour décarboner les industries lourdes comme la cimenterie ou la chimie reste intacte, et que des financements resteront fléchés dans ce sens, d’autres projets de mobilité à base d’hydrogène seront impactés, lors de la publication de la stratégie révisée, prévue dans les semaines qui viennent.
La publication de cette stratégie révisée, qui se fait attendre, doit aussi permettre d’y voir plus clair sur une question épineuse : la France sera-t-elle capable de produire de l’hydrogène vert de manière compétitive ? L’Ademe a tenté de répondre à cette question à travers une étude à la fin de l’année 2024. Que dit cette étude ? D’abord que la France produit et consomme environ 400 000 tonnes d’hydrogène gris (produit à partir de gaz fossiles) par an. La stratégie française vise à produire de l’hydrogène vert par électrolyse, à partir d’électricité renouvelable et nucléaire. France 2030 a permis de flécher 9 milliards d’euros en ce sens. De ce côté-ci, les projets d’EPR actés par le président de la république il y a quelques mois constituent plutôt aussi une bonne nouvelle pour la filière.
Mais pour le moment la réalité fracasse les ambitions tricolores de production d’hydrogène bas carbone. L’objectif pour 2030, fixé à 6,5 GW de production d’hydrogène bas carbone, ne sera pas tenu. En effet, aujourd’hui, les projections tablent sur une capacité de 0,3 GW en 2026. La question est donc aujourd’hui de trancher entre le fait de produire cet hydrogène bas carbone en France, ou bien de l’importer.
Si les projets d’électrolyseurs comme Air Liquide Normand’Hy ou Masshylia doivent permettre au pays de monter en puissance sur la production d’hydrogène renouvelable dès cette année, certains pays comme le Maroc ou le Chili disposent de gisements d’énergies renouvelables leur permettant de produire de l’hydrogène renouvelable à bas coût.
Pour être compétitif sur le moyen long terme, la France devra développer des moyens de transport pour l’hydrogène, par canalisations ou par bateau. A l’heure actuelle aucune de ces solutions de transport ne dispose d’infrastructure sur le territoire.
Une autre solution consiste à développer des usages de l’hydrogène via ses dérivés comme l’ammoniac (engrais), le méthanol (chimie), les e-carburants ou les minerais de fer pré-réduits pour la production d’acier.
Ainsi, l’État doit faire des choix. Ces derniers seront décisifs pour le déploiement effectif de la filière hydrogène. La publication à venir de la stratégie révisée donnera des directions, qui feront des heureux et des déçus.
Créée en 2013, la base de données Carbon Majors regroupe à ce jour 169 des plus grands producteurs de pétrole, de gaz, de charbon et de ciment dans le monde. Gérée par InfluenceMap, elle quantifie non seulement les émissions directes de CO₂ liées à ces activités, mais aussi celles indirectes provenant de la combustion des produits commercialisés. Comme chaque année, le think tank basé à Londres vient de publier son rapport dans lequel il analyse les derniers chiffres disponibles, à savoir ceux de l’année 2023. Il révèle que les émissions de gaz à effet de serre de ces multinationales ont encore progressé (+0,7 %) comparé à l’année précédente, pour atteindre un volume de près de 34 gigatonnes de CO₂ équivalent.
« Malgré les engagements mondiaux en faveur du climat, un petit groupe des plus grands producteurs mondiaux d’énergies fossiles augmente significativement sa production et ses émissions, souligne Emmett Connaire, analyste principal chez InfluenceMap. L’étude met en évidence l’impact disproportionné de ces entreprises sur la crise climatique, certaines d’entre elles faisant actuellement l’objet de poursuites judiciaires aux États-Unis en vertu du Superfund climatique, étayées par les résultats de la base de données. Cela souligne le rôle crucial des Carbon Majors dans le suivi des émissions, la promotion d’un changement systémique et le soutien aux efforts visant à renforcer la responsabilité des entreprises. »
Le rapport démontre que seulement 36 entreprises des secteurs des combustibles fossiles et de la cimenterie émettent plus de la moitié des émissions mondiales de CO₂ liées à ces industries. En 2023, le charbon est resté la principale source d’émissions, contribuant à 41,1 % des émissions de la base de données et poursuivant son augmentation constante depuis 2016. Alors que les rejets de CO₂ liés au charbon ont augmenté de 1,9 % comparé à 2022, ceux du ciment ont connu la plus forte hausse (+6,5 %), ce qui démontre l’expansion de ce secteur. D’ailleurs, quatre des cinq entreprises ayant enregistré les plus fortes augmentations de leurs émissions en 2023 sont des cimentiers. En revanche, les émissions de gaz naturel ont diminué de 3,7 % et le pétrole est resté stable avec une progression de 0,3 %.
Les entreprises publiques sont celles qui émettent le plus de CO₂
Autre fait important : les entreprises publiques sont celles qui émettent le plus de CO₂ en 2023, puisqu’elles représentent 16 des 20 principaux émetteurs. Dans l’ensemble, elles ont contribué à 52 % des émissions mondiales et les cinq principaux émetteurs publics – Saudi Aramco (Arabie Saoudite), Coal India (Inde), CHN Energy (Chine), National Iranian Oil Co (Iran) et Jinneng Group (Chine) – sont responsables de 17,4 % de toutes les émissions de CO₂. Quant aux cinq principaux émetteurs détenus par des investisseurs privés – ExxonMobil (États-Unis), Chevron (États-Unis), Shell (Royaume-Uni), TotalEnergies (France) et BP (Royaume-Uni) -, ils ont représenté 4,9 % des émissions mondiales de CO₂.
Les entreprises chinoises sont celles qui contribuent le plus à ces rejets, puisqu’en 2023, elles sont responsables de 23 % des émissions mondiales de CO₂ provenant des combustibles fossiles et du ciment. À noter qu’en Asie, les entreprises charbonnières occupent une place importante dans ces émissions de CO₂ et que sept d’entre elles figurent dans la liste des 20 principaux émetteurs, et six se trouvent en Chine et une en Inde, ce qui souligne la dépendance continue au charbon de cette région du monde.
Les auteurs de cette étude ont aussi analysé les rejets de CO₂ couvrant la période allant de 1854 à 2023. Ils révèlent que 67,5 % des émissions industrielles anthropiques depuis la révolution industrielle sont imputables à 180 entreprises et entités publiques. Et que sur cette période, seules 26 entités ont été responsables de plus d’un tiers des émissions mondiales.
Le SGPI a réaffirmé durant le tout récent sommet sur l’IA que cette technologie était une priorité stratégique pour la France. L’agriculture fait partie des secteurs qui ont beaucoup à gagner à voir des solutions d’IA pertinentes se développer, sur l’ensemble de la chaîne de valeur de la filière.
La Ferme Digitale a pour mission de promouvoir l’innovation et le numérique pour une agriculture performante, durable et citoyenne, comme le précise le site internet de l’association. Créée en 2016, La Ferme Digitale compte aujourd’hui 150 adhérents, dont une centaine de start-up qui œuvrent dans l’innovation au sens large – numérique, biocontrôle, techniques de vente de produits agricoles… – auxquels s’ajoutent une quarantaine de partenaires – PMI et PME – et quelques grands groupes comme le Crédit agricole ou le groupe One Point par exemple. Une partie des activités de la Ferme Digitale est de faire la promotion des start-up adhérentes, au travers d’événements comme le salon de l’agriculture, dont l’édition 2025 s’est tenue il y a quelques semaines. L’association essaie également d’attirer des financements pour ses start-up, notamment à travers l’organisation d’un événement annuel, leFLD.
La troisième activité est l’organisation de clubs thématiques variés, notamment sur le thème de l’IA et de la donnée pour l’agriculture. C’est dans ce cadre que la Ferme Digitale, en collaboration avec l’association OSFarm, a organisé un hackathon, GAIA, qui s’est tenu pendant le salon de l’agriculture il y a quelques semaines.
David Joulin, membre du bureau de La Ferme Digitale et initiateur du projet GAIA, a répondu aux questions de Techniques de l’Ingénieur.
Techniques de l’Ingénieur : L’exploitation des données est-elle aujourd’hui un enjeu fondamental pour le monde agricole ?
David Joulin : Cela fait plus de 40 ans que la donnée est quelque chose de fondamental dans le monde agricole. En effet, l’analyse de la météo et des rendements agricoles a un impact direct sur les prix de marché, notamment à la bourse de Chicago par exemple.
Depuis les années 2000, l’exploitation des données agricoles s’est démocratisée avec l’arrivée d’internet et l’accès à de nombreuses sources. Pour autant, l’acculturation des agriculteurs aux techniques d’exploitation des données est aujourd’hui moyenne, mais ce n’est selon moi pas le plus grave.
Selon moi, aujourd’hui le niveau d’acculturation des partenaires du monde agricole est très bas en ce qui concerne les techniques d’exploitation des données. Cet état de fait a beaucoup de mal à évoluer et freine l’innovation, alors que les agriculteurs sont en demande de solutions.
Le hackathon GAIA, dont la seconde édition a eu lieu il y a quelques semaines pendant le salon de l’agriculture, doit participer à résoudre ce manque d’acculturation ?
Certainement. L’objectif du hackathon GAIA est de faire évoluer cette situation et de développer, déployer et acculturer les acteurs agricoles sur les techniques d’intelligence artificielle, notamment en invitant des partenaires clés du monde agricole comme la MSA ou le groupe Avril par exemple. Ceci afin de favoriser les échanges et la communication entre les acteurs autour de ces technologies, et in fine la diffusion de l’innovation.
David Joulin, initiateur du projet GAÏA et organisateur de la deuxième édition du hackathon
L’édition du hackathon de cette année a été organisée avec cette volonté d’amener les différents acteurs du monde agricole à s’acculturer aux technologies d’exploitation des données à l’aide d’IA, en les invitant à l’événement. Il s’agit donc des acteurs du monde agricole au sens large : coopératives, organismes producteurs, MSA, le groupe Avril, entre autres. Nous leur avons demandé de venir exposer leurs problématiques, pour que nous puissions évaluer ensemble, en moins de 48 heures, si l’IA pouvait amener une valeur ajoutée quant à leur résolution.
Concrètement, nous avons des partenariats avec des entreprises technologiques, comme Mistral par exemple, et dans le cadre de GAIA nous fournissons un kit technologique, constitué d’un ensemble de libraires et de données. Il s’agit la plupart du temps d’open data pour la donnée, et d’open source pour les librairies logicielles, pour permettre aux participants de construire plus rapidement un prototype fonctionnel et le tester. Cette année 8 sujets ont fait l’objet de travaux.
Quels sont les principaux résultats obtenus cette année lors de ce hackathon ?
Un des outils parmi les plus intéressants qui a été développé est un simulateur de rendement. L’organisme qui porte ce projet est Solution + membre de la Coopération Agricole, en partenariat avec le directeur de production de la coopérative Terrena. A base de briques open source et d’open data, ils sont parvenus à répertorier l’ensemble des parcelles d’un territoire, et à déterminer l’ensemble des cultures du territoire. Ensuite, avec les données satellitaires et un index que l’on appelle le NDVI, ils ont pu déterminer l’ensemble de la croissance de chacune des cultures pour affiner une prévision de rendement et affiner un volume de blé et de tournesol qui va potentiellement entrer dans la collecte d’une coopérative. Cela permet d’abaisser le risque et d’affiner le prix proposé aux agriculteurs. Cela est très important pour ces derniers, puisque la précision obtenue est de plus ou moins 4% sur les rendements, alors que la précision habituelle, sans l’exploitation de ces données, est de plus ou moins 30%. La marge d’erreur se trouve donc extrêmement réduite.
Sur quels autres aspects du travail des agriculteurs l’IA peut-elle trouver des applications pertinentes ?
L’IA doit permettre d’amener des réponses sur de nombreuses problématiques liées à l’activité agricole : diminuer la pénibilité de l’activité agricole, particulièrement pour les éleveurs, anticiper les effets de marché, éviter des maladies sur les troupeaux ou les cultures… Il faut absolument dans un premier temps analyser et formuler correctement les problèmes pour utiliser l’IA de manière pertinente, et ne pas fonctionner dans le sens inverse.
A ces problématiques agricoles s’ajoute aujourd’hui celle du dérèglement climatique, qui touche l’ensemble des productions, des agriculteurs, et qui a pour conséquence majeure d’augmenter les fréquences de montée et de descente de l’ensemble des cours des marchés agricoles. Ce qui pénalise tous les acteurs du monde agricole, et rend encore plus fondamental l’intérêt de l’usage de l’IA, pour être en mesure d’affiner une collecte et garantir un prix de vente pour les productions agricoles, ce qui n’est pas automatique aujourd’hui et peut mettre les agriculteurs dans des situations de grande difficulté.
Le changement climatique rend-il plus complexe l’exploitation des données météorologiques ?
Effectivement. Aujourd’hui nous avons beaucoup plus de données qu’avant, mais pour autant les prédictions ne s’améliorent pas. Car le dérèglement climatique va plus vite que le développement de nos technologies de prédiction.
Empiriquement, si vous comparez les prévisions de Météo France il y a 20 ans et le réalisé, avec les prévisions actuelles et le réalisé, vous pouvez vous rendre compte qu’il y a un écart énorme. Alors que le nombre de stations météo, la puissance de calcul, les données, sont infiniment plus avancées aujourd’hui qu’il y a 20 ans.
Pouvez-vous expliquer quel est le rôle de France 2030 dans le développement des usages de l’IA. Dans quelle mesure France 2030 soutient le projet GAIA ?
En France aujourd’hui nous sommes en avance sur les compétences humaines dans le domaine de l’IA. Par contre nous sommes en retard sur le financement, et sur la capacité des hommes politiques à mobiliser et surtout à exécuter.
La bonne nouvelle en 2025, c’est l’annonce du SGPI, qui pilote les fonds France 2030, de soutenir l’initiative de déployer des solutions innovantes en agriculture grâce à l’intelligence artificielle. Ainsi, France 2030 va soutenir financièrement des projets issus des hackathons GAIA que la Ferme Digitale organise, et notamment celui ayant eu lieu cette année.
Le gouvernement a pris conscience que les initiatives comme GAIA, qui permettent de traiter un sujet sur un temps très court, de tester rapidement sa pertinence, constituent des solutions qu’il faut soutenir, d’autant plus que les compétences sont réunies en France pour aboutir à des solutions technologiques pertinentes.
Les moyens mis en œuvre par l’intermédiaire de France 2030 vous paraissent-ils suffisants au regard des enjeux liés au développement des usages de l’intelligence artificielle ?
Il me semble que le problème se situe dans l’exécution des décisions plutôt que dans le calibrage des aides. Le timing entre l’annonce des montants alloués par exemple au secteur de l’IA via France 2030 et le moment où ce montant sert réellement à payer des gens qui travaillent sur des projets d’IA est souvent trop long. Notamment parce que les annonces de fonds mis en place par France 2030 sont généralement suivies de débats politiques entre tous les organismes publics pour savoir qui a le plus besoin de ces fonds, et ces tractations retardent invariablement le démarrage effectif des projets. C’est quelque chose qu’il faut améliorer.
De la découverte en laboratoire à l’innovation industrielle… On scrute pour vous chaque semaine les tendances de l’industrie.
L’UE face aux défis climatiques : le Clean Industrial Deal, un nouveau modèle industriel en marche
L’Union européenne se lance dans une transformation ambitieuse avec le Clean Industrial Deal, un plan qui vise à réconcilier compétitivité économique et politiques climatiques. En s’appuyant sur le rapport Draghi, la Commission européenne entend relancer l’industrie tout en maintenant une trajectoire de décarbonation. Cette feuille de route ambitieuse comporte des mesures phares et des défis à relever de façon à transformer le paysage industriel européen. Le plan de l’UE pour réconcilier compétitivité et climat
Photovoltaïque et nucléaire : une ambition trop grande pour la France ?
Vincent Berger, Haut-commissaire à l’Énergie atomique, alerte sur les risques d’une stratégie énergétique trop ambitieuse pour la France. Dans un avis consulté par Les Échos, il souligne les dangers d’une surproduction électrique à l’horizon 2035, en raison d’une offre qui pourrait dépasser la demande intérieure. La stratégie énergétique française jugée trop ambitieuse
Éolien en mer : un secteur en pleine tempête
Malgré des ambitions affichées par le gouvernement pour l’éolien offshore, la filière française est confrontée à de nombreux obstacles. Des retards dans la planification aux menaces politiques, en passant par une concurrence internationale féroce, l’avenir de l’éolien en mer est incertain. Plongez dans les défis qui se dressent sur la route de cette transition énergétique. L’éolien en mer, un secteur sous pression
L’Appel de la France pour Renforcer l’Industrie des Semi-conducteurs
Les semi-conducteurs, essentiels à notre quotidien, sont au cœur d’une nouvelle stratégie française visant à réduire la dépendance aux importations asiatiques. En collaboration avec Taïwan, la France espère booster son industrie électronique et répondre aux défis des transitions numérique et écologique. L’industrie électronique française et le boost de Taïwan
Réarmement européen : la France en première ligne
Alors que les tensions internationales s’intensifient, la France affiche sa détermination à renforcer ses capacités militaires. Cet article analyse les efforts de réarmement du pays, en mettant en lumière les défis de production et les ambitions de modernisation des équipements militaires. La France se prépare à renforcer sa défense
L’avenir de la médecine régénérative : la bio-impression 3D en action
La bio-impression 3D est sur le point de transformer la médecine régénérative en permettant la création de tissus et d’organes sur mesure. Cette technologie s’engage à réduire les risques de rejet et à raccourcir les listes d’attente pour les transplantations, tout en ouvrant de nouvelles perspectives pour la recherche médicale. La bio-impression 3D : du nouveau pour la médecine régénérative
Au moment même où les États-Unis et la Russie négocient un cessez-le-feu en Ukraine, le chef de l’État français affiche la volonté martiale de réarmer le pays. Dans cette optique, les grands industriels français de l’armement ainsi que les représentants de 4 000 PME du secteur ont été convoqués à l’Élysée vendredi dernier. Parmi eux, Safran, Dassault, Thalès, Naval group[1] ou encore KNDS[2] . Aujourd’hui, malgré une augmentation de la cadence, les limites de production persistent.
Rafales, canons Caesar… Quels sont les atouts de la France ?
La France est la première armée d’Europe[3]. La LPM[4] 2024-2030, d’un budget de 413 milliards d’euros, vise à adapter et à moderniser les équipements des systèmes de drones et des systèmes de missiles antiaériens.
La production du Rafale, l’un des meilleurs avions de combat au monde, a connu une montée en puissance ces dernières années en anticipant l’afflux des commandes. En 2020, un seul Rafale sortait des lignes d’assemblage de l’usine de Mérignac tous les mois, contre deux à trois aujourd’hui. Le PDG de Dassault Aviation, a annoncé se mettre en capacité « s’il le fallait » pour sortir cinq Rafales par mois.
KNDS, qui fournit l’armée de Terre en canon Caesar dans le cadre du programme Scorpion[5], a aussi intensifié la cadence de sa ligne de production. Le canon Caesar, à la capacité de tir de six obus par minute, est un des fleurons de l’artillerie française. La durée de production usuelle de 15 mois a été divisée par deux depuis la guerre en Ukraine. Sur le site d’assemblage de Roanne, la production du Caesar est passée de deux par mois à six en l’espace de trois ans. Près de 70 exemplaires équipent l’armée ukrainienne.
Néanmoins, on ne peut pas, stricto sensu, parler d’économie de guerre ; il n’y a, pour le moment, ni mobilisation de l’appareil productif français ni réquisition de la main-d’œuvre au profit des forces armées.
« L’Europe de la défense » : le serpent de mer
Le 4 mars dernier, un plan historique intitulé « ReArm Europe » de 800 milliards d’euros a été présenté par la Commission européenne.
Avec 41 entreprises sur 100, les États-Unis dominent le classement. Même si les états européens souhaitent s’émanciper du parapluie américain pour créer « l’Europe de la défense », le chemin risque d’être long : entre mi-2022 et mi-2023, 64 % des commandes européennes d’armement sont attribuées aux États-Unis. Pour inverser la tendance, l’instauration d’une préférence européenne pour l’acquisition d’équipements militaires peut être envisagée. Privilégier, par exemple, le Rafale au F-35 américain qui est devenu incontournable pour les forces aériennes européennes.
Selon le baromètre industriel de l’État, la réindustrialisation, en France, a été en perte de vitesse en 2024 et même en recul pour les créations nettes de nouvelles usines.
De son côté, la Russie a produit 1,4 million de drones en 2024 – soit dix fois plus qu’en 2023. La Biélorussie a, par ailleurs, annoncé le 6 mars dernier être prête à accueillir une usine russe capable de produire jusqu’à 100 000 drones par an…
[1] Leaders mondiaux de la construction de navires militaires
[2] Groupe franco-allemand : KMW+Nexter Defense Systems
[3] Selon le dernier classement de global firepower
[4] Loi de programmation militaire
[5] Programme de modernisation de l’Armée de terre française
[6] Classement établi par l’Institut international de recherche sur la paix de Stockholm (SIPRI)
[7] Thalès, Naval Group, Safran, Dassault Aviation et le Commissariat à l’énergie atomique
L’impression 3D, qui consiste à fabriquer des pièces en volume par ajout plutôt que par suppression de matière, est devenue un outil quasi indispensable dans l’industrie moderne. Toutefois, certains domaines lui restent encore inaccessibles. C’est le cas pour la production de pièces en polymère, qui sont aujourd’hui fabriquées par injection de matière dans des moules en métal. Cette méthode est certes peu onéreuse, mais elle est limitée dans la personnalisation et la taille des pièces. Pour y pallier, l’impression 3D doit gagner en vitesse de production ainsi qu’en qualité des matériaux employés tout en gardant un prix d’usage raisonnable. Dans ce but, des chercheurs du Beckam Institute for Advanced Science and Technology de l’Université de l’Illinois Urbana-Champaign (États-Unis) ont choisi de s’inspirer de la morphogenèse – les lois déterminant la forme et la structure des tissus, organes et organismes – chez les végétaux. Leurs travaux sur « l’impression par croissance » sont parus le 10 mars 2025 dans le journal Advanced Materials.
Une morphogenèse artificielle, économe et rapide
En impression 3D, chaque « voxel » (l’équivalent d’un pixel en volume) est défini numériquement puis déposé de façon déterminée. Chez les organismes naturels comme les plantes, la croissance suit un plan de développement inscrit dans leur génome et jouant sur la division cellulaire. Ainsi, un arbre croît par l’apport intrinsèque de nouvelles couches de cellules à la périphérie du tronc. Mais sa morphologie finale est également impactée par des stimuli externes, certains arbres étant couchés par le vent ou s’étendant vers la lumière solaire à travers la canopée. Cette croissance naturelle est durable et permet de créer des formes complexes sans aucun moule ou équipement sophistiqué. Pour parvenir à imiter la nature, les scientifiques sont partis de monomères de dicyclopentadiène (DCPD) – une résine liquide ambrée – qu’ils se sont évertués à faire durcir rapidement tout en la manipulant afin d’obtenir des formes variées.
Pomme de pin, framboise et courge ont été produites à l’aide de l’impression par croissance. Crédits : University of Illinois Urbana-Champaign.
Pour déclencher le durcissement du DCPD, un initiateur chauffé à 70°C est mis en contact avec la résine liquide. À partir du point de contact initial, un front de durcissement se propage par une réaction de polymérisation exothermique. La résine se transforme alors en un polymère rigide – du poly-dicyclopentadiène (p-DCPD) – en rayonnant à la vitesse de 1 mm/s. Soit près de 60 fois plus rapidement que la croissance naturelle du bambou ! Alors que le système continue à croître selon un modèle sphérique, les chercheurs peuvent altérer la forme du solide en le tirant hors de la résine comme une pomme hors du caramel gluant. À force de la soulever, de la plonger et de la faire tourner, ils parviennent à réaliser des structures semblables à une pomme de pin, une framboise ou une courge.
Cette nouvelle méthode d’impression a l’avantage d’être économe en énergie (avec au moins trois ordres de grandeur de moins que la consommation requise en stéréolithographie, où la résine est durcie par une source lumineuse) et à grande vitesse (de deux à dix fois plus rapide que la stéréolithographie). Dans le futur, l’impression par croissance pourrait permettre la fabrication de pièces en polymère aussi imposantes que des coques de bateaux ou des pales de turbines.
Il y a près d’un mois, alors que se tenait le sommet de l’IA sur notre sol, l’adoption du projet de loi de finance à l’assemblée nationale a jeté un froid dans le monde de la recherche et du financement de l’innovation. Au total, ce sont près de trois milliards d’euros qui ont été supprimés des dispositifs existants destinés à soutenir la recherche et l’industrie.
Le perdant de l’histoire s’appelle France 2030. Le plan d’investissement, initialement doté de 54 milliards d’euros alloués entre 2022 et 2027, se voit amputé de près de 2,5 milliards d’euros, via un amendement voté à la dernière minute, reportant près de 2 milliards d’euros de crédits et annulant 535 millions d’euros de subventions en 2025. Finalement, ces révisions aboutissent à une modification du rythme des financements liés à France 2030. Au lieu des 8 milliards prévus en 2025 et 2026, les financements vont s’étaler sur trois ans à hauteur de 5 milliards par an.
15 milliards d’euros distribués sur trois ans au lieu de deux, l’occasion également pour l’Etat de réajuster la mire, pour poursuivre le financement de l’innovation sur les projets et les secteurs porteurs, et d’un autre côté réévaluer les aides allouées à d’autres filières industrielles pour lesquelles le contexte est aujourd’hui moins favorable. Cette réévaluation ne concerne pas les quelque 5 000 projets d’ores et déjà sélectionnés, qui continueront à être subventionnés dans la mesure où ils atteignent les objectifs prédéfinis et répertoriés dans les contrats de financement du SGPI (secrétariat général pour l’innovation).
Comment l’Etat va-t-il donc s’y prendre pour se retirer de certains projets et respecter l’enveloppe financière allouée pour 2025 ? Deux critères vont dicter ces choix. Seront d’abord concernés les projets n’ayant pas atteint leurs objectifs technologiques. Viennent ensuite ceux pour lesquels les entreprises concernées n’ont pas réussi à lever les fonds privés nécessaires, ou ont été rachetées. Les premiers projets à se voir retirer leurs subventions doivent être annoncés à la fin du mois de mars. Dans la même veine, certains appels à projets vont être décalés dans le temps.
Parmi tous les secteurs industriels porteurs soutenus via France 2030, certains sont aujourd’hui en situation de risque. C’est particulièrement le cas pour la filière hydrogène, qui devrait se voir impactée financièrement par rapport à ce qui était prévu initialement à travers France 2030, et la décision de miser sur le déploiement d’une filière hydrogène performante. Et le développement d’une mobilité basée sur cette molécule pour différents modes de transport. Cependant, le développement de ces modes de transport tarde, et se limite pour le moment aux utilitaires. Airbus a quant à lui repoussé son projet d’avion hydrogène, le carburant hydrogène reste cher, et de nombreux acteurs industriels majeurs de la filière retardent leurs projets.
Dans le secteur spatial également, de nombreux projets de micro-lanceurs ont fait l’objet d’un accompagnement depuis 2022, aujourd’hui se pose la question de savoir s’il ne serait pas stratégique de concentrer les efforts sur les projets présentant le plus fort potentiel.
A l’inverse, un secteur, qui n’avait pas fait l’objet d’attentions particulières en 2022 mais qui devrait mobiliser plusieurs milliards d’euros dans les trois années à venir est celui de l’intelligence artificielle et de ses usages. Un choix stratégique évident, tant les technologies d’IA démontrent leur intérêt dans de nombreux secteurs industriels.
En résumé, si France 2030 se voit contraint d’étaler sa force de frappe financière sur trois ans au lieu de deux, la période actuelle est également une opportunité pour ajuster au mieux les choix nationaux au niveau technologique.
Un vent d’inquiétude. Voilà ce qui, telle la bise noire, souffle depuis quelque temps sur les acteurs français de l’éolien en mer. Une filière qui, pourtant, ne semblait a priori pas vouée au désœuvrement, bien au contraire. Dans son discours de Belfort de février 2022, le président Macron a en effet défini l’objectif d’une mise en service, d’ici à 2050, d’une cinquantaine de parcs éoliens au large de nos côtes. Une ambition réaffirmée fin 2023 lors de son discours aux Assises de l’économie de la mer à Nantes.
Composé de 80 mâts de 100 m de hauteur (180 en bout de pale), le parc éolien offshore de Saint-Nazaire est le premier a avoir été mis en service en France, fin 2022. Crédit France Énergies Marines
Législatives anticipées : premier coup de semonce politique
L’an dernier déjà, une quarantaine d’acteurs de la filière lançaient une première alerte, au travers d’une tribune commune publiée par l’hebdomadaire spécialisé dans l’économie maritime Le Marin. À quelques jours du premier tour des élections législatives anticipées, leur crainte était alors avant tout que le développement des projets de parcs éoliens offshore ne soit mis en suspens en cas de majorité RN à l’Assemblée. « Le Rassemblement national a [en effet] promis un moratoire sur l’éolien et “surtout l’offshore” », rappelait à ce sujet Le Marin, citant le député Jean-Philippe Tanguy.
L’issue inattendue du scrutin, suivie quelques semaines plus tard de la nomination d’Agnès Pannier-Runacher au poste de ministre de la Transition écologique au sein du gouvernement Barnier, ont toutefois fini par redonner une lueur d’espoir aux acteurs d’une filière qui voyaient jusqu’alors l’orage poindre à l’horizon. « La ministre […] est [notamment] attendue […] sur le sujet de la planification des zones pour l’éolien en mer », soulignait ainsi Le Marin, dans un article publié le 23 septembre 2024. Un dossier qu’elle connaît parfaitement pour l’avoir suivi, au côté du secrétaire d’État à la Mer, Hervé Berville, lorsqu’elle était ministre de la Transition énergétique de 2022 à janvier 2024 », rappelait au passage l’hebdomadaire du groupe Ouest-France.
Un mois plus tard, le 18 octobre, était ainsi dévoilée, à Fécamp, la décision de l’État quant à la planification du développement de l’éolien offshore. « Cette décision comprend […] la cartographie des zones prioritaires pour le développement de l’éolien en mer à l’horizon de 10 ans et de 2050 », précise un communiqué publié pour l’occasion. Une avancée notable, certes, mais arrivée visiblement un peu tard…
Des craintes qui subsistent
Le 3 mars dernier, au travers d’un communiqué publié par France Offshore Renewables[1], la filière lançait en effet une nouvelle alerte portant cette fois, notamment, sur un « risque majeur de chute d’activité industrielle entre 2025 et 2030 », conséquence directe, selon elle, « des retards accumulés par l’État dans la planification de l’éolien en mer » ; retards qui risquent en effet de provoquer « une diminution des activités de fabrication, d’intégration et de déploiement », et menacent ainsi « la continuité des compétences et les investissements réalisés jusqu’à présent ».
Une alerte sur la fragilité de la filière, donc, qui est d’ailleurs loin d’être la seule lancée par les membres de l’alliance France Offshore Renewables par le biais de ce même communiqué du 3 mars.
Le document met en effet également en exergue : le doute qui plane sur la capacité industrielle française ; l’urgence que représente la mise en place d’un plan de charge après 2027 ; la nécessité d’assurer une forme de solidarité au sein de la filière, « indispensable pour maximiser les retombées économiques locales et nationales » ; mais aussi, enfin, l’indispensable mise en œuvre immédiate de mesures de protection de la chaîne de valeur franco-européenne, « cruciales pour préserver et développer les compétences nécessaires à une décarbonation souveraine de notre économie », selon les auteurs du document.
Aussi étoffé et dynamique qu’il puisse être (lire en encadré ci-dessous) l’écosystème national de l’éolien offshore se trouve en effet, en outre, confronté à une concurrence étrangère particulièrement féroce, comme l’a notamment expliqué au Journal des Entreprises la déléguée générale de l’un des six clusters de l’alliance – Normandie Maritime – Delphine Lefrançois. « Dans le contexte géopolitique actuel, nous faisons face à la concurrence déloyale […] des Chinois, très subventionnés, et des États-Unis ». Face à cette conjoncture, c’est donc avant tout à la mise en place d’une véritable stratégie industrielle franco-européenne qu’appellent les six groupements industriels régionaux de l’alliance France Offshore Renewables. Une stratégie dont dépend en effet, selon eux, « l’avenir de notre industrie, de nos emplois et de la transition énergétique de nos territoires ».
Éolien offshore : une filière industrielle nationale qui ne cesse (pour l’heure) de s’étoffer
« En France, la concrétisation des sept[2] premiers parcs éoliens en mer engagés depuis 2012 a conduit au développement et à la structuration d’une filière industrielle nationale de l’éolien enmer », note eoliennesenmer.fr, site internet mis en place par le Centre d’études et d’expertise sur les risques, l’environnement, la mobilité et l’aménagement (Cerema) à la demande de la direction générale de l’Énergie et du Climat (DGEC) du ministère chargé de l’Énergie, dans le but de présenter l’état du développement de l’éolien en mer en France.
Sur le plan industriel, ce sont ainsi plusieurs sites majeurs qui ont pu voir le jour sur notre territoire au cours de la dernière décennie : l’usine General Electric Renewable Energy de fabrication de nacelles et de générateurs de Saint-Nazaire, créée en 2014 ; l’usine de fabrication de pales LM Wind Power, ouverte à Cherbourg en 2019 ; ou encore l’usine de fabrication de nacelle et de pales Siemens-Gamesa du Havre. Créée début 2022, celle-ci se tourne désormais vers la seule production de pales, au sein d’une extension dont la première pierre a été posée pas plus tard que le 17 février dernier. Une décision qui ne va toutefois pas sans soulever des interrogations au sein de la filière, comme le notent les auteurs du communiqué publié le 3 mars dernier par France Offshore Renewables.
Quoi qu’il en soit, la filière qui employait plus de 8 300 personnes en 2023 pourrait bien franchir le cap des 20 000 emplois à l’horizon 2035, à la faveur sans doute, notamment, du développement de l’éolien flottant[3], au potentiel considérable. Tout cela, à condition, bien sûr, que le vent continue de souffler dans la bonne direction.
[1] Alliance regroupant les six groupements industriels régionaux français de l’éolien offshore : Aquitaine Blue Énergies, Bretagne Ocean Power, Normandie Maritime, Neopolia, Wind’Occ et Sudéole.
En permettant la création de tissus et d’organes sur mesure pour les transplantations, la bio-impression 3D va bientôt révolutionner la médecine régénérative. Car les enjeux médicaux sont grands : réduction des risques de rejet, raccourcissement des listes d’attente pour les transplantations, sans oublier les innombrables opportunités liées à la recherche et au développement de nouveaux traitements médicaux.
La bio-impression 3D de tissus organiques, une technique prometteuse
La médecine moderne utilise déjà l’impression 3D pour de nombreuses applications biomédicales, de l’impression de prothèses et d’implants sur mesure à la fabrication de médicaments personnalisés, sans oublier l’ingénierie tissulaire.
Mais si l’impression 3D de matériaux rigides est déjà à l’œuvre en médecine réparatrice, les techniques de bioassemblage et de bio-impression en sont encore à leurs débuts et l’impression 3D de tissus organiques vivants demeure un défi de taille. Car pour reproduire la souplesse des tissus biologiques, encore faut-il disposer de matériaux possédant à la fois une élasticité suffisante et une bonne résistance. Or, c’est tout l’objet des travaux des chercheurs américains.
Un hydrogel révolutionnaire
Les hydrogels sont des matériaux souples couramment employés pour la fabrication de pansements médicaux et de lentilles de contact (silicone hydrogel). Mais ces hydrogels ont l’inconvénient d’être fragiles et leur faible résistance en traction et en torsion limite leur usage en bio-impression.
Le professeur Guohao Dai et son équipe de la Northeastern University ont donc collaboré avec Yi Hong de l’université du Texas à Arlington, afin de développer un hydrogel réellement adapté à l’impression 3D.
Le processus utilisé peut être résumé de la manière suivante.
Le matériau est mélangé à des cellules vivantes.
Il est ensuite dissous dans une solution liquide.
Le liquide est alors imprimé à la forme désirée.
L’objet obtenu est ensuite exposé à une lumière bleue.
La photopolymérisation rend alors le gel élastique, sans endommager les cellules.
Pour plus de détails, nous vous invitons à lire le brevet associé à ces travaux et qui décrit les méthodes d’élaboration du matériau et d’impression.
Vers la bio-impression de vaisseaux sanguins ?
La structure a la particularité de comporter une grande quantité d’eau, ce qui est une condition nécessaire à la croissance des cellules. Après impression, les cellules trouvent ainsi un terrain favorable pour se multiplier.
Mais il y a une autre particularité. Comme cet hydrogel élastique est totalement biodégradable, les cellules sont alors capables de le substituer par leurs propres polymères naturels : le collagène et l’élastine. Une fois dans le corps humain, « l’objet » imprimé devient alors (en théorie) entièrement compatible !
La première application évoquée par les chercheurs est la fabrication de vaisseaux sanguins. Néanmoins, les vaisseaux qui ont été imprimés jusqu’ici sont encore trop fragiles pour supporter la pression sanguine. Et la raison est simple : le temps de culture utilisé est encore trop faible pour obtenir une structure suffisamment solide.
Les prochains travaux consisteront à prolonger la durée de culture, en espérant que deux mois suffiront à renforcer les vaisseaux artificiels. Ils prévoient également d’accélérer la dégradation de l’hydrogel, visant une dégradation complète en deux à trois mois.
Smartphones, ordinateurs, appareils ménagers, voitures, … les semi-conducteurs sont essentiels à notre vie quotidienne. Ces dernières années, leurs pénuries ont mis au jour non seulement leur rôle central et stratégique, mais aussi la forte dépendance de l’Union européenne aux importations. Près de 80 % des capacités mondiales de production de ces composants se situent en Asie de l’Est, où sont implantées de nombreuses fonderies, et le géant taïwanais TSMC s’accapare une part de marché supérieure à 50 %. La France vient de lancer un Appel à manifestation d’intérêt (AMI) dans le but de dynamiser ses liens économiques et d’innovation dans ce secteur avec l’écosystème taïwanais.
Cette initiative est portée par la Direction générale des entreprises (DGE) et le Secrétariat général pour l’investissement (SGPI). Elle s’inscrit dans la stratégie électronique du plan France 2030, consacrée au développement et à l’industrialisation de technologies électroniques essentielles pour répondre aux grands défis des transitions numérique et écologique. Depuis le tournant des années 2010, les importations de semi-conducteurs de l’Hexagone sont en constante augmentation. En 2022, elles ont atteint 7 milliards d’euros, dont 90 % sous forme de produits finis, contre une production nationale de 5 milliards d’euros.
Le dispositif doit permettre de recenser les entreprises françaises souhaitant collaborer avec des partenaires taïwanais. Une centaine d’entre elles travaille dans la filière des semi-conducteurs en France, dont deux tiers de PME, et emploie environ 35 000 personnes. Mais cinq entreprises réalisent à elles seules 85 % de la production nationale en 2022. Le but du partenariat est d’identifier des projets de R&D permettant de renforcer le positionnement de la France et de Taïwan au sein de la chaîne de valeur électronique mondiale en s’appuyant sur les forces de leurs écosystèmes respectifs. Les résultats doivent permettre de définir et d’adapter les modalités pour accélérer des projets et dynamiser la coopération bilatérale.
Optimiser la manière dont l’IA peut servir l’industrie des semi-conducteurs
Les consortiums doivent être composés à minima d’une entité française et d’un établissement taïwanais et sont invités à proposer des projets de R&D collaboratifs avant le 15 mai 2025. Deux volets distincts sont proposés, le premier couvre la fabrication des semiconducteurs. Les projets pourront par exemple porter sur le développement de composants, d’outils d’aide à la conception, de matériaux ou encore d’équipements nécessaires à la fabrication et aux tests de composants. Les technologies mobilisées pourront être larges et avoir un impact potentiellement sur l’ensemble de la chaîne de valeur des semi-conducteurs.
Le second volet couvre la manière dont l’utilisation de l’IA peut être mise au service des semi-conducteurs. Les technologies d’IA devront permettre d’optimiser les processus de conception, de design, de fabrication, ainsi qu’améliorer les procédés industriels et les tests de ces composants. Ou alors porter sur l’intégration de fonctionnalités capables d’assurer le déploiement de nouveaux usages des semi-conducteurs.
Plus largement en Europe, à travers l’European Chips Act entré en vigueur en 2023, l’UE a pour ambition d’atteindre une part de marché de 20 % en 2030 dans la production mondiale des semi-conducteurs, contre environ 10 % aujourd’hui. Ce règlement, qui prévoit de mobiliser 43 milliards d’euros d’investissements publics et privés, vise à renforcer les capacités technologiques et d’innovation de ce secteur sur sol européen, à augmenter les investissements et à atteindre une meilleure coordination entre la Commission européenne, les États membres et les autres acteurs concernés.
De leur côté, les États-Unis ont adopté en 2022 une loi – le CHIPS Act – dont le but est de renforcer leur industrie des semi-conducteurs. 52 milliards de dollars d’aides financières ont été votés pendant le mandat de Joe Biden en faveur des fabricants qui s’engagent à produire ces composants sur le territoire. Mais Donald Trump a récemment menacé de supprimer ces subventions et a annoncé son intention d’appliquer des droits de douane sur les semi-conducteurs importés aux États-Unis, afin d’inciter les fabricants à implanter leurs usines sur le sol américain.
Cette feuille de route, qui s’appuie sur le rapport Draghi et le récent competitiveness compass, affirme que « les politiques de décarbonation sont un puissant moteur de croissance, lorsqu’elles sont bien intégrées aux politiques industrielles, de concurrence, économiques et commerciales. »
Climat, compétitivité et résilience économique : les trois défis del’UE
Sur la base des recommandations de Mario Draghi, la Commission s’est donné trois objectifs ambitieux : relancer son industrie, maintenir sa trajectoire de décarbonation et dynamiser sa compétitivité.
En choisissant de réconcilier compétitivité et politique climatique, la Commission se positionne donc à l’opposé de la politique ouvertement en faveur des énergies fossiles amorcée par DonaldTrump. Mais ce choix va nécessiter une transformation de nos industries et la création d’un nouveau modèle économique. Et pour y arriver, le Clean Industrial Deal identifie plusieurs leviers:
une énergie peu chère ;
les marchés pilotes ;
le financement ;
la recyclabilité et l’accès aux matériaux critiques;
les marchés mondiaux et les partenariats;
les compétences.
Premier problème à résoudre : la dépendance de l’UE aux importations de combustibles fossiles
Le principal problème des industries européennes est l’énergie chère. Et le fait que huit États membres, dont la France, aient appelé l’UE à débloquer des mesures pour soutenir l’industrie chimique rappelle qu’il y a urgence à agir. Car impossible d’être compétitif avec un gaz trois fois plus cher qu’aux États-Unis, quand on est une industrie fortement consommatrice d’énergie!
Le plan de l’UE veut donc accompagner la décarbonation des secteurs industriels fortement consommateurs (chimie, acier, production et transformation d’autres matériaux…), par l’adoption d’un ensemble d’initiatives, dans les prochains mois. Ces actions seront variées et favoriseront l’électrification des industries: incitation des États membres à réduire leurs taxes sur l’électricité, modernisation du réseau électrique, simplification des procédures d’autorisation pour les projets de décarbonation industrielle, etc.
PPA[1], CfD[2] – Source : Clean Industrial Deal
Innovation et durabilité : la question du financement
Le rapport Draghi fait le constat d’un important déficit d’innovation par rapport aux États-Unis et à la Chine et estime que l’UE devra investir massivement chaque année pour réaliser sa transition verte et digitale.
Hormis le déblocage de 100 milliards pour un soutien immédiat à l’industrie manufacturière propre, le Clean Industrial Deal ne propose pas de solution de financement «miracle» susceptible de lever des sommes colossales. Néanmoins, des stratégies permettant de débloquer les investissements publics comme privés vont être mises en place pour soutenir la décarbonation. Voici quelques mesures phares:
utilisation plus ciblée des recettes du système d’échange de quotas d’émission;
création d’un fonds d’innovation renforcé;
des garanties budgétaires de l’Union via InvestEU stimuleront les investissements privés;
la BEI lancera une nouvelle initiative pour soutenir les start-ups et scale-ups de technologies propres.
L’économie circulaire, un pilier stratégique pourl’UE
La mise en place d’une économie circulaire à l’échelle européenne est un enjeu environnemental majeur, puisqu’elle permet de réduire les quantités de déchets et de réduire l’impact carbone des produits manufacturés, en allongeant leur durée de vie notamment.
Mais elle répond aussi à une nécessité stratégique : réduire notre consommation en ressources critiques et donc notre dépendance vis-à-vis de fournisseurs peu fiables ou situés dans des zones au contexte géopolitique tendu.
En ce sens, le Clean Industrial Deal propose d’adopter une loi sur l’économie circulaire en 2026 et de viser un taux d’utilisation circulaire des matériaux de 24% d’ici2030.
En outre, le plan prévoit aussi de:
regrouper la demande européenne de matières premières critiques;
créer un centre de l’UE pour les achats conjoints;
négocier de meilleures conditions d’acquisition
Ces mesures permettront par ailleurs de mieux optimiser l’utilisation des matériaux rares et de créer des emplois de grande qualité.
Les promesses sont-elles à la hauteur des enjeux? L’avenir nous le dira, néanmoins, car le succès du Clean Industrial Deal dépendra fortement de la capacité des États membres de l’Union européenne à se mettre d’accord et à agir rapidement, de manière coordonnée.
Dans un avis destiné à Matignon, Vincent Berger, Haut-commissaire à l’Énergie atomique, juge la stratégie énergétique du pays « trop ambitieuse ». Cet avis, consulté par le quotidien Les Échos, remet en question la PPE¹qui fixe la politique à mettre en place par toutes les filières du secteur énergétique. Cette politique se caractérise par une transformation profonde du mix énergétique de la France via la relance du nucléaire et le développement massif des énergies renouvelables.
Selon le haut-commissaire, « la stratégie volontariste de l’offre fait peser un risque de surproduction si les possibilités d’exportation ne sont pas au rendez-vous ». Cette perspective, qui se profile à l’horizon 2035, contraste avec les craintes de pénurie d’électricité des années précédentes.
Une offre qui dépasse la demande
En prévoyant pour 2035 une production d’électricité atteignant 692 TWh, les projections de la PPE sont pour le moins audacieuses au regard de la consommation d’électricité en France. En effet, même si en 2024 une très légère hausse de la consommation (+ 3 TWh) est observée par rapport à l’année précédente, la tendance est à la baisse, ces dernières années étant marquées par un repli structurel. La consommation française reste inférieure de 12,7 % à la moyenne des années 2014-2019. Pour Vincent Berger, cette politique énergétique est donc injustifiée du fait de la stagnation de la demande intérieure.
L’essor du photovoltaïque en cause
Le développement accéléré du photovoltaïque est la première cible de la critique formulée à l’égard de la PPE. Actuellement, la France prévoit une multiplication par cinq de la production d’électricité solaire en 2035. Selon le Haut-commissaire à l’Énergie atomique, une «revue à la baisse» de la croissance du photovoltaïque serait souhaitable pour atténuer le déséquilibre entre l’offre et la demande. Une mesure qui entrerait en conflit avec les objectifs européens qui prônent une accélération de l’intégration des énergies renouvelables.
Le caractère intermittent du photovoltaïque lié à sa dépendance aux conditions météorologiques et à l’ensoleillement peut provoquer des pics de production, notamment en été. La production est fluctuante et non ajustable en fonction des besoins, contrairement au nucléaire et à l’hydroélectricité. Ce surplus d’électricité risque de saturer et de déséquilibrer le réseau tandis que la demande n’évolue pas.
Exportation et flexibilité du réseau
Quels sont les leviers dont dispose la France pour faire face à une potentielle offre excédentaire ? Tout d’abord, l’un des moyens pour ajuster les flux de production repose sur l’exportation d’électricité vers les pays voisins. Celle-ci est portée par une forte demande extérieure. En 2024, sur les 536 TWh d’électricité produite, près de 101 TWh ont été exportés par la France ; un record historique qui ne fait que souligner que la production dépasse fortement les besoins nationaux. Cependant, sur le marché européen, les prix de l’électricité restent très volatils.
Ensuite, il reste l’optimisation de la gestion du stockage qui permettrait de réserver une partie des excédents lorsque la demande est faible. Le recours aux technologies de stockage par batteries ou aux STEP² peut être envisagé, même si l’installation de ces dernières est très coûteuse et contrainte géographiquement, car elle exige un terrain avec des écarts d’altitude.
Quels enjeux pour les acteurs de la filière ?
Une surproduction pourrait perturber économiquement le modèle énergétique français. En effet, la baisse des prix de l’électricité qui s’ensuivrait poserait la question de la rentabilité des futures infrastructures de production. La filière du photovoltaïque pourrait se retrouver en déficit, car ses infrastructures nécessitent des investissements lourds et des coûts d’entretiens élevés qui seraient difficilement rentables en cas de baisse des prix de l’électricité.
De la découverte en laboratoire à l’innovation industrielle… On scrute pour vous chaque semaine les tendances de l’industrie.
La numérisation des services publics : un levier pour l’efficacité de l’État
La Cour des comptes met en lumière les défis de la numérisation des services publics en termes de productivité. Bien que des outils numériques aient été déployés, leur impact reste difficile à quantifier. L’intelligence artificielle pourrait-elle être la solution pour exploiter de nouveaux gisements de productivité ? Le numérique booste la productivité de l’État
Publications scientifiques : la France à la traîne derrière ses voisins
La France, autrefois leader en matière de publications scientifiques, a vu sa position mondiale s’effriter, passant de la 6e à la 13e place entre 2010 et 2022. Ce rapport de l’Observatoire des Sciences et Techniques met en lumière les défis auxquels l’Hexagone est confronté dans le domaine de la recherche. Pourquoi la France est-elle à la traîne en matière de publications scientifiques ?
CCUS en France : une solution d’avenir pour le climat ?
Alors que la France vise une réduction massive de ses émissions de CO2, le stockage géologique du carbone apparaît comme une solution prometteuse. A travers les résultats de l’étude EVASTOCO2 soulignent les obstacles à surmonter pour concrétiser cette ambition. Les défis du stockage de CO2 en France
Amelia et Thales : vers des vols plus respectueux de l’environnement
Thales propose une nouvelle approche révolutionnaire pour diminuer l’impact climatique des traînées de condensation. Testée par la compagnie Amelia, cette solution pourrait de transformer l’aviation durablement. Une solution de Thales pour des vols plus verts
Meta dévoile Waterworth : le câble sous-marin le plus long du monde
Meta annonce le lancement de Waterworth, un projet de câble sous-marin hors-normes qui reliera les États-Unis, l’Inde, le Brésil, l’Afrique du Sud et d’autres régions clés. Avec ses 50 000 km de long, ce câble sera le plus long jamais construit, offrant une capacité inégalée pour répondre aux besoins croissants en connectivité et en intelligence artificielle. Une plongée avec Waterworth, le projet de câble sous-marin stratégique
IA générative : alliée ou obstacle à la réflexion critique ?
Les outils d’IA générative promettent une productivité accrue, mais à quel prix pour notre capacité à réfléchir ? Une étude de Microsoft Research explore comment ces technologies modifient la manière dont les travailleurs du savoir activent leur pensée critique. Entre gain de temps et risque de dépendance, l’équilibre est délicat. IA et transformation de notre réflexion critique
On croyait la reconnaissance faciale réservée aux humains. Il n’en est rien ! En effet, la reconnaissance faciale est une forme de reconnaissance d’image. Or, les algorithmes de reconnaissance, s’ils sont bien construits et entraînés, permettent d’identifier ou détecter à peu près tout, que ce soit une personne, une plante, un animal ou un objet, à partir d’une image fixe ou d’une vidéo.
Dans le domaine agricole, notamment, ces technologies sont d’ailleurs particulièrement prometteuses, puisqu’elles peuvent aider à identifier des maladies sur des plantes ou à évaluer l’état de santé d’un animal.
L’identification du frelon asiatique pose problème
Les chercheurs de l’Université d’Exeter ont exploité cette capacité de l’IA à analyser des images dans un but précis : être capable de distinguer un frelon asiatique d’un autre insecte afin d’opérer un piégeage sélectif et de signaler l’apparition de l’insecte dans de nouvelles régions.
Car au Royaume-Uni, la lutte contre le frelon asiatique repose en grande partie sur l’identification visuelle de la part de la population. Or, la grande majorité des rapports comportent des confusions entre espèces, ce qui oblige les autorités à valider chaque année des milliers d’images manuellement !
Par ailleurs, les techniques de piégeage utilisées ailleurs en Europe pour alerter sur la prolifération du frelon asiatique s’avèrent également inefficaces, car elles ont l’inconvénient de tuer énormément d’insectes indigènes, alors qu’elles ont peu d’impact sur les frelons asiatiques.
La capture sélective des frelons asiatiques par IA
Dans un communiqué, le Dr Thomas O’Shea-Wheller explique que l’objectif de leurs travaux est « de mettre au point un produit rentable et polyvalent, afin que tout le monde – des gouvernements aux apiculteurs individuels – puisse l’utiliser ».
La solution proposée se nomme VespAI. Premièrement, elle ne tue pas les insectes non ciblés et résout donc le problème de l’impact environnemental du piégeage. Deuxièmement, elle rend possible la capture vivante des frelons asiatiques et permet de les suivre jusqu’à leur nid, ce qui est le seul moyen efficace pour les exterminer.
Du point de vue technique, le prototype VespAI fonctionne de la manière suivante :
Une caméra reliée à une carte Raspberry Pi 4 filme en temps réel l’intérieur du piège.
Le software analyse en temps réel les images vidéo.
Lorsqu’un frelon asiatique est détecté, les images sont envoyées à un PC, grâce à une connexion Wifi¹.
Des essais plus que concluants
Le système a été testé de manière intensive en 2023, sur l’île de Jersey. Pourquoi ce choix ? Parce que l’île est proche de la France. Or, le frelon asiatique, arrivé en France en 2003, y est présent de manière massive. Son apparition sur le territoire Britannique s’est donc faite en 2016, par l’île de Jersey, ce qui en fait un territoire d’expérimentation idéal.
Les résultats publiés dans la revue Nature semblent indiquer que VespAI fonctionne plutôt bien, puisque la précision de détection atteint 99 %.
La prochaine étape concernera le renforcement des capacités techniques de VespAI : interface utilisateur améliorée, connectivité mobile, mais aussi intégration d’autres espèces d’insectes à la détection.
¹ Une connectivité 4G associée à un système de positionnement satellite GNSS est prévue pour les futures configurations en pleine nature
Une dégringolade. La France est passée du 6e au 13e rang mondial dans le classement du nombre de publications scientifiques entre 2010 et 2022. C’est ce que révèle un rapport publié par l’Observatoire des Sciences et Techniques (OST)[1] sur la position scientifique de l’Hexagone dans le monde. Sur la même période, l’Allemagne régresse du 4e au 5e rang, derrière l’Inde et le Royaume-Uni, tandis que la Chine prend la tête de ce classement (en 2018), devant les États-Unis. D’autres pays à hauts revenus ont été plus performants que la France, à l’image de la Corée du Sud qui passe du 11e au 8e ou de l’Italie qui est parvenue à conserver son 7e rang.
Le déclin de l’Hexagone a commencé avant cette période, puisque les auteurs de cette étude notent que dès la première décennie des années 2000, « les publications scientifiques de la France sont apparues relativement peu dynamiques, y compris en comparaison de certains autres pays intensifs en recherche ». Puis l’érosion de sa part mondiale de publications s’est poursuivie au cours de la dernière décennie. Ainsi, entre le début et la fin de la décennie 2010, la part des publications de la France a baissé d’un quart, pour s’établir à 2,4 % sur la période allant de 2017 à 2022. Sur la même période, celle de l’Allemagne a enregistré une baisse plus modérée, pour atteindre 3,9 %.
Sans surprise, le rapport indique que les pays publiant le plus sont ceux qui investissent le plus dans la recherche, qu’elle soit publique ou privée, et qui comptent le plus grand nombre de chercheurs dans les activités de R&D publiques. Quant à ce nombre de chercheurs, il dépend d’une combinaison de facteurs, tels que la taille du pays et la richesse nationale. « En Europe par exemple, l’Allemagne et, dans une moindre mesure, le Royaume-Uni comptent plus de chercheurs et publient sensiblement plus de contributions que la France, souligne l’OST. Mais au regard du nombre de chercheurs l’Italie, les Pays-Bas ou la Suède publient relativement plus de contributions scientifiques que d’autres pays européens ».
Alors qu’au cours des quinze dernières années, la part de l’anglais dans les articles scientifiques a continué de progresser dans le monde, la France ne suit pas cette tendance. Ainsi, 5 % des articles continuent à être rédigés dans une autre langue que l’anglais – au même niveau que l’Allemagne, alors que cette part est passée de 5 % entre 2010 et 2016 à 3,5 % entre 2017 et 2022.
Un tassement des indicateurs d’impact scientifique de l’Hexagone
Au-delà du nombre total de publications, l’OST a également analysé l’impact des articles à travers ceux qui sont publiés dans les revues les plus citées. Considérée sous cet angle, la France se classe au 8e rang mondial, mais là encore, un tassement des indicateurs d’impact scientifique de l’Hexagone est observé et a commencé au milieu de la décennie 2010. Par exemple, les indicateurs d’impact de la France se situent au niveau de la moyenne sur la période allant de 2016 à 2021, alors que ceux de la Suisse, des Pays-Bas, du Royaume-Uni et des États-Unis sont 30 à 40 % au-dessus de la moyenne mondiale. À titre de comparaison, l’Allemagne, l’Australie, le Canada, l’Italie et la Chine se situent entre 10 et 30 % au-dessus de la moyenne.
Le rapport met en lumière les matières de prédilection de la France. Les mathématiques restent la première discipline de spécialisation, puisque la part de ses publications est 70 % plus élevée que celle de cette discipline dans le total mondial. D’autres disciplines de spécialisation apparaissent, comme la biologie fondamentale, la physique, les sciences de la Terre et de l’Univers, ainsi que les sciences humaines, avec une part de publication 20 % plus élevée. En sciences humaines, l’histoire est la catégorie qui compte le plus de publications, mais ce qui est vrai pour la France, l’est aussi au niveau mondial.
[1] L’OST dépend du Haut conseil de l’évaluation de la recherche et de l’enseignement supérieur (Hcéres)
Meta a annoncé un projet ambitieux de câble sous-marin nommé Waterworth. Ce projet vise à relier les États-Unis, l’Inde, le Brésil, l’Afrique du Sud et d’autres régions clés, couvrant une distance de 50 000 km, soit plus que la circonférence de la Terre.
Ce câble, doté de 24 paires de fibres, sera le plus long de ce type à ce jour, offrant une capacité sans précédent pour soutenir les besoins croissants en connectivité et en intelligence artificielle (IA). Meta a déclaré dans un billet sur son blog que son « projet apportera une connectivité à la pointe de l’industrie aux États-Unis, à l’Inde, au Brésil, à l’Afrique du Sud et à d’autres régions clés ».
Les câbles sous-marins représentent plus de 95 % du trafic intercontinental, essentiel pour les communications numériques, les transactions en ligne et les expériences vidéo. Leur propriété est encore plus cruciale dans le contexte géopolitique actuel, marqué par des tensions accrues en 2025 qui favorisent les opérations d’espionnage et de sabotage.
« En mettant la main sur ces câbles sous-marins, les multinationales du numérique deviennent également des contrôleurs d’accès, des “douaniers” sur les routes des données numériques. Pour ces géants, ces câbles ainsi que les logiciels sont un levier de pouvoir pour négocier avec les États et empêcher la mise en place de réglementations trop contraignantes », explique Ophélie Coelho, chercheuse indépendante spécialiste en géopolitique du numérique et membre du Conseil scientifique de l’Institut Rousseau.
L’ingénierie des câbles sous-marins est assez complexe à cause des conditions géographiques extrêmes. Meta prévoit d’utiliser des techniques avancées pour maximiser la résilience du câble, notamment en posant le câble en eaux profondes (jusqu’à 7 000 mètres) et en utilisant des techniques d’enfouissement améliorées dans les zones à haut risque.
Ce n’est pas la première fois que ce géant se jette à l’eau. Meta a développé plus de 20 projets de câbles sous-marins au cours de la dernière décennie, dont 2Africa, Bifrost, et MAREA. D’autres poids lourds de la tech américaine (Google et Amazon) investissent également massivement dans les câbles sous-marins. Google possède partiellement ou exclusivement plus de 30 câbles, contre une poignée pour Amazon.
Selon le cabinet Analysys Mason, le marché mondial des câbles sous-marins à fibre optique devrait passer de 7,96 milliards de dollars en 2023 à 9,8 milliards de dollars en 2029. Les routes transpacifiques et intra-asiatiques représenteront la plus grande part des câbles déployés entre 2024 et 2029, soulignant l’importance stratégique de ces infrastructures pour l’avenir numérique mondial.
En conclusion, le projet Waterworth de Meta illustre l’importance stratégique des câbles sous-marins dans le contexte géopolitique actuel et leur rôle crucial dans le développement des infrastructures numériques mondiales.
Tout le monde a déjà pu observer ces sillages blancs dans le ciel à la suite du passage des avions. Il s’agit de traînées de condensation qui se forment à haute altitude à la sortie des réacteurs, lorsque l’air environnant est froid et humide. Certaines d’entre elles peuvent persister pendant plusieurs heures et sont loin d’être anodines, car elles accentuent le réchauffement climatique en absorbant une partie du rayonnement provenant de la terre, puis en le réémettant vers le sol. Thales vient d’annoncer qu’il allait déployer une solution à grande échelle pour éviter ce phénomène physique.
Ce projet repose sur une application, appelée Flights Footprint, capable d’estimer les émissions de CO2 des aéronefs, mais aussi tous les autres effets sur l’environnement. Conçus avec l’aide d’experts de laboratoires et d’institutions académiques, le modèle numérique prend également en compte l’impact des traînées de condensation. Pour cela, les données de profils et de trajectoires de chaque vol sont analysées et combinées à des informations météorologiques pour calculer, par exemple, où se forme ce phénomène. Thales utilise les dernières prévisions météorologiques et les modèles climatiques les plus avancés fournis par le collectif Breakthrough Energy Contrails.
L’outil calcule ensuite des trajectoires optimales que les avions devraient emprunter et propose des alternatives de vol. Il repose uniquement sur des ajustements de l’altitude des avions, sans modifier leur route, ce qui permet de maintenir la consommation de kérosène supplémentaire sous la barre de 3 %. Le groupe d’électronique français spécialisé dans l’aérospatial met ces informations à disposition des compagnies aériennes, des pilotes et du contrôle aérien pour prévoir et planifier des vols plus vertueux et plus respectueux de l’environnement.
Depuis juin 2024, ce modèle numérique est testé sur toutes les rotations entre Paris et Valladolid (Espagne) de la compagnie française Amelia, opérées par des avions Embraer ERJ145. En intégrant cette solution aux outils du Centre de Contrôle Opérationnel (OCC) de cette compagnie aérienne, Thales permet aux agents d’opérations de l’OCC de récupérer directement des routes alternatives à leurs plans de vol afin de réduire de manière significative les traînées de condensation tout en maîtrisant l’impact de cette mesure sur le plan opérationnel.
Quatre tonnes d’équivalent CO2 seraient évitées à chaque vol
À l’issue de chaque vol, les modèles climatiques utilisés sont enrichis par des données de ré-analyse météorologiques et appliqués à la trajectoire réelle de l’avion, afin d’évaluer l’efficacité de l’évitement des zones de formation des traînées. Par ailleurs, la mise en place d’une caméra au sol, fournie par Reuniwatt, permet de valider l’efficacité de la solution par l’observation directe des traînées grâce à des analyses menées avec l’entreprise de services du numérique.
D’après les chiffres communiqués par Thales, l’outil a permis d’éviter en moyenne plus de 4 tonnes d’équivalent CO2 par vol initialement concerné par des traînées de condensation et de réduire leur impact climatique jusqu’à 40 %, un niveau qui correspond à l’impact cumulé des effets liés au CO2 et à ceux « hors CO2 ». Aujourd’hui, Amelia a décidé d’étendre ce système à ses vols éligibles en 2025, devenant ainsi la première compagnie aérienne à systématiser une approche d’évitement des traînées de condensation.
Selon une étude de T&E (Transport & Environment), moins de 3 % des vols dans le monde ont généré 80 % du réchauffement climatique engendré par les traînées de condensation en 2019. L’ONG environnementale indique par ailleurs que le changement de trajectoire de vol nécessaire pour éviter ce phénomène physique ne devrait concerner qu’une petite partie des trajets. Elle estime que « le surplus de carburant utilisé par ces avions pour éviter les traînées de condensation ne représenterait donc que 0,5 % du kérosène consommé par l’ensemble de la flotte mondiale sur une année. Sur les quelques vols pour lesquels un changement d’itinéraire est prévu, 80 % du réchauffement dû aux traînées de condensation peut être évité, avec une surconsommation de carburant de 5 % ou moins. »
Pour réaliser son étude, Microsoft Research a interrogé 319 travailleurs du savoir qui utilisent, au travail, des outils d’IA générative (GenAI) comme ChatGPT, Copilot ou Gemini, au moins une fois par semaine.
Les réponses ont permis aux chercheurs de modéliser la manière dont ils « activent la pensée critique » lorsqu’ils utilisent ces outils, et comment l’IA générative affecte leur perception de l’effort de pensée critique.
IA génératives : moins d’efforts de collecte et de traitement, mais des efforts de vérification !
Les participants à cette enquête ont partagé des cas concrets d’utilisation des outils de GenAI et 936 sur 957 ont été analysés. Globalement, les participants perçoivent les activités d’analyse, de synthèse et d’évaluation comme nécessitant moins d’efforts avec les outils de GenAI.
C’est tout à fait logique, car l’IA permet justement d’aider les travailleurs du savoir à mieux structurer des informations complexes et à automatiser certaines tâches. Mais d’un autre côté, ils affirment devoir fournir un effort accru pour la gestion de l’IA, c’est-à-dire la formulation de requêtes et l’évaluation de la pertinence des réponses par rapport aux exigences de leur métier et leurs responsabilités.
En clair, cela veut dire que les outils de GenAI sont en train de faire évoluer la façon dont nous utilisons notre pensée critique. Avec ces outils, nous l’utilisons beaucoup moins lors de la collecte d’informations, mais l’obtention de résultats pertinents impose une vérification plus approfondie de l’information, ce qui demande beaucoup d’efforts au final !
Trouver un compromis entre productivité et réflexion
Les outils d’IA générative sont conçus pour nous faire gagner en productivité, mais il ne faut pas que ce soit au détriment de notre capacité à réfléchir ! Car l’étude démontre assez clairement que les utilisateurs qui placent une trop grande confiance dans les capacités des outils de GenAI utilisent moins leur pensée critique. Pire, ils peuvent tomber dans une forme de dépendance à long terme et devenir moins performants sur la résolution de problèmes.
L’étude suggère ainsi d’améliorer la conception de ces outils « pour soutenir la pensée critique des travailleurs du savoir en abordant leurs barrières de conscience, de motivation et de capacité. »
Par ailleurs, elle montre aussi que le personnel professionnel qui a confiance en ses propres capacités est plus critique envers l’IA et consacre plus d’efforts dans l’évaluation et l’adaptation des résultats générés par IA.
Mon point de vue personnel
D’après une étude ODOXA, 15 % des salariés français utilisent aujourd’hui l’IA dans le cadre de leur travail et ce chiffre ne va faire qu’augmenter.
Pour être honnête, comme eux et comme la majorité des rédacteurs, j’utilise moi aussi l’IA et travaille quotidiennement avec Copilot, l’IA de Microsoft. Soyons clairs : je n’utilise pas du tout l’IA pour la rédaction de textes. Par contre, Copilot me sert énormément pour la recherche documentaire.
Comme Copilot est capable de fournir une réponse rapide, structurée, en proposant des sources de bonne qualité (la plupart du temps), l’emploi des moteurs de recherche habituels est, pour moi, devenu secondaire.
Mais est-ce que je lui fais confiance pour autant ? Jamais, car les IA génératives font énormément d’erreurs, inventent des réponses de toute pièce et fausses quand elles ne savent pas répondre et ont une fâcheuse tendance à mal interpréter certains concepts. Tous ces biais sont connus, et pourtant les travailleurs, moi y compris, continuent à utiliser l’IA.
Car, malgré tout, ces outils permettent d’accéder à des sources d’information fiables plus rapidement qu’un moteur de recherche (et sans annonces publicitaires), par exemple en allant directement chercher dans un document PDF la réponse à une question posée. D’ailleurs, la notion de moteur de recherche est déjà dépassée puisqu’on s’oriente désormais vers des moteurs de réponse, capables de répondre directement aux questions posées, en langage naturel.
Néanmoins un outil reste un outil. Il est donc capital de rester lucide sur les capacités des IA génératives et sur leurs nombreux défauts. Tout utilisateur doit donc lutter contre la tentation de la facilité, en renforçant son esprit critique afin de garder une vigilance constante.
Depuis le début des années 2000, la numérisation des services publics a représenté un véritable levier pour réformer l’État. Elle a profité aux usagers, qui peuvent à présent effectuer leurs démarches de manière plus efficace grâce aux plateformes en ligne. Les agents de l’État ont également bénéficié de cette transition, en facilitant leur travail au quotidien. Mais comment l’arrivée de ces outils numériques se traduit-elle en termes de gains de productivité au sein des administrations ? La question est importante, dans un contexte où l’État doit lui aussi consentir à des efforts pour redresser les finances publiques. La Cour des comptes vient de publier un rapport pour faire le point sur ce sujet.
Le bilan est pour lui moins critique, puisque les magistrats considèrent que les gains de productivité liés au numérique ne sont pas une préoccupation mise en avant par les services de l’État. Il faut dire que les mesurer est complexe, car l’administration publique ne dispose pas de prix de marché pour ses services. Pourtant, depuis 2001, la LOLF (Loi organique relative aux lois de finances) a instauré une démarche de performance dans la manière de conduire les administrations. Mais les sages de la rue de Cambon notent que « moins de 2 % des indicateurs de la LOLF mettent en regard une production administrative et les moyens alloués. »
Créé en 2017, le Fonds de transformation de l’action publique (FTAP) a lui aussi fait des gains de productivité un critère central de décision de financement des projets. Sauf que là encore, il apparaît que « l’évaluation des gains en amont (réduction des effectifs, baisse des coûts de fonctionnement, augmentation des recettes) réalisée par la direction chargée de la maîtrise d’ouvrage apparaît souvent lacunaire ou théorique. » Depuis 2019, la Direction interministérielle du numérique (Dinum) a été créée pour accompagner et faire réussir les projets numériques de l’État, mais « les gains attendus, et notamment ceux de productivité, ne font presque jamais l’objet de constats ou de recommandations dans ces avis. »
Exploiter de nouveaux gisements de gains de productivité grâce à l’IA
Face à cette situation, la Cour des comptes préconise de procéder systématiquement à des études documentées d’impact et de retour sur investissement des grands projets numériques de l’État, puis d’assurer leur suivi en termes de qualité de service et d’économies attendues. Pour cela, elle conseille de disposer d’indicateurs analytiques suffisamment précis pour identifier les gains de productivité. Dès la phase de cadrage des projets numériques, les magistrats proposent de renforcer la procédure existante d’avis conforme pilotée par la Dinum afin d’intégrer des enjeux de méthodologie et de productivité.
Les Sages de la rue de Cambon recommandent aussi de « tirer parti de l’intelligence artificielle pour exploiter de nouveaux gisements de gains de productivité. » Le rapport cite de nombreuses tâches que peut potentiellement effectuer cette nouvelle technologie : résumer et synthétiser des informations, aider à la décision sur la définition de politiques publiques, améliorer la qualité et l’efficience des services, générer des contenus, apporter assistance et support aux usagers (chatbot), et enfin optimiser les développements logiciels dans les projets numériques de l’État.
Un exemple réussi de gains de productivité obtenus suite au déploiement d’une IA au sein de la Direction générale des finances publiques (DGFiP) est d’ailleurs cité dans le document. L’objectif initial était de repérer les dépenses de l’État présentant des risques d’irrégularité. Un traitement automatisé de l’analyse prédictive (TAAP) a donc été mis en place et cible de manière automatique les factures qui seront contrôlées par les agents comptables. Trois ans après son arrivée, ce nouvel outil a permis de réduire le nombre de contrôles de 32 % tout en multipliant par 5 le taux d’erreur détecté. « Le logiciel est donc un auxiliaire performant des services comptables », analysent les magistrats.
En 2008, le projet RealOpt est lancé par le CNRS et l’Inria, au sein de l’Institut de Mathématiques de Bordeaux (CNRS/Université de Bordeaux/Bordeaux INP) et du Laboratoire bordelais de recherche en informatique (CNRS/Inria/Université de Bordeaux/Bordeaux INP). Ce groupe de travail se concentre sur l’optimisation combinatoire, un domaine à la croisée entre les mathématiques appliquées et l’informatique.
En 2019, ce projet donne naissance à un spin-off, Atoptima, porté par François Vanderbeck, directeur scientifique et ancien professeur de mathématiques à l’Université de Bordeaux et Bordeaux INP, Vitor Nesello, diplômé en ingénierie industrielle de l’Universidade Federal da Paraíba (Brésil) et en recherche opérationnelle de l’Université de Bordeaux, et Adrien Duruisseau, spécialiste en finances.
Améliorer la logistique
Cette start-up a pour objectif de développer une suite de logiciels capables de résoudre des problèmes complexes inhérents à la logistique, la production et la gestion des ressources. Ce sont par exemple la gestion des transports, le chargement des camions, la planification stratégique ou encore les emplois du temps. La technologie déployée par Atoptima fonctionne non pas sur le big data, mais sur l’optimisation mathématique. L’industriel entre les données relatives à sa flotte de véhicules, ses livreurs ou même ses commandes. La solution d’Atoptima propose alors en sortie un planning, une ordonnance des tâches organisée et optimisée. Plusieurs heures de travail sont ainsi réduites à quelques secondes.
La start-up a conçu ses logiciels pour qu’ils s’adaptent aux imprévus. En remontant les informations du terrain jusqu’au programme, ce dernier peut offrir une nouvelle solution optimale sans bouleverser le reste. Pour chaque projet, la start-up présente un outil sur mesure, capable d’être mis en place entre deux à six semaines.
Concrètement, Atoptima vend aux industriels quatre outils, dits « solveurs » :
Route Solver qui planifie les tournées des véhicules afin de réduire les distances parcourues et donc les émissions de CO2 ;
Pack Solver qui optimise le chargement des véhicules, mais aussi des stocks ;
Pick Solver pour préparer et attribuer les commandes et améliorer leur gestion ;
Plan Solver qui organise les lignes de production afin de maximiser le rendement.
Atoptima assure qu’avec ces outils, les gains de productivité augmentent de 30 %. Les émissions de gaz à effet de serre seraient réduites de 20 %, la flotte de camions diminuerait de 33 % pour des chargements remplis à 90 %.
En 2021, au cours de sa première levée de fonds, elle avait collecté près de 1,2 million d’euros. Trois ans plus tard, Atoptima a été lauréate du concours i-Nov et a ainsi bénéficié d’un financement de 500 000 euros. Il servira à renforcer l’équipe, qui regroupe déjà une quinzaine de personnes et à continuer le développement de ses produits. Dans le futur, la jeune pousse, pour l’instant spécialisée dans le supply chain, compte explorer d’autres marchés comme la gestion de la production.
Alors que la France a émis 373 millions de tonnes d’équivalent CO2 en 2023, elle devrait en émettre moins de 100 millions de tonnes en 2050 pour atteindre la neutralité carbone. Les émissions nettes de gaz à effet de serre devront alors être compensées par des puits de carbone naturels (forêts, sols) et des technologies de capture du carbone. Le dérèglement climatique ayant des impacts de plus en plus étendus sur la biomasse, le stockage dans les couches géologiques profondes pourrait donc devenir incontournable.
Mais quel est le potentiel de stockage dans les sous-sols français par les technologies de capture, stockage et valorisation du carbone (CCUS) ? C’était l’objet de l’étude EVASTOCO2 réalisée par un consortium piloté par la DGEC et l’ADEME. Ainsi, l’étude évalue à 1,1 milliard de tonnes stockables dans des structures fermées et 3,6 milliards de tonnes dans des unités hors pièges géologiques. « À ce stade, ces résultats doivent être considérés comme une première évaluation et non comme une garantie d’exploitabilité immédiate », prévient néanmoins le rapport.
Des défis technologiques et réglementaires à relever
Si ces volumes indiquent un ordre de grandeur encourageant, ils ne tiennent pas compte des contraintes économiques, techniques et environnementales qui limiteront fortement leur accessibilité. L’étude rappelle par ailleurs qu’avant toute exploitation, des analyses détaillées devront être menées pour confirmer la faisabilité réelle des projets de stockage.
Plusieurs obstacles subsistent avant une exploitation industrielle. L’étude EVASTOCO2 insiste notamment sur le fait que « tout projet industriel devra passer par une phase de recherche approfondie et respecter les procédures de concertation prévues par le code de l’environnement et le code minier ». À ce jour, aucun permis de recherche n’a encore été accordé en France. La France travaille toutefois à fixer un cadre pour l’accès aux stockages en mer du Nord et en Méditerranée, actuellement les seules solutions à court terme.
Un cadre incertain pour le développement de la filière
L’essor du CCUS en France repose sur une équation complexe. Développer les capacités de transport et de stockage nationales nécessitera une acceptabilité locale et des investissements massifs. L’État a prévu un soutien financier pour amorcer les premiers projets, mais le rapport souligne que « les coûts du stockage doivent être partagés équitablement entre les acteurs industriels et les pouvoirs publics ».
Le rapport rappelle enfin que « le stockage géologique du CO2 ne peut s’envisager qu’après captage et transport d’émissions centralisées et ne peut en aucun cas se substituer aux efforts de réduction des émissions à la source ».
Un format innovant, entre référence et apprentissage
Les offres « Parcours Pratiques » proposent un format hybride unique, alliant la flexibilité d’une documentation de référence et la structure d’un apprentissage guidé. Accessibles à tout moment, elles sont conçues pour une autoformation efficace et un gain de temps maximal.
Un accès immédiat à des outils concrets : chaque parcours propose des méthodologies et des astuces directement applicables au quotidien.
Une approche modulaire et flexible : vous avancez à votre rythme, votre progression est affichée et vous accédez aux contenus selon vos besoins.
Un support continu et réutilisable : contrairement aux formations ponctuelles, les parcours sont une ressource permanente, consultable à tout moment et pendant toute la durée de votre abonnement.
Pourquoi renforcer vos compétences opérationnelles ?
Face à la complexité croissante des projets et à l’accélération des innovations, vous devez maîtriser un socle de compétences pour :
améliorer votre adaptabilité et votre polyvalence, en combinant savoirs techniques et stratégiques ;
accélérer votre progression de carrière, en vous préparant à des rôles de management et de gestion de projet ;
conduire l’innovation en entreprise, en intégrant des approches d’intrapreneuriat et de propriété intellectuelle ;
sécuriser et optimiser la gestion de projets, en anticipant les crises et en appliquant des méthodes d’organisation efficaces ;
développer des produits innovants et responsables, conformes aux normes environnementales et aux exigences du marché.
Des contenus conçus par des experts
Chaque Parcours Pratique est rédigé par des professionnels expérimentés, qui partagent leur expertise à travers des conseils concrets et des outils éprouvés. Ce parti pris garantit un contenu pragmatique, en phase avec la réalité du terrain.
Des thématiques en phase avec vos besoins
Les Parcours Pratiques couvrent huit grandes thématiques : ces sujets transversaux concernent tous les ingénieurs à différents moments de leur carrière.
L’initiative ne s’arrête pas là : régulièrement de nouveaux modules viendront enrichir les offres actuelles, permettant d’aborder encore plus de problématiques concrètes et opérationnelles.
Avec les offres Parcours Pratiques, Techniques de l’Ingénieur réinvente l’apprentissage professionnel en ingénierie et vous accompagne dans votre montée en compétences, vous permettant d’affronter les défis technologiques et organisationnels d’aujourd’hui et de demain.
Autant pour l’habillement des athlètes que dans les équipements sportifs, les matériaux textiles sont partout dans le sport de haut niveau. Chaque discipline requiert des propriétés différentes selon ses spécificités et les conditions climatiques liées. Grâce aux innovations dans le domaine du textile, de nouvelles fonctionnalités permettant d’optimiser les performances des athlètes, de garantir leur sécurité et d’améliorer leur confort.
L’Institut Français du Textile et de l’Habillement (IFTH) est un centre de référence pour les marques des filières textile et mode. Il maîtrise toutes les étapes de la chaîne de valeur, des fibres et fils à la confection, avec des compétences en fibres innovantes, fonctionnalisation et en recyclage. Julien Couineau, chef de projet R&D, et Pascal Rumeau, directeur scientifique adjoint de la R&D, nous dressent un panorama des innovations textiles dans le secteur du sport de haut niveau, et détaillent leurs avantages.
Techniques de l’Ingénieur : Où sont présents les matériaux textiles dans le sport ?
Julien Couineau, chef de projet R&D
Julien Couineau : On en retrouve partout, autant sur l’athlète que dans les équipements qu’il va utiliser. Dans le cyclisme par exemple, les cadres de vélo sont en composite avec un taux de fibres pouvant atteindre 80%. En parallèle, la combinaison du cycliste est en textile, tout comme les combinaisons des escrimeurs, des triathlètes etc. La coque des voiliers est aussi en composite tandis que ses voiles sont en textile. L’utilisation de textiles nous permet de révolutionner la conception des produits et d’apporter des fonctionnalités spécifiques et calibrées dans les zones où on en a besoin.
Comment sont modifiées les fonctionnalités des textiles pour être plus adaptées aux sportifs ?
J.C. : L’avantage du textile, c’est qu’on peut jouer sur l’ensemble de ses paramètres, du choix de la matière première jusqu’au choix de la structure du fil et de son assemblage pour lui donner des propriétés. C’est toute cette souplesse dans le processus qui va permettre de proposer un produit pertinent avec toutes les fonctionnalités attendues. Lors de la conception d’un vêtement ou d’un équipement sportif, nous partons de la matière première pour la transformer en fibres, puis en fils, puis en étoffes. A chacune de ces étapes de fabrication, des fonctionnalités peuvent être ajoutées aux matériaux, ce qui devient très intéressant pour les textiles à destination du sport de haut niveau. Selon leur géométrie, les fils choisis peuvent avoir des propriétés comme le drainage de l’humidité, l’isolation thermique. Lors de l’ennoblissement, une des dernières étapes de fabrication d’un textile, on peut ajouter des propriétés comme la déperlance.
Pascal Rumeau, directeur scientifique adjoint de la R&D.
Pascal Rumeau : Pour créer des matières synthétiques, on part souvent de granulés plastiques, puis une fois transformés en multifilaments, on peut introduire des additifs, à base d’oxyde métallique par exemple, pour ajouter des fonctionnalités au fil. Une fois le fil transformé en étoffe, la fonction sera directement intégrée et va modifier le comportement du tissu, dans sa capacité à évacuer la chaleur ou à être un meilleur isolant en conditions froides.
Comment les innovations sur les textiles peuvent influer sur la performance ?
J.C. : Les textiles agissent sur plusieurs leviers pour améliorer la performance physique d’un athlète : ils favorisent l’amplitude des mouvements, la vitesse, la force ou l’endurance.
Les textiles peuvent devenir supports de capteurs quand il s’agit d’instrumenter les athlètes pour mesurer leurs efforts. Ils agissent aussi sur la compression à l’effort dans le but de favoriser la circulation sanguine et de réduire les mouvements musculaires. Par exemple, les shorts de compression Adidas ont inclus lors du tissage une fibre viscoélastique qui se durcit quand elle est soumise à une contrainte. L’idée est de se raidir quand l’intensité est plus importante pour contrôler le mouvement du muscle et limiter les traumatismes musculaires.
Ensuite, les textiles ont un impact sur l’aérodynamisme et favorisent la circulation de l’air autour du corps en mouvement. Dans le cyclisme, 90% de l’énergie dépensée par un cycliste à 45 km/h permet uniquement de lutter contre la résistance de l’air. Ainsi, la conception du vélo et la prise en compte des frottements à l’air générés par le vêtement vont être primordiaux. Sur les combinaisons, on peut trouver des bandes rugueuses sur les parties qui font face au vent permettant d’ouvrir le flux d’air en décrochant l’écoulement, tandis que le reste du vêtement est profilé pour que l’air vienne glisser sur l’athlète.
La modification de la géométrie de la section des fils permet aussi d’agir sur la gestion de l’humidité et de la température, en favorisant le drainage de l’humidité par exemple. Si ces facteurs n’ont pas une influence directe sur les performances d’un athlète, en revanche, ils jouent sur son confort. Prenons les membranes imper-respirantes qui protègent de la pluie et favorisent l’évacuation de l’humidité : ces équipements ne vont pas mener un athlète à la victoire mais peuvent en revanche faire perdre le sportif s’ils ne sont pas présents. Enfin, les innovations sur les textiles permettent de proposer des équipements toujours plus légers.
Quels gains concrets apportent ces innovations ?
J.C. : Prenons le P24, le dernier vélo de LOOK qui a notamment été utilisé par l’équipe de France aux JO 2024. Grâce à des modifications de la forme du cadre et de la fourche, les équipes ont réussi à concevoir un vélo plus aérodynamique. Selon leurs études, l’utilisation d’un P24 en poursuite permet de gagner 21 centièmes de secondes par tour, soit 3,5 secondes sur 16 tours, ce qui correspond à 61 mètres d’avantage. Ce gain peut donc clairement avoir un impact sur un podium. Autre exemple, la marque de chaussures “On” a développé la technologie LightSpray qui propulse un filament de 1500 mètres directement sur une semelle de compétition, pour créer une chaussure en une seule étape, sans colle, ni coutures ou lacets. Chaque chaussure est donc 40g plus légère qu’avec une conception traditionnelle. Or selon une étude, durant un marathon, une réduction de 100g sur ses chaussures permettrait de gagner 78 secondes, ce qui équivaudrait à la différence entre la première et la sixième place au marathon des JO Paris 2024.
Sur quels autres facteurs les textiles ont-ils un rôle à jouer ?
J.C. : Outre sur le plan physique, les textiles peuvent agir sur d’autres facteurs de performance que sont le psychique, la technique et la stratégie. Du point de vue psychique d’abord, des textiles bien choisis permettent de favoriser la confiance des athlètes. Prenons par exemple les combinaisons anti-voyeuristes, fabriquées par Mizuno avec des textiles isolants aux infrarouges, utilisées par l’équipe japonaise de gymnastique. Les athlètes se sentent donc plus en confiance pour performer. Par ailleurs, Cutex Pro a développé des textiles légers, respirants et très résistants avec des fibres hautement orientées de Dyneema, un type de polyéthylène. Ainsi, les athlètes en patinage de vitesse se sentent protégés des coupures en cas de chute et peuvent prendre davantage de risques sur la piste. Enfin, Adidas a développé une technologie pour donner une protection supplémentaire aux femmes lors de leurs menstruations et donc leur donner un sentiment supérieur d’aisance dans cette période-là.
Du point de vue technique, les innovations textiles ont un impact sur la façon de pratiquer certains sports. Par exemple, les appendices aérodynamiques que l’on retrouve dans les sports mécaniques, comme les ailerons pour les motos qui permettent de les stabiliser en ligne droite et agissent comme un anti-wheeling sur les phases d’accélération. Autre exemple : les chaussures avec des plaques en composite permettent d’augmenter les volumes d’entraînement, tout en limitant les risques de blessure, car le travail du pied est réduit par rapport à des chaussures souples.
Enfin, un bon choix de textile est aussi stratégique. En 2008, l’espagnol Kilian Jornet a remporté son premier Ultra-trail du Mont Blanc notamment grâce à du matériel extrêmement léger. Miniaturiser les matières a permis de rendre son équipement plus compact et léger, afin de ménager ses efforts.
Du côté de l’IFTH, avez-vous travaillé sur certaines innovations textiles pour le sport de haut niveau ?
P.R. : Avec l’IFTH, nous travaillons sur un large spectre d’activités, de la mode au luxe en passant par les textiles techniques. Nous ne travaillons donc pas uniquement sur le sport mais il nous arrive d’avoir des projets dans ce secteur. Par exemple, nous avons travaillé récemment sur un projet qui vise à développer un fil à destination des rugbymen. Ce fil doit combiner deux fonctionnalités : la compression amenée par l’élasticité, et l’intégration d’additifs spéciaux pour changer le comportement aux rayonnements infrarouge du matériau afin d’agir sur la régulation thermique. Il existe une matière bien connue qui s’appelle l’élasthanne, qui est réputée pour son élasticité. Cependant, cette matière comporte des inconvénients : elle n’est pas recyclable et elle est très sensible aux UV. Un des sujets aujourd’hui est donc de trouver une alternative recyclable à ce matériau, tout en restant fonctionnel. Autre exemple qui n’a pas abouti cette fois, la Fédération française d’escrime nous avait contacté peu avant les JO pour revisiter la veste des escrimeurs, qui devient très vite une étuve car elle évacue très mal la chaleur. Nous aurions pu alors réfléchir au choix des matières, changer les propriétés de drainage et d’évacuation de la transpiration, optimiser la ventilation, retravailler la construction de l’étoffe. Mais le timing était trop serré.
Quels sont les travaux en cours pour préparer les innovations textiles futures ?
P.R. : Un des axes forts de R&D d’aujourd’hui et de demain, c’est la recyclabilité des matières. Il existe une multitude de matières sur le marché qu’il faut apprendre à traiter en fin de vie. On travaille beaucoup sur les technologies de recyclage des matières, mais lorsqu’un tissu est multifonctionnel, il est bien souvent multimatériaux donc il faut trouver comment les isoler pour les recycler séparément. Nous travaillons aussi beaucoup sur l’écoconception via le choix des matériaux, des procédés de transformation et d’assemblage pour être en capacité de les recycler de façon aisée.
J.C. : Autant dans les années 80, il y avait beaucoup d’innovations en termes de matières avec de nouvelles propriétés, autant je remarque que ces 10-20 dernières années, il y a moins d’innovations majeures sur les fibres. Ce que nous avons aujourd’hui suffit amplement, il s’agit maintenant d’utiliser le bon produit dans de bonnes quantités et au bon endroit. Au lieu de mettre les meilleures fibres qu’on dispose, on va utiliser la matière de la façon la plus intelligente possible. Par exemple, on a constaté que les vélos étaient beaucoup plus performants si on optimisait l’emplacement et l’orientation des fibres de carbone, plutôt que d’utiliser la matière de manière brute. Notre manière de concevoir est plus ingénieuse afin d’optimiser ce qui a été développé par le passé, tout en favorisant le recyclage et l’utilisation de biomatière.
L’industrie sidérurgique représente environ 10 % des émissions de gaz à effet de serre dans le monde et le fer est de loin le métal le plus utilisé, principalement pour produire de l’acier. La décarbonation de cet alliage métallique est donc essentielle pour lutter contre le changement climatique et son recyclage, bien moins émetteur que la production primaire à partir de minerai, semble la solution idéale. Sauf qu’une note publiée par France Stratégie indique que « les ferrailles sont déjà largement collectées et recyclées et que leur disponibilité dans le monde va croître, sans toutefois dépasser 50 % des besoins en 2050, soit très loin d’une circularité complète. » L’organisme rattaché à Matignon, recommande à l’Europe d’actionner plusieurs leviers pour surmonter cet obstacle.
Et en premier lieu, de maîtriser la consommation d’acier, notamment dans les secteurs du bâtiment et de la construction d’infrastructures. Ceux-ci représentent en effet 52 % de la demande mondiale d’acier, principalement pour fabriquer du béton armé et les structures métalliques. Or, des alternatives à l’acier existent déjà, comme « des armatures en composites fibre-résine qui sont utilisées dans certains cas, notamment pour leur résistance à la corrosion. » Si l’Europe parvenait à réduire sa consommation d’acier, cela lui permettrait d’améliorer sa balance commerciale et de « transférer de la valeur vers des activités comme l’ingénierie des structures ou la production de matériaux géosourcés ou biosourcés, moins intensément exposées à la concurrence internationale que ne l’est la sidérurgie primaire. »
La décarbonation de la sidérurgie primaire est le second axe à actionner selon France Stratégie. Pour l’heure, cette transformation n’a pas réellement commencé, car elle s’avère coûteuse, puisque « les hauts-fourneaux doivent être remplacés par des installations qui devront être alimentées par une énergie généralement plus coûteuse que le charbon. » Ce surcoût est tout de même à relativiser, car même s’il atteint 50 % sur l’acier brut, il ne représenterait par exemple qu’entre 1 % et 2 % de la facture globale d’une voiture. Ramené à la tonne de CO2 évitée, il s’élève entre 100 et 200 euros.
Réviser rapidement les règles de calcul de l’empreinte carbone aux frontières
Pour que ces deux leviers soient actionnés, l’institution rattachée au Premier ministre estime qu’il est nécessaire de changer les politiques publiques de décarbonation. Celles actuellement en place ne prennent pas assez en compte l’effet décarbonant que représente la maîtrise des consommations et le développement de l’acier primaire bas-carbone. « Les comptabilités d’émissions de CO2 les plus couramment utilisées tendent à engendrer une compétition pour la ferraille, plutôt que la maîtrise de la consommation de métaux et la décarbonation de leur production primaire. Ce biais provient de ce qu’elles ne prennent pas en compte le caractère intrinsèquement limité des ressources en ferrailles. »
France Stratégie considère que la tarification du carbone devrait être considérée comme l’outil premier pour décarboner l’industrie. À ce titre, le MACF (Mécanisme d’Ajustement Carbone aux Frontières), qui doit progressivement entrer en vigueur à partir de 2026, en remplacement des quotas gratuits, représente un bon outil, sauf qu’il n’échappe pas au même écueil que les dispositifs actuellement en place, à savoir les fuites de carbone. « Il couvre les importations de matériaux de base et des principaux produits mono-matériaux (jusqu’aux vis et aux écrous), mais pas ces mêmes matériaux lorsqu’ils sont intégrés dans des produits manufacturés plus complexes (voitures, etc.). »
Selon France Stratégie, il y a une « urgence à étendre le MACF aux produits aval » ; ce point a d’ailleurs déjà été soulevé dans le rapport Draghi. Cette demande va dans le sens des sidérurgistes européens qui réclament que leur industrie soit notamment mieux protégée de la concurrence internationale, qui n’est pas soumise aux mêmes normes environnementales. Le secteur est actuellement en pleine crise et en fin d’année dernière, ArcelorMittal a suspendu son important projet de production d’acier décarboné sur son site de Dunkerque.