Point final pour la première route solaire mondiale. En effet, a commencé, le 27 mai dernier, la démolition des dalles photovoltaïques qui ornent la route départementale 5 desservant la commune normande de Tourouvre-au-Perche, dans l’Orne. Le démantèlement a été voté lors du conseil municipal de Tourouvre, le 15 février dernier, pour répondre au mécontentement des habitants qui pointait les fréquents travaux empêchant l’accès à la route.
Cette destruction entraîne également la disparition de la fresque de street art réalisée par le collectif 100 Pression. Cette fresque longeait la route et ornait les murs servant à protéger les armoires électriques et ses câbles. Cette œuvre, qui représentait notamment les chevaux de l’Orne, avait coûté 40 000 € au groupe Colas.
Développée par la société Wattway, filiale du groupe Colas, la technologie comprend un revêtement routier de 2 800 m2 de panneaux photovoltaïques en forme de dalles collés sur l’asphalte et s’étendait initialement sur un tronçon d’un kilomètre de long. Ces panneaux devaient pouvoir capter l’énergie solaire pour générer une électricité qui rejoindrait ensuite le réseau de distribution local via un raccordement direct. Cette production devait être suffisante pour alimenter plusieurs maisons et l’éclairage public du village.
Cependant, les objectifs escomptés ne seront jamais atteints. Tout d’abord, dès la mise en exploitation, des problèmes techniques sont apparus : dégradation des panneaux, nuisances sonores, affaissements de la chaussée à cause de la circulation. Ces perturbations conduisaient à des fermetures répétées de la route. En 2020 puis en 2021, il a fallu remplacer une partie des panneaux photovoltaïques par des panneaux de nouvelle génération, mais cette fois-ci sur une section plus réduite, de 400 mètres seulement.
Malgré ces revers, la société Wattway Colas insiste sur l’importance des leçons apprises. Cette expérimentation a permis d’accélérer le développement de la technologie des dalles solaires puisque, grâce à ces huit années d’essais, une dizaine de types de panneaux a été conçue. Reconnaissant que leurs panneaux photovoltaïques ne sont pas adaptés à une route standard, la société a décidé de développer cette technologie sur des pistes cyclables, des parkings ou des trottoirs. Récemment, deux pistes cyclables photovoltaïques ont été inaugurées aux Pays-Bas.
En outre, les panneaux solaires récupérés lors du démontage seront mis à profit afin de récupérer des informations utiles concernant notamment l’évolution des matériaux.
Aujourd’hui, les dalles photovoltaïques développées par la société Wattway sont exportées partout dans le monde. C’est l’illustration qu’en matière d’innovation, malgré les obstacles rencontrés tout au long du parcours, la persévérance finit d’une manière ou d’une autre par porter ses fruits.
On y est : le trafic aérien repart à la hausse et dépasse son niveau d’avant la pandémie de Covid-19. L’Association internationale du transport aérien (Iata) a annoncé prévoir transporter 4,96 milliards de voyageurs en 2024. Le précédent record établi en 2019 s’établissait à 4,54 milliards de personnes.
Avec 169,9 millions de passagers en 2023, le trafic aérien a retrouvé en France son niveau de 2019. Face à cela, le réseau Rester sur Terre et l’Union française contre les nuisances des aéronefs (UFCNA) se mobilisent pour demander le plafonnement du trafic aérien au-dessous du niveau de 2019. Les deux collectifs dénoncent notamment les « impacts à la fois sanitaires et climatiques » du secteur.
Une question de technologie et de trafic
Selon les chiffres du ministère de la transition écologique, « l’aviation ne contribue qu’à hauteur de 2 % des émissions de CO₂à l’échelle mondiale ». Cependant, selon Rester sur Terre, cette moyenne mondiale cache des chiffres français bien différents. « En France, l’aviation contribue non pas pour 2 %, mais pour 6,8 % aux émissions de CO₂ et pour 15 % aux émissions totales de gaz à effet de serre si on intègre les éléments omis », calcule le réseau.
Alors, peut-on continuer d’augmenter le trafic tout en atteignant « zéro émission nette » de CO₂ à l’horizon 2050 ? L’Iata pense que oui ! Et pour y parvenir, son programme « Voler Net Zéro d’ici 2050 » mise à 65 % sur les carburants d’aviation dits durables (SAF), 13 % sur les nouvelles technologies électriques et l’hydrogène, 19 % sur la compensation et le captage de CO₂, et 3 % sur l’amélioration de l’efficacité des infrastructures et des opérations.
Mais selon les deux ONG, la réduction du trafic aérien est la seule solution. Alexis Chailloux, responsable aviation au sein du Réseau Action Climat, a détaillé ce point lors d’un point presse en mars dernier. « [Une des solutions pour décarboner le secteur aérien], mise en avant par l’industrie, ce sont les solutions technologiques. Différentes techniques sont proposées : l’avion à l’hydrogène, les biocarburants, le carburant de synthèse… Toutes ont des avantages et des inconvénients », précise-t-il. Cependant, « tout arrive trop tard. […] La conclusion qui s’impose c’est que nous n’arriverons pas à limiter les émissions du secteur si on ne réduit pas le trafic aérien », prévient-il.
La réduction du trafic, levier capital
En 2022, dans une étude analysant différents scénarios pour décarboner le secteur aérien, l’ADEME était arrivée à des conclusions similaires. Le scénario basé principalement sur les apports technologiques, avec une hausse du trafic de 61 % par rapport à 2019, aboutit à des émissions annuelles de CO₂ de 24 millions de tonnes en 2022, à 23 millions en 2030, puis 9 millions en 2050. Mais la modération du trafic aérien permettrait de passer à 17 millions de tonnes de CO₂ en 2030, puis à 5 millions en 2050. Selon l’ADEME, la réduction du trafic est ainsi « un levier majeur de réduction des émissions de CO₂ du secteur aérien ». De plus, il est également « le seul levier disponible à court terme. C’est-à-dire qui peut être appliqué rapidement, à grande échelle et produire des résultats immédiats ».
Selon l’Agence européenne de l’environnement, la pollution de l’air par les particules fines provoque plus de 250 000 décès par an en Europe. D’après Rester sur Terre, de manière locale, l’aviation contribue fortement à cette pollution. « Les particules ultrafines émises par les réacteurs d’avion sont plus petites que celles des moteurs diesel, et donc plus toxiques. Mais elles ne sont ni réglementées ni mesurées. La pollution atmosphérique des aéroports reste la grande oubliée des politiques de qualité de l’air », explique le réseau. Voici une raison de plus, pour ce dernier, de mieux encadrer le trafic aérien.
La loi Agec vise à transformer les secteurs industriels en les mettant sur la voie d’une économie circulaire, qui remplacera à terme l’économie linéaire multicentenaire.
Dans le secteur automobile, la circularisation de l’économie existe partiellement depuis des lustres. La mise en fourrière des véhicules hors d’usage permet aux professionnels de récupérer des pièces détachées. Pour les remettre en circulation, c’est une filière qui est économiquement viable depuis plusieurs décennies. Si ces dernières servent à réparer des véhicules pour prolonger leur vie, la loi AGEC vise aujourd’hui à systématiser et rendre plus efficaces ces usages.
Que contient la loi AGEC ?
Entrée en vigueur au 1er janvier 2024, la loi AGEC s’appliquant aux professionnels de l’automobile a été affinée depuis quatre ans. En effet, l’article 62 de la loi AGEC du 10 février 2020 contenait la mise en place d’une filière de responsabilité élargie du producteur, la REP, pour les producteurs de voitures particulières, les camionnettes, les véhicules à deux ou trois roues, notamment. En novembre 2022, un décret définissait les règles de gestion des VHU (véhicules hors d’usage), tout en précisant les modalités de mise en place de la REP pour les constructeurs automobiles. Enfin, l’arrêté du 20 novembre 2023 a permis de découvrir les cahiers des charges des éco-organismes, des constructeurs et des importateurs de cette filière à responsabilité élargie des producteurs.
Deux solutions s’offrent à eux pour cette tâche : soit transférer cette responsabilité à un éco-organisme, soit mettre en place un système individuel, qui a l’obligation d’être agréé par le Ministère de l’Environnement. Ce qui pose une première question, qui concentre les angoisses de toute une filière. Que deviennent les entreprises existantes exerçant dans le secteur du traitement des VHU si elles n’obtiennent pas le fameux agrément ? Une question dont la réponse se fait attendre, étant donné qu’à ce jour, la loi n’est toujours pas entrée en application.
Outre les bouleversements à venir pour les casses automobiles, qui vont devoir travailler en étroite collaboration avec les éco-organismes ou les constructeurs automobiles, et donc se soumettre à leurs exigences, existe le risque de ne pas obtenir d’agrément et d’être en situation d’exclusion sur le marché du recyclage des VHU, ou d’illégalité.
S’il est aujourd’hui trop tôt pour anticiper les conséquences de la loi AGEC pour le secteur automobile et en particulier la filière de traitement des VHU, force est de constater que ces derniers sont dans une position de grande méfiance depuis le début de l’année – depuis beaucoup plus longtemps, en fait -, avec de grandes incertitudes sur l’avenir des acteurs de la filière.
Depuis la mise en service des centrales nucléaires en France, plusieurs familles de technologies sont utilisées pour traiter leurs effluents liquides et gazeux. On peut citer celle par voie thermique, qui consiste à chauffer l’eau pour procéder au dégazage ou à l’évaporation de l’eau, ou celle par adsorption, qui permet de retenir des composés à éliminer sur un solide. Depuis 2018, EDF et le LRGP1 (Laboratoire Réactions et Génie des Procédés) ont créé une équipe commune appelée Mélusine au sein de laquelle ils développent une nouvelle famille technologique faisant appel à des procédés membranaires. Objectifs : diviser par dix l’énergie consommée par les procédés utilisés pour traiter les effluents des centrales électriques, ainsi que continuer à en améliorer les performances environnementales.
Un premier procédé est développé pour recycler le bore grâce à l’osmose inverse, une technologie possédant un haut niveau de maturité, utilisée par exemple pour dessaler l’eau de mer. Cet élément chimique est employé pour contrôler le flux de neutrons au cœur des centrales. Deux types de membranes commerciales ont été testés, comme l’explique Éric Favre, professeur de génie des procédés à l’Université de Lorraine et chercheur au LRGP : « nous avons mis au point une nouvelle architecture d’un système multi-étagé de membranes et défini les bons niveaux de pression et de débit pour atteindre les performances de séparation du bore de notre cahier des charges. Les tests des deux membranes ont donné des résultats encourageants et un brevet à l’international a été déposé. Au final, nous avons sélectionné une membrane et fabriqué un prototype qui va être testé sur une centrale en service dans les mois à venir. »
Pour éliminer les gaz dissous dans l’eau (xénon, krypton, diazote, dihydrogène, dioxygène…), une deuxième technologie est développée pour procéder au dégazage. Elle repose sur l’utilisation de contacteurs à membranes, dans lesquels une force motrice est exercée grâce à un vide modéré associé à un balayage avec de l’azote. Cette double action permet d’assurer un effet de dilution et de maximiser le taux d’extraction. « Les contacteurs à membranes sont très utilisés pour par exemple faire de la désoxygénation, souligne Éric Favre. Nous avons adapté ce procédé et sommes parvenus à descendre à des niveaux de gaz résiduels très faibles, 100 000 fois inférieurs à la teneur en gaz dissous dans le mélange aqueux à l’entrée du système. » L’intérêt de cette technique est qu’elle consomme bien moins d’énergie que le procédé de référence par voie thermique. Elle se révèle également très modulaire, compacte et permet d’économiser de la surface au sol et des volumes dans les bâtiments dès la conception de l’installation. Cette technologie a elle aussi fait l’objet d’un brevet et doit être testée grandeur nature sur des centrales, prochainement.
Une distillation transmembranaire mise en œuvre grâce à la chaleur fatale
La distillation transmembranaire est une troisième solution en cours de développement. Elle consiste à utiliser de la chaleur pour éliminer des composés volatils, sauf qu’ici nul besoin d’atteindre le point d’ébullition de l’eau pour les récupérer par condensation, contrairement à la voie thermique classique, de type évaporation. L’eau est chauffée entre 60 et 70 degrés et mise au contact d’une membrane hydrophobe qui laisse uniquement passer les vapeurs. Le composé peut alors être récupéré sous la forme vapeur à travers la membrane s’il est volatil, ou sous la forme concentrée dans l’eau s’il est peu ou pas volatil. « L’avantage de ce procédé est qu’il permet de valoriser la chaleur fatale d’une centrale électrique, habituellement peu utilisée, mais qui est suffisante pour donner de la force motrice à la distillation transmembranaire, analyse Éric Favre. C’est une technique émergente et il n’existe quasiment aucun fournisseur à l’échelle industrielle. Nos travaux sont encore à l’échelle du laboratoire et la suite du travail va consister à fabriquer un pilote. »
Un quatrième procédé est en cours d’études et met en œuvre des membranes d’électrodéionisation dans le but de récupérer des espèces ionisables dans l’eau, comme des sels, des métaux, ainsi que l’ammoniac sous sa forme dissoute en NH4+. La force motrice est ici délivrée à l’aide d’un courant électrique avec la présence de membranes perméables aux ions disposées entre deux solutions, et de résines échangeuses d’ions, permettant un transfert sélectif des ions d’une solution vers l’autre sous l’action du champ électrique.
« Avec ces quatre technologies membranaires, nous avons une boîte à outils dans laquelle nous pourrons choisir le procédé le plus pertinent pour éliminer, voire valoriser, un composé présent dans les effluents de centrales électriques, se réjouit Éric Favre. Depuis un an, nous avons signé une nouvelle convention avec EDF pour une durée de 5 ans et avons élargi le périmètre des travaux de recherche du laboratoire Mélusine. Nous travaillons également sur des technologies de type DAC (Direct Air Capture) dans le but de profiter de la chaleur fatale des centrales pour capter le CO2 dans l’air et ainsi améliorer leur bilan carbone. C’est un sujet sur lequel nous travaillons déjà avec EDF depuis une vingtaine d’années, soit bien avant la création du laboratoire commun Mélusine. »
1 Le LRGP est une unité mixte du CNRS et de l’Université de Lorraine
Coûts de production élevés, production d’électricité insuffisante, électrolyseur pas assez performant,… dans un rapport transmis au cabinet de l’Élysée et rendu public, l’Académie des sciences dresse une série de recommandations pour lever les freins liés au développement de l’hydrogène vert et faire en sorte qu’il devienne l’une des énergies de demain. Pour les auteurs de ce document, ce gaz fait l’objet, depuis longtemps, à la fois d’espoirs et de fantasmes. Espoirs que ce combustible, riche d’une énergie qui peut être utilisée sans émission de CO2, laisse envisager son utilisation à grande échelle pour défossiliser toute une série d’usages. Mais aussi fantasmes qui découlent entre autres d’une confusion, malheureusement fréquente, entre source d’énergie et vecteur énergétique.
Certes, l’hydrogène existe à l’état naturel, il est alors qualifié de « blanc », mais ses perspectives offertes restent très incertaines, selon les experts de l’Académie. Ces derniers préconisent de soutenir rapidement et sans hésitation les projets d’exploration du sol français visant à évaluer rigoureusement le potentiel réel. Plusieurs gisements ont été identifiés, dont l’un se trouve en Lorraine, et que certains ont qualifié de « gigantesque », voire de « plus grand du monde ». Cependant, il est encore trop tôt pour savoir si cette ressource naturelle sera suffisante et exploitable, et la première étape consiste à déterminer précisément les volumes accessibles.
Pour le moment, l’hydrogène décarboné évoqué dans tous les scénarios est produit par électrolyse de l’eau. Cet hydrogène, qualifié de vert, ne présente donc pas les caractéristiques d’une source d’énergie, mais correspond à une énergie secondaire ou un vecteur énergétique, c’est-à-dire à une forme d’énergie obtenue par transformation d’une autre forme d’énergie. Actuellement, la France produit et consomme environ 0,9 million de tonnes d’hydrogène gris par an, issu du reformage du gaz naturel. Il est essentiellement utilisé pour le raffinage du pétrole et la synthèse de l’ammoniac, nécessaire à la production d’engrais. À l’horizon 2050, le volume pourrait atteindre jusqu’à 3,9 millions de tonnes si des quantités importantes d’hydrogène sont employées pour le transport routier et aérien.
Or, les conditions pour faire face à ce besoin croissant sont encore loin d’être réunies, selon l’Académie des sciences. Et pour espérer impulser une dynamique positive en ce sens, elle recommande d’augmenter rapidement les capacités de production électrique supplémentaires. En sachant que chaque million de tonnes d’hydrogène vert produit par électrolyse nécessite environ 55 TWh d’électricité, soit l’équivalent de 5 réacteurs EPR de 1600 MW. Le niveau de production et de consommation d’hydrogène doit par ailleurs rester compatible avec les trajectoires du mix électrique définies dans le cadre de la planification énergétique.
Baisser le coût de production de l’hydrogène vert à moins de 3 euros par kilogramme
En parallèle, les experts de l’institution scientifique française conseillent d’augmenter rapidement les capacités d’électrolyse tout en améliorant les différentes technologies, notamment les moins matures, comme l’électrolyse à haute température. « Cela permettra de diminuer le prix de production de l’hydrogène vert, condition nécessaire pour qu’il puisse prendre une part significative dans le système énergétique futur, écrivent les auteurs du rapport. Le prix est aujourd’hui compris entre 4 et 8 euros par kilogramme d’hydrogène selon les technologies (1,5 à 2 euros par kilogramme d’hydrogène pour l’hydrogène gris) et l’objectif est de descendre sous les 3 euros par kilogramme d’hydrogène. »
Il convient aussi de poursuivre une recherche fondamentale et technologique forte pour améliorer les rendements énergétiques des électrolyseurs et des piles à hydrogène et diminuer leurs empreintes environnementales. Les efforts doivent aussi être portés pour améliorer la stabilité et diminuer le poids des réservoirs à hydrogène, à travers la mise au point de nouveaux matériaux, mais aussi afin de rendre plus efficace l’utilisation de l’ammoniac comme vecteur de l’hydrogène.
L’aspect lié aux problématiques de sécurité doit aussi être pris en compte, particulièrement dans le domaine des transports. Des accidents dus à l’hydrogène pourraient bloquer son déploiement et un point de vigilance doit être porté à la sécurité de l’avion à hydrogène. L’Académie des sciences recommande également de conduire une politique stricte d’arbitrages, pour définir des priorités entre les différents usages de l’hydrogène. « Étant donné qu’il ne sera pas possible de tout hydrogéner, la priorité doit être donnée à l’utilisation de l’hydrogène vert pour la décarbonation de l’industrie et de certains transports, avant d’autres usages comme le « power to gas » (chauffage de l’habitat et du tertiaire) et le « gas to power » (par exemple pour alimenter des voitures à hydrogène, moins efficaces énergétiquement que les voitures électriques, ou pour la flexibilité du système électrique) », écrivent les experts dans ce rapport.
Enfin, il convient d’évaluer rigoureusement l’empreinte carbone sur toutes les chaînes de valeur des nouveaux procédés et des nouveaux usages de l’hydrogène, ainsi que contrôler strictement le niveau des importations d’hydrogène afin de ne pas passer d’une dépendance extérieure forte (importations de ressources fossiles) à une autre (importations d’hydrogène).
Le méthane (CH4) est un puissant gaz à effet de serre dont le potentiel de réchauffement climatique moyen est 28 fois supérieur à celui du CO2. S’il peut être valorisé lorsqu’il est récupéré sous sa forme concentrée, il est à combattre quand il est émis de manière diffuse (dégradation des déchets, traitement des eaux usées…) et en particulier dans les espaces clos. Lorsque sa concentration dans l’air est inférieure à son point d’inflammabilité (5 %), la biofiltration est considérée comme une alternative rentable pour le transformer. Dans le cadre d’un projet baptisé BioMeth1, des scientifiques tentent de démontrer l’efficacité d’un procédé de biofiltration fonctionnant avec un champignon : le fusarium solani.
La biofiltration est une technique d’épuration qui repose sur l’utilisation d’un support sur lequel se développent des microorganismes (bactéries, champignons) qui sont capables d’éliminer des polluants. « Dans le cas du méthane, au lieu d’obtenir une oxydation par combustion, ici, ce sont les microorganismes qui vont l’oxyder, explique Cécile Hort enseignante-chercheuse au LaTEP (Laboratoire de Thermique, Energétique et Procédés). La biodégradation du méthane grâce à des bactéries fait déjà l’objet d’études, mais ce n’est pas le cas avec des champignons. Des travaux réalisés par l’université des Andes au Chili ont déjà constaté l’efficacité du fusarium solani pour dégrader le méthane, mais sans le démontrer. C’est tout l’objet de notre projet. »
Contrairement aux bactéries qui se développent de manière verticale, l’intérêt des champignons est qu’ils peuvent se développer de manière horizontale sur le support du biofiltre, ce qui permet d’augmenter la surface d’échange avec le méthane et donc d’obtenir une meilleure efficacité du procédé biologique. Autre avantage : le champignon est capable de se développer dans une phase liquide-solide, mais peut aussi se développer de manière totalement aérienne alors que la bactérie a besoin d’un milieu aqueux. Le fusarium solani est un champignon que l’on rencontre couramment dans l’environnement humain et présent aussi bien dans les régions tropicales et intertropicales qu’en zone tempérée.
Utiliser du carbone marqué pour différencier le méthane biodégradé
Pour démontrer l’efficacité de ce nouveau procédé, la méthode expérimentale consiste à utiliser un tube dans lequel est placé un support sur lequel pousse le champignon, puis à faire circuler du méthane à l’intérieur. Au lieu d’utiliser du méthane classique, possédant une masse molaire de 12 grammes par mole, les chercheurs utilisent un carbone marqué dont la masse molaire s’élève à 13 grammes par mole. « On peut ainsi facilement le différencier et si ce méthane marqué est biodégradé, la biodégradation donnera du CO2, avec un carbone à 13 grammes par mole et non 12 grammes comme celui que l’on rencontre partout », complète Cécile Hort.
Des microcosmes sont aussi réalisés à l’aide de petits flacons dans lesquels les scientifiques tentent de reproduire le procédé de biofiltration pour observer la vitesse de dégradation du méthane. Des analyses par chromatographie en phase gazeuse sont également pratiquées pour compléter ces observations. Et pour comprendre la manière dont le méthane est dégradé, des chercheurs de l’IPREM (Institute of Analytical Sciences and Physico-Chemistry for Environment and Materials) sont aussi associés à ce projet et procèdent à des analyses de l’ADN et de l’ARN pour démontrer les phénomènes en jeu.
L’expérimentation a débuté et nécessite plusieurs mois avant que le champignon ne commence à biodégrader le méthane. « Nous espérons des premiers résultats en juillet, précise Cécile Hort. Ce type de procédé pourrait trouver des applications pour traiter les émanations diffuses de biogaz, celles que l’on ne sait pas canaliser ni valoriser, comme c’est le cas dans les stations d’épuration et les sites de traitement des déchets. La seule contrainte avec les champignons est que contrairement aux bactéries, il est plus difficile les maintenir en vie, car ils ont besoin d’un certain taux d’humidité et de température particulière. »
1 Procédé de Biofiltration fongique pour l’élimination du Méthane à faible concentration
R2D2 deviendra-t-il notre compagnon de tous les jours dans les entreprises ? Peut-être pas demain, mais nous nous rapprochons de cette échéance. Des levées de fonds records comme celle de Figure AI – qui a récolté plus de 623 millions d’euros pour développer un robot humanoïde – montre l’intérêt des investisseurs.
Avec son apparence humaine, son robot (baptisé « Figure 1 ») peut effectuer des tâches dangereuses afin de pallier la pénurie de main-d’œuvre qui existe dans certains secteurs industriels. Cette start-up californienne n’est pas la seule à susciter l’intérêt d’investisseurs de renom comme le fabricant de cartes graphiques Nvidia, Microsoft, OpenAI… D’autres entreprises sont déjà considérées comme des pionnières : Boston Dynamics, Tesla et Toyota.
Tesla travaille sur un robot humanoïde de deuxième génération. Optimus Gen 2 2 est une machine polyvalente capable de fournir une assistance dans de nombreux domaines, notamment la fabrication, la construction, les soins et le divertissement. Le PDG Elon Musk a déclaré que le prototype pourrait ne coûter que 20 000 dollars lors de son lancement. En outre, Tesla prévoit de déployer les humanoïdes dans ses usines de fabrication d’automobiles, ce qui pourrait également contribuer à accélérer leur adoption.
Pourquoi autant de cas d’usage encore inimaginables il y a quelques années ? Ces humanoïdes sont des machines avancées capables d’émuler les actions, le raisonnement et les opérations de l’homme. Ils représentent la convergence de technologies telles que l’IA, la biomécanique, l’apprentissage automatique et la connectivité des capteurs avec l’apprentissage, le développement cognitif et les études comportementales.
L’intégration de toutes ces technologies apparaît comme un super booster. Ce marché mondial devrait être plus important que ne le prévoyaient les analystes de Goldman Sachs Research il y a encore un an. Les perspectives pour les machines se sont améliorées grâce à l’accélération des progrès en matière d’intelligence artificielle et à la croissance plus rapide que prévu des investissements dans le secteur.
S’adapter à un obstacle imprévu
Résultat, le marché total des robots humanoïdes devrait atteindre 38 milliards de dollars d’ici 2035, soit plus de six fois plus que les 6 milliards de dollars prévus précédemment par Goldman Sachs Research. L’industrie est très demandeuse.
En mars dernier, Amazon et BMW ont annoncé qu’ils testaient des robots humanoïdes afin de les intégrer dans leurs processus. L’idée est de confier aux robots des tâches répétitives ou dangereuses, ainsi que d’améliorer l’efficacité, dans des situations où l’esprit et les compétences de l’homme ne sont pas forcément nécessaires.
Mais l’introduction de ces bipèdes va-t-elle réellement remplacer l’homme dans les entreprises et en particulier dans les entrepôts ? Pas sûr. N’est-ce pas « illogique » d’utiliser des humanoïdes pour ces tâches ? Les limites de la forme humaine sont précisément la raison pour laquelle les robots ont été développés au départ ! Dans un entrepôt, le meilleur moyen de se déplacer est encore d’utiliser des roues, pas des jambes !
L’adoption généralisée des humanoïdes nécessite encore des améliorations. Ces machines devront être capables d’être très mobiles et agiles. L’autonomie des batteries devra être améliorée et s’adapter à un cycle de charge rapide permettant de travailler une journée entière avant d’être rechargée.
Enfin, il est nécessaire d’améliorer les capacités de traitement (pour répondre aux questions et précisément à un obstacle non prévu par exemple), le retour de force et les capteurs de communication.
En quelques mois, la planète a découvert les LLL ou « Large Language Models » avec le lancement de ChatGPT d’OpenAI. Ces modèles de base utilisent l’IA générative (ou GenAI) pour le traitement du langage naturel (NLP) et la génération de langage naturel (NLG). Ainsi, ChatGPT s’appuie sur GPT (Generative Pretrained Transformer), le modèle de langage développé par OpenAI et qui comprend 175 milliards de paramètres.
Ces modèles sont capables de réaliser une variété de tâches, comme la traduction automatique, la génération de texte, la réponse aux questions… Les LLL sont surtout utilisés en informatique pour développer des chatbots, des outils de traduction automatique, et d’autres applications d’intelligence artificielle.
Côté négatif, différents métiers seraient menacés par la GenAI. Les postes en administration d’entreprise sont les plus menacés. L’IA pourrait remplacer jusqu’à 90 % de leurs tâches, étant donné que beaucoup peuvent être automatisées selon une étude d’Indeed.
Côté positif, le secteur industriel pour profiter des capacités des LLL en permettant de comprendre et d’organiser des informations complexes et de générer des interactions de type humain.
L’industrie manufacturière génère en effet d’énormes volumes de données complexes non structurées (capteurs, images, vidéos, télémétrie, LiDAR, etc.) générées par des véhicules, des machines et même des travailleurs connectés via des capteurs. Pour l’industrie, il est essentiel de diffuser ces informations en temps réel et de les fusionner avec d’importantes sources de données contextuelles afin de répondre aux événements importants de manière significative.
La flexibilité et les capacités prédictives des grands modèles de langage ouvrent la voie à un large éventail de cas d’usage industriel, présentant des capacités à révolutionner les opérations et offrant des gains d’efficacité substantiels.
On peut citer différents cas. Le plus évident pour l’industrie est l’assistance à la maintenance. Les LLM peuvent fournir une assistance en temps réel au personnel spécialisé en accédant et en interprétant les informations de la base de données de maintenance de l’entreprise et des documents connexes, ce qui permet d’obtenir des conseils de dépannage immédiats et précis.
Le contrôle humain reste indispensable
En analysant les rapports d’incidents de sécurité et les données sur les accidents évités de justesse, il est possible d’identifier des modèles, extraire des informations et élaborer des mesures de sécurité proactives, contribuant ainsi à rendre l’environnement de travail plus sûr et plus sain.
Les LLL peuvent aussi aider à évaluer les risques d’un projet, à estimer l’impact des différents scenarii de risque et à élaborer des stratégies visant à les atténuer. Ces analyses des risques permettent à des secteurs très réglementés de respecter plus facilement les conformités en cours. Ils peuvent notamment repérer les écarts par rapport aux exigences réglementaires dans les données d’un projet et mettre en place des actions correctives.
De façon plus globale, les LLL permettent de gérer des projets complexes. L’automatisation de la génération de la documentation d’un projet y compris les plans, les calendriers et les rapports d’avancement, permet de réduire les efforts humains (qui peuvent être sujets à des erreurs) et d’améliorer la précision.
Cependant, la construction d’un LLL est un projet complexe qui nécessite généralement un niveau d’expertise important, des ressources informatiques substantielles et l’accès à de nombreuses données. Ce processus comprend en effet plusieurs étapes clés, notamment la collecte de données, le prétraitement, la sélection d’une architecture de réseau neuronal appropriée, la conception du modèle, le préentraînement sur de vastes ensembles de données pour des tâches spécifiques, l’évaluation et l’affinement continus et, enfin, le déploiement.
Autres défis, les biais inhérents à leurs résultats et les problèmes de confidentialité des données. Ces modèles doivent donc être utilisés avec prudence et leurs résultats doivent toujours être vérifiés par des humains.
Crédit visuel de une : image générée par Adobe Firefly
Comme chaque trimestre, Bpifrance Le Lab et Rexecode viennent de publier leur dernière enquête relative à la santé économique des PME/TPE. Plus de 3 200 dirigeants des secteurs marchands non agricoles ont été interrogés par voie numérique, dont les entreprises comptent entre 1 et 250 salariés et réalisent moins de 50 millions d’euros de chiffre d’affaires. Au total, plus de 900 questionnaires dont les réponses ont été jugées suffisamment complètes et fiables ont été analysés pour réaliser ce nouveau baromètre.
L’enquête révèle que les intentions d’investissement sont en légère baisse, une tendance qui vient confirmer le ralentissement attendu par la Banque de France en 2024. La moitié des dirigeants de PME/TPE ont annoncé avoir déjà investi ou ont prévu d’investir cette année, alors qu’ils étaient 55 % en 2023. Les montants investis se redressent sur ce trimestre, ils affichent un recul de 8 % sur un an et restent sensiblement inférieurs à la moyenne observée avant la crise sanitaire.
Ces dépenses sont principalement destinées au renouvellement et à la modernisation d’équipements et d’installations de l’outil productif, tandis que l’environnement est le troisième motif d’investissement et inclut également l’objectif de réaliser des économies d’énergie. À un horizon de 5 ans, la dynamique d’investissement devrait se maintenir globalement selon cette enquête, même si les dirigeants semblent moins optimistes qu’il y a 3 ans sur l’évolution future de leurs dépenses à plus long terme. Il apparaît que certains domaines d’investissement sont plus porteurs que d’autres, comme ceux liés à la R&D et à l’innovation, aux enjeux environnementaux, à la digitalisation et à la robotisation, ainsi qu’à l’intelligence artificielle.
Pour investir, encore faut-il en avoir les moyens financiers. Les trois quarts des dirigeants ayant cette intention en 2024 ou l’ayant déjà fait devraient avoir recours au crédit, une proportion en hausse, mais toujours nettement inférieure à la moyenne pré-Covid (82 %). Parmi ceux-ci, 17 % signalent des difficultés pour financer leurs investissements par les établissements bancaires, une proportion en léger recul sur un an et proche de la moyenne pré-Covid (15 %). Ils sont aussi 21 % à déclarer rencontrer des difficultés pour financer l’exploitation courante de leur entreprise pour faire face à leur charge mensuelle.
Les difficultés de recrutement demeurent le premier frein à la croissance
Quant à la trésorerie, même si elle s’est légèrement détendue ce dernier trimestre, selon les dirigeants interrogés, elle demeure toutefois nettement inférieure (-13 %) à la moyenne historique des années 2018 à 2023. Résultat : près d’un tiers des chefs d’entreprise jugent leur trésorerie difficile, une proportion en légère hausse sur le trimestre et similaire à celle observée il y a 6 mois. Les dirigeants se montrent tout de même bien plus optimistes s’agissant de l’évolution à venir de leur trésorerie, puisque le solde d’opinion sur les perspectives de trésorerie à trois mois grimpe de 8 %.
Les difficultés à recruter apparaissent comme le premier frein à la croissance des PME/TPE, puisque cette contrainte est citée par la moitié des dirigeants de l’enquête. Cette proportion progresse ce trimestre de 3 %, mais reste inférieure à celle observée avant la crise sanitaire, qui concernait 54 % des chefs d’entreprise en moyenne sur 2018-2019. Le deuxième frein concerne le manque actuel de débouchés, qui continue de progresser de 7 % sur un an. La concurrence redevient le troisième frein à la croissance, mentionnée par 29 % des dirigeants, devant les coûts et les prix trop élevés.
Des difficultés d’approvisionnement sont également mentionnées dans ce baromètre. Elles sont liées à des hausses de prix des intrants et du coût du transport, à des allongements des délais de livraison, ainsi qu’à des pénuries. Près de la moitié des dirigeants déclarent y être confrontés. Et près d’un tiers d’entre eux ont rencontré des difficultés d’approvisionnement ou des perturbations sur leurs chaînes de fournisseurs étrangers depuis 2020. Parmi eux, près des deux tiers ont pris des mesures pour les contenir, en augmentant leurs stocks et en diversifiant leurs fournisseurs. L’augmentation du recours à des fournisseurs plus proches géographiquement, en France ou dans l’Union Européenne, est également largement mis en avant. Près de la moitié des dirigeants ayant pris des mesures jugent qu’elles ont contribué à réduire leurs difficultés d’approvisionnement.
Tout le monde ne sera pas logé à la même enseigne. « La demande de travailleurs dans les secteurs de la restauration, de la production, des services à la clientèle, de la vente et du soutien administratif, qui ont tous diminué au cours de la période 2012-22, continuerait de baisser jusqu’en 2030 », prévient McKinsey.
Ces emplois comportent une grande part de tâches répétitives, de collecte et de traitement de données élémentaires, autant d’activités que les systèmes automatisés peuvent traiter efficacement.
Si cette hypothèse des 30 % d’heure effectuée par l’IA devient réalité, de nombreux salariés devront changer de profession selon ces analystes. « D’ici à 2030, selon le scénario d’adoption plus rapide que nous avons modélisé, l’Europe pourrait nécessiter jusqu’à 12 millions de transitions professionnelles, soit 6,5 % de l’emploi actuel. Dans le cadre d’un scénario plus lent, le nombre de transitions professionnelles nécessaires s’élèverait à 8,5 millions, soit 4,6 % de l’emploi actuel », lit-on dans ce rapport d’une soixantaine de pages.
Tâches chronophages
Comme d’autres études, celle de McKinsey tente de déterminer avec précision les impacts, positifs et négatifs, de l’intelligence artificielle sur les métiers. Mission impossible ? Il est en effet difficile d’extrapoler précisément sur les conséquences de l’intégration de l’IA dans les bureaux, mais aussi sur les chaînes de production.
Une chose est sûre, l’automatisation des tâches n’a pas attendu l’intégration de l’IA pour remplacer des tâches chronophages. De nombreux employés de bureau déclarent passer en moyenne un tiers de leur journée à des tâches qu’ils considèrent comme étant de « faible valeur ajoutée » selon la récente enquête Workforce Index de Slack. Les employés de bureau français souffrent d’un épuisement professionnel dû à l’activité professionnelle.
Pour limiter ces tâches confiées à des salariés, la Robotic Process Automation (RPA) est utilisée depuis déjà quelques années dans la finance, l’assurance, la logistique… McKinsey avait d’ailleurs publié un article intitulé « Four fundamentals workplace automation » en 2015.
Mais l’accélération des puissances de calcul grâce au cloud et à des puces ad hoc comme celles de Nvida (passé en 30 ans d’un simple fabricant de cartes graphiques appréciées des gamers à un acteur incontournable de l’IA) bouleverse la donne et complique la tâche des analystes.
L’impact de la GenAI
Pour l’instant, l’IA n’est pas synonyme de destruction massive d’emplois. Selon une enquête de l’INSEE publiée par le ministère de l’Économie, « l’emploi totaldes entreprises ayant adopté l’IA augmente davantage que dans les entreprises ne l’ayant pas adoptée (…). L’effet résulte principalement de la création de nouveaux emplois, plutôt qu’un maintien plus important d’emplois existants ».
Cependant, cette enquête confirme les prévisions de McKinsey : l’effet de l’IA sur l’emploi total n’est pas uniforme d’un métier à l’autre. « Certains échelons au sein de l’entreprise ou certains métiers risquent de subir desréductions nettes d’emplois. Les entreprises qui adoptent l’IA pour la gestion administrative ou le marketing voient leur emploi en “professions intermédiaires administratives et commerciales” diminuer ».
Mais beaucoup d’études étaient focalisées sur l’IA. Avec la GenAI, la donne pourrait radicalement changer pour les métiers du « savoir ». Pour l’instant, la GenAI est encore loin d’être optimisée et capable de générer du contenu de qualité. « The hype is here, the revenue is not » répètent à l’envi des analystes financiers. ChatGPT et les autres solutions doivent être vues et utilisées comme des assistants. Même Amazon et Google tempèrent les attentes autour de l’IA générative !
Certains métiers de la connaissance, de la stratégie et de la créativité (médecins, enseignants, avocats, journalistes, artistes…), autrefois « perçuscomme des creusets de l’intelligence humaine, pourraient être concernés par une réduction du nombre total d’emplois », prévient l’INSEE.
Les premières études sur la GenAI suggèrent que l’effet de productivité domine en moyenne pour les salariés en entreprise, tandis que l’effet d’éviction semble être plus important pour les individus indépendants devant effectuer pour l’essentiel des tâches plus facilement remplaçables par l’IA. Mais est-ce qu’un jour « l’IA devrait remplacer tous nos emplois » comme l’affirme Elon Musk ?
Alors que les technologies textiles traditionnelles utilisent l’action de forces mécaniques pour former et déposer les fibres, l’électrospinning, encore appelé électrofilage, est un procédé qui lui, utilise les forces électrostatiques. La fibre est formée, puis fortement étirée, avant d’être projetée à très grande vitesse sur un substrat grâce à l’action d’un champ électrique intense. Des fibres continues dont le diamètre est 100 à 1000 fois plus fin que celui d’un cheveu sont ainsi fabriquées et assemblées sous la forme d’un « mat », c’est-à-dire un textile non-tissé dont la structure aléatoire est semblable à un voile cotonneux. Cette méthode permet de fabriquer des fibres à la géométrie très précise, ainsi qu’augmenter leurs performances.
À Strasbourg, Michelin, le CNRS et l’Université de Strasbourg viennent d’inaugurer un laboratoire commun appelé « SpinLab » dédié à l’étude de ce procédé dans le but de fabriquer de manière optimisée des matériaux nanofibreux. L’enjeu du projet de recherche mené sera d’être capable de manipuler les nanofibres lors de leur dépôt à la manière d’un « tissage électrostatique ». À cet effet, les équipes étudieront les phénomènes physiques permettant, in fine, d’obtenir des matériaux dont la structure fibreuse n’est plus aléatoire, mais organisée dans les trois dimensions.
Ce travail collaboratif se déclinera selon deux axes. Une plateforme innovante d’électrospinning sera tout d’abord développée afin d’étudier les mécanismes physiques et physico-chimiques permettant d’obtenir des matériaux nanofibreux multi-composants dont la morphologie et la composition fibreuse sont contrôlées. Ensuite, l’objectif sera d’élaborer, par électrospinning et selon des voies respectueuses de l’environnement, des mats aux caractéristiques spécifiques afin de cibler des applications variées. Un focus particulier sera mis sur deux applications : l’hydrogène et la mobilité zéro-émission ainsi que les adhésifs.
Des perspectives prometteuses pour créer de nouveaux matériaux à usage critique
Pour Michelin, ces avancées permettront notamment de répondre à deux grands enjeux. Le premier concerne le renforcement structurel avec du mat obtenu par électrospinning permettant d’amincir les composites et ainsi d’améliorer leurs propriétés fonctionnelles tout en étant plus économe en matière. Et le second consiste à utiliser des membranes non-tissées pour leurs propriétés de perméabilité, de conductivité électrique… Celles-ci pouvant aussi être imprégnées d’agents actifs qui leur apporteraient des fonctionnalités supplémentaires.
« L’ouverture de ce nouveau laboratoire commun, avec le CNRS et l’Université de Strasbourg, consacré à la recherche sur l’électrospinning va venir renforcer un peu plus notre expertise commune sur ce procédé novateur, déclare Eric-Philippe Vinesse, Directeur de la Recherche et Développement et membre du comité exécutif du groupe Michelin. Il ouvre des perspectives nouvelles et prometteuses pour créer de nouveaux matériaux à usage critique, trouvant des applications dans la mobilité, mais également le médical, l’environnement ou l’énergie. Ces usages sont au cœur de l’ambition du groupe Michelin : créer un manufacturier de composites à haute valeur ajoutée qui changent notre quotidien. »
Au-delà des applications liées aux pneumatiques, ces recherches pourraient en effet trouver à terme des applications dans les domaines du médical avec la fabrication d’implants biomimétiques pour l’ingénierie tissulaire, ainsi que des pansements. Dans le secteur de l’environnement, ces travaux pourraient permettre de concevoir des filtres à air, des membranes de filtration liquide, et dans le domaine de l’énergie, ils pourraient servir à fabriquer des membranes de piles à combustible et des électrodes de super-condensateurs.
Une douzaine de jeunes chercheurs doctorants et post-doctorants devraient être formés grâce à cette collaboration. « Elle contribuera également aux formations de niveau master et ingénieur au travers de nouvelles opportunités de stages et de projets industriels pour les étudiants et de la mise en place d’une plateforme expérimentale unique à l’avant-garde de la technologie pouvant servir aux enseignements pratiques », souligne Michel de Mathelin, premier vice-président et vice-président Relations avec le monde socio-économique et valorisation de l’Université de Strasbourg.
Dans le paysage magnifique de la vallée de l’eau d’Olle, près de Grenoble, la station de transfert d’énergie par pompage (Step) de Grand’Maison trône à deux endroits. À 1 695 m d’altitude, le barrage contient les 140 millions de m3 d’eau de la retenue amont, principalement alimentée par la fonte des neiges. À une petite dizaine de kilomètres en aval, à 770 m d’altitude, se trouve la retenue du Verney contenant un volume d’eau dix fois moindre. Entre les deux, l’usine hydroélectrique gérée par EDF peut produire de l’électricité quand ses turbines utilisent la force motrice de la chute d’eau. Elle peut aussi pomper l’eau dans l’autre sens, du bas vers le haut, lorsqu’il faut soulager le réseau d’un trop-plein d’électricité. Depuis 2023, elle est la seule Step à pouvoir faire le turbinage et le pompage en même temps. Un atout au service du réseau électrique.
Mise en service entre 1985 et 1987, l’installation de Grand’Maison est la plus grande Step d’Europe, avec une puissance de 1 800 MW. Elle surpasse largement ses petites sœurs françaises de Montézic (910 MW), Revin (800 MW), Super-Bissorte (730 MW), Cheylas (480 MW) et La Coche (380 MW). L’usine dispose de moyens de production sur deux étages. Au niveau supérieur de ce bâtiment situé juste avant la retenue du Verney, quatre groupes classiques, avec des turbines Pelton, sont en mesure de turbiner l’eau avec une puissance de 157 MW chacun. Au niveau inférieur, huit groupes de type Francis de 160 MW chacun peuvent fonctionner en turbinage ou en pompage.
Évolution du mode de fonctionnement
À l’origine, ce genre de Step est prévu, schématiquement, pour produire de l’électricité en journée la semaine et pour remonter l’eau vers le barrage amont les nuits et les week-ends. Grâce au pompage dans ces périodes nocturnes et dominicales, la Step peut absorber la surproduction du parc nucléaire aux heures creuses de consommation et reconstituer une partie du stockage d’eau du barrage amont. Au fil du temps, avec la montée en puissance des parcs éolien et solaire photovoltaïque, ce cycle hebdomadaire a été complété par un cycle journalier : quand il y a besoin, la Step turbine désormais préférentiellement aux pointes de consommation le matin et en fin d’après-midi ; et elle pompe autour de l’heure méridienne lorsque les productions du vent et du soleil sont à leur maximum.
Deux autres évolutions viennent compléter ce premier changement. Tout d’abord, EDF a l’ambition d’augmenter la puissance de ses ouvrages hydroélectriques lorsque c’est possible. Dans le cas de Grand’Maison, trois des quatre turbines Pelton ont été changées avec de nouvelles roues permettant de porter leur puissance unitaire à 170 MW. Un des huit groupes réversibles a par ailleurs été démonté : le constat a été fait que la turbine-pompe a bien supporté les fortes charges qu’elle subit, et sa révision a permis de lui redonner son rendement initial. Début juin, ce groupe de 19 mètres de haut était en cours de remontage, un exercice qui doit être fait avec grande précision malgré le poids des composants (l’arbre à lui seul pèse 19 t, et le stator et le rotor de l’alternateur pèsent respectivement 180 et 160 t !).
Un soutien à la régulation de fréquence
Au gain de puissance s’ajoute un nouveau mode de fonctionnement. Des études menées dans le cadre d’un projet européen appelé XFlex Hydro ont validé l’idée que la Step peut pomper et turbiner en même temps. Cela est rendu possible par le fait que certaines conduites amenant l’eau vers l’usine se croisent. Au niveau de ces « nœuds », l’eau pompée ne remonte pas jusqu’au barrage amont, car elle bifurque par un piquage vers une turbine. Les simulations menées dans le cadre de XFlex Hydro ont montré que le pompage turbinage simultané (PTS), avec de forts débits et pressions, est supportable par les équipements (conduites, cheminée d’équilibre). Des tests menés en 2021 à Grand’Maison ont confirmé l’opérationnalité de ce mode de fonctionnement qui a dès lors été intégré dans les algorithmes du centre de conduite EDF de Lyon.
Mais à quoi sert ce PTS ? En fait, seules les turbines ont une puissance variable qui permet à la Step d’apporter du réglage en fréquence au réseau électrique. Auparavant, toutes les périodes de pompage ne permettaient donc pas d’apporter ce service. Grâce au PTS, Grand’Maison se trouve en situation de réguler la fréquence plus souvent, tant sur les réserves primaires (en moins de 30 secondes) que secondaires (en moins de 3 minutes). De fait, désormais, le pompage est réalisé 40 % du temps en PTS. En plus de ce soutien essentiel au réseau, le PTS fonctionne souvent en remplacement de centrales à énergies fossiles, ce qui évite des émissions de gaz à effet de serre.
Avec ce nouvel atout, l’hydroélectricité reste plus que jamais un mode de production à renforcer. D’ailleurs, EDF envisage de mettre en œuvre le PTS dans sa Step de Super-Bissorte.
Déjà lauréat en 2023 du tout premier appel à projets « Zones industrielles bas carbone » (ZIBaC), le projet a gravi un échelon supplémentaire il y a peu, en intégrant le premier groupement industriel mondial « zéro émission nette » lancé par le World Economic Forum, comme l’ont annoncé ses promoteurs en début d’année.
À ce jour, vingt territoires industriels répartis sur quatre continents ont rejoint l’initiative du Forum Économique Mondial. Parmi eux figure donc Dunkerque, seul représentant français, pour l’heure, au sein de ce groupement international. Alors que le bassin industriel dunkerquois et son arrière-pays émettent aujourd’hui pas moins de 16 millions de tonnes de CO₂ chaque année, le territoire ambitionne de réduire de 55 % ses émissions à l’horizon 2030, tout en contribuant, en parallèle, à la création de 16 à 20 000 emplois entre 2030 et 2040. Des ambitions auxquelles cette intégration du territoire industrialo-portuaire nordiste au premier groupement industriel mondial « zéro émission nette » devrait largement contribuer, comme nous l’explique Rafaël Ponce, Directeur d’Euraénergie.
Techniques de l’Ingénieur : Quelle est la nature, et quelle est la vocation générale d’Euraénergie, cette entité que vous dirigez et qui anime le programme Dkarbonation ? Quelles ont été les grandes étapes de sa création et de son évolution ?
Directeur général adjoint Économie et Attractivité (DGAEA) de la Communauté urbaine de Dunkerque, Rafaël Ponce dirige également le GIP Euraénergie.
Rafaël Ponce : Euraénergie est un groupement d’intérêt public (GIP). Il a été mis en place en 2020 à l’initiative de Patrice Vergriete, président de la communauté urbaine de Dunkerque. Ce groupement réunit l’ensemble des acteurs du développement économique du territoire, et plus particulièrement du bassin industrialo-portuaire. Il vise à animer et à coordonner la transformation de ce bassin sur différents plans : celui de la transition énergétique, au départ, mais aussi, désormais, celui de la transformation industrielle de ce territoire.
Ce GIP est le fruit de la candidature de Dunkerque à l’Appel à manifestation d’Intérêt « Territoire d’Innovation », lancé par l’État en 2019. Ceci visait à mettre en avant certaines actions autour de l’innovation et de la transformation, dont une en particulier, celle de la transformation d’un bassin industriel en vue de capter et de valoriser le CO₂ émis en son sein. Dans ce cadre-là, plusieurs gros émetteurs de CO₂ du territoire ont initié une démarche sous forme d’un collectif, le Collectif CO₂. En parallèle, nous avons mené, en tant que collectivité, une démarche de territoire d’innovation, dans laquelle s’est inscrite cette volonté des industriels de valoriser leur CO₂. Nous avons ainsi abouti à la mise en place d’un projet global : Dunkerque l’énergie créative. Il s’agit de la démarche collective d’animation et de transformation du territoire dunkerquois. Ce projet inclut ainsi toutes les actions menées autour de la décarbonation et tout ce qui en découle, notamment la mise en place d’infrastructures. Nous nous préoccupons aussi des questions d’emploi, d’orientation des jeunes, et même d’information du grand public. Tout cela est mené de concert avec les industriels, et animé par la structure que je dirige : Euraénergie. Nous menons notamment, sur le front de la promotion de l’industrie auprès des jeunes, des demandeurs d’emploi et des personnes en reconversion, une action visant à accroître l’attractivité du secteur, et à promouvoir les métiers industriels, qui pâtissent pour beaucoup d’une forme de désamour.
Cette stratégie commune, ce travail collaboratif public-privé, a d’ores et déjà eu pour effet de maintenir l’activité industrielle existante, mais aussi d’attirer de nouveaux acteurs industriels qui s’inscrivent dans cette logique de décarbonation. Ceci, à l’échelle du territoire, mais aussi au niveau régional et même national. C’est ainsi que nous avons notamment vu arriver les Gigafactories de batteries électriques et tout l’écosystème associé, tout cela formant un véritable ensemble industriel axé autour de la décarbonation.
Quelle est votre vision, et quelles sont vos ambitions en matière de décarbonation et de transformation industrielle ?
L’idée n’est pas de renier le passé industriel du Dunkerquois, mais bien d’accompagner dans le verdissement de leurs activités des acteurs historiques tels qu’ArcelorMittal, Aluminium Dunkerque ou encore Comilog. Nous avons pour cela construit une feuille de route de décarbonation qui vise la neutralité carbone à l’horizon 2050. Notre trajectoire actuelle se révèle même en avance sur les objectifs initiaux ! Dunkerque représente aujourd’hui 21 % des émissions de CO₂ industriel du territoire français, avec 16 millions de tonnes annuelles. Nous atteindrons un abattement de 50 % à l’horizon 2030.
Cette stratégie est basée sur différentes solutions. La première est la diminution de la consommation d’énergies fossiles. Cela passe notamment par la transformation de l’outil industriel existant. ArcelorMittal projette par exemple de remplacer l’un de ses hauts-fourneaux fonctionnant au charbon, par des fours électriques. L’objectif est aussi, demain, de produire de nouvelles énergies telles que l’hydrogène pour alimenter certaines des installations de l’industriel.
Nous avons aussi développé une logique de circularité au sein du bassin industrialo-portuaire : le déchet d’un industriel peut devenir une ressource pour l’un de ses voisins. C’est comme cela que sont apparus certains projets structurants, qui rendent encore plus attractif le territoire. Certains industriels produisent par exemple de la vapeur qui est aujourd’hui récupérée et mise à disposition pour d’autres acteurs du territoire, mais aussi pour la collectivité. Depuis plus de 20 ans maintenant, ArcelorMittal met par exemple à disposition de la collectivité la vapeur que produit son usine, et qui alimente ainsi un réseau de chaleur urbain. L’industriel a également lancé un gros projet de recyclage de l’acier.
À cela s’ajoutent la captation et l’utilisation du CO₂, ou CCU, pour carbon capture and utilization. Nous avons ainsi vu naître des projets de production de carburants de synthèse. Outre le CCU, des projets de stockage – ou CCS – ont aussi vu le jour en Mer du Nord. Dunkerque a ainsi décidé de se positionner en tant que premier hub français de CO₂. Cela va nous permettre d’éviter le rejet dans l’atmosphère du peu de dioxyde de carbone restant, d’autant plus que nous disposons des infrastructures nécessaires. Le terminal méthanier va notamment permettre de liquéfier ce CO₂ avant de le transporter en vue d’un stockage dans des réservoirs naturels en Mer du Nord.
Nous avons également mis en place une feuille de route « hydrogène ». Elle vise tout d’abord à évaluer les besoins, tant en matière de production que de consommation, de la future filière hydrogène qui sera mise en place sur le territoire dunkerquois.
Dunkerque est pour l’heure le seul représentant français parmi les 20 clusters signataires à travers le monde de l’initiative des clusters industriels en transition portée par le Forum Économique Mondial. Crédit : World Economic Forum
Quelles sont les origines de cette intégration de DKarbonation au premier groupement industriel mondial « zéro émission nette » lancé par le World Economic Forum ?
C’est finalement le résultat de tout ce travail initié depuis plusieurs années sur le territoire. Nous avons, d’une part, la chance d’accueillir des industriels d’envergure internationale, mais disposons aussi, d’autre part, d’un grand port maritime, qui rayonne lui aussi dans le monde entier. C’est ce qui nous a permis d’être identifiés comme l’un des territoires les plus actifs sur ce sujet de la décarbonation, mais aussi, et surtout, l’un des territoires disposant d’une stratégie clairement établie, avec des projets inscrits dans le temps long.
Le World Economic Forum nous a donc permis de devenir membre de ce réseau international. Nous sommes ainsi devenus la première entité française reconnue au niveau mondial. Cela va nous permettre de poursuivre la mise en place de notre stratégie de partenariats, de collaboration, de synergies… et de renforcer nos échanges autour des approches adoptées par les uns et les autres, afin d’en tirer des enseignements. Cela représente aussi pour nous une nouvelle marque d’attractivité du territoire, après, notamment, notre désignation, en 2023, en tant que premiers lauréats, avec Fos-sur-Mer, de l’appel à projets « Zones Industrielles bas carbone » (AAP ZIBaC), qui nous amène essentiellement à travailler sur la mise en place des infrastructures nécessaires à la décarbonation du territoire.
D’une façon globale, tout cela va nous permettre d’entraîner tout le tissu industriel secondaire, au-delà des seuls grands groupes. Notre objectif est en effet véritablement d’embarquer l’ensemble des acteurs de l’industrie qui émettent du CO₂. De petits industriels qui n’auraient sans doute pas les moyens de porter des projets en solo, parce que trop coûteux, peuvent malgré tout les mener à bien en les mutualisant. Nous avons donc la volonté de travailler en tant que collectif, afin que les actions que nous menons bénéficient à l’ensemble des acteurs du territoire. C’est, à mon avis, l’une des principales raisons pour lesquelles nous parvenons à faire avancer notre stratégie de décarbonation.
L’un de vos objectifs est ainsi de passer de « premier émetteur de CO₂ » à « premier émetteur de solutions » de décarbonation. Cela implique-t-il éventuellement la participation d’acteurs du monde de la recherche ?
Toutes les actions que nous réalisons nécessitent effectivement un engagement important du monde académique, mais aussi de l’Éducation nationale. Plusieurs actions sont mises en place sur ce plan, à commencer par la création des filières de formation aux métiers de la décarbonation. Cela passe aussi par un important travail de recherche et développement. Une filière de R&D est ainsi notamment en train d’être mise en place par l’Université du Littoral Côte-d’Opale, mais aussi l’Université de Lille ou encore d’Amiens, aux côtés des acteurs de la mobilité électrique. Tous travaillent main dans la main autour de la production, mais aussi du recyclage, pour anticiper les besoins qui se manifesteront d’ici peu.
#1 : une révolution silencieuse qui fait du bruit !
Outil de collaboration entre l’homme et la machine, source de gain de temps, d’économies également ainsi que d’une plus grande efficacité et de montée en compétence, l’IA permet à l’utilisateur de s’affranchir de tâches chronophages dès lors qu’elles peuvent être automatisées. Cependant, son usage doit se faire dans le respect de l’éthique, mais également des enjeux environnementaux, et en gardant à l’esprit les risques de cyberattaques contre lesquels il est indispensable de se prémunir.
Frédéric Pascal, Professeur des universités (Paris Saclay), directeur de l’institut DataIA, et Marie-Aude Aufaure, directrice de la société de conseils et de formation en Big Data et intelligence artificielle Datarvest, évoquent dans ce premier épisode la manière dont l’IA révolutionne les processus de travail.
#2 : concilier usages et principes durables
L’IA n’a véritablement d’utilité que si son usage est également raisonné. Son intégration impose donc de définir au préalable les objectifs recherchés, qu’ils soient temporels, économiques ou encore un besoin accru de précision. Son apport auprès des utilisateurs, dans le domaine médical et particulièrement dans celui de la radiologie, devra par ailleurs être évalué à l’aune de chacune des étapes de son cycle de vie, en tenant compte des principes de développement durable, de respect des réglementations et d’éthique auxquels est soumise toute entreprise aujourd’hui.
Le règlement européen sur l’intelligence artificielle (l’IA Act) définit un certain nombre de risques induits par l’IA. Il oblige les entreprises à s’interroger non seulement sur les conséquences qu’aura l’intégration de l’IA dans leurs métiers, mais également sur les possibles dérives de son utilisation. Les règles contraignantes qui s’imposent à elle désormais nécessitent de s’interroger tant sur les aspects éthiques que légaux, préalablement à la mise en œuvre des projets.
Jean-Gabriel Ganascia, informaticien et philosophe spécialisé dans l’intelligence artificielle et l’éthique à Sorbonne Université, membre du comité d’éthique du CNRS, insiste dans ce troisième épisode sur la nécessité d’une intégration de l’IA éthique et réglementée.
La France s’est fixée pour objectif de produire, d’ici à 2030, 6,5 GW d’hydrogène par électrolyse. Au niveau européen, de nombreux projets voient le jour pour monter en cadence sur la production d’électrolyseurs MEP (membrane à échangeurs de protons), une technologie efficace mais coûteuse. Alors que la Chine produit en masse des électrolyseurs alcalins, moins efficaces car plus longs à démarrer, mais moins coûteux.
De fait, la stratégie chinoise sur l’hydrogène diffère largement de la stratégie européenne en la matière. Alors que la majeure partie de l’hydrogène au niveau mondial est produite via des technologies ayant un fort impact en termes d’émissions de CO2, l’Europe s’est fixé des objectifs pour accroître rapidement la production d’hydrogène vert, à partir d’électrolyseurs alimentés par de l’électricité produite de manière décarbonée. En France par exemple, la production d’hydrogène par électrolyseurs alimentés par de l’électricité d’origine nucléaire entre totalement dans ce cadre.
La Chine, qui produit aujourd’hui un tiers de l’hydrogène mondial, le fait majoritairement via des procédés extrêmement carbonés. En 2020, 62% de l’hydrogène chinois était obtenu via l’utilisation de charbon, 19% à base de gaz naturel, et seulement 1% à partir d’électrolyseurs alimentés par des énergies renouvelables. 1%, c’est la proportion d’hydrogène vert produite également dans la plupart des pays du globe.
Finalement, la capacité à produire massivement de l’hydrogène vert par électrolyse dépend de la disponibilité en électricité renouvelable. Hors, la stratégie chinoise de production d’hydrogène vert s’étale plus dans le temps par rapport à la stratégie européenne. En Europe, l’objectif est d’atteindre la neutralité carbone d’ici à 2050, avec comme jalon, notamment, l’utilisation de 60% d’hydrogène vert par l’industrie d’ici 2035. Un objectif très ambitieux, dont on ne sait pas s’il est atteignable. Il est par contre évident qu’il sera très compliqué à atteindre… De son côté, la Chine a une ambition sur un laps de temps plus long. Le pays veut produire 15% de son hydrogène de manière renouvelable d’ici à 2030, puis 80% à l’horizon 2060. L’objectif chinois est donc moins ambitieux sur le court terme.
Quels sont les leviers pour atteindre ces objectifs ? Principalement le prix de l’hydrogène produit, qui va dépendre des technologies utilisées. Pour l’hydrogène vert, le coût des électrolyseurs est la variable à prendre en compte. Les électrolyseurs chinois coûtent moins cher que leurs équivalents européens, car les technologies ne sont pas les mêmes, même si le reste de l’installation est plus coûteux du côté chinois.
Ensuite, l’efficacité des électrolyseurs. Sur ce point, les dispositifs produits en Europe sont plus efficaces.
Enfin, et c’est là que se dessine aujourd’hui le gouffre qui sépare l’Europe de la Chine, la disponibilité en énergies renouvelables. La Chine dispose aujourd’hui d’un parc solaire et éolien performant et complémentaire, notamment grâce à sa superficie immense et des ressources inégalées en termes de vent et d’ensoleillement. C’est ce qui, aujourd’hui, laisse entrevoir une capacité plus grande de la Chine à produire de grandes quantités d’hydrogène vert dans les décennies à venir.
Un million. C’est le nombre d’objets d’origine humaine de plus d’un centimètre en rotation autour de la Terre évalué par l’Agence spatiale européenne (ou ESA pour European Space Agency). Ces débris proviennent principalement de la fragmentation de satellites obsolètes se disloquant dans l’espace. Leur nombre devrait augmenter dans les années à venir, face à la multiplication des lancements, notamment en orbite basse. Alors que 540 satellites étaient actifs en 2003 dans l’espace extra-atmosphérique, leur nombre s’élève aujourd’hui à 8 700. Entiers ou réduits à l’état de débris, ces objets polluent l’espace et peuvent entrer en collision avec des satellites encore opérationnels. L’OPECST (Office parlementaire d’évaluation des choix scientifiques et technologiques) a publié une note dans laquelle elle formule plusieurs recommandations pour remédier à cette situation.
Les auteurs conseillent « d’approfondir les efforts de surveillance et d’exploitation et de traitement des données de suivi ». Ce suivi permettra, entre autres, d’éviter encore davantage les collisions en identifiant les risques de rapprochement et de prendre une décision de manœuvre si un risque est avéré. Il faut savoir qu’en moyenne, pour chaque satellite en orbite basse, une manœuvre est réalisée chaque année et en 2023, la Station spatiale internationale a dû effectuer 6 manœuvres. L’Union européenne met déjà en œuvre un programme de suivi grâce à l’utilisation de 3 lasers, 9 radars et 28 télescopes, mais le plus grand catalogue de débris est tenu par l’armée américaine, qui recense plus de 28 000 objets de plus de 10 cm en orbite basse ou de plus de 1 mètre en orbite géostationnaire.
Autre recommandation : « suspendre tous les essais de destruction de satellites ». Seulement quatre pays l’ont fait à ce jour : les États-Unis, la Russie, la Chine et l’Inde. Pour ces derniers, il s’agit généralement d’une démonstration de force, car la destruction d’un satellite en tirant un missile depuis la terre est une prouesse, puisqu’il faut non seulement tenir compte de la longue distance, mais également de la trajectoire de la cible et sa vitesse. Dernier exemple en date avec la Russie qui a détruit en 2021 son satellite Cosmos 1408, qui orbitait autour de la terre. Il s’est éparpillé en un nuage de quelque 1 500 débris orbitaux d’au moins 10 centimètres de diamètre.
Une mission de retrait d’un débris spatial menée par l’ESA en 2026
La délivrance d’autorisations de lancement sous condition de solutions durables pour la fin de mission est une autre préconisation de l’OPECST. « Pour l’avenir, la réglementation doit inciter les opérateurs à prévoir la quantité de combustible (ergols) suffisante pour propulser vers une orbite cimetière le satellite en fin de vie », écrivent les auteurs. Ils ajoutent que des questions de coût entrent en jeu. D’après leurs estimations, « entre 85 % et 100 % des objets spatiaux ayant atteint leur fin de vie au cours de la dernière décennie en orbite géostationnaire ont déjà tenté de se conformer aux normes en vigueur relatives à la limitation des débris. Entre 60 % et 90 % d’entre eux y sont parvenus, soit en tout état de cause plus de la moitié du total de l’effectif. »
Enfin, débuter rapidement un retrait des débris les plus dangereux en orbite basse devient une nécessité face à leur multiplication. Ce travail doit être réalisé au rythme de : « environ 10 gros débris chaque année, en commençant naturellement par les 50 plus dangereux », selon un expert du CNES interrogé. En 2026, l’ESA va lancer la mission ClearSpace-1 dont l’objectif est de ramener en toute sécurité un adaptateur Vespa de la fusée VEGA, en orbite depuis 2013 et pesant 112 kg. Cette mission est réalisée à l’aide d’un bras robotique et est préparée en partenariat avec la start-up suisse ClearSpace SA. En 2018, l’ESA avait lancé une première mission d’élimination active des débris dans le cadre du projet RemoveDebris et avait démontré la viabilité de technologies telles que la capture par filet ou le harponnage. À présent, l’opérateur Eutelsat équipe ses satellites en orbite basse d’une surface de préhension ouvrant la possibilité qu’ils soient à terme récupérés par un système de grappin.
En début d’année, l’entreprise japonaise Astroscale a conduit une première expérimentation de retrait de débris en orbite grâce à un système de capture magnétique puis de désorbitation, appelé ELSA-d. Une seconde expérimentation, baptisée ADRAS-J19, a consisté à réaliser une approche afin de faciliter la récupération de déchets inertes. Le satellite ADRAS-J s’est placé en déplacement synchrone avec un étage supérieur de la fusée H2A japonaise, mesurant environ 11 mètres de long, 4 mètres de diamètre et pesant environ 3 tonnes. Il a ainsi pu caractériser l’état et la trajectoire de ce déchet, de même que les risques induits par lui. Il s’agit d’une étape préalable à une opération de retrait.
Riche en rencontres, opportunités et partages entre acteurs du secteur, industriels, académiques, laboratoires, territoires et institutionnels, START – la convention annuelle de NextMove – déclinera un programme ambitieux autour d’une convention d’affaires, d’une conférence inspirante, de visites de sites et de networking informel.
4 sites à découvrir près de Caen
Rien de tel qu’une immersion totale, pour découvrir les best practices d’écosystèmes innovants et leaders sur leur marché. L’après-midi de la convention annuelle vous proposera des visites inspirantes, en parallèle, sur pas moins de quatre sites de production ou de recherche du territoire : Calip, Le Ganil (Grand Accélérateur National d’Ions Lourds), Murata & Renault Trucks.
START, c’est business first !
Chefs d’entreprises, responsables projets, collaborateurs, boostez votre développement, en rencontrant les entreprises phares du territoire lors de rendez-vous qualifiés, préprogrammés, pour échanger avec de futurs clients, fournisseurs ou partenaires.
Une conférence prospective et inspirante
START vous propose une conférence avec une série d’interventions dynamiques sur des thèmes d’actualité, qui vous concernent, qui seront rythmées par des success stories des membres du pôle et remises de trophées
Programme et horaires
Convention d’affaire – RDV B2B : 8h-10h
Assemblée Générale des membres : 9h30-10h
Conférence prospective : 10h30-13h
Déjeuner, Expo & Networking informel : 13h-14h30
Visites de sites : 15h-17h30
NextMove, en quelques mots
Le pôle de compétitivité, créé en juin 2006 et implanté sur les Régions Normandie et Île-de-France, tisse et anime les liens entre grands industriels, PME, startups, académiques, centres de recherche et territoires dans un réseau dynamique capable pour renforcer leur compétitivité et accompagner les transitions. Il compte plus de 600 membres et accompagne plus de 600 projets labellisés (dont plus de 320 financés). C’est le plus grand réseau français d’excellence scientifique et technique où se développent des collaborations durables entre les différents acteurs de l’écosystème Automobile et Mobilités.
Plus d’informations sur la convention en cliquant ici.
« Après sa labellisation par l’État en mars 2023, le pôle de compétitivité des infrastructures et de l’aménagement des territoires est en ordre de marche. » C’est par ces mots qu’a été annoncé, en février dernier, le lancement officiel du 55e et dernier-né des pôles de compétitivité français : infra2050. « Depuis mars 2023, nous avons œuvré pour structurer ce pôle, l’organiser au niveau administratif, mais aussi opérationnel », a ainsi expliqué, en préambule d’une conférence de presse qui s’est tenue pour l’occasion le 8 février dernier à l’Hôtel de Région Auvergne-Rhône-Alpes, Cédric Moscatelli, président de cette toute jeune structure présentée comme un « catalyseur » de l’innovation technologique dans le domaine des infrastructures, au carrefour des travaux publics et du génie civil.
Organisée en amont de la cérémonie de lancement d’infra2050, cette rencontre avec la presse a été l’occasion pour son président, mais aussi pour ceux des clusters et de l’institut de recherche qu’il regroupe – Ecorse TP, INDURA et l’IREX –, de présenter en détail sa gouvernance et son fonctionnement, mais aussi de lever le voile sur quatre des quelque 36 projets que le pôle ambitionne d’accompagner d’ici à la fin de cette année.
Une double raison d’être, des ambitions, et une feuille de route comme fil rouge
Regroupant à elle seule, au niveau national, pas moins de 8 500 entreprises – pour un total d’environ 350 000 salariés –, la filière infrastructures avait un souhait, celui de renforcer ses capacités technologiques et scientifiques. Objectif : accélérer la mise en place de solutions à la hauteur des enjeux liés aux transitions climatique et numérique. « infra2050 se veut ainsi un marqueur fort de la filière technologique des travaux publics », souligne Cédric Moscatelli. « Le pôle de compétitivité va en effet permettre d’accompagner les projets collaboratifs de recherche et d’innovation, dans l’optique d’aider les territoires à atteindre la neutralité carbone, fixée en 2050 par la loi européenne sur le climat », ajoute-t-il, avant de dévoiler la double raison d’être de ce dernier-né des pôles de compétitivité français : catalyser l’innovation, certes, mais aussi contribuer à la labellisation de projets et accompagner la filière dans le domaine de la formation, tant initiale que continue.
Fort, pour l’heure, d’un peu plus de 240 adhérents[1], le pôle infra2050 ambitionne ainsi de faire grimper ce chiffre de 25 % d’ici à 2026 pour franchir alors, à cet horizon, le cap des 300 membres. Autant d’acteurs qui viendront enrichir ce réseau qui se veut avant tout un « lieu de circulation des informations sur les innovations, d’échange d’idées, d’expériences et de bonnes pratiques », tel que le décrit son président Cédric Moscatelli. Le tout avec comme fil rouge une feuille de route établie pour, mais aussi avec l’ensemble des acteurs de la filière, comme l’explique à son tour Christophe Ribette, président d’Ecorse TP. « Cette feuille de route vise à accélérer les transitions et s’articule autour de quatre enjeux majeurs », poursuit-il.
Des enjeux en tête desquels se trouvent la conception et la construction d’infrastructures bas-carbone. « La construction d’infrastructures représente en effet 3 % des émissions de CO₂ en France », souligne Christophe Ribette, décrivant ainsi une filière qui se veut sur ce plan « exemplaire ».
Sur ce plan de la décarbonation toujours, le deuxième grand enjeu autour duquel s’articule la feuille de route élaborée pour et par les acteurs du pôle, est celui de l’adaptation des infrastructures à un usage décarboné. « L’usage des infrastructures représente en effet 50 % des émissions de CO₂ en France », note le président d’Ecorse TP. Pour y remédier, le pôle compte ainsi agir sur différents tableaux, en favorisant par exemple l’évolution des modes de déplacement, la mutation énergétique des véhicules, ou encore en développant ce que Christophe Ribette nomme la « route intelligente ». « En travaillant avec l’ensemble des filières partenaires sur des interactions et des approches systémiques, il nous sera possible d’avoir un impact positif sur la non-production de CO₂ » prévoit-il ainsi, avant d’en venir au troisième point de la feuille de route d’infra2050 : celui de l’adaptation des infrastructures au changement climatique et à ses effets. « Nous devons anticiper et préparer les infrastructures aux changements de l’environnement en cours », explique-t-il en citant quelques grands champs d’action prévus : adaptation des ouvrages à l’évolution de leur environnement, réduction de leur vulnérabilité – ainsi que celle de leurs fondations – ou encore gestion des évènements et de la ressource en eau.
Enfin, c’est aussi autour d’un quatrième et ultime enjeu qu’a été établie cette feuille de route du pôle de compétitivité infra2050 : celui de l’intégration du numérique au sein des activités de la filière infrastructures. « La transition numérique est une brique fondamentale de l’action de l’ensemble de la filière. […] Le numérique va accélérer la créativité des entreprises pour répondre aux défis à relever », assure ainsi Christophe Ribette, citant notamment les pistes du BIM[2] et du jumeau numérique, du big data, mais aussi le sujet – crucial – de la cybersécurité.
Autant d’actions, réparties autour de quatre grands enjeux, qui permettront ainsi à infra2050 de mettre en œuvre, plus fondamentalement, les quatre grandes missions qu’il s’est fixées :
accompagner 25 % de ses adhérents vers les guichets France 2030 ;
participer à la territorialisation de France 2030 ;
développer l’accompagnement à la transition écologique des acteurs de la filière ;
et, enfin, renforcer les liens avec d’autres pôles de compétitivité et comités stratégiques de filières.
« Nous aurons en effet besoin de nous ouvrir à l’échelle nationale », souligne le président d’Ecorse TP. « Dans cette perspective, infra2050 vise à agiter des idées, générer des projets et produits, tout en contribuant à apporter de la visibilité à la filière Travaux publics et Génie civil », ajoute-t-il.
Pour tout cela, le jeune pôle de compétitivité entend s’appuyer sur une organisation tricéphale, reposant en effet à la fois sur un conseil d’administration, un comité de labellisation, mais aussi un conseil scientifique, composé à parts égales de représentants des sphères académique et économique.
Une assise scientifique solide, à l’appui de multiples projets
« Le pôle infra2050 s’est doté d’un conseil scientifique de trente personnes, issues pour 50 % du monde académique et 50 % du monde économique. Elles couvrent ainsi l’ensemble des expertises nécessaires pour aider, tout à travers l’Hexagone, nos adhérents à relever les défis qui sont les leurs », explique le troisième orateur de cette conférence de presse organisée en février dernier, Pierre-Alain Roche, président de l’Institut pour la Recherche appliquée et d’Expérimentation en génie civil (IREX). Trente « experts de très hauts niveaux », tels qu’il les décrit, placés sous la houlette du directeur technique, recherche et innovation d’Eiffage, François Olard, et réparties au sein de quatre groupes de réflexion stratégique (GRS), eux-mêmes placés sous la responsabilité d’un vice-président. « Président et vice-présidents ont la responsabilité de la bonne application de la procédure la plus emblématique d’un pôle de compétitivité : la labellisation de projet », souligne notamment Pierre-Alain Roche. « Bien évidemment, l’ensemble des membres participants aux comités de labellisation sont soumis à une confidentialité stricte », ajoute-t-il, en mettant également en avant une organisation en petits comités favorisant un travail rapide et « agile » de labellisation de projets.
Des projets collaboratifs restreints, jusqu’à des projets ouverts menés à l’échelle nationale, voire internationale. « infra2050 intervient notamment sur un type de projet particulier, dit “Projet National” (PN) », note Pierre-Alain Roche.
Et outre ces PN, ce sont aussi un certain nombre de projets « emblématiques », tels que les qualifie le président d’infra2050 Cédric Moscatelli, auquel le tout jeune pôle de compétitivité a d’ores et déjà pris part et qu’énumère, à son tour, le président du cluster Infrastructures durables Auvergne-Rhône-Alpes (INDURA), Paul Galonnier :
Autant de témoignages du rôle de « catalyseur d’innovation » qu’a d’ores et déjà su endosser ce tout jeune pôle de compétitivité de la filière infrastructures, infra2050.
infra2050 : une genèse en trois temps
« infra2050 est le fruit de la volonté commune de trois associations : le cluster Ecorse TP en Bourgogne-Franche-Comté, INDURA en Auvergne-Rhône-Alpes, et l’IREX » retrace le président du pôle de compétitivité Cédric Moscatelli. Trois structures qui ont ainsi uni leurs forces pour faire naître, en trois temps, ce catalyseur de l’innovation en matière d’infrastructures.
La première étape préalable à sa création a ainsi été le lancement fin 2019, aux côtés de deux autres entités, du hub Innov’Infra, tourné notamment vers la mise en place de projets collaboratifs.
C’est ainsi que le 27 mars 2023, Roland Lescure, Ministre délégué chargé de l’Industrie, annonce la labellisation d’infra2050, à l’occasion de l’assemblée générale de l’Association française des pôles de compétitivité. Un pôle soutenu, depuis lors, par la Fédération nationale de Travaux publics (FNTP) et Syntec Ingénierie – qui en sont membres associés – mais également par le ministère de l’Économie, des Finances et de la Souveraineté industrielle et numérique, ainsi que les régions Auvergne-Rhône-Alpes et Bourgogne-Franche-Comté.
[1] Parmi lesquels 73 start-up et PME, 54 laboratoires et centres de recherche, 64 ETI et grandes entreprises, 13 maîtres d’ouvrage, 20 établissements de formation et d’enseignement ainsi que 19 syndicats de spécialités et autres partenaires.
Les récifs coralliens sont extrêmement précieux. Ils abritent au moins un quart des espèces marines et contribuent à l’alimentation de centaines de millions de personnes. Ils fournissent également un habitat aux poissons et à d’autres espèces marines. En 2021, l’agence américaine d’observation océanique et atmosphérique (National Oceanic and Atmospheric Administration ou NOAA) estimait qu’entre 30 et 50 % d’entre eux avaient déjà disparu sur la planète et prédisait que si rien n’était fait, les écosystèmes des récifs tropicaux pourraient être confrontés à une extinction d’ici à la fin du siècle. Aujourd’hui, elle sonne l’alerte, car la planète subit un quatrième épisode mondial de blanchissement des coraux et le second en dix ans.
Ce phénomène est lié à l’augmentation persistante des anomalies de température océanique observées et modélisées dans de vastes zones des océans Atlantique, Pacifique et Indien. Les coraux hébergent dans leurs tissus des microalgues appelées zooxanthelles qui leur donnent leur couleur. Lorsque ces microalgues sont stressées, comme c’est le cas avec la montée en température de l’eau de mer, elles sont expulsées par les coraux dont les tissus transparents laissent alors apparaître leur squelette blanc.
« De février 2023 à avril 2024, un blanchissement important des coraux a été documenté dans les deux hémisphères sud et nord de chacun des principaux bassins océaniques », déclare le docteur Derek Manzello, coordinateur de la surveillance des récifs coralliens (le Coral Reef Watch ou CRW) de la NOAA. Au total, 53 pays, territoires et économies locales sont concernés parmi lesquels la Floride, les Caraïbes, l’océan Pacifique tropical Est, la Grande Barrière de corail d’Australie, ainsi que de vastes zones du Pacifique Sud, de la Mer Rouge, du golfe Persique et du golfe d’Aden.
Un blanchiment sévère et prolongé peut entraîner la mort des coraux
Ce blanchissement a été mis en évidence grâce à la surveillance du stress thermique basée sur des données de température de surface de la mer et l’utilisation de satellites qui permettent d’établir des cartes de zone d’alerte du blanchiment avec une résolution de 5 km. Il doit encore être confirmé dans chaque bassin océanique pour pouvoir affirmer de manière définitive qu’il s’agit bien d’un phénomène mondial. Mais des rapports locaux signalant un blanchissement étendu dans plusieurs régions de l’océan Indien occidental, comprenant la Tanzanie, le Kenya, Maurice, les Seychelles, l’île Tromelin, Mayotte, ainsi qu’au large de la côte ouest de l’Indonésie, ont d’ores et déjà confirmé ce phénomène.
Depuis de nombreuses années, plusieurs prédictions de modèles climatiques suggèrent que le blanchissement devrait s’accroître dans le futur. « Avec le réchauffement continu des océans de la planète, le blanchissement des coraux augmente en fréquence et en intensité », explique le docteur Manzello. Lorsque les épisodes de blanchissement sont suffisamment sévères ou prolongés, ils peuvent entraîner la mort des coraux, ce qui peut avoir un effet négatif sur les services rendus par les récifs coralliens aux populations qui en dépendent pour leur subsistance. » Malgré tout, ce blanchissement des coraux n’entraîne pas systématiquement la mort de ceux-ci. Si le stress à l’origine du blanchissement diminue, les coraux peuvent se rétablir et les récifs maintenir leur biodiversité et continuer à fournir des services écosystémiques.
Ce phénomène de blanchiment nécessite des actions à l’échelle mondiale. Depuis 1995, l’ICRI (International Coral Reef Initiative), une initiative internationale qui regroupe 101 membres dont 45 pays gardiens de 75 % des récifs coralliens du monde, mène des actions de gestion des récifs basées sur la résilience. Plusieurs méthodes sophistiquées d’intervention et de restauration ont été développées pour faire face au changement climatique. Par exemple, face à l’épisode de canicule qu’a connu la Floride en 2023, des pépinières de corail ont été déplacées dans des eaux plus profondes et plus froides et des parasols ont été déployés pour protéger les coraux dans d’autres zones afin de contrer les impacts négatifs de l’augmentation des températures de l’eau.
Au sein de l’hôpital Kitano d’Osaka, l’équipe de Katsutoshi Takahashi, le directeur de recherche et chef du service de chirurgie dentaire, a mis au point un médicament capable de faire repousser les dents chez des souris et des furets.
Ils ont en effet découvert que les souris qui étaient dépourvues d’un gène particulier possédaient un nombre accru de dents. Cela est lié à la protéine USAG-1 synthétisée par le gène en question et qui limite la croissance dentaire. L’équipe de recherche a ensuite développé un anticorps susceptible de bloquer la fonction de la protéine et donc de favoriser la pousse des dents dites « tertiaires ». En 2018, les scientifiques ont inoculé à des souris et des furets, présentant peu de dents à la naissance, un traitement à base de cet anticorps. Les animaux ont vu leurs dents repousser. « La capacité de faire pousser des dents est le souhait de tout dentiste. Je travaille là-dessus depuis que je suis diplômé. J’étais convaincu que je serais, un jour, capable de réaliser ce rêve », a déclaré Katsutoshi Takahashi.
Bientôt chez l’humain ?
Forts de ces résultats, les scientifiques ont annoncé qu’ils lanceraient les premiers tests chez l’humain en juillet 2024. Le traitement sera administré à trente hommes adultes entre 30 et 64 ans en bonne santé et qui présentent tous au moins une dent postérieure en moins (molaire ou prémolaire). Ces tests se dérouleront ensuite jusqu’en août 2025 à l’hôpital universitaire de Kyoto.
Si cette première étape est validée chez les hommes (aucune mention n’est faite de tests chez les femmes), les chercheurs testeront l’efficacité du médicament sur des enfants de 2 à 7 ans souffrant d’agénésie dentaire et à qui il manque au moins quatre dents. Cette pathologie est héréditaire et se caractérise par un nombre de dents inférieur à celui d’une dentition complète (32 dents). Elle touche environ 1 % de la population mondiale. Elle peut être handicapante pour l’élocution et l’alimentation.
Les chercheurs espèrent que le traitement, au début réservé uniquement aux personnes souffrant d’agénésie dentaire, sera mis sur le marché en 2030 et leur permettra de retrouver une dentition complète. Mais ils n’excluent pas la possibilité que le médicament soit, dans le futur, accessible à tous et fasse repousser les dents perdues à cause de caries ou d’accidents et ainsi limiter le recours aux dentiers ou aux implants.
Dans un monde où l’industrie agroalimentaire évolue à une vitesse fulgurante, il est essentiel de concilier innovation et performance. L’innovation dans ce domaine ne se limite pas seulement à la création de nouveaux produits, mais englobe également des avancées technologiques, des pratiques agricoles durables et des méthodes de distribution efficaces.
Les nouvelles technologies telles que la biotechnologie, l’agriculture de précision et l’automatisation des tâches agricoles permettent d’augmenter la productivité des cultures. De plus, l’innovation dans les méthodes de la conservation et de la distribution garantit que les aliments parviennent aux consommateurs de manière efficace et sécurisée, réduisant ainsi le gaspillage alimentaire.
Dans ce contexte, l’accès à des informations scientifiques de pointe est crucial pour répondre aux enjeux évolutifs de l’hygiène, de la sécurité alimentaire et du respect de la réglementation.
C’est pourquoi nous vous donnons un accès gratuit à cinq ressources exclusives conçues pour vous fournir les connaissances nécessaires pour innover, améliorer la compétitivité et adopter des pratiques durables. Ces articles se trouvent dans les offres : agroalimentaire, fabrication additive – impression 3D et chimie verte.
La démarche qualité peut s’appliquer dès la conception et l’exploitation des outils. Elle permet d’optimiser le fonctionnement des règles et procédures liées à l’activité de transformation.
La recherche de sources et de protéines durables et nutritives est devenue une priorité absolue pour répondre aux défis environnementaux et nutritionnels actuels.
Des solutions aux problématiques environnementales pour une transition vers les systèmes alimentaires plus durables en améliorant la performance des aliments, bioproduits, bioprocédés et procédés alimentaires.
Une nouvelle approche pour une nourriture saine avec des saveurs nouvelles. La fabrication additive est le candidat idéal pour répondre à ces nouvelles attentes.
En France, les citoyens se rendront aux urnes le 9 juin pour élire 81 eurodéputés. 38 listes sont en lice, un record. Parmi elles, seulement 7 dépassent les 5% dans les intentions de vote. Au-delà des thématiques qui font l’actualité ces dernières semaines – sécurité, Ukraine, immigration, économie, souveraineté nationale… -, l’avenir de l’industrie européenne se joue aussi en ce début du mois de juin.
Un sujet qui touche chaque citoyen européen et l’activité industrielle dans son ensemble, à savoir le prix de l’énergie, et le bouquet qui le sous tend, fait l’objet d’attentions particulières dans les programmes des sept listes en tête des sondages, avec l’éternel débat sur la place de l’énergie nucléaire, qui reste d’actualité.
Qu’est-ce qui différencie les septs listes majoritaires à travers les programmes énergétiques de Reconquête, France Insoumise, Rassemblement National, les Ecologistes-EELV, Renaissance, les Républicains, et le Parti Socialiste-Place Publique ?
La France Insoumise milite toujours pour une sortie planifiée complète du nucléaire – et l’exclusion de cette énergie en tant qu’énergie renouvelable dans la taxonomie européenne -, ainsi que du marché européen de l’électricité, avec l’objectif de créer un pôle public de l’énergie. Ce pôle public serait indépendant du marché européen de l’électricité… mais les interconnexions avec nos voisins seraient maintenues.
La liste socialiste ne milite pas pour une sortie du nucléaire, considérant l’atome comme une énergie de transition… Raphaël Glucksmann, la tête de liste, affirme ne pas être hostile aux nouveaux EPR – une position qui n’a pas l’air d’être unanimement partagée par ses colistiers – et souhaite que les investissements futurs ne soient pas orientés outre mesure vers le développement de l’énergie atomique.
Du côté de Renaissance, la liste du parti présidentiel, Valérie Hayer, la tête de liste, affirme vouloir que l’UE investisse 1000 milliards d’euros dans l’écologie et les technologies, avec l’ambition de poursuivre la mise en place d’un bouquet énergétique où se côtoient énergies renouvelables et nucléaire. Et le triplement de la production nucléaire d’ici à 2050, avec le développement, si possible, de projets dans les pays européens qui ne se sont pas encore lancés dans l’aventure atomique. Enfin, l’accent est mis sur la nécessité de sortir de toute dépendance énergétique vis-à-vis de la Russie d’ici l’année 2025, via notamment le développement des réacteurs nucléaires de petite taille.
François-Xavier Bellamy, tête de liste du parti Les Républicains, a toujours affiché son soutien à l’énergie nucléaire. Il reste sur cette ligne, et inclut dans son programme le principe de liberté technologique, laissant à chaque pays le soin de mettre en place un bouquet énergétique propre, tant que ce dernier reste dans les clous des ambitions écologiques et décarbonées du vieux continent.
Bâtir un plan européen de relance de la filière électronucléaire. C’est l’objectif de Marion Maréchal, la tête de liste de la liste Reconquête. Pour ce faire, un plan d’investissement de 500 milliards d’euros, financé par les fonds européens et nationaux, mais également par l’épargne des contribuables européens.
Du côté des écologistes, la position anti nucléaire, historique, s’accompagne de la volonté de disposer d’un bouquet énergétique 100% renouvelable dès 2040. La tête de liste, Marie Toussaint, veut modifier la taxonomie européenne pour exclure l’énergie nucléaire des investissements consacrés aux énergies vertes, et reste farouchement opposée à l’enfouissement des déchets issus de la production d’électricité nucléaire.
Enfin, le Rassemblement National et sa tête de liste Jordan Bardella ont promis de faire baisser la facture énergétique des français, de près de 40% ! Pour y parvenir, le RN veut investir massivement dans les technologies d’avenir, à savoir le nucléaire nouvelle génération, l’hydrogène et la géothermie. Le programme du RN est également défavorable à l’implantation de nouvelles éoliennes, et à la libéralisation des concessions des barrages hydroélectriques.
Bien qu’elle soit encore peu répandue, la fabrication additive de verre semble sortir progressivement du laboratoire, avec des procédés innovants et des machines à usage commercial.
Maple Glass Printing, fondée en 2017, en est le parfait exemple. Cette start-up australienne a ainsi mis au point un procédé d’extrusion du verre permettant aussi bien de réaliser des œuvres d’art ou d’architecture que des instruments de laboratoire.
Il faut savoir que la fabrication d’objets en verre « complexes » par des moyens traditionnels est peu accessible. D’un côté, les méthodes artisanales nécessitent de solides compétences, de l’autre, les méthodes industrielles impliquent l’utilisation de moules et une production en grande série. Le process mis au point par Maple Glass Printing permet ainsi de produire des motifs complexes à la demande, tout en gardant la possibilité de les assembler à des pièces en verre traditionnelles.
Un procédé économiquement abordable
Le procédé est, d’une part, économe en énergie, puisque les deux imprimantes 3D qui viennent d’être mises sur le marché, Maple 2 et Maple 3, « consomment moins d’électricité qu’un sèche-cheveux classique ».
D’autre part, Maple Glass Printing a énormément travaillé sur la fabrication de la matière première, pour des raisons aussi bien environnementales qu’économiques.
En effet, contrairement à l’impression FDM, qui utilise des bobines de filament, le verre utilisé par la machine est sous forme de « cannes », le verre étant rigide et cassant. Or, ces tiges de verre traditionnellement fabriquées à la main ont deux inconvénients : elles sont coûteuses et leur diamètre est peu reproductible. Pour résoudre ce problème, les Australiens ont ainsi mis au point une machine, Vitri-Glass, capable de tirer des cannes droites et régulières, de 3,5 à 6 mm de diamètre, tout cela à partir de verre recyclé.
L’utilisation de verre recyclé : une évidence !
Car au-delà des énormes avantages techniques apportés par l’impression 3D (pièces complexes, petites séries, personnalisation, etc.), l’intérêt du verre est aussi sa recyclabilité qui est, en théorie, infinie.
Or, la principale matière première qui entre dans la fabrication du verre est le sable, la 3e ressource la plus consommée au monde après l’air et l’eau ! L’utilisation de verre recyclé, notamment en construction, est ainsi une solution bien plus durable, qui limite le besoin en sable et permet de réduire les émissions de CO2.
L’idée n’est d’ailleurs pas nouvelle : en 2016, la Fondation Ellen MacArthur proposait déjà cette solution dans une étude de cas, en faisant référence à des projets pilotes réalisés outre-Atlantique. Le principal inconvénient évoqué à l’époque était alors le coût, l’utilisation de poudre de verre pouvant faire grimper de 2 à 5 % le prix du béton.
Néanmoins, cette solution alternative ne doit pas être pour autant définitivement écartée ! La raréfaction du sable et le risque de pénurie vont faire grimper les coûts, mais ces hausses ne sont rien, comparées aux gigantesques coûts associés aux conséquences de la surexploitation du sable : érosion des côtes, disparition des plages, perte de biodiversité, etc.
L’impression 3D de béton s’industrialise
Construire de manière plus durable est devenu une nécessité. L’an dernier, nous avions interviewé le fondateur de XtreeE, spécialiste français de l’impression 3D béton pour le bâtiment, dont les machines permettent de « travailler avec des matériaux à faible impact environnemental, mais aussi de créer des structures allégées » et d’utiliser des matériaux formulés à partir de matières premières sourcées localement.
L’impression 3D de béton possède donc des avantages évidents, s’industrialise de plus en plus et les projets d’envergure se multiplient. Les premières certifications ATEx du CSTB ont d’ailleurs été accordées il y a plusieurs années et des logements imprimés en 3D béton sont déjà sortis de terre. C’est le cas du projet Viliaprint, porté par le bailleur social Plurial Novilia et qui a pris fin en 2022 avec l’inauguration de cinq maisons imprimées en 3D béton à Reims. Par ailleurs, le projet ViliaSprint2, concernant la construction d’un immeuble de deux étages par impression 3D béton directement sur site, est actuellement en cours.
Un béton imprimé en 3D contenant du verre recyclé à la place du sable
L’exploration de multiples formulations de bétons imprimables fait bien entendu partie des enjeux de tels projets. Des chercheurs du Nanyang Technological University de Singapour (NTU Singapore) proposent par exemple de remplacer le sable par du verre recyclé.
Du point de vue technique, l’ajout de verre recyclé a démontré un bon potentiel : une fluidité suffisante pour permettre une extrusion régulière, pas de déformation ni d’effondrement avant la prise du béton et une consommation d’eau réduite, directement liée au caractère hydrophobe du verre.
Le démonstrateur réalisé, un banc en L de 40 cm, a ainsi été imprimé en remplaçant 100 % du sable par du verre. L’équipe a donc prouvé qu’utiliser du verre à la place du sable était réalisable, du moins pour des applications non structurelles.
La fabrication additive à base de verre à de l’avenir !
Qu’il s’agisse d’incorporer du verre recyclé dans la formulation de matériaux pour l’impression 3D (composites, bétons, plastiques, céramiques…) ou d’impression de verre massif, l’utilisation de verre recyclé en fabrication additive a incontestablement de l’avenir.
L’impression de verre ne se limite d’ailleurs pas à l’extrusion (procédé MAPLE) et les procédés évoluent : l’Institut Carnot ICÉEL propose ainsi la fabrication directe d’objets en verre, sans additifs ni liants, par laser. Le Glass Laser Additive Manufacturing (GLAM) rend accessible l’impression 3D au secteur du verre et permet la mise en forme de petits volumes complexes, avec une reproductibilité accrue et une flexibilité que seule l’impression 3D peut apporter.
Depuis 1993, le marché unique européen assure la libre circulation des biens, des services, des capitaux et des personnes au sein d’un même espace économique. Plus de 30 ans après sa création, à la demande du Conseil européen, Enrico Letta, ancien Premier ministre italien et Président de l’Institut Jacques Delors, vient de remettre un rapport aux vingt-sept états membres afin de moderniser ce marché. Dans un document de 150 pages, il explore plusieurs pistes pour réformer le marché unique afin d’éviter un décrochage économique du Vieux Continent et l’adapter face aux grands défis mondiaux auxquels l’Union européenne (UE) est confrontée. Plusieurs recommandations concernent le secteur de l’énergie.
Le rapport insiste sur l’urgence de renforcer l’intégration des marchés européens de l’électricité dans un contexte de transition vers un système énergétique sans carbone. « Chaque pays doit avoir confiance en sa capacité à s’approvisionner à tout moment en énergie auprès de ses voisins », écrit l’homme politique italien.Le but de cette interconnectivité est d’améliorer la compétitivité de ce marché ainsi que répondre à une consommation croissante en électricité tout en intégrant la production d’énergies renouvelables. Selon le rapport, cette coopération transfrontalière est l’une des conditions pour réduire les coûts du système électrique et au final la facture pour les consommateurs.
Enrico Letta souligne la nécessité de repenser l’infrastructure physique du réseau électrique pour garantir une connectivité transparente entre les différents segments du marché unique. Pour cela, « l’Europe a besoin d’un processus de planification et de livraison plus synchronisé entre les différents secteurs énergétiques et les frontières nationales. » Les investissements requis pour renforcer les réseaux de transport et de distribution d’électricité sont conséquents et sont estimés à 584 milliards d’euros d’ici à 2030. Et parce que qu’il sera difficile d’imputer tous les investissements nécessaires sur les tarifs payés par les consommateurs, l’ex-premier ministre italien recommande de développer de nouveaux instruments financiers, comme des obligations vertes, pour attirer les capitaux privés.
Créer une agence européenne de l’énergie propre
Un point important du rapport concerne la sécurisation des infrastructures critiques. Étant donné que le système énergétique sera caractérisé par une myriade d’installations d’énergies renouvelables, telles que des parcs éoliens et des panneaux solaires offshore et terrestres, et des réseaux et compteurs avancés pour la transmission de données critiques, il existe un risque de sabotage ou de transfert de données non autorisées. Enrico Letta conseille d’intégrer des mesures de cybersécurité dès les achats de nouvelles infrastructures ou d’actifs de production et de mettre en place des règles efficaces de contrôle des investissements étrangers dans les secteurs stratégiques.
Autre préconisation avec la création d’une agence de l’énergie propre dont les missions se répartiraient selon quatre axes avec tout d’abord le soutien au développement de marchés émergents, à commencer par celui de l’hydrogène. Ensuite, l’agence devrait contribuer au déploiement d’infrastructures transfrontalières intégrées grâce à des subventions. Elle aurait aussi pour rôle de superviser des programmes d’incitation au déploiement à grande échelle de technologies propres, en particulier en direction du secteur industriel. Et enfin, elle fonctionnerait « comme un guichet unique pour les entreprises et les parties prenantes, en offrant un accès à des programmes de certification, des conseils personnalisés sur les sources de financement et une assistance dans les procédures d’autorisation. »
Pour favoriser la diversification énergétique et renforcer la résilience de la chaîne d’approvisionnement, l’Europe devrait également, selon Enrico Letta, s’engager dans une coopération avec des partenaires énergétiques fiables. « L’UE doit repenser et réorienter sa diplomatie énergétique vers d’anciens et de nouveaux acteurs stratégiques, de l’Ukraine et du voisinage oriental au bassin méditerranéen, en passant par l’Afrique et le Golfe », écrit-il. Par exemple, en renforçant l’interconnexion des gazoducs de l’Afrique du Nord vers l’Italie, l’Autriche et l’Allemagne et en la modernisant pour qu’elle soit compatible avec l’hydrogène. Ou alors, en construisant de nouvelles interconnexions d’électricité verte depuis les pays de la rive orientale de la Méditerranée vers les pays de l’UE ou à travers la mer Noire vers la Roumanie, la Hongrie et au-delà.
Au printemps, il aura plu, beaucoup plu. À tel point qu’au 1er mai, 65 % des niveaux des nappes phréatiques étaient au-dessus des normales mensuelles. Une situation « bien meilleure » qu’en 2023, selon le Bureau de recherches géologiques et minières (BRGM). D’après le Bilan climatique du printemps 2024 publié par Météo-France ce lundi 3 juin, la saison se place au quatrième rang des printemps les plus pluvieux depuis le début des mesures en 1959. « Le printemps 2024 est même le second printemps le plus pluvieux dans plusieurs villes comme Nice, Lyon ou Strasbourg », partage l’établissement public.
Il y aura eu 45 % de précipitations en plus par rapport aux normales 1991-2020. Côté précipitations, le printemps 2024 s’établit derrière ceux de 2001 (+57 %), 1983 (+52 %) et 2008 (+47 %). Cette tendance pluvieuse s’est confirmée au mois de mai 2024, qui devient le cinquième mois de mai le plus pluvieux depuis le début des mesures, derrière 2013, 1981, 1983 et 1984. Ces pluies parfois particulièrement intenses ont entraîné des inondations et des coulées de boue importantes en Bourgogne, dans le Centre-Ouest, en Lorraine, en Alsace et dans l’Aisne. « Sur le Poitou, les Charentes, le nord de l’Alsace et la Lorraine ainsi que sur les Cévennes ardéchoises ou encore la Côte d’Azur, il est tombé deux fois plus de pluies que la normale », calcule Météo-France.
S’il a beaucoup plu, les Français ont peu vu le soleil cette saison. Le pays enregistre un déficit d’ensoleillement proche de 20 % sur le printemps, qui atteint 30 % localement dans le nord-est de la France. Dans le Centre-Ouest, le déficit a même atteint près de 40 %. Le mois de mai 2024 est ainsi le troisième mois de mai le moins ensoleillé, après mai 1984 et mai 2013.
Des températures toujours au-dessus des normales
Si les pluies abondantes et le manque d’ensoleillement pourraient faire penser que le mois de mai a été froid, il n’en est rien. « Les températures restent supérieures aux normales en moyenne sur la saison, avec une anomalie de +0,8 °C par rapport aux normales 1991-2020 », assure Météo-France. Un signe que la tendance au réchauffement climatique est bien toujours à l’œuvre.
Le temps maussade de mai ne devrait pas faire oublier que de nombreux records de chaleur précoce ont été battus pendant les deux premières semaines d’avril. Météo-France évoque des températures moyennes de 3 à 6 °C au-dessus des normales du 4 au 8 et du 12 au 14 avril. Sur le mois, « deux records mensuels nationaux ont été enregistrés dans les Pyrénées-Atlantiques le 6 avec une température minimale de 22,5 °C à Biarritz et une température maximale de 33,9 °C à Navarrenx », résume l’établissement. Le 13 avril, il a fait jusqu’à 26,7 °C à Paris, soit 10 °C au-dessus de la normale.
Météo-France souligne « un mois coupé en 2 », alors que la deuxième quinzaine d’avril a connu le retour de gelées tardives en plaine et des chutes de neige sur les massifs à basse altitude. Le 23 avril, il faisait -3,5 °C à Guéret dans la Creuse, soit -8 °C en dessous de la normale. Et pour finir, la journée du 1er mai a été très contrastée, avec 12,5 °C à Toulouse, alors qu’il faisait jusqu’à 28,6 °C à Strasbourg.
Mais quel temps fera-t-il cet été ?
Est-ce qu’un printemps maussade annonce un été plutôt chaud ou doux ? « Il n’y a généralement pas de lien direct entre la météo du printemps et celle de l’été qui suit », répond Météo-France. Pour les mois de juin, juillet et août, l’expert de la météo et du climat estime que le scénario le plus probable concerne « des conditions plus chaudes que la normale », avec une probabilité plus marquée pour les régions méditerranéennes. Pour les pluies, le sud-ouest et le pourtour méditerranéen seront probablement plus secs que la normale. Mais cela n’exclut pas des épisodes ponctuels avec une pluviométrie pouvant être localement importante.
« Prévoir un scénario plus chaud que la normale sur trois mois n’implique pas nécessairement la survenue de vagues de chaleur ou de canicules », prévient Météo-France. L’organisation précise que ses équipes parviennent aujourd’hui à bien prévoir des configurations météorologiques propices aux canicules, mais seulement 8 jours en avance.
Plus de 11 000 startups de plus de 50 pays ont participé à l’événement. Plus de 350 innovations ont été présentées, dont des dizaines d’exclusivités et de premières. Vivatech est devenu au fil des ans le salon où il faut se rendre si l’on souhaite découvrir ou appréhender des innovations qui auront un impact sur notre vie de tous les jours et sur notre travail.
Premier constat, ce salon est une formidable vitrine sur l’innovation mondiale. La preuve, cet événement a mis l’accent sur le Japon, en présentant plus de 40 de ses meilleures startups.
Une zone Africatech a permis de découvrir plus de 100 startups. Et pour la première fois, le Canada a participé à l’événement, avec une soixantaine d’entreprises.
Mais quels sont les innovations ou les projets les plus intéressants que nous avons pu repérer en parcourant les stands de quelque 350 exposants ? Différentes thématiques ont été plus traitées que d’autres, comme l’intelligence artificielle et la cybersécurité. Concernant justement la confiance numérique (qui se trouve à la croisée de l’IA et de protection des données), nous avons en particulier retenu le deepfake mirror de La Poste.
Le groupe a présenté de nombreuses solutions intégrant l’intelligence artificielle telles que La Poste GPT et le robot casier autonome de livraison de colis. Mais le Deepfake Mirror est l’une des solutions les plus intéressantes.
Le Deepfake Mirror est un outil pédagogique et préventif destiné à sensibiliser les visiteurs aux risques d’usurpation d’identité. Il fournit également des informations sur les solutions existantes pour protéger son identité en ligne.
Une alternative à l’IA américaine
Présenté par Docaposte, filiale de La Poste, l’objectif de cette innovation est de démontrer l’abus potentiel de l’intelligence artificielle dans la création de deepfakes. Ce procédé utilise des algorithmes d’apprentissage automatique pour analyser, cartographier et imiter la voix ou les expressions faciales d’une personne capturées dans un média source tel qu’une vidéo ou une image.
Autre stand très intéressant, celui de Mistral AI qui, à travers le discours de Arthur Mensch, a également présenté ses dernières avancées et visions. Le cofondateur de la startup française a notamment indiqué qu’il s’inquiétait du fait que « les États-Unis pourraient créer des applications pour tous les logiciels. Pour nous, c’est une préoccupation, mais ce n’est pas inévitable ».
Avec son nouveau tour de table de 385 millions d’euros fin 2023, la licorne française qui entend défier Meta et OpenAI, est désormais valorisée à plus de 2 milliards de dollars. Mistral AI a d’ailleurs rejoint la promotion 2024 du programme French Tech Next40/120, qui sélectionne les 120 startups françaises les plus prometteuses. Lancée en 2019, la Mission French Tech a pour objectif de faire émerger des leaders technologiques de rang mondial.
Lors d’une intervention à Vivatech, Elon Musk a affirmé que l’intelligence artificielle prendra tous nos emplois et que ce ne sera pas nécessairement une mauvaise chose. Selon le patron de Tesla, les emplois seraient « optionnels ». « Si vous voulez faire un travail qui est un peu comme un hobby, vous pouvez faire un travail. Mais sinon, l’IA et les robots fourniront tous les biens et services que vous souhaitez ».
Pour assurer la sécurité des Jeux olympiques et paralympiques de Paris, un système de QR code est mis en place par les autorités. Le but : filtrer les entrées de certaines zones particulièrement sensibles au risque d’attentat. Une plateforme pour obtenir ce laissez-passer numérique a été ouverte par la préfecture de Police de Paris. Ce document est indispensable pour certaines catégories d’usagers qui auraient besoin de se déplacer dans le périmètre de sécurité. C’est le cas des personnes habitant dans ces zones ou qui y travaillent, ainsi que celles qui ont besoin de s’y rendre pour par exemple aller à un rendez-vous professionnel ou médical. Les spectateurs munis d’un billet pour la cérémonie d’ouverture ou les épreuves sportives n’auront pas besoin de ce « Pass-jeux ».
Ces QR codes vont permettre d’améliorer la gestion des foules aux abords des sites et de vérifier rapidement l’identité des personnes, en réduisant les files d’attente. Ils permettront aussi de minimiser les risques de fraude puisqu’une enquête administrative est effectuée à chaque demande. Plusieurs informations personnelles sont demandées pour obtenir le sésame, comme le nom, prénom, date et lieu de naissance et adresse… Il faudra aussi ajouter une photo d’identité récente, ainsi qu’un justificatif motivant sa demande (justificatif de domicile, d’hébergement temporaire, de travail ou de visite dans la zone pour par exemple se rendre à un rendez-vous médical).
La technologie pour mettre en œuvre ces QR codes n’est pas nouvelle, ceux-ci n’étant ni plus ni moins qu’un code-barre bidimensionnel qui renvoie à une base de données pour en contrôler la véracité. Avant Paris, d’autres pays hôtes des JO sont allés beaucoup plus loin dans la sécurisation numérique. À l’image de Tokyo, où les autorités japonaises avaient déployé un système de reconnaissance faciale pour assurer la sécurité et fluidifier les allées et venues des athlètes, des membres de leur staff, des bénévoles et des journalistes. En 2022, la Chine avait à son tour usé d’un arsenal de surveillance plus généralisé puisqu’en plus de la reconnaissance faciale, une application obligatoire anti-Covid était soupçonnée d’espionner les utilisateurs, de même que le réseau internet du village olympique.
La vidéosurveillance intelligente sera testée pendant les Jeux
Pour les JO de Paris, une « loi olympique », votée en 2023, interdit l’usage de la reconnaissance faciale ainsi que toute forme de recoupement de fichiers, mais elle permet d’expérimenter la vidéosurveillance intelligente. Le traitement par l’intelligence artificielle (IA), appelé « caméra augmentée », sera capable de détecter automatiquement huit types d’événements : non-respect du sens de circulation, franchissement ou présence dans une zone sensible ou interdite, mouvement de foule, densité trop importante de personnes, colis abandonnés, présence ou utilisation d’armes, personnes au sol, départs de feux.
La mise en œuvre des QR codes nécessite la création d’un fichier et soulève la question de la protection des données personnelles. Ce fichier est créé sur la base d’un arrêté du 2 mai 2011 relatif aux fichiers des résidents des zones de sécurité constitués à l’occasion d’un événement majeur. Mais cet arrêté a dû être modifié à l’occasion des JO de Paris afin notamment d’y inclure de nouvelles catégories de données (photographies, justificatifs d’accès…). La Cnil a confirmé la légitimité de ce traitement des données, mais a cependant demandé certaines modifications. Ainsi, les copies de cartes nationales d’identité, permis de conduire, passeports et titres de séjour ne seront conservées que le temps nécessaire à la délivrance du QR code, tandis que les autres données seront conservées trois mois, comme c’était déjà le cas auparavant.
Dans un article publié dans The conversation, deux chercheurs de l’Université de Bordeaux, alertent sur le fait que le choix des QR codes n’est pas anodin. « Il s’inscrit, au contraire, dans la dynamique du techno-solutionnisme qui fait du recours aux outils technologiques un principe et une solution à tout problème humain, sans penser les conséquences de cet usage systématique. Il participe également à l’accoutumance des citoyens à ces outils dans un contexte où chacun est déjà soumis aux pressions directes et indirectes des grandes entreprises du numérique », écrivent-ils.
C’est un véritable trésor souterrain que la Russie a dévoilé. Selon les révélations du journal britannique The Daily Telegraph du 11 mai dernier, RosGeo[1]aurait identifié, fortuitement, un colossal gisement d’hydrocarbures, au large des côtes glacées de la mer de Weddell en Antarctique.
La trouvaille, réalisée grâce au bateau d’exploration russe Alexandre Karpinski, date de 2020 mais n’a été révélée que récemment par la presse britannique, sur la base de documents provenant du Comité d’audit de l’environnement (EAC) de la Chambre des Communes.
Outre-Manche, les véritables intentions de la Russie sont questionnées par les députés qui soupçonnent des velléités d’exploitations minières. Selon eux, ces découvertes pourraient être le prélude à l’introduction d’appareils de forage pour l’extraction d’or noir dans cette région.
Si certains redoutent un contournement du droit international, c’est que cet immense continent de l’hémisphère sud est régi par le Traité de Washington sur l’Antarctique, entré en vigueur en 1961 et signé par plus de 50 pays. Celui-ci dispose que le continent blanc est un bien commun de l’humanité dédié à l’exploration scientifique et aux activités pacifiques. Ainsi, depuis 65 ans cette région du monde est la chasse gardée des scientifiques qui y effectuent de nombreuses recherches, notamment sur les gigantesques volcans présents.
Pour prévenir toutes autres ambitions, le protocole de Madrid, en vigueur depuis 1998, a interdit explicitement l’exploitation des ressources minières. Conclu pour cinquante ans, ce traité pourra subir des modifications à partir de 2048, qui prendraient éventuellement la forme d’une révision du cadre légal concernant l’ouverture de l’exploitation des hydrocarbures dans la zone.
Pour le moment, le sous-secrétaire d’État parlementaire pour les Amériques et les Caraïbes, David Rutley, a décidé de se montrer confiant vis-à-vis de la Russie puisque celle-ci assure ne mener des collectes de données sismiques qu’à des fins de recherches scientifiques. Il précise que la « Russie a récemment réaffirmé son engagement envers les éléments clés du traité ».
Difficile de se passer de plastique ? Nos invités Maïwenn Bégoc, consultante au cabinet de conseil Consultantseas spécialisé dans la prévention à la pollution plastique et Loïc Hénaff, PDG du groupe agroalimentaire Hénaff expliquent comment procéder.
Embarquer tout le monde dans le changement [03:13 – 09:03]
Que l’on soit une TPE/PME, traquer les plastiques de son entreprise est possible. Mais dans cette transition vers des solutions moins impactantes, il est important d’embarquer tous les acteurs de la chaîne de valeur – clients, sous-traitants, etc. – mais également les employés qui devront mettre en œuvre les nouvelles solutions. « Nous faisons travailler ensemble les entreprises, des scientifiques, des ONG, des fournisseurs, des fabricants, les acteurs de la fin de vie, etc. » affirme Maïwenn Bégoc, consultante au cabinet de conseil Consultantseas spécialisé dans la prévention à la pollution plastique.
Sur la chaîne de production et en interne [09:08 – 18:50]
Car les plastiques, que l’on imagine avant tout sur les chaînes de production, sont également présents en interne : « nous utilisons peu de plastiques en production, mais beaucoup dans l’entreprise pour des raisons sanitaires, de protection, de solidité, de tenue de palette… » précise Loïc Hénaff, PDG du groupe agroalimentaire Hénaff. Pour parvenir à identifier l’ensemble des plastiques utilisés par l’entreprise, un diagnostic est réalisé sur les emballages mis sur le marché, les emballages secondaires et tertiaires, mais également ceux d’approvisionnement, de laboratoire, etc. « Ensuite, on vient prioriser et hiérarchiser les enjeux et les plastiques à traiter » ajoute Maïwenn Bégoc.
Intégrer l’ensemble du cycle de vie [18:56 – 21:13]
Lorsqu’un choix s’arrête sur une solution, il est important de vérifier la bonne gestion de sa fin de vie. « Quand nous avons basculé nos barquettes en RPET en partie recyclé et recyclable, nous étions persuadés qu’elles pourraient aller dans les sacs jaunes du tri, mais les centres de tri autour de chez nous les refusaient au début, explique Loïc Hénaff. Petit à petit, ils les ont acceptées. Et maintenant notre fournisseur est en train de participer à la création d’un centre de réutilisation de ces barquettes. »
Et l’emballage consigné ? [21:17 – 30:10]
Une autre solution pour les emballages à usage unique de l’agroalimentaire sont les barquettes en inox consignées, comme le propose la marque Berny. « L’emballage standard est une question clé pour le secteur agroalimentaire et facilitera le réemploi, ajoute Maïwenn Bégoc. Mais pour le moment, le potentiel sur ces produits reste faible. C’est pour cela qu’on encourage à considérer le réemploi sur tous les plastiques, notamment là où l’entreprise peut avoir la main, c’est-à-dire en interne. »
– Consultantseas
– Hénaff
– La société Berny
– Surfrider
– Tara Océan
– Fondation Ellen MacArthur
– Les Pactes Nationaux
– Règles 5R / 3R : « Refuse, reduce, reuse, recycle, rot »
– La boucle de réemploi, notamment de Citeo et la notion de transfert d’impact
– Les études de l’Ademe