Ch0C : Une chaudière gaz industrielle capable d’éviter 90 % d’émissions de CO2

Selon la Première ministre, ce projet lauréat de France 2030 DEMIBaC, préalablement instruit par l’ADEME, s’inscrit pleinement dans la stratégie d’accélération de la décarbonation de l’industrie fixée par la Stratégie Nationale Bas Carbone (SNBC).

L’objectif de neutralité carbone de l’industrie, inscrit dans la SNBC, impose une transformation profonde des modes de production, puisqu’il faudra atteindre une baisse de 81 % des émissions de CO2 d’ici 2050.

D’après le communiqué de presse annonçant le démarrage du projet, le remplacement de 1 000 chaudières industrielles par cette nouvelle technologie permettrait d’éviter l’émission de 4 millions de tonnes de CO2 par an[1].

Quel est le fonctionnement de cette chaudière d’un nouveau genre ?

Le processus est décrit dans une présentation fournie par le consortium[2] et disponible à cette adresse.

À l’heure actuelle, les chaudières industrielles fonctionnent par aérocombustion. La principale innovation de la chaudière Ch0C repose sur le principe d’oxycombustion, c’est-à-dire le remplacement de l’air, lors de la combustion, par de l’oxygène.

En utilisant de l’oxygène (potentiellement produit par électrolyse), la chaudière fait entrer très peu d’azote dans le système.

Grâce à une boucle de recirculation, les deux tiers des produits de combustion sont réinjectés dans le brûleur, formant un air synthétique composé en grande majorité d’O2, de CO2 et d’H2O.

Après élimination de l’eau en sortie, cela conduit à une concentration du CO2 qui facilite sa récupération et évite jusqu’à 90 % des émissions de CO2 dans l’air.

chaudière Ch0C
Principe de fonctionnement de la chaudière Ch0C (Crédit: Naldéo Technologies et Industries)

La chaudière Ch0C présente plusieurs avantages.

  • Capture aisée du CO2 : les fumées captées en sortie contiennent au minimum 90 % de CO2, sans utiliser de procédés chimiques.
  • Technologie maîtrisée : la température du foyer est identique à celle d’une chaudière industrielle traditionnelle.
  • Compatible avec les biogaz : les industriels qui le souhaitent peuvent aussi utiliser du biométhane.
  • Une consommation en combustible réduite.

Une technologie qui soutient le développement de la filière des énergies décarbonées

La Ch0c permet à la fois de soutenir la filière de production du biométhane et de créer de nouveaux débouchés pour la valorisation du CO2. Voilà pourquoi elle s’inscrit dans le cadre de l’appel à projets DEMIBaC de l’ADEME, dont le but est de développer des briques technologiques et des démonstrateurs qui associent l’offre et la demande.

Par sa polyvalence, cette chaudière d’un nouveau genre permettra d’accroître progressivement la part du biogaz dans le mix énergétique. C’est donc une technologie pertinente pour accompagner la transition énergétique des industriels, car un approvisionnement suffisant en gaz vert permettrait à terme de transformer la chaudière en puits de carbone.

Pour ce qui est du CO2 produit par la chaudière, l’objectif est d’offrir des opportunités de valorisation aux industriels. À l’heure actuelle, trois types d’industries sont concernées :

  • les industries agroalimentaires consommatrices de CO2 ;
  • les plateformes industrielles ;
  • les industriels grands émetteurs.
Ch0C ecosystème
La chaudière Ch0C, maillon d’un écosystème complet (Crédit: Naldéo Technologies et Industries)

Une commercialisation dès 2025 ?

Le projet porté par Naldeo Technologies & Industries (qui assure la coordination de l’ingénierie) est déjà à un stade avancé, puisque la livraison du démonstrateur de 3MW est prévue pour début 2024.

La conception et l’assemblage de la chaudière seront réalisés par Bancock Wanson et Fives fournira son système de combustion Pillard®.

Le système de captage/liquéfaction du CO2 fabriqué par Verdemobil Biogaz, sera également livré avec la chaudière, sur le site industriel de Villers-Saint-Paul (60) exploité par Engie Solutions.

S’ensuivra une phase d’essais qui pourrait aboutir à une commercialisation rapide, dès 2025 !


[1] Avec les hypothèses suivantes : 1 000 chaudières à gaz de 3MW fonctionnant 7 000 h/an ; consommation de gaz associée : 21 TWh (milliards de kWh) ; réduction de 90 % des émissions de CO2 directes liées à cette consommation par rapport à une chaudière gaz classique.

[2] Composé de GRDF, GRTGaz, Total Energies, Engie, Verdemobil Biogaz, Coca-Cola Europacific Partners, Agro-Mousquetaires, Agrial, Bonduelle, Constellium, Babcock Wanson, Naldéo, Fives Pillard, Carboneo, Université de Paris

Les progrès de l’IA n’effacent pas les craintes sur ses dérives

Des modèles, tels que ChatGPT, Stable Diffusion, Whisper et DALL-E 2, sont capables d’accomplir un éventail de tâches de plus en plus large, allant de la manipulation et de l’analyse de textes à la génération d’images, en passant par une reconnaissance vocale d’une qualité sans précédent.

La proportion d’entreprises ayant adopté l’IA en 2022 a plus que doublé depuis 2017, même si elle s’est plafonnée ces dernières années entre 50 % et 60 %.

Selon les résultats de l’enquête annuelle de McKinsey. Cette adoption semble positive puisque les entreprises qui l’ont intégrée dans leurs activités constatent des avantages tangibles en termes de coûts et de revenus.

Pour l’Institut de Stanford pour l’intelligence, « l’IA va continuer à s’améliorer et, en tant que telle, à faire partie intégrante de nos vies ». Mais dans la dernière édition de son Indice AI, ce groupe interdisciplinaire d’experts du milieu universitaire et de l’industrie insiste sur la nécessité d’être vigilant.

L’industrie et l’IA

« Compte tenu de la présence accrue de cette technologie et de son potentiel de perturbation massive, nous devrions tous commencer à réfléchir de manière plus critique à la manière dont nous voulons que l’IA soit développée et à la manière dont nous voulons qu’elle soit utilisée ».

Autre raison d’être vigilant, l’IA est de plus en plus « définie comme une technologie de pointe par les actions d’un petit groupe d’acteurs du secteur privé, plutôt que par un éventail plus large d’acteurs de la société. »

Passé ce préambule, cet indice dresse un tableau de la situation actuelle de l’IA, afin de mettre en évidence ce qui pourrait nous attendre à l’avenir. Ce rapport aborde différentes thématiques et son spectre d’analyse a été élargi en passant de 25 pays en 2022 à 127 cette année.

Premier constat, l’industrie intègre de plus en plus l’IA. En 2022, 32 modèles d’apprentissage automatique ont été produits par l’industrie, contre seulement trois dans le domaine universitaire.

Les capacités d’IA sont principalement retenues pour l’automatisation des processus robotiques, la vision par ordinateur, la compréhension du texte et les agents virtuels ou chatbots. La segmentation de la clientèle (19 %) et l’analyse du support commencent à intégrer l’IA pour être plus efficace tôt en réduisant les coûts.

Progression marginale

Les publications dans les domaines de la reconnaissance des formes et de l’apprentissage automatique ont connu une croissance importante au cours des dernières années. Depuis 2015, le nombre d’articles dans ce domaine a doublé, tandis que le nombre d’articles sur l’apprentissage a pratiquement quadruplé. Viennent ensuite les travaux sur la vision par ordinateur, les algorithmes et l’exploration de données.

L’Institut tempère cette prolifération de recherches en constatant que si l’IA s’améliore, cette progression reste marginale. « Traditionnellement, les systèmes d’IA ont obtenu de bons résultats dans des tâches restreintes, mais ils ont eu du mal à accomplir des tâches plus larges », lit-on dans son rapport.

Ces experts s’inquiètent aussi des graves répercussions sur l’environnement que pourrait avoir l’IA. Selon une recherche scientifique (menée par Alexandra Sasha Luccioni, Sylvain Viguier, Anne-Laure Ligozat), l’ensemble des processus de BLOOM (un modèle linguistique de 176 milliards de paramètres) a émis 50,5 tonnes de carbone.

Néanmoins, les nouveaux modèles d’apprentissage par renforcement (ou reinforcement learning) comme BCOOLER montrent que les systèmes d’IA peuvent être utilisés pour optimiser l’utilisation de l’énergie.

Autre point d’inquiétude, la capacité des systèmes d’IA à créer des images synthétiques qui sont parfois impossibles à distinguer des images réelles, les fameux deepfakes.

La consigne pour recyclage des bouteilles plastiques ne sera pas généralisée

Christophe Béchu était très attendu aux Assises des Déchets à Nantes ce mercredi 27 septembre. Les professionnels du secteur – entreprises, collectivités, associations… – étaient réunis à la Cité des Congrès pour deux jours de débat. En conclusion de la première journée, le ministre de la Transition écologique a estimé que « la mise en place immédiate ou généralisée de la consigne pour recyclage ne rencontre pas la pleine adhésion dont nous avons besoin aujourd’hui ».

Il n’y aura donc pas de « consigne généralisée au 1erjanvier prochain », a-t-il assuré. Pour autant, il invite à poursuivre les études sur la consigne, « en particulier sur sa potentielle régionalisation ». « Si nous restions en retard […], la question de sa mise en place se poserait forcément à nouveau », prévient-il.

Suite à cette annonce, Intercommunalités de France, fédération de près de 1 000 intercommunalités représentant 80 % de la population française, se félicite « de l’abandon du projet de fausse consigne sur les bouteilles en plastique » et « d’avoir enfin été entendue ». À l’opposé, une coalition inédite de 13 acteurs réunissant notamment la Fondation Tara Océan et l’entreprise Tomra dénonce « un rendez-vous manqué ». Elles « exhortent l’État français à mettre en place un plan clair sur les moyens et la trajectoire des leviers de collecte sélective à activer dès 2024 ».

Plusieurs autres leviers à actionner localement

Le défi reste pour autant toujours de respecter l’objectif européen de collecter 90 % des bouteilles en plastique d’ici 2029. Et ce alors que le taux moyen de recyclage de ces bouteilles atteint aujourd’hui 62 % en France. Ayant pu identifier des disparités très fortes au niveau local, avec des taux de collecte « qui vont de 40 % pour l’Île-de-France à 82 % pour la Bourgogne-Franche-Comté » et donc « des interco[munalités] à 90 % et d’autres à moins de 30 % », le ministre annonce « lancer des campagnes annuelles de caractérisation des déchets de chaque intercommunalité ».

Cette nouvelle caractérisation systématique permettra d’avoir des « des bases comparables des performances des communes » et d’instaurer un système de bonus-malus. Plus globalement, le ministre dit préférer l’activation des onze leviers de performance identifiés par l’Ademe pour améliorer la collecte des bouteilles plastiques. Celles-ci vont de l’augmentation de la part de la redevance incitative à l’extension de la consigne de tri.

Possible d’augmenter la collecte sans consigne

Si le ministre reconnaît que beaucoup de pays européens ont mis en place la consigne et qu’ils ont souvent des taux de collecte élevés, ce ne serait pas l’unique solution pour y arriver. Pour appuyer son propos, il prend comme exemple le cas de la Belgique « qui est à 92 % de collecte sans consigne ».

Un autre objectif concernant les bouteilles reste sous les radars. Alors que la loi Agec prévoit une baisse de 50 % du nombre de bouteilles en plastique à usage unique pour boisson en 2030 par rapport à 2018, les pouvoirs publics et les industriels restent assez discrets sur le sujet. Christophe Béchu indique simplement qu’ « il faut baisser les tonnages de plastiques » mis sur le marché.

Un revêtement caméléon pour remplacer la climatisation

A l’arrivée de d’automne, s’éteignent les climatisations tandis que les radiateurs se remettent à chauffer. Ces systèmes traditionnels de gestion de la température ont tendance à être coûteux en énergie – bien souvent d’origine fossile. Pour agir de manière plus durable, d’autres options ont peu à peu vu le jour. Malheureusement, peintures rafraîchissantes et tuiles d’acier colorées sont limitées à un seul type de fonctionnement (refroidir et chauffer respectivement). Une équipe de recherche internationale menée par Yan Dong, doctorant au Harbin Institute of Technology (Chine), a voulu y remédier en inventant un revêtement adaptatif qui soit « chaud en hiver et frais en été ». Leur travail, inspiré d’un caméléon dont la couleur de peau varie selon la température extérieure, est présenté dans les Nano Letters du 20 septembre 2023.

Un revêtement qui varie avec les saisons

Le Namaqualand est un désert situé au sud-ouest de l’Afrique, et connu pour ces grands écarts de température quotidiens. C’est là que vit un caméléon un peu particulier, Chameleo namaquensis. Quand les températures sont élevées, ce dernier apparaît gris. La lumière solaire se reflète alors sur sa peau, lui permettant de rester au frais. À l’inverse, le refroidissement de l’air le voit passer à un brun sombre qui absorbe la chaleur ambiante. Pour reproduire cette prouesse, l’équipe de Yan Dong a mis en suspension des microcapsules thermochromiques – qui changent de couleur selon la température – avec d’autres microcapsules spécialisées. Le mélange était ensuite vaporisé sur une surface métallique. Au-delà de 20°C, le revêtement passait d’une teinte sombre à une teinte grisâtre. Et une fois atteints les 30°C, ce film protecteur reflétait jusqu’à 93 % du rayonnement reçu.

Pour valider leur invention, les chercheurs ont réalisé une batterie de tests en comparant l’efficacité de leur revêtement aux techniques existantes : peinture blanche, peinture à effet passif et tuiles d’acier bleutées. Les quatre revêtements ont été appliqués sur un bâtiment construit en extérieur à l’échelle d’une niche et étudiés sur les quatre saisons que compte une année. Le nouveau système a d’abord montré sa fiabilité en été, sa haute réflectance menant à une réduction de température de 6,5°C à l’intérieur de la « niche » par rapport aux conditions ambiantes. Il a été tout aussi performant en hiver, sa couleur sombre absorbant efficacement les rayons du soleil pour une augmentation de température interne du bâtiment de 4,3°C. Mais là où cette nouvelle invention fait vraiment la différence, c’est dans sa capacité à s’adapter en fonction des saisons, et notamment lors des périodes variables comme le printemps et l’automne. À l’avenir, jusqu’à 20 % d’économies d’énergie par an pourraient être réalisées à l’aide de ce dispositif de protection installé aux latitudes moyennes.

À la conquête des étoiles : plongez dans l’Innovation à la Toulouse Space Week

La Toulouse Space Week est une manifestation internationale dédiée à l’industrie spatiale qui se tient à Toulouse, la ville emblématique de l’aéronautique et de l’exploration spatiale. 

Cet événement réunit des acteurs clés de l’industrie spatiale, tels que des agences spatiales, des entreprises privées, des universités, des chercheurs, des ingénieurs et des responsables politiques

L’objectif principal est de promouvoir les avancées technologiques, les projets de recherches, les initiatives spatiales, et de permettre aux participants de partager leurs connaissances et de créer des partenariats stratégiques.

Au programme, on retrouvera :

  • des conférences,
  • des tables rondes,
  • des expositions,
  • des présentations de projets,
  • des démonstrations de technologies spatiales.

Il y aura également un dîner de gala, des déjeuners et petits-déjeuners dédiés au networking.

Cette année, participez à des réunions « premium » visant à trouver le « perfect match » entre deux entreprises, une véritable opportunité de réseautage !

C’est l’occasion pour les professionnels de l’industrie spatiale de découvrir les dernières tendances, de discuter des enjeux clés du secteur et d’établir des contacts avec des acteurs internationaux.

Pour vous informer et préparer votre visite à la Toulouse Space Week, rendez-vous sur le site toulouse-space-week.com

Énergies renouvelables : encore besoin d’accélérer

L’actualité est tombée à pic pour le 24e colloque annuel du Syndicat des énergies renouvelables (SER). La veille, le président Emmanuel macron donnait les grandes lignes de sa politique de transition énergétique après un Conseil de planification écologique, incluant le développement des énergies renouvelables.

Dans les semaines qui viennent, la ministre de la transition énergétique, Agnès Pannier-Runacher, va mettre en place la nouvelle stratégie française. En introduction du colloque, elle a justement rappelé que les ambitions sont fortes, par exemple avec le souhait de multiplier par deux le solaire photovoltaïque et le biogaz, et par quatre la géothermie. Selon elle, une dynamique d’accélération est déjà engagée puisque cette année les nouvelles capacités en photovoltaïque au sol devraient augmenter de 50 % par rapport au gigawatt installé en 2022, et celles d’éolien terrestre devraient atteindre 1,2 GW contre une moyenne de 800-900 MW entre 2020 et 2022.

La ministre a particulièrement insisté auprès des industriels du SER pour qu’ils structurent leurs filières afin d’être collectivement au rendez-vous des objectifs nationaux. Sur l’éolien en mer, elle veut un changement d’échelle et de méthode : une démarche devrait être engagée avec la Commission nationale du débat public pour identifier de nouvelles zones maritimes, en vue d’installer 18 GW au large des côtes françaises d’ici 2035.

Trouver une souveraineté européenne

Au niveau européen, les objectifs sont tout autant ambitieux : atteindre au moins 42,5 % d’énergies renouvelables dans la consommation et réduire de 55 % les émissions de gaz à effet de serre d’ici 2030. Pour y arriver, la révision de 75 lois communautaires a été engagée dans le cadre du Green Deal : « C’est un exercice inédit, historique » a rappelé Pascal Canfin, eurodéputé. Vu la courte échéance, les efforts doivent se démultiplier d’où, selon lui, la nécessité de mettre en cohérence le Pacte de stabilité et de croissance, la mobilisation plus large du Fonds d’innovation, et la mise en place d’une vraie politique industrielle permettant de protéger les acteurs européens de la compétition internationale.

L’enjeu de souveraineté était en effet sur toutes les bouches, face aux immenses capacités d’exportation des Chinois dans le solaire photovoltaïque et bientôt dans l’éolien terrestre. Florence Lambert, PDG de Genvia et présidente de la Commission Industrie, emplois et innovation du SER, a reconnu qu’établir la chaîne de valeurs de ces technologies en Europe va prendre plus de temps qu’on imagine. Il est nécessaire de combiner compétitivité économique et production de masse, tout en maintenant une différenciation technologique avec l’Asie grâce à de l’innovation à tous les niveaux, des briques technologiques amont à l’industrialisation des procédés. Elle appelle d’ailleurs les équipementiers à agir de manière concertée sur plusieurs filières industrielles pour trouver des synergies, via des plateformes technologiques regroupant les différentes ETI (entreprises de taille industrielle) concernées.

La nécessité de mieux maîtriser la chaîne de valeurs concerne aussi les matières premières, comme l’a indiqué le directeur de l’Observatoire français des ressources minérales pour les filières industrielles (Ofremi). Cette entité, créée il y a moins d’un an, analyse la façon dont tous les chaînons pourraient être complétés pour assurer le plus de souveraineté possible. Les travaux sont immenses, car ils touchent autant la capacité d’avoir de nouvelles extractions minières, des infrastructures de raffinage, des approvisionnements secondaires via le recyclage. L’expert a particulièrement souligné l’importance de veiller à ce que les matières utilisées dans les produits aujourd’hui soient utilisables, une fois recyclées dans 10 ou 20 ans, dans les technologies de demain.

Initiative dans le bâtiment

Même dans le secteur du bâtiment, le potentiel des énergies renouvelables (EnR) est pris très au sérieux. Une semaine avant le colloque du SER, une coalition d’une douzaine d’acteurs a profité du Salon de l’immobilier bas-carbone pour lancer une initiative visant à « booster » leur développement. Parmi eux, on retrouve plusieurs foncières comme BNP Paribas Real Estate, Icade, la société de la Tour Eiffel, Espaces ferroviaires ou La Poste Immobilier. D’ici trois ans, elles souhaitent systématiser l’intégration des énergies renouvelables et de récupération dans leur parc immobilier. Le potentiel est de 40 à 70 % des besoins d’un bâtiment qui peuvent être couverts par ces énergies. Pour y arriver, elles s’appuieront sur un référentiel ENRScore élaboré par l’institut français pour la performance du bâtiment, et sur un outil cartographique digital de l’Observatoire de l’immobilier durable.

Une démarche qui plaira certainement à Jean-Louis Bal, qui a reçu le Trophée des EnR lors du colloque du SER. Le scientifique Jean Jouzel lui a remis ce prix couronnant une vie dédiée aux énergies renouvelables, notamment au sein de l’Ademe et en tant que président du SER de 2010 à fin 2022. « Il y en a marre de la procrastination » a déclaré Jean-Louis Bal, désormais président d’Agir pour le climat, appelant à stopper les projets d’énergies fossiles et à cesser les « controverses jancoviciennes » pour se lancer dans un développement tous azimuts des énergies renouvelables.

L’expertise des ingénieurs en question

Un extrait de « Les ingénieurs face au défi des expertise participatives » par Jean-Yves Trepos

Du strict point de vue de l’étymologie latine, l’expert est celui qui a traversé des épreuves et affronté des dangers (experiti) et qui en sort donc expérimenté. Cela ne suffit pas à le caractériser, mais cela fait émerger l’idée d’expérience résultant d’épreuves. Si, à présent, on essaie de détailler les composantes les plus constantes de l’expertise, les traits suivants s’imposent. L’expertise s’exerce sur une situation troublée et qui ne peut être traitée « au fil de l’eau » avec des moyens usuels. Elle mobilise des savoirs spécialisés et les combine de manière ajustée, comme réponse à un problème, et elle se conclut par un jugement formulé dans un rapport adressé à un commanditaire qui permet de prendre une décision. La palette d’usage de la notion est vaste, mais certains emplois semblent préférables à d’autres. C’est une activité (faire une expertise) plutôt qu’une compétence (être excellent), une position ponctuelle (une mission définie) plutôt qu’une profession (une capacité permanente, socialement protégée), et un collectif en situation (des experts, mais aussi des commanditaires, des professionnels, des contre-experts avec ou sans label) plutôt qu’une personne.

Une grande expertise implique de grandes responsabilités

Bien que sollicités par une demande interne à l’univers professionnel où ils vont intervenir (un commanditaire), les experts ne bénéficient pas automatiquement d’un crédit initial aux yeux de tous. Ils doivent défendre leurs intérêts marchands, récuser les accusations de concurrence déloyale, et situer la spécificité de la compétence qu’ils déploient. Mais ils ne peuvent que difficilement le faire à l’abri d’un corps professionnel : ils sont en situation d’extra-territorialité. Certains ingénieurs sont devenus experts parce qu’ils ont été repérés comme étant capables de transposer leur compétence professionnelle dans des situations difficiles, d’autres parce qu’ils ont travaillé à se rendre repérables en mettant en avant un ensemble de techniques, d’autres encore parce qu’ils étaient reliés à des réseaux. C’est précisément cet ensemble d’outils qu’il faut aussi considérer dans l’acte expert. Ce dernier met ainsi en œuvre sa « boîte à outils » pour affronter la situation troublée. C’est à la fois un équipement stable (issu d’une formation, par exemple scientifique), le précipité des expertises précédentes et une part indéfinissable de l’expérience acquise. L’articulation de ces trois dimensions sera la marque distinctive de l’expert. Dès lors, il peut en revendiquer l’exclusivité et la boîte à outils tend à fonctionner comme une « boîte noire ».

Les experts revendiquent en général leur absence de parti pris moral ou politique. Néanmoins, ils engagent des valeurs et mobilisent une éthique en choisissant leurs instruments de mesure de la réalité. Dans quelle mesure assument-ils cette responsabilité ? La question peut se poser avec acuité lorsque des enjeux sociétaux sont clairement liés à l’expertise. Selon l’hypothèse des « deux corps de l’expert » : mis en difficulté ou soucieux de travailler à l’abri des pressions sociales, il pourrait affirmer son autorité sur le déroulement des procédures, en prenant appui sur un collectif invisible (« Nous, les experts »), dépositaire de savoirs et d’une autorité institués ; en d’autres circonstances, il aura plutôt intérêt à se démarquer des collectifs d’experts précédents pour affirmer la singularité irréductible de la situation. Il mettra alors en avant ses croyances et valeurs personnelles (« en tant qu’expert, ma conviction est que… »). Mais une autre piste se dessine. De la même manière que l’on peut tenir la connaissance pour distribuée entre les acteurs (aucun protagoniste – expert, usager ou commanditaire – n’a la connaissance complète de la situation), on peut aussi tenir l’éthique pour distribuée. Ce qui est éthique dans les actes d’un expert ne tient pas qu’à ses intentions propres ou à son éthos (ses dispositions morales intériorisées), mais aussi à la manière dont il s’accorde avec les éthiques des autres.

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 12 octobre 2023 !

Les ingénieurs face au défi des expertise participatives, par Jean-Yves Trepos

Les thèses du mois : « Futurs ingénieurs : quels secteurs choisir ? »

Pour notre dossier du mois de septembre, « Futurs ingénieurs : quels secteurs choisir ? », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

En transition. Quand ENGIE se reterritorialise sous l’effet du réchauffement climatique (2016-2020)
Jean Daniélou
Thèse de doctorat en Sciences, technologies, sociétés, Soutenue le 15-12-2022
Centre de sociologie de l’innovation

Intelligence Artificielle et robotique dans les situations de travail : quelles conséquences sur l’activité humaine et l’organisation du travail ?
Tamari Gamkrelidze
Doctorat en Sciences humaines et humanités nouvelles spécialité Ergonomie, Soutenue le 28-11-2022
Centre de recherche sur le travail et le développement

Les communautés de métier : améliorer la performance organisationnelle, professionnelle et managériale sur les chantiers complexes et à risques
Anne Russel
Thèse de doctorat en Sciences de gestion, Soutenue le 30-05-2022
Laboratoire d’Économie et de Management de Nantes-Atlantique

Vers des processus métier corrects basés sur la Blockchain
Ikram Garfatta
Thèse de doctorat en Informatique, Soutenue le 13-12-2022
Laboratoire d’informatique de Paris Nord

Trois essais sur la polarisation du marché du travail.
Elliot Moiteaux
Thèse de doctorat en Sciences économiques, Soutenue le 27-10-2021
THEMA -Théorie économique, modélisation et applications

Trois essais sur les politiques du marché du travail : l’aide à la recherche d’emploi et les outils numériques.
Sofía Dromundo Mok
Thèse de doctorat en Sciences économiques, Soutenue le 23-09-2021
Paris-Jourdan Sciences Économiques

La performativité des relations de travail : une étude de cas à partir de la profession d’ingénieur de conception en France
Barbara Weyh
Thèse de doctorat en Sociologie, Soutenue le 06-12-2022
IDHES – Institutions et Dynamiques Historiques de l’Économie et de la Société

Contribution à la mesure et à l’amélioration de la performance des entreprises vers un contexte d’Industrie 4.0
Diana Cardenas-Cristancho
Thèse de doctorat en Génie des Systèmes Industriels, Soutenue le 04-01-2023
Équipe de recherche sur les processus innovatifs

Contribution à la prise en compte des dimensions humaines lors des projets de transformation industrielle – Cas de la cobotique
Mouad Bounouar
Thèse de doctorat en Génie industriel, Soutenue le 29-11-2021
Laboratoire de Conception, Fabrication et Commande

Méthodologie d’Intégration de la technologie de Fabrication Additive en conception à travers un outil de créativité
Armand Lang
Thèse en Génie industriel, Soutenue le 14-12-2021
Laboratoire Conception de Produits et Innovation

Les villes intelligentes et écologiques, une aubaine pour les ingénieurs du BTP

Avec près de 270 000 recrutements par an depuis plus de trois ans, on peut affirmer que le secteur du BTP est une mine d’or pour les futurs ingénieurs. Encore aujourd’hui pourtant, la pénurie de main d’oeuvre touche le secteur, notamment à cause de la pénibilité de certains métiers : maçons, couvreurs, plombiers, soudeurs… Avec l’avènement des nouvelles technologies dans le secteur, la pénibilité s’efface peu à peu, à mesure que les emplois se diversifient grandement. Ainsi, le BIM, les villes et réseaux intelligents, l’impression 3D, entre autres, bouleversent le paysage professionnel du BTP. C’est particulièrement le cas au niveau de la gestion des projets de construction par exemple, où l’usage du BIM (building information modeling) a complètement changé les méthodes de gestion et de suivi de travaux. 

Ainsi, les compétences recherchées ont évolué : la maîtrise des nouveaux outils technologiques qui se généralisent dans ce secteur industriel devient nécessaire, ainsi que la capacité à gérer les timings, alors que le BIM permet par exemple à plusieurs acteurs d’interagir simultanément sur les différentes étapes des projets. 

Bien que certains métiers du BTP se retrouvent face à une pénurie de main d’œuvre, qui les oblige parfois à recruter des travailleurs temporaires, le secteur a depuis plus de deux ans limité l’inflation des salaires, qui resteront cette année et probablement l’année prochaine à peu près stables. Une politique qui pourrait sembler inadaptée, mais les recruteurs constatent que l’augmentation des salaires ne résout pas les problèmes de pénuries spécifiques à certains secteurs, et ne fidélisent pas plus les ingénieurs recrutés. 

Une tendance forte qui pourrait mener les ingénieurs en plus grand nombre vers le secteur du BTP. La nécessité, au vu de la croissance du secteur, est sans surprise, la transition énergétique. En effet, le secteur du BTP est responsable d’une quantité importante, relativement aux autres secteurs d’activités, d’émissions de GES. Un quart de l’impact carbone global français est liée au bâtiment. La marge de manœuvre est donc immense. La France, qui est déjà lancée dans une course à l’isolation thermique des bâtiments, opère une transition énergétique globale de ses infrastructures. Et cette transition n’est pas qu’énergétique, puisque les villes sont appelées à devenir de plus en plus intelligentes. Les infrastructures et les réseaux vont constituer deux chantiers immenses dans les années à venir, à mener en cohérence l’un avec l’autre. Cette tâche offrira de nombreuses opportunités aux ingénieurs du BTP, mais également aux ingénieurs spécialisés, qui trouveront dans la variété des technologies utilisées dans le secteur des occasions d’exercer des métiers correspondant à leurs compétences. 

Pour terminer, il faut également évoquer la situation climatique actuelle, qui voit, en ce qui concerne l’hexagone, les températures atteindre des records, presque chaque année. Avec un sommet en 2023. Ces températures extrêmes obligent également le monde du BTP à penser, dans l’urgence, des solutions techniques et technologiques permettant de réduire l’impact de ces températures sur le territoire, et notamment dans les villes, où les espaces artificialisés, nombreux, comparés aux espaces végétalisés limités, favorisent des températures extrêmes. Sur ce sujet également, les ingénieurs se verront proposer dans les années qui viennent des opportunités d’emplois, et des défis d’importance à relever.

Transition énergétique : la ministre annonce sa feuille de route

Lundi 25 septembre, Emmanuel Macron a rappelé l’objectif de sortie du charbon d’ici 2027 annoncé la veille lors de son allocution télévisuelle sur TF1 et France 2. À l’issue du Conseil de planification écologique organisé à l’Élysée, il a alors défendu une stratégie énergétique basée sur le triptyque « sobriété – efficacité énergétique, déploiement des ENR et [relance du] nucléaire ». Le « nouveau cap » incluant ces choix énergétiques sera décliné dans une loi énergie-climat et plusieurs décrets, notamment la Programmation pluriannuelle de l’énergie (PPE) et la nouvelle stratégie nationale bas-carbone (SNBC-III).

Mardi 26 septembre, Agnès Pannier-Runacher, ministre de la Transition énergétique en a dessiné les grandes lignes, lors d’un point presse. L’objectif : « réussir le défi du siècle et faire de la France le premier grand pays industriel à sortir des énergies fossiles et à atteindre la neutralité carbone ». Tout cela devra se faire avec des « solutions concrètes pour mieux se loger, mieux se déplacer notamment et des solutions concrètes pour mieux produire ».

Consolider la sobriété, accélérer sur le solaire et l’éolien en mer

Agnès Pannier-Runacher se félicite de l’engagement dans la sobriété, depuis le lancement du plan dédié, il y a un an. Il a ainsi été possible de « réduire notre consommation combinée de gaz et d’électricité de 12 % sur ces 12 derniers mois, corrigés de l’effet météo », assure-t-elle. Pour renouveler la dynamique, elle annonce la tenue d’un grand colloque sur la sobriété énergétique et ses co-bénéfices le 12 octobre prochain.

Aux côtés de la sobriété, l’accélération touchera les énergies renouvelables. Dans la foulée de son point presse, la ministre s’est rendue devant les professionnels des énergies renouvelables réunis à l’occasion du colloque annuel du Syndicat des énergies renouvelables à Paris. La ministre y a rappelé qu’entre 2020 et 2022 sur l’éolien terrestre, la France était à « 800 – 900 mégawatts de projets lauréats par an ». « En 2023, on est déjà à plus de 1,2 gigawatt de projets lauréats et il reste deux périodes de candidature d’ici la fin de l’année », a-t-elle détaillé. Sur le photovoltaïque au sol, « rien qu’avec l’appel d’offres de cet été, nous tablons sur une croissance d’au moins 50 % par rapport à 2022 », s’est-elle félicitée.

La PPE bientôt dévoilée

Dans le cadre de la PPE à venir, Agnès Pannier-Runacher projette un doublement de la production photovoltaïque et de biogaz, ainsi qu’une stabilisation de l’installation d’éoliennes terrestres sur le rythme de 2022. Ces objectifs pourront être renforcés suivant les premiers résultats, assure-t-elle. « Je soutiendrai un système de rehaussement automatique des trajectoires en fonction des dynamiques des premières années, mais je refuse de sur-promettre et de sous-performer ensuite », a-t-elle expliqué devant les professionnels des énergies renouvelables. Sur le solaire, « commençons par doubler vite notre cadence annuelle de déploiement, avant de proposer un triplement de la trajectoire », a-t-elle fait savoir. Elle a également partagé l’objectif d’« une multiplication par quatre » pour la géothermie, et d’une hausse « importante » du Fonds chaleur, géré par l’Ademe.

L’éolien en mer et le nucléaire

L’éolien en mer sera également à l’honneur ces prochains mois. Un grand débat national conduit sous l’égide de la Commission nationale du débat public (CNDP) sera lancé en novembre. D’une durée de six mois, il aboutira à une cartographie des zones propices au développement de l’éolien en mer sur les quatre façades maritimes, précise le cabinet de la ministre. « Un appel d’offres d’une taille inédite sera ensuite lancé afin d’atteindre cet objectif de 18 gigawatts en production d’ici 2035 », a partagé la ministre avec les professionnels.

Devant la presse, Agnès Pannier-Runacher a expliqué que la PPE intégrera également la relance du nucléaire, avec « la construction de 6 EPR 2 et la préparation d’un second palier équivalent à 8 nouvelles tranches, le lancement d’un programme SMR en vue d’une décision de construction avant 2030 ». Dans la continuité du Conseil de planification écologique, elle réunira le 28 septembre une grande conférence internationale sur le nucléaire avec un message très clair : « l’indispensable relance du nucléaire partout dans le monde avant la COP28 », selon ses mots. Elle en a enfin profité pour rappeler que le projet de « rapprochement » de l’IRSN et de l’ASN était toujours sur la table pour « réformer la gouvernance de notre système de sûreté nucléaire ».

L’écologie à la française sera fortement industrielle, annonce Macron

L’annonce était attendue depuis des mois. Emmanuel Macron a enfin expliqué sa vision de l’« écologie à la française » ce lundi 25 septembre. En sortie du Conseil de planification écologique,  il a expliqué qu’il s’agit d’une « écologie qui crée de la valeur économique », d’une « écologie compétitive » qui favorise l’industrie verte, « basée sur la science et sur les résultats objectifs ». Il y voit aussi « une écologie souveraine » pour réduire la dépendance aux énergies fossiles de 60 % à 40 % d’ici 2030.

Durant les cinq dernières années, la France a réduit ses émissions de gaz à effet de serre d’environ 2 % par an, a assuré le chef de l’État. Pour tenir l’objectif d’une baisse de 55 % à l’horizon 2030 par rapport à 1990, la réduction devra atteindre annuellement 5 % sur la période 2022-2030. Pour y parvenir, la planification écologique prévoit des « dizaines d’actions », prévient le président de la République. Fruit de 14 mois de travaux et de concertation, elle sera complétée par une stratégie biodiversité présentée en octobre et par un plan d’adaptation en décembre. Si le budget vert de l’État comprenait 33 milliards d’euros en 2023, il s’élèvera à 40 milliards dès 2024.

Une stratégie industrielle qui se confirme

Emmanuel Macron a beaucoup insisté sur le fait que cette écologie « crée de la valeur économique » et s’appuie sur une stratégie industrielle. Ainsi, les plans de décarbonation des 50 grands sites les plus émetteurs seront signés d’ici début novembre. Ils permettront, usine par usine, de réduire de 45 % les émissions d’ici 2030, promet le chef de l’État. Le président annonce aussi le lancement de deux nouveaux chantiers industriels. Le premier concerne la cartographie sur le territoire français d’« un grand inventaire de ressources minières nécessaires à la transition écologique » et des « gisements d’hydrogène naturel ».

Le deuxième chantier concerne « les technologies de rupture, en particulier l’hydrogène et capture et séquestration de carbone ». Sur le sujet de la capture, du stockage et de l’utilisation du carbone, une consultation stratégique auprès des industriels est en cours jusqu’au 29 septembre. À l’issue, l’objectif sera de développer « au moins un site en France ».

Les transports, au cœur de la stratégie de transformation

Concernant le renouveau industriel de l’industrie ferroviaire, Emmanuel Macron a insisté sur le rôle des transports dans l’aménagement du territoire. Pour financer les nouveaux RER métropolitains et favoriser ainsi le transfert de la voiture individuelle vers les transports en commun, il a annoncé avoir retenu « 13 projets » pour un coût total de « 10 milliards d’euros ». L’État engagera une enveloppe de 700 millions d’euros dès cette année pour accompagner les projets, et les contrats de plan État-Région seront signés en octobre.

Concernant la voiture électrique, l’objectif reste de produire au moins un million de véhicules en France d’ici 2027. Les quatre grandes usines de production de batteries électriques en cours de construction seront ouvertes et devraient permettre à la France d’exporter ses batteries. Dès 2024, un système de leasing de véhicules électriques fabriqués en Europe sera aussi proposé aux Français à 100 euros par mois, en commençant par « quelques dizaines de milliers de modèles ».

Une industrie de la rénovation et une électricité compétitive

Le président de la République n’a finalement pas retenu l’interdiction de vente des chaudières à gaz. « Parce que nous sommes une grande nation de production de chaudières à gaz », a-t-il justifié. Il s’agira donc de développer une filière industrielle de production de pompes à chaleur (PAC), avec pour objectif de tripler la production et d’atteindre ainsi un million de PAC produites par an d’ici 2027.

Enfin, Emmanuel Macron a annoncé pour octobre le lancement d’un mécanisme qui permettrait de « reprendre le contrôle du prix de l’électricité au niveau français et européen ». Ces prix de l’électricité devraient assurer la compétitivité et donner de la visibilité aux ménages et aux industriels, a-t-il promis.

La France mettra fin au charbon en 2027, avec cinq ans de retard

Du réchauffé. Alors qu’Emmanuel Macron présente ce lundi sa planification écologique, il a annoncé dimanche 24 septembre la fin du charbon en France en 2027 via la conversion des deux dernières centrales à charbon de France. « D’ici à 2027, que va-t-on faire ? On a encore deux centrales à charbon, Cordemais [Loire-Atlantique] et Saint-Avold [Moselle], on va complètement les convertir à la biomasse », a-t-il annoncé lors d’une interview télévisuelle sur TF1 et France 2. Pour Cordemais, un projet de conversion était déjà acté. Pourtant, la fin du charbon était annoncée pour 2022 depuis 2017. Comment en est-on arrivé là ? On vous refait l’historique.

Une annonce de Nicolas Hulot dès juillet 2017

En juillet 2017, le ministre de la transition écologique et solidaire Nicolas Hulot annonçait la fin de production d’électricité à partir de charbon dès 2022 dans le cadre de son plan climat. En novembre 2019, la loi énergie-climat entérinait un dispositif conduisant à la fermeture des quatre dernières centrales à charbon de France métropolitaine d’ici à 2022.

L’unité charbon de la centrale Gardanne (Bouches-du-Rhône) a officiellement fermé à l’été 2021, alors qu’elle avait cessé de fonctionner en 2018. La centrale à charbon du Havre a cessé de fonctionner le 31 mars 2021.

2022 : la relance, plutôt que la fin du charbon

Il ne restait alors plus qu’une seule centrale à charbon en activité qui devait fermer en 2022 : celle de Cordemais. C’était sans compter sur le gestionnaire du réseau électrique RTE qui, prévoyant une alimentation électrique tendue pour les hivers à venir en France jusqu’en 2030, a demandé « le maintien en disponibilité ou la conversion à la biomasse de la centrale de Cordemais ».

Finalement, la prolongation de l’activité de cette centrale a été actée par la préfecture de Loire-Atlantique dans un arrêté signé le 3 octobre 2022. En parallèle, la centrale à charbon Emile-Huchet de Saint-Avold a relancé sa production en novembre 2022, après un arrêt annoncé comme définitif le 31 mars 2022, pour sécuriser l’approvisionnement du pays dans un contexte de tension énergétique.

En 2023, afin d’éviter tout black-out hivernal, les deux dernières centrales à charbon de France ont de nouveau obtenu l’autorisation du ministère de la transition écologique de fonctionner jusqu’à la fin de l’année 2024.

Greenpeace a déploré dimanche soir dans un communiqué un « recul » de cinq ans de la sortie du charbon. « Cette sortie du charbon en 2027 est un aveu d’échec pour Emmanuel Macron, qui tente de la déguiser en progrès […]. S’il était véritablement ambitieux et précurseur, Emmanuel Macron aurait également annoncé des dates de sortie du pétrole et du gaz fossile », ajoute l’ONG. Elle s’interroge également sur l’origine du combustible qui sera utilisé, aucune information n’ayant circulé à ce stade.

Aéronautique, énergie et transports : la transition écologique crée de nombreux emplois

L’aéronautique fait partie de ces secteurs industriels sur lesquels la France s’appuie pour légitimer sa puissance technologique et d’innovation. Les mutations actuelles doivent voir le secteur aérien, mais aussi celui des transports en général, ainsi que le secteur énergétique, opérer des ruptures pour continuer à être compétitif dans un contexte de transition écologique. C’est évidemment vrai au premier chef pour le secteur énergétique, qui court après un modèle de production décarboné extrêmement complexe à mettre en place, à partir de celui qui existe aujourd’hui. 

La France, qui a misé depuis longtemps sur l’atome pour produire une grande partie de son électricité, poursuit sur cette voie aujourd’hui. L’électricité nucléaire étant très peu carbonée, elle permet aujourd’hui à l’hexagone d’afficher un bilan carbone pour la production d’électricité que de nombreux voisins européens nous envient. La guerre entre la Russie et l’Ukraine n’a fait que renforcer ce constat, en faisant s’envoler les prix du gaz, malgré les dysfonctionnements observés sur le parc nucléaire, avec un nombre record de réacteurs hors service.

Ainsi, les emplois dans les domaines de la construction, la maintenance et l’installation de centrales nucléaires sur le territoire vont croître durant les années à venir, et même un peu plus. Toute la problématique du mix énergétique, également mise en lumière par le conflit Russo-ukrainien, va offrir aux jeunes ingénieurs des opportunités intéressantes, sur un sujet d’importance pour l’avenir du pays : la transition énergétique, et en particulier le mix énergétique français. Ces sujets, qui regroupent tous les modes de production d’énergies renouvelables, attirent déjà fortement les jeunes ingénieurs, notamment à cause de l’image “verte” que véhiculent le solaire, l’éolien, la biomasse ou encore l’hydrogène. Les métiers d’ingénieur en efficacité énergétique, ingénieur chimiste pour les biocarburants et les batteries, ingénieur chiffrage, ou encore bio-énergéticien offrent d’ores-et-déjà de nombreuses opportunités d’emplois aux jeunes ingénieurs.

Le secteur aérien entre reprise économique et neutralité carbone

Le secteur des transports est au cœur de la transition énergétique, en tant que service utilisé en masse, quotidiennement par les usagers. Du côté de l’aérien, les perspectives sur l’emploi sont bonnes, comme cela a été martelé pendant le salon du Bourget avant l’été. Les effets dévastateurs de la crise COVID laissent aujourd’hui la place à la reprise économique, et à la reprise du trafic aérien. Si le secteur aérien a prévu de recruter en masse dans les années qui viennent, les types d’emplois proposés peuvent être redondants avec ceux déjà existants dans le reste du secteur des transports. En effet, que ce soit pour l’automobile et même pour le ferroviaire, ces secteurs développent des technologies – hydrogène, biocarburants, électrique – auxquelles l’aérien s’intéresse aujourd’hui. Le risque existe donc, pour le secteur des transports, de voir un vivier d’offres d’emplois pour ingénieurs trop important pour le nombre de candidats.

Enfin, n’oublions pas le secteur spatial, autre secteur industriel porteur. Pour ce dernier, le besoin en ingénieurs ces prochaines années va se faire sentir, en raison principalement de la multiplication des applications, à destination des agriculteurs par exemple, ou bien des télécoms. La démocratisation de l’usage des données spatiales depuis quelques années va ainsi voir continuer à se développer un business autour de la commercialisation de ces données aux multiples utilisateurs potentiels.

Escape game de l’Ingénieur : à vous de jouer !

 

CLIQUEZ ICI POUR JOUER !

 

Comment participer ?

C’est simple ! 

Répondez au quiz composé de trois questions liées les unes aux autres, formant un chemin direct vers Miki. 

Grâce aux indices donnés à travers les questions du formulaire, vous serez dirigé(e) vers l’article dans lequel se trouve Miki. Pas de panique, toutes les réponses se trouvent sur le site et il y a un excellent moteur de recherche !

Dans la dernière question, il vous sera demandé de nous montrer où vous avez trouvé Miki : copiez simplement le lien vers l’article sur lequel vous l’avez vu !

 

La récompense

Les heureux vainqueurs remporteront un escape game passionnant pour 5 personnes, dans la ville de leur choix (en France métropolitaine) ! 

 

Dates importantes :

  • Concours ouvert jusqu’au : 21 janvier 2024
  • Annonce du gagnant : 23 janvier 2024

 

Bonne chance !

 

[Règlement du concours]

Télécoms et cybersécurité : la course à l’innovation offre de nombreuses opportunités aux ingénieurs

Le secteur des Télécoms a en 2023, après dix années compliquées, retrouvé le chemin de la croissance. La 5G, qui a permis aux opérateurs d’augmenter le prix moyen des forfaits, n’est pas étranger à ce renouveau. Aussi, le nombre de jeunes utilisateurs est en forte augmentation depuis quelques années. 

A côté de cela, le secteur informatique poursuit sa forte croissance. La multiplication exponentielle des services dématérialisés, pour les particuliers comme pour les entreprises, oblige ces dernières à s’équiper en conséquence, alors même qu’en 2023 une entreprise française sur deux a été victime d’une cyberattaque. Pour les entreprises, les processus de dématérialisation des communications constituent certes un progrès, mais ils exposent également les infrastructures informatiques à des attaques régulières. La demande d’ingénieurs informatiques, développeurs, et aussi spécialistes en sécurité informatique va continuer à croître dans les années qui viennent, sachant que les jeunes diplômés restent attirés par ces métiers.

D’ailleurs, les postes d’ingénieurs, dans les télécoms ou dans l’informatique, devraient voir leurs salaires à l’embauche augmenter fortement en 2024. Là encore, les recruteurs affirment vouloir s’attacher au recrutement de jeunes ingénieurs, alors que ces deux secteurs ont recruté près de 45 000 ingénieurs cette année. Une manne d’emplois qui reste très localisée, puisque c’est en région parisienne que près de la moitié des recrutements sont effectués. En termes de rémunération, les secteurs des télécommunications et de l’informatique sont extrêmement compétitifs, dans le but d’attirer les meilleurs talents. 

La fonction d’ingénieur cloud par exemple, devrait voir les salaires augmenter entre 7 et 13 % en 2024, pour 70 000 euros à l’embauche chez les ingénieurs ayant au minimum 2 ans d’expérience.

Les ingénieurs DevOps quant à eux, sont aussi sur une base de 70 000 euros par an pour un ingénieur ayant entre 2 et 5 ans d’expérience, avec des hausse de salaires pouvant atteindre 15 %.

Dernier exemple, les professionnels de la cybersécurité, qui voient également leurs salaires augmenter dans des proportions importantes, pour un salaire de 60 000 euros (2 à 5 ans d’expérience. 

Ces trois exemples illustrent bien la course aux talents que se livrent les recruteurs sur ces secteurs, qui tire les salaires vers le haut. C’est extrêmement prégnant dans le secteur de la cybersécurité, où les nouvelles menaces qui émergent régulièrement obligent les entreprises à investir et recruter sur des postes relativement nouveaux. Ainsi, la fonction de Pentester, qui a pour rôle de tester la sécurité d’un site en simulant des attaques contre ce dernier, est très recherchée, et de nombreuses écoles forment aujourd’hui de jeunes ingénieurs à ces missions. 

De même les postes de RSSI – responsable de la sécurité des systèmes d’information – ou de spécialistes en cryptologie drainent aujourd’hui de nombreux emplois, réservés à des ingénieurs BAC+5.

Pour l’industrie, la fonction d’ingénieur en cybersécurité industrielle, qui va avant tout gérer la sécurité des systèmes de contrôles industriels, avec tout l’aspect sensible et stratégique que cela recouvre dans certains secteurs d’activité, est un poste où les recruteurs cherchent à attirer les meilleurs talents pour la conception, le déploiement et l’administration de ces systèmes, en proposant des salaires attractifs à l’embauche, accompagnés de hausses régulières.

V4Cure : du venin de serpent comme source d’inspiration pour des médicaments

Depuis 2009, le chercheur du CEA (Commissariat à l’énergie atomique) Nicolas Gilles étudie les toxines animales pour essayer de découvrir des candidats thérapeutiques. Parmi l’ensemble des substances identifiées, une sort du lot, la « mambaquarétine ». Présente dans le venin du mamba, un serpent d’Afrique subsaharienne dont la morsure est létale pour les humains, cette toxine a la particularité de bloquer la concentration urinaire dans le corps sans faire perdre de sel. Cette molécule, baptisée V4C-232 et synthétisée en laboratoire, permettrait de traiter deux maladies qui concernent 10 millions de personnes en occident : l’hyponatrémie et la polykystose rénale.

Dans l’hyponatrémie hypervolémique, le taux de sodium dans le corps est trop faible. Les sels sont alors trop dilués dans le sang à cause de l’augmentation du volume sanguin circulant. Les symptômes impliquent principalement un dysfonctionnement du système nerveux central pouvant aller jusqu’à des crises d’épilepsie, au coma, ou même la mort. La polykystose rénale, quant à elle, est une maladie génétique rare et incurable. Des kystes se forment au niveau des reins et détruisent leur fonctionnement, qui finissent par devoir être greffés.

Mais comment fonctionnerait cette substance sur ces deux maladies ? La toxine bloque de façon particulièrement sélective les récepteurs au niveau des reins responsables de l’homéostasie aqueuse dans le corps. Quand l’organisme a besoin d’eau, pendant un effort par exemple, il concentre les urines pour en tirer un maximum de liquide. C’est ce processus qui est stoppé par la molécule synthétisée par Nicolas Gilles. Dans le cas de l’hyponatrémie, en bloquant le récepteur, le patient peut éliminer de l’eau via l’urine, sans perdre de sel, et ainsi retrouver un taux de sodium normal. Pour la polykystose rénale, la V4C-232 freine la progression de la maladie et retarde donc la greffe.

La création de la start-up, une grande aventure

Après avoir découvert cette molécule au grand potentiel, Nicolas Gilles conduit des tests en pharmacologie moléculaire et in vivo sur des rongeurs pour valider l’activité biologique de cette toxine. Il démontre ainsi l’efficacité de cette substance pour traiter les pathologies rénales. Il l’améliore ensuite pour lui conférer plus d’activité. Suite à ses travaux, il dépose un brevet et décide d’aller plus loin dans le développement de ce candidat-médicament en créant une start-up.

Dans un premier temps, le chercheur souhaitait trouver une industrie pharmaceutique en mesure de reprendre son principe actif afin de le développer. Finalement, il travaille pendant près d’un an et demi avec une entreprise lyonnaise. Malheureusement, cette dernière quitte le projet, ce qui motive Nicolas Gilles à monter sa propre start-up. Mais pour cela, il a besoin de l’aide d’une CEO qui puisse prendre en charge la montée en puissance de la start-up. Il rencontre alors Sonia Escaich, experte en R&D pharmaceutique et en création de biotechnologies, en 2022. Pendant les 18 mois qui suivent, ils travaillent ensemble afin de consolider le business plan, la stratégie, faire des présentations pour les business angels. Grâce au soutien du CEA via le programme Magellan, ils réalisent une étude de marché et des conditions de compétition, afin d’être certains que leur candidat médicament ait une place sur le marché. Après tant d’efforts, la start-up, baptisée V4Cure, est créée en mars 2023. Nabil Gharios, un spécialiste de la finance et qui gère des fonds d’investissement dans les biotechs, vient consolider l’équipe.

En 2022, V4Cure avait été lauréate du grand prix du jury de i-Lab, bénéficiant d’une subvention à l’innovation. En février 2023, plusieurs business angels la financent à hauteur de 500 000 euros. Maintenant que la molécule est finalisée et optimisée, cet argent va permettre de travailler sur la formulation du candidat médicament, c’est-à-dire la manière dont il va être administré. En novembre prochain, la start-up démarrera une nouvelle levée de fonds pour une série A. Les fondateurs de l’entreprise espèrent commencer les essais de phase I en 2026 et une phase II en 2027. Ces étapes terminées, la start-up sera vendue à une grande entreprise pharmaceutique qui se chargera d’effectuer les phases III et de le mettre sur le marché pour 2032.

Santé, agriculture et grande distribution : un contexte créateur d’emplois pour les ingénieurs

Alors que le monde sort doucement de la crise COVID, le secteur de l’industrie pharmaceutique français boucle cette période avec une certitude : il est nécessaire pour l’industrie hexagonale de relocaliser la production de certains médicaments et produits pharmaceutiques. Une ambition complexe à mettre en œuvre, puisqu’aujourd’hui, 80% des matières premières et des médicaments produits par l’industrie pharmaceutique le sont en Asie. Il s’agit donc de développer une supply chain et une chaîne logistique en capacité de permettre à la France, et à l’Europe, de retrouver un certain degré de souveraineté dans son approvisionnement en produits pharmaceutiques et en médicaments. C’est particulièrement vrai pour les antibiotiques et le paracétamol, en pénurie dans certains pays il y a quelques semaines encore.

L’innovation reste aussi au cœur des préoccupations des secteurs de la santé. Suite au développement express de vaccins ARNm contre le COVID pendant la crise sanitaire, les laboratoires planchent sur des nouveaux vaccins contre la bronchiolite chez le nourrisson par exemple, ou encore contre certains cancers. Cette tendance à l’innovation, inhérente au secteur, mais dont l’intensité augmente depuis la fin de la crise COVID, profite déjà aux jeunes diplômés, et va drainer la création de nombreux emplois dans le futur : en effet, le développement actuel de la télémédecine, de la robotisation, de la modélisation, nécessite le recrutement de jeunes ingénieurs qui pourront imaginer, développer, et utiliser ces nouvelles technologies.

L’agriculture en pleine modernisation

Le secteur agricole est également en pleine transition. Les nouvelles technologies – drones, connectivité des outils, intelligence artificielle – ont besoin, comme on vient de l’évoquer pour le secteur de la santé, d’ingénieurs capables de les développer et de les utiliser.

Aussi, la transition vers une agriculture plus durable, moins polluante, entraîne avec elle la création de nombreux nouveaux emplois pour les ingénieurs. 

Le secteur agricole, dont plus de 70% de la production est transformée par le secteur agroalimentaire, entraîne ce dernier dans son sillage. Il faut se souvenir, comme ce fut aussi le cas pour le secteur pharmaceutique, que l’agroalimentaire a souffert de la crise sanitaire, puis de la guerre en Ukraine : en témoignent les récentes pénuries de moutarde ou de blé. Ces fragilités ont été mises en évidence et prises en charge, que ce soit au niveau européen ou national, à travers par exemple le plan France 2030. Ces financements et la volonté de relocalisation drainent déjà de nombreux nouveaux emplois.

Enfin, le sujet de l’adaptation du secteur agricole au changement climatique est un sujet majeur de la décennie à venir. En ce sens, le développement très rapide par l’industrie de technologies d’intelligence artificielle – pour permettre d’optimiser au mieux les rendements agricoles, anticiper les événements climatiques, limiter les consommations d’eau… –  constitue un défi fondamental pour tout le secteur. Et ceux qui, comme l’agroalimentaire, lui sont intimement associés.

Enfin, dernier élément qui va booster les recrutements du secteur dans les années à venir, la nécessité d’innover et de mettre au point, au niveau agroalimentaire, la capacité du secteur à nourrir près de dix milliards d’habitants à l’horizon 2050. A noter que pour l’année 2023, on estime à 8 000 le nombre de recrutements dans le secteur agricole.

La grande distribution, rempart à l’inflation ?

Enfin, le contexte économique actuel, marqué par une forte inflation, oblige les secteurs de la grande distribution à innover pour limiter l’impact de l’augmentation du prix des matières premières sur le porte-monnaie de leurs clients. Pour se faire, priorité a été donnée au développement de filières courtes, et de circuits de distribution les plus locaux possible. En parallèle de ce mouvement, le développement de l’e-commerce, en plein boom depuis la crise sanitaire, concurrence les enseignes de grande distribution, mais crée dans le même temps de nombreux emplois. Que ce soit en ligne ou physiquement, la distribution, qui doit relever les défis de l’approvisionnement, de la logistique et de la transition écologique, va massivement recruter des ingénieurs dans les années à venir pour relever ces défis, même si ces derniers ne se tournent pas encore massivement vers ce secteur.

Par Pierre Thouverez

Une solution modulaire pour adapter les camions-toupies à la livraison de béton en petit volume

Victor Leroux, co-fondateur de Moebius
Victor Leroux est co-fondateur de Moebius (crédit : Moebius)

La start-up Moebius a été créée en 2020 par Victor Leroux et la famille Fehr représentée par Laurent Fehr, Directeur du développement.

Moebius conçoit, fabrique et commercialise un accessoire pour camion-toupie permettant aux acteurs du béton prêt à l’emploi (BPE) d’adresser simplement le marché des petites quantités de béton.

Grâce à cet accessoire, les camions-toupies peuvent ainsi être transformés en centrale à béton instantanée.

Techniques de l’ingénieur : À quels besoins souhaitiez-vous répondre en créant Moebius ?

Victor Leroux : Laurent Fehr, mon associé, est à la tête du groupe FEHR, une entreprise familiale alsacienne fondée en 1960 et leader sur le marché du béton, du béton prêt à l’emploi (BPE) et des murs préfabriqués. Depuis toujours, FEHR est confronté à la même problématique qui est : comment adresser le marché de la livraison de béton en petite quantité, c’est-à-dire moins de 3 m³ ?

Il faut savoir qu’en France, 80 % des camions ont une capacité de transport de 8 m³. En-dessous de 3 m³, un camion est donc plus qu’à moitié vide, ce qui a pour conséquence de faire monter le prix de livraison.

Mais il y a aussi un autre facteur qui fait grimper les prix : les problèmes d’accessibilité des chantiers. Imaginez que vous possédez un pavillon sur lequel vous souhaitez faire couler une dalle du côté opposé à la route. Si le camion ne peut accéder au chantier, il faudra alors recourir à l’utilisation d’un tapis de convoyage ou à un pompage, ce qui engendre un surcoût important et décourage les clients[1].

Le groupe FEHR estime qu’au moins 50 % de ces petites livraisons ne sont pas captées par les fournisseurs de BPE à cause des problèmes d’accessibilité.

Comme la livraison de béton et la prestation en elle-même coûtent souvent plus cher que le béton en lui-même, la production manuelle par bétonnière est ainsi encore très présente sur les petits chantiers, notamment chez les particuliers. En France, la part de marché du ciment en sac représente tout de même 10 à 20 % du ciment utilisé !

C’est donc dans le but d’atteindre ce marché jusqu’ici peu accessible que Moebius a été créé.

Quelle solution avez-vous trouvée pour résoudre ce problème ?

Partant de ce constat, nous avons cherché à proposer des solutions permettant à nos clients d’être plus compétitifs tout en restant rentables. Nous nous sommes inspirés d’un concept américain, les volumetric trucks, qui sont des camions capables de produire le béton directement sur chantier.

Ces camions sont de grosses stations dans lesquelles on vient ajouter les divers ingrédients (eau, sable, ciment, gravier) qui sont ensuite malaxés pour produire le béton sur place à la demande. Pour les petites quantités, l’avantage est énorme puisqu’il devient possible d’enchaîner les livraisons, ce qui n’est pas possible avec un camion standard. Cela règle ainsi la question du prix du béton et permet d’optimiser les tournées qui deviennent alors rentables.

Néanmoins, le prix de ces camions est extrêmement élevé, quasiment le double d’un camion-toupie standard ! Comme il s’agit d’adresser un marché de niche, peu de clients sont prêts à investir dans de tels engins valant le prix de deux camions.

Pour réduire les coûts et éviter l’achat systématique de camions neufs, nous avons eu l’idée d’adapter ce concept à des camions existants. Nous avons ainsi développé une machine à installer à l’arrière d’un camion-toupie pour le convertir à la production instantanée.

Quel est son fonctionnement ?

Le système s’inspire des accessoires de convoyage, qui s’installent à l’arrière des camions pour permettre d’acheminer le béton jusqu’à un point de coulée éloigné. En plus de convoyer la matière, notre système pèse précisément ce qui sort et achemine la quantité désirée jusqu’à un malaxeur relié à un réservoir de liant.

En dosant précisément la quantité de béton retardé qui sort de la toupie, le système permet au chauffeur de savoir à tout moment combien de béton il lui reste, un paramètre capital à l’optimisation de sa tournée.

Pour ce qui est des détails techniques, nous proposons plusieurs versions du système, afin de nous adapter aux besoins des clients, qui varient énormément suivant les régions. Nous proposons donc une version de base, appelée tout simplement « Moebius », sur laquelle viennent s’ajouter des options. Il y a ensuite deux manières de procéder.

Il y a par exemple la situation où le camion-toupie est simplement rempli d’agrégats (sable et granulats). Dans ce cas, on installe un réservoir de liant en sortie du système pour convertir le camion à la production instantanée et éliminer le problème du temps de prise.

L’autre situation est celle où le camion est préalablement rempli de béton retardé. Dans ce cas, le système est utilisé pour peser précisément le béton et organiser la tournée.

Moebius semble aussi présenter un intérêt environnemental. L’avez-vous évalué ?

En effet, produire le béton sur place permet d’éviter la perte de béton, donc de réduire les déchets et aussi de limiter l’impact du transport.

Nous avons calculé qu’en utilisant Moebius, un camion standard 8×4 diesel livrant toute l’année 6 chantiers par jour économisait 17 tonnes de CO2 par an, par rapport à un camion classique.

Cette estimation est néanmoins largement sous-évaluée, car nous n’avons pas pris en compte la quantité de CO2 évitée en réduisant le gaspillage de béton lors de chaque tournée.

Bien entendu, ces économies de CO2 représentent aussi des économies importantes de carburant, environ une centaine d’euros par jour ouvré avec les prix actuels.

Dans le cas de Moebius, les arguments économiques sont donc totalement en phase avec les critères écologiques, ce qui est une très bonne chose !

Enfin, il y a également un autre point important à prendre en compte : Moebius est équipé d’un système de nettoyage automatique qui permet d’une part d’économiser jusqu’à 50 % d’eau, mais surtout d’éviter la corvée de nettoyage aux chauffeurs.

Quand les premiers systèmes seront-ils livrés ?

Jusqu’à présent, nous avions produit deux prototypes, le premier en 2021 et le second en 2022. La première machine « commercialisée » vient d’être montée et sera prochainement mise en service chez FEHR.


[1] Une prestation de pompage coûte 200€ à 300€ !

ClearSpace veut nettoyer l’espace de ses débris

Les débris spatiaux peuvent causer de graves dégâts dans l’espace et leur nombre pose problème pour les futures missions en orbite. Des start-ups travaillent alors depuis des années sur des solutions de nettoyage. C’est le cas de la suisse ClearSpace qui va réaliser sa première mission de retrait d’un débris de plus de 110 kg. Le lancement est prévu pour le second semestre 2026 à bord du lanceur Vega C d’Arianespace. Pour comprendre le fonctionnement d’une telle technologie, nous avons échangé avec Muriel Richard-Noca, ingénieure en cheffe et cofondatrice de la start-up suisse ClearSpace.

Techniques de l’ingénieur : Pouvez-vous nous raconter comment a débuté l’aventure de ClearSpace ?

Muriel Richard-Noca : Tout a commencé à l’École Polytechnique Fédérale de Lausanne (EPFL) en Suisse. Le centre spatial de l’EPFL – eSpace Center – avait initié et encadrait, avec l’aide des Hautes écoles spécialisées (HES), un projet étudiant de création d’un petit satellite, le Cubesat SwissCube. Nous avons réalisé ce projet entre 2006 et 2009. À l’issue de ces trois ans, nous avons lancé notre Cubesat, embarqué sur une fusée indienne, à une altitude d’environ 720 km de la surface de la Terre. Une altitude proche, et l’une des plus fréquentées. Mais à l’époque, nous n’avions pas à notre connaissance les problèmes que posent les débris. Nous l’avons découvert et vécu en opération, lorsque nous avons reçu de nombreuses notifications de l’Air Force américaine sur les collisions à venir. La fréquence des messages était telle que nous avons pris conscience du problème. D’autant plus que nous étions dans une région qui avait vécu deux collisions peu de temps avant. Aujourd’hui, on évite de sélectionner ces orbites.

Grâce à cette prise de conscience, vous avez alors décidé de travailler sur une solution…

Effectivement. À l’EPFL, nous avons créé un programme de recherche et développement pour définir la façon dont nous allions enlever ces débris. Nous l’avons fait notamment à travers des projets étudiants, en réalisant des prototypes et des tests, qui nous ont permis d’augmenter notre compréhension. Nous avons étudié les bras robotiques, les surfaces adhésives type gecko, l’envoi de filet… Au bout d’un moment, une solution nous est apparue, la plus logique et la plus simple : un système de bras robotiques simplifiés, comme des tentacules, avec un volume fermé dans lequel on enferme le débris. Et au-delà de la solution technique robotique, il nous tenait à cœur de considérer un système global et une offre de service incluant la conception du satellite robot, du segment sol et des opérations en vol.

C’est d’ailleurs pour développer et commercialiser cette solution que nous avons créé ClearSpace. Au départ, nous avions à l’université un petit budget de 10 000 euros par an pour créer des prototypes et des systèmes de tests. Nous n’arrivions pas à trouver de financements plus importants, car il nous fallait montrer un modèle d’affaires (commercial) intéressant. Les laboratoires et le centre spatial de l’EPFL ont continué de nous aider sur des points technologiques sensibles et complexes.

Aujourd’hui, votre technologie a été sélectionnée par l’ESA pour aller chercher un débris dans l’espace. À partir de quel moment avez-vous perçu l’intérêt des acteurs du spatial ?

C’était en 2016, avec l’arrivée des « mégaconstellations » : plusieurs entreprises ont reçu les licences pour lancer plusieurs milliers de satellites en orbite afin d’apporter un service d’internet global. Ce sont ces constellations de satellites [et la question de leur fin de vie, ndlr] qui ont ouvert la voie à un modèle économique pour l’enlèvement des débris dans l’espace. Et en effet, ClearSpace a été sélectionnée par l’Agence Spatiale Européenne (ESA) pour aller enlever un de leur débris. Cette démonstration va permettre de créer le démonstrateur de notre dépanneuse. Et une fois démontré à un coût viable – un point hyper important –, il sera alors possible d’envisager d’être appelés pour ce service.

ClearSpace sera lancé au second semestre 2026 pour sa première mission de nettoyage
ClearSpace sera lancé au second semestre 2026 pour sa première mission de nettoyage. © ClearSpace

Comment fonctionne cette dépanneuse spatiale ?

Il s’agit d’un robot spatial – un satellite robot – autonome conçu pour intercepter un débris en rotation incontrôlée dans l’espace à une certaine vitesse de la Terre. Comment faire pour l’attraper avant l’impact ? C’est le défi de notre système de capture et de navigation, basé sur la reconnaissance d’image et de mouvement, ainsi qu’un système de guidage pour l’approche. En fait, il nous faut un système autonome dans l’espace qui puisse reconstruire le mouvement de l’objet, s’approcher et reconstituer ce mouvement. À partir de ce moment-là, il détermine une trajectoire, initie son propre mouvement pour capturer et stabiliser le débris. Une fois stabilisé, l’objet peut être ramené dans l’atmosphère terrestre.

Et pour notre première mission, nous avons délibérément planifié un processus qui prend du temps. Notre objectif est de valider toutes les hypothèses en amont et de progresser par étape. Nous allons intégrer différentes technologies de capteur, comme les caméras infrarouges ou lidars, afin de définir la meilleure approche. Nous allons prendre notre temps pour nous assurer une compréhension complète de chaque étape et confirmer la solidité de notre design.

Est-ce que ce robot aura sa propre mission ou sera-t-il intégré à une autre mission spatiale ?

C’est un mélange des deux. Le robot pourrait être intégré à une mission existante, par exemple, à une fusée qui pourra aller chercher un débris s’il lui reste de l’énergie. Mais a priori, pour sa première mission, il sera spécifiquement conçu pour récupérer un seul objet. Nous collaborons également avec l’Agence spatiale de Grande-Bretagne pour une mission visant cette fois-ci à récupérer deux débris. Chacune de ces missions est une démonstration qui accroît la capacité technologique et l’assurance de la mise en œuvre. En somme, nous démontrons la qualité et la fiabilité de notre technologie. Les missions sont prévues en 2026 et nous pourrons lancer la version commerciale une fois la première mission réalisée.

Scanner son iris pour s’identifier : le projet à risque du créateur de ChatGPT

L’intelligence artificielle est de plus en plus intégrée dans les usages grand public et professionnels. Mais ses progrès engendrent aussi des craintes. Parmi celles-ci, il y a la capacité des machines à usurper l’identité d’une personne pour lancer des campagnes de désinformation ou favoriser les escroqueries financières.

Il devient donc essentiel de pouvoir prouver que l’on est un « vrai » être humain et non pas un clone numérique. Pour prouver son identité réelle, Sam Altman, PDG d’OpenAI (créateur de ChatGPT) s’est associé à une société de capital-risque très connue dans la Silicon Valley (Andreessen Horowitz) et avec le développeur allemand du projet, Tools for Humanity (TFH) pour lancer Worldcoin.

Pour prouver son identité, il suffit que votre iris soit scanné par du matériel biométrique créé sur mesure et connu sous le nom d’Orb. En échange, vous recevez de la cryptomonnaie native de l’entreprise (l’équivalent de 60 euros environ).

Confidentialité des données

Lorsqu’une personne fait scanner son iris par un Orb, les données sont converties en une chaîne de nombres appelée « hash », qui ne peut être utilisée pour recréer l’image originale de l’iris. Ces hachages et une clé cryptographique liée à l’application de l’utilisateur sont stockés dans une base de données sur la blockchain Worldcoin.

La seule façon d’interroger cette base de données est de passer par l’application Worldcoin, qui utilise une technique cryptographique connue sous le nom de « preuve à connaissance nulle » ou « zero-knowledge proofs  » (ZKP), qui permet d’anonymiser certaines transactions.

« Je suis sceptique sur la confidentialité des données biométriques récoltées. Leur stockage est-il fait de manière complète ou partielle ? À quoi serviront ces données dans le futur et quel est le business model de cette entreprise ? Elle donne également très peu de détails sur la protection des données et leur anonymisation. Aucune documentation n’est fournie pour évaluer le niveau de sécurité », constate Renaud Lifchitz, directeur scientifique chez Holiseum, une entreprise française spécialisée dans la cybersécurité.

Sur son site, Worldcoin annonce que sa solution est utilisée par 2,3 millions de personnes dans 34 pays. Son projet a un impact fort dans des pays en développement, car l’argent versé en contrepartie du scan de l’iris n’est pas négligeable. Par ailleurs, beaucoup de personnes dans ces pays ne sont pas sensibilisées à la protection des données personnelles comme c’est le cas en Europe avec le RGPD.

Un pays africain a cependant décidé d’interrompre Worldcoin. La collecte de ces données personnelles a été arrêtée au Kenya, car les gens faisaient la queue pendant des heures pour scanner leur iris !

Régime autoritaire

Le Bureau du commissaire à la protection des données (ODPC) a également appelé les Kenyans à « faire preuve de prudence avant de partager leurs données personnelles ou sensibles et à se renseigner sur la manière dont leurs données seront utilisées ».

C’est bien l’exploitation de données biométriques par Worldcoin qui pose un problème et qui pourrait bloquer son développement en Europe. « Bien avant que le RGPD ne soit exécutoire, il y avait une doctrine de la CNIL qui précisait que la biométrie ne devait être réservée qu’à des exceptions, par exemple pour accéder à des sites sensibles. Elle ne peut être généralisée à tous les systèmes d’authentification », précise Renaud Lifchitz.

Autre risque soulevé par ce spécialiste des cryptomonnaies et des blockchains, la récupération de ces données sensibles par un État. Si un pays devient un régime autoritaire, il pourrait exiger de Worldcoin qu’il lui fournisse les données biométriques (voire toutes les informations collectées) de ces concitoyens.

En fait le battage médiatique autour de Worldcoin est peut-être l’occasion de rappeler qu’il existe plusieurs projets identiques mais plus respectueux de la vie privée. On peut citer Proof of humanity qui permet de prouver qu’on est un être humain et de toucher de la cryptomonnaie tous les jours, « sur le principe d’un revenu universel ».

Lancé par le protocole de blockchain Kleros et l’organisation à but non lucratif Democracy Earth Foundation, Proof of Humanity ressemble à un annuaire téléphonique en ligne, dans lequel les gens peuvent s’inscrire et ajouter leur citoyenneté, leurs diplômes ou leurs compétences. Citons également le projet appelé « La monnaie libre », d’origine française et lancé en 2017.

Chauffer l’eau chaude sanitaire des immeubles grâce à des data centers

Le numérique représente aujourd’hui entre 3 et 4 % des émissions de gaz à effet de serre dans le monde. Soucieux de contribuer à la décarbonation du digital, Christophe Perron a toujours pensé qu’il était aberrant d’utiliser de l’énergie pour absorber la chaleur des data centers. Il cherche alors une solution afin de la réutiliser, avec cette contrainte que cette consommation de chaleur doit être à peu près constante tout au long de l’année. Il identifie que l’eau chaude sanitaire a ce profil et développe un système pour refroidir les serveurs informatiques dans des chaufferies d’immeubles. Rencontre avec le président et cofondateur de Neutral-IT.

Techniques de l’Ingénieur : Quel système avez-vous développé pour réduire la consommation énergétique de vos serveurs informatiques ?

Christophe Perron, président et cofondateur de Neutral-IT. Crédit : Neutral-IT
Christophe Perron, président et cofondateur de Neutral-IT. Crédit : Neutral-IT

Christophe Perron : Nous avons mis au point un système de refroidissement liquide qui consiste à plonger entièrement les serveurs dans un bain d’huile. Tous les composants (processeurs, cartes graphiques…) vont ainsi directement transmettre leur chaleur à ce liquide qui est ensuite récupérée par un circuit d’eau qui fait office d’échangeur. Les calories sont alors transférées jusqu’à un ballon tampon pour préchauffer l’eau à une température de 45 degrés. Ce système, que l’on appelle une chaudière numérique, est installé dans des chaufferies et permet de préchauffer l’eau chaude sanitaire de bâtiments résidentiels. Nous n’utilisons donc aucun système de climatisation. L’été, nous pouvons être amenés à utiliser un aérotherme, lorsqu’il fait très chaud et que les résidents des immeubles dans lesquels sont installés nos serveurs partent en vacances. Étant donné qu’il y a peu de consommation d’eau chaude à ce moment-là, nous utilisons cet équipement, le même que le ventilateur d’un moteur que l’on peut trouver sur une voiture, afin d’extraire l’excès de calories dans l’air.

Une chaudière numérique installée dans la chaufferie d'un immeuble avec des serveurs informatiques plongés dans un bain d'huile. Crédit : Neutral-IT
Une chaudière numérique installée dans la chaufferie d’un immeuble avec des serveurs informatiques plongés dans un bain d’huile. Crédit : Neutral-IT

Il n’y a aucune précaution particulière à prendre vis-à-vis de l’huile qui est un bon isolant électrique. Grâce à l’absence d’air, il n’y a pas de risque de combustion, puisqu’il faut toujours de l’oxygène pour que les choses brûlent. L’idée d’utiliser de l’huile pour refroidir des composants n’est pas nouvelle puisque ce refroidissement liquide par immersion existait déjà au début de l’informatique, lorsque les transistors émettaient beaucoup de chaleur. Par contre, la manière de le mettre en œuvre, c’est-à-dire d’utiliser de l’huile pour récupérer de la chaleur puis la réutiliser est innovante et nous avons breveté notre système.

Quels sont les avantages de votre procédé ?

L’huile se comporte comme un très bon conducteur thermique, puisque nous parvenons à valoriser 96 % de l’énergie dégagée par les serveurs. Cette chaleur couvre ensuite entre 40 et 60 % des besoins en eau chaude sanitaire des bâtiments, en fonction du dimensionnement des chaufferies. Nous nous situons parmi les hébergeurs informatiques ayant la plus faible empreinte environnementale énergétique sur le marché, puisque nous réduisons les émissions de CO2 de nos datas centers de 113 % comparées à des installations classiques. Ce résultat a été chiffré par le bureau Veritas et s’explique également par le fait que l’on installe uniquement des serveurs de seconde main. Ils ont été reconditionnés et leur empreinte environnementale a déjà été amortie.

Contrairement aux gros data centers où sont installés plusieurs milliers de serveurs informatiques au même endroit, les nôtres sont de taille plutôt réduite (environ une dizaine de kW), mais installés dans plusieurs endroits. Le jour où une panne survient sur un site, tous les autres serveurs continuent à fonctionner normalement, ce qui nous permet d’assurer une bonne qualité et fiabilité de notre service numérique

Combien de chaudières numériques sont actuellement en service et est-ce facile de trouver de nouveaux immeubles ?

Nous exploitons une petite vingtaine de sites en Île-de-France, à Lille, Nantes et Lyon. Il est facile de convaincre les habitants d’un immeuble d’installer notre équipement dans leur chaufferie, car nous leur vendons notre système de chauffage numérique et après ils bénéficient de la chaleur gratuite qui leur permet de réduire leurs factures énergétiques. Pour que l’installation soit rentable, il faut au minimum 18 logements dans l’immeuble.

Ensuite, les clients qui souhaitent faire héberger leurs données numériques dans nos serveurs nous contactent pour l’aspect écoresponsabilité. Les questions autour du green IT prennent de plus en plus d’ampleur dans les entreprises et elles sont de plus en plus soucieuses de leur impact environnemental numérique. Nous installons nos chaudières numériques depuis dix ans et cela nous donne suffisamment de recul pour garantir la fiabilité de ce type d’hébergement.

Earth for all : le Club de Rome appelle à une économie de la paix

En 1972, le Club de Rome dévoilait le rapport Meadows « Les limites à la croissance ». Il montrait l’impossibilité d’avoir recours à une croissance économique infinie dans un monde fini. Et aujourd’hui, comment habiter durablement la planète à plus de 8 milliards d’humains ? Comment construire une économie de paix et du bien-être, respecter les limites planétaires et assurer la prospérité de tous ? Cinquante ans plus tard, avec la publication « Earth for All : A Survival Guide for Humanity », le Club de Rome souhaite apporter des réponses à ces larges défis. La version française sera disponible le 27 septembre 2023 aux éditions Actes Sud.

Pour lancer cette nouvelle version, Sandrine Dixson-Declève, co-présidente du Club de Rome et co-autrice d’Earth for All, était aux Universités d’été de l’économie de demain à Paris le 30 août. À quoi ressemblerait donc une économie de la paix ? « Une économie de la paix, c’est une économie de bien-être », répond-elle. Elle prend en compte de nombreux indicateurs, au-delà de la productivité, comme l’instruction, l’éducation, la lutte contre les inégalités et la pauvreté et donne une valeur à la nature. Elle ne dépend ni des dépenses militaires ni des énergies fossiles. « Cette économie de bien-être est aussi une économie systémique qui prend en compte toutes les relations en géopolitique, qui arrête la dépendance à une économie extractive et qui détourne les dépenses qui sont au profit de juste quelques-uns, au profit de tout le monde », ajoute Sandrine Dixson-Declève.

Changer de cap pour une économie juste

Le Club de Rome propose deux scénarios pour parvenir, en une seule génération, à un état de prospérité partagée sur la Terre. « Pour faire ce pas de géant », le Club de Rome identifie cinq « changements de cap » qui rompent avec les tendances actuelles, souligne Sandrine Dixson-Declève. Il s’agit de se concentrer sur la pauvreté et sur les inégalités, de donner plus de poids au rôle de la femme, de changer de système alimentaire et de système énergétique.

Cela est conforme aux travaux mis en lumière par le dernier rapport du GIEC. Les scientifiques insistent en effet sur l’importance de l’inclusion sociale dans les politiques environnementales afin de réussir la transformation écologique. « La métamorphose que l’on doit faire doit se faire très vite, mais elle pourra se faire si et seulement si elle est juste », souligne Yamina Saheb, chercheuse à l’Observatoire français des conjonctures économiques (OFCE), autrice du GIEC.

Alors que la tension sociale continue de s’accroître un peu partout dans le monde, que les inégalités et les tensions se renforcent, ces changements radicaux à venir appellent les gouvernements à davantage impliquer et écouter leurs citoyens. « Chaque seconde qui passe et que l’on reste dans le système économique actuel, c’est du temps perdu qui augmente la vulnérabilité des personnes, prévient Yamina Saheb. Le nombre de déçus ne fait qu’augmenter en France et ailleurs et pourrait se cristalliser autour d’un mouvement beaucoup plus violent ». Sandrine Dixson-Declève abonde en ce sens. « Si les citoyens ne sont pas servis comme ils devraient l’être et si la prospérité n’est pas partagée entre la plupart des citoyens, il y aura une révolution », alerte-t-elle.

Plus qu’un simple livre, Earth for All est une initiative internationale qui explore les moyens à mettre en œuvre pour que les sociétés humaines puissent garantir à leurs populations un niveau de bien-être décent à l’horizon du siècle. Lancée en 2020 par le Club de Rome, la BI Norwegian Business School, le Centre de résilience de Stockholm et l’Institut de recherche de Potsdam sur les effets du changement climatique, l’initiative a développé un modèle de dynamique des systèmes ultraperfectionné. Il entreprend une analyse systémique en combinant et testant de très nombreux facteurs au sein de grandes régions du monde : le comportement humain, le développement technologique, la croissance économique, la production alimentaire, le changement climatique, un ensemble d’hypothèses et leurs répercussions sur la biosphère et le climat au cours du XXIe siècle.

Une nouvelle loi pour faciliter la réduction de l’artificialisation des sols

Au cours de la dernière décennie, entre 20 000 et 30 000 hectares ont, en moyenne, été artificialisés chaque année en France. Ce changement d’usage des sols se produit principalement au détriment de surfaces agricoles et représente entre 6 et 9 % de tout le territoire. En 2021, la loi Climat-Résilience a formulé un double objectif pour lutter contre ce phénomène. D’une part, réduire de moitié le rythme d’artificialisation entre 2021 et 2031, comparé à la décennie précédente, c’est-à-dire limiter l’altération de ces surfaces à 125 000 hectares sur 10 ans, contre 250 000 auparavant. D’autre part, atteindre une artificialisation nette égale à 0 % (ZAN : Zéro artificialisation nette) à l’horizon 2050, ce qui signifie avoir autant ou plus de surfaces « renaturées » que de surfaces artificialisées.

Ces objectifs sont traduits très concrètement par des obligations applicables aux collectivités territoriales, mais leur mise en œuvre se heurte à l’inadéquation des textes et à des difficultés pratiques mal anticipées. Par exemple, les grands projets décidés par l’État, tels que les grands ports maritimes ou les liaisons ferroviaires à grande vitesse, vont consommer environ 20 000 hectares de l’enveloppe nationale d’artificialisation d’ici à 2031, alors que les élus locaux n’ont aucun moyen de maîtriser leur impact. Une nouvelle loi a été publiée le 20 juillet 2023 afin de faciliter la diminution de l’artificialisation des sols. Elle ne remet pas en cause le cadre ou l’esprit général de la loi Climat-Résilience sur l’artificialisation des sols, mais vise à faciliter son application.

Ainsi, la loi prévoit une surface minimale de consommation d’espaces naturels, agricoles et forestiers d’un hectare pour chaque commune couverte par un PLU (Plan local d’urbanisme). Cette surface est destinée à apporter une garantie aux communes, notamment petites et rurales, afin que leurs perspectives de développement ne soient pas sacrifiées dans le cadre de la territorialisation des objectifs du « ZAN ». Elle sera malgré tout comptabilisée dans les enveloppes globales d’artificialisation autorisées au titre de la loi Climat-résilience et devrait être revue à la baisse après chaque période décennale, en vue de contribuer à l’atteinte de la « ZAN » d’ici 2050.

Les grands projets ne seront plus imputés aux collectivités territoriales

Un point important de cette nouvelle loi concerne les modalités de comptabilisation des projets d’envergure nationale et européenne. L’artificialisation induite par ces derniers ne sera pas imputée aux collectivités d’implantation, mais sera prise en compte dans le cadre d’un forfait national fixé à hauteur de 12 500 hectares pour l’ensemble du pays pour la période 2021-2031. En cas de dépassement, le surcroît de consommation ne pourra être imputé sur l’enveloppe des collectivités territoriales ou de leurs groupements. Une commission régionale de conciliation sur l’artificialisation des sols sera créée dans chaque région et comprendra à parts égales des représentants de l’État et de la région concernée. En cas de désaccord sur la liste des grands projets présentant un intérêt général majeur, elle pourra être saisie à la demande de la région.

La loi offre aussi un droit de préemption sur les espaces propices à la renaturation ou au recyclage foncier. Elle autorisera les collectivités à prendre des délibérations pour délimiter des secteurs prioritaires à mobiliser en raison de leur potentiel foncier majeur pour favoriser l’atteinte des objectifs de lutte contre l’artificialisation. Ceux-ci peuvent par exemple être des terrains contribuant à la préservation ou à la restauration de la nature en ville, des zones présentant un fort potentiel en matière de renaturation, des terrains susceptibles de contribuer au renouvellement urbain, à l’optimisation de la densité des espaces urbanisés ou à la réhabilitation des friches. Un sursis à statuer est également instauré et est destiné à suspendre la délivrance de permis de projets qui pourraient compromettre l’atteinte des objectifs de réduction de la consommation d’espaces naturels, agricoles et forestiers.

EFICIA : surveiller la consommation d’eau des entreprises pour limiter les pertes

Alric MARC, président et fondateur d’EFICIA
(crédit : EFICIA)

 EFICIA est une entreprise créée en 2013 et spécialisée dans le pilotage énergétique des bâtiments.

Elle propose aux professionnels le contrôle à distance des principaux équipements consommateurs d’énergie : chauffage, éclairage, ventilation, etc.

En complément du pilotage énergétique, EFICIA travaille également avec les acteurs du monde professionnel sur le pilotage de l’eau et envisage d’ajouter la supervision de l’eau à son application 100 % gratuite de suivi et d’analyse de consommation.

Techniques de l’ingénieur : Pourquoi opter pour l’installation de compteurs d’eau sur un site industriel ou commercial ? Les utilisateurs n’ont-ils pas accès aux données de consommation de leur compteur principal ?

Alric Marc : C’est le cœur du problème. Les entreprises désireuses de piloter leur consommation d’eau sont actuellement confrontées à un problème : les gestionnaires des réseaux ne partagent pas les données de consommation d’eau aux tiers indépendants, car ils n’en ont pas l’obligation légale.

Cela empêche l’intégration des données de consommation d’eau dans les EMS des entreprises, ce qui est absurde alors que les données de consommation d’électricité et de gaz sont partagées et intégrées !

En effet, la CRE[1] impose aux fournisseurs d’énergie d’intégrer des « sorties client », c’est-à-dire des connecteurs, sur les compteurs d’électricité et de gaz, afin de permettre l’exploitation des données de consommation.

Pour l’eau, malheureusement il n’y a ni norme, ni obligation légale de rendre les données accessibles. Dans les faits, si les compteurs d’eau « connectés » sont munis d’une antenne qui envoie les informations au fournisseur, le consommateur n’a aucun moyen de s’y brancher !

C’est la raison pour laquelle l’application proposée sur le site d’EFICIA intègre bien le pilotage de l’électricité et du gaz, mais pas celui de l’eau.

Nous avons donc besoin d’une loi qui permettrait de corriger cet état de fait.

Constatez-vous une hausse des demandes en ce qui concerne le pilotage de la consommation d’eau des entreprises ?

Bien que nos premières installations dédiées au pilotage de l’eau datent de 2013, nous constatons une hausse des demandes depuis environ 6 mois. Il faut savoir que le pilotage de l’eau n’est pas obligatoire, la démarche de ces entreprises est donc vraiment orientée développement durable. De plus, même si les épisodes de sécheresse se multiplient et que cela semble coïncider avec l’arrivée du plan Eau, cela fait longtemps que les démarches sont engagées, notamment avec certaines grandes enseignes de bricolage.

Pourquoi les grandes enseignes de bricolage mettent-elles en place des solutions de pilotage de l’eau ?

Pour montrer l’exemple ! Il faut savoir que ces magasins, de par les produits qu’ils ont en rayon, veulent renvoyer à leurs clients une image positive. Ces grandes enseignes vendent aux particuliers des produits en lien avec le développement durable : matériaux d’isolation, panneaux solaires, PAC[2], poêles, dispositifs permettant des économies d’énergie et d’eau…

Ils ne peuvent donc pas inciter leurs clients à investir dans la transition verte pour leur logement s’ils ne le font pas eux-mêmes, surtout qu’ils développent leurs propres marques de distributeur.

Avec ces enseignes, nous avons donc mis en place de vrais plans de déploiement, pour équiper l’ensemble des sites avec des systèmes comprenant plusieurs compteurs d’eau (jusqu’à 10 parfois). La mise en place de notre solution leur permet ainsi d’identifier de potentielles fuites ou de mauvais usages.

Pour ce qui est des fuites, quand on sait qu’un simple robinet qui fuit peut gaspiller jusqu’à 120 litres par jour et qu’une chasse d’eau peut gaspiller jusqu’à 600 litres, le volume perdu devient vite conséquent pour une grande enseigne !

En effet, certains magasins sont extrêmement grands et emploient plusieurs centaines de personnes, leur consommation est donc proportionnelle à leur taille.

Il y a aussi d’autres sources de fuite, notamment au niveau des canalisations. Parfois elles sont visibles, donc facilement détectables, mais dans certains cas, par exemple pour des canalisations enterrées, la fuite restera longtemps invisible. Le pire, c’est lorsque la fuite survient sur un réseau d’incendie enterré. Ces réseaux étant dimensionnés pour fournir des débits d’eau importants[3], une fuite non détectée peut coûter cher et même provoquer des dégâts importants (affaissement du sol, problèmes d’humidité, etc.).

Pour ces raisons, il est donc important d’installer un compteur sur son réseau RIA (robinet incendie armé) !

Et les mauvais usages de l’eau, quels sont-ils ?

Il peut s’agir d’une surconsommation d’eau potable, comme une mauvaise utilisation de l’eau de pluie. Dans leur démarche de gestion de l’eau, ces entreprises prévoient parfois des systèmes de récupération d’eau de pluie, sur les toitures et les parkings, notamment sur les sites « neufs ». Mais posséder des récupérateurs n’est pas une garantie d’économie d’eau, encore faut-il que les utilisateurs exploitent cette eau, notamment pour l’arrosage.

La pose de compteurs permet donc de vérifier si cette eau est exploitée. Pour piloter les usages, nous posons également différents capteurs permettant de mesurer le niveau d’eau des cuves, ainsi que la température et le taux d’humidité de l’air. Cela permet de conditionner l’arrosage aux conditions météo, car il n’est pas toujours utile d’arroser lorsque le taux d’humidité est élevé. Bien entendu, libre au client de suivre ou non les conseils que nous lui apportons !


[1] Commission de régulation de l’énergie

[2] Pompe à chaleur

[3] Débit minimum entre 34 l/min et 128 l/min selon les dimensions du tuyau, soit 3 à 10 fois plus qu’un réseau d’eau potable !

Préserver le littoral français grâce à une gestion souple de la bande côtière

Face à l’érosion côtière et aux submersions marines, la stratégie habituelle de gestion consiste à construire des ouvrages pour fixer la position du trait de côte et protéger les enjeux humains et économiques contre la mer. Sauf que dans un contexte de changement climatique, qui se manifeste par l’élévation du niveau de la mer et l’augmentation de la fréquence des événements climatiques extrêmes, elle ne se révèle pas toujours adaptée. Initié par le Conservatoire du littoral, un projet baptisé Adapto a exploré de nouvelles solutions dites souples de gestion de la bande côtière, ou encore appelées Solutions fondées sur la nature (SFN). Dix sites pilotes ont été testés en France, représentatifs d’un panel de différents types de milieux littoraux. Ce projet, qui vient de se terminer, a bénéficié du concours financier de l’Europe à travers le programme LIFE.

« Face au recul du trait de côte et à l’élévation du niveau de la mer, il y a trois stratégies possibles, détaille Olivier Brivois, Chef de projet et ingénieur littoraliste au BRGM. La première consiste à résister en construisant des digues ou en les maintenant en l’état. La deuxième est de laisser faire et d’en subir les conséquences. Et la troisième consiste à s’adapter en redonnant de la mobilité au trait de côte et en limitant la présence d’enjeux exposés aux aléas. Cette dernière solution a été testée sur les sites sélectionnés, qui appartiennent tous au Conservatoire du littoral, et qui ont la particularité d’être situés sur des zones principalement naturelles ou agricoles. Ce type de gestion est moins adapté aux villes côtières, car il faut protéger des habitations ou des activités économiques, et dès lors la digue devient incontournable. »

Reconnecter, partiellement ou totalement, un polder à la mer

Les polders, ces espaces gagnés sur la mer par l’homme, ont représenté la majorité des sites étudiés. La baie de Lancieux sur la côte nord de la Bretagne, à proximité de Saint-Malo, est l’un de ces sites progressivement gagné sur la mer, avec la création au fil des siècles des polders de Lancieux et de Ploubalay. Historiquement, la digue protégeant le polder de Ploubalay a plusieurs fois rompu, entraînant des submersions marines et son état actuel montrait localement de fortes dégradations. Et finalement, elle s’est rompue en 2020, au cours du projet. Il a été décidé de reconnecter ce polder à la mer et de ne pas réparer la digue, ce qui a modifié totalement le milieu naturel. Toute la végétation de type prairie a disparu pour laisser la place au développement de prés-salés et le conservatoire a racheté une maison, qui risquait d’être envahie par les eaux. Une digue rétro-littorale a également été construite dans la partie sud de l’ancien polder afin de protéger une route départementale.

« Au préalable, nous avons réalisé des modélisations hydrodynamiques pour anticiper ce qui allait se produire, et rajouté 20 cm au niveau moyen de la mer à l’horizon 2030 et 40 cm à l’horizon 2050, pour évaluer les effets du changement climatique. Un travail pédagogique a aussi été réalisé auprès de la population et des élus locaux pour les rassurer. Nous leur avons rappelé qu’historiquement, le trait de côte a toujours bougé, même si cela ne se voit pas forcément à l’échelle d’une vie humaine. Nous avons produit des vidéos à partir des simulations numériques pour leur montrer visuellement jusqu’où allait s’arrêter la submersion marine. Étant donné que dans les siècles à venir, le niveau de la mer va s’élever de plusieurs mètres, la solution retenue n’est envisageable qu’à moyen terme. D’ici à la fin du siècle, et suivant l’élévation du niveau marin, il faudra à nouveau se reposer des questions sur la gestion et l’adaptation de ces territoires. »

Une dune plus résiliente face au changement climatique

Cette stratégie adaptative, consistant à reconnecter, partiellement ou totalement, un polder à la mer a aussi été envisagée sur d’autres sites du projet. C’est par exemple le cas au Marais de Brouage, sur la côte Atlantique, en Charente-Maritime, puisque là encore, la digue protégeant les terrains du Conservatoire du Littoral a rompu en fin d’année 2017 et n’a pas été reconstruite depuis. « La réfection ou construction d’une digue littorale peut coûter de plusieurs centaines de milliers d’euros à plusieurs millions par kilomètre, cela signifie que construire des ouvrages en retrait de longueur réduite pour protéger localement certains enjeux coûte beaucoup moins cher, analyse l’expert du BRGM. Nous avons encore peu de recul sur la dépoldérisation, mais si des prés-salés se développent au sein de la zone reconnectée, ils vont modifier la rugosité du sol et ainsi dissiper une partie de l’énergie des courants et des vagues, limitant ainsi les sollicitations subies par les ouvrages de second rang. Ce type d’écosystème présente aussi un fort taux de séquestration du CO2 et est aussi, écologiquement plus intéressant pour de nombreuses espèces (zone de frayère et de nourricerie pour certaines espèces d’oiseaux et de poissons, zone de refuge… »

Le projet Adapto s’est aussi intéressé à des sites dunaires, notamment celui du Petit et Grand Travers, situé sur la côte méditerranéenne, à proximité de Montpellier. Les dunes ont en effet pour fonction de protéger les zones littorales contre la submersion marine. Naturellement, elles ont tendance à s’éroder et à reculer en hiver lors des tempêtes et à se reconstituer en été par temps calme. Or, dans ce cas précis, la gestion passée a consisté à limiter cette résilience, puisqu’une route avait été construite sur cette dune, ainsi que des parkings aux abords. Le site subissait par ailleurs les multiples piétinements des riverains et des touristes. « La stratégie retenue ici a consisté à redonner de la mobilité à cette dune en détruisant la route, et en construisant une autre derrière la dune, révèle Olivier Brivois. Le conservatoire a limité l’accès au site et créé des cheminements dédiés pour permettre à la végétation de pousser afin de favoriser l’accumulation du sable et stabiliser la dune. Des ganivelles, ce sont ces lattes de bois verticales que l’on plante dans le sol, ont également été posées dans le but de favoriser l’accumulation de sable et permettre un engraissement de la dune par le transport éolien. Il a fallu 10 à 15 ans au Conservatoire du Littoral pour faire accepter et mener à bien ce projet, mais aujourd’hui, cette dune présente une meilleure résilience face au changement climatique et aux tempêtes.»

Des abat-jour revêtus d’un catalyseur capable de dépolluer l’air intérieur

Chaque jour, nous sommes exposés à de multiples sources de pollution, aussi bien en extérieur qu’en intérieur. Et en intérieur, ces polluants, libérés par les peintures, plastiques, meubles (et d’autres sources) sont nombreux : formaldéhyde, acétaldéhyde et autres COV, poussières, virus, bactéries, etc. Même si les concentrations en polluants sont faibles, le temps d’exposition est malheureusement important : nous passons plus de 90 % de notre temps en intérieur, que ce soit au bureau ou à domicile !

Dépollution de l’air intérieur : quelles solutions ?

Concernant les COV, si de nombreuses solutions d’élimination existent, elles ne sont pas toujours dénuées d’inconvénients. D’une part, les méthodes conventionnelles utilisant des filtres, notamment au charbon actif, impliquent un changement régulier de ces filtres.

Des solutions sans filtres sont alors apparues. Elles sont généralement basées sur la catalyse, ce qui n’est pas non plus sans inconvénient, car les catalyseurs utilisés en thermocatalyse nécessitent une activation à haute température et donc la présence d’une source de chaleur.

D’autre part, les solutions de photocatalyse font souvent appel à des sources de lumière UV susceptibles de décomposer les polluants en produits tout aussi dangereux[1].

C’est donc pour éviter ces inconvénients que les chercheurs se sont tournés vers une approche plus simple et moins technologique. La solution proposée exploite à la fois la lumière visible et la chaleur générée par une ampoule halogène ou à incandescence.

Dégradation du formaldéhyde et de l’acétaldéhyde

Les chercheurs proposent d’appliquer un revêtement thermocatalyseur sur la face interne d’un abat-jour en aluminium.

Le catalyseur, composé de dioxyde de titane (TiO2) ainsi que d’une petite quantité de platine, est activé par la forte chaleur émise par une ampoule halogène de 100 W.

Le dispositif a été testé dans une chambre d’essai contenant un mélange d’air et d’acétaldéhyde gazeux. La température[2] dégagée par l’ampoule étant suffisante pour activer la catalyse, le processus de décomposition s’est donc amorcé :

  1. oxydation de l’acétaldéhyde ;
  2. formation d’acide acétique ;
  3. transformation en acide formique ;
  4. décomposition en CO2 et en eau.

À noter que le processus semble aussi fonctionner dans les mêmes conditions avec une ampoule à incandescence.

Les résultats ont été présentés en détail dans le journal Chemosphere, ainsi que lors de l’événement ACS Fall 2023 organisé par l’American Chemical Society (ACS).

Une solution bientôt compatible avec la technologie LED ?

Si la technique de dépollution proposée ici semble prometteuse, elle est malheureusement peu compatible avec la réglementation européenne, puisque les lampes à incandescence et halogènes sont dorénavant interdites à la vente[3] et remplacées par l’éclairage LED.

Le marché de la LED étant en forte croissance partout, l’équipe dirigée par Hyoung-il KIM travaille néanmoins sur des solutions fonctionnant à partir de LED.

Bien entendu, comme la chaleur générée est trop faible pour activer le thermocatalyseur, l’équipe envisage d’utiliser des thermocatalyseurs stimulés par le rayonnement spécifique de l’éclairage LED.

Nous avons demandé à Minhyung LEE, étudiant de Hyoung-il KIM et auteur de l’étude de nous en dire plus. Voici ce qu’il a répondu : « Dans la technologie actuelle, les catalyseurs généraux à lumière visible ne sont pas très efficaces pour éliminer les COV gazeux. En effet, seule la bande de longueur d’onde autour de 400 nm, qui présente une forte énergie lumineuse dans toute la gamme, peut être utilisée par les catalyseurs. 

Notre équipe tente donc de développer des matériaux composites photothermiques, combinant un catalyseur de conversion photothermique et un photocatalyseur du visible. Dans le spectre LED, seule l’énergie dans la courte plage de longueur d’onde de 400~500 nm peut activer le catalyseur de lumière visible avec une lumière forte.

Un catalyseur de conversion photothermique est capable de convertir une faible énergie lumineuse sur la plage de longueur d’onde de 500 à 700 nm en forte énergie thermique, ce qui permet d’atteindre une température élevée, autour de 100 °C pour certains matériaux. »

L’équipe de chercheurs ne compte donc pas s’arrêter en si bon chemin, le but ultime étant bien la mise au point d’un catalyseur hybride capable d’utiliser tout le spectre produit par les sources lumineuses, y compris le proche UV, la lumière visible, ainsi que la chaleur résiduelle.


[1] Si le sujet vous intéresse, ces thématiques ont déjà été abordées dans cet autre article

[2] 250°F, soit un peu plus de 120°C

[3] Seules certaines lampes à usage spécial ont encore droit à des dérogations, notamment celles qui n’ont pas d’équivalent LED

Valérie Masson-Delmotte : paléoclimatologie, GIEC et recherche

Valérie Masson-Delmotte est directrice de recherche au Laboratoire des sciences et du climat (LSCE – CEA/CNRS/UVSQ), installé sur le campus de Paris-Saclay (91). Elle aura été coprésidente du groupe n°1 du Groupe intergouvernemental d’experts sur l’évolution du climat (GIEC) pendant 8 ans. Elle s’y est investie sans compter ses heures pour superviser l’élaboration du rapport sur la connaissance des bases physiques du changement climatique, soit le premier volet du sixième rapport d’évaluation des experts climat de l’ONU.

Passant le flambeau à Robert Vautard, météorologue et climatologue français fin juillet 2023 en vue du septième cycle d’évaluation qui commence, elle revient pour Techniques de l’Ingénieur sur l’intérêt de la paléoclimatologie et la fonction de co-président d’un groupe de travail au sein du GIEC.

Techniques de l’ingénieur : Vous êtes paléoclimatologue ; en quoi cette science nous éclaire pour mieux comprendre le dérèglement climatique en cours et à venir ?

Valérie Masson-Delmotte
Valérie Masson-Delmotte est directrice de recherche au Laboratoire des sciences et du climat

Valérie Masson-Delmotte : La paléoclimatologie consiste à quantifier et comprendre les variations passées du climat pour mieux contraindre l’incertitude sur les évolutions futures. On peut le voir comme une expérience naturelle sur le climat de la Terre : si la tectonique des plaques, la composition de l’atmosphère ou encore la position de la Terre change, qu’est-ce que cela implique pour le climat ? Cette science permet de l’étudier.

En quantifiant les variations passées du climat, la paléoclimatologie nous permet de comprendre les mécanismes de rétroaction de fonctionnement de ce système et de situer les changements actuels dans le temps long. Cela permet aussi de comprendre les mécanismes de variations abruptes qui ont ponctué l’histoire du climat de la Terre. C’est également intéressant par rapport au lien entre le rythme des changements climatiques passés, et la réponse des écosystèmes et de leur capacité d’adaptation.

Comment les climats passés permettent-ils de mieux comprendre la variabilité naturelle et anthropique du climat ?

Il y a la variabilité naturelle du climat, en réponse notamment à l’activité du soleil et des volcans. Les climats passés sont très importants pour arriver à la caractériser. L’occurrence d’éruptions volcaniques majeures ou leur absence est l’une des choses qui a le plus façonné la variabilité du climat au cours du dernier millier d’années. C’est intéressant pour avoir une réflexion sur les risques à venir. Le climat va changer du fait de l’influence humaine, mais cela va être amplifié par des éruptions. Ce n’est pas toujours intégré dans les projections, il faut s’y préparer.

Il y a en plus la variabilité spontanée du climat, notamment avec El Niño. Comment est-ce que cette variabilité spontanée change dans un climat qui se réchauffe ? Il y a encore beaucoup de travaux en cours. Normalement, une année El Niño est une année où la chaleur qui a été accumulée en profondeur, notamment dans l’Océan Pacifique, revient en surface, entraînant des effets sur la répartition de la pluviométrie et de la température de surface. Avec le retour d’El Niño en 2023, on s’attend ainsi à avoir une anomalie forte de température, notamment l’année prochaine.

Le dernier rapport du GIEC montre qu’il n’y a plus aucun doute sur l’origine humaine du changement climatique. Vous étiez coprésidente du groupe no 1 du GIEC depuis 2015. Quelle a été la démarche pour aboutir au rapport final ?

J’avais été impliquée dans le cinquième rapport comme auteur principale, coordinatrice de chapitre et dans le résumé pour décideurs. L’ancien coprésident du groupe 1 du GIEC m’avait alors dit que je pouvais être une candidate intéressante. Peu de femmes l’avaient fait, cela m’a intéressée et j’ai obtenu la fonction.

La première chose est de réfléchir à la structure du rapport avec une centaine de scientifiques. On lance ensuite un appel à candidatures. Sur le millier de candidatures reçues, on a sélectionné 244 chercheurs et chercheuses pour le groupe 1. J’ai fait un premier tri de CV suivant les expertises dont on avait besoin. Puis, avec les sept vice-présidents et les deux co-présidents du groupe, on a collectivement défini les équipes de rédaction de chaque chapitre. L’idée est d’avoir un groupe divers, pour avoir l’évaluation la plus rigoureuse possible.

On essaye d’éviter les groupes de chercheurs qui se connaissent déjà, on porte une attention particulière également au renouvellement des auteurs. On a la charge de préparer les quatre réunions d’auteurs, où ils se réunissent pendant une semaine. Il faut relire les commentaires reçus et avoir une vision d’ensemble, identifier ce qui manque, les incohérences, avec en permanence la question de la rigueur scientifique.

Pour la rédaction du résumé technique et du résumé pour décideurs, on travaille sur la structure et sa portée. C’est un travail d’éditeur en quelque sorte. Pour ce rapport, on a travaillé avec des spécialistes d’infographie pour le résumé pour décideurs. J’ai aussi passé pas mal de temps sur le glossaire qui donne les définitions précises des termes, et pour vérifier la rigueur des traductions en français.

Et maintenant que vous passez le flambeau, vous allez avoir davantage de temps pour vos recherches ?

Effectivement, je vais pouvoir reprendre mes recherches plus en profondeur. Je vais notamment me réinvestir sur un projet ERC Synergy (issu d’un appel à projets du Conseil européen de la recherche dans le cadre du programme Horizon Europe qui finance des projets de recherches, ndlr). Il porte sur des méthodes innovantes d’étude du cycle de l’eau atmosphérique en Antarctique.

L’idée est de pouvoir améliorer les modèles de climat pour l’Antarctique et diminuer les incertitudes majeures associées au devenir du bilan de masse de l’Antarctique. On s’intéresse au contenu en eau liquide dans les nuages, qui va jouer sur leurs propriétés optiques et sur le bilan d’énergie de surface. Il s’agit de mieux comprendre le dépôt de précipitations et les propriétés optiques des nuages au-dessus de l’Antarctique.

Le projet consiste à lancer une vaste campagne de mesures réalisées avec des instruments déployés dans des conteneurs semi-autonomes sur la côte antarctique, entre la base française de Dumont d’Urville et la base franco-italienne Concordia (sur une distance de 1 100 km, ndlr). Il y a un fort gradient d’altitude ce qui permet d’observer les propriétés optiques des nuages, la composition isotopique de la vapeur d’eau et de la neige soufflée.

Un supercondensateur à base de ciment, d’eau et de carbone pour stocker l’électricité dans les structures en béton

La recette semble simple, en apparence : mélanger du ciment, de l’eau et du noir de carbone sous forme nanométrique permet de créer un supercondensateur carbone-ciment dont la capacité de stockage théorique est plutôt impressionnante. L’équipe de chercheurs a en effet calculé qu’un cube de béton de 3,5 m de côté (45 m³) dopé aux nanoparticules de noir de carbone pouvait stocker environ 10 kWh d’énergie électrique !

Quel est le secret de ce supercondensateur ?

Pour comprendre son fonctionnement, il faut revenir à la définition d’un condensateur. D’un point de vue physique, le principe est simple : deux plaques conductrices d’électricité sont immergées dans un électrolyte et séparées par une membrane.

Lorsqu’une tension est appliquée, les ions de l’électrolyte chargés positivement s’accumulent autour de la plaque chargée négativement.

Sur la partie opposée, c’est l’inverse qui se produit : les ions négatifs sont attirés par la plaque chargée positivement.

En jouant le rôle d’élément de séparation entre les charges, la membrane empêche les ions de migrer de part et d’autre, ce qui crée un champ électrique et provoque la charge du condensateur.

Le matériau dont il est question ici fonctionne sur le même principe, à la différence près que les plaques conductrices sont remplacées par un réseau dense et interconnecté de matériaux conducteurs (noir de carbone) emprisonnés au sein d’un matériau à base de ciment.

Pourquoi parle-t-on alors de supercondensateur ?  Parce que la quantité d’énergie qu’un condensateur est capable de stocker dépend directement de la surface totale des conducteurs. Or, le matériau dont il est question ici a la particularité de présenter une surface interne extrêmement élevée, ce qui lui confère une extraordinaire capacité de stockage !

Une structure et une méthode de fabrication particulières

Le papier publié dans le journal PNAS et disponible en open source explique l’approche mise en place par l’équipe du MIT pour concevoir ce matériau.

Contrairement aux batteries « classiques » qui font appel à la conversion d’énergie chimique, ce supercondensateur stocke directement l’énergie sous forme de charges électriques. L’utilisation d’un électrolyte est néanmoins toujours nécessaire pour que le transport des charges électriques puisse avoir lieu. Heureusement, ce matériau est poreux, ce qui permet l’absorption d’électrolyte après immersion dans un bain contenant un sel comme le chlorure de potassium.

Voici les principales étapes de fabrication d’un tel supercondensateur :

  • mélange de ciment Portland avec une proportion de noir de carbone nanostructuré (à peine quelques % en volume) ;
  • ajout d’eau et d’un superplastifiant ;
  • processus d’hydratation du ciment, conduisant notamment à la création d’un réseau ramifié d’ouvertures ;
  • migration du carbone dans ces espaces, ce qui forme des structures filaires dans le ciment après la prise ;
  • immersion du matériau dans un électrolyte.

Si la méthode de fabrication est à la fois simple et innovante, elle permet en tout cas de créer un matériau à la structure étonnante. Les « fils de carbone » forment en effet un réseau de fractales, dont chaque branche plus grande possède de nombreuses ramifications vers des branches plus petites, dont la surface est extrêmement grande, pour un volume restreint.

De premiers résultats concluants et des applications potentiellement nombreuses

Après une série d’essais visant à mettre au point les ratios ciment/noir de carbone/eau les plus efficaces, l’équipe du MIT a ensuite testé la fabrication de petits supercondensateurs similaires à des piles boutons.

Ils ont réussi à obtenir de petits dispositifs de 1 cm de diamètre par 1 mm d’épaisseur. Trois de ces « piles » ont été nécessaires pour allumer une LED de 3 V. Le principe de fonctionnement est donc prouvé et les chercheurs prévoient maintenant la construction de batteries de voiture fonctionnant en 12 V.

Mais l’équipe du MIT à bien d’autres ambitions ! Comme nous le disions en introduction, le fait que les matériaux constitutifs soient abondants et peu coûteux permet d’imaginer toutes sortes d’applications peu envisageables avec des batteries Li-Ion classiques :

  • routes en béton capables de stocker l’énergie produite par des panneaux solaires situés à proximité, afin de recharger les véhicules électriques par induction ;
  • alimentation en énergie électrique de bâtiments physiquement éloignés du réseau électrique ;
  • stockage à proximité de sources ENR (solaire, éolien, etc.).

Bien entendu, comme le matériau est constitué de ciment, cela laisse entrevoir beaucoup de possibilités dans le domaine de la construction. Les chercheurs ont cependant constaté qu’un compromis devait être trouvé entre capacité de stockage et résistance structurelle. C’est tout à fait logique, car plus on ajoute de noir de carbone, plus la structure est fragilisée.

Dans le communiqué de presse du MIT, les chercheurs affirment avoir calculé que pour des applications structurelles telles que les fondations en béton d’une éolienne, il ne faut pas dépasser 10% de noir de carbone dans le mélange.

Pour le professeur Franz-Josef Ulm du MIT, ce matériau multifonctionnel constitue « une nouvelle façon d’envisager l’avenir du béton dans le cadre de la transition énergétique ».

Chief Impact Officer : le nouvel allié business de la RSE

L’étude « L’emploi dans les startups en France en 2023 » de France Digitale parue en juin 2023 dévoile que seulement 4 % des startups comptent dans leurs effectifs une personne exerçant des fonctions liées à la RSE, mais la tendance s’accélère. Le poste de Chief Impact Officer, aussi appelé directeur de l’impact ou de l’engagement, se déploie un peu partout dans les grandes entreprises, mais aussi dans les startups. Leur mission ? Mesurer les impacts sociaux, sociétaux et environnementaux de l’entreprise et repenser le business model de l’entreprise pour qu’il réponde à ces enjeux.

Un chef d’orchestre de l’impact

Entre autres missions, le Chief Impact Officer (CIO) lance les bilans carbone, suit les questions de diversité et d’égalité et s’assure de la bonne gouvernance, auprès de l’ensemble des parties prenantes internes et externes à l’entreprise. « C’est une tendance de fond », prévient Maya Noël, directrice générale de France Digitale, à l’occasion de la table ronde « Chief Impact Officer : magique ou bullshit », le 30 août lors des universités d’été de l’économie de demain à Paris.

Quel que soit le cœur d’activité de l’entreprise, Maya Noël présente le CIO comme un « chef d’orchestre » qui doit « s’assurer que tous les départements ont une démarche responsable ». « C’est un chef d’orchestre qui peut être pris par différents profils », ajoute Audrey Zermati, directrice stratégie chez Effy.

Le business au cœur de la stratégie

Au quotidien, le Chief Impact Officer officie aux ressources humaines, au marketing, à la communication, au service financier ou encore logistique. Pour savoir où il sera le plus pertinent, « il faut partir du cœur business de l’entreprise et voir où est-ce qu’il est possible d’avoir le plus d’impact, quel est le département qui va le plus “driver” les changements de comportement », partage Maya Noël. « Pour être écouté, fédérer et convaincre, il faut être au cœur des enjeux business de l’entreprise et pouvoir argumenter à partir des éléments business », ajoute-t-elle.

Dans la production, le CIO pourra ainsi être rattaché à la logistique afin d’optimiser l’impact de la chaîne d’approvisionnement. Dans une entreprise de conseil, il sera le plus souvent aux ressources humaines. « Être intégrée aux personnes qui font la communication me permet de faire passer mon message auprès des salariés et dans toutes nos communications externes de manière simplifiée », assure de son côté Audrey Yvert, Head of Impact and advocacy chez OpenClassrooms au sein du service marketing.

Par anticipation de la Directive européenne sur la publication d’informations extrafinancières pour les grandes entreprises, les Chief Impact Officer sont de plus en plus souvent rattachés au directeur administratif et financier (DAF, ou CFO). « Le CFO qui fait tous les reportings financiers devrait aussi être responsable des reportings sociaux et environnementaux et que cela soit centralisé par la même personne », analyse Audrey Yvert.

Pour Audrey Zermati, la question du département importe finalement peu dès lors que le CIO obtient la confiance des plus hauts décideurs et devient « le porte-voix de l’équipe exécutive ». Quel que soit son département, « le Chief Impact Officer doit avoir un positionnement central et être proche des décisionnaires », prévient Audrezy Zermati. Pour avoir le maximum d’impact, ce poste est ainsi rattaché hiérarchiquement au comité exécutif (Comex) ou au comité de direction (Codir). « On tire la légitimité de la gouvernance », prévient la directrice stratégique qui souligne aussi la nécessité d’une connaissance fine de l’entreprise et de ses parties prenantes.