Kanop : mesurer le carbone stocké par les forêts depuis l’espace et grâce à l’IA

Cofondée par Louis de Vitry et Romain Fau en juin 2021, la start-up Kanop propose aux forestiers de quantifier la capacité de leurs parcelles à séquestrer le carbone atmosphérique et ce, à l’aide de données acquises depuis l’espace : images satellites multispectrales, mais aussi mesures radars. Ces données permettent en effet de mesurer la hauteur, le diamètre mais aussi de déterminer l’essence de chaque spécimen ; des paramètres qui, combinés, permettent le calcul de la quantité de carbone piégé par chacun des arbres. Ce niveau de précision rend possible l’élaboration d’un véritable « jumeau numérique » de la forêt, qui permet d’en mesurer, mais aussi d’en certifier, les services climatiques. C’est ce que nous explique Louis de Vitry, cofondateur et chargé de la technologie de Kanop, récemment sélectionnée pour la finale du « Canopée Challenge »[1], qui aura lieu en mai prochain à Paris.

Techniques de l’Ingénieur : Vous avez cofondé Kanop l’année dernière avec Romain Fau. Qu’est-ce qui vous a conduits, tous les deux, à créer cette start-up ? Quels étaient vos objectifs de départ ?

Louis de Vitry, cofondateur et directeur de la technologie de Kanop. © Kanop

Louis de Vitry : Les origines du projet sont liées à la prise de conscience, par Romain et moi, de l’importance des enjeux « énergie-climat ». Nous nous sommes rencontrés en avril 2021, dans un incubateur de talents qui s’appelle Entrepreneur First, dont la mission est de rassembler les personnes désireuses d’entreprendre. Avec Romain, nous nous sommes tout de suite accordés sur cette envie de faire quelque chose pour l’environnement grâce à nos compétences respectives : le business pour Romain, et l’intelligence artificielle pour moi. Nous avons passé quelques mois, entre avril et juin, à explorer le marché pour savoir où nous allions. Nous avons commencé à travailler sur cette idée précise il y a un peu moins d’un an. Avec Kanop, nous avons visé l’objectif de mesurer et certifier les services écosystémiques rendus par les forêts. Pour mettre cela dans le contexte, face aux problèmes sévères que va causer le changement climatique, la première carte que les entreprises ont à jouer est celle de la réduction de leurs émissions. Malheureusement, cela ne suffira pas et il faudra aussi compter en bonne partie sur les solutions dites « naturelles », que sont l’agriculture, mais aussi les activités sylvicoles, le fait de planter des arbres. Or, aujourd’hui, il est très compliqué de mesurer le succès de ces campagnes de plantation d’arbres et plus largement d’amélioration des pratiques sylvicoles. C’est là où nous avons décidé d’intervenir.

Concrètement, en quoi consiste la solution que vous avez développée ?

Un client nous donne une parcelle d’intérêt – sa forêt – et nous sommes capables, automatiquement, de mesurer le carbone séquestré. Nous réalisons cela grâce à l’analyse d’images satellites par intelligence artificielle. Nous ne traitons pas uniquement des données optiques, nous travaillons aussi avec le radar. L’enjeu avec les forêts est en effet qu’elles impliquent de nombreux paramètres à mesurer, qui ne le sont pas tous avec de l’optique. Il existe un triple dilemme de résolution : la résolution spatiale, qui correspond à la taille d’un pixel au sol ; la résolution temporelle, c’est-à-dire la fréquence à laquelle les images sont disponibles ; et la résolution spectrale : quelles sont les longueurs d’onde disponibles. Notre défi s’apparente à un exercice d’équilibriste entre le fait de trouver les données les plus accessibles, mais aussi les moins chères, qui contiennent l’information nécessaire à l’élaboration de nos indicateurs.

Comment parvient-on à mesurer, depuis l’espace, les capacités d’une forêt à capter du carbone ?

La quantité de carbone stockée dans un arbre dépend, à peu de choses près, de trois facteurs : l’essence de l’arbre, son diamètre et sa hauteur, c’est-à-dire sa dendrométrie. Le diamètre et la hauteur vont en effet nous donner un volume de matière. En connaissant l’essence de l’arbre, nous allons pouvoir combiner ces données pour calculer un volume de carbone stocké. Les images satellites nous permettent d’évaluer tous ces indicateurs : les essences sont assez bien discernables avec des bandes optiques multispectrales, quand la hauteur sera plus facilement estimable avec des données SAR[2], c’est-à-dire radar.

Grâce à cela, nous pouvons créer un « jumeau numérique » de la forêt, une image de très haute résolution, de l’ordre de trente centimètres. Les données nécessaires sont renouvelées toutes les quelques années. Mais nous sommes capables de mettre à jour ce jumeau numérique grâce à des données de résolution spatiale intermédiaire qui sont, elles, disponibles presque toutes les semaines.

Grâce à sa précision, la solution de Kanop permet d’obtenir un véritable « jumeau numérique » d’une forêt. © Kanop

Ces données satellites suffisent-elles à élaborer ce jumeau numérique ?

Non, il faut aussi calibrer les modèles, et ce pour plusieurs raisons. Il faut tout d’abord entraîner les modèles qui vont calculer les indicateurs. Qu’il s’agisse des essences ou de la hauteur, il faut des données d’entraînement ; il faut dire au modèle : « Je te donne cette image, comment peux-tu me restituer la hauteur de l’arbre ? ». Il faut, en plus de cela, des données pour tester le modèle. Tous ces indicateurs sont calibrés avec des données de terrain.

Quel(s) rôle(s) l’intelligence artificielle joue-t-elle dans l’élaboration de ces modèles ?

L’essentiel de notre produit repose sur des technologies de computer vision/deep learning[3]. Cela peut presque être vu comme une API[4], dans laquelle l’entrée, le cœur de la requête pour le client, est la zone d’intérêt. À partir de là, nous allons collecter automatiquement toutes les images liées à cet emplacement. Il faut ensuite appliquer les bons modèles sur les bonnes images pour estimer les bons indicateurs. Ces briques technologiques sont déjà utilisables, mais aussi en constante amélioration. C’est un travail indispensable pour obtenir des résultats les plus précis possible, un travail de longue haleine. Nous cherchons à enlever de la friction et à baisser les coûts pour nos clients.

Kanop dispose d’une interface de présentation des résultats utilisée pour l’heure uniquement en interne. © Kanop

Comment les informations générées sont-elles présentées au client ?

Nous avons aujourd’hui une interface en interne qui nous permet de présenter les résultats à nos clients par visio. Nous nous consacrons en effet pour l’instant plutôt à des projets de pilotes payants. Nous n’avons pas encore développé un produit en self-service, notre objectif à terme étant de faire du SaaS[5]. Notre originalité est de présenter un bilan carbone des forêts à l’échelle de l’arbre : nous identifions chaque arbre, avec sa hauteur, son essence et son diamètre. Cela donne une information globale plus précise, mais cela rend aussi, et surtout, le résultat discutable. Chaque arbre étant géolocalisé, nous sommes en mesure de présenter les résultats sous de multiples formes. Nous le faisons en général par parcelle, ou sous forme de heatmap[6]. Nous pouvons aussi générer des tableaux qui permettent à un client de connaître le nombre d’arbres de l’une de ses parcelles, leur hauteur, la biomasse totale… Tout l’enjeu consiste à trouver la bonne façon d’agréger les données brutes pour donner une vision à toutes les échelles : de la parcelle, du projet, d’une grille aux dimensions données…

Au-delà des résultats en tant que tels et de la vision qu’ils permettent d’offrir, quelle pourrait-être la finalité de ce type de données ?

Plus que mesurer, nous voulons vraiment « certifier ». Nous observons en effet un phénomène assez nouveau : les crédits carbone étaient auparavant attribués en amont du projet, avant ou au tout début de la plantation, et ce pour plusieurs dizaines d’années. Aujourd’hui, les projets se font financer au fur et à mesure que le carbone est séquestré. Cela demande donc une revisite fréquente afin d’observer l’évolution tous les quelques mois ou tous les ans. C’est cela que nous visons avec notre solution.

Sur quelle surface avez-vous, pour l’heure, entraîné ou mis en œuvre votre solution ?

Nous avons déjà travaillé sur des centaines d’hectares, presque des milliers, pour servir des clients. Au-delà de ça, nous avons aussi travaillé en interne, sans chercher à fournir de résultats à un client, sur des milliers de kilomètres carrés. Cela nous a permis d’alimenter et de tester le modèle.

Quels clients, quels marchés visez-vous ?

Nous avons deux segments clients. Le premier est celui du marché de la compensation carbone : des projets forestiers de plantation, d’agroforesterie ou encore d’improved forest management, c’est-à-dire de meilleure gestion des forêts afin d’augmenter le stockage de carbone. Le deuxième segment client que nous avons est celui de la foresterie traditionnelle. Ces clients veulent, eux aussi, connaître leur stock de bois, l’évolution de leur forêt…

À quelle échéance envisagez-vous de rendre la solution disponible en self-service ? Quel serait son coût ?

Nous n’avons, pour l’instant, pas l’infrastructure nécessaire. Il nous faudra encore quelques mois pour pouvoir proposer la solution en self-service. Il nous reste à développer l’application en tant que telle, plus que la technologie en elle-même. Quant au coût, il devrait être de quelques euros par hectare et par an. Le montant précis variera en fonction de la taille du projet, de sa localisation, du niveau de précision souhaité… L’idée étant de proposer un abonnement pluriannuel. À titre de comparaison, une mesure précise sur place d’un hectare de forêt coûte aujourd’hui entre cinquante et cent euros. Cela peut aussi se faire par drone, mais cela coûte cher et représente une opération logistique assez contraignante. En plus de réduire d’un facteur cinq à dix le prix de l’opération, notre solution épargne également à nos clients ces contraintes logistiques.

Quelles pourraient-être les autres applications de la technologie que vous développez ? Avez-vous d’autres projets en vue ?

Nous travaillons aussi un peu sur l’aspect « assurance des forêts », qui est un petit marché. L’idée serait de pouvoir expliquer les dégâts sur une forêt après un évènement climatique par exemple. L’essentiel de notre feuille de route est aussi axé sur la fiabilisation de nos modèles, ainsi que d’en fournir plus et de les rendre accessibles dans un produit. À plus long terme, nous nous intéresserons aussi peut-être plus largement aux environnements naturels, au-delà de la forêt. Il y aura peut-être aussi des aspects liés à la santé de la forêt. Mais nous préférons, pour l’instant, nous concentrer sur une seule chose.

La mise à disposition de certaines données en open-data est-elle envisageable, dans le cas de forêts publiques par exemple ?

Bien sûr ! Nous travaillons effectivement sur des projets de forêts publiques, dont nous ne prévoyons pas forcément de dévoiler tous les résultats – par exemple l’identification précise et géolocalisée de chaque arbre –, mais éventuellement d’une partie des données agrégées.

___________________________________________________

[1] Concours international d’innovation au sein de la filière forêt-bois, porté par Forinvest Business Angels, l’École Supérieure du Bois, Fibois France et Xylofutur pour promouvoir la filière.

[2] Synthetic-aperture radar, radar à synthèse d’ouverture (RSO) : technique exploitant le déplacement de l’antenne pour former une antenne « de synthèse » de dimension plus importante, et donc d’une résolution angulaire plus élevée que la même antenne, immobile. La grande antenne est reconstituée par traitement du signal (source : Onera).

[3] Vision par ordinateur / apprentissage profond

[4] Application Programming Interface : interface de programmation d’applications

[5] Software as a service : logiciel en tant que service

[6] Carte de fréquentation : représentation graphique de données sous forme d’un dégradé de couleurs variant en fonction de l’intensité de la grandeur mesurée.

Une nouvelle inflexion pour la chaleur renouvelable ?

Une mauvaise habitude bien française a eu lieu lors du débat entre les deux tours de l’élection présidentielle : la question de l’énergie s’est irrémédiablement réduite au seul sujet de l’électricité. Pourtant, l’enjeu numéro 1 avec la décarbonation des transports est celui de la chaleur. Rien que dans le secteur résidentiel, la consommation de chauffage et d’eau chaude sanitaire dépasse de loin les autres usages, en particulier les besoins en électricité pour les équipements spécifiques (éclairage, électroménager, informatique, etc.). La part des énergies renouvelables est minoritaire et celle apportée par des réseaux de chaleur collectifs encore plus faible.

Cette figure montre que les besoins en chaleur (chauffage + eau chaude sanitaire) sont très importants dans le secteur résidentiel et encore largement dominés par les énergies fossiles. Source : SDES*

* SDES

La situation est paradoxale, car la France a de grandes ambitions en matière de chaleur renouvelable pour le résidentiel, le tertiaire et aussi l’industrie. La programmation pluriannuelle de l’énergie prévoit ainsi que la consommation de chaleur renouvelable, tous secteurs confondus, passe de 154 TWh en 2017 à 196 TWh en 2023 et autour de 230 TWh en 2028. Elle prévoit également que les réseaux de chaleur et de froid délivrent entre 32 et 38 TWh d’ici 2028, soit un doublement par rapport à 2017.

La chaleur renouvelable encore loin du compte

Ces ambitions sont soutenues de longue date par des dispositifs d’aide, en particulier le Fonds Chaleur. Avec 1,9 milliard d’euros entre 2009 et 2017, il a permis d’aider 4 300 opérations. Mais on est loin du compte pour tenir le rythme nécessaire à la transition énergétique. Les professionnels de la chaleur renouvelable demandent depuis longtemps un renforcement du Fonds pour accélérer le recours aux réseaux urbains ou industriels de chaleur/froid et aux sources renouvelables et de récupération (biomasse, géothermie, biogaz, valorisation des déchets, solaire thermique, chaleur fatale industrielle, etc.). Une première révision par les pouvoirs publics, sur la période 2020-2022, a permis de porter le Fonds Chaleur à environ 340 millions d’euros par an. Le Plan de résilience annoncé en mars dernier incluait une enveloppe supplémentaire de 150 M€ en 2022.

« Cette nouvelle hausse des soutiens financiers du Fonds Chaleur est bienvenue pour faire sortir les projets étant déjà dans les tiroirs, explique Pierre de Montlivault, président de la Fedene, la fédération des services énergie environnement. C’est une mesure de court terme qui a son importance, avec toutes les mesures d’économies d’énergie qui doivent nous permettre de diminuer notre dépendance au gaz russe, afin de passer sereinement l’hiver prochain. Mais il y a aussi besoin de lancer des mesures de long terme pour tripler le rythme, comme notre fédération l’a détaillé dans son vade-mecum ». Les professionnels rappellent la promesse du candidat Macron de porter le Fonds Chaleur à plus de 700 M€ par an, et ajoutent que pour tenir les objectifs nationaux, un montant d’un milliard d’euros par an est à viser.

Le développement des réseaux de chaleur est en ce sens une priorité, notamment pour les collectivités et entreprises qui se retrouvent avec des factures d’énergie multipliée par deux ou trois, voire plus, à cause de la hausse du prix du gaz et de l’électricité. Les acteurs ne manquent pas d’idées : dans une tribune récente, ils ont proposé que les immeubles à proximité d’un réseau existant puissent être rapidement raccordés grâce à un soutien public qui laisserait un reste à charge de seulement 100 euros par logement. La Fedene a aussi mené une étude qui lui a permis d’identifier 1 300 villes suffisamment denses en habitations et bureaux pour accueillir un nouveau réseau de chaleur. « L’Ademe pourrait lancer un appel à projets pour ces 1 300 réseaux urbains à créer, ciblé sur les collectivités de moins de 50 000 habitants. Ce serait très efficace, à l’image de ce qui a été fait pour France Relance », complète Pierre de Montlivault.

Accélérer les dynamiques locales

Installer un nouveau réseau de chaleur prend quelques mois ou années selon sa taille, mais permet aux collectivités de s’inscrire dans un temps long pour planifier l’accès aux ressources énergétiques. « Il faut s’écarter du gaz, et l’électricité n’est pas une valeur refuge : les pouvoirs publics ont tout à gagner à promouvoir la chaleur renouvelable et les réseaux. On pourrait même imaginer un service universel de la chaleur », affirme Nicolas Garnier, délégué général d’Amorce, un réseau de collectivités et d’acteurs locaux sur la transition énergétique. Parmi les autres pistes allant dans le sens de l’accélération souhaitée et d’une mobilisation dans la durée, il indique qu’on pourrait dès maintenant encourager les collectivités (via une étude de faisabilité soutenue à 80 %) à réaliser un plan territorial chaleur tel que l’Union européenne le prévoit dans son paquet « Fit for 55 ».

La mise en place d’un maillage de développeurs spécialisés dans les réseaux de chaleur, à l’échelle départementale, permettrait de dynamiser l’intérêt des collectivités et entreprises. Enfin, des mécanismes facilitant l’accès au Fonds Chaleur et sécurisant les projets en cas de rechute du prix du gaz (forfait d’aide automatique pour des niveaux de production plus élevés qu’actuellement, fonds assurantiels, etc.) ainsi qu’un véritable plan de développement de la chaleur fatale et de valorisation énergétique des déchets aideraient la France à sortir enfin de son tropisme électrique !

Fiabiliser une norme internationale pour déterminer l’acidité des océans

À l’image de la forêt amazonienne, qualifiée de poumon vert de la planète, les océans sont souvent décrits comme le poumon bleu. Ils sont capables d’absorber entre 25 et 30 % des émissions de CO2 rejetées chaque année dans le monde. Revers de la médaille, ce processus n’est pas sans impact sur la chimie des eaux de mer, et serait notamment responsable de l’acidification des océans. Pour évaluer plus précisément ce phénomène, un projet de recherche européen appelé SapHTies a débuté afin d’améliorer une norme internationale (ISO 18191:2015) utilisée pour mesurer le pHT (pH Total) dans l’eau de mer. Celui-ci est l’un des quatre paramètres permettant de déterminer l’acidité, au côté de l’alcalinité totale, de la pression partielle du CO2 et du carbone inorganique dissous. Ce projet regroupe un consortium de cinq instituts nationaux de métrologie représentant la France, l’Allemagne, le Portugal et le Danemark ainsi que deux instituts océanographiques (français et allemand).

« Aujourd’hui, les évolutions de pHT que l’on observe dans certains océans sont de l’ordre de quelques millièmes à l’échelle d’une année, explique Florence Salvetat, responsable du laboratoire de métrologie à l’Ifremer. Cette variation est à la fois très importante sur le plan environnemental, mais aussi très petite à mesurer. Autant il est facile de mesurer une température avec une précision de trois chiffres après la virgule, autant pour le pHT, la mesure est beaucoup plus difficile à réaliser de manière fiable ».

Il existe différentes façons de mesurer le pHT dans l’eau de mer. La technique la plus employée par les océanographes et décrite par la norme internationale fait appel à la spectrophotométrie. Il s’agit d’une méthode optique qui consiste à mesurer l’absorbance d’une solution pour plusieurs longueurs d’onde données. L’eau de mer étant transparente, il est nécessaire de lui ajouter un indicateur coloré, le pourpre de m-crésol, dont le rôle est d’absorber la lumière. Ce dernier n’a pas été choisi par hasard, car lorsqu’il se dissocie, il provoque l’apparition de deux pics dans la solution, l’un correspondant à l’acidité et l’autre à la basicité. C’est en mesurant le ratio d’absorbance entre ces deux pics que le pHT est déterminé.

Établir un mode opératoire scrupuleux et des consignes claires

Actuellement, cette technique est jugée robuste, dans le sens où les résultats obtenus sont répétables. Sauf qu’elle n’a jamais été validée en utilisant les concepts de la métrologie, la science de la mesure. Celle-ci repose sur trois piliers, à savoir : la traçabilité du résultat, la validation de la méthode et la détermination des incertitudes de mesure. « Pour l’instant, les incertitudes de cette méthode n’ont jamais été établies avec la rigueur d’un institut de métrologie, analyse Daniela Stoica, ingénieur de recherche au LNE (Laboratoire national de métrologie et d’essais). Or, si on veut comparer des valeurs obtenues par différents laboratoires, à différents moments dans le temps et dans différents endroits géographiques, il faut s’assurer que les résultats sont justes et que les incertitudes soient connues. Il est donc important que le monde de la métrologie travaille avec celui de l’océanographie. »

Les scientifiques veulent établir un mode opératoire scrupuleux et des consignes claires d’utilisation de cette technique spectrophotométrique afin de garantir une qualité de résultat nécessaire pour suivre les évolutions de l’acidité dans le temps. Pour y parvenir, ils ont notamment l’intention de préciser le degré de purification de l’indicateur coloré à utiliser, ainsi qu’améliorer la technique de délivrance, c’est-à-dire la manière dont il doit être incorporé dans l’eau de mer. « D’autres pistes de travail sont aussi envisagées comme la définition de la qualité des instruments spectrophotométriques à employer, ainsi que revoir les équations et les calculs utilisés pour parvenir au résultat », complète Florence Salvetat.

Ce projet a aussi pour objectif d’étendre la norme à de plus grandes variations de niveau de salinité de l’eau. Actuellement, elle est limitée à des valeurs comprises entre 20 et 40*. Or, certaines mers ont un gradient de salinité plus large. C’est le cas de la mer Baltique, située dans le nord de l’Europe, et dont la salinité peut varier entre 5 et 40*. Un autre aspect concerne la qualité des eaux. La méthode a été conçue pour être utilisée dans les eaux du large et n’est pas adaptée pour mesurer le pHT des eaux près des côtes. Celles-ci sont réputées moins stables car le milieu y est plus perturbé : variations du niveau de salinité et des températures, pollution et turbidité de l’eau. « Il faut que la mesure soit valide à tous les endroits des océans, que ce soit près des côtes, mais aussi dans les eaux froides situées près des pôles, ainsi que dans les eaux profondes, ajoute Daniela Stoica. Il est également important qu’il y ait une continuité dans la façon de réaliser la mesure entre les eaux continentales et les eaux océaniques. »

Face au progrès technologique et à l’évolution des techniques de mesure, la mise à jour de normes de mesure internationales est un travail régulier à mener. Au-delà d’améliorer la qualité de la mesure du pHT à un instant T, ce travail de recherche doit aussi permettre d’augmenter la fiabilité des prédictions réalisées à partir de ces données. Le projet SapHTies, débuté il y a un an, doit se terminer en mai 2024.

*Pas d’unité de mesure pour la salinité de l’eau de mer 

Un Français sur cinq ne croit pas au réchauffement climatique

« Non seulement 1 Français sur 5 ne croit pas au réchauffement climatique, mais parmi les autres, la moitié ne semble pas prendre la mesure du défi qui nous attend », affirme Nicolas Moulin, fondateur de PrimesEnergie.fr qui a commandé une étude OpinionWay sur la perception de l’urgence climatique par les Français. L’étude a été réalisée au premier trimestre 2022 auprès d’un échantillon de 1 022 personnes représentatif de la population française âgée de 18 ans et plus.

Un chiffre frappant : 21 % des Français sont climatosceptiques avec d’importantes variations selon la région, le taux d’urbanisation et l’âge. Plus les citoyens sont confrontés à des phénomènes météorologiques extrêmes, plus ils sont enclins à croire au changement climatique. Si jusqu’à 26 % des Français sont climatosceptiques dans le nord-ouest du pays, ils sont « seulement » 17 % à l’être dans le sud-ouest, confronté plus souvent à des vagues de chaleur et de sécheresses.

Degré d’urbanisme et âge font la différence

Les habitants des plus petites communes, de 2 000 à 20 000 habitants, sont aussi plus climatosceptiques (25 %) que les habitants des zones rurales (20 %) et que les franciliens (18 %).

Mais c’est l’âge qui fait vraiment la différence. Ainsi, les 25-49 ans sont ceux qui croient le moins au changement climatique. Dans le détail, 29 % des 35-49 ans et 26 % des 25-34 ans ne croient pas au réchauffement climatique. À l’opposé, les aînés figurent parmi les moins climatosceptiques. 14 % des plus de 65 ans et 15 % des 50-64 ans pensent que le changement climatique est une arnaque. En revanche, l’étude ne relève pas de différence significative entre les femmes et les hommes. Respectivement, 21 % et 20 % n’y croient toujours pas.

Dans le même temps, 47 % des personnes interrogées pensent qu’il est trop tard pour inverser le cours du réchauffement climatique. Si les 35-49 sont les plus climatosceptiques, ceux qui y croient sont aussi les plus persuadés (57 %) qu’il est trop tard pour inverser la tendance au réchauffement. À l’opposé, les plus de 65 ans demeurent plus optimistes : ils sont seulement 39 % à penser qu’il est trop tard pour agir efficacement.

Faire le lien entre climat et société

« Une part significative des répondants ne fait pas de lien direct entre le dérèglement climatique et les thématiques sociales et pourtant, les périodes de sécheresse de plus en plus intense en France et dans le monde, comme actuellement dans l’ouest des États-Unis, vont avoir des conséquences directes sur la production alimentaire et donc générer ou renforcer une inflation préexistante », estime Nicolas Moulin.

En effet, 63 % des Français considèrent qu’il y a des sujets plus prioritaires, comme l’emploi, la sécurité, le pouvoir d’achat et la santé. Le critère le plus déterminant reste ici générationnel. Ainsi, 71 % des 35-49 ans considèrent que d’autres sujets sont davantage prioritaires contre 52 % des 18-25 ans.

« Opposer la lutte pour le climat aux enjeux sociaux est un contresens total, le niveau de réchauffement sur lequel nous pouvons agir aujourd’hui va totalement conditionner l’ensemble des autres sujets jugés plus prioritaires par la majorité des Français », s’étonne Nicolas Moulin.

En fin de compte, trois Français sur quatre considèrent que la lutte contre le changement climatique n’est pas antinomique avec la croissance économique. Ils pensent même qu’elle est compatible avec le mode de vie des pays développés en réalisant des économies d’énergie. Les 35-49 ans sont cette fois les plus enclins à penser cela possible : 81 % contre 70 % chez 25-34 ans et chez les 50-64 ans.

Le meilleur de la tech #18

Travail de nuit pour les cellules photovoltaïques

Près de 750 millions de personnes dans le monde n’ont pas accès à l’électricité une fois la nuit tombée. Pourquoi cela ? Tout simplement parce que cela demande de stocker l’énergie obtenue en journée, à l’aide de batteries par exemple. Ainsi, les fameuses cellules photovoltaïques produisent uniquement de l’énergie diurne à partir du rayonnement solaire. Les tentatives théoriques et expérimentales visant à récupérer l’énergie issue du refroidissement radiatif durant la nuit se sont succédées… sans en voir aucune être réellement concluante. Des chercheurs de la Stanford University se sont donc attelés à la tâche, le résultat de leurs travaux ont été publié le 5 avril 2022 dans Applied Physics Letters. Les scientifiques ont mis au point un appareil incorporant un générateur thermoélectrique capable de collecter l’électricité issue de la différence de température entre les cellules photovoltaïques et l’air ambiant. Leur système est parvenu à atteindre un rendement de 50 mW/m² lors d’une nuit claire, avec une tension en circuit ouvert de 100 mV. Des valeurs de magnitude supérieure aux démonstrations précédentes. Peu coûteuse, cette invention pourrait même s’ajuster directement aux cellules préexistantes !

Le rat-robot a troqué ses roues pour des pattes

L’équipe chinoise du professeur Qing Shi, du Beijing Institute of Technology, avait déjà réalisé un rat robotique monté sur roues. Désormais, le voilà muni de quatre pattes… Le rat brun (rattus norvegicus) est un modèle biomimétique d’intérêt, car très agile et adaptable. Les scientifiques ont donc construit SQuRo, un rat robotique quadrupède de seulement 220 g. Mais que l’on ne s’y trompe pas ! SQuRo est d’une efficacité redoutable. Il est par exemple capable de porter des charges de 200 g – soit 91 % de sa masse. Une série de tests l’a aussi vu franchir un passage étroit de 90 mm, traverser un obstacle haut de 30 mm et se déplacer sans problème sur une pente de 15° ! Décrit plus en détail dans le IEEE Transaction Robotics du 7 avril 2022, SQuRo est également capable de réaliser toute une panoplie de mouvements grâce à son échine flexible : s’accroupir, ramper, se retourner et même se relever par lui-même après une chute ! Un petit cascadeur donc, qu’il faudra suivre avec attention…

Un hydrogel qui casse des briques

Les hydrogels sont largement employés, en dépit de leurs limitations : faible force d’activation, lenteur de réponse, sensibilité à la pression… Une équipe de chercheurs de la Seoul National University, en Corée du Sud, s’est inspirée de la turgescence des plantes pour y remédier. Quand l’eau pénètre dans les cellules biologiques de la plante, elle les dilate par la même occasion. La pression qui en découle a pour effet de rigidifier les parties molles : tiges, feuilles, pétales. Par mimétisme, les scientifiques ont enrobé leur hydrogel d’une membrane semi-perméable flexible et robuste, de manière à améliorer sa résistance au stress. Ensuite, ils ont ajouté un électrolyte dans la solution aqueuse en appliquant un champ électrique, ce qui a permis de réduire le temps de réponse de l’hydrogel. Finalement, ce dernier a pu supporter un stress intense – 0,73 MPa en 96 minutes – sur un volume de 1,16 cm³. Une valeur même surpassée, et en bien moins de temps, grâce à l’électrolyte : 0,79 MPa en seulement 9 minutes cette fois-ci ! En se gonflant, l’hydrogel peut casser une brique comme permettre la construction rapide de structures sous-marines. Et comme si cela ne suffisait pas, l’article de Science daté du 14 avril 2022 indique qu’il pourrait être d’un grand intérêt dans des domaines comme ceux de la robotique molle, de l’optique adaptative ou encore de la biomédecine…

Techniques de l’Ingénieur présent au salon Global Industrie 2022 !

Global Industrie est l’événement qui met en avant l’industrie française avec 2300 exposants et 15 grands univers de l’industrie comme l’électronique, la robotique ou encore la finition et le traitement des métaux. Cette quatrième édition, sous le signe de la réindustrialisation responsable, compte offrir une expérience salon sur-mesure, du 17 au 20 mai 2022 au Parc des expositions Villepinte, pour aider les industriels à se réinventer, à conforter et à développer leur activité, leurs projets.

Nouveauté de cette année 

Cette année, Measurement World est entièrement intégré à Global Industrie, suite au succès rencontré l’an dernier. La tenue conjointe des deux événements Global Industrie et Measurement World à Lyon en 2021, a clairement démontré la pertinence d’une synergie entre le monde de la mesure et celui des développements industriels. Aujourd’hui, cet univers mobilise 200 spécialistes de l’analyse, du contrôle, de la métrologie, de l’instrumentation et promeut l’ensemble des savoir-faire technologiques français et européens. Ce tremplin de lancement des innovations et des outils de veille, est donc l’occasion unique de voir, toucher et comprendre l’étendue des solutions technologiques et tous les apports de la mesure (contrôle, optimisation, productivité, qualité, fiabilité, valorisation des données…), à destination de tous les secteurs industriels.

Au programme 

Durant ces quatre jours et dans les deux univers, des conférences, une zone d’exposition des temps forts et des tutoriels seront proposés pour mieux comprendre les avancées en matière de transition énergétique, de métrologie des gaz ou encore d’innovations industrielles et de qualité de l’air.

Les temps forts de l’événement 

Articulés autour de quatre thématiques principales, les temps forts se présenteront sous les formes suivantes :

  • L’emploi : avec GI Avenir,  un espace sera dédié aux entreprises pour diffuser leurs annonces et rencontrer des potentiels candidats.
  • La veille : avec GI conférences, deux salles de conférences dans lesquelles se succéderont tables rondes, keynotes et masterclasses dans le but de faire découvrir aux visiteurs les problématiques et les stratégies actuelles en ce qui concerne le numérique, l’environnement ou encore la compétitivité industrielle française dans le monde et en Europe. 
  • L’innovation : avec GI Awards, le grand jeu concours organisé chaque année par les représentants récompensant les grandes innovations de l’année. 
  • La green industrie enfin, avec GI gas analysis : un symposium mondial sur l’analyse des gaz.

A ces temps forts s’ajoutent des visites virtuelles, des conventions d’affaires affinitaires “Nouvelles générations” et les Golden Tech, le grand concours sur la performance industrielle pour désigner les meilleurs professionnels de leur métier.  

Pour plus d’informations, veuillez consulter le site internet de l’événement : https://global-industrie.com/fr 

Écoutez notre podcast Cogitons Sciences : Une industrie accro aux minerais de conflit [Matériaux, histoire d’une vie #1]

Qu’appelle-t-on “minerais de conflits” ? Pourquoi leur extraction et leur utilisation sont-elles problématiques ? Pourrait-on un jour réglementer ce commerce ?  

Vous pouvez écouter l’épisode en suivant ce lien !  

Les 3TG [1:30 – 7:07]

“L’expression “minerais de conflit” vient du fait que l’exploitation de ces minerais participe à alimenter des conflits armés dans plusieurs régions du monde”, nous explique Marianna Reyne. Parmi la soixantaine de métaux entrant dans la composition des équipements électroniques, quatre de ces métaux sont issus de minerais de conflit : “le tantale qui est issu de la colombite-tantalite (le coltan), l’étain qui provient de la cassitérite, le tungstène dont l’origine est la wolframite, et l’or”. Ces métaux sont désignés par un sigle : “3TG” (pour tin, tantalum. tungsten et gold, en anglais). Ils viennent principalement de pays détenant “des ressources minières très importantes” : la République Démocratique du Congo, du Rwanda, du Burundi, de l’Ouganda, la Colombie, la Birmanie et l’Afghanistan. “Qu’il s’agisse d’opérations minières artisanales non réglementées ou d’activités industrielles, l’exploitation de ces minerais est illégale et entraîne de nombreuses dégradations sur l’environnement et des violations des droits humains”, souligne Marianna Reyne. 

Des conséquences humaines et environnementales alarmantes [7:51 – 17:48]

Il est estimé que l’extraction illégale de la cassitérite, du coltan et de l’or a provoqué en RDC l’enlèvement de la couverture végétale de la forêt ainsi qu’une très importante pollution : citons par exemple la dégradation des zones situées le long des rivières, dont résultent des problèmes d’érosion, un envasement de l’eau et un dépôt de résidus contaminants (dont mercure et cyanure) déversés dans les rivières. Quant aux conséquences humaines, elles aussi bien connues : “la violence et l’insécurité, qui caractérisent l’Est de la RDC, perdurent du fait de la compétition pour ce contrôle du commerce des minerais entre groupes rebelles, milices locales et forces armées des États voisins. Le contrôle illégal par les groupes armés et l’inaction étatique provoquent une situation humanitaire désastreuse dans la région : affrontements, violations des droits de l’Homme, travail forcé (y compris travail des enfants), violences sexuelles, attaques contre les civils… “En 2014, l’Unicef avait évalué à 40 000 le nombre d’enfants qui travaillaient dans les mines du Sud de la RDC”, précise Marianna Reyne.

Face à cette situation, l’Europe a légiféré, à la suite des Etats-Unis. “L’Union Européenne a adopté le 16 mars 2017 un règlement qui établit des obligations liées au devoir de diligence à respecter par les importateurs de l’UE […], détaille Marianne Reyne. Depuis le 1er janvier 2022, tout importateur de ces minerais qui dépasse les seuils fixés par le texte du règlement et qui importe ces minerais de zones de conflit ou à haut risque […] doit respecter un certain nombre d’obligations […]”. Cependant, cette réglementation est sous le feu des critiques : on lui reproche, entre autres, de ne pas prévoir de mécanismes de sanctions. “Jusqu’ici, aucun pays n’a mis en place des mesures pour aller voir si les fonderies et les affineries respectent le devoir de diligence”. 

Et la RSE dans tout ça ? [18:11 – 21:59]

Selon Marianna Reyne, les entreprises s’appuient sur un guide publié par l’OCDE en 2011 : considéré comme le standard de référence en matière de responsabilité sociétale des entreprises, ce guide est consacré au devoir de diligence pour les chaînes d’approvisionnement responsable en minerais provenant de zones de conflit. “On a aussi vu apparaître un certain nombre d’initiatives et de programmes venant de l’industrie, du téléphone ou de l’étain par exemple, et ces initiatives ont plus ou moins bien fonctionné […].”

Des tensions au cœur de l’actualité [22:48 – 32:31]

“S’agissant de la crise du Covid-19, analyse Marianna Reyne, les politiques publiques qui ont été adoptées de par le monde ont provoqué d’énormes problèmes liés aux arrêts de production, à la fois du fait des confinements des populations et de cette instabilité généralisée qui a été créée. Ce que l’on observe, ce sont des crises de production et de logistiques majeures qui ont généré elles-même des pénuries en cascade”. Exemple le plus emblématique : la pénurie des semi-conducteurs électroniques.        

Pour écouter cet épisode, c’est par ici. 

Références citées :

Guide OCDE 

iTSCi 

Sur le travail des enfants dans les mines de la RDC, nous vous conseillons cet article d’Amnesty International (qui cite les chiffres de l’Unicef) 

Ressources pour aller plus loin :

Le film documentaire Virunga (sorti en 2014) 

Le livre Cobalt Blues, d’Erik Bruyland (publié en 2021)

L’entreprise néerlandaise Fairphone 

Cogitons Sciences est un podcast produit par Techniques de l’Ingénieur.  Cet épisode a été réalisé par Intissar El Hajj Mohamed, en collaboration avec Marie-Caroline Loriquet. Le générique a été réalisé par Pierre Ginon et le visuel du podcast a été créé par Camille Van Belle.

Découverte d’un nouveau processus de formation du gaz naturel dans les schistes noirs

À l’origine, le projet européen SECURe s’était fixé des objectifs de recherche bien précis : évaluer les risques et améliorer le suivi des impacts potentiels sur l’environnement de l’usage du sous-sol à des fins d’exploitation de gaz de schiste ou de stockage du CO2. Débuté en 2018, ce travail a pu être mené à bien et s’est terminé l’an dernier. Mais il a aussi conduit à une découverte scientifique inattendue. Des chercheurs du BRGM (Bureau de recherches géologiques et minières) et des experts canadiens et suisses ont en effet mis en évidence un nouveau processus de formation du gaz naturel dans les schistes noirs, appelé radiolytique. Leur découverte vient d’être publiée dans la revue PNAS.

« Historiquement, on distingue trois grands types de gaz naturel, explique Wolfram Kloppmann, chercheur au BRGM et spécialiste de l’application des techniques isotopiques. Les deux premiers sont issus de la matière organique et sont typiquement ceux rencontrés dans les schistes noirs. La matière organique, lorsqu’elle est située dans un milieu anaérobie à basse température, sert de nourriture à des micro-organismes qui produisent alors un gaz microbien. Lorsqu’elle est enfouie à de grandes profondeurs et soumise à des températures très élevées, la matière organique se décompose pour former un gaz appelé thermogénique. Une dernière typologie provient de l’altération de certaines roches au contact de l’eau, entraînant des réactions chimiques complexes impliquant de l’hydrogène naturel, et conduit à la production d’un gaz dit abiotique (1). »

C’est en observant des valeurs atypiques dans la signature isotopique et chimique de certains gaz que les chercheurs mettent en évidence une quatrième source de gaz naturel. Celui-ci est composé de différents éléments, principalement du méthane, et dans une plus faible proportion, d’alcanes supérieurs tels que l’éthane, le propane, le butane et de l’hexane. Sur le plan isotopique, lorsqu’un gaz est pauvre en carbone 13, les connaissances scientifiques accumulées jusqu’ici permettaient de conclure assez rapidement qu’il était d’origine microbienne. Sur le plan chimique, cela se vérifiait, car il contenait une grande proportion de méthane au détriment des alcanes supérieurs. Le fait que les micro-organismes, en se nourrissant de matières organiques, produisent du méthane expliquait cette composition.

La radiation naturelle peut durer jusqu’à 500 millions d’années

En analysant un grand nombre de gaz à travers le monde, les scientifiques ont découvert la formation d’un gaz à la fois très appauvri en carbone 13 et riche en alcanes supérieurs. Des expérimentations menées par des chercheurs canadiens, durant lesquelles ils ont soumis de la matière organique à une source de radiations, ont permis de conclure que ce gaz est produit grâce aux radioéléments qui interagissent avec la matière organique. « Ces radioéléments sont par exemple l’uranium, le thorium ou le potassium 40, précise le chercheur. Leur présence dans la matière organique est très fréquente, mais à des niveaux de concentration très faible. Étant donné qu’ils sont présents sur de très longues périodes, parfois jusqu’à 500 millions d’années, leur association avec la matière organique va provoquer une radiation naturelle non négligeable et donc produire une petite quantité de gaz qui va s’accumuler dans la roche imperméable. »

Cette découverte va permettre d’améliorer les connaissances scientifiques sur la formation des gaz dans les réservoirs non conventionnels. Les experts pourront ainsi inclure cette production permanente de gaz radiolytique à faible dose dans les schistes noirs afin de mieux quantifier l’estimation des ressources disponibles.

Elle devrait aussi permettre d’éviter les interprétations réalisées de manière un peu rapide jusqu’ici lors de la surveillance d’exploitation de gaz de schiste, notamment aux États-Unis et au Canada. « Toute la difficulté de notre travail est de savoir si les fuites observées proviennent du forage ou pas. Jusqu’à présent, sur le plan de la signature isotopique, on pensait qu’un gaz pauvre en carbone 13 était forcément le signe qu’il était d’origine microbienne. Dans certains cas, on pouvait alors écarter l’hypothèse que la fuite est liée au forage, et conclure qu’elle vient de l’environnement, par exemple de marécages qui peuvent aussi produire du gaz à partir de la matière organique fraîche qu’ils contiennent. À présent, on sait qu’un gaz peut à la fois avoir une signature à première vue microbienne, et être produit par la radiolyse de la matière organique dans les schistes noirs », conclut Wolfram Kloppmann.

(1) Abiotique : milieu dans lequel la vie est impossible

Un mois dans l’espace #28

SpaceX mène sa première mission – nommée Ax-1 – entièrement privée

Le 8 avril dernier, une fusée SpaceX transportait quatre passagers jusqu’à la station spatiale internationale. Trois hommes d’affaires et un astronaute ont payé plusieurs dizaines de millions de dollars afin de passer quelques jours à bord de l’ISS. La société Axiom Space, organisatrice du voyage, a ainsi sollicité et rétribué SpaceX, mais également la Nasa, pour donner vie à ce projet.

Le commandant de la mission, le seul à voyager gratuitement, est l’Américano-Espagnol Michael Lopez-Alegria, ancien astronaute. Il s’est déjà rendu à bord de la station spatiale internationale. Le rôle de pilote est occupé par l’Américain Larry Connor, il est à la tête d’une société immobilière. Le Canadien Mark Pathy, patron d’une société d’investissement, et l’ex-pilote Eytan Stibbe, cofondateur d’un fonds d’investissement, complètent l’équipage.

Après 10 jours passés à bord de l’ISS en compagnie d’un autre équipage « professionnel », les quatre touristes ont regagné la capsule Crew Dragon de SpaceX pour commencer leur retour sur Terre. Ils ont touché terre le 25 avril, sans encombres : la capsule a amerri comme prévu au large des côtes de la Floride, comme on peut le voir sur cette vidéo :

Durant leur périple à bord de l’ISS, les quatre apprentis astronautes ont pu goûter aux joies de la microgravité, et profiter de la vue imprenable depuis la coupole à l’extrémité de la station.

Les trois passagers « payants » ont participé et mis en place des expériences scientifiques diverses, comme des recherches sur les cellules cancéreuses, ou le développement d’un purificateur d’air pour la station, entre autres.

La fusée géante de la Nasa prend du retard

Le Space Launch System (SLS) développé par la Nasa, qui doit ramener l’Homme sur la Lune dans les prochaines années, a du plomb dans l’aile. Un test capital, qui devait avoir lieu le 4 avril dernier, a dû être annulé au dernier moment. La fusée géante développée par la Nasa, qui doit faire plus de cent mètres de haut, devait durant ce test effectuer tous les réglages menant au décollage, avec notamment le remplissage des réservoirs, qui n’a lieu que quelques minutes avant le décollage réel.

La Nasa a expliqué, via un communiqué de presse, les raisons de cet échec : « Pendant le refroidissement des lignes en préparation du chargement de l’hydrogène liquide, les équipes ont rencontré un problème avec un panneau du lanceur mobile qui contrôle la valve d’évent de l’étage du noyau. La valve de mise à l’air libre a pour but d’évacuer la pression de l’étage du noyau pendant le remplissage. »

Alors que la fusée est restée plusieurs jours immobile, dans l’attente du feu vert pour effectuer le test, il a été décidé de rentrer le SLS… il va falloir quelques semaines pour résoudre ce problème, et le vol d’essai initialement prévu début juin 2022 risque fort d’être retardé, lui aussi.

Image de une : Le corps de la fusée SLS, crédits ©Nasa.

Les usages de l’acier dans l’industrie

L’acier est un alliage de fer et de carbone. En cela il diffère des autres alliages métalliques, constitués uniquement d’un mélange de métaux, l’un de ces derniers étant présent en quantité très majoritaire dans l’alliage. Les aciers contiennent donc une majorité de fer et un peu de carbone (2 % en général), mais également, dans des proportions très fines, d’autres types de métaux, ou encore des inclusions non métalliques. Ce sont ces éléments, présents en très petites quantités, qui déterminent, entre autres, les caractéristiques précises de l’acier obtenu, et l’usage industriel qui lui sera réservé.

Outre la composition exacte de l’acier, les conditions dans lesquelles va être obtenu l’alliage déterminent également ses propriétés : température, temps de préparation, obtention via un haut fourneau ou un arc électrique… Ce sont donc bien les ingrédients et la recette qui influent sur le type d’acier obtenu.

Au niveau de l’industrie, l’acier est l’alliage métallique le plus utilisé : automobile, aéronautique, construction… Quelles sont les propriétés des alliages qui vont intéresser les industriels ?

En tout premier lieu, c’est l’élasticité qui fait de l’acier un matériau prisé par les industriels. L’élasticité est la capacité qu’a un matériau à retrouver sa forme d’origine, une fois qu’il n’est plus soumis à la force qui provoque la déformation. Cette propriété est très utile dans l’industrie automobile ou aéronautique par exemple. Aujourd’hui, les secteurs R et D développent des aciers à très haute limite d’élasticité pour ces secteurs. La limite d’élasticité est la limite à partir de laquelle un matériau va se déformer définitivement, sans reprendre sa forme initiale. Elle définit donc les contraintes limites qui peuvent être subies par un matériau, pour un usage précis.

Les contraintes exercées sur un alliage métallique vont entraîner sa déformation. Cette déformation peut être élastique, mais elle peut également être plastique, si l’acier conserve de manière permanente une déformation, une fois que la contrainte cesse d’être appliquée. Cette propriété va être utilisée pour développer des aciers destinés aux secteurs de l’agroalimentaire ou de la pharmacie, par exemple.

Autre propriété qui intéresse l’industrie, la résistance à la traction. Cette propriété permet aux aciers d’être très résistants aux contraintes de traction, notamment en ce qui concerne les risques de rupture des matériaux lors de ces tractions. Cette propriété intéresse de nombreux secteurs industriels, aux premiers rangs desquels les industries de la construction et de l’automobile.

La résistance à la corrosion est l’apanage des aciers inoxydables. Ces derniers ont de nombreuses propriétés : ils peuvent être utilisés dans une large plage de températures, sont résistants aux produits chimiques et biologiques, faciles à nettoyer… ce qui en fait un alliage très utilisé dans les secteurs des technologies médicales ou de l’industrie agroalimentaire.

La ténacité, qui est la capacité de l’acier à résister et à garder ses propriétés pendant l’emboutissage, le pliage, et le redressage par exemple, représente une propriété qui explique en grande partie le succès industriel des aciers. Cette capacité à être usiné et travaillé industriellement est fondamentale, pour de nombreux secteurs industriels fabriquant des pièces métalliques extrêmement diversifiées.

Enfin, d’autres propriétés des aciers, considérées comme secondaires par rapport à celles que nous venons d’évoquer, méritent d’être soulignées. La résistance aux chocs par exemple, qui permet aux aciers de résister à des charges dynamiques répétées, est très prisée pour certaines pièces développées dans l’industrie aéronautique par exemple.

La dureté de l’acier, c’est-à-dire la force à laquelle l’acier s’oppose lorsqu’il subit la force des matériaux plus durs que lui, et la soudabilité, qui est la capacité de créer des connexions permanentes par soudage, sont deux propriétés également fondamentales pour l’industrie. En effet, la soudabilité par exemple, va permettre l’usage des aciers pour la fabrication d’objets industriels composés de plusieurs pièces que l’on va ensuite souder, ce qui n’est possible que pour certains types d’alliages métalliques.

On constate donc que les multiples propriétés d’un alliage métallique comme l’acier, sont non seulement tributaires des conditions de fabrication de l’alliage, mais aussi et surtout de sa composition précise. Ces propriétés vont permettre d’orienter le matériau vers l’usage industriel le plus adapté.

Les secrets structurels sous la loupe du numérique

Un extrait de « Comportement et modélisation des assemblages ponctuels », par Bertrand LANGRAND

L’étude du comportement des assemblages fait appel aux domaines de l’expérimentation et de la modélisation numérique. Le degré de complexité de ces expériences ou des modèles (3D ou simplifiés) illustre la sophistication des mécanismes mis en jeu. Le nombre important des paramètres liés au dimensionnement des assemblages limite inexorablement la prospection expérimentale. L’alternative numérique est fondée sur le rendu 3D et sur la caractérisation de modèles de comportement élastoplastique (éventuellement visqueux), d’endommagement et de rupture des matériaux constituant l’assemblage. Une fois cette étape franchie et validée, l’outil de simulation numérique peut être utilisé comme une méthode de prototypage virtuel pour étudier l’influence de divers paramètres (ou choix technologiques). La diversité des matériaux dans les structures modernes (métalliques, composites, polymères, etc.), donc notamment au niveau des assemblages, pose le problème de la modélisation du comportement et des multiples modes de ruine de ces matériaux, en particulier composites.

Les modèles de liaison et leurs limites

Les « liaisons rivets » de type contraintes cinématiques rassemblent les liens rigides, les « rivets/spotwelds », les corps rigides et les interfaces liantes. L’intérêt de ce type de représentations est qu’il n’y a pas de condition de stabilité imposée (pas de temps), car pas de rigidité associée. De plus, elles sont relativement simples à mettre en œuvre, même dans le cas d’ensembles complexes. Cependant, elles ne permettent pas de modéliser les comportements fins de la liaison, et la rupture est modélisée par un critère macroscopique couplant les efforts de traction et de cisaillement. Les modèles de liaison fondés sur l’utilisation d’éléments 1D, eux, regroupent essentiellement les éléments finis de poutre, de ressort, et la combinaison des deux. L’ensemble de ces éléments est associé à un pas de temps élémentaire afin d’assurer la stabilité des simulations. Étant dans la majorité des cas associés aux dimensions des éléments 1D, leur pas de temps peut être préjudiciable pour un calcul de structure.

Les expérimentations dédiées à l’analyse du comportement des assemblages sont entreprises sur des échantillons unitaires (un rivet, une perforation, un point soudé). Le cas d’ensembles assemblés doit être abordé afin d’étudier la robustesse des modèles et des critères dans des cas plus complexes mais complètement maîtrisés d’un point de vue des conditions aux limites. L’étude de la robustesse des outils, des méthodes et des modèles (d’un point de vue général) vis-à-vis de faibles variations des conditions aux limites est une problématique de recherche à part entière.

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 12 mai 2022 !

Comportement et modélisation des assemblages ponctuels, par Bertrand LANGRAND

Les thèses du mois : Modélisation des microstructures et structures des matériaux

Pour notre dossier d’avril, « Modélisation des microstructures et structures des matériaux », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

 

Génération 3D aléatoire de microstructures de combustibles nucléaires MOX et homogénéisation mécanique
Akram El Abdi
Doctorat en Sciences pour l’ingénieur. Mécanique des solides, soutenu le 22-01-2021
Laboratoire de Mécanique et d’Acoustique (Aix-Marseille)

 

Synthèse de microstructures par optimisation topologique, et optimisation de forme d’un problème d’interaction fluide-structure
Valentin Calisti
Doctorat en Mathématiques, soutenu le 20-12-2021
Institut Elie Cartan de Lorraine

 

Développement d’alliages métalliques à gradient de composition pour l’exploration combinatoire des microstructures
Imed-Eddine Benrabah
Doctorat en Matériaux, Mécanique, Génie civil, Électrochimie, soutenu le 08-01-2021
Laboratoire : Science et ingénierie des matériaux et procédés (Grenoble)

 

Imaging and diagnostic of sub-wavelength micro-structures, from closed-form algorithms to deep learning
Peipei Ran
Doctorat en Traitement du signal et des images, soutenu le 15-12-2020
Laboratoire Génie électrique et électronique de Paris

 

Photo traçage massivement parallèle, multi résolution et multi profondeur de microstructures et nanostructures diffractantes pour les applications antifraudes
Yoran-Eli Pigeon
Doctorat en Photonique, soutenu le 04-10-2019
École nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire

 

Automatisation de la modélisation numérique des microstructures de matériaux hétérogènes basée sur une intégration CAO-calcul
Adrien Couture
Doctorat en Génie mécanique, soutenu le 08-11-2019
Institut de Recherche Dupuy de Lôme

 

Fabrication additive par Arc-Fil et Laser-Fil de l’alliage Ti-6AL-4V : relations procédés – microstructures – propriétés
Achraf Ayed
Doctorat en Science et Génie des Matériaux, soutenu le 31-05-2021
Laboratoire Génie de Production (Tarbes)

 

Étude d’un alliage de titane « transformable par déformation » : lien entre propriétés mécaniques, microstructures de déformation et mécanismes de rupture
Chloé Varenne
Doctorat en Sciences et génie des matériaux, soutenu le 13-11-2020
Centre des matériaux (Evry)

 

Fabrication additive arc-fil en alliage d’aluminium a durcissement structural AA6061 : relations procédé, microstructures et propriétés mécaniques
Gautier Doumenc
Doctorat en Génie des matériaux, soutenu le 19-02-2021
Institut de Recherche en Génie Civil et Mécanique (Nantes)

 

Alliages nano composites Ti6Al4V et Ti6Al4V-nYSZ produits par fabrication additive via le procédé SLM (selective laser melting) : traitement des poudres, optimisation des microstructures et propriétés mécaniques
Mohamed Amine Hattal
Doctorat en Sciences des matériaux, soutenu le 26-03-2021
Laboratoire des Sciences des Procédés et des Matériaux (Villetaneuse)

 

L’étendue de la banquise antarctique au plus bas depuis 44 ans

Cette année, la banquise antarctique a atteint sa plus faible étendue depuis 1978. Le 25 février, elle s’étendait sur 1,9 million de kilomètres carrés (km²), selon une étude publiée dans la revue Advances in Atmospheric Sciences. C’est 0,17 million de km² de moins que le record précédent datant de 2017. C’est aussi 30 % de moins que la moyenne sur trois décennies entre 1981 et 2010.

Des anomalies dans la fonte de la banquise antarctique

La couverture de glace est nettement inférieure à la normale dans les mers de Bellingshausen et d’Amundsen, ainsi que la mer de Weddell, à l’ouest de l’Antarctique. Durant l’été austral, la fonte de la banquise y a été dominée par « la thermodynamique », avec un transport accru de chaleur vers le pôle sud, estiment les chercheurs.

Ensuite, la perte accrue de glace dans la mer d’Amundsen a renforcé le mouvement de glaces vers le nord, en direction des tropiques. Cela a encore amplifié la fonte, en particulier dans la mer d’Amundsen et la mer de Ross. De plus, la faible épaisseur de la banquise le long de la côte de la mer d’Amundsen joue un rôle important dans la fonte printanière et estivale.

En plus, l’albédo et la température jouent un rôle de rétroaction positive. Lorsque la mer sombre remplace la surface blanche de la banquise, « il y a moins de réflexion de la chaleur et plus d’absorption », détaille le climatologue Qinghua Yang, co-auteur de l’étude. « Ce qui à son tour fait fondre plus de glace de mer, produisant plus d’absorption de chaleur, dans un cercle vicieux. »

Une tendance à la fonte accélérée

Depuis 1978, les satellites suivent l’évolution annuelle de la banquise arctique et antarctique. Cette glace qui flotte sur les océans fond l’été et se reforme l’hiver pour atteindre son minimum en février, à la fin de l’été austral. Depuis quelques années, la tendance observée est une fonte de plus en plus importante au Groenland et dans l’Arctique. À l’inverse, l’étendue de la banquise antarctique augmente d’environ 1 % par décennie depuis la fin des années 1970, avec toutefois des variations annuelles et régionales importantes.

Selon le service Copernicus pour le changement climatique, les températures ont encore été anormalement élevées dans de grandes parties de l’Antarctique en mars. Sur le mois, l’étendue de la banquise antarctique a été inférieure de 26 % à la moyenne 1991-2020. Cela classe le mois de mars au deuxième rang des valeurs les plus basses enregistrées par satellite depuis 44 ans.

Le best of presse : au fil de l’actu sci-tech #11

Ici vous trouverez notre récap’ des informations scientifiques et technologiques que nous avons repérées en ce mois d’avril. Et comme à l’accoutumée dans nos « best of presse », vous trouverez, en bas de cet article, une info bonus !

Institutions et outils archéologiques pour percer les mystères de Notre-Dame

Parmi les corps de métier qui ont investi Notre-Dame de Paris après l’incendie du 15 avril 2019, les archéologues se sont succédés. De février à avril 2022, une équipe envoyée par la DRAC île de France et l’Inrap, l’Institut national de recherches archéologiques, a suivi un programme de diagnostics, de prospections et de fouilles. Les modalités de prélèvement ont été élaborées dans le cadre d’un protocole scientifique, convenu entre le service régional de l’archéologie de la Drac et le Laboratoire de recherche des monuments historiques, afin de préserver ces vestiges fondamentaux pour la recherche, les études et la restauration de l’édifice.
Les archéologues ont été assistés par des engins robotisés au sol pour analyser les matériaux effondrés (bois, pierres, métal), de cordistes sur les voûtes, et de relevés photogrammétriques. Des fragments restants du jubé du 13e siècle, détruit au début du 18e siècle, ont ainsi été découverts dans un état exceptionnel de conservation. Une partie des éléments de ce mur sculpté et polychrome est au Musée du Louvre, depuis les travaux menés par l’architecte Viollet-le-Duc au 19e siècle.
A la croisée du transept et sous le dallage actuel, les fouilles ont dévoilé un radier, daté entre le 14e et le 17e siècle. Il repose sur plusieurs niveaux de sols, composés de mortier de sable et de chaux. Certains pourraient laisser penser à un incendie, peut-être celui de 1218.
Plusieurs sépultures de personnages de haut rang ont été trouvées, comme des cercueils en plomb dans la nef et le chœur, ainsi qu’une dizaine de sarcophages en plâtre. Une caméra endoscopique a permis de révéler le contenu de l’une d’elles, le défunt reste non identifié.

Par ailleurs, une campagne de prospection géophysique a mené des études non invasives pour détecter d’éventuelles cavités et maçonneries, encore inconnues, comme dans le chœur, l’abside et les bas-côtés. 

Des chimpanzés à la retraite

Le vétérinaire Richard Ssuna soigne et nourrit un groupe de 65 chimpanzés, rescapés de laboratoires. Cet Ougandais, engagé dans l’ONG Humane Society International (HSI),  s’occupe d’eux dans leur lieu de vie, à l’écart : sur des îlots dans une embouchure donnant sur l’Océan Atlantique, au Liberia. Ce sont les rescapés d’un projet américain de recherche médicale qui en a utilisé 400. Ce projet de recherche lancé par le New York Blood Center (NYBC) portait notamment sur l’hépatite B. Certains d’entre eux ont subi plusieurs centaines de biopsies.
Les chercheurs américains sont en effet rentrés aux Etats-Unis pendant la guerre civile du Liberia (1989 – 2003), laissant les chimpanzés derrière eux. Abandonnés dans les laboratoires, les animaux ne doivent leur survie qu’au personnel local qui s’est occupé d’eux et les a nourris à ses frais. Au milieu des années 2000, ces chimpanzés sont installés sur ces petites îles où ils vivent encore. Les primates sont à nouveau laissés à leur sort lorsqu’en 2015, le NYBC quitte le Liberia, mettant fin à ses activités de recherches. L’affaire suscite cette fois l’indignation internationale et des manifestations sont organisées devant le siège du NYBC à New York. Le NYBC signe un accord avec HSI en 2017 qui l’engage à financer des soins à hauteur de 6 millions de dollars, soit 5,5 millions d’euros, pour ces primates qui n’ont pas appris à se débrouiller par eux-mêmes. Ils coulent donc une retraite bien méritée, à l’écart, aux bons soins de Richard Ssuna et des autres soignants.   

N’essayez pas cela chez vous !

Le phénomène de la création des étoiles, résultant de l’implosion de supernova, est compris dans sa globalité. Cependant, de nombreux aspects restent mystérieux. La résolution limitée des appareils d’observation rend impossible sa capture détaillée. De même, côté simulation numérique, les interactions entre nuages moléculaires et ondes de choc sont trop complexes pour être recréées avec exactitude.
Alors, pour reproduire le processus de formation des étoiles, une équipe internationale de chercheurs a mené des expériences à l’aide de lasers haute puissance et de balles en mousse ! Leur étude est publiée dans la revue Matter and Radiation at Extremes. La boule de mousse représente une zone dense au sein d’un nuage moléculaire, tandis que le laser haute puissance sert à recréer l’onde de choc qui suit la supernova.
Bruno Albertazzi, premier auteur de l’étude et chercheur au Laboratoire pour l’Utilisation des Lasers Intenses (Luli), explique que c’est surtout le début de l’interaction qui intéresse les chercheurs : « l’auto-gravitation de la mousse est négligeable, ce qui implique que l’expérience n’est pertinente qu’au stade précoce de l’interaction entre le BW (blast wave : onde de choc, ndlr) et la mousse, c’est-à-dire lorsque les forces gravitationnelles sont négligeables par rapport aux autres forces thermiques, radiatives, magnétiques, et les forces de rotation. » Reste à améliorer l’expérience, à tester d’autres paramètres expérimentaux, afin de mieux reproduire les conditions réelles.

Des moustiques génétiquement modifiés pour tenter d’éradiquer des virus

Comment réduire massivement la population des moustiques Aedes aegypti, vecteurs des virus du chikungunya, de la dengue, de Zika et de la fièvre jaune, des maladies mortelles pour l’humain ?
L’entreprise Oxitec, une société britannique de biotechnologie, a créé des moustiques génétiquement modifiés, qui ne piquent pas l’humain. Le principe est que les mâles modifiés s’accouplent avec des femelles “naturelles”, et transmettent ainsi un gène mortel pour les femelles qui en résultent. Ce gène continue à se transmettre sur les deux ou trois générations suivantes. 

Après l’approbation du gouvernement des Etats-Unis, l’expérimentation a été menée en extérieur, à partir d’avril 2021, dans les Keys, un archipel d’îles tropicales au sud de la Floride. Cette expérimentation n’a pas fait toutes ses preuves mais a tenté d’apporter une solution.

Les nouvelles “stars” de l’art contemporain

Jean-David Nkot, du Cameroun, Michel Ekeba et Géraldine Tobé, tous deux de la République Démocratique du Congo, ont réalisé l’œuvre intitulée « Memory of today, Memory of the future ». Cette fresque réalisée à six mains ornera la coiffe du lanceur Ariane 5 qui prendra son dernier envol en décembre 2022 pour envoyer MTG-I1, le premier satellite météorologique entièrement dédié au continent Africain. L’œuvre a été dévoilée le 8 avril 2022 dans le cadre de la Foire d’art contemporain africain 1-54, qui s’est déroulée à Paris.
C’est l’initiative des dirigeants de l’ONG française, African Artists for Development (AAD), en partenariat avec Eumetsat, l’organisation européenne pour l’exploitation des satellites météorologiques. Ils ont convaincu Arianespace, pour qui ce sera une première. Il n’était pas concevable d’envoyer un satellite africain dans l’espace sans lien avec ce continent.

Bonus : un corvidé à la tête bien pleine

Les corbeaux ont encore étonné les chercheurs. On les savait capables de se reconnaître dans un miroir, d’utiliser un outil pour attraper de la nourriture et même de comprendre le concept du zéro. Ces chercheurs ont étudié six espèces de volatiles, dont l’autruche et le pigeon. Et parmi ceux-ci, les corbeaux possèdent le plus grand nombre d’interneurones, 290 millions. L’autruche en possède 124 millions, malgré un cerveau plus volumineux, et pour comparaison, 40 millions pour le pigeon et le poulet. Ces neurones « transmettent » les signaux entre les différents « réseaux ». Ils sont impliqués dans la prise de décision.
Ce travail de recherche s’est penché sur les aptitudes surprenantes de certains oiseaux et pourquoi elles se sont développées chez certains d’entre eux (le corbeau) et pas chez d’autres (le pigeon). Il s’est appuyé sur une étude du pallium cérébral menée en 2020. Cette zone du cerveau est toute petite, proportionnée à la tête d’un oiseau, mais a révélé des neurones dont l’organisation rappelle celle du cortex humain, responsable de tâches complexes comme le langage ou la mémoire. L’étude en question n’explique pas pourquoi le corbeau a développé ces aptitudes, mais suggère en tout cas que ce n’est pas la taille du cerveau qui compte !

Crédit image de une : Intissar El Hajj Mohamed // Techniques de l’Ingénieur

La diversité des alliages métalliques : l’exemple des aciers

De très nombreux secteurs industriels utilisent des alliages métalliques pour fabriquer leurs produits, quels qu’ils soient. L’étude de la microstructure des alliages métalliques et leur modélisation permettent d’améliorer les propriétés de ces derniers en maîtrisant mieux leur comportement sous contrainte. Ces améliorations continues des performances des matériaux métalliques offrent aux industriels la possibilité d’opter pour un matériau plutôt qu’un autre, selon ses propriétés, pour fabriquer des objets industriels. 

Parmi les alliages utilisés dans l’industrie, les aciers sont historiquement parmi les plus répandus. La France produit d’ailleurs de l’acier, entre 14 et 16 millions de tonnes par an depuis 2010. Malgré des difficultés en 2016 et 2017 en raison des prix propulsés à la baisse par le marché chinois – qui produit 50% de l’acier mondial -, l’hexagone a vu sa production repartir à la hausse depuis, pour revenir relativement rapidement au niveau de 2015.

Les aciers, stars des alliages

Les aciers sont les alliages métalliques les plus utilisés dans l’industrie. Ils offrent une variété de matériaux très diverse : Ferraille, acier galvanisé, aciers inoxydables… ces alliages, très utilisés dans les industries automobiles, ferroviaires ou aéronautiques, vient leurs propriétés évoluer selon leur composition et leurs conditions de fabrication.

Un acier est généralement constitué en majorité de fer, de carbone en faible quantité – moins de 2% -, et d’autres matériaux métalliques. La faible quantité de carbone présente dans les aciers explique que ces derniers sont considérés comme des alliages métalliques. La composition chimique des aciers permet de les distinguer en trois catégories.

Tout d’abord, les aciers non alliés, sont des aciers pour lesquels les teneurs en un certain nombre d’éléments ne dépassent pas les valeurs fixées par la norme NF EN 10020. Viennent ensuite les aciers inoxydables, qui contiennent au minimum 10,5 % de chrome et au maximum 1,2% de carbone. La dernière catégorie regroupe les autres aciers alliés qui ne répondent pas aux critères des deux premières catégories citées. 

Dans le domaine des aciers non alliés, on distingue les aciers de qualité répondant à des exigences spécifiques de ténacité, de formabilité ou de grosseur de grain : aciers magnétiques, aciers de décolletage par exemple. A côté, les aciers spéciaux non alliés, présentant une plus grande pureté, et qui présentent des propriétés leur permettant de répondre à des contraintes sévères.

Les méthodes de production

Il existe deux méthodes permettant de produire des aciers : les hauts fourneaux et les fours à arc électrique. Avec des hauts fourneaux, on réduit le carbone dans un convertisseur, en présence de minerai de fer. La fonte obtenue est oxydée sélectivement pour éliminer les composants indésirables, puis le mélange est au choix coulé, laminé pour obtenir des produits en acier. Ces aciers pourront être constitutifs d’objets comme les barres, les tôles ou les tuyaux.

La seconde méthode permet de produire, grâce à un arc électrique, de l’acier de recyclage et de l’acier électrique (acier avec des propriétés électriques). L’acier est fondu grâce à l’électricité circulant entre le matériau chargé et les électrodes. Cette méthode produit des quantités relativement faibles d’un acier connu pour ses propriétés de durabilité. Si la méthode par arc électrique ne permet pas de produire de l’acier en grandes quantités, elle est un outil de plus en plus utilisé pour sa capacité à traiter les déchets d’acier, et donc de les recycler.

Ainsi, la composition exacte de l’acier, mais également son mode de fabrication, vont déterminer la spécificité de ses performances. La modélisation de ces facteurs permet de développer des produits à base d’acier dont les paramètres de fonctionnement sont de mieux en mieux maîtrisés.

Arnaud Legout : « Il n’existe pas de solution grand public contre la publicité ciblée »

Exécutoire depuis mai 2019, le RGPD oblige les sites à informer de façon transparente les internautes sur la présence de cookies et leur finalité. Pour schématiser, il existe deux types de cookies. Il y a ceux qui servent à vous reconnaître lorsque vous allez sur vos sites préférés. Seconde catégorie, les cookies tiers (boutons de partage sur les réseaux sociaux, moteurs de recherche…) sont destinés à la publicité ciblée. C’est celle-ci qui pose problème et qui est à l’origine d’amendes record comme celles infligées à Google par la CNIL fin 2020 et 2021, respectivement 100 millions et 150 millions d’euros.

Mais les spécialistes de la publicité ciblée ont plus d’un tour dans leur sac pour continuer à épier nos moindres faits et gestes. Explications avec Arnaud Legout. En juillet prochain en Australie, avec Nataliia Bielova (responsable du projet et chercheuse à l’INRIA) et Imane Fouad (post-doctorante), ils présenteront leur travail sur la « recréation de cookies »

Chercheur au centre INRIA de l’Université Côte d’Azur, Arnaud Legout a travaillé avec Nataliia Bielova, chercheuse à l’INRIA au moment de ces travaux sur les cookies et détachée jusqu’en septembre comme experte en protection de la vie privée à la CNIL. Auparavant, il a suivi des études à l’Université de Nice, où il a obtenu une maitrise de Mathématiques et une thèse en informatique.

Techniques de l’Ingénieur : Selon vous, les entreprises spécialisées dans la publicité utilisent des techniques de plus en plus complexes pour éviter d’être détectées et bloquées.

Arnaud Legout © Inria / Photo C. Morel

Arnaud Legout : elles utilisent des techniques plus performantes, car les internautes disposent de navigateurs web intégrant par défaut des réglages pour nettoyer ou bloquer des cookies. Il y a aussi de nombreuses extensions (plug-in) qui permettent de bloquer les trackers. Pour continuer à faire du ciblage, ces entreprises s’appuient dorénavant sur des méthodes capables de contourner les mécanismes de protection des navigateurs.

C’est le cas de la « recréation de cookies » ?

En effaçant des cookies installés sur son ordinateur, nous avons le sentiment d’être moins pistés. Ces cookies sont en effet effacés… mais la prochaine fois que nous retournerons sur un site, un tracker va nous reconnaître et il est capable de recréer les cookies précédemment effacés. Cette technique appelée « fingerprinting » permet d’identifier une personne en fonction des caractéristiques du navigateur et de son ordinateur. Très peu de paramètres suffisent à déterminer avec beaucoup de précisions notre profil ! Cependant, le fingerprinting évolue dans le temps, car nous changeons parfois de navigateur ou installons de nouvelles extensions. Mais en combinant les cookies fonctionnels, qui eux ne changent pas dans le temps, et le fingerprinting qui évolue mais qu’on ne peut pas effacer, cela permet de conserver une meilleure persistance du traçage. Peu importe que nous utilisions le mode « Privé » d’un navigateur et que nous effacions régulièrement les cookies. Pour s’en apercevoir et découvrir notre « empreinte numérique », il suffit de se connecter au site Amiunique.org

Votre seconde étude porte sur l’analyse de 385 sites « médicaux » de cinq pays, dont la France. Quel bilan tirez-vous ?

Notre étude a porté sur des sites de médecins, ou de regroupements de médecins, et de cliniques. Ces sites ne nous espionnent pas volontairement. Prenons le cas d’un généraliste qui veut un site pour que ses patients prennent plus facilement un rendez-vous. Il passe par une agence web qui, comme tous les prestataires de services, est pressée par le rendement et qui n’a pas nécessairement les compétences en interne pour la conformité RGPD. Pour ne pas perdre de temps, elle va au plus simple en utilisant une architecture d’un site par défaut avec des plug-ins déjà préinstallés. Résultat, 40 % de ces sites « médicaux » ne permettent pas de refuser le traçage. Et 15 % tracent même si le visiteur a refusé !

En 2020, votre étude¹ sur le tracking avait conclu que 94,51 % des 8 744 domaines avaient des pixels invisibles tiers pour faire de la publicité ciblée. Cette situation a-t-elle empiré ?

Les pixels invisibles ne sont pas une technique récente. Elle est utilisée pour rediriger les internautes vers des prestataires spécialisés dans le tracking ou « l’Analytics ». Faire de l’analyse d’audience n’est pas critiquable en soi. Cependant, tous les cookies de traçage doivent être acceptés explicitement par les visiteurs d’un site. Avec ces pixels invisibles, ils ne savent pas qu’ils sont pistés. Pire, nos travaux montrent qu’il y a tous les éléments pour que les sociétés de traçage collaborent entre elles en synchronisant leurs cookies et se partagent les données. Cependant, nous ne savons pas précisément ce qu’elles font de tous ces volumes d’informations.

Existe-t-il des solutions pour être moins pisté malgré ces techniques sophistiquées ?

Nos travaux avaient pour objectifs de donner deux éléments importants. Premièrement, dans la communauté des chercheurs, les listes de traçage comme EasyList et EasyPrivacy étaient considérées comme une référence absolue. Nos travaux montrent justement qu’elles ne le sont pas puisqu’elles n’en repèrent que 80 %. Cela ne signifie pas pour autant qu’elles sont inefficaces ! Deuxièmement, il existe de très bonnes extensions, mais elles ne bloquent pas tous les cookies tiers. Actuellement, il n’y a pas de solutions parfaites, car il n’existe pas d’outil capable de les détecter de façon automatique et transparente. Les solutions que nous avons utilisées pour nos travaux sont très lourdes et offline ; elles ne conviennent pas pour un usage grand public et en temps réel.


¹ Retrouvez ici cette étude

« Diviser par 3 le temps de développement de nouveaux matériaux en remplaçant des expériences par des simulations »

Alphonse Finel (Département Matériaux et Structures, ONERA et  Laboratoire d’Etude des Microstructures, ONERA-CNRS) et Mikael Perrut (Département Matériaux et Structures, ONERA) sont chercheurs à l’ONERA dans le domaine des matériaux et structures. Responsables au sein de ce domaine de la thématique « Physique des comportements : de l’atome à la microstructure », les deux chercheurs développent des modèles de simulation du comportement de matériaux métalliques subissant des contraintes mécaniques et de températures, afin de mieux comprendre la détérioration de leurs propriétés avec le temps. Leur but est de simuler et de modéliser ces phénomènes le plus finement possible, afin de développer des alliages plus performants, et de limiter les expérimentations, au profit de la modélisation, pour mieux connaître le comportement des matériaux sous contraintes.

Alphonse Finel et Mikael Perrut ont expliqué aux Techniques de l’Ingénieur comment ces modélisations sont développées, et ce qu’elles nous apprennent sur le comportement des matériaux métalliques à l’échelle du micron.

Techniques de l’Ingénieur : Présentez-nous les recherches sur lesquelles vous travaillez au sein de l’ONERA ?

Alphonse Finel et Mikael Perrut : Nos recherches portent sur la modélisation, pour comprendre et prédire le comportement de matériaux métalliques qui résistent à suffisamment haute température et avec des contraintes mécaniques importantes.

Le but étant de recréer les conditions d’utilisation de pièces mécaniques, comme celles subies par les matériaux dans les parties les plus chaudes des moteurs d’avions. Nous travaillons donc sur des matériaux métalliques ayant un comportement maîtrisé sous haute température et sous contrainte. Pour maîtriser le vieillissement et le comportement de ces matériaux à haute température, il faut comprendre comment le matériau se comporte à une échelle très réduite, de l’ordre du micron.

Quelle est la structure de ces matériaux, qui sont tous des alliages métalliques ?

Ces matériaux sont multi-constitués (constitués de plusieurs types d’atomes), au minimum de 5 ou 6 métaux différents. Si on prend l’exemple des superalliages à base de nickel, ils sont majoritairement constitués de nickel et contiennent également de l’aluminium ainsi que d’autres métaux, parfois dans des proportions très faibles.

Ces matériaux sont également multiphasés : la distribution locale des différentes espèces atomiques n’est pas homogène. Cela crée une hétérogénéité spatiale, qui est une des composantes principales nous permettant de contrôler les propriétés mécaniques du matériau. C’est cette hétérogénéité que nous cherchons à modéliser, à générer.

Comment vous y prenez-vous ?

Pour illustrer notre démarche, prenons l’exemple d’un superalliage à base de nickel, dont voici ci-dessous l’image obtenue par microscopie électronique, à l’échelle du micron :

Image n°1: Matériau métallique majoritairement à base de nickel, et d’autres métaux en proportions beaucoup plus faibles, avant mise sous contraintes, d’après Gaubert (2009).

Les zones noires et blanches représentent les hétérogénéités du matériau. Les phases noires sont plus pauvres en nickel et plus riches en aluminium, la phase blanche, visible sous forme de ligne, est quant à elle riche en nickel et pauvre en aluminium.

 

Que dit cette hétérogénéité quant au comportement du matériau en question ?

Cette hétérogénéité, visible sur l’image, est souhaitée, car elle assure au matériau résistance et ductilité. Le matériau sur cette image est utilisé pour fabriquer des aubes de turbines destinées à équiper des avions. Il est donc soumis à des conditions extrêmes de température et de sollicitations mécaniques lors de son fonctionnement. Sur cette image, le matériau n’a pas encore été soumis à ces conditions.

Ces contraintes déforment les matériaux. Physiquement, cette déformation s’opère par le glissement d’objets qu’on appelle des dislocations. Quand on applique une pression sur un matériau, les dislocations qu’il contient vont se mettre à glisser : c’est ce phénomène qui va déformer le matériau.

Pour limiter la déformation, il va falloir mettre des obstacles sur le chemin que prend cette dislocation au sein du matériau. Ces obstacles sont les interfaces entre les différentes phases du matériau, en noir et blanc sur l’image. Ces dislocations, qui vont pour l’essentiel passer par les zones blanches visibles sur l’image, ont donc un potentiel de propagation réduit, du fait de la proéminence des zones noires. Ces nombreux obstacles aux dislocations rendent donc le matériau plus résistant mécaniquement, il se déforme moins.

Pourquoi dans ce cas ne pas développer des matériaux constitués uniquement de cette phase noire ?

Le matériau résultant serait fragile. Bloquer l’ensemble des dislocations revient à créer très rapidement des fissures dans le matériau. Ici, la présence de deux phases, dont l’une ductile, permet de moduler la ductilité globale, les interfaces entre les phases permettant de limiter le glissement des dislocations. La ductilité est en fait une propriété qu’il faut maîtriser, car un matériau trop ductile, qui se déforme trop, ne conviendrait pas non plus pour l’usage industriel que l’on en fait. Il est nécessaire de trouver un compromis, un équilibre, entre résistance et ductilité.

Comment va évoluer la microstructure de ce matériau sous contraintes ?

Sous l’action des températures et de la contrainte, les atomes composant la structure du matériau vue dans l’image ci-dessus – composant l’aube de turbine d’un avion – vont bouger.

La microstructure (image n°1) que nous voyons à l’image, qui est celle souhaitée pour résister aux contraintes, va changer et être dégradée. Et si on laisse cette structure se dégrader suffisamment, le matériau va acquérir la structure que l’on peut observer sur cette autre image obtenue (image ,°2, ci-dessous) par microscopie électronique : la distribution des phases a complètement changé. Et les propriétés mécaniques du matériau également.

Image n°2 : Matériau métallique majoritairement à base de nickel, et d’autres métaux en proportions beaucoup plus faibles, à haute température et après mise sous contraintes, d’après Gaubert (2009) ©Onera

Cette évolution de la microstructure du matériau est en soi inévitable et irréversible, au vu des contraintes qu’il subit. Ce qui est possible par contre, c’est de ralentir ce processus, de la freiner. Pour faire cela, il nous faut donc comprendre quels sont les mécanismes et les forces motrices qui font passer la microstructure du matériau de la première à la seconde image.

 

C’est cette évolution que vous cherchez à modéliser ?

Exactement. La démarche de l’ONERA est d’essayer de décrire les équations cinétiques que les atomes suivent quand la température est haute et que l’on impose des contraintes au matériau. Le problème qui se pose alors est la quantité astronomique d’atomes en jeu. Il est impossible de modéliser cela. C’est pour cela que nous avons décidé de travailler directement à l’échelle du micron (c’est l’échelle utilisée pour les images illustrant cet article), en oubliant les atomes et les équations qui les gèrent. Il nous faut donc inventer de nouvelles équations, les développer ; c’est la finalité des recherches que nous menons sur ce thème.

Pour faire cela, nous allons prendre en compte non pas des atomes de manière individuelle mais par paquets, en étudiant des champs de concentration de chacune des espèces atomiques, et d’autres champs, qui décrivent comment les atomes sont rangés les uns par rapports aux autres, mais sans pour autant considérer explicitement ces atomes. Notre but va être de développer des méthodes pour trouver les équations décrivant le comportement de ces champs, directement à l’échelle mésoscopique.

Quel est l’aboutissement de ce travail ?

Nous avons mis au point une modélisation, appelée PFM (Phase Field Method, méthode des champs de phase). C’est l’un des outils que nous développons à l’Onera.

La modélisation en 3D représentée ci-dessous est celle du matériau que l’on peut observer sur l’image 1. Ce matériau, constituant l’aube de turbine, est ici modélisé avant l’application des contraintes :

Image n°3 : Modélisation par PFM en 3 dimensions du même matériau principalement à base de nickel, avant contraintes, d’après Cottura et al. (2012). A comparer avec l’image 1, qui elle est en deux dimensions ©Onera

Les deux grands ingrédients de la physique utilisés pour cette modélisation sont la thermodynamique – réversible et irréversible -, et les phénomènes de déformations élastiques. Cette déformation élastique est due aux variations spatiales des champs de concentration qui, associées aux différences de volume atomique, vont déformer la matrice du matériau sur une très longue portée. Aussi la déformation est anisotrope, l’amplitude de la déformation va donc être différente selon la direction ou elle se propage.

Nous avons ajouté dans notre modèle cette déformation, qui permet d’obtenir l’image 3D présentée ici.

Les deux avantages de cette modélisation sont tout d’abord la possibilité de voir l’évolution de la structure au cours du temps, ce qui n’était pas possible auparavant. Second avantage, la possibilité d’ajouter ou d’enlever certaines forces motrices à notre simulation, pour voir quels sont leurs effets relatifs sur la structure du matériau et sa déformation.

Qu’est ce qui fait que la microstructure est aussi perturbée sur le long terme, et que l’on passe d’un quadrillage régulier à une structure totalement différente ?

Ce que l’on constate, c’est que l’une des forces motrices importantes opérant sur la microstructure des matériaux, à haute température, est le déplacement des dislocations. Ces dislocations vont avoir un mouvement limité – grâce à la structure en quadrillage – qui va entraîner une redistribution des atomes dans la structure. Nous avons ajouté à notre modèle cette plasticité, qui nous a permis d’aboutir à ce type de modélisation, figurant la structure du matériau après contraintes :

Modélisation du matériau riche en nickel observé au microscope électronique dans les deux premières images, d’après Cottura et al. JMPS (2012). Cette modélisation est à comparer avec le résultat expérimental figurant sur l’image n°2. ©Onera

En comparant à l’image obtenue par microscopie électronique (image 2), on voit que les forces que nous avons prises en compte sont bien celles qui déforment la structure. Bien que ce modèle doit être encore amélioré, il montre que les phénomènes qui gouvernent le vieillissement des matériaux sont aujourd’hui identifiés.

Une des applications qui découlerait de ces modèles est la prédiction de la composition exacte des alliages à développer pour obtenir le comportement attendu du matériau en question, en remplaçant, en partie, l’expérience par la modélisation.

Cela dit, il n’est pas question de substituer l’expérimentation par la modélisation. Notre objectif, à l’ONERA, est de diviser par 2 ou 3 le temps de développement de nouveaux matériaux, en diminuant le nombre d’expérimentations grâce aux simulations. Sans oublier que la validation expérimentale reste une étape fondamentale de la recherche.

Quelle est votre stratégie pour améliorer encore ces modélisations ?

Aujourd’hui, nous développons d’autres démarches, en utilisant des bases de données et du machine learning, pour ajouter les possibilités offertes par les techniques d’intelligence artificielle (IA) à nos modèles. Cela permettra d’alimenter et d’accélérer le développement de nos modèles.

L’IA nous permet d’accélérer de plusieurs ordres de grandeurs nos calculs, mais aussi de coupler les échelles. C’est un point fondamental, puisque le modèle que nous venons de présenter s’applique à une échelle qui reste très petite par rapport à la taille des pièces industrielles dont nous voulons connaître le comportement. Les développements actuels extrêmement rapides de l’IA et du machine learning vont nous permettre de faire nos simulations à différents endroits de la pièce mécanique que nous voulons étudier. C’est ce changement d’échelle – de l’échelle micronique à l’échelle centimétrique – que les techniques d’IA vont nous permettre d’opérer, dans les années qui viennent, et permettre ainsi d’opérer une rupture dans nos capacités de prédiction à l’échelle des pièces industrielles utilisées dans les avions ou les hélicoptères.

Propos recueillis par Pierre Thouverez

Source des illustrations utilisées dans cet article :

  • Gaubert, Modélisation des effets de l’évolution microstructurale sur le comportement mécanique du superalliage monocristallin AM1. Ph.D. Thesis, Mines ParisTech (2009).
  • M. Cottura, Y. Le Bouar, A. Finel, B. Appolaire, K. Ammar, S. Forest, A phase field model incorporating strain gradient viscoplasticity: Application to rafting in Ni-base superalloys, J. Mech. Phys. Solids, 60 (2012).

Crédit image de une : ONERA


(1) Échelle de grandeurs entre l’échelle mascroscopique et l’échelle nanométrique

Électricité : Le monde se tourne vers l’éolien, le solaire… et le charbon

L’éolien et le solaire ont pour la première fois généré 10 % de l’électricité mondiale en 2021, selon la Revue mondiale de l’électricité 2022 du think tank Ember. Ce cap est atteint par 50 pays, y compris les cinq plus grandes économies du monde : les États-Unis, la Chine, le Japon, l’Allemagne et le Royaume-Uni. Dans l’ensemble, les sources renouvelables ont généré 28,4 % de l’électricité mondiale en 2021 dont 15,3 % d’hydroélectricité, 6,6 % d’éolien, et 3,7 % de solaire. C’est toujours moins que le charbon (36,5 %), mais plus que le gaz naturel (22,2 %) et le nucléaire (9,9 %).

Toujours plus d’énergies fossiles

Malgré la percée des énergies renouvelables, les énergies fossiles restent toujours au cœur des nouveaux projets. En 2021, la production mondiale d’électricité s’est élevée à 27 520,5 térawattheures (TWh) en 2021, selon les dernières données d’Ember, soit une hausse de 1 414 TWh par rapport à 2020 (+ 5,4 %). C’est l’équivalent de trois fois la consommation électrique française en 2021.

Malgré une nouvelle croissance record de la production éolienne et solaire, ces deux sources n’ont couvert que 29 % de cette hausse, le reste étant couvert par les combustibles fossiles. En 2021, l’électricité à base de charbon a augmenté de 9 % et celle à base de gaz de 1 %. Le charbon a atteint un taux de croissance record, sans équivalent depuis au moins 1985. L’augmentation des combustibles fossiles a poussé les émissions mondiales de CO2 du secteur de l’électricité à un niveau record, battant le précédent record de 2018 de 3 %.

Une poignée de pays pousse l’éolien

« L’électricité propre doit maintenant être construite à une échelle héroïque », prévient Dave Jones, responsable mondial d’Ember. Le remplacement des énergies fossiles par les renouvelables a ainsi atteint une rapidité inégalée aux Pays-Bas, en Australie et au Vietnam. En seulement deux ans, ces trois pays ont remplacé 10 % de leur demande électrique en énergies fossiles par de l’éolien et du solaire. En un an, le Vietnam a augmenté sa production solaire de 337 % (+17 TWh).

Dix pays mènent la danse : ils ont produit plus d’un quart de leur électricité à partir d’éolien et de solaire en 2021. Le Danemark se trouve en haut du podium, avec 52 % de son électricité produite par ces deux sources d’énergies renouvelables.

Selon le bilan électrique 2021 de RTE, la France a produit 21,7 % d’électricité d’origine renouvelable l’année dernière. L’éolien a généré 7 % de l’électricité métropolitaine et le solaire 2,7 %, encore sous le cap des 10 %.

Neutralité carbone : les cinq scénarios de l’Ademe pour le mix électrique en 2050

Comme dans une série télé, les épisodes sur le futur système énergétique français n’en finissent pas de se succéder. Après les rapports de RTE et de négaWatt, l’Ademe a elle-même complété la publication de ses scénarios de transition par plusieurs « feuilletons » : onze sont déjà disponibles sur les effets macro-économiques, sur les modes de vie, sur les sols, sur les territoires, sur les matériaux de la transition énergétique, etc. Mais le plus remarqué est celui sur le mix électrique que la France pourrait choisir en 2050. Sujet délicat puisque le Président Emmanuel Macron semble avoir tranché avant tout débat démocratique…

Pourtant les travaux de l’Ademe sont riches d’enseignements pouvant alimenter ce débat. Ils se basent sur les quatre scénarios de l’Agence, arrivant tous à la neutralité carbone en 2050 mais aux profils très différents, ce qui se retrouve dans leurs mix électriques respectifs (dont un avec deux variantes), résumés dans le tableau suivant.

* Le nucléaire existant inclut l’EPR de Flamanville

Des renouvelables en majorité

De tous les scénarios, seule la frugalité de S1 permet de consommer moins d’électricité qu’aujourd’hui, à l’inverse de S3 et S4 projetant une forte voire très forte hausse de la consommation. Les mix électriques comportent une grande part de sources renouvelables, a minima 72 % dans S4 et jusqu’à 97 % dans S1 : l’Ademe a vérifié qu’ils assurent tous l’équilibre entre l’offre et la demande au pas horaire entre 2020 et 2060, pour neuf scénarios météo différents.

Les capacités d’hydroélectricité subissant peu d’évolution, le développement des moyens de production renouvelables est surtout celui des ressources variables. Le solaire photovoltaïque est la technologie dont les capacités sont les plus développées par rapport à aujourd’hui, avec une multiplication par 9 de la puissance installée dans S1 et S2, et par 14 dans S3 et S4. Une approche avec des installations solaires moins centralisées est préférée dans S1.

L’éolien terrestre arrive à des niveaux de puissance similaires dans tous les scénarios, à hauteur de 3,5 fois les capacités actuelles. L’éolien en mer, tout juste naissant sur les côtes françaises, reste modéré dans S1, fortement développé dans S2 et encore deux fois plus dans S4. L’Ademe a créé deux versions de son troisième scénario : S3EnR privilégie justement le développement de l’éolien en mer au même niveau que S4, tandis que S3Nucléaire maintient l’éolien en mer au niveau de S2 en préférant construire du nouveau nucléaire.

Les capacités nucléaires sont variées entre les scénarios. S1 prévoit un arrêt des centrales au fil du temps et aucune nouvelle construction ; seul l’EPR de Flamanville est en fonctionnement en 2050. S2 et S3 maintiennent un quart du parc nucléaire actuel en activité, tandis que S4 en vise le tiers. La vraie différence vient de la construction de centrales neuves : S1, S2 et S3EnR refusent cette option, tandis que S3nucléaire et S4 prévoient respectivement 6 et 10 nouveaux EPR2.

En ce qui concerne la production d’hydrogène par électrolyse de l’eau, elle est élevée dans S1 et S2, les deux l’utilisant pour créer du méthane de synthèse et le deuxième aussi pour le transport. S3 a une demande élevée d’hydrogène dans tous les secteurs mais utilise l’électrolyse de manière modérée en ayant plutôt recours à des importations d’H2. S4 a une faible demande en hydrogène.

Tous les scénarios incluent un développement des interconnexions avec les pays voisins ainsi qu’un renforcement du réseau interrégional. La flexibilité de la demande joue aussi un rôle pour le maintien de l’équilibre offre/demande, en particulier dans S3 où il faut piloter certains usages (chauffage, eau chaude, climatisation et surtout véhicules électriques) pour déplacer les pointes de consommation du soir vers le midi. Des centrales gaz sont aussi nécessaires au système électrique, principalement dans S3 (où ce scénario prévoit 80 % de gaz décarboné) et dans S4 (où la part du gaz vert n’est que de 50 %) : ainsi, c’est dans le scénario comportant le plus de nucléaire (S4) que les réductions d’émissions de CO2 du système électrique sont les plus faibles, à 6 Mt au lieu de 13 Mt dans les trois autres scénarios ! Un résultat qui bat en brèche les habituels discours de la filière nucléaire vantant la décarbonation par l’atome.

L’étude économique ne justifie pas le nouveau nucléaire

Même avec une vision optimiste, le coût du nouveau nucléaire n’atteindra que 91 €/MWh selon l’Ademe, alors que la baisse des coûts des énergies renouvelables (EnR) d’ici 2050 va encore être d’un facteur 1,5 à 2 : on passe de 60 à 32 €/MWh pour le photovoltaïque au sol, de 82 à 43 €/MWh pour le photovoltaïque en toiture, de 60 à 47 €/MWh pour l’éolien terrestre et de 118 à 73-81 €/MWh pour l’éolien en mer. La modélisation des scénarios de mix électrique prévoyant que les solutions les plus compétitives soient privilégiées, ce sont donc les EnR qui prennent le dessus. De plus, l’Ademe est réaliste sur le coût d’accès au capital pour les investissements, avec un taux de 5,25 % pour les EnR et les interconnexions, et de 7,5 % pour les autres. Sur cette base, le coût complet pour le système électrique a été évalué en cumulé sur la période 2020-2060. Il inclut les investissements de production, de réseaux et les importations/exportations mais pas d’autres coûts liés au reste de la transition énergétique (développement du véhicule électrique ou du captage du carbone par exemple).

Coûts complets actualisés sur la trajectoire 2020-2060 du système électrique de chaque scénario (Source : Ademe). N.B. : les valeurs négatives représentent des recettes (exportations nettes).

En toute logique, les scénarios les moins consommateurs d’électricité sont les moins coûteux pour la collectivité, puisque nécessitant moins de moyens de production (cf. figure ci-dessus). Alors que S1 et S2 sont autour de 1 200 Md€, S4 cumule à plus de 1 600 Md€. Entre les deux, à un peu plus de 1 400 Md€, il est intéressant de voir que les deux options S3 ont un coût équivalent alors que l’une privilégie les EnR (notamment avec plus d’éolien en mer) et l’autre le nucléaire. Il semblerait donc, comme cela a été montré par Philippe Quirion, directeur de recherche au CNRS, que la dimension économique ne soit pas celle permettant de justifier un nouveau programme nucléaire.

Les résultats montrent par ailleurs que les coûts de l’électricité pourraient rester maîtrisés puisqu’il y a peu d’écart (en euros/MWh) dans S1 et S3 par rapport à 2020, et qu’il est de -12 % pour S2 et de +4 % pour S4. En particulier S2, qui a un niveau de consommation d’électricité similaire au scénario Sobriété de RTE, peut bénéficier des ENR les plus compétitives et de la pilotabilité des électrolyseurs pour réduire les coûts de flexibilité des autres solutions (imports, batteries, centrales gaz). La raison nous orienterait donc plutôt vers ce scénario de coopération territoriale ?

Techniques de l’Ingénieur partenaire des « International Business Days Le Mans 2022 »

Un format unique en France

Depuis 2008, le IBD Le Mans doit son succès à ce concept de convention d’affaires original, permettant d’établir de véritables connexions entre les décideurs. En effet, durant ce rendez-vous incontournable, les professionnels du secteur des véhicules en général mais aussi des étudiants, auront le privilège de visiter des paddocks et stands de ravitaillement d’une écurie engagée aux 24h du Mans ainsi que de déguster des produits régionaux lors d’un apéritif gourmand, suivi d’un dîner découverte, tout en enrichissant son réseau. 

Au programme

Par ailleurs, afin d’allier plaisir et travail, les organisateurs mettent en place des sessions de rendez-vous personnalisés, des tables rondes et des conférences sont proposées par de grandes entreprises comme le CETIM et Haïku. Elles portent sur des sujets précis et des problématiques actuelles au cœur de l’innovation :

  • l’électrification des véhicules,
  • les enjeux de la maîtrise de la technologie métal en fabrication additive,
  • la construction/développement de bancs d’essais adaptés.

De surcroît, pour la première fois depuis sa création, un espace et un temps de parole sont dédiés aux startups des nouvelles mobilités pour leur permettre de se présenter et de convaincre un parterre d’industriels et d’institutionnels français et étrangers des secteurs des transports. 

En outre, afin de faire participer les futurs acteurs du secteur, des rencontres entre étudiants-ingénieurs et entreprises sont proposées. 

En somme, ce sont deux journées organisées de manière complète et inédite, où la qualité des rencontres individuelles prime sur le nombre afin de satisfaire au mieux les participants. C’est ce qui explique le nombre limité de places. 

En quelques chiffres 

30% des entreprises participant à l’événement IBD Le Mans viennent de l’étranger et représentent plus de 10 pays différents. 

On peut y rencontrer plus de 150 acheteurs, fournisseurs, partenaires et sponsors des domaines de l’automobile, de la moto, l’aéronautique, spatial ou encore des voies ferrées.

Et enfin, plus de 400 rendez-vous personnalisés sont organisés lors de l’événement. 

Retrouvez le programme complet et plus d’information juste ici : https://www.ibdlemans.fr/ 

 

L’IA pour comprendre la résilience des plantes aux environnements extrêmes

Le désert d’Atacama, situé en Amérique du Sud, est considéré comme l’une des régions les plus arides sur terre. Plusieurs variétés de plantes endémiques sont tout de même présentes sur place. Après avoir collecté plusieurs espèces poussant entre 2­ 400 et 4 500 mètres d’altitude, des scientifiques de l’INRAE, de l’université de Bordeaux et de l’université Pontificale Catholique de Santiago au Chili sont parvenus à identifier des marqueurs moléculaires communs permettant de comprendre les mécanismes de résilience de ces plantes face à un environnement extrême. Les chercheurs ont eu recours à une approche innovante faisant appel à l’intelligence artificielle.  Les résultats de leurs travaux sont détaillés dans la revue New Phytologist.

Thomas Dussarrat, doctorant sur ce projet de recherche, récoltant des plantes dans le désert d’Atacama. Crédit : Isabel Mujica

« Nous avons utilisé une technique qui s’appelle la métabolomique prédictive, explique Pierre Pétriacq, enseignant-chercheur à l’université de Bordeaux et à l’INRAE. Elle consiste en l’étude du métabolome, c’est-à-dire de l’ensemble des petites molécules présentes dans un organisme vivant, comme les sucres, les acides aminés, les antioxydants. L’originalité de notre approche a ensuite consisté à coupler cette technique avec de l’intelligence artificielle. »

Concrètement, 24 espèces ont été analysées et ont permis d’étudier environ 5 000 signaux métaboliques différents. Grâce à l’utilisation du machine leaning, une approche statistique basée sur l’entraînement d’un algorithme d’apprentissage automatique, les scientifiques ont réussi à mettre en évidence 39 molécules communes à toutes ces espèces, permettant de prédire l’environnement dans lequel pousse la plante avec une précision de 79 %. Parmi ces 39 molécules, l’amidon a été identifié comme le meilleur composé chimique prédictif.

« Le taux de prédiction est très élevé, nous ne nous y attendions pas, analyse le chercheur. Avec des données phénotypiques et physiologiques comme la taille des plantes, le rendement ou la photosynthèse, il n’est pas possible d’atteindre une précision aussi importante. En plus, notre étude a été réalisée sur des plantes multi-espèces, alors que souvent les chercheurs s’intéressent à une seule espèce en particulier. » À partir de ce résultat, les chercheurs sont parvenus à faire le lien entre l’expression de ces 39 molécules avec différents facteurs de stress environnementaux tels que le stress hydrique, une très forte intensité lumineuse, une forte salinité dans le sol…

Réduire les délais de développement de nouvelles espèces végétales

Étant donné que ces 39 composés chimiques sont aussi présents dans des espèces végétales cultivées sous d’autres climats, comme le maïs, le pois, la tomate ou le tournesol, cette nouvelle approche pourrait aussi aider à mieux cibler les plantes dont le métabolisme est le plus susceptible de résister à des stress environnementaux. « Il s’agit d’une hypothèse de recherche qu’il va falloir tester, précise Pierre Pétriacq. L’idée serait par exemple de trouver plus rapidement des variétés dont le métabolisme est proche de celui observé dans les plantes du désert d’Atacama. On pourrait ainsi réduire le délai pour adapter les plantes cultivées aux contraintes du changement climatique. Aujourd’hui, il faut une dizaine d’années aux scientifiques et aux producteurs pour développer une nouvelle espèce végétale répondant à des critères environnementaux précis comme la résistance au gel. »

Autre piste d’application, cette fois-ci sur le plan agronomique. Grâce à l’utilisation de la métabolomique prédictive qui combine l’étude de la composition chimique et le recours à l’IA, les chercheurs envisagent d’essayer de prédire le comportement des plantes en fonction de différentes pratiques de culture. « On pourrait imaginer des scénarios où l’on fait pousser des plantes avec des pratiques plus ou moins vertueuses, comme la réduction de produits phytosanitaires, puis tenter par exemple d’identifier des associations d’espèces qui s’inscrivent dans une démarche agroécologique », complète le chercheur.

Enfin, un dernier axe de travail pourrait s’appliquer non pas à notre planète, mais à celle de mars. Le sol de l’Atacama est en effet celui qui ressemble le plus au sol martien. Les chercheurs de ce projet sont en contact avec des scientifiques de l’ESA et de la NASA et ont engagé une réflexion qui pourrait les mener à utiliser cette nouvelle approche pour identifier les plantes potentiellement susceptibles de pousser sur mars. Bien sûr, l’idée n’est pas d’essayer d’en cultiver sur cette planète, mais de mener un travail de recherche fondamentale.

Matériaux métalliques : quelles propriétés pour quelles applications ?

L’imaginaire collectif nous fait souvent penser, à tort, que les solides, contrairement aux gaz et aux liquides, sont inactifs. Au niveau atomique, les solides sont constitués d’atomes empilés en structures cristallographiques. Cette disposition permet de minimiser l’énergie engendrée par une telle structure et d’en augmenter la stabilité. 

Cependant, cette structure peut présenter différentes variations spatiales, selon les atomes mis en jeu, et la procédure utilisée pour mettre en forme l’objet désiré. En découlent des propriétés différentes, qui vont intéresser l’industrie.

Combiner les propriétés des métaux grâce aux alliages

En ce qui concerne les matériaux métalliques industriels, ces derniers sont souvent utilisés sous forme d’alliages, pour augmenter leur résistance. En effet, le fait de mélanger deux métaux permet de combiner leurs propriétés, et d’améliorer la résistance de l’alliage résultant, par rapport à l’usage de métaux purs.

Historiquement, trois familles d’alliages métalliques sont très utilisées dans l’industrie :

Mais des alliages innovants sont également obtenus à partir du mélange d’un métal, avec un autre matériau non métallique, comme le carbone par exemple. Pour pouvoir fabriquer un alliage, il est indispensable que les deux métaux soient miscibles entre eux,  ce qui n’est jamais le cas de manière totale : ainsi, les alliages ne sont pas composés de deux métaux en quantités égales : l’évolution des proportions de l’un ou de l’autre va modifier le comportement physique du matériau, et ses propriétés.

Trouver la formule magique pour développer des alliages innovants

Bien sûr, les alliages aujourd’hui développés doivent répondre à des critères extrêmement stricts, qui vont être définis selon la fonction de l’objet dont sera composé le matériau

Pour les secteurs comme l’aéronautique, l’aérospatial ou l’automobile par exemple, les enjeux sont importants : résistance des matériaux aux chocs, aux températures, poids, recyclabilité, coût, prix des ressources. Tous ces facteurs sont pris en compte, également dans d’autres secteurs industriels, testés et améliorés afin de développer de nouveaux alliages, en faisant varier leur composition ou leur température de refroidissement, par exemple

La plupart des métaux sont ductiles, c’est-à-dire qu’ils ont la capacité de se déformer de manière élastique. Cela confère aux industriels la possibilité de développer des objets complexes, utilisant des procédés de mise en forme extrêmement variés : extrusion, laminage, forgeage, matriçage, tréfilage… Cette propriété est en grande partie responsable du succès industriel des métaux, depuis le début de l’ère industrielle.

Aussi, les matériaux métalliques sont très tenaces. Concrètement, l’énergie nécessaire pour aboutir au déchirement de la structure est très importante. Cette propriété a depuis longtemps fait des métaux la base des alliages développés pour les objets métalliques subissant des contraintes continues ou répétées.

Ces objets sont très nombreux dans les industries aéronautiques et automobiles par exemple. 

Dans le secteur de l’aviation par exemple, les très nombreux éléments composant un réacteur par exemple, sont soumis à des contraintes mécaniques et de températures très importantes. De nombreux alliages sont développés et testés pour intégrer à la structure des réacteurs des matériaux toujours plus performants dans le temps. 

La mise en place d’outils de modélisation de la microstructure des matériaux permet aujourd’hui d’observer et de simuler le comportement de ces alliages à des échelles de l’ordre du micron. 

Ces outils de modélisation, rouages essentiels pour développer des programmes de recherches et développement moins onéreux – en remplaçant une partie des tests expérimentaux par de la simulation – sont aujourd’hui un enjeu de compétitivité important. Et une voie pour développer des matériaux toujours plus performants et fiables.

Regards de dirigeants #17 : Henri Morel, Président de la FIM

Henri Morel est également président et fondateur de SFPI group, un Groupe industriel spécialisé dans l’industrie de la protection des biens, des personnes et de l’environnement.

Alors que le contexte sanitaire se normalisait et que les industriels de la mécanique voyaient leurs carnets de commande se remplir, la guerre en Ukraine est venue jeter un coup de froid. Incertitudes sur les matières premières, nécessité de s’adapter rapidement… Pour l’industrie, le contexte géopolitique actuel pourrait avoir des effets similaires à celui de la crise sanitaire.

Pour le président actuel de la FIM, il s’agit de soutenir une filière industrielle mécanique aussi compétitive que possible malgré le contexte, tout en travaillant sur le long terme.

Henri Morel a répondu aux questions d’Yves Valentin, Directeur général de Techniques de l’Ingénieur.

La FIM choisira son nouveau président au mois de juin prochain. Quelle est votre position ?

Henri Morel : Cela fait trois ans que je suis président de la FIM. Les prochaines élections sont au mois de juin, et j’ai pris, après mûres réflexions et consultations, la décision de me représenter.

Le mandat qui se termine a vu certains projets que nous portions fortement perturbés dans leur mise en œuvre par la crise du Covid. Au moment où j’ai pris la décision de me représenter, la tendance était plutôt favorable, propice pour poursuivre ce qui n’a pu être qu’entamé lors de la première mandature. En effet, début 2022, la crise du Covid était en net recul, et les carnets de commandes étaient remplis dans beaucoup de secteurs. Cependant, aujourd’hui, nous nous trouvons dans une situation très tendue, avec un conflit aux portes de l’Europe, qui a d’ores et déjà entraîné son lot de sanctions financières, et probablement d’autres à venir.

Quel est le rôle de la FIM dans ce contexte ?

Nous, à la FIM, mais aussi à France Industrie, nous sommes sollicités et mobilisés à la fois par les demandes des adhérents, qui arrivent au travers des différents syndicats professionnels, mais aussi par les pouvoirs publics, dans un contexte particulier, puisque nous sommes en pleine campagne électorale.

En même temps, nous entrons dans un conflit qui, même s’il est impossible de se projeter avec certitude, pourrait être long, ce qui va rendre chaotiques les six prochains mois pour l’industrie mécanique dans sa globalité. Il faut s’y préparer.

Quelles ont été les premières mesures mises en place pour s’adapter à ce contexte soudain ?

Nous avons remis en place le dispositif Covid de collecte d’informations auprès de nos adhérents, afin d’avoir des remontées rapides et pertinentes. Comme pour le début de la crise sanitaire, il y a d’abord eu, au début de l’invasion russe, le sentiment que les choses n’allaient pas durer. Au bout de 15 jours, nous avons compris que cela n’allait pas être le cas. Les prix de l’énergie sont restés très élevés, et très vite les informations sur les ruptures de stocks de matières premières sont arrivées, notamment sur certains aciers spécifiques.
Il s’est ensuite posé le problème des entreprises possédant une partie importante de leurs activités sur le territoire russe ou ukrainien. Avec les sanctions économiques, nous nous sommes retrouvés avec des adhérents qui devaient être payés par leurs clients russes, mais leur banque refusait la transaction, par peur des sanctions américaines. Des prestations ont également été réalisées et livrées et sont en attente de paiement. Pour les entreprises d’une certaine taille, il est possible de trouver des solutions mais pour les entreprises de petite taille, cela peut se révéler extrêmement problématique.

Vous êtes également chef d’entreprise. Comment SFPI est impacté par cette nouvelle crise ?

Le groupe a stoppé toute activité en Russie et en Bielorussie. La part de chiffre d’affaire réalisée dans cette zone représentait moins de 2% de l’activité consolidée du groupe.

Cette situation n’est pas sans rappeler ce qui s’est passé lors de la crise du Covid pour l’industrie. Ce qui explique que les mécanismes mis en place pour limiter les dégâts au niveau des industries impactées sont similaires à ce qui a été fait durant la crise du Covid.

Au-delà, l’enchaînement de la crise sanitaire et de la crise ukrainienne risque, si le conflit dure, de mettre des entreprises, déjà fragilisées par la crise du Covid, dans une situation très compliquée.

L’augmentation du prix de l’énergie pour les fournisseurs de matières premières a contraint certains d’entre eux à arrêter les hauts fourneaux. Certaines nuances d’aciers et de métaux ferreux ou non ferreux ont vu leur prix exploser. Par rebond, les délais de livraisons sur certains de ces métaux sont actuellement impossible à connaître.

Pour certains secteurs comme l’automobile par exemple, qui a beaucoup souffert ces deux dernières années, quel est le risque aujourd’hui ?

Depuis deux ans, les constructeurs automobiles sont dans une situation tendue. De plus, la transition énergétique et la fin du moteur thermique ont changé la donne : il n’y a aujourd’hui plus de programmes de développements de nouveaux moteurs thermiques, uniquement la traîne de long des programmes existants. C’est une situation à laquelle il faut s’adapter.

Ensuite, la montée du prix des matières premières depuis le milieu de l’année 2021, qui avait été en partie absorbée, puis l’augmentation du prix de l’énergie, depuis septembre 2021, ont créé des tensions : un certain nombre de services achats ont refusé les hausses liées à l’augmentation du prix de l’énergie, ce qui a entraîné des situations très compliquées pour les entreprises qui n’étaient pas suffisamment préparées.

Comment s’adapter aux fluctuations sur le marché des matières premières ?

La FIM est aujourd’hui focalisée sur les problématiques liées au marché des matières premières. Le plan de résilience de l’Etat traite en partie de ce sujet, mais ne résout pas tout. Il y a donc un vrai sujet, sur lequel la FIM s’est positionnée.

En 2018, nous avons assisté à une véritable guerre commerciale entre les Etats-Unis et la Chine. Le président Trump décide alors de bloquer l’importation par les groupes américains d’un certain nombre de produits venant de Chine, notamment les métaux ferreux et non ferreux.  En retour, la Chine décide de se tourner vers le marché européen. Ce qui ne fait pas les affaires des industriels producteurs de ces produits, qui ont alors peur de voir les prix s’effondrer. Ces derniers ont à l’époque obtenu auprès de l’Union Européenne des quotas, qui se sont révélés avoir l’effet inverse de celui recherché. Ceci car l’Union Européenne, qui comptabilise les produits après réception, n’est pas en capacité de répartir le quota total sur l’ensemble des fournisseurs. Le système mis en place a fonctionné pendant trois mois, puis s’est auto-bloqué. Ce qui explique d’ailleurs en partie la hausse des prix constatée en fin d’année dernière. La FIM demande donc la fin des quotas, c’est la première mesure à prendre. Ces quotas s’appliquent pour les aciers venant de la zone asiatique. Hors, la Russie ne se trouve pas en zone asiatique, mais la Turquie oui. Depuis 15 jours, nous n’avons plus accès à l’acier russe et biélorusse. En Ukraine, l’acier n’est plus exploitable, à cause du conflit en cours. C’est pour acheter en Asie, et notamment en Turquie que nous voulons la fin des quotas. Les Turcs ont de plus une grosse capacité d’aciérie, et une large nuance de produits, c’est une réelle solution.

Ensuite ?

Il faut interdire l’exportation d’aciers vers les Etats-Unis. C’est notre deuxième demande. Enfin, il faut à tout prix interdire l’exportation des métaux de récupération, en dehors de la zone Euro, notamment pour les métaux de seconde fusion, l’aluminium en particulier.

Aujourd’hui les déchets métalliques sont un enjeu très important, ils sont cotés, et le premier acheteur est la Turquie : c’est quelque chose que nous devons faire évoluer.

Ces évolutions que vous évoquez sont-elles critiques ?

Si rien n’est fait, un certain nombre d’usines mécaniciennes subiront des fermetures et des arrêts techniques dans les trois prochains mois.

La situation est déjà très tendue aujourd’hui, et certaines entreprises vont se voir obligées, comme durant la crise sanitaire, de mettre en place des mesures d’APLD (activité partielle de longue durée), voire de chômage technique. La première mesure va être de consommer les congés payés vers Pâques, tout en demandant à l’UIMM de faire tout son possible pour remettre en place des mesures de chômage partiel.

Contrairement à la crise du Covid, où nous avions l’impression d’être acteurs dans la gestion de cette situation extrême, aujourd’hui la guerre en Ukraine nous met au rang de spectateurs.

L’industrie mécanique, si elle ne dispose pas des matières premières métalliques, se retrouve impuissante.

Au-delà de la situation actuelle, quels sont les travaux de fond actuellement menés par la FIM ?

Nous devons poursuivre le travail de fond entamé depuis trois ans, même s’il faut bien admettre qu’aujourd’hui nos efforts se tournent majoritairement vers la résolution de la crise actuelle. Il nous faut y répondre collectivement, dans l’urgence. La FIM doit également soutenir les dirigeants sur les différents scénarios à venir.

Notre fédération constitue aujourd’hui un lieu d’échanges, et de nombreux dirigeants ont besoin à l’heure actuelle de se rapprocher, de s’unir pour mieux affronter les défis qui les attendent dans les mois à venir.

Revenons à la situation de SFPI. Comment l’entreprise est-elle impactée financièrement par les crises successives ?

Nous avons fait 570 millions d’euros de chiffre d’affaires en 2021. Nos carnets de commande sont aujourd’hui pleins. Nous n’avons pas beaucoup d’activités dans la zone de conflit, donc nous ne souffrons pas trop à ce niveau-là.

Notre activité en Asie et plus particulièrement en Chine est toujours impactée par le Covid.

L’inquiétude, à l’heure actuelle, se situe sur l’évolution des événements actuels dans le semestre à venir.

Nous sommes très tributaires de la santé de l’industrie au sens large, au vu de notre secteur d’activité. Nous sommes aussi très tributaires de la confiance qui règne sur les marchés, et chez les citoyens. La situation est donc très compliquée, mais il faut s’adapter.

Les crises successives permettent-elles de mettre en place des plans profonds de transformation et d’évolution de l’entreprise ?

Il faut, plus que jamais, poursuivre et accélérer la transformation de l’entreprise. C’est l’une des réponses à la crise actuelle.

Le recrutement, par exemple, est un enjeu sur toutes les compétences. Nous avons mis en œuvre un plan de transformation, visant à améliorer la qualité de service de nos équipes : livraison, service client, accompagnement… Nous avons également tout un plan de mise en place d’indicateurs sur notre impact environnemental. Nous avons voulu en faire un élément de dynamique interne mais pas de contrainte : nous ne voulions pas être dans du greenwashing.

Aussi, nous développons au sein de l’entreprise des actions de cybersécurité et de digitalisation de tous nos process, qui vont nous permettre d’être plus performants.

Enfin, il y a le pilier managérial, qui doit nous permettre de mettre en mouvement les managers, qui seront les pièces maîtresses de l’entreprise dans les années à venir.

Propos recueillis par Yves Valentin, directeur général de Techniques de l’Ingénieur, et Pierre Thouverez, journaliste.

Image de Une : Henri Morel ©Olivier Raynaud

Les télécoms se mettent au vert avec la fibre optique

L’Union internationale des télécommunications (UIT) a publié des orientations à l’intention des organisations du secteur des technologies de l’information et de la communication (TIC) sur la manière d’atteindre la neutralité carbone d’ici à 2050.

La transition vers un monde neutre en carbone constitue l’un des plus grands défis pour toutes les organisations et notamment les opérateurs télécoms et les entreprises spécialisées dans les télécommunications ou la téléphonie mobile.

Quelque 1 200 entreprises, dont une vingtaine dans les télécoms (parmi lesquels Orange et Iliad, maison mère de Free), ont néanmoins établi des objectifs « Net Zero ». La « Zéro émission nette » signifie que les émissions de gaz à effet de serre sont réduites à un niveau aussi proche que possible de zéro, les émissions restantes présentes dans l’atmosphère étant réabsorbées, par les océans et les forêts par exemple.

Cet objectif a été débattu le 28 février dernier à Barcelone lors du « Green All-optical Network Forum », une conférence organisée par IDATE DigiWorld, think tank européen du numérique.

La fibre consomme 10 fois moins que la 4G

Lors de ce colloque, Lloyd Mphahlele, directeur général de MTN Group (Mobile Telephone Networks), une multinationale sud-africaine dans les télécoms, a souligné « l’impact des différentes technologies de fibre pour atteindre son objectif Net Zero d’ici 2040. La technologie OTN maximise la valeur de la fibre tout en réduisant de 80 % l’utilisation de la fibre et de 50 % la consommation d’énergie ».

L’Optical Transport Networking est un protocole industriel de nouvelle génération qui offre un moyen efficace et mondialement accepté de multiplexer différents services sur des réseaux optiques. Le multiplexage assure notamment une utilisation optimale de la capacité, ce qui améliore l’efficacité du réseau.

L’IDATE a également profité de sa conférence espagnole pour présenter son livre blanc « Fiber for a sustainable future, a key enabler to lower carbon emissions » et détailler les impacts de la fibre optique sur la réduction des émissions de GES.

« Parmi les technologies de la communication, la fibre optique est la plus efficace sur le plan énergétique, et donc celle avec la plus petite empreinte carbone. La fibre consomme trois fois moins d’énergie que la xDSL et 10 fois moins que la 4G. Sur base des données de l’étude « Smarter 2030 » de la GeSI (Global e-Sustainability Initiative), IDATE estime que les réductions permises par la fibre atteindront 1,6 Gt de CO2 d’ici à 2030 », peut-on lire dans son livre blanc.

La faible empreinte carbone des télécoms

L’industrie des télécommunications a déjà entamé sa migration vers des réseaux 100 % fibre. Aujourd’hui ces types de réseaux constituent le réseau dorsal pour la 5G et pour les différents environnements FTTx (consistant à amener la fibre optique au plus près de l’utilisateur, afin d’augmenter la qualité de service).

De nombreux cas d’utilisation ont été identifiés selon lesquels un réseau optique plus capillaire réduirait les émissions de CO2 : des maisons intelligentes aux environnements plus importants tels les aéroports, les hôtels, les campus intelligents, les usines…

L’optimisation énergétique et environnementale des réseaux de télécommunications passera donc par la fibre optique et la 5G. Mais selon la FFTélécoms, « les réseaux télécoms représenteraient en moyenne 0,4 % de l’empreinte carbone en France, soit 7 % de l’empreinte carbone du numérique (en incluant les datacenters et les équipements connectés) », contre 70 % pour la fabrication et la distribution des terminaux…

L’impact des aménagements de la voirie sur le niveau de pollution des véhicules analysé à Lyon

La présence d’un stop, un rond-point, un ralentisseur ou un feu de circulation impactent de manière directe le style de conduite des chauffeurs et donc automatiquement le niveau de pollution de leur véhicule. Dans un précédent article, nous vous présentions la façon dont l’IFPEN (Institut français du pétrole énergies nouvelles) était parvenu à développer un outil de modélisation capable de cartographier les émissions polluantes des véhicules en fonction de l’aménagement de la voirie. Celui-ci repose sur les données collectées par Geco Air, une application à télécharger gratuitement sur son smartphone. Dans le cadre d’un projet baptisé REVEAL, cet outil a été déployé grandeur nature sur la métropole de Lyon et tous les rapports de ce travail viennent d’être publiés par l’Ademe, partenaire de ce projet.

Il en ressort qu’il est à présent possible de chiffrer de manière exacte les émissions polluantes des véhicules avant et après tel aménagement de la voirie. Cas concret sur le cours Gambetta (entre les 3e et 7 arrondissements, NDLR), qui a vu son nombre de voies passer de trois à deux voies en 2018 avec la création d’un couloir de bus. L’outil numérique a permis de calculer que la pollution globale des véhicules (CO2, oxyde d’azote, particules…) avait diminué de 22 % suite à ce changement. « Ce chiffre s’explique par une grande règle de l’aménagement de la voirie selon laquelle la réduction du nombre de voies a pour effet de provoquer du report modal, c’est-à-dire que certains usagers préfèrent prendre d’autres modes de transport, explique Guillaume Sabiron, chef de projet solutions numériques pour la qualité de l’air à l’IFPEN. Ce phénomène entraîne une baisse du trafic automobile et donc de la pollution. »

L’outil numérique est également capable de quantifier les différents polluants émis par les véhicules. Exemple d’application, cette fois-ci au niveau du cours Lafayette, une autre voie de circulation à Lyon. Résultat : le passage de deux à une voie avec une limitation de la vitesse à 30 km/h a fait baisser les émissions d’oxyde d’azote de 25 %. Là encore, cette diminution s’explique par la baisse du trafic routier. Dans le détail, les émissions augmentent de 16 % par véhicule, car chacun d’entre eux met plus de temps à parcourir cette voie puisqu’elle est davantage congestionnée, mais en contrepartie, on observe une baisse du débit routier de 36 %.

La sécurité des usagers et le bruit sont également à prendre en compte

Ce projet met en évidence qu’il est difficile de tirer des conclusions en affirmant que tel ou tel aménagement est moins polluant qu’un autre. « Chaque cas est particulier et est à étudier en détail, analyse Guillaume Sabiron. Par exemple, la présence d’une route en pente va influencer les résultats, de même que la catégorie de véhicules qui y transitent, comme lorsqu’une route se trouve à proximité d’une sortie de chantier. » De plus, la pollution n’est pas l’unique critère à prendre en compte en matière d’aménagement de la voirie. D’autres sont aussi importants à retenir comme le bruit et la sécurité des usagers, et ont d’ailleurs été étudiés dans le cadre de ce projet. Par exemple, l’outil montre que la réduction de la vitesse maximale sur le périphérique lyonnais de 90 à 70 km/h n’a eu aucun impact au global sur les émissions polluantes, mais a permis d’améliorer la sécurité des usagers et de faire légèrement baisser le bruit de 2 %.

Certaines généralités peuvent malgré tout être énoncées pour réduire la pollution : face à une route non congestionnée, il est préférable d’installer un feu de circulation plutôt qu’un rond-point. En effet, lorsque le feu est au vert, les chauffeurs peuvent le traverser sans freiner, alors que la présence d’un rond-point les obligera systématiquement à freiner puis à réaccélérer. Dans ses conclusions, le rapport de synthèse mentionne plusieurs recommandations, comme celle d’ajouter un ralentisseur après un feu de circulation ou un rond-point afin de réduire les niveaux d’accélérations. Ou alors de limiter autant que possible l’ajout de feux de circulations et de ronds-points lorsque les vitesses limites sont supérieures à 50 km/h pour éviter les freinages suivis de fortes accélérations.

La mise en place de zones à faibles émissions dans les villes est également une bonne manière de réduire la pollution des véhicules. Les auteurs du rapport conseillent de commencer par restreindre l’accès aux véhicules catégorisés CRIT’air 4, 5 et non classés, puis d’augmenter progressivement les restrictions aux classes inférieures. « Néanmoins, s’agissant de l’oxyde d’azote, si l’on souhaite que le niveau d’émission de ce polluant chute brutalement à moins de 100 mg par km parcouru, on s’aperçoit qu’il faudrait uniquement autoriser à rouler les véhicules classés dans la catégorie CRIT’air 1 », note Guillaume Sabiron.

Après ce projet, l’IFPEN va poursuivre le développement de son outil de modélisation. L’institut souhaite augmenter le volume de données collectées, en plus de celles issues de Géco Air, en intégrant des données provenant d’autres applications, notamment Coyote.

Le satinage chimique du verre

Le dépolissage chimique du verre, appelé « satinage », est couramment utilisé dans l’industrie comme méthode de décoration des emballages en verre. Comment cette texture peut-elle être réalisée ? Quels différents aspects esthétiques et de toucher peut-on obtenir ? Peut-on innover ?

Le procédé de dépolissage est utilisé dans l’industrie du flaconnage, des cosmétiques, du luminaire et des vins et spiritueux comme méthode de décoration des emballages en verre. Il est aussi utilisé sur des verres plats comme procédé opacifiant dans des applications d’aménagement intérieur ou extérieur. Les pièces dépolies présentent un aspect satiné plus ou moins mat ainsi qu’un toucher doux et une esthétique particulière. 

Si différentes techniques de traitement de surface du verre existent, le dépolissage chimique est la plus courante et la plus efficace pour ce qui est du rendement et de la simplicité. Son principe consiste à immerger durant des temps très courts, de l’ordre de la minute, des pièces en verre dans des bains acides à base d’acide fluorhydrique concentré et de sels bifluorés alcalins. Durant cette phase, les pièces à traiter se recouvrent d’une couche blanche semi-passivante, formée à partir des produits de réaction de l’attaque du verre par l’acide fluorhydrique. Un rinçage à l’eau permet l’élimination de cette couche et laisse apparaître le satinage. Différents aspects satinés peuvent être obtenus selon la nature de la solution de satinage, son homogénéité ou les paramètres procédé appliqués, sans oublier le savoir-faire et la technicité de chaque atelier de dépolissage.

Des pyramides microscopiques à l’origine de l’aspect satiné !

L’immersion d’une pièce en verre dans une solution de satinage à base d’acide fluorhydrique et de sels bifluorés alcalins entraîne la formation d’une couche semi-passivante à la surface du verre. Les produits de la réaction de l’attaque de l’acide fluorhydrique sur le verre précipitent avec les cations alcalins présents en solution pour former cette couche. Ses principaux composants sont les hexafluorosilicates de potassium ou d’ammonium, selon la nature du sel bifluoré introduit. La nature passivante et le mode de formation de la couche, avec une apparition en des points isolés puis une extension à toute la surface, permettent l’obtention de pyramides microscopiques, responsables de l’aspect satiné. Selon la nature des produits composant la couche de passivation, la taille et la géométrie des pyramides sont différentes, permettant l’obtention de satinages originaux. Des satinages particuliers peuvent également être obtenus en ajoutant à la solution de satinage des acides forts où la nature de l’anion a une influence sur le mode de cristallisation et sur la solubilité des composés de la couche de précipités et donc sur l’aspect du dépoli. L’obtention d’une diversité de satinages est donc possible en jouant sur la composition de la solution chimique. 

Vers des finitions satinées innovantes

Pour les industriels, mieux maîtriser les phénomènes qui se produisent au cours du procédé de satinage permet d’en optimiser la gestion, la qualité du satinage obtenu et éventuellement de développer des satinages innovants. En effet, l’industrie du satinage des objets en verre est dépendante de fluctuations de la mode et la proposition de finitions satinées innovantes permettrait de fidéliser ce marché grâce à des nouveautés récurrentes.

Pour connaître le mécanisme chimique de satinage, les différents aspects qu’il est possible d’obtenir et enfin les paramètres influant sur l’aspect satiné et leurs déclinaisons, consultez notre article de référence.

Concevoir un cycle thermodynamique qui combine énergie thermique et chimique

Pompes à chaleur, moteurs thermiques, systèmes de réfrigération…, de nombreux équipements fonctionnent grâce au principe des cycles thermodynamiques. Ceux-ci reposent sur l’utilisation de fluides de travail capables de convertir une énergie thermique en une autre forme d’énergie utile comme de la chaleur, du froid ou un travail mécanique. Ces fluides peuvent par exemple être de l’eau, de l’air, mais aussi des hydrocarbures. Ils ont tous pour caractéristique commune d’être inertes, c’est-à-dire que les molécules qui les composent conservent la même structure moléculaire au cours du cycle. À Nancy, le LRPG (Laboratoire Réactions et Génie des Procédés) vient de démarrer un projet innovant, baptisé REACHER, qui vise à étudier une structure thermodynamique radicalement nouvelle résultant de l’utilisation de fluides de travail réactifs.

L’idée à l’origine de ce travail de recherche n’est pas nouvelle. Au milieu des années 50, le mathématicien britannique Michael James Lighthill évoque l’hypothèse d’utiliser des molécules qui se dissocient et se réassocient au cours d’un cycle thermodynamique dans le but de profiter de l’énergie chimique produite au cours de la réaction. Celle-ci est obtenue grâce à une modification de la température et de la pression du fluide réactif. La Nasa et des chercheurs russes ont tenté de développer cette piste de recherche en utilisant le peroxyde d’azote (N2O4), une molécule qui possède la propriété de se dissocier en dioxyde d’azote (NO2) puis de se recomposer très rapidement. Mais leurs travaux n’ont pas abouti, et cette voie de recherche est restée depuis inexplorée, probablement en raison de la multidisciplinarité et de la complexité du problème.

Silvia Lasala, chercheuse au LRGP, au côté de la micro-turbine à gaz utilisée dans le cadre du projet REACHER. Crédit : Silvia Lasala / LRGP

« Nous avons réalisé des calculs mathématiques préliminaires qui démontrent que la conversion simultanée de l’énergie thermique et chimique des fluides réactifs peut conduire à l’intensification des processus de conversion énergétique, révèle Silvia Lasala, chercheuse au LRGP et lauréate d’une bourse ERC (European Research Council) pour financer ce projet. L‘étude de l’impact de cette réaction sur les performances d’un cycle thermodynamique a montré que l’on pouvait multiplier par quatre le travail mécanique produit. C’est le cas par exemple en utilisant un fluide réactif avec une turbine et qu’on le détend. La réaction devient alors exothermique et libère encore plus d’énergie. Un compresseur doit être utilisé pour comprimer le fluide, mais la compression nécessitera moins d’énergie, car une réaction endothermique a lieu pendant sa compression. »

Utiliser des fluides réactifs contenant des molécules non polluantes

La chercheuse préfère rester discrète sur les molécules qu’elle a l’intention d’utiliser pour fabriquer ces fluides réactifs, car ceux-ci pourraient faire l’objet d’un brevet futur. Dans tous les cas, elle souhaite éviter d’employer des molécules polluantes et toxiques, comme l’est le peroxyde d’azote. Au-delà du fluide réactif, ce travail de recherche nécessitera également de revoir la conception de l’architecture du cycle thermodynamique.

Actuellement, il faut savoir que les rendements des centrales thermiques s’élèvent entre 30 % et 47 %, et concernent par exemple les centrales à charbon. Les meilleurs d’entre elles peuvent atteindre 60 % grâce à l’utilisation de cycles combinés, qui consistent à associer deux cycles à fluides inertes, comme des mélanges à base de CO2, d’autres à base de réfrigérants ou alors d’hydrocarbures. « Notre ambition est d’aller au-delà, tout en sachant qu’on ne peut pas dépasser le rendement maximal d’un cycle thermodynamique dicté par Carnot et qui dépend des températures de la source chaude et celles de la source froide », complète Silvia Lasala

Ce travail de recherche, qui vient tout juste de débuter, doit durer 5 ans. « Aujourd’hui, on sait transformer de l’énergie thermique en électricité, grâce notamment à des centrales thermiques. On sait aussi transformer l’énergie chimique pour produire de l’électricité grâce par exemple à des piles à combustible fonctionnant à l’hydrogène. Mais personne n’a à ce jour réussi à coupler ces deux formes d’énergie. Tout l’enjeu du projet REACHER sera d’y parvenir », conclut la chercheuse.

Le vote en ligne : les experts en sécurité informatique s’abstiennent !

Se rendre dans son bureau de vote appartiendra-t-il un jour au passé ? Cela fait des années que le vote en ligne est annoncé comme une solution pour réduire notamment le taux d’abstention et être tout simplement dans l’air du temps.

Mais le vote en ligne ou via une machine de vote est toujours synonyme de fraudes et d’attaques informatiques. Et ce constat ne date pas d’hier. En 2004, le Pentagone avait investi 22 millions de dollars dans un programme de vote électronique réservé à environ 100 000 expatriés américains, militaires et civils. Le projet avait ensuite été abandonné…

Précisons que des risques existent aussi pour les bulletins papier : bourrage d’urnes (risque réduit depuis que les urnes sont transparentes), vote de personnes décédées…

Il existe aujourd’hui des solutions qui permettent de répondre à la plupart des problématiques, mais elles complexifient les procédures de vote sur internet et ne peuvent pas être déployées à grande échelle.

L’INRIA a cependant développé sa propre solution, Belenios. Conçue en 2012 dans les équipes-projets communes Inria-Loria Pesto et Caramba, cette plateforme open source de vote électronique permet de voter à distance.

Le chiffrement homomorphe

Pour sécuriser le vote, « nous utilisons des techniques cryptographiques : lorsque vous avez choisi votre candidat depuis votre ordinateur, votre vote est chiffré et envoyé à un serveur. Ensuite, on affiche la liste de tous les votants ce qui permet à une personne de constater que son vote a bien été pris en compte », explique Steve Kremer, responsable de l’équipe-projet PESTO (Inria Nancy-Loria).

Lorsque les votes sont clôturés, le dépouillement des bulletins est effectué. « Chaque bulletin n’est pas déchiffré séparément car sinon on va casser le secret du vote. Nous utilisons le chiffrement homomorphe, c’est-à-dire qu’à partir du chiffrement de chacun des votes, il construit le chiffrement de la somme de tous les votes, soit celui du résultat. Il ne décrypte donc pas chaque vote un par un, mais uniquement le résultat final », précise Steve Kremer.

Tout n’est pas encore parfait, reconnaît l’expert de l’INRIA. Le principal point faible reste l’ordinateur de l’électeur. Comment s’assurer qu’il est sécurisé et qu’il n’y a pas un logiciel espion d’installé ou un virus qui changerait le choix du vote ? Autre risque,  login et mot de passe donnés à une tierce personne qui voterait à la place d’une autre contre rémunération.

Cette plateforme de l’INRIA ne pourrait donc être utilisée que pour des votes par correspondance (adhérents d’une mutuelle, élections professionnelles…) à petite échelle (moins de 1 000 votants), mais certainement pas pour des élections aussi sensibles que la Présidentielle.

Techniques de l’Ingénieur est partenaire du salon Pharmatech Cosmetech

Le salon PHARMATECH COSMETECH, dédié aux professionnels des industries de la pharmacie et de la cosmétique, est un véritable carrefour de la R&D spécialisée, des fabricants et des fournisseurs de ces secteurs phares. 

Vous y trouverez plus de 200 entreprises, représentant la production, la maintenance, la logistique, la sécurité et l’environnement, réunies en un même lieu pour répondre à vos besoins (équipements, services, process…) et permettre le développement de futurs projets.

 

Cet évènement donne accès pendant 3 jours à:

  • Une offre technologique spécifique qui regroupe toutes les compétences, expertises, solutions et savoir-faire.
  • Une veille technologique qui met en avant les dernières innovations et nouveautés.
  • Un format à taille humaine qui favorise les échanges et la mise en place de futures collaborations entre les professionnels.
  • Des conférences techniques et des animations pour en apprendre plus sur les tendances du marché et les retours d’expérience. C’est aussi l’occasion de voir, comprendre, tester et comparer des applications ou démonstrations…

 

La nouveauté de cette année : le VILLAGE INGRÉDIENTS. Le salon enrichit en effet son offre en proposant un Village ingrédients, un espace proposant des animations orientées sur les ingrédients cosmétiques et pharmaceutiques, une vision sur les tendances et innovations des secteurs et une veille marketing et technologique. C’est l’opportunité d’échanger avec des experts sur ces thématiques.

Alors n’attendez pas et prenez votre badge d’accès gratuit ici.

Si vous voulez en savoir plus, n’hésitez pas à aller sur le site de l’événement : https://www.pharmatech-cosmetech.com/fr