La matière organique dans le sol est composée d’environ 50 % de carbone. Elle représente donc un réservoir clé pour participer à l’atténuation du réchauffement climatique en captant le CO2 atmosphérique à travers la photosynthèse des plantes. Au cours des vingt dernières années, la compréhension de la dynamique de la décomposition de la matière organique a considérablement progressé. Des chercheurs de l’INRAE, de l’Université de Lorraine et d’AgroParisTech viennent de concevoir un nouveau modèle mathématique qui intègre les dernières recherches en chimie du sol et en écologie microbienne. Ce travail de recherche devrait notamment servir à mieux appréhender la capacité du sol à stocker le carbone. Il vient d’être publié dans la revue Nature communications.
Trois avancées scientifiques ont provoqué une petite révolution dans la façon dont les chercheurs appréhendent aujourd’hui le rôle de la matière organique. La première, apparue au cours des années 2000, concerne sa nature. « Avant, on pensait qu’une partie seulement de la matière organique pouvait être dégradée par les micro-organismes tandis que l’autre était récalcitrante, explique Julien Sainte-Marie, chercheur à AgroParisTech. Grâce à de nouvelles méthodes d’analyse par spectroscopie, on s’est rendu compte que la totalité peut être dégradée à condition qu’il y ait en face les décomposeurs adaptés : microbes, champignons… ». La deuxième, survenue dans les années 2010, s’explique par l’arrivée de l’analyse génomique. Grâce au séquençage rapide de l’ADN des micro-organismes, les scientifiques ont réussi à les regrouper par fonction. « Alors qu’ils se comptent par dizaines de milliers, voire centaines de milliers, nous avons réussi à les classer à l’intérieur de grandes familles et ainsi avoir une vision beaucoup plus simple de leurs actions dans le sol ». La troisième découverte est liée à l’arrivée de l’analyse protéomique qui permet de connaître les enzymes présentes dans un substrat au cours de la décomposition.
Tenir compte de la respiration cellulaire des micro-organismes
Ces nouvelles connaissances, provenant de différents champs disciplinaires, ont été agrégées dans le modèle mathématique, baptisé C-STABILITY. Il prend en compte la dynamique de stockage du carbone des sols dans le temps. Pour cela, il sépare la matière organique en deux avec d’un côté, celle dite vivante composée de décomposeurs dont le rôle est de piloter le processus de décomposition. De l’autre, celle dite morte, que l’on appelle le substrat, et qui sert de nourriture à ces décomposeurs. L’originalité du modèle est de décrire l’action ciblée des microbes et des enzymes en fonction de la composition des substrats et de sa polymérisation.
L’ensemble du cycle du carbone du sol, avec notamment la respiration cellulaire des micro-organismes, est pris en compte. « Par exemple, en présence de grandes chaînes de cellulose, les décomposeurs ne sont pas capables de les assimiler, analyse le chercheur. Ils vont alors sécréter des enzymes qui vont découper les longs polymères en petits morceaux. Les décomposeurs vont alors pouvoir les assimiler et créer de nouveaux composés microbiens tels que des protéines ou des lipides. Ce processus s’accompagne d’une respiration cellulaire avec le rejet de CO2 dans l’atmosphère. Ces nouveaux composés microbiens vont ensuite mourir pour devenir du substrat, avant d’être consommés à leur tour par d’autres décomposeurs. C’est l’ensemble du cycle du carbone qu’intègre notre modèle avec les organismes vivants qui consomment du substrat mort puis vont à leur tour mourir pour devenir du substrat. »
Même s’il a démontré son efficacité et sa pertinence sur le plan théorique, beaucoup d’étapes restent à franchir avant que ce modèle ne parvienne à suivre l’évolution de la matière organique sur le terrain. Des protocoles expérimentaux vont encore devoir être réalisés pour intégrer d’autres paramètres et des données extérieures, notamment sur la qualité des sols. À terme, il pourrait servir à mesurer l’impact d’un changement brutal de l’utilisation des sols, comme prédire les conséquences sur l’évolution de la matière organique du remplacement d’une forêt par un champ de culture.
Analyser les changements dans des territoires en transition
Surtout, il devrait permettre d’analyser des changements plus lents liés au réchauffement climatique. « Pour supporter la chaleur ou certains régimes de sécheresse, on observe par exemple le déplacement géographique d’espèces forestières qui remontent vers le Nord ou en altitude, ce qui change la nature des apports de matière organique végétale au sol, ajoute Julien Sainte-Marie. Les anciens modèles de dynamique des sols étaient pensés pour fonctionner dans des conditions stables. Notre modèle devrait être en mesure de décrire cette évolution et les conséquences sur la matière organique du sol et sa capacité à stocker le carbone dans ces territoires en transition ». Il semble tout de même trop complexe et son analyse trop fine pour s’appliquer à très large échelle, celle de la Terre entière. Par contre, il pourrait servir à étudier un certain nombre de situations typiques comme celle décrite précédemment. Et ensuite aider d’autres simulateurs, adaptés à faire des modélisations à l’échelle du globe.
Malgré les carences des anciens modèles, l’estimation des quantités de carbone stockées dans le sol est tout de même correcte aujourd’hui, car elle est confortée par des campagnes de mesures sur le terrain. À l’heure actuelle, il semble difficile de prédire quelles seront les conséquences du changement climatique sur le cycle du carbone dans la matière organique. « À ma connaissance, les scientifiques ne sont pas en mesure d’évaluer cet impact aujourd’hui car il est multifactoriel, poursuit le chercheur. Par exemple, il se pourrait que dans un premier temps, pendant la période de transition, la matière organique stocke plus de carbone, car les décomposeurs adaptés ne sont pas présents pour la dégrader. Mais inversement, il est possible que l’augmentation des températures hivernales ait un impact positif sur les capacités d’action des microbes et des enzymes… »
Alors qu’Emmanuel Macron voulait interdire l’utilisation du glyphosate en France, il souhaite à présent porter la question de sa sortie au niveau européen. Cet herbicide bénéficie encore d’une homologation de la part de Bruxelles jusqu’à fin 2022. Quelle que soit l’échéance, les agriculteurs vont devoir trouver des alternatives pour détruire les adventices. « Tant que le glyphosate est autorisé, il n’y a pour l’instant aucune technique aussi efficace que lui avec une action sur la totalité de la flore, un coût de 20 euros à l’hectare et une vitesse de chantier atteignant 12 km/h, analyse Xavier Reboud, directeur de recheche à l’INRAE. Par contre, je pense qu’en l’interdisant totalement, cela va libérer beaucoup de marge de créativité et d’innovations pour trouver des solutions encore plus intéressantes que ce produit. »
Actuellement, la méthode la plus couramment pratiquée est celle du désherbage mécanique. Elle consiste à labourer la terre ou à utiliser des outils pour griffer le sol plus ou moins en profondeur afin de détruire les adventices. Étant donné que dans de nombreuses situations, les agriculteurs doivent retravailler le sol avant d’implanter une nouvelle culture, ils possèdent déjà le matériel pour mettre en œuvre cette technique. Par contre, elle est beaucoup plus lente et nécessite plus de puissance de traction et donc consomme davantage d’énergie fossile. Et parfois, elle est difficilement réalisable, car le sol est soit trop humide ou trop sec.
Semer du blé dans un champ de luzerne
La technique du couvert permanent nécessite quant à elle un niveau de technicité plus grand. Elle consiste à implanter des cultures annuelles comme du blé directement dans un couvert permanent de luzerne par exemple. L’objectif étant d’offrir un enherbement complet de la parcelle pour éliminer le problème des mauvaises herbes. Concrètement, l’agriculteur récolte la luzerne avant de semer son blé, puis le sème et celui-ci va alors prendre l’ascendant sur la première culture en trois semaines. Par contre, il est fréquent de voir des agriculteurs utiliser une faible dose d’herbicide afin d’inhiber la croissance de la luzerne pour laisser le blé se développer. Ce n’est qu’après la moisson du blé que la luzerne va pouvoir repousser rapidement. « À l’avenir, je pense qu’on peut améliorer cette méthode en améliorant le choix variétal, conseille Xavier Reboud. Il faut choisir des luzernes particulières qui ont un faible développement pour éviter la trop forte compétition entre les deux plantes. »
Plus innovante, la technique dite du relay-cropping (culture en relais) pourrait à terme offrir une belle alternative. Cette fois-ci, l’idée est de faire disparaître la période d’interculture en installant la culture de l’année N+1 dans la culture de l’année N. Par exemple, en implantant du soja ou du sorgho aux mois d’avril ou en mai directement dans une parcelle de blé. Ils vont alors légèrement se développer, mais sans gêner la récolte du blé. Ce n’est qu’après la moisson que le soja et le sorgho prendront le relais du blé puis seront récoltés avant l’automne. « À condition que l’on ait résolu le problème de l’apport en eau, cette technique permet de valoriser les mois de juillet, août, septembre qui sont extrêmement productifs en termes de luminosité et de température, explique Xavier Reboud. Dans le futur, on pourra par exemple implanter des cultures énergétiques puis les récolter pour alimenter des méthanisations. Ensuite, le digestat de ces unités retournera dans les champs. »
Des plantes gélives qui se détruisent automatiquement avec le gel
Le glyphosate est actuellement très largement employé pour détruire les CIPAN, ces cultures intermédiaires pièges à nitrates, implantées temporairement entre deux cultures afin de limiter les risques de pollution des eaux. L’une des alternatives à l’utilisation de cet herbicide consiste à implanter des espèces gélives qui, comme leur nom l’indique, sont sensibles au gel. On peut par exemple citer le tournesol, la phacélie, le niger, la moutarde, le millet… À condition que l’hiver soit suffisamment froid, le gel va alors se charger de détruire ces plantes. Autre technique à envisager : l’installation d’espèces annuelles montant à fleur comme la vesce, le pois, les trèfles. Ces plantes ont la particularité de mobiliser toutes leurs ressources au moment de la floraison, il suffit alors d’utiliser un rouleau hacheur pour casser le lien entre le système racinaire et la partie supérieure de la plante pour qu’elle ne se relève plus. « Les débris végétaux présents à la surface vont alors limiter l’érosion, permettre de stocker l’eau et améliorer l’activité biologique du sol. Ce couvert va se dégrader pendant l’hiver et fournir un engrais vert pour la culture suivante. »
De nombreuses autres solutions sont à la disposition des agriculteurs. Bien que classé dans la catégorie des bio-herbicides, l’acide pélargonique permet de griller la végétation même s’il n’est pas sans conséquence sur l’environnement. Plusieurs conditions sont à respecter pour qu’il soit efficace, notamment des plages de températures extérieures. Par contre, son coût d’environ 300 euros à l’hectare peut être un réel frein à son utilisation. Depuis début 2020, l’INRAE a fait le choix de ne plus utiliser de glyphosate dans l’ensemble de ses stations expérimentales. L’Institut teste plusieurs techniques alternatives comme le désherbage électrique. « Cette solution est déjà proposée aux agriculteurs, mais nous voulons mesurer son efficacité, son impact environnemental ainsi que son coût à l’hectare, ajoute Xavier Reboud. Ces travaux de recherche sont encore en cours ». Des techniques plus innovantes, faisant appel aux nouvelles technologies, sont également à l’essai, comme le repérage des plantes à détruire à l’aide d’un drone couplé au sol d’un robot qui est muni d’un bras équipé d’un outil de désherbage électrique.
En plus d’être laborieuse et coûteuse, la technique de récupération traditionnelle basée sur le trio adsorption-désorption-réduction est également peu efficace. Pour ne rien arranger, l’étape de désorption utilise des éluants toxiques. La méthode proposée ici semble présenter moins d’inconvénients.
Fonctionnement de la méthode DMC
Dans une étude qui sera bientôt publiée dans le Chemical Engineering Journal, l’équipe de chercheurs propose une nouvelle approche d’extraction de AgI et PdII, des solutions acides. Cette méthode utilise un bio-adsorbant, le cellulose modifié au dithiocarbamate (DMC), qui permet ainsi l’adsorption sélective des ions métalliques par un mécanisme de complexation.
En plus de permettre l’adsorption de AgI et PdII en grande quantité, le DMC a également tendance à capturer partiellement les ions CuII et PbII. Un lavage à l’acide nitrique (à 3 mol.L–1) est ainsi nécessaire pour l’élimination sélective de ces ions. L’incinération dans un four à moufle assure enfin la récupération de Ag et Pd sous leur forme d’éléments purs Ag0 et Pd0.
Des résultats plutôt encourageants
Le DMC possède une excellente sélectivité et son rendement est supérieur à 99 %, selon les chercheurs. Par ailleurs, le processus d’adsorption des ions métalliques est relativement rapide : 60 minutes pour AgI et 90 min pour PdII. La capacité d’adsorption maximum a été évaluée à 10.97 mmol.g–1 et 4.28 mmol.g–1 pour AgI et PdII, respectivement, ce qui est bien plus élevé que les valeurs relevées dans les recherches préalables des chercheurs.
Foni Biswas, premier auteur de l’étude, en donne les raisons : « La forte capacité d’adsorption du DMC est due au fait que la matrice polymère contient une forte teneur en dithiocarbamate, qui a tendance à se complexer avec les ions de métaux précieux. »
Avec cette technique, le taux de récupération des métaux précieux dépasse ainsi 99 %, mais ce n’est pas le seul avantage. Cette méthode n’utilise pas de cyanure ou d’autres éluants toxiques et permet la récupération des métaux dans leur forme élémentaire sans utiliser d’agent de réduction.
Des travaux qui se poursuivent
La récupération de Ag et Pd n’est pas la seule préoccupation du groupe de recherche, qui s’intéresse également à la récupération de Au et Pt, d’autres métaux tout aussi précieux. Une analyse comparée et détaillée de la récupération de ces 4 métaux précieux, par le DMC et d’autres résines commerciales, et pour divers effluents industriels, est en cours et sera bientôt publiée.
Les systèmes biologiques sont constitués de matériaux vivants capables de s’autoréparer, d’interagir avec leur environnement et de se structurer de manière autonome. L’ingénierie des matériaux vivants est un domaine de recherche passionnant qui a pour objectif de créer de nouveaux matériaux à partir d’organismes vivants génétiquement modifiés.
Les biofilms : des matériaux vivants
Cela fait plusieurs années que les chercheurs du MIT travaillent au développement de matériaux synthétisés par des bactéries. Dans une étude datant de 2014, le même laboratoire présentait un moyen d’obtenir des matériaux hybrides, à partir de la bactérie E. coli et de nanofils d’or.
Néanmoins, cette méthode avait des inconvénients : l’épaisseur et la taille des biofilms obtenus étaient trop faibles, et la solution était peu applicable pour une utilisation à grande échelle. Dans le récent papier publié dans le journal Nature Materials, les chercheurs du MIT, de l’Imperial College de Londres et de l’Université de Cambridge, explorent une voie bien plus prometteuse en s’inspirant du kombucha.
La mère du kombucha, une matière riche en cellulose
Cette fois-ci, les chercheurs ont utilisé le SCOBY, une culture symbiotique de levures et de bactéries, une substance gélatineuse et épaisse (aussi appelée « mère ») couramment utilisée pour produire par fermentation des aliments et des boissons acides telles que le kombucha.
Produire des biofilms en grande quantité de cette manière paraît donc relativement simple. Néanmoins, pour créer des « matériaux vivants », avec des fonctions contrôlées, les chercheurs avaient besoin de modifier l’ADN des levures. Malheureusement, les souches naturelles habituellement présentes dans la mère du kombucha sont difficiles à modifier génétiquement.
Pour résoudre ce problème, ils ont tout d’abord isolé la bactérie naturellement présente (Komagataeibacter rhaeticus) dans la mère du kombucha. Cette bactérie a un rôle très important, car elle permet de produire du cellulose en grande quantité, donnant au matériau sa structure.
Ils l’ont ensuite associée avec une souche de levure de laboratoire, plus facile à manipuler génétiquement : Saccharomyces cerevisiae.
Les chercheurs soulèvent une robuste feuille de leur matériau, constitué de cellulose qui peut être additionné d’enzymes ou de cellules vivantes. Credit: Tzu-Chieh (Zijay) Tang
Quelles applications ?
Pour démontrer l’utilité du SCOBY de synthèse (Syn-SCOBY) qu’ils ont développé, les chercheurs étudient plusieurs voies, dont la création d’un matériau contenant une levure qui produit une protéine bioluminescente lorsqu’elle est exposée à la lumière bleue. Ils ont également testé l’incorporation de levures capables de détecter l’estradiol, un polluant et perturbateur endocrinien.
Par ailleurs, le Syn-SCOBY a l’avantage d’être économique, facile à mettre en œuvre et de permettre la synthèse en très grandes quantités. Dans un communiqué de presse, Tzu-Chieh Tang, l’un des deux auteurs principaux, est enthousiaste : « Cela permet de produire au moins 1 000 fois plus de matériaux que le système basé sur E. coli ».
Timothy Lu, maître de conférences en ingénierie biologique, électrique et en informatique, ajoute : « Nous prévoyons un avenir dans lequel divers matériaux pourraient être cultivés chez soi ou dans des usines de production locale, en utilisant la biologie plutôt qu’une fabrication centralisée et gourmande en ressources. »
Légende de Une : En utilisant des bactéries et des levures similaires à celles que l’on trouve dans le kombucha, les ingénieurs du MIT peuvent créer des « matériaux vivants ». Crédit : Tzu-Chieh (Zijay) Tang
Le rendement des moteurs à essence actuellement sur le marché est compris entre 37 et 40 %, voire 41 % pour les meilleurs d’entre eux. Le reste de l’énergie produite par la combustion est donc perdu. En 2017, un projet européen nommé EAGLE (Efficient Additivated Gasoline Lean Engine) a été créé avec pour ambition de développer un moteur à essence, adapté aux véhicules électriques et à très haut rendement, jusqu’à 50 %. Les partenaires de ce projet, regroupant entre autres l’IFP Énergies nouvelles et Renault, viennent de dévoiler leurs résultats. Certes, le rendement espéré n’a pas été atteint – il dépasse tout de même 45 % –, mais ces travaux de recherche pourraient préfigurer une nouvelle génération de moteurs à la fin de la décennie.
Aujourd’hui, tous les moteurs à essence fonctionnent grâce à un mélange air/essence dit de richesse 1. Cette combustion facilite l’élimination des émissions de polluants, par contre elle a pour effet de limiter leurs rendements. « Nous avons décidé d’utiliser un mélange pauvre, c’est-à-dire d’apporter deux fois plus d’air dans la chambre à combustion qu’un moteur richesse 1, explique Bertrand Gatellier, responsable du programme « Motorisations et systèmes » à l’IFPEN. Automatiquement, ce changement permet une augmentation théorique du rendement et une réduction des transferts thermique avec les parois du moteur. Mais nous avons dû développer des solutions technologiques afin de conserver cet avantage tout en limitant les inconvénients de ce type de combustion. »
Une pré-chambre active inspirée par les moteurs de F1
La première d’entre elles a consisté à résoudre le problème d’allumage. La proportion d’essence est en effet trop pauvre dans la chambre de combustion. La solution : mettre en place un système d’allumage différencié, avec le même principe que celui rencontré sur les moteurs de F1 et ceux à gaz. Une pré-chambre active a donc été installée avec à l’intérieur une bougie et un injecteur. Ce dernier injecte une quantité de carburant supplémentaire de manière à obtenir les bonnes conditions d’allumage. « Ce système permet d’avoir un allumage du mélange carburé, à l’intérieur de la chambre principale, facilité, analyse Bertrand Gatellier. Tout le travail de recherche a ensuite consisté à optimiser le système de combustion combinant cette technologie de pré-chambre afin qu’elle contribue à augmenter le rendement du moteur. »
Autre innovation développée : la conception de nouveaux revêtements afin de réduire les pertes de chaleur. L’objectif ici était de réussir à diminuer la différence de température entre les gaz et la paroi du moteur dans le but de limiter les transferts thermiques. L’Institut de recherche CMT de l’université polytechnique de Valence, spécialisé dans les moteurs thermiques, a d’abord effectué des études paramétriques et des calculs approfondis pour définir les principales caractéristiques thermiques d’un tel revêtement. L’entreprise Saint-Gobain s’est ensuite chargée de le fabriquer grâce à des matériaux céramiques.
Les équipes de ce projet ont également repris une technologie déjà présente sur certains moteurs de richesse 1. Appelée le cycle de Miller ou Atkinson, elle permet à ces moteurs de passer d’un rendement d’environ 37 % à une performance de 40 à 41 %. Elle consiste à dissocier le taux de compression du taux de détente. Le premier est en effet néfaste pour le moteur tandis que le second est très favorable à son rendement. Sur un moteur classique, la compression commence au point mort bas des pistons. Ici, l’astuce consiste à retarder ou à avancer la fermeture des soupapes d’admission bien après le point mort bas afin d’abaisser ce taux de compression tout en conservant un taux de détente important. « Sur les moteurs à richesse 1, le taux de compression géométrique (et donc de détente) est de 10,5 en moyenne, ajoute Bertrand Gatellier. Ceux utilisant cette technologie atteignent une valeur de 12. Ici, nous avons réussi à dépasser 14, ce qui contribue à améliorer le rendement de notre moteur à mélange pauvre. »
Des catalyseurs de stockage pour piéger les oxydes d’azote
Restait à résoudre le problème des émissions de polluants. Le mélange pauvre présente l’avantage d’en émettre moins que les moteurs à richesse 1. Mais paradoxalement, les oxydes d’azote sont beaucoup plus faciles à éliminer sur les moteurs classiques grâce aux catalyseurs trois voies. « Malgré les faibles émissions, nous avons été obligés de réduire les oxydes d’azote à l’aide d’un système de post-traitement pour respecter les normes. Deux solutions se présentaient à nous. Traiter en continu ces émissions grâce à la catalyse SCR (selective catalytic reduction) qui se généralise sur les moteurs diesel. Ou alors utiliser des systèmes à piège que l’on appelle des catalyseurs de stockage. C’est cette seconde technologie que nous avons choisie car, même si elle est moins efficace, elle est suffisante au regard des faibles rejets ». Les chercheurs ont procédé à plusieurs innovations sur la formulation de ces catalyseurs de stockage mais qu’ils ne souhaitent pas dévoiler. Au final, l’objectif a été atteint puisque les émissions en oxydes d’azote de ce moteur sont en dessous de la norme Euro 6d-TEMP actuellement en vigueur et fixée à 60 mg/km.
Pour chacun des partenaires impliqués dans ce projet, ce travail de recherche a montré les avantages, les limites et les voies de progrès de ce type de moteur. « Même si le rendement des moteurs à richesse 1 a encore une marge de progrès, ils vont bientôt arriver à leur asymptote, poursuit Bertrand Gatellier. Pour continuer à l’augmenter, il faudra très vraisemblablement se tourner vers la combustion en mélange pauvre. Le projet EAGLE a été comme un éclaireur et a démontré que c’était possible. Il est clair que c’est un moteur plus complexe. Après, ce sera une question de ratio entre sa complexité et les gains de rendement obtenus. Je pense que ce type de moteur essence arrivera sur le marché à l’horizon 2028-2030. »
Depuis au moins ces deux dernières décennies, une maladie cutanée mortelle touche des grands dauphins dans plusieurs zones du monde. Ainsi, plusieurs cétacés présentant de vastes plaies sur leur peau ont été retrouvés morts aux États-Unis et en Australie. Selon Pàdraig Duignan, Nahiid Stephens et Kate Robb, chercheurs à l’Université de Perth (Australie), ces lésions sont causées par un environnement où la salinité de l’eau devient subitement trop faible. Les résultats de leurs travaux ont fait l’objet d’une publication dans la revue Scientific Reports. Il y est indiqué que les dauphins tombent malades s’ils passent plusieurs semaines ou mois dans un tel environnement.
Plus précisément, cette maladie de la peau d’eau douce est une dermatite ulcéreuse. La peau des dauphins est infectée par des champignons, des bactéries et des algues. Ce phénomène engendre plusieurs conséquences chez ces mammifères. Premièrement, leur peau présente des décolorations vertes, oranges ou jaunes, de forme circulaire. Les observations ont également permis de mettre en évidence une apparition de pustules, allant jusqu’à l’ulcération voire la nécrose de l’hypoderme.
Chez les dauphins touchés, la maladie ne serait pas indolore. « Leur peau est tout aussi sensible que la nôtre, et peut-être même plus encore – ce serait incroyablement douloureux », explique Nahiid Stephens, co-auteur de l’article et vétérinaire à l’Université Murdoch de Perth (Australie), comme le rapporte The Guardian. Les chercheurs indiquent également que les dauphins sont promis à une mort lente. Avant de périr, ils apparaissent très affaiblis. Leur nage est déséquilibrée. Enfin, ils finissent par s’échouer sur les plages, ou se noient, étant incapables de revenir prendre leur souffle à la surface.
Katrina et Harvey, facteurs d’hyposalinité
La dermatite ulcéreuse des dauphins est causée lorsque la salinité de l’eau dans laquelle ils vivent baisse brutalement et de façon significative. Selon les chercheurs, cette hyposalinité se traduit par une concentration de sel dans l’eau qui passe très rapidement de plus de 30 ppt, soit 30 ng par kilo, à moins de 5 ppt, soit 5 ng par kilo. Notons qu’en-dessous d’une concentration en sel de 5 ppt, l’eau est considérée comme douce. Ce phénomène est connu depuis plusieurs années. Une précédente étude publiée en 1999 dans la revue The Royal Society affirmait l’existence d’une « association significative entre la prévalence et la gravité des lésions avec la salinité et la température de l’eau ».
Depuis le début des années 2000, il apparaît que ces épisodes d’hyposalinité sont liés aux fortes précipitations. En 2007, une quarantaine de dauphins ont été observés dans le lac Ponchartrain, en Louisiane. Tous les individus observés présentaient des marques symptomatiques de la maladie de la peau d’eau douce. Durant la tempête Katrina en août 2005, les précipitations ont déséquilibré la salinité de cette eau saumâtre. En 2017, un phénomène similaire a été observé dans la baie de Galveston, au Texas. Suite à l’ouragan Harvey, la salinité de l’eau est passée de 14 ppt à moins de 1 ppt. Cela a causé des lésions cutanées aux dauphins qui vivaient là. Ils ont fini par quitter la zone.
En Australie, le réchauffement climatique est également à l’origine de situations délétères pour les dauphins. En 2007, dans les lacs Gippsland, dans l’Est de l’Australie, des intempéries ont indirectement rendu malades plusieurs individus issus d’une population de 65 dauphins du Burrunan, une espèce endémique. Au moins deux adultes sont morts des suites de leur pathologie. Deux ans plus tard, de l’autre côté de l’île, dans la région de Perth (Australie occidentale), le même phénomène s’est produit. Au moins deux autres dauphins sont morts.
Les cétacés menacés par le réchauffement climatique
Au-delà de ces cas répertoriés aux États-Unis et en Australie, les chercheurs ont répertorié d’autres cas semblables dans le monde. Dans le nord du golfe du Mexique, des plaies cutanées ont été observées chez les grands dauphins communs qui vivent dans les lagons et les estuaires. Les scientifiques notent que bien qu’il ne s’agisse pas nécessairement de la maladie de la peau d’eau douce, ils estiment que la pathologie a nécessairement un lien étroit avec « un stress environnemental ». D’autres cas ont été recensés dans la réserve d’Añhiué en Patagonie, ou sur les côtes du Brésil. Là-bas, « de vastes plaques de peau brun-vert et orange ont été décrites sur des dauphins de Guyane en liberté ».
Notons également que les auteurs de l’étude expliquent que la maladie « continuera probablement là où les communautés de dauphins côtiers dans le monde sont exposées à des changements environnementaux soudains ou sans précédent en raison de changements climatiques ou de perturbations et de la dégradation anthropique de l’habitat ». Puis ils ajoutent que du fait du réchauffement climatique, d’autres espèces de cétacés sont menacées. « La définition de cas est largement applicable à l’échelle mondiale à toute espèce de cétacé habitant des espaces côtiers ou estuariens similaires », indiquent Pàdraig Duignan, Nahiid Stephens et Kate Robb.
Un passeport pour confirmer son identité et un certificat de vaccination pour confirmer son immunité contre la Covid-19 : ces deux Sésames pourraient être indispensables pour être autorisé à entrer dans un pays. Cela éviterait d’être mis en quarantaine et d’être soumis à des tests.
Cette réflexion au sujet d’un certificat Covid-19 a été entamée avant la mise sur le marché des premiers vaccins. Mais un préalable était indispensable avant leur création : être sûr que les vaccins permettaient de bénéficier d’un niveau élevé d’immunité contre la Covid-19 et ses variants.
Les vaccins ayant prouvé leur efficacité, des États européens sont passés du stade de la réflexion à l’instauration dudit certificat. Alors qu’Ursula von der Leyen, présidente de la Commission européenne, a déclaré qu’elle était favorable à la création d’un certificat de vaccination commun établi par l’UE et pouvant être délivré par les États membres, trois pays délivrent déjà (Islande) ou délivreront bientôt (Danemark et Suède) des certificats.
La cryptographie pour protéger l’accès aux données de santé
Aux États-Unis, Joe Biden n’a pas encore indiqué s’il était favorable à un tel passeport, mais certains signes montrent que la nouvelle administration et des laboratoires de recherches y réfléchissent. Regroupés au sein du Trusted Pandemic Technologies du Media Lab du MIT, des experts travaillent au développement d’une carte de vaccination qui comprendrait des QR codes.
Appliqués sous forme d’autocollants sur les cartes existantes et déjà distribuées par les Centers for Disease Control and Prevention (CDC), ces QR codes contiendraient des informations chiffrées nécessaires à chaque étape du processus de vaccination d’une personne (pour vérifier par exemple qu’une première dose a été déjà administrée).
Ces QR codes permettraient également de s’assurer que la personne ne présente pas de risques de déclencher des effets indésirables plus ou moins dangereux. Et, à terme, ils pourraient servir de passeport pour sortir des États-Unis et revenir ensuite après un voyage professionnel ou privé.
« La possibilité de vérifier le statut d’une personne est pertinente alors que les lieux publics se préparent à ouvrir en toute sécurité. Nous proposons de développer un protocole cryptographique garantissant la confidentialité des données personnelles », explique Ramesh Raskar, professeur agrégé au Massachusetts Institute of Technology et directeur du groupe de recherche sur la culture de la caméra du MIT Media Lab.
Pour assurer le respect de la vie privée, les informations d’identification personnelle stockées dans les QR codes généreraient des codes numériques uniques et aléatoires à chaque action (ajout de la seconde dose, constat d’un effet indésirable…). C’est un peu le même principe qu’avec les certificats SSL (« Secure Sockets Layer ») qui chiffrent les connexions entre un site et le navigateur web d’un internaute et génèrent des clés d’authentification.
Ces informations seraient envoyées vers un serveur d’un des CDC qui dépendent du ministère américain de la santé et des services aux personnes (Department of Health and Human Services, HHS).
Avec ce protocole de chiffrement, les CDC ne pourraient pas accéder à ces données sensibles. Ces informations permettraient néanmoins d’établir des statistiques sur le nombre de personnes vaccinées aux États-Unis.
Pour les membres du Trusted Pandemic Technologies, ces QR codes permettraient d’accélérer la distribution des vaccins, qui a connu des retards et des problèmes logistiques à la fin du mandat de Donald Trump. Comme dans d’autres pays, les États-Unis n’arrivent pas à optimiser cet « effort de guerre » que représente la vaccination, selon les mots de Joe Biden.
Principale cause : un manque de coordination entre le gouvernement fédéral et les États à propos des chaînes d’approvisionnement. Contrairement à la distribution annuelle du vaccin contre la grippe, ce sont les Américains les plus vulnérables et les plus exposés qui sont vaccinés en premier. Avec les QR codes, le suivi des personnes serait mieux assuré.
Sabine Szunerits enseigne à l’université de Lille et réalise ses recherches à l’IEMN (Institut d’électronique, de microélectronique et de nanotechnologie), un laboratoire du CNRS. Ses travaux portent sur le développement d’applications biomédicales et en nanomédecine, telles que des capteurs électrochimiques et plasmiques ainsi que des patchs transdermiques permettant la délivrance contrôlée de thérapeutiques. En mars 2020, elle démarre un travail de recherche, en collaboration avec l’université de Marseille et le CHU de Lille, afin de fabriquer un test rapide de détection de la maladie Covid-19. Une étude clinique a montré que ce test est capable de détecter la présence du virus SARS-CoV-2 chez un patient en quelques minutes et avec une fiabilité proche de celle des tests PCR. Entretien avec Sabine Szunerits.
Techniques de l’Ingénieur : Comment fonctionne votre test de dépistage du Covid-19 ?
Sabine Szunerits, enseignante à l’université de Lille et chercheuse à l’IEMN – Crédit photo : Sabine Szunerits
Sabine Szunerits : Nous avons développé un test rapide capable de détecter la présence du virus grâce à un capteur électrochimique. Il fonctionne à l’aide d’un potentiostat, un petit appareil de la taille d’une clé USB, qui permet de mesurer des phénomènes électrochimiques. Notre innovation a consisté à modifier l’électrode en lui ajoutant un ligand spécifique conçu à partir de nanobodies. Il s’agit de fractions d’antigènes, qui ont ici la particularité d’être reconnues par la protéine Spike du SARS-CoV-2. Ces nanobodies sont fabriqués à Aix Marseille Université, par l’équipe d’Alain Roussel, qui possède un savoir spécifique dans ce domaine. Ils sont orientés à la surface du capteur ; si le virus est présent dans l’échantillon prélevé, il va en quelque sorte s’attacher à cette interface et provoquer un changement au niveau du signal électrochimique du potentiostat. Celui-ci est connecté à un smartphone dans lequel est installé un logiciel et qui va permettre la mesure du résultat. La particularité de notre test est qu’il est fabriqué non pas à partir d’antigènes mais de nanobodies. Ils sont de très petite taille et ont les propriétés nécessaires pour provoquer une réaction électrochimique.
Quels sont les avantages de votre test comparé à ceux actuellement utilisés ?
Le potentiostat est connecté à un smartphone dans lequel est installé un logiciel et qui permet la lecture du résultat – Crédit photo : IEMN
Le résultat est très rapide et dure moins de 10 minutes. Sa sensibilité est beaucoup plus grande que les tests antigéniques actuellement. Nous avons réalisé une étude clinique au CHU de Lille sur 200 échantillons de patients positifs et négatifs. Les analyses ont été comparées avec la méthode PCR. Tous les résultats négatifs comme positifs se sont révélés concordants à 88% avec les analyses PCR. Sur le marché des tests rapides, nous avons actuellement la meilleure sensibilité puisque les tests antigéniques ont une fiabilité comprise entre 60 et 70 %.
Comparée aux tests PCR, notre méthode est plus directe. Nous n’avons pas besoin de réaliser un pré-traitement de l’échantillon consistant à détruire le virus pour accéder au matériel génétique ARN, puis à le convertir en ADN et l’amplifier. Il suffit de placer l’échantillon à analyser sur l’électrode modifiée et d’attendre 10 minutes. Autre différence significative : la méthode PCR permet de détecter le virus dans le corps à partir de son ARN mais ne permet pas de préciser si le virus est toujours actif ou pas. Cela peut par exemple signifier que le virus a bien été présent dans le corps à un moment donné mais que la personne n’est aujourd’hui plus contagieuse. Notre méthode détecte uniquement l’infectiosité grâce à la protéine Spike, c’est-à-dire l’enveloppe autour du virus. S’il est détruit dans l’organisme, notre test ne permet plus de le détecter.
Quelle suite va être donnée à ce travail de recherche ?
Ce test fonctionne actuellement à partir de prélèvements nasopharyngés. Nous continuons nos recherches pour qu’il soit efficace à partir de prélèvements salivaires. Nous espérons y parvenir dans les deux mois à venir. L’enjeu principal à présent est de trouver un partenaire industriel capable de fabriquer ces électrodes modifiées en grand nombre. Nous sommes en France et les démarches administratives sont longues et compliquées. Nous avons déposé un brevet avec la SATT Nord, un organisme qui aide au transfert technologique de la recherche publique vers le secteur privé. Une start-up est en cours de création et nous sommes en contact avec deux industriels français dans le but de fabriquer ce test à grande échelle.
Parallèlement, nous allons débuter, à partir de la mi-février, une étude clinique de plus grande ampleur, sur 1 000 personnes au CHU de Lille. Elle durera 3 mois et permettra de vraiment valider notre test ainsi que former le personnel à le pratiquer. Nous croyons vraiment dans notre technologie et nous espérons vivement mettre ce test à la disposition des CHU, des pharmacies, des aéroports, des écoles… le plus rapidement possible.
Vous développez également un autre test faisant appel à une technologie différente ; pouvez-vous nous le présenter ?
Oui, le test dont je viens de parler fonctionne à l’aide d’un capteur électrochimique et s’appelle Cordial-1. En mars 2020, lorsque nous avons débuté nos recherches, nous avons travaillé sur plusieurs techniques différentes afin qu’au moins l’une d’elles aboutisse. À cette époque, nous avons répondu à un appel à projet européen afin de développer un test à partir de la technologie SPR (Surface Plasmon Resonance). Notre demande de financement a été acceptée et ce projet nommé Cordial-S a démarré en septembre.
Ce test fonctionne à l’aide d’une technologie optique très souvent utilisée dans les laboratoires de recherche pour mesurer des affinités biologiques. Elle est donc également adaptée pour mesurer les interactions entre la protéine Spike et le virus SARS-CoV-2. Ce test fonctionne à l’aide de particules magnétiques enrichies en virus. Et là encore, il fait appel à des nanobodies. Nous sommes sur le point d’assembler trois briques technologiques différentes et si tout se passe bien, les études cliniques doivent commencer en avril. Si elles sont concluantes, le premier prototype sera fabriqué en juin. Ensuite, la phase de production à grande échelle pourra démarrer. Deux partenaires industriels sont associés dans ce projet, l’un en Irlande (Magnostics) et l’autre en Israël (PhotonicSys). Les équipes de l’université de Marseille et du CHU de Lille sont également à nos côtés pour développer ce test.
« Les pouvoirs publics donnent au monde agricole de grands objectifs à atteindre sans leur assurer les moyens », regrette Caroline Faraldo, responsable agriculture et alimentation à la Fondation Nicolas Hulot. Selon la nouvelle étude du think tank de cette fondation dévoilée mardi 9 février, les financements publics et privés en soutien aux acteurs de l’alimentation « confortent le système en place ».
L’étude qui se base sur une revue bibliographique de plus de 200 rapports, exploite la base de données du Réseau d’information comptable agricole et une vingtaine d’entretiens d’experts et d’agriculteurs, estime les financements publics aux acteurs de l’alimentation à 23,2 milliards d’euros chaque année. Ces financements relèvent à 40 % d’aides de la PAC et environ à 60 % du budget propre de l’Etat français, ainsi que d’allègements fiscaux. Les financements privés s’élèvent quant à eux à 19,5 milliards d’euros. Ils prennent la forme de prêts bancaires, de levées de fonds ou encore d’indemnités d’assurances. Ces financements sont particulièrement importants pour les agriculteurs : 73 % des financements publics et 61 % des financements privés aux acteurs de l’alimentation leur sont attribués.
Des financements qui ne contribuent pas à la transition écologique
« Il y a le maintien d’un statu quo », note Caroline Faraldo et « sur la quasi-entièreté de ces financements privés, il n’y a pas de critère de durabilité associé ». Le constat est similaire pour les financements publics. « Moins de 1 % des aides publics ont un impact avéré sur la diminution des pesticides », complète-t-elle. Pour Nicolas Hulot, ancien ministre de la transition écologique et solidaire, il s’agit là d’un « cas d’école qui éclaire quelques profonds dysfonctionnements dans notre démocratie ».
L’étude pointe ainsi le rôle de la fiscalité. Les allègements de charges et de cotisations sociales sur les salariés représentent plus d’un tiers des financements publics aux acteurs de l’alimentation et ont augmenté de 49 % entre 2014 et 2020. Ils bénéficient davantage aux exploitations les plus utilisatrices de pesticides. Celles-ci toucheraient environ 2,6 fois plus d’allègements de cotisations sociales que la moyenne des exploitations. En plus, elles toucheraient 2,7 fois plus de crédit d’impôt pour la compétitivité et l’emploi (CICE). Et aussi 2,6 fois plus de déductions d’impôts pour aléas et pour investissements.
Des politiques publiques qui favorisent les pesticides
Le poids de l’échec de la réduction de l’usage des pesticides est trop souvent mis sur les épaules uniquement des agriculteurs, estime la Fondation Nicolas Hulot. Elle souhaite aussi chercher l’échec du côté des politiques publiques d’accompagnement.
Alors que le groupe des exploitations agricoles les plus utilisatrices de pesticides grandit beaucoup plus vite que les modèles alternatifs, 57 % des agriculteurs se retrouvent en effet hésitants entre deux modèles, calcule la fondation. « On a besoin de politiques publiques pour inverser la donne et donner une solution », prévient Caroline Faraldo.
« Il faut impérativement sortir de deux postures totalement stériles : l’agrobashing et l’écolobashing, partage pour sa part Nicolas Hulot. Il y a une responsabilité partagée. Une petite partie de la profession capte une grande partie des aides publiques. Et une petite partie de la profession est à l’origine de l’augmentation et de l’usage des pesticides. Ce n’est pas une fatalité, c’est une question encore une fois de méthode, de réparation, de conditionnalité des aides et de cohérence. »
Jouer sur la PAC pour attirer vers l’agroécologie
« La déclinaison nationale de la PAC est en cours de préparation depuis quelques semaines et on a 6 mois pour rendre notre copie à la Commission européenne », rappelle Caroline Faraldo. Elle ose imaginer une déclinaison française très ambitieuse d’un point de vue environnemental et climatique. «Il faut inverser la tendance et démultiplier les aides à la bio, de conversion à la bio de certaines MAEC [Mesures agro-environnementales et climatiques, ndlr] pour qu’elles soient à disposition du plus grand nombre d’agriculteurs, prévient-elle. Par exemple, il faudrait 5 fois plus de moyens qu’actuellement pour la bio pour atteindre nos objectifs en termes de surface agricole utile. »
La Fondation Nicolas Hulot aspire à 100 % d’installation et de transmission en agroécologie d’ici 10 ans. Elle demande la mise en place d’un malus pour tous les acteurs qui ne sont pas acteurs de l’agroécologie. Cela permettrait d’éviter que les moyens d’accompagnement des agriculteurs ne soient plus « antinomiques avec les effets souhaités », prévient Nicolas Hulot.
Depuis plusieurs années, l’industrie 4.0 a fait émerger des technologies qui permettent aux entreprises d’adopter de nouvelles pratiques. Or, il n’est pas rare que le renouvellement des équipements productifs s’étale sur plus d’une décennie. De ce fait, une décorrélation se crée entre le temps de la technologie et celui de la production industrielle. Mais des entreprises de l’Ain, premier département industriel de France, ont trouvé des solutions pour intégrer les technologies 4.0 à leurs procédés.
Ainsi, deux professionnels de l’industrie, Jacky Mazzolini et Peggy Deuscht, ont présenté les solutions mises en place dans leurs entreprises respectives lors de la quatrième journée du Sommet 4.0 organisé par l’Union des industries et métiers de la métallurgie (UIMM) de l’Ain et l’Institut polytechnique de Grenoble (Grenoble INP).
Innovation contre « désuétude »
Jacky Mazzolini est le gérant de SMP Moules, une société spécialisée dans la fabrication de moules en plastique à destination des professionnels. « Il faut entre cinq et six mois pour fabriquer un moule, c’est une activité avec beaucoup d’inertie. Cela menace l’avenir des sociétés de notre type en France ». Afin de pouvoir résister face à la concurrence venue de l’étranger, Jacky Mazzolini a créé, avec cinq entreprises concurrentes, « French Mold Cluster ». Un roboticien intégrateur vient compléter l’équipe. Son rôle est d’apporter un savoir-faire dans le domaine « de plus en plus performant » de l’outillage.
L’objectif de cette association créée en septembre 2020 est d’apporter des solutions à des problématiques communes aux entreprises du secteur. Ainsi, les concurrents joignent leurs moyens pour assurer la formation de personnel, et mutualiser les recrutements de compétences. De plus, les entreprises réunies effectuent ensemble des actions de veille technologique. « Le but n’est pas de travailler ensemble mais de réunir les compétences de chacun pour faire aller de l’avant cette filière en désuétude », explique Jacky Mazzolini.
Ruptures technologiques et 4.0
Chez Conductix-Wampfler, où Peggy Deuscht est directrice, la stratégie d’intégration de l’innovation se passe autrement. Pour développer de nouveaux produits, la société est allée chercher le soutien du CEA et du Centre technique des industries mécaniques (Cetim). « On s’est concentrés sur des supports qui pouvaient apporter de la compétence », déclare Peggy Deuscht. Ainsi, la société parvient à enrichir ses produits grâce à des compétences externes à l’entreprise.
En plus de ces importants partenaires, la société spécialisée dans la fabrication d’enrouleurs motorisés et de machines fait le choix de collaborer avec les universités. L’entreprise recherche les compétences acquises par les doctorants durant leur thèse. Pour les étudiants, c’est l’occasion d’appliquer en conditions réelles leurs travaux de recherche. Peggy Deuscht ajoute que prochainement, deux embauches de doctorants auront lieu. « C’est clairement pour faire des ruptures technologiques et aller vers le 4.0 », affirme-t-elle. L’objectif est de développer à court terme des solutions de robotisation et d’automatisation des procédés.
La production et la transformation de l’huile de palme s’organisent autour d’une filière agro-industrielle globalisée, complexe, dont les acteurs sont porteurs d’intérêts multiples, et souvent antagonistes. Elle est révélatrice des enjeux nord/sud dans leur dimension économique, sociale et environnementale.
La controverse publique autour de l’huile de palme, comme pour bien d’autres sujets (paraben, OGM ou gaz de schiste) s’est nourrie et amplifiée de simplifications à outrance, d’attaques caricaturales ou de raccourcis ravageurs, qui ont progressivement éloigné le débat des vraies questions scientifiques, dans les domaines de l’agronomie, de la nutrition, de l’économie ou des sciences sociales.
Les ONG de conservation insistent sur l’impact négatif de l’expansion du palmier à huile sur les forêts primaires tropicales, ultimes réservoirs de biodiversité. Les relations entre déforestation et palmier sont complexes et très souvent indirectes. Les problèmes causés par la déforestation sous les tropiques humides ne viennent pas du palmier en tant que plante, mais du mode de développement choisi pour son exploitation.
Quand elle est correctement planifiée par les gouvernements locaux ou régionaux, l’implantation du palmier à huile se traduit le plus souvent par un fort développement économique dans les régions concernées et une importante réduction de la pauvreté rurale. Mal encadrée, l’extension des plantations provoque la disparition de forêts à grande valeur de conservation, avec des impacts négatifs sur la faune et la flore sauvage, les populations locales et les communautés indigènes. Les bailleurs et les ONG internationaux s’accordent pour reconnaître à la culture du palmier à huile un rôle incontournable dans l’éradication de la pauvreté dans les pays tropicaux et leur contribution aux objectifs de développement durable des Nations Unies.
Il n’est désormais plus question de stopper l’expansion du palmier à huile, mais de la contrôler et de l’accompagner intelligemment. L’ensemble des acteurs de la filière doit se préoccuper d’encadrer cette évolution et d’anticiper ses impacts en termes de biodiversité, de captation de carbone et de développement durable des populations locales.
Quels pays assurent la production ? Qui sont les pays consommateurs ? Quels sont les usages de l’huile de palme ? Quels outils de certification existent pour encadrer l’implantation du palmier à huile ? Réponses en image dans notre infographie dédiée à l’huile de palme :
Le projet est à la croisée de la recherche fondamentale et de l’expérimentation industrielle. L’Institut Mines-Télécom et l’entreprise Elm.leblanc viennent de lancer une chaire industrielle dont l’ambition est de créer le ballon d’eau chaude sanitaire du futur. « Notre objectif est d’aller au-delà d’une innovation technologique en déployant une approche systémique, explique Mylène Lagardère, enseignante-chercheure à l’IMT Lille Douai et titulaire de cette chaire baptisée Corenstock. Les chauffe-eaux ont peu évolué avec le temps. Nous allons redéfinir totalement leur conception, leur cycle de vie ainsi que l’usage de ce produit et son exploitation économique ». Ce programme de recherche, cofinancé par l’ANR (Agence nationale de recherche), doit s’achever dans quatre ans par la fabrication d’un démonstrateur industriel.
Améliorer la performance énergétique du produit
L’un des points sur lequel les chercheurs vont se pencher concerne l’amélioration de la performance énergétique de cet équipement. Les chauffe-eaux actuellement sur le marché sont en grande partie conçus à l’aide de pièces métalliques. Un matériau présentant une forte durabilité structurelle, mais ne possédant pas la meilleure efficacité énergétique. Même si les chercheurs ne veulent pas pour l’instant dévoiler leurs pistes de recherche, l’une d’elles serait d’utiliser des matériaux composites. Ils permettraient notamment d’améliorer l’isolation thermique du produit. Concernant sa conception, ce nouveau système d’eau chaude sanitaire devrait fonctionner à l’aide d’un échangeur thermique. Et il devra s’adapter à toutes les sources de chaleur externes comme les chaudières mais aussi les pompes à chaleur.
Sur le plan de sa durée de vie, l’objectif est ambitieux puisqu’il est d’atteindre 30 ans. « Ce n’est pas seulement la conception qui va nous permettre d’augmenter la durabilité du produit, mais aussi le pilotage et le suivi de la santé du ballon et de ses différents organes, analyse Mylène Lagardère. Il faut avoir des informations sur ce ballon pendant toute sa durée de vie afin que la prise de décision intervienne avant la défaillance ou la rupture du système ». Cette maintenance prédictive sera réalisée grâce à la présence de différents capteurs intelligents sur le ballon d’eau chaude.
Cette chaire industrielle a également pour objectif de changer les habitudes de travail d’Elm.leblanc. Une réflexion va être engagée sur la façon de prendre des décisions dans l’entreprise afin que celles-ci prennent en compte la globalité du système, de la phase de conception du produit, à son usage et jusqu’à la gestion de sa fin de vie. « Par exemple, lorsqu’on souhaite remplacer un matériau par un autre, il faut aussi prendre en compte sa recyclabilité, sa disponibilité sur le marché, les nouvelles exigences réglementaires… précise Mylène Lagardère. Au final, ce nouveau ballon d’eau chaude devient une excuse pour faire évoluer la manière de réfléchir au sein de l’entreprise. »
Un master spécialisé sur l’industrie du futur
Au total, trois centres de recherche et d’innovation de l’IMT Lille Douai et deux départements des Mines de Saint-Étienne vont travailler en synergie sur ce projet. Et au terme des quatre ans de travail, le futur système de stockage d’eau chaude sanitaire doit se révéler plus efficient sur le plan énergétique, moins coûteux en matières premières, recyclable, auto-adaptatif en fonction des besoins de l’utilisateur final et plus durable. Une nouvelle formation est également prévue avec la création d’un programme de master sur la thématique de l’industrie du futur.
2020 a été une année exceptionnelle, avec trois femmes scientifiques lauréates d’un prix Nobel : Andrea Ghez, colauréate en physique, et la Française Emmanuelle Charpentier et sa collègue Jennifer Doudna en chimie. Année exceptionnelle et à relever car selon l’Institut de statistique de l’Unesco (ISU), moins de 30 % des chercheurs dans le monde sont des femmes.
Selon les chiffres 2014-2016 de l’Organisation des Nations Unies pour l’éducation, la science et la culture (UNESCO), on retrouve ces mêmes 30 % quand on examine le nombre d’étudiantes qui s’orientent vers les sciences, la technologie, l’ingénierie et les mathématiques.
A l’échelle mondiale, les chiffres de la scolarisation des filles dans certains domaines sont très parlants :
3% dans les technologies de l’information et des communications
5% en sciences naturelles, mathématiques et statistique
8% en ingénierie, fabrication et construction
Au sein de l’UNESCO, le millésime 2021 se tiendra virtuellement au siège des Nations Unies et aura pour thème « Les femmes scientifiques à la pointe de la lutte contre la COVID-19 ». Il rassemblera des expert.e.s de différentes régions du monde travaillant dans des domaines liés à la pandémie. Pour participer, il suffit de s’enregistrer.
Femmes et ingénieures : une minorité qui veut être visible
En recevant son prix Nobel, Emmanuelle Charpentier a souhaité que cela apporte « un message très fort » aux femmes scientifiques. Fort et nécessaire…
En France, les chiffres montrent toujours une grande disparité puisque par exemple les femmes ne représentent que 23% des ingénieurs en poste selon l’enquête annuelle de l’IESF. Le ratio étudiants/étudiantes est un peu mieux mais néanmoins toujours déséquilibré dans les formations d’ingénieur : la Conférence des directeurs des écoles françaises d’ingénieurs (CDEFI) constate qu’il y a 47% de jeunes filles en terminale scientifique pour seulement 28% dans les écoles d’ingénieur.
C’est d’ailleurs dans l’optique de rééquilibrer ces chiffres que la CDEFI a créé le label Cap Ingénieuses, destiné à valoriser des projets pensés de façon pédagogique, ludique et participative, déployés par des écoles d’ingénieur.e.s dans des écoles primaires et des collèges locaux pour permettre à des élèves du CP à la classe de troisième, et en particulier aux jeunes filles, de découvrir l’univers des sciences, de l’ingénierie et des technologies.
Les initiatives se multiplient pour rendre visible l’apport des femmes dans les sciences et dans les entreprises, à l’image de la co-signature d’Aline Aubertin, présidente de Femmes Ingénieurs, d’une tribune dans le Journal du Dimanche 31 janvier 2021, appelant à une relance paritaire.
De son côté, le réseau Femmes du Medef organise ce mercredi 10 février un colloque en présence d’Agnès Pannier-Runacher, ministre déléguée auprès du ministre de l’Economie, des Finances et de la Relance, chargée de l’Industrie.
Toujours dans cette optique, l’opération Ingénieuses de la CDEFI lutte depuis plus de dix ans contre les stéréotypes liés au genre et encourage les jeunes filles à aller vers les formations et carrières d’ingénieures.
En 2021, Ingénieuses remettra neuf prix repartis en plusieurs catégories :
Quatre prix à destination des écoles d’ingénieur.e.s
Un prix de l’élève-ingénieure France
Un prix de l’élève-ingénieure Maghreb
Deux prix de la femme ingénieure
Un prix lié au label Cap Ingénieuses
Les fiches d’appels à projets et à candidatures sont téléchargeables sur www.ingenieuses.fr (date limite de dépôt : mercredi 10 mars 2021)
Programme Jeunes Talents France L’Oréal-UNESCO
Pour les jeunes chercheuses, le programme Jeunes Talents France L’Oréal-UNESCO pour les Femmes et la Science, de la Fondation L’Oréal, en partenariat avec la Commission nationale française pour l’UNESCO et l’Académie des sciences sera également un bon tremplin puisqu’il a pour objet de révéler et récompenser de jeunes chercheuses talentueuses (doctorantes ou post-doctorantes). En 2021, la Fondation L’Oréal remettra 35 dotations en France, d’un montant de 15 000 € chacune à des doctorantes et de 20 000 € chacune à des post-doctorantes.
La date limite de dépôt des dossiers de candidature est le vendredi 19 mars 2021.
Techniques de l’Ingénieur soutient la place des ingénieures dans l’industrie
Des webinars sont également mis en place pour lutter contre les stéréotypes de genre et favoriser la mixité que ce soit dans les études supérieures scientifiques et techniques ou dans l’industrie. Retrouvez en accès libre le replay du webinar « Ingénierie : les femmes prennent leur place », présenté par Marie-Hélène Therre, spécialiste du développement des équipes et des problématiques de diversité hommes-femmes et présidente d’honneur de l’association Femmes Ingénieurs.
La crise épidémique de coronavirus qui a débuté en février 2020 a bien évidemment été un défi pour Mersen en termes d’adaptation et d’organisation, mais la stature internationale du groupe lui a permis de maintenir l’activité, en s’adaptant aux contextes sanitaires locaux.
Luc Themelin, directeur général de Mersen, s’est livré à Techniques de l’Ingénieur sur la manière dont le groupe a géré cette période particulière, dont nous ne sommes pas encore sortis, et sur les ingrédients, en termes de savoir-faire, de transmission, et de vision, qui permettent à l’entreprise d’afficher une telle solidité.
Techniques de l’Ingénieur : Il y a bientôt un an, le monde entier se confinait, avec des timings et des restrictions différents selon chaque pays. Comment le groupe Mersen a-t-il vécu cette période ?
Luc Themelin : Nous sommes un groupe mondial, avec 53 sites à travers le monde, et des usines de tailles très différentes, dans 35 pays. Chronologiquement, tout a commencé par la mise en place du confinement en Chine, en février 2020. Nous réalisons 30% de notre chiffre d’affaires en Asie, environ 14% en Chine. L’épreuve pour nous a donc débuté à ce moment-là.
Depuis, nous avons en réalité vécu cinq ou six confinements, par vagues successives, au gré des stratégies sanitaires des pays dans lesquels nous sommes implantés. Chaque pays a eu sa propre gestion, même si au niveau européen les stratégies et les timings des pays ont été très similaires.
Luc Themelin, directeur général du groupe Mersen.
Quand le confinement chinois a été mis en place en février 2020, certains de nos collaborateurs sur place ont fait face à l’impossibilité de revenir chez eux après les vacances, car le gouvernement avait mis des régions entières en quarantaine. Nous nous sommes donc retrouvés avec des usines en partie vides pendant quelques jours. Seuls les salariés habitant sur place étaient en capacité de venir travailler, mais beaucoup étaient partis en vacances, et donc dans l’impossibilité de revenir.
Ils sont rentrés au fur et à mesure, par vagues, et à la fin du mois de février tout le monde était de retour. S’est alors posé le problème des masques, qui étaient difficiles à trouver sur place : nous avons dû en organiser l’envoi depuis la France pour équiper les ouvriers de nos usines chinoises. Cela n’est pas allé sans quelques difficultés, puisque le gouvernement chinois avait un grand besoin de stock et préemptait tous les masques envoyés… Nous nous sommes débrouillés en les envoyant par petits paquets aux adresses personnelles des dirigeants de nos usines sur place. L’inverse s’est également produit, puisqu’au mois de juin 2020, la Chine a envoyé des masques pour équiper les usines françaises de Mersen, masques qui ont été préemptés à leur tour par les autorités françaises à la douane…
Pensiez-vous, en février 2020, que la situation pouvait toucher l’Europe, alors épargnée par l’épidémie ?
La situation chinoise nous a fait comprendre que si l’épidémie s’étendait à l’Europe, nous allions faire face à une situation compliquée. A ce moment-là nous étions au début du mois de mars, et nos usines chinoises refonctionnaient normalement, l’impact sur la production était alors limité.
A la mi-mars, l’épidémie a commencé à se propager en Italie et en Espagne… Un atelier s’est arrêté quelques jours en Italie, en Espagne par contre tout a continué, même si cela s’est fait avec beaucoup de contraintes liées aux règles d’hygiène alors mises en place.
Puis est arrivée mi-mars l’annonce par le gouvernement français du confinement, et la directive pour la population de ne plus aller travailler. Nous nous sommes alors employés à communiquer avec nos salariés sur le fait que nous allions tout mettre en place pour garantir la sécurité dans nos usines, avec la distanciation, le port du masque… Au final, avec l’aide des collaborateurs locaux, de certains syndicats, nous avons réussi à faire venir au travail l’ensemble de nos collaborateurs. Sauf ceux qui étaient touchés par l’épidémie bien évidemment, et les personnes fragiles.
Quelles dispositions avez-vous prises pour vous adapter et permettre aux usines de continuer à fonctionner ?
Nous avons mis en place le télétravail pour tous les collaborateurs pour lesquels cela était possible. Pour les collaborateurs dans les ateliers par contre, le télétravail n’est pas une option. En France, certaines usines ont été arrêtées quelques jours, mais elles ont vite redémarré : au bout d’une semaine tous nos ateliers fonctionnaient presque normalement.
Au niveau international, nous avons commencé par mettre en place une coordination au niveau de la Chine, avec les dirigeants locaux des usines. Chose que nous avons répétée par la suite, au vu du contexte sanitaire, en Europe et aux Etats-Unis.
Nous avons laissé les dirigeants locaux s’adapter aux contraintes spécifiques mises en place dans leur pays, et cela a bien fonctionné, puisqu’au final, nous n’avons pas eu d’usines en grosse difficulté.
Economiquement pour l’entreprise, quelles sont les conséquences sur le chiffre d’affaires de 2020 ?
Quand nous avons constaté, au mois de mars 2020, que certains marchés industriels, comme l’aéronautique ou l’automobile, se fermaient complètement, nous avons craint des conséquences potentielles sur le chiffre d’affaires du groupe. Au bout de compte, la baisse maximum du chiffre d’affaires observée lors du premier confinement est de l’ordre de 20% (au mois d’avril et mai).
La Chine ayant repris son activité rapidement, les Etat-Unis ayant réussi tant bien que mal à continuer de produire, la secousse a été atténuée, même si elle a été bien réelle. Cette baisse du chiffre d’affaires est un moindre mal, en témoigne le fait que nous n’avons pas eu besoin d’aides gouvernementales, hormis pour le financement du chômage partiel.
Sur l’année 2020, nous sommes à 11,4% de baisse du chiffre d’affaires, ce qui, au vu du contexte, est très satisfaisant.
Certains marchés porteurs sur lesquels nous évoluons – photovoltaïque, éolien, semi-conducteurs pour les voitures électriques… – n’ont pas été très impactés par la crise sanitaire, c’est ce qui explique en partie pourquoi nous avons très bien résisté à cette crise, qui n’est pas terminée. Notre assise mondiale nous offre également une stabilité qui se révèle fondamentale aujourd’hui.
Aujourd’hui, alors que la crise sanitaire est encore là avec son lot d’incertitudes, quel est votre mot d’ordre ?
Aujourd’hui, il est urgent d’être patient. Nous ne savons toujours pas comment la crise sanitaire va évoluer, quand elle va se terminer… Aussi bien au niveau des collaborateurs que des actionnaires, nous avons décidé de prendre notre temps. Les perspectives pour l’année 2021, hors contexte sanitaire, sont plutôt favorables, donc nous sommes confiants, tout en restant sur nos gardes.
La gestion de la crise à l’heure actuelle est rendue plus facile par le fait que nous déléguons beaucoup la gestion des usines aux dirigeants sur place. Ils connaissent les arcanes locales, le contexte… cela s’est très bien passé jusqu’à présent, et nous allons continuer à opérer comme cela.
Pour ce qui est de l’organisation au jour le jour, nous sommes encore à 50% du personnel en télétravail dans les bureaux, avec des collaborateurs qui reviennent au fur et à mesure et 100% dans les ateliers. Nous allons aussi probablement faire la communication des résultats en mars prochain à distance.
En espérant que la situation s’améliore d’ici l’été ?
Il y a encore beaucoup d’incertitudes bien évidemment, mais on voit quand même que beaucoup de secteurs ont repris un niveau important d’activité, pour le moment. Nous tablons effectivement, un peu comme tout le monde, sur une reprise complète après l’été 2021, avec toutes les incertitudes que cela comprend. Nous restons confiants dans notre capacité à gérer les incertitudes actuelles : le fait que le groupe Mersen ait connu au cours de sa longue histoire des périodes difficiles nous donne cette confiance. Même si nous savons très bien qu’un groupe industriel ayant surmonté les crises passées n’augure en rien de sa capacité à surmonter celles qui viennent.
Venons-en à la stratégie du groupe Mersen. Comment sont organisées les productions ?
Nous avons organisé nos productions par savoir-faire. Nous avons par exemple deux usines de production de graphite et de carbone qui ne font que ça, des ateliers de finition qui ne font que de l’usinage… Historiquement nous avons fait le choix de réunir les mêmes compétences au sein de nos usines, et de ne pas mélanger les savoir-faire, les outils industriels et les timings de production au même endroit. Nous ne voulons pas mélanger les genres. C’est ce qui explique que nous ayons beaucoup d’usines, cela est un choix.
Nous avons réussi à reproduire ce modèle au niveau mondial, sur nos trois grandes zones d’activité : Europe, Asie et Amérique. Avec la volonté de s’installer là où sont nos clients, ce qui est vital pour gagner les marchés, et pour produire à coûts locaux.
Cela dit, nous ne sommes pas du tout dans une logique de délocalisation pour baisser les prix de production. Les inconvénients, en termes de taxes et de logistique notamment, sont souvent supérieurs aux avantages… même si une telle démarche peut parfois faire sens pour la fabrication de certains produits. De même, jamais nous ne délocaliserons dans des pays à bas coûts nos productions à forte valeur ajoutée, cela n’aurait pas de sens.
Cette approche s’applique-t-elle aussi à votre stratégie en termes d’acquisitions ?
Nous avons un savoir-faire en termes d’expertise, qui va orienter nos investissements. Cela marche également pour les acquisitions : nous avons par exemple fait l’acquisition d’une société spécialisée dans les condensateurs en 2018 pour compléter notre gamme de produits dans l’électronique de puissance.
En parallèle, nous avons ponctuellement regroupé certaines productions sur les sites historiques Mersen.
Le leitmotiv reste d’aller là où sont les marchés. C’est ce qui nous a amené en Chine, où nous avons rapidement compris qu’il nous fallait produire localement pour exister sur ces marchés. Le raisonnement est le même pour des pays comme la Corée ou le Japon. En ce qui concerne les Etats-Unis, nous n’avions pas suffisamment de présence sur place, ce qui nous a obligé à faire des acquisitions – Stackpole en 1991, Gould-Shawmut en 1999 – pour nous installer sur le marché américain. C’est d’ailleurs grâce à toutes ces acquisitions au niveau mondial, faites dans les années quatre-vingt et quatre-vingt-dix, que le groupe a survécu à toutes les crises, et est aussi solide aujourd’hui.
Que mettez-vous en place pour conserver tous les savoir-faire de Mersen au sein de l’entreprise sur le long terme ?
Le transfert des compétences est très important. Nous différencions les experts des spécialistes. Un expert pour nous est quelqu’un qui détient une compétence qu’on ne retrouve pas ailleurs. Un spécialiste, lui, détient un savoir-faire, qui découle de sa formation. Chez Mersen, les formulateurs de produits carbonés, les designers de fusibles par exemple, vont être considérés comme experts.
Nous avons une vingtaine d’experts, ce qui est peu. Nous avons également des spécialistes, en plus grand nombre.
Nous avons mis en place une organisation pour s’assurer que la transmission des savoir-faire entre ceux qui vont nous quitter et ceux qui sont le futur du groupe s’opère. Historiquement, nous n’avons pas un turn-over très important, les collaborateurs restent souvent longtemps au sein du groupe, cela facilite grandement toutes ces problématiques de transmission de savoir.
Cette démarche autour du développement et du maintien des savoir-faire au sein du groupe explique-t-elle également la solidité du groupe depuis le début de la crise sanitaire ?
Oui, je le pense. Je dirais également que cette crise a renforcé le modèle que nous avons mis en place, à savoir mettre aux postes de responsabilité des collaborateurs que nous estimons très compétents. Ce sont eux qui ont permis aux usines de continuer à fonctionner le plus normalement possible durant le premier confinement, et la manière dont le groupe évolue depuis le mois de mars 2020 nous conforte dans nos choix antérieurs.
Pour terminer, parlez-nous du retour de Mersen sur le secteur automobile, que vous aviez quitté au début des années 2000. Pourquoi ce choix ?
Mersen était dans les années 2000 sur un produit très traditionnel destiné au marché automobile, et dont la rentabilité avait baissé. C’est pour cela que le groupe a décidé à ce moment-là de se retirer du secteur automobile, pour privilégier une autre ambition, celle d’être présents à la fois sur les marchés à forte croissance – électronique, chimie et pharmacie – et sur les nouveaux marchés d’avenir comme les énergies renouvelables.
Nous revenons aujourd’hui sur le marché de l’automobile, effectivement, et sur le véhicule électrique en particulier, avec un autre angle d’attaque : nous proposons des produits techniques, à forte marge, que nous sommes les seuls à pouvoir produire. Il y a même certains produits que personne ne sait encore réaliser, qui sont encore en phase de développement, car ils sont totalement nouveaux.
Nous travaillons par exemple sur des éléments de batteries pour véhicules électriques, mais comme le design de ces batteries n’est pas figé pour le moment, nous ne savons pas si nos produits seront encore adaptés aux exigences de nos clients, qui vont à coup sûr évoluer.
Cela dit, tous les grands acteurs du secteur automobile se lancent, les uns après les autres, sur la production de nouveaux modèles électriques, massivement. L’intérêt est donc là, et nous y répondons en mettant des équipes en place, qui évaluent quels sont les produits du groupe qui présentent le plus d’intérêt pour cette industrie en forte croissance.
Avec à terme, l’ambition de créer au sein du groupe une organisation spécifique autour de ce marché automobile qui est très particulier.
Propos recueillis par Yves Valentin, directeur général de Techniques de l’Ingénieur, et Pierre Thouverez, journaliste.
Les enjeux du démantèlement nucléaire sont divers, aussi bien liés à la durée des opérations (souvent plus d’une décennie) qu’à la multiplicité des intervenants dans les différentes étapes à coordonner ou encore à la gestion des risques de tels chantiers, avec, au cœur de tout, la prise en considération des risques liés à la sûreté nucléaire et à la radioprotection.
Face à ces défis, les équipes scientifiques du Commissariat à l’énergie atomique et aux énergies alternatives (CEA), associées à l’INSTN, l’école de spécialisation des énergies bas carbone et des technologies de la santé, ont décidé d’impliquer les étudiants francophones dans la recherche de solutions innovantes s’appuyant sur les nouvelles technologies, autour de trois grandes thématiques :
La data et ses ressources : comment réunir et exploiter les données historiques pour générer de la valeur ?
La performance en milieu complexe : comment permettre aux intervenants de mieux travailler, en toute sécurité ?
Le développement durable : comment intégrer le développement durable dans le démantèlement d’une installation ?
Les candidats ont jusqu’au 28 février 2021 pour proposer un projet, soumis à un premier jury, composé de salariés du CEA et de l’INSTN. À l’issue de cette pré-sélection, 6 dossiers resteront en lice pour préparer la finale, du 15 mars au 3 mai. Celle-ci se déroulera fin mai devant un jury prestigieux.
Pour participer, retrouvez toutes les informations et postulez sur la plateforme digitale hackadem.fr
Et pour mettre toutes les chances de votre côté, visionnez le webinar « Pourquoi participer à un challenge ou un hakathon« . Yohann Melamed, fondateur d’Agorize, la plateforme qui propulse le Hackadem’Sup, y dévoile quelques astuces afin de mettre toutes les chances de votre côté pour remporter la victoire.
Depuis le début de la crise liée à l’épidémie de Covid-19, plusieurs chaînes de valeur d’entreprises industrielles ont été perturbées. Lors de la première phase de confinement, la rupture des approvisionnements en matières premières venues de l’étranger a engendré des arrêts de production. Dans d’autres cas, les industriels n’étaient pas suffisamment armés pour répondre rapidement aux nouvelles demandes de leurs clients, motivées par la crise. C’est pourquoi Emmanuelle Perret, chargée de mission à l’Union des industries et métiers de la métallurgie (UIMM) de l’Ain, considère que « la crise sanitaire questionne la chaîne de valeur et incite à la repenser ».
C’est dans ce contexte que, lors de la troisième journée du Sommet 4.0, universitaires et professionnels de l’industrie ont questionné les avantages des technologies 4.0 pour faire face à ce type de problématiques. Cette rencontre a été organisée par l’UIMM de l’Ain et l’Institut polytechnique de Grenoble (Grenoble INP). « Les entreprises se doivent d’être flexibles, résilientes dans toutes les conditions », estime Fabien Mangione, enseignant-chercheur en génie industriel à Grenoble INP. Or, depuis les années 1990, l’industrie s’est habituée au fait que les objets à faible valeur ajoutée soient fabriqués à l’étranger. Et un rapide rétropédalage sur ce point semble complexe à mettre en œuvre.
Suivi en temps réel avec l’IoT
Fabien Mangione rappelle qu’en temps de crise, la première urgence pour une entreprise est d’assurer sa « survie » en maintenant son activité. Ensuite, elle doit réussir sa reprise en tâchant de retrouver un fonctionnement stable. La condition essentielle pour que ces deux phases se déroulent correctement est que des informations sur les besoins des clients arrivent sans délai jusqu’aux décisionnaires. Ce n’est qu’à ce titre que l’entreprise peut adapter son offre aux besoins du marché. Or souvent, comme le rappelle Fabien Mangione, cette remontée de données relatives aux clients ne s’effectue pas dans de bonnes conditions.
Afin d’éviter cet écueil, les entreprises pourraient s’appuyer sur l’Internet des objets (IoT). « Les objets connectés vont se positionner comme support à la chaîne de production » explique Philippe Bianic, chargé de mission de la chaire 4.0 de l’UIMM de l’Ain. Avec l’aide de ces objets, les industriels seront en capacité d’optimiser les opérations. Par exemple, ajouter un capteur sur un boulon permet de vérifier qu’il est bien serré, sans besoin de geste superflu. Un autre avantage de l’IoT est de pouvoir suivre l’évolution du produit chez le client. Philippe Bianic affirme qu’avec l’IoT émergera un nouveau type de services basé sur le suivi en temps réel. Cela concernera aussi bien les déplacements, la gestion des stocks ou des performances d’un produit.
La fabrication additive adaptée aux nouvelles exigences
L’autre grande solution 4.0 pour favoriser la résilience des entreprises est la fabrication additive. Cette technologie repose sur le principe de l’impression 3D, généralement à partir de polymères. Les impressions en métal sont moins courantes, car leur prix est plus élevé. Selon Julien Bajolet, chargé de mission au centre de formation AFPMA de l’Ain, cette solution permettrait de fabriquer rapidement des pièces à faible valeur ajoutée. Les objets sont imprimés directement à partir d’un fichier CAO, rapidement et pour un prix bas. De ce fait, la fabrication de ce type de pièces qui se faisait généralement à l’étranger peut être réalisée localement.
De plus, l’impression de pièces permet plus facilement les personnalisations demandées par les clients. « Tous ces avantages rendent la fabrication additive très utile dans le cadre d’une crise mondiale qui nécessite d’avoir de nouvelles pièces rapidement », ajoute Julien Bajolet. La flexibilité ainsi obtenue permet aux entreprises de mieux s’adapter aux nouveaux calendriers imposés par les clients. Depuis le début de la crise, Christophe Jacquemet, PDG du groupe Jacquemet spécialisé dans la fabrication de pièces métalliques a constaté qu’il a moins de visibilité qu’auparavant sur ses commandes. Selon lui, l’horizon n’est plus que de 2-3 semaines contre 6-8 semaines avant la crise. Pour gagner en réactivité, ce chef d’entreprise a décidé d’investir dans une imprimante 3D.
Les réseaux électriques européens sont tous interconnectés et la fréquence de 50 Hz est maintenue par l’ensemble des gestionnaire de réseau du continent, constituant la zone synchronisée.
Vers 14h05, le 8 janvier, la fréquence dans la zone nord-ouest de l’Europe continentale a d’abord diminué pour atteindre une valeur de 49,74 Hz en une quinzaine de secondes. Par la suite, la fréquence a atteint une valeur stable d’environ 49,84 Hz. Dans le même temps, la fréquence dans la zone sud-est a d’abord augmenté jusqu’à une valeur de 50,6 Hz avant de se stabiliser à une fréquence d’équilibre entre 50,2 Hz et 50,3 Hz, rapporte Entoso-e.
En raison de la sous-fréquence dans la zone nord-ouest, les services interruptibles – des gros clients industriels sous contrat avec les GRT respectifs et qui acceptent de se déconnecter si la fréquence tombe en dessous d’un certain seuil – sous contrat en France et en Italie, pour un total d’environ 1,7 GW, ont été déconnectés afin de réduire l’écart de fréquence. En outre, 420 MW et 60 MW de puissance de soutien ont été automatiquement activés à partir des zones nordique et britannique synchrones respectivement, indique Entso-e. En outre, des contre-mesures automatiques et manuelles ont été activées, y compris la réduction de la production (par exemple, la déconnexion automatique d’une centrale de 975 MW en Turquie à 14h04min57s).
L’ensemble de ces actions a permis de limiter, dès 14h09, l’écart de fréquence à une déviation d’environ 0,1 Hz dans la zone nord-ouest par rapport à la fréquence nominale de 50 Hz.
En raison de l’importante sur-fréquence dans la zone sud-est, des contre-mesures automatiques et manuelles ont été activées (c’est-à-dire la réduction de l’alimentation des unités de production) afin de stabiliser la fréquence. Ainsi, à 15h05, la déviation de fréquence dans la zone sud-est a pu être limitée à 50,1 Hz.
Map of Continental Europe Showing the two separated areas during the system even on 8 January 2021 (source : Entso-e)
Un coupleur de barres croate
L’analyse d’Entso-e conclut que l’événement initial a été le déclenchement d’un coupleur de barres de 400 kV dans la sous-station d’Ernestinovo (Croatie) par une protection contre les surintensités à 14h04min25s.Cela a entraîné un découplage des deux barres omnibus dans la sous-station d’Ernestinovo, qui à son tour a séparé les flux d’énergie, laissant les lignes à destination du nord-ouest connectées à une barre omnibus reliant Ernestinovo à Zerjavinec (Croatie) et Pecs (Hongrie). Parallèlement, les lignes à destination du sud-est restaient, elles, connectées à une autre barre omnibus reliant Ernestinovo à Ugljevik (Bosnie-Herzégovine) et Sremska Mitrovica (Serbie).
La séparation des flux dans la sous-station Ernestinovo a entraîné une surcharge sur les lignes voisines, notamment la ligne Subotica – Novi Sad (Serbie). Cette situation a été suivie d’autres déclenchements de lignes, conduisant, in fine, à la séparation du système en deux parties à 14h05min08s.
La séparation du système a entraîné un déficit de puissance d’environ 6,3 GW dans la zone nord-ouest et un surplus de puissance équivalent dans la zone sud-est, avec pour conséquence une diminution de la fréquence dans la zone nord-ouest et une augmentation de la fréquence dans la zone sud-est.
Des GRT en action
En Europe continentale, des procédures sont en place pour éviter les perturbations du système et notamment les écarts de fréquence importants avec le risque de déconnexion non coordonnée des clients ou de la production, rappelle Entso-e dans sa note. Les GRT Amprion (l’un des quatre en Allemagne) et Swissgrid (Suisse) sont responsables de ces procédures dans leur rôle de contrôleur de zone synchrone (SAM, en initiales anglaises) en Europe continentale. Le SAM surveille en permanence la fréquence du système. En cas d’écarts de fréquence importants, ils informent tous les TSO via le système européen de sensibilisation (EAS) et lancent une procédure extraordinaire pour les écarts de fréquence afin de coordonner les contre-mesures de manière rapide et efficace pour stabiliser le système, explique Entso-e.
Malgré la forte numérisation des réseaux de transport, une des étapes de cette procédure réside dans une conférence téléphonique organisée par Amprion, Swissgrid, RTE (France), Terna (Italie) et REE (Espagne). Cette téléconférence a eu lieu à 14h09 le 8 janvier 2021. Lors de la conférence téléphonique, la situation a été évaluée, les GRT ont été informés des contre-mesures qui ont déjà été activées (procédures automatiques). Ces actions, coordonnées entre les GRT de la zone nord-ouest et sud-est, ont également permis de rétablir une zone synchrone en Europe continentale.
Grâce à la grande résilience du réseau interconnecté et à la réaction rapide des GRT européens, la sécurité de l’exploitation et de l’approvisionnement en électricité n’a pas été davantage mise en danger, insiste Entso-e.
Très peu de clients finaux ont été privés de courant à l’occasion de cette déviation. De l’ordre de 70 MW dans la zone nord-est et de l’ordre de 163 MW dans la zone sud-est ont été déconnectés.
Une enquête formelle sur cet événement doit encore être conduite, avec la participation des régulateurs nationaux de tous les pays ainsi que de l’association des régulateurs européens, l’Acer.
Afin que les entreprises industrielles puissent tirer le meilleur profit des avancées du numérique, il sera nécessaire que les pratiques des salariés soient mises à jour. Cette réflexion était au cœur des réflexions de la deuxième journée du Sommet 4.0. Cet événement est organisé par l’Union des industries et métiers de la métallurgie (UIMM) et l’Institut polytechnique de Grenoble (Grenoble INP). « Tout prend du temps, mais parfois le temps technologique s’accélère », constate Françoise Diard, cheffe du service emploi à l’UIMM.
L’un des plus grands défis de l’industrie 4.0 est de convertir tous les employés du secteur industriel à ses pratiques et à ses codes. Or, Emmanuelle Perret, chargée de mission à l’UIMM de l’Ain, rappelle que 31 % des salariés ne se sentent pas prêts à la transformation numérique des entreprises. De plus, 42 % responsables des ressources humaines considèrent que leurs collaborateurs sont dépassés par la technologie. Or dans le même temps, « les métiers de l’industrie changent, et de nouveaux métiers apparaissent », indique Valérie Rocchi, chargée de mission Recherche et Innovation pour la thématique Systèmes de Production à Grenoble INP.
Le défi technologique de l’industrie 4.0
C’est pour faire face à cette nouvelle réalité professionnelle que l’accord de branche de l’industrie daté du 17 mai 2010 – toujours en vigueur actuellement – définit l’existence d’un défi technologique. Il met en lumière la nécessité de s’adapter et de maîtriser rapidement les nouveaux outils numériques. Afin d’illustrer ce point, Françoise Diard, cheffe du service emploi à l’UIMM, prend l’exemple du cube immersif 3D du centre de réalité augmentée de Saint-Nazaire. Cet outil de prévisualisation qui simule les effets du vent, des vagues, du bruit ou encore du vertige peut servir à préparer en amont une intervention sur une éolienne offshore.
« Ce sont des outils que nous n’avions pas avant, qui sont extrêmement puissants, qui changent la manière de travailler », indique Françoise Diard. Cependant, si l’employé n’est pas formé à l’utilisation de cet outil, il ne peut pas profiter des avantages liés à cette innovation. C’est pourquoi l’objectif « est de former des gens qui vont voir un pourcentage de leur activité consacré à l’utilisation de ces techniques-là parce que petit à petit, ça va changer leur manière de travailler », résume Eric David, professeur d’opération industrielles et numériques à l’EM Lyon.
Eric David ajoute que pour attirer des nouvelles compétences internes, plusieurs possibilités sont offertes aux entreprises. La première est de faire appel à des employés polyvalents, qui maîtrisent plusieurs compétences. La deuxième est de recruter un salarié en temps partiel, dont le temps serait partagé entre plusieurs entreprises. Les deux autres options évoquées sont l’appel à des freelances pour des missions ponctuelles ou recourir au prêt de main d’œuvre inter-entreprises.
La jeunesse formée en conditions industrielles réelles
Les actions de formations réalisées auprès des salariés en poste ne sont pas les seules nécessaires. Les changements induits par l’industrie 4.0 nécessitent également que la formation des jeunes soit adaptée avant même leur arrivée en entreprise. À Grenoble INP, les apprentissages destinés aux futurs salariés de l’industrie numérique se veulent pluridisciplinaires. C’est pourquoi les étudiants sont formés en conditions réelles, dans des learning factories. « La learning factory permet aux étudiants d’appréhender sur le site académique le milieu industriel réel et ses problématiques avec des équipements à l’état de l’art. C’est la reconstitution d’ateliers industriels avec des cas industriels réels », explique Valérie Rocchi.
Et conformément au souhait du gouvernement, l’État intervient également dans la formation de ces jeunes. Ainsi, la région Auvergne-Rhône-Alpes agit concrètement. De ce fait, des soutiens de plusieurs ordres sont apportés aux centres de formation. Cela passe notamment par de la sensibilisation, mais aussi par des investissements financiers. « Le sujet n’est plus de savoir comment financer les formations, mais plutôt de savoir comment les adapter le mieux possible pour répondre à une exigence de filière », explique Stéphanie Pernod Beaudon, vice-présidente du conseil régional d’Auvergne-Rhône-Alpes, déléguée à la formation professionnelle.
En 2020, 538 772 voitures électriques et 507 059 voitures hybrides rechargeables ont été vendues en Europe, selon les chiffres publiés par l’Association des constructeurs européens (ACEA). Sur l’année, les voitures électriques ont représenté 10,5 % des ventes de voitures neuves en Europe, les hybrides 11,9 %. En 2019, cette part était respectivement de 3 % et 5,7 %. Ces voitures alternatives atteignent ainsi une part de marché record de 22,4 %. L’essence reste majoritaire, avec une part de marché de 47,5 %, le diesel arrive derrière à 28 %. Enfin, les autres carburants alternatifs s’élèvent à 2,1 %.
Des politiques de soutien qui boostent les ventes
Cette forte augmentation de la demande de véhicules électriques à batterie et de véhicules hybrides rechargeables est en grande partie due aux mesures gouvernementales en faveur des véhicules à faibles émissions, partage l’ACEA. Plus les incitations sont importantes et plus les gains sont importants.
L’Allemagne et la France restent de loin les deux premiers marchés de l’Union européenne en termes de vente de véhicules électriques et hybrides. Les soutiens y sont d’ailleurs particulièrement importants : jusqu’à 9 000 euros dans le premier cas, jusqu’à 12 000 euros dans l’autre. L’Allemagne se hisse en tête avec 200 469 ventes de véhicules hybrides neufs (+34 2%) sur l’année et 194 474 ventes de véhicules électriques (+206 %). Derrière, la France enregistre 74 592 ventes de véhicules hybrides (+201 %) et 111 127 ventes de véhicules électriques (+160 %).
Un quatrième trimestre particulièrement dynamique
Grâce aux politiques de soutien, les ventes de véhicules électriques et hybrides ont particulièrement décollé au quatrième trimestre. Entre octobre et décembre, les immatriculations de voitures électriques neuves ont bondi en Europe de 217 % par rapport au même trimestre de 2019 pour s’élever à 248 099. La croissance est encore plus impressionnante pour les véhicules hybrides avec des immatriculations en hausse de 331 %, pour atteindre 227 125 ventes.
Avec une baisse globale d’immatriculations de trois millions d’unités sur l’année, les grands perdants sont les voitures essence et diesel. Au quatrième trimestre, les ventes de voitures à essence ont baissé de 33,7 % pour atteindre 1,2 million d’exemplaires. Les ventes de voitures diesel ont baissé de 23 % pour finir à 731 000 unités. Les véhicules diesel et essence dominent toutefois toujours les ventes de voitures de l’UE en termes de part de marché.
Les matériaux adsorbants sont la pièce maîtresse des pompes à chaleur fonctionnant sur le principe de l’adsorption et de désorption de l’eau. Afin de produire du froid, ceux actuellement commercialisés ont besoin d’une température de 90 degrés pour résorber l’eau. Pour l’atteindre, il est donc nécessaire d’apporter une source de chaleur externe, mais qui consomme de l’énergie. Des scientifiques de l’Institut Charles Gerhardt Montpellier et de l’Institut de recherche KRICT en Corée du Sud ont élaboré un nouveau matériau hybride nanoporeux capable d’adsorber des quantités importantes d’eau et de les désorber à une température en dessous de 70 degrés. Cette innovation pourrait ouvrir la voie à de futures pompes à chaleur capables de produire du froid uniquement grâce au rayonnement solaire dans des pays chauds. Ce travail de recherche vient d’être publié dans la revue Nature Communications.
Les systèmes solaires thermiques basés sur un mécanisme d’adsorption et de désorption de l’eau fonctionnent à l’aide d’un matériau adsorbant. Ce dernier a la propriété de fixer à sa surface des atomes, des ions ou des molécules grâce à un transfert de matières de la phase gazeuse ou liquide vers la surface solide. Ce phénomène est plus ou moins réversible, c’est-à-dire qu’après avoir fixé l’eau dans ses pores, le matériau est capable de la libérer sous l’effet de la température et d’ainsi produire du froid. « Toute la problématique est de trouver un matériau qui adsorbe à la fois de grandes quantités d’eau tout en ayant la capacité à la libérer à basse température », analyse Guillaume Maurin, chercheur à l’Institut Charles Gerhardt Montpellier.
Des simulations numériques pour prédire les performances du matériau
Grâce à des outils de simulations numériques, les chercheurs de Montpellier ont dans un premier temps prédit un nouveau matériau hybride appartenant à la famille des Metal-Organic-Framework (MOFs). Ils sont formés par l’association d’un oxyde de métal et d’un ligand organique. Le nouveau matériau créé a été baptisé KMF-1 et est constitué de chaînes d’oxyde d’aluminium connectées par des cycles aromatiques formant des canaux microporeux. « La découverte de ce matériau a été réalisée in silico grâce à des outils numériques capables aussi de prédire ses performances d’adsorption, poursuit le chercheur. Au lieu de tester arbitrairement un nombre infini de matériaux, ces simulations nous ont permis de limiter leur nombre et de focaliser l’effort de recherche vers ceux que nous considérions comme les plus prometteurs et ainsi gagner du temps. »
L’institut de recherche en Corée du Sud est ensuite parvenu à faire la synthèse de ce matériau et a ensuite testé ses performances. Les simulations numériques se sont avérées exactes puisque les expérimentations ont démontré que le KMF-1 est capable d’adsorber de grandes quantités d’eau et de la désorber facilement à une température comprise entre 65 et 70 degrés. « Dans des pays chauds comme ceux du bassin méditerranéen et africain où la température de l’air peut monter entre 45 et 50 degrés, il est possible de concentrer les rayons du soleil afin d’atteindre cette température de désorption de 65 à 70 degrés, explique Guillaume Maurin. Grâce à ce nouveau matériau, nous allons être en mesure de produire du froid sans besoin énergétique supplémentaire. Ce niveau de performance n’avait jusqu’ici jamais été atteint. »
Figure de la structure du KMF-1 contenant des molécules d’eau et issue des simulations numériques. Crédit photo : Guillaume Maurin / ICGM
Le KMF-1 pourrait aussi servir à la fabrication de réfrigérateurs respectueux de l’environnement. Les systèmes frigorifiques à compression utilisent en effet tous des polluants comme les chlorofluorocarbones pour fonctionner. Ici, le fluide utilisé est totalement propre puisqu’il s’agit de l’eau. « Même si les normes en vigueur deviennent de plus en plus contraignantes, tous les fluides réfrigérants actuellement utilisés dans les réfrigérateurs restent nocifs pour la couche d’ozone et toxiques pour la santé. Notre nouveau matériau pourrait aussi offrir une alternative dans ce domaine d’application. »
Tester le KMF-1 sur des pilotes semi-industriels
Enfin, ce nouveau matériau possède également une capacité à produire de la chaleur. Ce phénomène se produit lors de la phase d’adsorption de l’eau, un mécanisme exothermique. Et il se répète au moment de la phase de désorption puisque la condensation de l’eau entraîne la production de chaleur. Le KMF-1 se révèle donc être un matériau potentiel pour faire fonctionner les pompes à chaleur.
Même s’il est très prometteur, le KMF-1 reste encore au stade de la preuve de concept. Pour l’instant, tous les tests ont été réalisés à l’échelle du laboratoire. L’étape suivante va consister à le produire en grande quantité, au moins à l’échelle du kilo, afin de le tester sur des pilotes semi-industriels. Ces études devraient durer entre 5 et 10 ans. « Nos collègues Coréens sont équipés de pilotes de laboratoire semi-industriels, ajoute le chercheur. Ils ont déjà validé l’aspect cyclabilité et régénération du matériau. Actuellement, ils envisagent déjà de faire des tests sur plus de 1 000 cycles, ce qui correspond à des temps d’utilisation réels de 2 à 3 années. Si nous obtenons une bonne transférabilité entre les pilotes de laboratoire et ceux industriels, nous pourrons ensuite envisager la commercialisation du matériau et son intégration dans des pompes à chaleur. »
Depuis le début de la crise sanitaire provoquée par l’épidémie de Covid-19, l’industrie a dû s’adapter pour éviter que les unités de production ne se retrouvent à l’arrêt. Au fil des derniers mois, les principes de l’industrie 4.0, ou industrie du futur, ont permis aux entreprises concernées de réinventer leurs pratiques. À l’occasion de la première journée du Sommet 4.0 organisé par l’Union des industries et métiers de la métallurgie (UIMM) et l’Institut polytechnique de Grenoble (Grenoble INP), différents acteurs de l’industrie ont questionné les apports de la digitalisation pour les entreprises au cours de ces derniers mois.
« L’expérience du premier confinement nous montre que le digital est un véritable levier permettant aux industriels d’adapter leurs modèles et leurs pratiques », se félicite Marie-Hélène Lebranchu, déléguée générale de l’UIMM de l’Ain. « Le digital et le 4.0 peuvent permettre de maintenir et de renforcer la place de notre tissu industriel dans le paysage mondial » ajoute-t-elle. En clair, en plus d’être un moyen de résister dans un contexte hostile, le 4.0 renforcerait la compétitivité de l’industrie française sur la scène internationale.
Le télétravail, symbole de l’industrie du futur
Arrivé de manière brutale dès mars dernier dans les entreprises, le télétravail a été au cours des derniers mois l’une des principales portes d’entrée de l’industrie du futur dans les unités de production. Pour Philippe Darmayan, président de l’UIMM et président d’ArcelorMittal France, l’arrivée du travail à distance a eu un caractère ambivalent. Ce dernier estime que « le télétravail a été à la fois la meilleure et la pire des choses ». Selon lui, le télétravail est bénéfique seulement si l’entreprise y a recours dans un contexte de confiance à l’égard de ses salariés, et non en vue de faire « des économies de mètres carrés ».
Ainsi, la tendance veut que le numérique se substitue progressivement aux migrations quotidiennes des travailleurs. « Les flux numériques ont remplacé la mobilité physique des personnes », souligne Thomas Reverdy, maître de conférences en Sociologie Industrielle à Grenoble INP. Il note par ailleurs que le travail à distance a été largement accepté par les salariés. Ce dernier affirme également que la crise a permis de réaffirmer la capacité de pilotage à distance. Ainsi, la création de jumeaux numériques a permis de réduire le fort besoin en main-d’œuvre sur site. Cela est notamment le cas pour la surveillance des procédés automatisés, qui demande généralement une supervision humaine forte.
900 millions d’euros pour l’industrie 4.0
Dans un message préenregistré, Agnès Pannier-Runacher a rappelé que l’État profite du contexte troublé pour soutenir l’industrie du futur. La ministre déléguée auprès du ministre de l’Économie chargée de l’Industrie a souligné qu’il était urgent que la France rattrape son retard sur ses concurrents étrangers. « Notre industrie reste sous-équipée en robots. On y recense 154 robots pour 10 000 employés, soit deux fois moins qu’en Allemagne et cinq fois moins qu’en Corée. La crise que nous traversons ne fait que renforcer l’urgence de la modernisation de notre appareil productif », déclare-t-elle.
C’est pourquoi le plan de relance prévoit des mesures concrètes à l’attention directe de toutes les entreprises. « France Relance prévoit 900 millions d’euros pour la modernisation des PME et des ETI », indique Agnès Pannier-Runacher. Elle ajoute que 10 000 diagnostics numériques seront financés d’ici fin 2022. Les subventions pour l’investissement dans des équipements plus modernes devraient quant à eux être prolongés durant les prochaines années. La ministre espère ainsi que ces apports fassent augmenter de 30 % la compétitivité de l’industrie française. L’objectif non dissimulé de l’exécutif est qu’il y ait des créations et des relocalisations d’activités sur le territoire national.
Météo-France publie ses nouvelles projections climatiques de référence en France. Élaborées en collaboration avec l’Institut Pierre-Simon Laplace et le Centre européen de recherche et de formation avancée en calcul scientifique, elles sont disponibles sur le site DRIAS. Météo-France publie en plus un rapport scientifique et une brochure à destination du grand public. Les nouvelles données serviront de référence aux études d’adaptation au changement climatique et viendront en support aux politiques publiques.
Au vu des émissions récentes de gaz à effet de serre et de l’inertie du système Terre, la trajectoire d’évolution du climat jusqu’à 2040 est déjà tracée, prévient Météo-France. Mais les quantités de gaz à effet de serre émis durant les prochaines décennies seront capitales pour l’évolution future du climat, entre 2050 et 2100.
Jusqu’à +4,7°C en moyenne annuelle en 2100
En exploitant une trentaine de prévisions climatiques de référence pour la France reposant sur 12 modèles climatiques, Météo-France explore trois scénarios d’émissions de gaz à effet de serre élaborés par le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC). Le scénario optimiste RCP 2.6 prévoit une hausse de la température de 1,3°C en France d’ici 2100 par rapport à la période de référence 1976-2005. Le scénario médian (RCP 4.5) prévoit une hausse des températures de 2,2°C et le scénario pessimiste (RCP 8.5) de 3,9°C.
« Aux températures calculées par le modèle, il faut rajouter 0,8°C dans un second temps, explique Mary Kerdoncuff, directrice adjointe chargée des opérations à la Direction de la climatologie et des services climatiques de Météo-France. Cette température correspond à l’écart de température entre la période 1976-2005 et l’ère préindustrielle ». Ainsi, les températures prévues d’ici 2100 s’élèvent respectivement selon les trois scénarios à 2,1°C, 3°C et 4,7°C par rapport à l’ère préindustrielle.
Davantage de vagues de chaleur et moins de froid
Entre 1976 et 2005, les vagues de chaleur sont restées relativement rares, avec une moyenne de l’ordre de trois jours en France Métropolitaine. Mais quel que soit le scénario d’émission, elles augmenteront, prévient Météo-France. D’ici la fin du siècle, « l’augmentation de la fréquence du nombre de vagues de chaleur en été est fortement dépendant du scénario considéré : +10 à +15 jours en moyenne pour un scénario RCP4.5, environ le double en RCP8.5 », estime le rapport. Les canicules pourront ainsi devenir « monnaie courante » à la fin du siècle, « avec des températures couramment de l’ordre de 50°C ou plus », prévient Mary Kerdoncuff.
En parallèle, les nuits tropicales, c’est-à-dire dont la température excède 20°C, vont se multiplier. Dans le pire des scénarios, les zones les plus exposées du sud de la France pourront connaître jusqu’à 3 mois de nuits tropicales en 2100.En fin de siècle, le nombre de jours de vagues de froid pourrait être divisé par deux dans le scénario optimiste et se réduire à un jour par an pour les deux autres scénarios.
Un peu plus de pluie mais des sécheresses plus inquiétantes
L’évolution de la pluviométrie est beaucoup plus variable selon la géographie, la saison et le scénario retenu. En France métropolitaine, la pluviométrie devrait augmenter entre +2 % et +6 % en moyenne. En hiver, la hausse pourrait atteindre +10 %. Mais l’été, c’est tout l’inverse. Les scientifiques relèvent « une baisse quasi systématique en été, se renforçant au cours des horizons pour atteindre -10 à -20 % en fin de siècle avec les scénarios RCP4.5 et RCP8.5 », prévoit le rapport. Il y a en plus un gradient nord-sud : le sud de la France s’assèche plus.
« Avec des températures de plus en plus chaudes et de plus en plus de canicules l’été, mais aussi de moins en moins de précipitations, on aura de plus en plus de problèmes de sécheresses », avertit Mary Kerdoncuff. Ce risque est d’autant plus amplifié que les émissions de gaz à effet de serre augmentent. En effet, si les épisodes de sécheresses estivales liées au manque de pluie augmentent peu dans le scénario optimiste, elles augmentent respectivement de l’ordre de 5 à 10 jours par an, soit une augmentation de 30 à 50 %, avec les scénarios RCP4.5 et RCP8.5, d’ici la fin du siècle.
Il y a des sociétés pour lesquelles l’épidémie de Covid-19 est synonyme d’intensification de leur activité. À Montpellier, la start-up Koovea en fait partie. Depuis 2018, cette jeune société conçoit et commercialise une solution de suivi de température connectée destinée au transport et au stockage des produits de santé et des produits alimentaires. Adrien Content, l’un de ses cofondateurs, est satisfait de ce succès. Selon cet ingénieur en électronique de formation, la réussite de l’entreprise est liée à la simplification technologique d’un procédé complexe.
Techniques de l’Ingénieur : Comment fonctionne la solution que vous avez mise au point ?
Adrien Content : Le principe repose sur une sonde capable d’enregistrer des températures allant de -200°C à +600°C. Elle se présente sous la forme d’un petit boîtier connecté, qui est placé dans un contenant. Ce dernier peut être fixe, comme un réfrigérateur ou une chambre froide, ou mobile, comme un véhicule de transport ou une caisse isotherme. Ensuite, un enregistreur de température miniaturisé relève les données en temps réel, et les renvoie vers nos serveurs. Ce qui permet à nos clients de s’assurer en temps réel que la température est bien respectée.
Qui sont vos clients ?
On travaille avec tous les acteurs de la chaîne logistique sur le médicament et sur l’alimentaire. Dans le cadre de l’action Covid, nos clients se trouvent tout au long de la chaîne du vaccin. Elle va du laboratoire fabriquant jusqu’à l’injection dans un hôpital, un Ehpad, ou une pharmacie. Tous ces acteurs-là sont nos clients sans distinction, car l’objectif est de pouvoir sécuriser la chaîne du froid de bout en bout.
Quels sont les risques liés à une rupture dans la chaîne du froid lors du transport de vaccins ?
Si un vaccin, ou un produit de santé de façon générale, qui doit être stocké à une température frigo ne l’est pas, il va y avoir une dégradation du principe actif. On va donc avoir un vaccin moins, voire plus du tout efficace. Et depuis de nombreuses années, il est prouvé que pour certains produits, un mauvais respect de la chaîne du froid vient aussi accentuer les effets secondaires. Cela peut donc rendre certains produits dangereux au lieu d’être bénéfiques pour la santé.
Comment expliquez-vous votre gain d’activité en cette période de crise sanitaire ?
Nous avons déjà connu un pic d’activité l’année dernière par rapport au transport de tests PCR et des produits réactifs. Celui-ci doit impérativement être fait à des températures contrôlées. Par exemple, si les réactifs sont mal transportés, ils peuvent biaiser les résultats des tests. C’est pourquoi ces produits doivent être transportés à -20 °C. Et depuis décembre, notre activité est décuplée. Notre stock est mis à mal pour livrer très rapidement tous nos clients puisque c’est presque la veille pour le lendemain à chaque fois.
crédit photo : Koovea
Comment expliquez-vous que votre solution se distingue de la concurrence ?
La force de notre innovation est son fonctionnement sur batterie. La première cause de rupture de la chaîne du froid, c’est la panne électrique. Or, lorsque le système électrique est rompu, tout s’arrête. Et il n’y a plus d’alerte. De plus, grâce à nos routeurs qui fonctionnent grâce à une carte SIM, il n’y a même plus besoin de connexion à un réseau internet. Notre système est également très simple d’utilisation. Nul besoin de configurer quoi que ce soit. Le boîtier est posé et est directement connecté à notre système. Les capteurs sont configurés en amont. Ils sont détectés automatiquement par notre système, et tout se fait tout seul.
L’accès à votre solution est-il onéreux ?
On a fait notre place en créant l’innovation technologique qui vise à simplifier le système. On équipe des réfrigérateurs et des véhicules en quelques minutes. Nos clients n’achètent pas chez nous un équipement, mais ils s’abonnent à un service. Le montant de l’abonnement varie en fonction du nombre d’équipements utilisés. Par exemple, pour équiper un véhicule de transport ou un réfrigérateur, notre solution est disponible à partir de 23 euros par mois. En ce moment, le nombre de commandes est en constante augmentation. Nous avons aussi des clients en Europe et dans le monde.
Comment faites-vous face à votre croissance exponentielle ?
Aujourd’hui, nous sommes 14 collaborateurs. Avec notre notoriété montante, nous avons 20 % d’activité en plus. Nous gérons ce pic de croissance en prévoyant de doubler nos effectifs d’ici la fin de l’année. Cependant, nous avons beaucoup de mal à recruter en ce moment des profils informatiques, des ingénieurs en développement web. Sur un marché en plein essor, ces compétences se font rares.
Depuis la fin du XIXe siècle, la température moyenne de la Terre a augmenté de plus de 1,2 degré Celsius. En 2020, elle atteint +1,02 °C par rapport à la période de référence 1951-1980.
Une tendance qui se confirme, malgré des facteurs de perturbation ponctuels
Le réchauffement climatique est une tendance à long terme qui n’a fait que s’accentuer au cours des dernières décennies, en dépit d’un certain nombre d’événements ponctuels qui ont un impact plus ou moins important sur la température globale. Ainsi, en 2020, deux facteurs majeurs ont perturbé la quantité de lumière solaire arrivant à la surface du globe :
La vague d’incendies qui a touché plus de 18 millions d’hectares de terres en Australie a envoyé une quantité colossale de particules dans la stratosphère. Ces émissions ont bloqué une partie de la lumière du soleil, provoquant un probable mais néanmoins léger refroidissement de l’atmosphère.
Les divers confinements associés à la pandémie de COVID-19 ont fortement réduit la pollution de l’air aux particules dans certaines zones, ce qui a contribué à augmenter l’ensoleillement, et donc le réchauffement.
Par ailleurs, si la baisse des activités humaines en 2020 a eu pour effet de réduire le niveau d’émission de CO2 annuel, il n’y a pas forcément de quoi se réjouir, puisque la concentration en gaz à effet de serre dans l’atmosphère continue d’augmenter. En effet, le réchauffement climatique étant associé aux cumuls d’émissions, il est probable que le niveau de réchauffement « évité » par le COVID-19 soit faible.
Graphique montrant les anomalies annuelles de températures depuis 1880, par rapport à la moyenne de la période 1951-1980, et mesurées par la NASA, le NOAA, le Berkeley Earth research group et le Met Office Hadley Centre (Royaume-Uni). Bien qu’il y ait des variations mineures d’une année à l’autre, tous les enregistrements de température montrent des pics et des vallées parfaitement synchronisés. Tous les relevés montrent un réchauffement rapide au cours des dernières décennies. Tous montrent que la dernière décennie a été la plus chaude. Crédit : NASA GISS/Gavin Schmidt
Pas de « boost » El Niño pour 2020
D’une année sur l’autre, la première source de variation des températures mesurées autour du globe provient de la combinaison des phénomènes El Niño et Oscillation australe (ENSO). Or, ce cycle naturel d’échange de chaleur entre l’océan et l’atmosphère ne met pas en évidence un fort effet El Niño en 2020, contrairement à 2016.
Gavin Schmidt, Directeur du Goddard Institute for Space Studies (GISS) de la NASA, affirme ainsi dans un communiqué de presse de la NASA : « La précédente année record de chaleur, 2016, a été boostée par un fort effet El Niño. L’absence d’une aide similaire d’El Niño cette année est la preuve que le climat continue à se réchauffer en raison des gaz à effet de serre. »
Sans surprise, c’est une nouvelle preuve que les émissions de gaz à effet de serre des activités humaines sont donc bien en cause.
L’ensemble des données de la NASA sur la température de surface, ainsi que la méthodologie complète utilisée pour le calcul de la température, sont disponibles sur le site de la NASA.
Le gestionnaire du réseau de transport d’électricité RTE, avec l’Agence internationale de l’énergie (AIE) avait été chargé, en 2019, par Elisabeth Borne, la prédécesseure de Barbara Pompili, d’étudier la « faisabilité technique de scénarios à très haute part d’énergies renouvelables variables » (solaire PV et éolien donc) à l’horizon 2050. Et « éventuellement 100 % », a précisé Xavier Piechaczyk, le président de RTE, lors d’une présentation à la presse la semaine dernière. Réponse : « oui c’est techniquement possible », ont indiqué en cœur les auteurs du rapport, cependant en y mettant de sérieuses conditions.
« Vu du système électrique », « sans parti pris et avec tous les moyens de productions » qui sont prévus à l’avenir, et sans étudier ni le coût, ni l’impact économique, environnemental ou sociétal, d’une telle part d’ENR dans le système électrique, c’est « faisable ». Mais, a insisté le président de RTE, cette faisabilité technique s’accompagne de quatre « familles de conditions techniques et technologiques pour que le système demeure gérable » et « ces conditions sont cumulatives » ont insisté les auteurs du document.
Compenser la variabilité pour maintenir la sécurité
D’abord, première condition, pour maintenir la sécurité du système électrique en permanence, soit le fameux équilibre offre/demande, il est nécessaire de « compenser la variabilité des ENR ». Une compensation qui doit se faire minute par minute, dans la journée, sur le mois, sur les saisons, et même sur les intersaisons, avec des années qui peuvent être plus ou moins venteuses, le rapport, visant l’horizon 2050, « prenant en compte pour la première fois l’impact potentiel du réchauffement climatique », précise Thomas Veyrenc, directeur exécutif en charge de la stratégie, de la prospective et de l’évaluation de RTE.
Pour ce faire, il faut disposer de moyens pilotables (par opposition aux moyens de production variables que sont le solaire et l’éolien). Cela suppose de la flexibilité « tous azimuts », insiste Thomas Veyrenc. C’est-à-dire, de la production pour la pointe (de consommation, via des centrales thermiques alimentée en hydrogène « vert » par exemple, ou des équipements avec de la capture et du stockage de carbone), du stockage pour répondre au court terme – des batteries stationnaires ou un recours aux batteries de véhicules électriques, le vehicle to grid (V2G) qui soient pilotables par le réseau – et aussi du stockage pour le long terme (sous forme d’hydrogène par exemple, ou de biogaz).
L’effacement et le déplacement de consommations peuvent aussi entrer dans cette catégorie, explique le responsable de RTE. Enfin, mutualiser les moyens avec les pays voisins qui ne disposent pas des mêmes horaires de pointe qu’en France implique un nouveau développement d’interconnexions avec d’autres pays.
Selon le directeur stratégie de RTE, pour la France, et en fonction de la part d’ENR que l’on entend intégrer dans le mix électrique, cela conduit à ajouter, en plus des capacités pilotables qui seront encore en présence (RTE estime que 30 GW très bas carbone pourraient demeurer en service à l’horizon 2030), « entre 40 GW et 60 GW d’ici à 2050 », juge Thomas Veyrenc… Et ce dernier d’ajouter que ce constat va entraîner trois types de questions, sur le coût de ces futurs moyens supplémentaires, leur empreinte environnementale et sociétale. Questions auxquelles le rapport RTE-AIE ne répond pas, mais qui vont faire partie du travail demandé d’ici à l’automne prochain à RTE spécifiquement.
Garder la fréquence
La deuxième condition pour parvenir à la faisabilité technique vise au nécessaire maintien de la fréquence du système à 50 hertz (Hz). Le directeur stratégie de RTE rappelle que si, à terme, il n’y a plus de centrales thermiques (de quelque origine que ce soit, dont la turbine tourne et soutien la fréquence), et uniquement de l’éolien et du PV, il existe « un consensus théorique, partagé par un grand nombre de scientifiques, de la faisabilité technique avec forte part d’ENR, mais des tests sont nécessaires à grande échelle, notamment pour des systèmes à très haute part d’ENR variables », insiste Thomas Veyrenc.
Et d’ajouter que, « 80 % en instantané, c’est possible, pour l’heure dans une petite zone fortement interconnectée », précise le responsable de RTE. Paolo Frankl, chef de la division renouvelables de l’AIE, indique ainsi que le pays le plus avancé en la matière, le Danemark, qui atteint des records (60 % d’ENR dans le mix en 2020), « bénéficie de nombreuses interconnexions avec ses voisins ». En revanche, en Irlande, dont la part des ENR est montée en instantané à 75 % en ce début d’année, cela a été bien plus difficile. Mais le pays s’était doté de réglages rapides de fréquence, via des convertisseurs spécifiques, qui permettent un ajustement quasi instantané de la production renouvelable à un écart du signal de fréquence, a-t-il ajouté. Mais c’est encore à l’état de test, a indiqué Paolo Frankl. Ainsi, si c’est possible sur une zone réduite (une île notamment) « sur une très grande zone », cela reste à démontrer, insiste Thomas Veyrenc. Et cela implique de la R&D (recherche et développement). Le rapport propose d’ailleurs une « feuille de route » en la matière.
Construire ou upgrader des lignes
La troisième condition, c’est de pouvoir « réagir à proximité des aléas sur les systèmes électriques ». Pour le responsable de la stratégie de RTE, cela conduit « à redimensionner le réseau à la hausse », et plus particulièrement s’il faut y introduire de multiples sources de solaire très largement disséminé, car ces sources n’envoient en général pas de signal en temps réel au réseau. Là encore, le rapport juge qu’une compensation possible consisterait à permettre au réseau de disposer de moyens de stockages (ce que peut faire, pour l’heure, légalement la distribution, mais pas le transport).
Mutualiser grâce aux interconnexions
Enfin, la quatrième condition réside dans la mutualisation des moyens au niveau européen. Faire des échanges entre les différentes parties du réseau au niveau de l’Europe est une nécessité. Ce qui ne constitue « pas un enjeu de coût particulièrement », insiste le directeur stratégie de RTE, mais, à l’aune des expériences passées pour construire des lignes transeuropéennes, des enjeux « d’acceptabilité, de planification et de concertation avec les parties concernées ». A titre d’exemple, le schéma décennal de RTE (les besoins de développement du réseau de transport, réalisé pour son dernier opus sur 15 ans, insiste le responsable de RTE) fait apparaître un doublement des besoins d’interconnexions d’ici à 2035…
Prendre en compte les autres paramètres
Une fois l’analyse technique réalisée, reste à prendre en compte les autres paramètres impactants (coût, acceptabilité, etc.). Le gouvernement a chargé RTE d’analyser huit scénarios électriques de long terme (quatre avec du nucléaire et quatre sans nucléaire), au-delà de 2035 (horizon 2050-2060) intégrant les impacts économiques, sociaux et environnementaux de chacun d’entre eux. Cette analyse se fera dans le contexte de la préparation de son bilan prévisionnel de l’équilibre offre/demande en électricité en 2050, a rappelé Thomas Veyrenc. La publication de ces scénarios est prévue à l’automne 2021 pour permettre d’éclairer les choix que le gouvernement aura à faire autour de 2023 sur le mix électrique au-delà de 2035, signale le ministère de la Transition écologique, à l’aune de la sortie du rapport.
RTE a d’ailleurs indiqué, en présentant son rapport conjoint avec l’AIE, que son analyse à venir est mise en consultation publique, le jour même.
Le Gouvernement a saisi le Conseil économique, social et environnemental (CESE) pour avis sur le projet de loi « Climat et Résilience » issu des travaux de la Convention citoyenne pour le climat. L’avis a été adopté le 27 janvier à la quasi-unanimité : 135 voix pour et 22 abstentions. « Les nombreuses mesures du projet de loi, sont en générale pertinentes, mais restent néanmoins souvent limitées, différées, ou soumises à des conditions telles que leur mise en œuvre à terme rapproché est incertaine », prévient le CESE.
Un avis qui pointe « l’insuffisance de ces mesures »
« Les trop rares estimations d’impact climatique fournies font apparaître l’insuffisance de ces mesures. Ainsi, dire comme le rapport de présentation que le projet de loi « s’inscrit dans la SNBC [stratégie nationale bas carbone, ndlr] » est abusif », estime le CESE. Les mesures restent insuffisantes alors qu’il faudrait « tripler le rythme annuel de réduction des émissions pour les diviser par six d’ici 2050 », ajoute-t-il. En plus, certaines mesures, notamment sur la politique agricole ou aéronautique, renvoient à des négociations européennes ou internationales. Mais « sans qu’apparaisse clairement la volonté de la France de peser sur ces négociations ».
L’avis rejoint ainsi celui des ONG environnementales qui critiquent le manque d’ambition des choix retenus par le Gouvernement. Récemment, le Réseau Action Climat déplorait « le manque flagrant d’ambition » du texte, alors que les Amis de la Terre parlaient d’un projet de loi qui « sabote le travail des 150 [citoyens, ndlr] et condamne le respect des objectifs climatiques de la France ». Les ONG relèvent des propositions structurantes amoindries dans leur périmètre ou leur date de mise en œuvre, des obligations remplacées par des expérimentations, de l’auto-régulation et des engagements volontaires.
Des propositions structurantes pour améliorer le projet
Le CESE livre 37 préconisations au gouvernement. Selon le conseil, il manque des mesures structurelles indispensables pour viser l’efficacité affichée, et construire un ensemble cohérent et suffisant. C’est notamment le cas pour le secteur aérien ou le transport routier de marchandises. Face à des mesures qui visent la sauvegarde des modèles existants, le CESE note une absence de « vision claire sur leur réorientation vers une réelle soutenabilité ». Il recommande d’adopter un objectif de réduction des déplacements contraints « à la source » chaque fois que possible, pour diminuer les émissions de gaz à effet de serre associées.
D’autres mesures dépendront d’abord des moyens humains et budgétaires qui y seront consacrés, estime le CESE. L’organisme pense notamment au transport ferroviaire, à la rénovation des logements, à la lutte contre l’artificialisation et à la préservation de la biodiversité. « Faute des moyens dans les services chargés de leur application et de leur contrôle, ces mesures resteront lettre morte », craint le CESE. Il préconise de préciser dès maintenant les moyens qui y seront alloués, et de les placer à la hauteur des différents objectifs.
En mai dernier, la police française a démantelé un trafic de papiers : des cartes d’identité et des passeports volés étaient envoyés en Grèce pour être réutilisés. Depuis des années, des escrocs s’appuient sur différentes techniques comme la contrefaçon (reproduction intégrale du document) et la modification (les fraudeurs tentent de modifier les données) pour reproduire ces documents.
Pour éviter la création de faux passeports, il est nécessaire de concevoir un document très difficile à copier, à produire et à personnaliser en combinant des caractéristiques tactiles et optiques, des technologies différentes et en utilisant des matériaux et des encres non disponibles dans le domaine public.
L’une des technologies plébiscitées actuellement est l’utilisation d’une page de données en polycarbonate, car elle est plus difficile à falsifier qu’une page de données en papier et elle offre une plus grande variété de caractéristiques de sécurité visuelle.
Apparu dans les années 50 en Europe, le polycarbonate est un matériau thermoplastique utilisé à des fins diverses (de la fabrication d’abris à la vaisselle dite « incassable » en passant par des pièces pour l’automobile et l’aviation).
Ce matériau résistant aux chocs à froid comme à chaud (jusqu’à 100 °C) peut être facilement manipulé, laminé et gaufré, et son coût est similaire à celui des alternatives naturelles comme le PET ou le PVC.
Un document en polycarbonate contient plusieurs couches qui seront laminées ensemble. Pendant le processus de laminage, les couches sont fusionnées entre elles ; le résultat final est un matériau fini qui ne peut pas être délaminé, ce qui est d’une importance capitale pour la sécurité du document. En France, l’imprimerie nationale propose ce type de passeport depuis 2016.
Des lasers spéciaux
Résultat, les émissions de passeports en polycarbonate devraient doubler, passant de 60,1 millions en 2020 à 125,5 millions dans quatre ans selon l’étude « Passports and Polycarbonate : Securing the Datapage market data »publiée récemment par ABI Research, une société de conseil sur le marché mondial des technologies.
Deux raisons principales sont avancées par ABI Research pour expliquer cette forte croissance. Premièrement, trois régions (l’Amérique latine, le Moyen-Orient et l’Afrique) devraient accroître leurs émissions de passeports en polycarbonate. Des pays comme la Colombie, la Bolivie et le Nigeria affichent en effet leur volonté d’accroître la sécurité physique de ces documents.
Second facteur en faveur de ces documents, le développement de trois solutions (Color Laser Shield de Thales Gemalto, LASINK d’Idemia et CLIP ID de Veridos) de personnalisation par laser couleur (pour la photo et le numéro du passeport gravé dans la charnière et dans la page de données). Fin 2020, Thales et Zetes ont présenté le nouveau passeport belge qui intègre pour la première fois au monde ces informations gravées dans la charnière.
Pour plus de sécurité, les lasers utilisés dans la technologie Color Laser Shield de Thales ne sont pas disponibles sur le marché. Seuls les organismes autorisés peuvent y accéder.
Le procédé de gravure laser ne nécessite aucun consommable, contrairement aux machines d’impression à jet d’encre utilisées pour la personnalisation des pages de données sur papier qui nécessitent des fournitures comme des cartouches d’encre, etc.
Qu’est-ce qu’une innovation ? Est-il souhaitable de toujours vouloir innover ? Et comment peut-on innover de manière responsable ?
Pascal Faure, directeur général de l’Institut National de la Propriété Industrielle (INPI), et Cédric Paternotte, maître de conférences en philosophie des sciences à Sorbonne Université, tâchent de répondre à ces questions dans le premier épisode de Cogitons Sciences. C’est le premier épisode de la mini-série sur l’éthique et les sciences qui s’étend sur trois épisodes.
Selon les critères de l’INPI, une innovation doit être nouvelle, inventive et industrialisable. Ainsi l’innovation ne se réduit pas à la technologie mais existe dans de multiples domaines. On peut la diviser en deux catégories : les innovations de rupture et les innovations incrémentales [1:20]. En philosophie, il n’existe pas de consensus pour définir une innovation mais un des traits qui la caractérise est sa distinction avec l’invention [5:50].
Selon Pascal Faure, alors que progrès et innovation avaient toujours été liés, la mécanique s’est enrayée à la fin du XXe siècle lorsqu’on a constaté que les innovations pouvaient avoir des conséquences négatives (pollution, perte d’emploi, maladies etc.). S’est alors créé dans l’inconscient collectif une distanciation entre innovations et progrès. Lier à nouveau ces deux notions est selon lui un enjeu de notre siècle [9:58].
La régulation de l’innovation [15:20] – [30:29]
L’INPI n’est pas en charge de juger et d’évaluer les effets des technologies. En revanche, l’institut œuvre pour diffuser l’innovation et respecter un équilibre entre intérêt particulier de l’innovateur et intérêt collectif [15:10].
De son côté, la puissance publique a le rôle de protéger le consommateur et vérifier s’il n’y a pas de risques pour la société. Pascal Faure cite l’ASN, ANSM et la DGCCRF dont c’est la mission. Mais est-ce à l’Etat de contrôler l’innovation et l’éthique ? Selon Cédric Paternotte, la question est complexe car les innovations se succèdent vite et leurs conséquences sont difficilement prévisibles [18:18].
Une autre question se pose : doit-on laisser libre cours à l’innovation ou l’orienter vers des besoins ? Dans tous les cas, nos deux invités mettent l’accent sur l’importance de continuer à rechercher dans des domaines dont on ne voit pas l’utilité actuellement mais qui pourraient servir dans le futur. Enfin, Pascal Faure rappelle que la vraie responsabilité publique est de définir si on doit ou ne doit pas utiliser une innovation, par exemple les modifications génomiques [20:16].
Et si on s’arrêtait d’innover ? [30:30] – [35:10]
Pour Pascal Faure, l’innovation est un phénomène inhérent à la vie. Il ne faut pas le stopper, d’autant plus que l’humanité est confrontée à des défis nouveaux. En revanche, il est important d’innover de manière responsable et ainsi réconcilier innovation et progrès [30:30].
Selon Cédric Paternotte, on ne peut tout simplement pas s’arrêter d’innover. Et même si l’intérêt général voudrait qu’on stoppe l’innovation, les Etats n’ont aucun intérêt à le faire. C’est pour cela que certains philosophes défendent l’idée que l’évolution de la technique est incontrôlable [33:26].
Cogitons Sciences est un podcast produit et réalisé par Techniques de l’Ingénieur. Le générique a été réalisé par Pierre Ginon et le visuel du podcast a été créé par Camille Van Belle.
En juillet dernier, le projet de décret définissant le seuil d’indécence énergétique était en consultation publique. Il proposait d’interdire dès 2023, tout nouveau contrat de location d’un logement consommant plus de 500 kilowattheures (kWh) d’énergie primaire par mètre carré et par an. Finalement, le décret paru au Journal officiel le 13 janvier retient le seuil de 450 kWh d’énergie finale par mètre carré et par an.
Mais l’énergie finale, ce n’est pas la même chose que l’énergie primaire. Or, les étiquettes énergétiques se basent sur l’énergie primaire. Cette différence risque donc d’introduire une confusion avec le niveau de l’étiquette G. Le CLER-Réseau pour la transition énergétique dénonce « une vaste mascarade ». « Le Gouvernement démarre tout en serrant le frein à main et condamne les ménages qui peinent à payer leurs factures, à subir cette situation encore de nombreuses années », s’indigne Jean-Baptiste Lebrun, son directeur. Il appelle à un nouveau seuil de 330 kWh d’énergie primaire par mètre carré et par an.
Ce que dit le projet de loi Climat
Le projet de loi « Climat et résilience » prévoit une interdiction de hausse des loyers pour les passoires thermiques. Ces dernières devront atteindre un niveau de performance énergétique minimal pour avoir le droit d’être proposées à la location à partir de 2028. Il n’instaure pas d’obligation de rénovation globale des logements pour tous les propriétaires. En plus, il propose pour les propriétaires occupants une obligation d’audit énergétique avec des préconisations de travaux, lors de la vente des biens à partir de 2024.
« Le candidat Emmanuel Macron promettait l’éradication des passoires énergétiques d’ici 2025, le décret porte, au mieux, sur 2 % des passoires énergétiques à partir de 2023 », regrette Jean-Baptiste Lebrun. Cela est bien insuffisant en vue de la fin de la location des 4,8 millions de passoires énergétiques d’ici 2028. En attendant les futurs seuils qui s’appliqueront pour le retrait progressif des logements énergivores du marché locatif entre 2023 et 2028, le Gouvernement s’intéresse à de nouvelles pistes de financement pour la rénovation énergétique.
Le plan de relance et la rénovation énergétique
Pour respecter les objectifs climatiques, «il faudrait rénover 700 000 logements par an, dont 500 000 passoires thermiques, il faudrait 22 milliards [d’euros, ndlr] par an, il faudrait une rénovation globale obligatoire », rappelait Corinne, une membre de la Convention citoyenne pour le climat à Emmanuel Macron en décembre dernier. Le plan France Relance prévoit pour l’instant près de 7 milliards d’euros pour la rénovation énergétique, dont 2 milliards pour le dispositif MaPrimeRénov’, élargi depuis le 1er janvier aux ménages les plus riches, aux copropriétés et aux propriétaires bailleurs.
Mais cela ne suffira pas à rénover les 4,8 millions de passoires thermiques d’ici 2028. Emmanuel Macron a donné trois mois à ses ministres pour trouver un tiers-financeur et trouver une solution adaptée à chaque propriétaire. De nouveaux financements sont urgents alors que le coût de rénovation complète d’une passoire thermique s’élève à plus de 50 000 euros.
Une « task force » pour de nouveaux financements
Le 7 janvier, Emmanuelle Wargon, ministre du logement, a confié une mission à Olivier Sichel, directeur général délégué de la Caisse des Dépôts (CDC). Il doit piloter une « task force » dédiée aux solutions de financement, incluant le tiers-financement, pour déployer massivement des offres de rénovation des passoires énergétiques. Cette task force rendra ses conclusions en mars prochain.
« Pour atteindre nos objectifs climatiques, il faut désormais réussir à engager la rénovation globale de chacune des 4,8 millions de passoires énergétiques que compte le pays en s’assurant que tous les Français trouvent facilement une solution simple et financièrement soutenable, prévient Emmanuelle Wargon. L’objectif donné à cette task force, c’est de définir cette solution et de négocier son modèle économique. »