Le projet SeRaMCo : produire du béton préfabriqué en recyclant les déchets de construction et de démolition

Le secteur de la construction consomme à lui seul près de la moitié des matières premières utilisées en Europe et produit un tiers de nos déchets. Bien que le taux de recyclage des déchets de construction et de démolition dans le béton atteigne à peine quelques pour cent, certains pays d’Europe du Nord-ouest – dont la France – dépassent les 70 % de recyclage de ces déchets, notamment pour du remblaiement ou le soubassement des chaussées.

André Lecomte et Romain Trauchessec de l’équipe Matériaux pour le Génie civil, de l’Institut Jean Lamour. (Crédit : Institut Jean Lamour)

Porté par des acteurs universitaires et industriels de la construction français, allemands, belges, luxembourgeois et néerlandais, le projet SeRaMCo (Secondary Raw Materials for Concrete Precast Products) fait partie du programme INTERREG « Europe du Nord-Ouest », dont l’ambition est de faire de cette région un acteur économique de premier plan sur la scène mondiale. L’institut Jean Lamour (CNRS – Université de Lorraine) a participé à ce projet dans le cadre du développement de nouveaux mélanges de ciment à partir de granulats fins recyclés. Le projet SeRaMCo a été financé par l’UE à hauteur de 4,3 M€, sur un budget total de 7,2 M€.

Techniques de l’Ingénieur : Quel est le contexte derrière le projet SeRaMCo ?

Romain Trauchessec : Le principal objectif de SeRaMCo était de trouver de nouveaux débouchés aux granulats recyclés, en leur donnant le maximum de valeur sur le marché, afin d’éviter l’enfouissement et ainsi préserver les ressources naturelles.

André Lecomte : De notre point de vue, ce projet vient compléter le programme national RECYBÉTON, auquel nous avons également participé et qui peut être considéré comme précurseur. Ce projet conséquent, qui s’est déroulé entre 2012 et 2018, a regroupé la majorité des acteurs français de la filière – 47 partenaires – et fait l’objet de nombreuses publications concernant les propriétés des granulats recyclés, la durabilité des bétons et les impacts environnementaux. Un ouvrage de plus de 800 pages regroupant les recommandations du projet a également été réalisé.

Le projet SeRaMCo a un périmètre plus restreint, car il concerne uniquement la fabrication de produits préfabriqués à partir de granulats recyclés.

Quels sont les freins au recyclage des déchets de béton ?

A.L. : Il y a plusieurs freins au recyclage des déchets de béton. D’une part, les granulats de béton recyclé sont beaucoup plus poreux. Ils absorbent donc plus d’eau et ont des propriétés mécaniques moins intéressantes que les granulats naturels. C’est pour ces raisons que les normes actuelles recommandent de limiter l’ajout de gravillons recyclés dans les bétons. Selon la classe d’exposition et la qualité du granulat recyclé, le taux d’incorporation maximal recommandé des gravillons varie ainsi de 0 à 50 %.

D’autre part, pour que l’incorporation de granulats recyclés soit intéressante, tant du point de vue économique qu’environnemental, ceux-ci doivent provenir d’un chantier voisin, afin de réduire le transport à 20 ou 30 km maximum, ce qui limite encore leur utilisation.

Par ailleurs, la déconstruction et le concassage produisent une forte proportion de sable et de particules fines qui à l’heure actuelle sont peu valorisés. Ces fractions contiennent des éléments « polluants » pour les bétons (argiles, plâtre ou bois par exemple), mais aussi une forte proportion de l’ancien ciment. Dans ce projet, l’Institut Jean Lamour a donc cherché à refaire du ciment, à partir de ce co-produit.

R.T. : L’intérêt de recycler dépend aussi fortement du marché local. Ainsi, au Luxembourg, il y a de nombreux chantiers et le besoin en matériaux de construction est énorme. Comme la ressource naturelle en granulats est épuisée, il est facile de trouver des débouchés aux granulats recyclés. À Strasbourg, la situation est totalement différente, car la vallée du Rhin fournit des quantités industrielles de granulats naturels.

Infographie du projet SeRaMCo (crédit : Vicat)

Avez-vous obtenu des résultats satisfaisants ?

R.T. : L’incorporation de 5 à 15 % de ces poudres de déconstruction dans le cru cimentier, nous permet de reformer un nouveau ciment après cuisson à 1 400-1 500°C, car les éléments chimiques se recombinent. Les différents essais qui ont été conduits, que ce soit au sein de l’institut Jean Lamour ou par Vicat, notre partenaire industriel, ont démontré que les propriétés de ce ciment recyclé étaient tout à fait conformes au produit standard.

Bien que cela consomme de l’énergie, le fait de recuire la matière a l’avantage de permettre l’élimination des particules « polluantes » par recombinaison des éléments chimiques. En effet, les déchets de déconstruction ont tendance à, par exemple, inclure du plâtre. Or le plâtre contient une forte proportion en sulfates solubles, ce qui peut être néfaste au ciment. Même si elle a des inconvénients (encroûtement potentiel du four, émissions de SO2), la cuisson permet ainsi de recombiner ces sulfates et de contrôler leur teneur.

L’ajout de poussières de déconstruction, directement dans le béton, donc sans recuit, a également été testé, mais les résultats n’ont pas été très concluants, pour les raisons que nous venons d’évoquer.

Quels étaient les autres volets du projet SeRaMCo ?

A.L. : En parallèle de ces travaux, nos partenaires ont travaillé sur d’autres aspects du recyclage du béton. Nos collègues de l’Université de Technologie de Delft (Pays-Bas) ont par exemple travaillé sur l’optimisation des produits et le développement de produits innovants en exploitant les propriétés particulières des granulats de déconstruction. De leur côté, nos collègues belges ont étudié le traitement des déchets de déconstruction et nos collègues allemands et luxembourgeois ont travaillé sur la formulation de mélanges.

Si vous désirez approfondir le sujet, nous vous invitons à consulter le rapport final du projet SeRaMCo, disponible sur le site du programme INTERREG. Les travaux conduits par l’Institut Jean Lamour sont détaillés des pages 116 à 133.

Le végétal dans la construction en forte augmentation ces dernières années

Le végétal dans la construction connaît actuellement un fort développement et est promis à un bel avenir dans les décennies à venir. Aujourd’hui, la fibre végétale représente entre 5 et 10 % du marché des isolants. Bois, coton, lin, chanvre, les ressources végétales disponibles dans le bâtiment sont vastes et variées. Elles permettent de fabriquer des matériaux de manière industrielle, conformes aux exigences normatives et réglementaires de la construction. Entretien sur cette thématique avec Blaise Dupré, directeur du CRIB (Centre de recherche sur l’isolation biosourcée) chez Isonat, une entreprise filiale de Saint-Gobain et spécialisée dans les isolants en fibre de bois.

Techniques de l’Ingénieur : Quelles sont les grandes familles de végétaux utilisés dans la construction ?

Blaise Dupré, directeur du CRIB (Centre de recherche sur l’isolation biosourcée) chez Isonat. Crédit photo Blaise Dupré

Blaise Dupré : La première famille, la plus utilisée et la plus connue, est le bois. C’est un matériau de construction historique. À la fin du 20e et début du 21e siècle, des matériaux différents ont commencé à être fabriqués à partir de cette base, notamment des fibres de bois aux propriétés isolantes. L’isolation est aujourd’hui le domaine où l’on rencontre le plus de produits biosourcés issus du végétal dans le bâtiment. D’autres fibres sont utilisées, et au deuxième rang, on retrouve le lin, le chanvre et le coton. Les isolants fabriqués sont souvent des mélanges de ces trois végétaux, avec une part non négligeable de coton recyclé issu de la filière textile.

La troisième catégorie d’isolants à fibre végétale est la paille de riz. Une dernière famille, un peu plus anecdotique, concerne le foin. Récemment, une start-up allemande a mis au point un matériau à partir d’herbe sous-marine.

Tous ces végétaux permettent de concevoir des matériaux manufacturés fabriqués dans des usines. Mais en dehors de cette catégorie, il y a aussi la paille, très utilisée dans la construction sous la forme de botte pour réaliser des structures porteuses ou alors pour du remplissage afin d’isoler les maisons.

Quels sont les atouts de ces matériaux issus de la biomasse végétale ?

Le végétal est une ressource renouvelable, abondante et souvent de proximité, même si dans le bâtiment, on a historiquement favorisé des ressources locales. Par exemple, dans la région de Toulouse et dans le nord de la France, les maisons ont été construites en briques rouges, car des veines d’argile étaient disponibles et permettaient de fabriquer de la terre cuite. Le local est une évidence dans le bâtiment, qui s’est perdu à partir de la deuxième moitié du 20e siècle.

Ensuite, ces matériaux possèdent des performances isolantes intéressantes et proches de celles des produits minéraux. Les meilleurs produits isolants issus du végétal sont ceux en fibres de bois avec des conductivités thermiques autour de 36 mW/m.K (milliwatt par mètre kelvin). Plus ce chiffre est faible, et meilleure est la propriété isolante. Quant aux fibres de lin, de chanvre ou de coton, les produits atteignent des conductivités comprises entre 38 à 39 mW/m.K.

D’autres qualités sont-elles à souligner ?

La fibre végétale, et en particulier celle de bois, a une plus grande capacité de déphasage et permet d’obtenir un meilleur confort thermique en été. Cette qualité est liée à sa meilleure chaleur massique, comprise entre 2 000 et 2 100 joules par kilogramme kelvin (J·kg-1·K-1) dans le cas d’une fibre de bois, alors que celle des produits minéraux est deux fois inférieure. À cela, s’ajoute le fait que les produits biosourcés sont plus denses, puisqu’une fibre de bois pèse entre 45 à 50 kg par m³ alors qu’une laine de verre se situe entre 20 à 25. Mais attention, cela ne signifie pas que les maisons isolées en fibres végétales vont systématiquement avoir un meilleur confort l’été. D’autres paramètres rentrent en jeu, notamment la structure du bâtiment, les ouvrants (portes, fenêtres, velux…).

Un dernier atout concerne l’environnement. Un bois va stocker du CO2 pendant la photosynthèse, qui peut être réémis dans l’atmosphère à la fin de vie du produit en cas de destruction par le feu. Ce stockage dans les matériaux pendant toute la vie du bâtiment représente une épargne ou un crédit de CO2, en sachant que le temps va contre nous dans notre lutte pour réduire les émissions de gaz à effet de serre. Aussi, l’énergie globale nécessaire pour produire 1 kg de fibre de bois est à peu près comparable à celle pour fabriquer 1 kg de laine de verre. Dans ce domaine, tout l’enjeu consiste à décarboner l’énergie utilisée.

Quelles sont les difficultés liées à l’utilisation de ces matériaux végétaux ?

Sur l’aspect fabrication, il n’y en a pas puisque ce sont des produits manufacturés et normés que l’on sait concevoir depuis plusieurs années. Par contre, la capacité industrielle française est un peu juste par rapport à la demande qui vient d’exploser. C’est pour cette raison qu’Isonat se lance dans un programme d’investissement qui va aider au doublement de la capacité industrielle française d’ici 2 à 3 ans.

Ensuite, il y a encore un besoin d’information et de formation de la filière, notamment les maîtres d’ouvrage sur l’utilisation de ces matériaux. Tous les projets ne peuvent pas en accueillir et il est nécessaire d’adapter une solution technique à chaque usage. Les artisans commencent à être formés, néanmoins il y a encore des points particuliers sur la mise en œuvre qui nécessitent de la formation. Concernant les bureaux de contrôle, certains connaissent ces matériaux et d’autres pas du tout et ont alors des difficultés à valider une construction.

Ce sont aussi des matériaux différents qui peuvent, s’ils sont mal posés ou mal utilisés, être sensibles à l’humidité ou brûler plus rapidement. Mais ces aspects sont pris en compte dans les avis techniques et les normes qui précisent des conditions de montage et de mise en œuvre de ces produits. La construction a énormément progressé et les assemblages de matériaux sont des systèmes complexes qui permettent de prendre en compte les qualités et les défauts de chaque produit.

Concernant le prix, ce sont des produits plus chers que les matériaux minéraux mais qui n’ont pas même usage. Je ne pense pas qu’il faille les opposer.

Techniques de l’Ingénieur soutient la Semaine de l’industrie

Qu’est-ce que la semaine de l’industrie ?

Ce grand rendez-vous, qui se déroulera du 22 au 28 novembre 2021, a pour objectif de faire découvrir le monde de l’industrie grâce à des visites d’usines, des salons ou des expositions dédiées, des découvertes métiers… Et pour cette édition, le thème retenu est « Inventer un avenir durable » ! Ce qui permet aux acteurs de l’industrie de mettre en avant leurs engagements en faveur de la mixité des métiers, de la place des femmes dans les différentes filières, de la transition écologique et de l’économie circulaire.

En lien avec cette actualité, nous vous proposons de découvrir, à partir du 22 Novembre 2021, le livre blanc « Face aux défis du XXI siècle » produit par l’IESF, qui synthétise les recommandations et propositions des ingénieurs et scientifiques de France. L’IESF leur donne la parole pour « faire entendre et reconnaître leur voix à la hauteur de leurs contributions passées, présentes, et à venir car ils sont acteurs et au cœur du Plan de Relance qui va transformer la France des trente prochaines années. »

Vous y trouverez des suggestions, des conseils et une analyse pour répondre aux enjeux sociétaux, géopolitiques et économiques.

La semaine de l’industrie chez Techniques de l’Ingénieur

Profitez de plus de 80 articles de référence, ouverts gratuitement pour l’occasion. Vous pouvez ainsi découvrir les nouveautés comme les articles interactifs ou la nouvelle offre sur le génie écologique ! 

(Pour accéder à l’article, cliquez sur le lien puis sur le bouton « Libre Accès » en haut de la page.)

Dans l’offre GÉNIE ÉCOLOGIQUE :

Écologie des toitures végétalisées – Une étude innovante en Île-de-France

 

Dans l’offre INNOVATIONS TECHNOLOGIQUES :

Contrôle de la fatigue des matériaux par émission acoustique

 

Dans l’offre MANAGEMENT ET INGÉNIERIE DE L’INNOVATION :

R&D collaborative – Manager un projet de recherche et développement en mode collaboratif

 

Dans l’offre ÉCO-CONCEPTION ET INNOVATION RESPONSABLE :

Le biomimétisme – Infographie

 

Dans l’offre AGROALIMENTAIRE :

Les six principes de l’éco-extraction du végétal

 

Dans l’offre CHIMIE VERTE :

L’écoconception : un outil d’innovation pour une chimie durable

 

Dans l’offre OPÉRATIONS UNITAIRES. GÉNIE DE LA RÉACTION CHIMIQUE :

Catalyse hétérogène – Mode d’action des catalyseurs

 

Dans l’offre FORMULATION :

Microfluidique et formulation – Émulsions et systèmes colloïdaux complexes

 

Dans l’offre BIOPROCÉDÉS :

Les biopolymères : différentes familles, propriétés et applications

 

Dans l’offre INDUSTRIE DU FUTUR :

Réalité Virtuelle et Réalité Augmentée pour la conception collaborative

 

Dans l’offre FABRICATION ADDITIVE – IMPRESSION 3D :

Finition de surface de pièces produites par fabrication additive

 

Dans l’offre AUTOMATIQUE ET INGÉNIERIE SYSTÈME :

Intelligence artificielle et diagnostic

 

Dans l’offre ROBOTIQUE :

Commande des robots humanoïdes

 

Dans l’offre TECHNOLOGIES BIOMÉDICALES :

Fabrication additive-impression 3D dans le domaine de la santé

 

Dans l’offre MÉDICAMENTS ET PRODUITS PHARMACEUTIQUES :

Sources actuelles et futures des médicaments

 

Dans l’offre ÉLECTRONIQUE :

Cartes à puces – Technologie et cybersécurité

 

Dans l’offre OPTIQUE PHOTONIQUE :

Propagation guidée de la lumière

 

Dans l’offre PHYSIQUE ÉNERGÉTIQUE :

Détermination des propriétés thermodynamiques des fluides – Mélanges

 

Dans l’offre RESSOURCES ÉNERGÉTIQUES ET STOCKAGE :

Intelligence artificielle et gestion intelligente de l’énergie

 

Dans l’offre THERMIQUE INDUSTRIELLE :

Fluides caloporteurs et frigoporteurs – Définitions. Critères de choix

 

Dans l’offre FROID INDUSTRIEL :

Transfert de chaleur à basse température

 

Dans l’offre GÉNIE NUCLÉAIRE :

Physique des réacteurs – Les réactions nucléaires

 

Dans l’offre CONVERSION DE L’ÉNERGIE ÉLECTRIQUE :

Compensation des courants harmoniques et réactifs par convertisseurs multifonctions

 

Dans l’offre RÉSEAUX ÉLECTRIQUES ET APPLICATIONS :

Smart Grids : contexte, acteurs et enjeux

 

Dans l’offre ENVIRONNEMENT :

Management stratégique de la biodiversité dans l’entreprise par l’approche produit/service

 

Dans l’offre TECHNOLOGIES DE L’EAU :

Stratégies d’échantillonnage pour les analyses d’eau

 

Dans l’offre BRUIT ET VIBRATIONS :

Effet du bruit sur l’homme

 

Dans l’offre SÉCURITÉ ET GESTION DES RISQUES :

Retour d’expérience technique

 

Dans l’offre MÉTIER : RESPONSABLE ENVIRONNEMENT :

J’utilise des produits chimiques, comment savoir si cela entraîne un classement ICPE pour mon site ?

 

Dans l’offre MÉTIER : RESPONSABLE RISQUE CHIMIQUE :

Comment déclarer ses produits sous SYNAPSE (toxicovigilance) ?

 

Dans l’offre MATHÉMATIQUES :

Analyse numérique des équations intégrales

 

Dans l’offre PHYSIQUE CHIMIE :

Verres – Propriétés et applications

 

Dans l’offre CONSTANTES PHYSICO-CHIMIQUES :

Caractéristiques des diélectriques liquides

 

Dans l’offre NANOSCIENCES ET NANOTECHNOLOGIES :

Graphène – Familles, propriétés, applications et modes de production

 

Dans l’offre RÉSEAUX TÉLÉCOMMUNICATIONS :

Lidars atmosphériques et météorologiques – Lidar rétrodiffusion aérosols nuages (LRAN)

 

Dans l’offre LE TRAITEMENT DU SIGNAL ET SES APPLICATIONS :

Influence des environnements virtuels

 

Dans l’offre DOCUMENTS NUMÉRIQUES GESTION DE CONTENU :

Cloud Storage

 

Dans l’offre TECHNOLOGIES LOGICIELLES ARCHITECTURES DES SYSTÈMES :

Jeux d’instructions : extensions SIMD et extensions vectorielles

 

Dans l’offre SÉCURITÉ DES SYSTÈMES D’INFORMATION :

Attaques des réseaux

 

Dans l’offre MANAGEMENT INDUSTRIEL :

Activités internationales de l’entreprise – Prévention et protection contre les risques

 

Dans l’offre CONCEPTION ET PRODUCTION :

Réalité Virtuelle et Réalité Augmentée pour la conception collaborative

 

Dans l’offre LOGISTIQUE :

Innovation en logistique et Supply Chain Management (SCM)

 

Dans l’offre EMBALLAGES :

Droit et pratique des emballages – Normes d’écoconception des emballages

 

Dans l’offre MAINTENANCE :

La maintenance : un levier du développement durable

 

Dans l’offre TRAÇABILITÉ :

Revisiter la traçabilité avec les technologies industrie 4.0

 

Dans l’offre MÉTIER : RESPONSABLE QUALITÉ :

Mise en place d’un système de management intégré

 

Dans l’offre MÉTIER : RESPONSABLE BUREAU D’ÉTUDE/CONCEPTION :

La Stratégie Make or Buy

 

Dans l’offre INSTRUMENTATION ET MÉTHODES DE MESURE :

Étude comparative de trois approches d’évaluation des incertitudes : GUM, GUM S1 et globale

 

Dans l’offre MESURES PHYSIQUES :

Tirer profit de l’incertitude d’étalonnage d’une balance

 

Dans l’offre MESURES MÉCANIQUES ET DIMENSIONNELLES :

Imagerie laser 3D à plan focal

 

Dans l’offre CONTRÔLE NON DESTRUCTIF :

Outils de l’intelligence artificielle appliqués au CND

 

Dans l’offre MESURES ET TESTS ÉLECTRONIQUES :

Mesures électriques des matériaux diélectriques solides

 

Dans l’offre TECHNIQUES D’ANALYSE :

Pesée minimale : son importance dans un processus d’analyse industriel

 

Dans l’offre QUALITÉ ET SÉCURITÉ AU LABORATOIRE :

Implantation des postes de travail au laboratoire : prévention des risques

 

Dans l’offre VÉHICULE ET MOBILITÉ DU FUTUR :

Véhicules automobiles hybrides électriques et leurs motorisations

 

Dans l’offre SYSTÈMES FERROVIAIRES :

Compatibilité électromagnétique du système ferroviaire – Bases, contexte et référentiels

 

Dans l’offre SYSTÈMES AÉRONAUTIQUES ET SPATIAUX :

Dimensionnement des trous et des assemblages dans les structures composites

 

Dans l’offre TECHNOLOGIES RADARS ET APPLICATION :

Interférométrie radar

 

Dans l’offre FROTTEMENT, USURE ET LUBRIFICATION :

Tribocorrosion

 

Dans l’offre FONCTIONS ET COMPOSANTS MÉCANIQUES :

Pièces mécaniques soudées – Comportement élastique

 

Dans l’offre TRAVAIL DES MATÉRIAUX – ASSEMBLAGE :

Assistance cryogénique en usinage

 

Dans l’offre MACHINES HYDRAULIQUES, AÉRODYNAMIQUES ET THERMIQUES :

Turbomachines – Bilan énergétique et applications

 

Dans l’offre SMART CITY – VILLE INTELLIGENTE :

Logistique urbaine : enjeux, pratiques et perspectives

 

Dans l’offre TRANSPORT FLUVIAL ET MARITIME :

Transport et développement durable

 

Dans l’offre PLASTIQUES ET COMPOSITES :

Plastiques biosourcés et plastiques recyclés dans l’emballage

 

Dans l’offre ÉTUDE ET PROPRIÉTÉS DES MÉTAUX :

Métallurgie pour la microélectronique à support silicium

 

Dans l’offre TRAITEMENTS DES MÉTAUX :

Plans d’expériences et traitements de surface – Étude quantitative des effets et interactions

 

Dans l’offre MATÉRIAUX FONCTIONNELS :

Nanoparticules d’oxydes métalliques dans les emballages alimentaires actifs, intelligents et non toxiques

 

Dans l’offre CORROSION VIEILLISSEMENT :

Vieillissement chimique des polymères – Mécanismes de dégradation

 

Dans l’offre ÉLABORATION ET RECYCLAGE DES MÉTAUX :

Métallurgie du laminage à chaud des aciers – Application aux aciers faiblement alliés

 

Dans l’offre MISE EN FORME DES MÉTAUX ET FONDERIE :

Procédés de frittage PIM

 

Dans l’offre BOIS ET PAPIERS :

Bois énergie – Propriétés et voies de valorisation

 

Dans l’offre VERRES ET CÉRAMIQUES :

Satinage chimique du verre

 

Dans l’offre TEXTILES INDUSTRIELS :

Modélisation du procédé de filage textile

 

Dans l’offre DROIT ET ORGANISATION GÉNÉRALE DE LA CONSTRUCTION :

Aide à la décision et approche performantielle pour les ouvrages bâtis

 

Dans l’offre LE SECOND OEUVRE ET L’ÉQUIPEMENT DU BÂTIMENT :

Solutions de conception pour l’éclairage naturel

 

Dans l’offre LES SUPERSTRUCTURES DU BÂTIMENT :

Les Bétons Auto-Plaçants

 

Dans l’offre TRAVAUX PUBLICS ET INFRASTRUCTURES :

Conception des ponts – Éléments de dimensionnement des principaux ouvrages

 

Dans l’offre VIEILLISSEMENT, PATHOLOGIES ET RÉHABILITATION DU BÂTIMENT :

Comportement des structures en béton armé existantes – Corrosion des armatures

 

Dans l’offre LA CONSTRUCTION RESPONSABLE :

Performance énergétique des bâtiments existants – Études de cas

 

Dans l’offre MÉCANIQUE DES SOLS ET GÉOTECHNIQUE :

Effets de site sismiques pour les ouvrages de surface

 

Dans l’offre TECHNIQUES DU BÂTIMENT : PRÉPARER LA CONSTRUCTION :

Préparation d’un chantier BTP sur la construction d’une maison individuelle

 

Dans l’offre TECHNIQUES DU BÂTIMENT : L’ENVELOPPE DU BÂTIMENT :

Les adjuvants des bétons

 

Dans l’offre TECHNIQUES DU BÂTIMENT : LE SECOND OEUVRE ET LES LOTS TECHNIQUES :

Évacuation des eaux usées, eaux vannes et eaux pluviales dans une maison individuelle

 

Découvrez également les CerT.I.!

100 crédits CerT.I. offerts : les 100 premiers inscrits pourront ainsi ouvrir le module de leur choix et passer leur attestation CerT.I.

 

Pour obtenir votre module CerT.I. gratuit : remplissez ce formulaire

Le béton : un matériau technologique faisant l’objet d’une intense R&D

Jean-Michel Mechling, maître de conférences à l’Université de Lorraine et chef de l’équipe Matériaux pour le génie civil au sein de l’Institut Jean Lamour. Crédit photo : Jean-Michel Mechling

Jean-Michel Mechling est maître de conférences à l’Université de Lorraine et chef de l’équipe Matériaux pour le génie civil au sein de l’Institut Jean Lamour (une unité mixte de recherche du CNRS et de l’Université de Lorraine). Il nous parle des principaux matériaux innovants développés et utilisés dans la construction, et notamment du béton qui reste omniprésent dans ce secteur. Ce matériau fait en effet l’objet d’une intense recherche et développement et se décline dans différentes formulations high-tech.

Techniques de l’Ingénieur : Sur quels types de matériaux de construction innovants, la recherche travaille-t-elle en ce moment ?

Jean-Michel Mechling : Avec leur couleur grise, tous les bétons semblent identiques alors qu’au contraire, ce sont des matériaux modernes et technologiques. La recherche est toujours très active dans ce domaine. Par exemple, dans notre laboratoire, nous démarrons un projet sur un béton autoréparant, capable de reboucher lui-même les fissures qui apparaissent au cours du temps. Ce béton devient en quelque sorte vivant.

Nous travaillons aussi sur des fibres en carbone pour renforcer des poutres en béton qui vieillissent mal et qui viennent se coller ou se fixer à la périphérie de la structure. Cette réparation coûte cher, mais moins qu’une démolition de l’ouvrage. Il existe aussi déjà sur le marché des bétons appelés BFUP (Bétons fibrés ultra performants) très résistants. Ils peuvent servir à réparer des ouvrages, mais aussi à en construire d’autres comme des passerelles dont l’épaisseur ne dépasse pas quelques centimètres.

Depuis quelques années, sont apparus sur le marché des bétons translucides capables de laisser passer la lumière grâce par exemple à l’intégration de fibres optiques dans la matrice du béton.

D’autres matériaux sont-ils également étudiés ?

Dans la construction, on parle en ce moment beaucoup des géopolymères. Il s’agit de liants qui durcissent à la température ambiante, à l’image du ciment. Ils peuvent être constitués de silicates d’alumine telles les argiles calcinées qui sont activées à l’aide de produits alcalins comme de la soude, dans le but de fabriquer un composite. Comparés au ciment, ces géopolymères ont une empreinte carbone plus faible et les ressources en argile ou en certains co-produits industriels sont relativement importantes.

La baisse des émissions de CO2 est-elle le principal axe dans la recherche de matériaux innovants ?

Oui car le béton, très utilisé dans la construction, contient une faible quantité de ciment (environ 10 % en masse), mais celle-ci est responsable de 7 à 8 % des émissions de CO2 dans le monde. La recherche se mobilise beaucoup pour limiter cet impact environnemental qui est lié à la présence de clinker dit Portland dans le ciment. Il s’agit d’un composé fabriqué à partir de la cuisson du calcaire et de l’argile à 1 450 degrés et qui émet beaucoup de CO2 et consomme beaucoup d’énergie. Ce composé nécessite en plus d’être broyé, une étape également très énergivore, et sur laquelle de nombreux progrès technologiques sont en cours.

Quels sont les leviers pour réduire cette empreinte carbone ?

De nouveaux ciments apparaissent, comme les ciments sulfo-alumineux, fabriqués à moins haute température et qui émettent moins de CO2 car la chimie est différente comparée au ciment Portland. À présent, la plupart des ciments sont composés, c’est-à-dire que le clinker est mélangé à d’autres composants, aux propriétés pouzzolaniques. Ce sont des matières réactives chimiquement, mais qui émettent nettement moins de CO2 que la fabrication du clinker. Depuis des décennies, on utilise par exemple un coproduit de l’industrie de la sidérurgie appelé le laitier et qui permet de limiter l’utilisation du clinker. Sauf qu’en Europe, les quantités de laitier diminuent ; les cimentiers sont donc à la recherche de nouvelles matières de substitutions.

La recherche se mobilise-t-elle pour d’autres raisons ?

Oui car les fabricants de bétons sont aussi confrontés à la diminution des ressources en sable au niveau mondial. Il est donc nécessaire de trouver des matériaux alternatifs à la place des granulats naturels. Un important projet national, Recybeton, a été conduit ces dernières années par de nombreux laboratoires français à propos de la fabrication du béton à partir de béton recyclé. Les résultats ont montré la faisabilité et la durabilité des bétons à base de granulats de béton recyclé. Ce type de recyclage, encore assez confidentiel en France, est plus avancé dans certains pays limitrophes comme la Suisse.

Dans notre laboratoire, nous travaillons aussi sur le recyclage de certains sables usagés, comme ceux issus de fonderies de pièces qui sont coulées dans du sable avec du métal en fusion. Ce sable est déjà réutilisé en partie pour faire des bétons, mais nous aimerions utiliser des sables contenant plus de polluants. La difficulté est alors d’inerter ces polluants présents à l’intérieur, notamment des métaux. Différents essais sont menés avec certains types de ciment, qui ont la capacité à apporter plus de stabilité à ces métaux, comme les ciments alumineux.

Un nouvel outil pour suivre l’évolution du carbone stocké par les forêts

Tout le monde peut à présent suivre les variations de la capacité des forêts à séquestrer le carbone présent dans l’atmosphère. La société Kayrros vient de mettre en ligne un nouvel outil, baptisé le Biomass Carbon Monitor, accessible gratuitement et qui évalue de manière fiable et indépendante ce phénomène dans chaque pays du monde. Cet outil est le fruit d’un travail de recherche mené depuis 30 ans par l’INRAE (Institut national de recherche pour l’agriculture, l’alimentation et l’environnement) et le LSCE (Laboratoire des sciences du climat et de l’environnement).

Cette plateforme géospatiale est alimentée par les données du satellite SMOS de l’ASE (Agence spatiale européenne) qui enregistre l’émission des micro-ondes à la surface des sols et grâce à l’utilisation d’un indice de végétation appelé L-VOD (L-band vegetation optical depth). Ce dernier a la capacité de sonder l’ensemble de la strate végétale et non pas uniquement le sommet de la canopée. Une performance rendue possible grâce à l’utilisation d’une bande fréquence L possédant une grande longueur d’onde, supérieure à 20 cm. « Jusqu’à présent, les observations satellitaires saturaient dès que la végétation était abondante, explique Jean-Pierre Wigneron, directeur de recherche à l’INRAE. Grâce à la fréquence L du satellite SMOS et l’indice L-VOD, nous pouvons mesurer précisément la quantité de biomasse aérienne. Notre outil est unique au monde, aucun autre produit ne peut suivre de cette façon la biomasse mondiale. »

Grâce à un historique de données remontant à 2011, il est possible de suivre l’évolution des quantités de carbone stockées par la forêt sur les dix dernières années. Résultat, 760 Mt (millions de tonnes) ont été séquestrés sur cette période dans le monde. Un volume significatif puisqu’il a permis de compenser près de 8 % des émissions de CO2 liées à la consommation d’énergies fossiles et à la production de ciment sur cette même période. Depuis 2011, il apparaît que les quantités de carbone stockées sont globalement en constante évolution. « Sauf en 2015 et 2016 où elles ont baissé à cause d’importantes sécheresses dans les tropiques liées à l’événement climatique El Niño, précise le chercheur. Ce phénomène a eu un impact global à l’échelle de la planète et une fois terminé, on a observé une reprise de la végétation dans les régions concernées et les quantités stockées sont reparties à la hausse à l’échelle du globe. »

Des puits de carbone en Russie et en Chine

Dans le détail, les forêts de l’hémisphère nord ont plutôt tendance à stocker du CO2, car elles font globalement l’objet d’une gestion raisonnée, comme c’est le cas en France. Certains pays voient leur capacité de stockage augmenter, à l’image de la Russie occidentale. Entre 2011 et 2020, les quantités séquestrées dans cette partie du monde se sont élevées à 100 Mt, ce qui représente plus que l’intégralité des forêts de l’Union européenne. Cet important volume s’expliquerait entre autres par la présence d’un puits de carbone en Sibérie et lié à la repousse de la forêt sur des terres agricoles laissées à l’abandon. La Chine voit aussi sa capacité à séquestrer le CO2 grâce à ses forêts progresser, à la faveur notamment de vastes programmes publics de reforestation. Ainsi, dans le sud de ce pays, un important puits de carbone est à présent visible et représente un gain de CO2 de 80 Mt par an sur la dernière décennie.

À l’inverse, les forêts de l’hémisphère sud ont plutôt tendance à émettre du CO2 à cause de la déforestation et des multiples dégradations qu’elles subissent, c’est-à-dire des coupes sélectives, des feux, des dépérissements d’arbres liés aux sécheresses répétées… Ainsi, les forêts brésiliennes perdent dorénavant 40 Mt de CO2 chaque année, celles boliviennes 20 Mt.

« On connaissait déjà toutes ces tendances, la nouveauté est de parvenir à les quantifier exactement en millions de tonnes et de suivre leur évolution, analyse Jean-Pierre Wigneron. À présent, les pays ne pourront plus tricher ou faire des promesses. Tous les chiffres sont publics et on voit très clairement les endroits où le stockage du CO2 progresse ou diminue. C’est sans doute un outil de pression politique qui permettra aussi d’aider les pays à mieux gérer leurs stocks. »

Les données du Biomass Carbon Monitor seront mises à jour tous les trimestres sur internet. Et pour les pays qui souhaiteraient recevoir des bilans et des chiffrages plus précis, ils pourront prendre contact avec la société Kayrros, qui a la charge de les commercialiser.

Trois alternatives durables au béton

Les cimentiers visent une réduction de 80% des émissions d’ici 2050. Du côté BTP, VINCI Construction s’est même engagé à utiliser 90 % de béton bas carbone dès 2030. En attendant, des alternatives au béton traditionnel sont également recherchées.

Réduire le bilan carbone du béton

Le béton est un matériau majoritairement composé de ciment, d’eau, de sable et de granulats. Souvent pointée du doigt, la production de ciment Portland serait responsable de près de 6 % des émissions des gaz à effet de serre à l’échelle mondiale et deux tiers de ces émissions sont générés lors de la production du clinker. Pour quelles raisons ? Principalement parce que la fabrication du clinker Portland nécessite de passer par une étape de décarbonatation du calcaire, ce qui libère beaucoup de CO2. L’autre source d’émission de CO2 vient de l’utilisation de combustibles fossiles pour la cuisson de l’argile et du calcaire.

Ces chiffres sont néanmoins à relativiser en ce qui concerne la France : en 30 ans, la filière béton a déjà réduit son empreinte CO2 de 39 %, du fait de l’innovation constante des industriels.

Le béton de chanvre

Développé en France depuis les années 1990, le béton de chanvre est un matériau qui s’obtient en mélangeant des particules de chanvre (la chèvenotte) avec un liant, de l’eau et des adjuvants.

En s’inspirant de techniques de construction ancestrales qui associent le minéral et le végétal, le cimentier Lafarge propose par exemple d’associer de la chaux à un granulat à base de chèvenotte. Cette solution, applicable en neuf comme en rénovation, permet d’améliorer le confort thermique été comme hiver.

Pour ne rien gâcher, le bilan carbone de ce type de produit est excellent. D’après les résultats d’ACV (analyse du cycle de vie) de la base INIES, les murs en béton de chanvre banché sur ossature bois seraient même des puits de carbone (ils consomment du carbone au lieu d’en rejeter).

Enfin, selon une étude du CEREMA, les murs en béton de chanvre permettraient, dans certains cas, de réduire jusqu’à 70 % le besoin en chauffage des bâtiments.

Les matériaux fibres-ciment

Le terme « fibres-ciment » désigne une famille de matériaux composites fabriqués à partir de ciment, d’eau, de fibres et de charges minérales. Les fibres, autrefois en amiante, ont depuis longtemps été remplacées par d’autres fibres, notamment en cellulose. Ces matériaux ont la particularité d’être très résistants, inoxydables, incombustibles, ingélifs et faciles à mettre en forme. Couramment utilisé pour la fabrication de plaques de toitures ondulées, le fibre-ciment est aussi de plus en plus employé pour la conception de matériaux de façade et de lames de bardage.

Ces matériaux peuvent être considérés comme écologiques, dans le sens où :

  • leur durabilité dépasse 50 ans ;
  • ils sont démontables et peuvent donc être réutilisés dans un autre bâtiment lors de la déconstruction ;
  • ils contiennent des fibres de cellulose ;
  • les déchets de fibre-ciment sont revalorisables en tant que granulat routier ou en tant que charges pour fabriquer de nouveaux matériaux en fibre-ciment.

Quelques acteurs du marché français : CEMBRIT, EQUITONE, ETERNIT.

Le béton d’argile

Utilisée depuis la nuit des temps, la terre crue a de multiples usages en construction et il existe des dizaines de techniques permettant sa mise en œuvre. Des sacs de béton d’argile à mélanger avec un gravier ou des big bags, permettant de réaliser des dalles ou des chapes sont par exemple commercialisés. Bien que ce matériau ne soit pas assez résistant pour permettre la réalisation d’ouvrages porteurs, il a bien d’autres qualités :

  • Il est constitué d’argile crue. Il n’y a donc pas de cuisson à haute température, ce qui réduit fortement l’impact environnemental ;
  • Il apporte une certaine inertie thermique et amplifie le déphasage thermique ;
  • C’est un produit sain, sans odeur, qui ne contient pas d’adjuvant ;
  • Il a une bonne absorption phonique ;
  • C’est un biomatériau recyclable à l’infini.

Néanmoins, l’utilisation de béton d’argile ne semble pas limitée à la production de dalles ou de chapes, la mise en forme par coffrage et par compression permettant de réaliser des façades porteuses, sous certaines conditions.

Voici quelques exemples de réalisations :

Si vous souhaitez approfondir cette thématique, nous vous invitons à consulter les résultats du programme de recherche Béton d’Argile Environnemental, qui détaille également l’utilisation de chanvre dans les bétons.

Lionel Barnéoud-Rousset : « Nous n’avons pas la prétention de sauver la planète, mais nos produits peuvent faire partie des solutions »

Conçus notamment à partir de matières actives d’origine végétale, les additifs développés par Green & Safe Distribution permettent de diminuer la consommation des véhicules de 5 à près de 13 %, en fonction de leur charge moteur. Un effet qui se traduit par une baisse des émissions de gaz et particules polluants, mais également par un gain économique de l’ordre de 3 € pour 1 € investi. Ex-distributeur de carburant, Lionel Barnéoud-Rousset est aujourd’hui président de l’entreprise et nous en parle plus en détail.

Techniques de l’Ingénieur : Quand et pourquoi avez-vous décidé de vous lancer sur le marché des additifs pour carburants ?

Lionel Barnéoud-Rousset © Green & Safe Distribution

Lionel Barnéoud-Rousset : À l’origine, j’étais distributeur de carburant, un métier que j’ai exercé pendant une quinzaine d’années, dans les Alpes. J’ai commencé à m’intéresser aux additifs à partir de 2008-2009 suite à des problèmes récurrents rencontrés par mes clients avec leurs carburants. Beaucoup se plaignaient de problèmes de maintenance sur les systèmes de filtration et d’injection de leurs véhicules, en dépit des précautions de stockage de leurs carburants. Je leur ai dans un premier temps proposé de nombreux additifs achetés à des sociétés pétrolières, que j’ai également testés sur mes propres machines grâce à l’activité dans les travaux publics que j’avais aussi à l’époque. Tous ces produits ne nous ont pas donné satisfaction. Je me suis aperçu que la plupart d’entre eux avaient très peu de substances actives et, au contraire, beaucoup de solvants pétroliers sans grand intérêt. Certains de nos clients désiraient également améliorer leur impact en matière de pollution. L’idée d’apporter un peu de vert dans ce monde d’énergie fossile a ainsi germé, avec la volonté d’utiliser des matières actives exemptes de pétrole pour générer une économie en matière de consommation, mais aussi de maintenance, en plus d’une diminution de l’impact environnemental. C’est ainsi qu’est née, en 2011, Green & Safe Distribution.

De quoi vos additifs se composent-ils ?

Sans révéler de secrets industriels, je peux dire que nos additifs sont composés de matières actives non issues du pétrole : alcool, acides gras d’origine végétale et biocide. Nous privilégions des produits issus au moins à 40 % de biomasse. Nous travaillons soit avec des revendeurs, soit en direct avec des producteurs. La plupart sont d’origine européenne, d’Allemagne et d’Europe du Nord notamment. Nous favorisons ainsi le circuit court.

Quels sont les principaux intérêts des additifs que vous avez développés ?

Ajoutés au carburant à hauteur de 1‰, les additifs développés par Green & Safe permettent des gains de consommation qui peuvent atteindre 13% sur les véhicules fonctionnant de manière intensive, comme les dameuses. © Green & Safe Distribution

Pour évaluer et quantifier les effets de nos produits, nous avons fait réaliser des tests très normés, transparents, reproductibles, par l’UTAC CERAM (Union technique de l’automobile du motocycle et du cycle). Sur les poids-lourds, nous avons obtenu des résultats remarquables sur la consommation (environ -5 %) comme sur les émissions des cinq gaz polluants : -4,7 % de CO2, -7,6 % d’oxydes d’azote (NOx), -11 % de particules en suspension (PM), -13,4 % de monoxyde de carbone (CO) et jusqu’à -37,6 % d’hydrocarbures imbrûlés. C’est assez unique sur le marché : souvent, pour parvenir à abaisser les consommations, les produits créent une « surchauffe » au départ au niveau du moteur pour éliminer les suies, goudrons, etc. Malheureusement, la calamine [dans la chambre d’explosion du moteur, résidu charbonneux issu de la combustion du carburant, NDLR] se reforme derrière. On a donc un effet qui peut au départ paraître intéressant, mais qui se révèle pervers au fur et à mesure de l’utilisation. On finit par se retrouver avec des incohérences au niveau de la consommation et des émissions polluantes.

Par ailleurs, nous avons aussi travaillé sur les propriétés biocides de nos additifs. Avec l’incorporation dans les carburants d’une part de biocarburant, on peut être confronté à des problèmes de prolifération de bactéries, d’autant plus depuis l’abaissement du taux de soufre qui est un bon biocide, mais aussi un bon lubrifiant. Nous avons donc également formulé nos additifs pour qu’ils améliorent les propriétés de lubrification des carburants.

D’un point de vue économique, avec un litre d’additif pour mille litres de carburants, on est a minima à 3 € récupérés pour 1 € investi. Les utilisateurs de poids-lourds et autocaristes peuvent en plus bénéficier d’éco-primes substantielles grâce au dispositif des CEE (Certificat d’économie d’énergie), auxquels sont éligibles nos additifs. En outre, plus le taux de charge moteur du matériel est élevé, plus la baisse de consommation est importante. Elle peut atteindre 13 % comme l’ont montré nos tests menés à Serre Chevalier sur deux dameuses à neige. Sur ce type de matériel comme sur le matériel agricole, qui est lui aussi fortement sollicité, on peut ainsi atteindre un retour sur investissement de l’ordre de 5 € pour 1 € investi.

Quelles sont vos capacités de production actuelles ? Où vos produits sont-ils distribués ?

Nous travaillons pour l’heure avec un partenaire sous-traitant. Mais il commence à être un peu dépassé par les volumes qui vont croissant. Il va néanmoins continuer à travailler à nos côtés en nous accompagnant dans la réalisation de notre usine que nous prévoyons d’ouvrir en Savoie, à Ruffieux, l’an prochain. Nous avons actuellement une capacité de production avec notre sous-traitant de l’ordre de 15 m³ par jour, pour une production d’environ 300 m³ par an. L’objectif avec notre usine de Ruffieux sera de porter la capacité de production à 50 m³ par jour. Après dix ans d’activité, notre produit a bien évolué et s’avère de plus en plus apprécié. Il est distribué partout en Europe avec une grosse plateforme de distribution pour l’Europe du Nord et de l’Est basée en Belgique. La Suisse est aussi fortement intéressée par nos produits. Nous travaillons avec un réseau de distribution maillé avec les distributeurs de carburants, mais également en direct avec certains gros consommateurs.

Hormis l’amélioration continue de ces additifs, avez-vous d’autres projets, voire d’autres pistes en matière de recherche et développement ?

Nos additifs fonctionnent également très bien pour le fioul. Nous essayons donc de rentrer sur le marché des centrales thermiques. Avec nos produits, je pense que l’on peut contribuer à diminuer leurs impacts sur l’environnement et la santé publique. Nous n’avons bien entendu pas la prétention de sauver la planète, mais je pense que l’utilisation de nos produits peut faire partie des solutions. Il serait dommage de ne pas le faire, car leur mise en œuvre est facile, immédiate, et ne nécessite pas d’investissement ; au contraire, cela rapporte de l’argent.

Depuis que les normes de pollution se sont durcies, nous avons également pu approcher des réseaux de distribution et de réparation de véhicules légers ; un marché sur lequel nous ne sommes pour l’instant pas du tout présents. Des tests que nous avons menés sur des véhicules refusés au contrôle technique se sont révélés concluants, et cela a suscité un vif intérêt de la part d’enseignes de réparation et de vente de pièces détachées, qui n’ont pourtant au départ pas beaucoup d’intérêt à distribuer nos produits, puisqu’elles vendent déjà des additifs bien plus connus que les nôtres.

Nous travaillons également sur des super-lubrifiants et huiles moteur biodégradables, mais cela s’avère assez compliqué : les constructeurs sont très frileux, encore plus que sur les carburants. Il faut vraiment montrer patte blanche pour prouver que le produit ne va rien détériorer. Nous avons pourtant d’ores et déjà des retours positifs, nous savons que cela fonctionne. Nous travaillons sur des solutions à base de graphène par exemple, incorporé dans nos huiles. Mais au vu des difficultés rencontrées avec les constructeurs, nous nous interrogeons sur la pertinence de la poursuite d’une telle démarche…

Un incubateur dédié à la Lune

Dans le cadre du programme Artemis de la NASA, le tout nouvel incubateur TechTheMoon accueille depuis octobre cinq start-up spécialisées sur des technologies lunaires. « Le CNES voulait faire émerger des start-up sur ce sujet », explique Anne-Laure Charbonnier, directrice de l’incubateur Nubbo. Le Centre national d’études spatiales pouvait accompagner les entreprises en partageant leur expertise scientifique, mais il avait besoin de s’associer à une structure pour le reste de l’accompagnement, comme l’exploration du marché ou la prospection commerciale. L’incubateur Nubbo, un incubateur public dit « Allègre » (en référence à la loi Allègre), basé à Toulouse, s’est donc associé au projet. Et un appel à projet commun a été lancé.

Des outils pour assister les premières missions humaines sur la Lune

« Nous avons reçu 12 candidatures, dont 8 ont été examinées en détail », note la directrice de Nubbo. Les cinq start-up retenues couvrent les trois grandes thématiques : les sujets infrastructure, support vie et exploitation des ressources. Il s’agit des entreprises Anyfields, Metis, Orius Technologies, Spartan Space et The Exploration Company. La société Anyfields propose un système de visualisation des rayonnements électromagnétiques et de mesure de la performance des antennes ; les solutions sur lesquelles travaille Metis permettront de réaliser des contrôles non destructifs et des localisations de défauts sur des composants ou équipements spatiaux de manière mobile, souple et reproductible ; Orius Technologies développe un système de culture de végétaux compatible avec l’environnement spatial ; Spartan Space développe des habitats spatiaux pour l’exploration de la Lune ; et The Exploration Company a l’ambition de démocratiser l’accès à la Lune pour les industries spatiales et non spatiales grâce à des véhicules spatiaux réutilisables.

Un accompagnement d’un an

Pendant 12 mois, ces cinq pépites bénéficieront de soutien technique, coaching business, mentorat, networking… « En général, on part d’un savoir-faire technologique, mais on doit analyser les besoins. Il y a souvent un écart entre ce que les entrepreneurs pensent pouvoir faire des produits, et les attentes réelles du marché », estime Anne-Laure Charbonnier. L’objectif est d’avoir une solution utile pour les programmes lunaires. Au terme des 12 mois, la phase d’incubation devrait aboutir à une grosse levée de fonds, voire même à un lancement commercial. Mais comme il s’agit d’un marché compliqué, cette phase d’incubation pourrait être prolongée de 6 mois, quand cela le nécessite. Après cette première phase, d’autres types d’accompagnement classiques existent pour les entreprises.

« C’est une année prototype. L’objectif est de renouveler et d’étendre les opérations. On espère réaliser au moins une édition annuelle », soutient Anne-Laure Charbonnier. Il y a une condition à l’accompagnement : les start-up doivent être implantées en Occitanie au terme des 12 mois, l’incubateur ayant des financements de la part de la région.

Hausse des prix de l’électricité : les marchés spot reflètent le prix du gaz

Les consommateurs subissent depuis quelques semaines une hausse des prix de l’énergie, dans un mouvement inverse à celui de la crise du coronavirus qui avait fait fortement baisser les prix. Par exemple, le cours du pétrole WTI avait chuté à moins de 20 $/baril en avril 2020 : il est désormais remonté à plus de 80 $, recommençant ainsi à flirter avec son niveau élevé de 2010-2014, mais encore loin des 120 $ qui avaient précédé la crise financière de 2008.

Du côté du gaz fossile, même constat : les cours étaient tombés au plus bas en avril 2020 et ont connu une hausse fulgurante depuis septembre, retrouvant les niveaux très hauts de la période 2003-2008. Deux raisons majeures expliquent cette récente augmentation. Tout d’abord, la reprise de l’activité économique, spécialement en Asie forte consommatrice de la molécule de méthane, a été mal anticipée et a fait augmenter la demande mondiale. Ensuite, l’offre a été freinée à la fois par des réserves de stockage très faibles (à cause de la consommation de gaz l’hiver dernier) et par une moindre production de gaz naturel liquéfié, comme l’Agence internationale de l’énergie l’a pointé. Les cours des énergies fossiles, facilement stockables et transportables, sont par nature très volatils et ce phénomène de yo-yo va forcément continuer. D’ailleurs, une simple annonce de la Russie de remplir des sites de stockage de gaz le 10 novembre dernier a fait redescendre les cours immédiatement.

Pourquoi les prix de l’électricité sont à la hausse ?

Un autre vecteur énergétique subit actuellement une hausse des prix : l’électricité. Sur le marché spot en France, alors qu’elle oscillait entre 40 et 100 €/MWh depuis le début de l’année 2021, elle s’est installée au-dessus de 100 € début septembre et s’est établie autour de 200 € à partir d’octobre, avec parfois de fortes variations, entre 400 € et des prix négatifs ! Pourtant, cette « commodité » n’obéit pas aux mêmes règles que le gaz et le pétrole. Quelle est donc la raison de cette hausse ? Elle tient à la façon dont le marché de l’électricité est organisé.

Justement parce qu’elle est peu stockable, l’électricité fait l’objet d’un incessant travail des gestionnaires de réseaux pour assurer l’équilibre entre l’offre et la demande. Les producteurs sont responsables d’équilibre sur leur périmètre et doivent prévoir la quantité d’électrons qu’ils sont capables d’injecter sur le réseau. Si la prévision n’est pas tenue, le producteur devra payer une pénalité puisqu’il fait courir un risque à l’équilibrage du réseau. Pour rentabiliser leurs centrales, les producteurs vendent leur électricité à des fournisseurs qui la revendront aux consommateurs finaux. Ce marché de gros se fait via des contrats à terme sur des durées plus ou moins longues et également via un marché spot, à l’échelle européenne. Sur cette « bourse » de l’électricité, un premier marché dit « Day-ahead » permet de vendre des blocs horaires pour le jour suivant, et un autre dit « intraday » permet d’ajuster des offres jusqu’à 5 minutes avant la livraison.

Principe du « merit order » : Pour une même courbe de demande (ligne droite orange), si le prix de marché du gaz augmente, le palier de l’offre de production des centrales à gaz va se relever (coûts variables plus élevés) et le prix d’achat de l’électricité va donc être plus élevé. Crédit image : EpexSpot

« Aujourd’hui, les hausses des prix de l’électricité font la une, et le marché spot est autant concerné que le marché à terme. Étant un marché physique, le prix spot reflète réellement l’offre des vendeurs et la demande des acheteurs de l’électricité, explique Philippe Vassilopoulos, directeur du développement des produits d’EpexSpot, la bourse pour la France. C’est sur le marché Day-ahead qu’il y a le plus d’échanges spot, à hauteur de 100 TWh en France et 250 à 300 TWh en Allemagne, alors que ces deux pays consomment environ 500 TWh chacun par an. » La hausse des prix de l’électricité sur ce marché est liée aux centrales fonctionnant au gaz. En effet, pour satisfaire la demande, on fait d’abord appel aux solutions ayant les coûts variables les plus faibles, puis aux plus élevés. Dans l’ordre de mérite, il s’agit ainsi de l’éolien, du solaire, du nucléaire, du charbon, du gaz et du fioul. C’est le coût de la dernière centrale appelée qui fixe le prix auquel seront achetés tous les kilowattheures vendus, quelle que soit la technologie. Actuellement, les centrales gaz sont souvent les dernières à être appelées et comme leur coût variable augmente avec le prix du gaz, le prix de l’électricité sur le marché augmente lui aussi.

Le nucléaire n’y change rien

« Le parc nucléaire dominant dans la production française ne change rien à cet effet marginal des centrales gaz. De plus, les échanges avec nos voisins ont tendance à faire converger les prix entre pays, si les interconnexions électriques ne sont pas saturées », précise Philippe Vassilopoulos. Au final, tout le monde se retrouve impacté. Les fournisseurs n’ayant pas de moyens de production et s’approvisionnant uniquement sur le marché doivent répercuter la hausse sur leurs clients. Les producteurs historiques comme EDF sont moins sujets à cela mais ses tarifs réglementés de vente d’électricité sont en partie indexés sur le marché spot, ce qui induit une hausse aussi…  L’augmentation se répercute donc sur les factures des consommateurs finaux. Se pose alors la question politique de protéger momentanément ou durablement les citoyens de ces hausses. Gel des tarifs de vente, diminution des taxes, chèque pour contrer l’inflation : les solutions existent, mais c’est une autre histoire…

Par Stéphane Signoret

COP26 : un bilan contrasté qui peine à convaincre

La ministre de la Transition écologique y voit « un compromis » mettant la planète « dans le bon chemin ». Mais le Pacte de Glasgow ne garantit pas de contenir le réchauffement de la planète à 1,5°C par rapport à l’ère préindustrielle. Et il ne répond pas aux appels des pays pauvres à relever l’aide à l’adaptation ou pour financer les « pertes et dommages ». Mais ce « n’est pas un texte qui est le plus ambitieux du monde », concède-t-elle.

Du côté de l’ONU et de la société civile, les jugements sont beaucoup plus cinglants. « Malheureusement la volonté politique collective n’a pas été suffisante pour surmonter de profondes contradictions » entre pays et « il est temps de passer en mode ʺurgenceʺ », a regretté le secrétaire général de l’ONU, Antonio Guterres. La COP26 s’est résumée à du « bla, bla, bla », estime la jeune militante suédoise Greta Thunberg. Youth For Climat dénonce pour sa part « une défaite pour la justice sociale, écologique et la démocratie » et appelle à « lutter directement contre les plus gros pollueurs de ce monde ». Enfin, pour Attac, « c’est un échec sur toute la ligne ».

Des avancées a minima

La mention des énergies fossiles dans le Pacte de Glasgow est saluée par certains comme une avancée. C’est la première fois qu’un texte les mentionne dans le cadre de l’Accord de Paris. Pour autant, « aucune mesure concrète, aucun calendrier n’est prévu pour en sortir », déplore Attac. Et le terme « disparition progressive » du charbon a été remplacé in extremis par « diminution progressive » à la demande de la Chine et de l’Inde.

Du côté des avancées, le Pacte de Glasgow demande aux Parties de rehausser leur ambition climatique dès 2022 et non pas en 2025 comme le prévoyait l’Accord de Paris. Pourquoi ? Car les engagements actuels nous mènent vers un réchauffement de +2,7°C s’ils étaient respectés, selon l’ONU. Mais cela reste volontaire et non contraignant. D’ici 2024, les pays devraient fournir des informations plus régulières et plus solides sur l’état des émissions de GES et les progrès réalisés dans la mise en œuvre de leurs engagements.

Rendez-vous raté pour les 100 milliards de dollars

Les pays développés s’étaient engagés en 2009 à Copenhague à verser 100 milliards de dollars par an d’aides aux pays en développement à partir de 2020. Mais alors que cette enveloppe n’est toujours pas atteinte – il manque environ 20 milliards de dollars par an –, elle est déjà caduque. Les pays en développement demandaient pour leur part de relever l’aide à 1 300 milliards de dollars par an pour prendre en compte les « pertes et préjudices ». Finalement, le texte exhorte seulement les pays à « atteindre pleinement et de toute urgence » l’objectif de 100 milliards de dollars d’ici 2025.

L’UE et les États-Unis ont refusé de créer un fonds dans lequel les pays les plus pauvres pourraient puiser pour répondre à la crise. Cela a indigné les petites îles et de nombreuses nations vulnérables sur le plan climatique. D’ici 2025, les pays développés devront toutefois doubler leurs fonds collectifs pour l’adaptation, sur la base des promesses de 2019. Cela reste insuffisant, mais constitue une amélioration. Seul un quart environ du financement est actuellement consacré à l’adaptation, la majorité étant toujours consacrée à l’atténuation, au grand dam des pays du sud.

Un compromis pour l’article 6

Le pacte climatique de Glasgow entérine le marché carbone comme un levier essentiel de l’action climatique des États. Les pays pourront échanger des réductions d’émission sur le marché afin d’atteindre les objectifs de leur contribution déterminée au niveau national, sans double comptage.

Le texte adopté permet de « combler certaines des failles scandaleuses, comme le double comptage », qui permettrait à une tonne de CO2 d’être comptabilisée à la fois par l’acheteur et le vendeur, a commenté Laurence Tubiana, architecte de l’accord de Paris. « Mais ce n’est pas suffisant pour empêcher les entreprises et les États de mauvaise foi de contourner le système », a-t-elle indiqué à l’AFP, réclamant un organe de surveillance de la mise en œuvre de ces marchés.

De nouvelles technologies pour décarboner la synthèse de méthanol et d’oléfines

Au sud de Lyon, le GIE (Groupement d’intérêt économique) Osiris assure la gestion des utilités de la plateforme chimique Les-Roches-Roussillon sur laquelle sont fabriqués des composés de base à destination de nombreuses entreprises chimiques de la région. Des oléfines (éthylène, propylène et butène) sont produites sur place à partir du méthanol, lui-même produit à partir de gaz naturel, et donc d’origine fossile. Au sein d’un projet baptisé Catvic (Catalytic valorization of industrial carbon), le CEA et l’Institut Max-Planck en Allemagne développent de nouvelles technologies dans le but de décarboner les activités de ce site industriel.

Le méthanol est actuellement importé sur le site et est issu du syngaz, un gaz de synthèse constitué principalement d’hydrogène (H2) et de monoxyde de carbone (CO). Les chercheurs ont l’intention de le produire sur place à partir du CO2 issu des fumées émises par les différentes installations de la plateforme chimique et d’hydrogène vert. Ce procédé est bien connu et consiste à mettre en œuvre cette réaction : CO2 + 3 H2 → CH3OH + H2O. « L’Institut Max-Plank maîtrise bien cette technique qui n’existe pas à ma connaissance sur le plan industriel, mais uniquement sous la forme de démonstrateurs d’assez grande taille, précise Alban Chappaz, ingénieur-chercheur au CEA. Nous allons étudier quel est l’impact des polluants présents avec le CO2 sur la réaction de synthèse de méthanol. Nous analyserons aussi comment les catalyseurs métalliques à base de cuivre vieilliront dans le temps. »

Produire des oléfines grâce à un seul catalyseur

L’axe de recherche le plus innovant du projet Catvic consiste à valoriser le CO2 et l’hydrogène directement en oléfines. Deux étapes sont normalement nécessaires pour fabriquer ces composés carbonés : celle de synthèse de méthanol puis sa déshydratation. Elles nécessitent l’emploi de deux catalyseurs de manière séparée et dans des conditions d’utilisation différentes. Les scientifiques veulent réaliser la synthèse de méthanol puis sa déshydratation en une seule étape en utilisant un seul catalyseur dans un seul réacteur et dans des conditions préférentielles afin d’obtenir des performances de synthèse d’oléfines les plus élevées possible. « Nous allons utiliser des catalyseurs fabriqués à partir d’autres métaux que le cuivre et pouvant résister à des températures plus hautes car la réaction de synthèse a lieu à environ 250 degrés et celle de déshydratation entre 400 à 500 degrés, ajoute le chercheur. Plusieurs catalyseurs acides sont en cours d’étude, le but étant d’obtenir des catalyseurs bifonctionnels, avec un métal supporté par exemple sur une silice-alumine acide ou une zéolithe acide. »

L’intérêt de regrouper ces deux étapes se situe au niveau de la gestion de l’eau. Lors de la réaction chimique, une molécule d’eau est produite en même temps qu’une molécule de méthanol et la purification de ce mélange est une étape assez coûteuse en énergie. Ces deux molécules sont en effet difficiles à séparer l’une de l’autre, car elles ont des températures d’ébullition assez proches.

Cette séparation est beaucoup plus facile à réaliser lors de la synthèse directe des oléfines, car ces dernières sont dans un état gazeux dans des conditions normales de température et de pression alors que l’eau est liquide. Le regroupement des deux étapes présente aussi l’avantage de diminuer le coût des installations industrielles puisqu’il permet d’éviter de multiplier le nombre de réacteurs ainsi que le nombre de connexions entre eux.

Réduire la consommation électrique de l’électrolyseur

Pour aller jusqu’au bout de la défossilisation des procédés de synthèse de méthanol et d’oléfines, le projet Catvic vise aussi à produire l’hydrogène nécessaire aux réactions chimiques de manière décarbonée. Les scientifiques développent une technologie d’électrolyse à haute température, entre 700 et 800 degrés. Comparée à des électrolyseurs conventionnels, elle permet d’obtenir des rendements électriques plus élevés, comme l’explique Élise Le Goff, chercheuse au CEA et coordinatrice de ce projet de recherche : « Nous visons à terme une consommation comprise entre 40 et 43 kWh par kg d’hydrogène produit alors que les électrolyseurs à basse température consomment environ 50 kWh. Toute la difficulté est de réussir à maintenir la durée de vie des cellules électrolytiques suffisamment longtemps afin de ne pas perdre ce qu’on a gagné en performances. »

Le projet Catvic comporte un dernier volet de recherche qui consiste à réaliser l’étude techno-économique des différents concepts technologiques développés pour des applications réelles sur le site de la plateforme lyonnaise. Il s’agit ici d’estimer notamment leurs coûts, leurs performances vis-à-vis de l’environnement ainsi que le rendement global du système. « Ce projet de recherche a débuté il y a deux ans et doit se terminer fin 2022. En fonction des avancées technologiques réalisées, une seconde phase pourrait ensuite voir le jour dans le but de fabriquer un démonstrateur industriel pour la synthèse du méthanol », conclut la chercheuse.

Aurélie Jean : « Imposer la transparence des algorithmes conçus par des acteurs privés freinerait profondément l’innovation »

Ph.D., docteure en sciences des matériaux et en mécanique numérique à Mines Paris-Tech, Aurélie Jean a été développeur à Bloomberg. En 2016, elle a créé la société In Silico Veritas spécialisée en algorithmique et en modélisation numérique. Elle s’intéresse particulièrement à la détection et à la diminution des biais algorithmiques au sein des outils numériques et des modèles. Aujourd’hui, elle vit et travaille entre la France et les États-Unis. Elle vient de publier son dernier livre. Intitulé « Les algorithmes font-ils la loi ? » (Ed. de l’Observatoire), elle nous appelle à agir et propose de dompter (plutôt que de réguler) les algorithmes.

Techniques de l’Ingénieur : Page 91 de votre livre « Les algorithmes font-ils la loi ? », vous parlez de la nécessité d’expliquer un algorithme afin de s’assurer de son caractère juste. Cette méthode, appelée fairness en anglais, est encore au stade du développement. Cette volonté d’expliquer cela est-elle partagée par toutes les entreprises ?

Aurélie Jean. Crédit image : Geraldine Aresteanu.

Aurélie Jean : Difficile à dire. Disons que les scientifiques et les ingénieurs avec lesquels je collabore sont très attachés à cette notion. Je partage également cette vision avec mes clients qui me suivent sur cette idée. En plus des considérations techniques et éthiques évidentes, le risque réputationnel des entreprises qui auraient un mauvais contrôle de la fairness est énorme. Ce concept vise à garantir que l’algorithme considère chaque individu de manière juste et rationnelle, en évitant toute forme de discrimination qui amènerait à examiner injustement une personne au lieu d’une autre. Il s’agit de chercher à prouver l’indépendance de la réponse algorithmique envers certaines variables reconnues comme sensibles, telles que la couleur de peau, l’âge ou le genre dans certaines situations. Or, des scandales démontrent un mauvais contrôle de la fairness. On se souvient tous de la différence de traitement injustifiée entre les hommes et les femmes sur l’obtention d’une ligne de crédit.

 

Quels sont les risques si on ne joue pas la transparence ?

Dans mon livre je parle de transparence sur les erreurs commises et les moyens de les réparer. Même si la transparence des algorithmes de l’État est en effet fondamentale – si elle est accompagnée d’un support pédagogique pertinent -, la publication systématique des algorithmes développés par les acteurs privés est une aberration. Tout d’abord d’un point de vue technique, cela ne nous permettrait pas de comprendre de manière optimale, comment l’algorithme fonctionne. En effet, nous ne pourrions appliquer que des méthodes de calcul d’explicabilité post-entrainement. Ces calculs permettent d’extraire même en partie la logique de l’algorithme. Ils s’appliquent avant, pendant et après l’entrainement.

Cela peut paraitre surprenant, mais vous n’êtes pas en faveur de la transparence des algorithmes conçus par des acteurs privés.

Oui, cette transparence freinerait profondément l’innovation car les acteurs, dont je fais partie, ne déploieraient pas leurs outils sur des territoires qui imposerait une telle transparence. En revanche, et c’est ce que je défends dans mon dernier livre, il faut imposer le calcul d’explicabilité de ces algorithmes. Cela fait partie de la mise en place de bonnes pratiques de développement, de test et d’usage des algorithmes. On parle aussi de gouvernance algorithmique.

Contrairement à des idées reçues, ce n’est pas le volume de données (big data) qui est essentiel, mais la qualité des data et d’autres méthodes d’apprentissage (few shot). Mais comme vous dites, « cette étape de préparation est chronophage et fastidieuse ». Or, le discours marketing est plutôt « achetez ma solution clés en main, qui est facile à utiliser et qui est performante ! » D’où les risques de désillusions et de dérives ?

C’est plus subtil que cela. Nous avons besoin de modèles abstraits pour pouvoir résoudre des problèmes complexes. Cela étant dit, et ce que je défends dans le livre, c’est l’importance de mesurer le coût de la décision de faire plus gros – considérant l’efficacité apportée, mais aussi du coût énergétique -, ainsi que d’appliquer des méthodes de calcul d’explicabilité algorithmique qui permettent d’extraire, même en partie, la logique de fonctionnement de l’algorithme. Ce qui permet d’anticiper les erreurs, ainsi que les risques de discrimination technologique. Chaque cas est différent, utiliser des solutions clés en main peut fonctionner, difficile de faire des généralités. Cela étant dit, on peut tester soi-même les solutions clés en main pour justement extraire une partie de la logique, mettre en évidence des erreurs, et ne pas attendre qu’un utilisateur s’en aperçoive parfois à ses dépens.

Une digue capable de protéger le littoral et produire de l’électricité

Avec le changement climatique et la hausse du niveau de la mer, il est fort probable que le nombre de digues soit amené à augmenter dans les décennies à venir. Sur son site expérimental de Sainte-Anne du Portzic en rade de Brest, l’Ifremer va tester une nouvelle digue qui, en plus d’assurer sa fonction première de protection du littoral, produit de l’électricité. Ce concept, appelé Dikwe, a été mis au point par Geps Techno, une entreprise qui conçoit des solutions innovantes pour la récupération d’énergies marines, et le Groupe Legendre, spécialisé notamment dans les travaux publics. Après avoir été validé dans le bassin d’essais océanique de l’Ifremer à l’échelle 1/15, le développement de cette digue à énergie positive va se poursuivre durant 12 mois à l’échelle 1/4.

crédit photo : Groupe Legendre

L’installation se présente sous la forme d’une vaste chambre de 4 mètres de haut, 4 mètres de large et 6 mètres de profondeur. La largeur faisant face à la mer est équipée d’un volet qui oscille autour d’un axe horizontal à chaque fois qu’une vague vient le percuter. Et sur cet axe, vient se greffer un système de captation de l’énergie mécanique pour produire de l’électricité, via un mécanisme de conversion appelé PTO (Power Take Off).

Dans le passé, de nombreux dispositifs de captation de l’énergie des vagues ont été développés, mais un grand nombre n’a pas résisté aux tempêtes. Comparé aux systèmes à colonne d’eau oscillante, le concept Dikwe semble plus robuste selon Marc Le Boulluec, ingénieur en hydrodynamique à l’Ifremer. « Les colonnes d’eau oscillante se présentent sous la forme d’un grand tuyau en partie immergé, dans lequel les vagues compriment l’air présent dans la partie supérieure du tuyau et qui permet d’alimenter une turbine. La difficulté est qu’il est nécessaire d’utiliser des turbines spéciales capables de fonctionner avec un flux d’air oscillant. L’avantage du système Dikwe est qu’il est directement impacté par les vagues. L’un des enjeux de ce nouvel essai va être de tester sa résistance. »

Afin de faire face à l’énergie mécanique de la houle, le système comporte en plus une sorte de jupe qui démarre de la base du volet et remonte en arrière vers la partie supérieure de la digue. Son rôle est d’amortir l’énergie résiduelle des vagues non absorbée par le volet. À l’image d’une plage fortement inclinée, cette jupe permet aux vagues de venir y mourir.

Un rendement attendu d’environ 50 %

Le système sera tributaire de la marée. En Bretagne, le marnage, c’est-à-dire la différence de hauteur d’eau entre la marée haute et basse, est d’environ six mètres. Sur le site expérimental, les scientifiques ont calculé qu’à mi-marée, le volet de la digue sera hors d’eau ou les pieds dans l’eau, et qu’à marée haute, le système pourra être totalement immergé. Entre ces deux niveaux, il fonctionnera et devrait développer une puissance de l’ordre du kilowatt pour un rendement d’environ 50 %, mais à préciser au cours de cette expérimentation.

En plus de sa résistance, il est également prévu d’étudier l’effet de cette digue sur les éventuels transports sédimentaires dans le fond marin. « À l’intérieur du système, nous allons aussi observer s’il est colonisé par des algues ou des animaux qui ont trouvé là un nouvel habitacle, ajoute le chercheur. Des tests d’antifouling, c’est-à-dire de peintures spéciales capables de lutter contre la prolifération des algues, pourront aussi être menés. Il ne faudrait pas que le système soit encroûté et qu’au bout d’un an, il perde en efficacité. »

En fonction des résultats de cette expérimentation, des essais grandeur nature sur une digue déjà existante en Bretagne pourraient ensuite démarrer. Cette fois-ci, la puissance développée serait de l’ordre du mégawatt. Ces essais dureraient plusieurs années et pourraient amener ce concept à un degré de maturité technologique de 7 TRL (Technology Readiness Level) sur une échelle de 9. Une commercialisation de cette nouvelle digue à énergie positive pourrait ensuite voir le jour à l’horizon 2024.

Le monde se dirige toujours vers un réchauffement de +2,7°C

152 pays représentant 88 % des émissions mondiales de gaz à effet de serre ont pris des engagements de réduction de leurs émissions de gaz à effet de serre dans le cadre de l’Accord de Paris. Les engagements pris par 33 nouveaux pays depuis septembre et pendant la COP, dont le Brésil, l’Argentine, et l’Inde qui a annoncé la neutralité carbone pour 2070, ne changent malheureusement pas la donne.

Malgré les annonces, en route vers +2,7°C

C’est la conclusion faite par la dernière estimation du Programme des Nations unies pour l’environnement (PNUE) publiée ce mardi 8 novembre. Les nouveaux engagements pour 2030 ne représentent que 0,5 gigatonne d’équivalent CO2 d’émissions en moins en 2030.

Or, selon le PNUE, il faudrait trouver en plus 27 gigatonnes de réduction d’émissions pour limiter le réchauffement à +1,5°C. Le rapport annuel de référence du PNUE publié juste avant la conférence climat de Glasgow mettait en garde contre un réchauffement « catastrophique » de +2,7°C si tous les pays respectaient leurs engagements pour 2030. Cette projection reste inchangée avec de faibles nouveaux engagements pour 2030.

En ajoutant les objectifs de neutralité carbone pour le milieu du siècle, le PNUE prévoyait avant la COP26 un réchauffement de +2,2°C d’ici la fin du siècle. Avec les nouveaux engagements, notamment de la Chine et de l’Inde, l’amélioration est à peine de 0,1°C. Le PNUE évalue désormais au mieux le réchauffement climatique à +2,1°C d’ici la fin du siècle.

En plus, « étant donné le manque de transparence des promesses de neutralité carbone, l’absence de mécanisme pour en rendre compte et de système de vérification, et du fait que très peu des engagements pour 2030 mettent clairement les pays sur un chemin vers la neutralité carbone, parvenir à ces objectifs de neutralité carbone reste incertain », prévient le PNUE.

L’Agence internationale de l’Énergie (AIE) a publié pour sa part une prévision un peu plus optimiste. Elle prévoit la possibilité de limiter le réchauffement climatique à +1,8°C, à condition de respecter toutes les promesses de court terme et de neutralité carbone. Elle comptabilise des engagements transversaux, notamment celui du Global Methane Pledge. Le PNUE ne prend pas en compte ce type d’annonces transversales qui peuvent « se chevaucher » avec les engagements nationaux.

COP26 : réduire les émissions de méthane de 30% d’ici 2030

L’envoyé spécial chargé du climat John Kerry ouvrait mardi dernier le sommet de dirigeants au sujet du Global Methane Pledge. Cet engagement mondial vise la réduction de 30 % des émissions de méthane d’ici 2030 par rapport aux niveaux de 2020. Pour cela, les pays déploieront des actions dans les secteurs de l’agriculture, de l’énergie et des déchets. Depuis, une centaine de pays ont signé cet engagement, représentant 70 % de l’économie mondiale et près de la moitié des émissions anthropiques de méthane.

Une vingtaine d’acteurs privés s’engagent aux côtés de cette initiative pour un financement de 328 millions de dollars. « On peut y arriver » en conjuguant les efforts des politiques et du secteur privé, affirme John Kerry. En cas de succès, les signataires estiment que l’engagement permettrait de réduire le réchauffement d’au moins 0,2°C d’ici à 2050.

La présidente de la Commission européenne, Ursula Von der Leyen, rappelle que le méthane est largement plus problématique que le CO2 en termes de réchauffement climatique. Selon elle, ce gaz est « l’un de ceux que l’on peut réduire le plus vite. » « Ainsi, on pourrait éviter 200 000 décès » par an dans le monde, indique-t-elle. Les États-Unis, l’Union européenne et 103 pays (voir la liste complète) ont signé l’engagement. La Chine, la Russie, et l’Inde figurent parmi les absents.

Réduire les émissions de l’industrie pétrolière et gazière

Le président des États-Unis, Joe Biden, et la présidente de la Commission européenne, Ursula von der Leyen, avaient annoncé le Global Methane Pledge ensemble, le 17 septembre dernier. Or, l’industrie pétrolière et gazière représente 30 % du total des émissions de méthane des États-Unis. Pour respecter leur engagement, le pays prévoit donc de fixer des limites d’émissions, réduire les fuites de méthane sur les oléoducs et gazoducs et souhaite boucher des centaines de milliers de puits gaziers et pétroliers, dont beaucoup rejettent encore du méthane. Ces réglementations seront d’abord soumises à une période de débat public obligatoire avant une publication avant fin 2022.

Pour sa part, le Premier ministre canadien Justin Trudeau estime que le méthane est responsable de nombreux cas d’asthme du fait de la pollution qu’il engendre. Le Canada s’engage à réduire de 75 % les émissions de méthane liées à l’exploitation du pétrole et du gaz. « Nous nous engageons à réduire les émissions de méthane issues de l’agriculture et des sites d’enfouissement. C’est le moment d’agir pour des actions climatiques comme celles-ci. Vous pourrez toujours compter sur le Canada pour faire sa part », conclut Justin Trudeau.

L’Afrique, volontaire dans cet engagement

Le président de la République démocratique du Congo Denis Sassou-Nguesso indique pour sa part que l’engagement mondial pour réduire les émissions de méthane, responsable de 25 % du réchauffement climatique, est essentiel et répond aux attentes des populations mondiales. La République démocratique du Congo fera en sorte de réduire les émissions de méthane dans le secteur de l’énergie et de l’agriculture. « Le secteur des déchets sera neutre en émissions de gaz à effet de serre d’ici 2025 », annonce le président congolais.

« L’Afrique est à la fois l’un des plus faibles émetteurs de gaz à effet de serre de la planète et l’un des continents les plus vulnérables face aux effets du réchauffement climatique ». Il rappelle également qu’aucun accord international n’oblige l’Afrique à s’engager dans quelconque décision internationale. Ainsi, l’engagement africain traduit une volonté certaine d’agir. Le représentant congolais annonce aussi la volonté de s’engager dans une transition énergétique pour sortir de la dépendance aux énergies fossiles.

Les ONG pointent les grands oubliés de l’accord

Le think tank Ember relativise la portée de cet accord en soulignant que le méthane s’échappant des mines de charbon n’est pas pris en compte dans cet accord. Selon Ember, l’impact climatique à court terme du méthane émis par les mines de charbon est à lui seul plus important que l’ensemble des émissions de CO2 de l’Europe.

Nusa Urbancic, directrice des campagnes à la Changing Markets Foundation, souligne quant à elle que l’accord ignore « les plus gros pollueurs : l’industrie de la viande et des produits laitiers ». Il faudrait ainsi promouvoir selon elle des régimes alimentaires avec moins de viande et de produits laitiers, mais de meilleure qualité.

Un portefeuille blockchain pour être parfaitement identifié

L’idée d’une identité numérique européenne avance grâce aux initiatives de la Commission européenne, mais aussi d’acteurs privés. « Lorsqu’ils ont besoin de s’identifier officiellement, les citoyens de l’UE comptent non seulement sur un niveau élevé de sécurité, mais aussi sur la simplicité des procédures, que ce soit dans leurs relations avec une administration nationale, par exemple pour déposer une déclaration fiscale, ou pour s’inscrire dans une université européenne. Les portefeuilles européens d’identité numérique leur offrent une nouvelle possibilité de stocker et d’utiliser des données pour des services très variés, depuis l’enregistrement à l’aéroport jusqu’à la location d’une voiture », a affirmé dans un communiqué Thierry Breton, commissaire au marché intérieur.

Des identités numériques interopérables

C’est l’objectif d’un projet présenté par la Commission européenne de créer des identités numériques européennes interopérables. Elles seraient produites par les États membres de l’UE et liées aux identités numériques nationales. Implicitement, cela revient-il à constater que la Carte Nationale d’Identité Electronique (CNIE) qui est en cours de déploiement en Europe et en France n’offre pas autant de souplesse ?

Cet obstacle serait levé avec un portefeuille d’identité blockchain. Cette solution est déjà déployée pour assurer la traçabilité et renforcer l’authentification de documents. C’est la mission que s’est fixée Archipels qui propose depuis mars dernier une offre de certification d’informations liées aux individus et aux entreprises via la blockchain.

Pour les citoyens européens, la blockchain leur permettrait de conserver leur identité sur un appareil et de choisir avec qui ils souhaitent ou non partager un ou plusieurs documents. Ce portefeuille blockchain présenterait également des avantages pour les entreprises.

Permettant de conserver tous ses documents officiels (comme ses diplômes ou qualifications) en un seul endroit, il permettrait à un candidat à l’embauche d’apporter la preuve de ce qu’il indique dans son CV.

Une boîte à outils pour assurer l’interopérabilité

Il est donc crucial de veiller à l’interopérabilité des portefeuilles numériques. Des travaux sont déjà en cours pour y parvenir. Par exemple, EBSI, l’infrastructure européenne de services blockchain, a développé une bibliothèque de référence pour les portefeuilles. Les partenaires peuvent utiliser cette bibliothèque pour mettre en œuvre une architecture de porte-monnaie générique conforme à l’EBSI.

L’EBSI a également publié des recommandations invitant les États membres à convenir d’une « boîte à outils commune » pour l’architecture des portefeuilles. Cette boîte à outils est une étape importante, car elle constituera la base de l’architecture technique, ainsi que des directives et des normes de bonnes pratiques.

Une initiative indispensable pour que tous les États membres alignent leurs solutions afin de garantir leur interopérabilité.

Les coalitions anti-fossiles émergent à la COP26

Dimanche 31 octobre, les pays du G20 s’engageaient à ne plus subventionner les centrales au charbon à l’étranger d’ici fin 2021. Ils n’ont toutefois retenu aucune date claire pour sortir complètement du charbon ou des énergies fossiles. Alors, depuis le début de la COP26 à Glasgow le même jour, les annonces de nouvelles alliances s’enchaînent.

Une déclaration pour mettre fin au charbon d’ici 2040 au plus tard

Jeudi 4 novembre, la « Déclaration mondiale sur la transition du charbon vers l’énergie propre » était annoncée officiellement. Avec ce lancement, 190 membres et organisations (régions, entreprises, institutions financières…) dont 23 pays s’engagent dans la fin progressive du charbon et à ne plus financer de nouvelles centrales au charbon. Pour la première fois, la Pologne, le Vietnam et le Chili s’engagent à ne plus construire ou investir dans de nouvelles centrales au charbon. Pour les grandes économies ou les pays ne dépendant pas trop du charbon, l’engagement est pris pour 2030. Pour les autres, 2040.

Si cette déclaration constitue une réelle avancée dans le recul à venir du charbon, les plus grands consommateurs de charbon n’ont pas signé d’engagement. Parmi les grands absents : la Chine, l’Inde, l’Australie et les États-Unis. Rappelons que, peu avant la COP26, la Chine s’est toutefois engagée pour la neutralité carbone « d’ici 2060 », et que le Premier ministre indien a annoncé lundi 1er novembre la neutralité carbone de son pays pour 2070.

Une alliance pour aider l’Afrique du Sud dans sa sortie du charbon

La France, l’Allemagne, les États-Unis, le Royaume-Uni, et l’Union européenne vont en plus débloquer 8,5 milliards de dollars pour aider le pays à sortir du charbon. Et pour cause : l’Afrique du Sud dépend à 70 % du charbon pour sa production électrique. Le pays prévoit de réduire ses émissions de 28 % en 2030 par rapport à leur niveau de 2015 et d’atteindre la neutralité carbone en 2050.

Il s’agira des subventions, de prêts aux taux d’intérêt inférieurs à celui du marché, et d’investissements. Ce partenariat devrait permettre d’éviter jusqu’à 1,5 gigatonne d’émissions au cours des vingt prochaines années. « Nous espérons que ce partenariat à long terme pourra servir de modèle pertinent de soutien des pays développés aux pays en développement dans le domaine de l’action pour le climat, reconnaissant l’importance d’une transition juste vers une société sobre en carbone et résiliente face aux changements climatiques, qui favorise l’emploi et améliore les conditions de vie », a déclaré Cyril Ramaphosa, chef d’État de l’Afrique du Sud.

Jean-Yves Le Drian, ministre de l’Europe et des Affaires étrangères, se réjouit de la logique positive de cet accord : « L’accord avec l’Afrique du Sud est pour moi un élément de référence très intéressant. Voilà un pays qui a le courage de dire : ʺje veux engager sur le fond une politique de décarbonation de mon énergie mais je suis tellement dépendant qu’il faut m’aiderʺ et il trouve les partenaires nécessaires pour le faire. C’est assez exemplaire et cela pourrait servir de leçons pour d’autres ».

Une alliance contre le financement public des fossiles à l’international

En plus, au moins 19 pays ont signé jeudi 4 novembre un engagement à mettre fin au financement public des énergies fossiles à l’international d’ici 2022. La déclaration prévoit des exceptions uniquement pour les projets avec techniques de capture de carbone. Si la France ne prend pas part à cette alliance, les États-Unis, le Royaume-Uni et le Canada s’engagent. Les 19 pays promettent de réorienter cet argent vers des énergies renouvelables. Près de 18 milliards de dollars d’aides publiques par an pourraient ainsi se flécher vers la transition énergétique.

Cela fait suite aux annonces récentes de la Chine, du Japon et de la Corée du Sud visant à mettre fin au financement du charbon à l’étranger. Cela signifie désormais que tous les financements internationaux publics importants pour l’électricité au charbon ont effectivement pris fin.

« Cette annonce est un pas dans la bonne direction, mais elle doit être renforcée par un plus grand nombre de gouvernements et d’institutions financières publiques, y compris les banques multilatérales de développement, s’engageant à mettre fin au financement des combustibles fossiles », ajoute Tasneem Essop, directeur exécutif du Climate Action Network International. Mais il faut aller encore plus loin. En effet, selon l’Agence Internationale de l’Energie (AIE), il faudrait immédiatement cesser tout financement de nouveaux projets dans les énergies fossiles – publics et privés – pour espérer limiter le réchauffer climatique à 1,5°C.

L’authentification invisible : la technique pour protéger son identité numérique

AZERTY, 12345, le nom de mon animal de compagnie… Tous les ans, différentes études montrent que les mots de passe les plus utilisés sont très faciles à deviner et donc à pirater. Irrémédiablement, de nombreuses personnes sortent l’argument qu’elles considèrent comme imparable : « je n’ai rien à pirater ou à cacher ».

Toutes les personnes qui sont victimes d’usurpation d’identité ne partagent certainement pas cette affirmation. Un compte facile à pirater permet en effet de récupérer des données à caractère personnel pour usurper une identité afin de monter un dossier de crédit par exemple. Un compte facile à pirater permet aussi d’infiltrer le réseau informatique d’une entreprise pour voler des données sensibles.

Le mot de passe n’apporte pas suffisamment de sécurité sauf à avoir des mots de passe « forts » et administrés par un logiciel appelé gestionnaire de mot de passe. Cette pratique étant, hélas, pas assez répandue, Google a décidé de renforcer la confidentialité de vos comptes en imposant la double authentification.

La double authentification obligatoire

Le géant américain a expliqué que 150 millions d’utilisateurs seront automatiquement inscrits à la vérification en deux étapes d’ici la fin de 2021, ainsi que deux millions de Youtubeurs qui ont jusqu’au 1er novembre pour activer la fonction. « En plus des mots de passe, nous savons que le fait de disposer d’une deuxième forme d’authentification diminue considérablement les chances d’un attaquant d’obtenir l’accès à un compte », écrit Google sur son blog.

La double authentification implique donc une… seconde procédure afin de confirmer son identité numérique. En plus de son login et de son mot de passe, il est nécessaire de taper un code reçu par SMS ou email. Il est également possible d’utiliser des petites clés USB spécialisées dans la double authentification.

Avec ce système, le mot de passe reste encore incontournable ! Autre alternative qui se développe depuis quelques années, l’authentification par empreinte et plus récemment avec la reconnaissance du visage. Intégrée à de plus en plus de smartphones, elle évite de retaper son mot de passe pour s’identifier sur certains comptes.

Mais à plus ou moins long terme, on utilisera peut-être ce qu’on appelle l’authentification dite « invisible », car elle n’exige rien de l’utilisateur. Il existe deux options principales.

1- L’authentification biométrique comportementale

Cette méthode analyse les frappes au clavier, la dynamique de la souris ou même la façon dont une personne tient son téléphone. Un exemple simple de ce type d’authentification serait le suivant : si une personne ne tape pas aussi vite que d’habitude, le système ne parviendrait pas à l’authentifier. Une méthode qui remonte à la fin du XIXe siècle. Les opérateurs télégraphiques se reconnaissaient entre eux par la façon dont ils envoyaient des signaux de tirets et de points.

2- L’authentification contextuelle

C’est une approche innovante de l’authentification des utilisateurs fondée sur la création d’un profil unique pour chaque client. Elle peut inclure la géolocalisation, l’environnement informatique et la nature de la transaction tentée.

Mais la collecte de données biométriques comportementales est-elle compatible avec le respect de la vie privée ? Quelle que soit la solution d’authentification retenue, il est indispensable que ces données personnelles soient parfaitement sécurisées par le terminal lui-même ou le tiers qui les stocke.

L’expérience montre que ce genre de précautions n’est pas toujours assuré correctement et que cela entraîne des fuites de données massives

Étudier l’impact de l’ajout de biocarburants dans les carburants conventionnels

Pour réduire leur impact carbone, certains secteurs du transport, comme celui de l’aviation, vont difficilement pouvoir remplacer les moteurs thermiques (alimentés par des carburants fossiles) par de l’énergie électrique. La solution envisagée est alors l’utilisation de biocarburants issus de la biomasse. Or, ces carburants alternatifs sont réputés comme moins stables dans le temps. Un projet de recherche, baptisé Bioscope, vient de démarrer dans le but d’évaluer l’impact de l’ajout de biocarburants dans les carburants conventionnels.

Le premier objectif sera d’évaluer le degré d’oxydation des biocarburants au cours de leur vieillissement. Actuellement, la littérature scientifique s’est principalement attachée à observer ce phénomène sur les carburants conventionnels. Face à ce problème, les compagnies pétrolières ont pris l’habitude de rajouter des additifs à l’intérieur pour améliorer la stabilité à l’oxydation. Et lors de leur commercialisation, ces carburants sont garantis avec un temps d’utilisation limité d’environ 12 mois.

« Les biocarburants sont réputés comme ayant une résistance au vieillissement moins importante que les carburants conventionnels, explique Baptiste Sirjean, chargé de recherche CNRS au sein du LRGP (Laboratoire réactions et génie des procédés) et lauréat d’une bourse ERC (European Research Council) pour mener à bien le projet Bioscope. Lors d’un précédent travail de recherche, j’ai découvert qu’une famille de biocarburants améliorait la résistance des carburants conventionnels sur le plan de l’oxydation. Il s’agit de biocarburants de type alcools provenant de la fermentation de sucres issus par exemple du blé ou de la canne à sucre, pour ceux dits de première génération, ou de la biomasse non comestible comme le bois pour ceux de deuxième génération. C’est un résultat très surprenant, mais qui sera à confirmer au cours de ce nouveau projet de recherche. »

L’étude de l’oxydation des carburants est d’autant plus importante que ce phénomène peut provoquer d’importants problèmes dans les systèmes motorisés. Lorsque ce processus va jusqu’à son terme, il conduit en effet à la formation de dépôts ou de gommes qui vont alors encrasser les filtres, les pompes et jusqu’aux injecteurs des moteurs. Dans l’aviation, cette problématique peut entraîner de graves risques pour la sécurité des appareils. Dans ce secteur, les carburants sont en plus confrontés à une accélération du processus d’oxydation, car ils servent également à refroidir le moteur des avions, à l’image d’un liquide de refroidissement. Les carburants ont pour fonction de capter l’énergie dégagée par le moteur, et par conséquent se réchauffent jusqu’à environ 150 degrés. Autant à température ambiante, l’oxydation des carburants est un phénomène relativement lent, autant leur réchauffement va provoquer une accélération de ce processus. Actuellement, l’industrie aéronautique maîtrise bien cette problématique, car les carburants conventionnels utilisés sont des produits ultra-normés.

Retirer l’oxygène des biocarburants pour les utiliser dans l’aviation

« Lorsqu’on rajoute des biocarburants dans des carburants conventionnels, on ne sait plus très bien comment ce mélange évolue, poursuit le chercheur. Alors, avant d’en ajouter, le secteur de l’aviation procède à leur traitement pour retirer l’oxygène présent à l’intérieur afin qu’ils ressemblent à des carburants d’origine fossile d’un point de vue chimique. Bien sûr, ce traitement entraîne un surcoût sur le plan économique et n’est pas neutre non plus sur le plan des émissions de carbone. La biomasse est en effet traitée deux fois, la première lors de sa transformation en carburant et la seconde pour lui retirer son oxygène. Ces carburants sont appelés SAF pour Sustainable Aviation Fuel et sont actuellement ajoutés en toute petite quantité dans les carburants conventionnels. »

Le deuxième objectif du projet Bioscope va consister à étudier les différents polluants émis par les biocarburants lors de leur combustion. Tout comme l’oxydation, ces rejets vont dépendre de la famille à laquelle appartient le biocarburant. Il en existe principalement trois : les esters méthyliques d’acide gras (EMAG) obtenus à partir d’huiles végétales, les biocarburants de type alcools issus de la fermentation et enfin ceux de type éthers issus de la biomasse lignocellulosique. « En règle générale, l’ajout de biocarburants provoque une diminution des émissions de suie, mais peut entraîner l’apparition de nouveaux types de polluants comme de petits composés oxygénés, par exemple des aldéhydes, ajoute Baptiste Sirjean. Ceci s’explique par la présence d’oxygène dans ces carburants alternatifs, alors que les carburants conventionnels n’en contiennent pas. Même produits en faible quantité, ces composés oxygénés peuvent avoir un impact sur l’environnement. »

« Notre procédé biologique se révèle tout à fait compétitif face au pétrole »

Créée en 2012, Afyren a développé un procédé de fermentation anaérobie permettant de produire, à partir de biomasse, sept acides gras volatils aux applications multiples : nutrition humaine et animale, cosmétique, lubrifiants… Produits jusqu’alors à partir de pétrole, ces composés peuvent donc désormais l’être à partir de substrats tels que les coproduits de betteraves. Une matière première qui sera à la base de la première usine d’Afyren, construite en Moselle. Baptisée Neoxy, son démarrage est prévu pour le début de l’année prochaine. Jérémy Pessiot, fondateur de l’entreprise et aujourd’hui directeur général délégué, nous présente ce projet plus en détail, nous dévoile le fonctionnement du procédé fermentaire sur lequel il repose et revient, tout d’abord, sur les origines d’Afyren, dont l’introduction en bourse a eu lieu en septembre dernier.

Techniques de l’Ingénieur : Avant de présenter en détail la technologie que vous avez développée, pouvez-vous revenir sur les origines d’Afyren ?

Jérémy Pessiot, fondacteur et directeur général délégué d’Afyren

Jérémy Pessiot : La société a été créée en 2012 et a nécessité, au préalable, plusieurs années de R&D pour mettre en place la preuve de concept. Le point de départ a été l’Université Blaise-Pascal de Clermont-Ferrand, où j’ai fait mes études et mes stages. L’idée qui nous suit depuis les débuts est celle de valoriser des déchets, de donner de la valeur à des produits qui n’en ont pas, pour en faire de l’hydrogène par un procédé de fermentation anaérobie. Mais nous nous sommes rendu compte assez vite que faire de l’hydrogène seul allait être compliqué : comparée à la voie chimique, ou l’électrolyse qui se fait classiquement, la voie biologique n’allait pas permettre de tenir la route économiquement. Il fallait donc valoriser également un autre produit de notre procédé de fermentation : le carbone et plus précisément les acides gras volatils (AGV).

Quand on fait de l’hydrogène, on produit forcément, en parallèle, des AGV. Le problème est que les deux voies sont antagonistes. Nous cherchions donc, au départ, à retirer ces acides gras pour pouvoir produire de l’hydrogène. Mais au moment où nous nous sommes rendu compte que la valorisation de l’hydrogène n’allait pas suffire, nous avons décidé de changer notre fusil d’épaule, en valorisant uniquement les AGV. Et nous avons bien fait… Notre procédé biologique se révèle tout à fait compétitif sur le plan économique face au pétrole, matière première qui est aujourd’hui à la base, à plus de 99 %, de tous ces acides, par le biais de divers procédés. Nous avons quant à nous un seul process pour en produire sept. Là où il faut sept usines différentes en pétrochimie, une seule installation suffit avec notre procédé.

Après avoir pris conscience de tout cela en 2012, nous avons développé le procédé à l’échelle du laboratoire : entre un demi-litre et un litre de jus de fermentation. Ensuite, au fil des années, nous avons réalisé deux choses en parallèle : le parcours financier, mais aussi le scale-up à partir de 2014, c’est-à-dire passer de l’échelle du laboratoire au pilote, soit à une échelle de l’ordre du mètre cube. En 2016 nous avons triplé notre capacité fermentaire et avons notamment travaillé les aspects extraction et purification. L’année suivante, nous avons fait un grand pas en passant à l’échelle de 70 m³. On a donc validé le fonctionnement du procédé en cuve beaucoup, beaucoup plus grosse ; et cela nous a permis de lancer les études industrielles pour la construction d’une usine, mais également de produire des dizaines de kilos d’acides pour les faire valider à des clients. Depuis 2018-2019, nous avons donc pu sécuriser des ventes en vue de la construction d’une future usine…

Quelles sont les utilisations possibles de ces acides ?

Les acides que nous produisons ont des propriétés de conservation, que ce soit pour l’alimentation humaine ou la cosmétique. En nutrition animale, ils peuvent remplacer certains médicaments, notamment l’acide butyrique qui permet de réguler le transit et apporte un bien-être intestinal aux animaux. Il existe également des applications dans la chimie, pour produire des médicaments. Ils peuvent également entrer dans la composition de lubrifiants destinés, par exemple, aux véhicules électriques ou aux moteurs d’avions ; ou encore être utilisés comme arômes ou parfums, pour apporter un côté fruité, beurré… Ces acides ont donc déjà des marchés énormes, qui représentent 13 milliards d’euros pour l’ensemble de notre portefeuille ; mais il s’agit également de building blocks, ou molécules plateformes, qui peuvent être facilement dérivées par voie chimique en d’autres familles de produits. On va ainsi pouvoir toucher d’autres marchés et d’autres applications. On peut par exemple transformer l’acide acétique en acétate d’éthyle, qui est le solvant des vernis à ongles. Cela montre la diversité des marchés que l’on peut toucher et la valeur ajoutée que l’on peut avoir. Nous travaillons donc aujourd’hui, certes, sur les acides, mais également sur les dizaines de dérivés possibles, en vue de futurs projets industriels.

Comment le procédé fermentaire que vous avez développé fonctionne-t-il précisément ? Quels sont ses principaux intérêts ?

Notre technologie est à contre-courant de ce qui se fait classiquement dans le domaine des biotechnologies. D’habitude, c’est la stratégie du « triple un » qui est adoptée : on associe un substrat avec un microorganisme, pour faire un produit. Notre procédé repose quant à lui sur un cocktail de microorganismes naturels, qui permettent de produire sept acides gras volatils, de 2 à 6 carbones, de l’acide acétique jusqu’à l’acide hexanoïque. Le tout à partir de plusieurs substrats issus de déchets, contrairement aux biotech classiques qui se basent sur un seul substrat, généralement un sucre, comme du glucose ou du saccharose, et concurrencent ainsi les filières alimentaires humaines. Notre philosophie de base étant justement de ne pas concurrencer ces filières, nous nous sommes donc tournés vers les déchets ; en l’occurrence, de la biomasse lignocellulosique, dont les prix se révèlent, en plus, compétitifs.

Par ailleurs, dans les biotech classiques, le substrat simple, le sucre, est très souvent associé à un microorganisme génétiquement modifié. On va par exemple lui insérer un gène pour qu’il permette la synthèse du bon produit. Cela peut poser un problème éthique, que je ne juge pas personnellement, mais aussi et surtout financier : ces microorganismes sont beaucoup plus sensibles et le scale-up très délicat. Nous sommes donc vraiment partis de « l’inverse » de ce que font généralement les biotech : des déchets plutôt qu’un sucre ; plusieurs microorganismes naturels au lieu d’un seul organisme génétiquement modifié ; et non pas un, mais plusieurs produits.

Un autre point qui nous différencie est l’aspect anaérobie de la réaction. Souvent, les procédés des biotech sont réalisés en présence d’oxygène, dont la répartition homogène dans une très grande cuve n’est pas facile à obtenir techniquement. Cela peut donc aussi constituer un frein au scale-up. Quand nous avons commencé, beaucoup de biotech qui avaient vendu beaucoup de rêve et levé beaucoup de fonds se sont effondrées… Même s’il faut rester humble et prudent, je pense que nous devrions, quant à nous, réussir à marier écologie et économie grâce à notre technologie. Notre procédé permet en effet de diminuer de 80 % les émissions de gaz à effet de serre par kilo de produit par rapport au pétrole, comme l’ont montré des analyses de cycle de vie réalisées par des cabinets indépendants. Nous avons également une boucle en eau totalement fermée. Du process que nous avons imaginé pour notre future usine Neoxy, basé sur des coproduits de betterave, ne vont sortir que les acides purs à plus de 99 % et un engrais contenant les résidus de fermentation, qui va pouvoir revenir au sol et boucler ainsi la boucle de l’économie circulaire.

La construction de l’usine Afyren Neoxy, implantée en Moselle, devrait s’achever fin décembre pour une mise en service en début d’année prochaine.

Où en est, justement, ce projet d’usine que vous évoquez ?

Nous avons lancé le projet de l’usine Neoxy en 2018. Aujourd’hui, la fin de la construction approche : elle est prévue pour fin décembre. Le démarrage devrait avoir lieu début 2022, au plus tard au deuxième trimestre. L’objectif est de produire 16 000 tonnes d’acides par an, à partir de mélasses et de pulpes de betteraves. Cela représente un investissement de plus de 60 millions d’euros et plus de 60 personnes seront nécessaires pour faire tourner cette usine. L’installation est située sur la plateforme pétrochimique de Carling Saint-Avold, en Moselle, ce qui nous permettra d’y apporter un peu de « vert ». Nous avons également choisi cette implantation car elle se situe en pleine région betteravière ; nous pourrons donc nous approvisionner en matière première à 100 – 150 kilomètres de l’usine. Beaucoup de nos clients sont basés au Benelux, nous serons donc également bien placés en étant à 3 kilomètres de la frontière allemande.

Sur le chantier de l’usine Afyren Neoxy.

L’idée est de faire cette première usine en France, puis de dupliquer ce modèle à l’étranger. Nous avons testé des dizaines de substrats différents : maïs, pomme de terre, mais également déchets d’abattoirs et d’ordures ménagères. Tout ce qui peut fermenter peut entrer dans le procédé. La seule limite est économique et réglementaire.

Une chaussure de football entièrement recyclable et composée de matière recyclée

L’arrivée d’un tel produit pour début 2022 coïncide avec la création officielle de la filière REP « Articles de Sport et Loisirs » qui est prévue pour le 1er janvier prochain.

La chaussure Traxium Compressor (Crédit : DEMGY)

Bientôt une filière REP pour les articles de Sport et Loisirs

En France, une partie des déchets que nous produisons est gérée suivant le principe de pollueur-payeur, qui prend la forme d’une Responsabilité Elargie du Producteur, répartie en différentes filières, la plus connue et la plus ancienne étant la filière emballages, crée en 1993.

Jusqu’à présent, seules certaines catégories de déchets rentraient dans le cadre de ces filières REP. L’arrivée de la loi relative à la lutte contre le gaspillage et à l’économie circulaire du 10 février 2020 (loi AGEC) a changé la donne : ce sont pas moins de 10 nouvelles filières qui devraient voir le jour d’ici 2025.

C’est dans ce contexte que la REP « articles de Sport et Loisirs » (ASL) fera ainsi son apparition officielle au 1er janvier 2022, en même temps que les filières « Jouets » et « Articles de bricolage et de jardin », obligeant l’ensemble des acteurs économiques à s’organiser afin de favoriser le réemploi et le recyclage des articles de sport lorsqu’ils arrivent en fin de vie.

La recyclabilité des produits : l’un des principaux enjeux pour les industriels

C’est un fait, cela fait très peu de temps que la question de la recyclabilité entre en ligne de compte dans la fabrication des produits que nous utilisons au quotidien. Si le critère de recyclabilité est dorénavant une question centrale, concevoir des produits recyclables n’est pas aussi simple qu’il y paraît. En effet, pour qu’un produit soit recyclable, chaque composant qui le constitue doit être facilement séparable, afin de faciliter le tri et permettre la production de matière recyclée. D’autre part, beaucoup de polymères sont incompatibles, car ils ne sont pas miscibles.

Par conséquent, moins un produit contient de matériaux différents, plus il est facile à recycler !

Quand on sait qu’une chaussure de running peut contenir jusqu’à 70 matériaux différents, on comprend donc l’engouement pour de telles innovations.

Une chaussure fabriquée en une seule étape !

Dans un communiqué de presse, l’entreprise DEMGY, qui a développé cette chaussure pour Kipsta, la marque de football de Décathlon, explique avoir utilisé un procédé de mise en forme en une seule étape appelé NetShape.

Cette méthode de fabrication est en rupture avec ce qui se fait traditionnellement : alors que les chaussures sont habituellement fabriquées à partir de tissus 2D qui sont vernis, découpés puis mis à la forme du pied par collage sur une semelle injectée, la Traxium Compressor est fabriquée sans vissage, ni collage, ni couture.

Si ce n’est pas un monomatériau, nous sommes loin des 70 matériaux d’une chaussure de sport classique, puisqu’elle n’est composée que de deux types de matériaux, qui sont tous deux recyclables : une fibre base polyester d’une part et un thermoplastique composé en majorité de PU, d’autre part.

La mise sur le marché d’articles de sports éco-conçus semble donc en marche et Kipsta n’est pas la seule marque à proposer des chaussures recyclables. En effet, si le procédé utilisé par DEMGY est innovant, des marques comme Salomon ou Adidas se tournent également vers le polyester recyclé et le polyuréthane thermoplastique pour proposer de nouveaux produits.

Des chercheurs ont identifié un mécanisme responsable du faible rendement de cellules solaires organiques

En associant spectroscopie et modélisations numériques, les chercheurs ont réussi à mieux comprendre les mécanismes d’absorption de photons et de recombinaison qui s’opèrent dans les cellules organiques.

L’intérêt des cellules solaires organiques

Sur le papier, les propriétés des cellules solaires organiques sont plus qu’intéressantes. Produire des cellules solaires à la fois flexibles et semi-transparentes, de manière économique et avec un impact environnemental bien inférieur à celui des cellules inorganiques a de quoi faire rêver.

Néanmoins, à l’heure actuelle, si le rendement de telles cellules atteint rarement celui des cellules inorganiques (20 % à 25 %) en conditions de laboratoire, en conditions réelles d’utilisation le rendement ne dépasse pas 10 à 12 %.

Pour quelles raisons ? C’est justement ce que les chercheurs menés par l’Université de Cambridge ont tenté de comprendre.

Éviter l’état de triplet exciton

Les cellules solaires organiques fonctionnent en reproduisant partiellement le processus naturel de photosynthèse. Mais au lieu d’utiliser cette énergie pour convertir le CO2 en eau et en glucose, elles l’emploient pour générer de l’électricité.

Lorsqu’un photon rencontre la cellule, le rayonnement produit une excitation électronique, ce qui laisse un « trou » dans la structure électronique du matériau. Lorsqu’un électron excité se recombine avec un trou, il se forme une quasi-particule appelée exciton.

Néanmoins, il arrive que les électrons perdent leur énergie d’excitation, à travers un processus appelé « recombinaison ». Comme l’attraction électron-trou est plus forte dans les cellules organiques que dans les cellules au silicium, elles sont plus facilement sujettes à recombinaison, ce qui affecte leur rendement de manière défavorable. Pour contourner ce problème, il devient nécessaire de combiner deux matériaux qui jouent des rôles différents : celui de donneur d’électrons et celui d’accepteur d’électrons.

Dans le but d’améliorer le rendement des cellules organiques, cette équipe de chercheurs a voulu mieux comprendre les mécanismes d’absorption et de recombinaison. Pour y arriver, ils ont ainsi associé des moyens de laboratoire à des modélisations numériques.

Ceci leur a permis de découvrir que la recombinaison d’un type particulier d’exciton (le triplet exciton) était en grande partie responsable de cette baisse de rendement.

Prévenir la recombinaison par des interactions moléculaires fortes

Grâce à des modélisations numériques, les chercheurs ont ainsi découvert que la formation de triplets exciton dans les cellules organiques pouvait être évitée par la création d’interactions moléculaires fortes entre le matériau donneur et le matériau accepteur d’électrons.

Dans un communiqué de presse, le Dr Alexander Gillett du Cavendish Laboratory de Cambridge est enthousiaste : « Le fait que nous puissions utiliser les interactions entre les composants d’une cellule solaire pour éviter les pertes dues aux triplets excitons était vraiment une surprise ».

Puis il ajoute : « Notre méthode montre comment on peut manipuler les molécules pour empêcher la recombinaison. »

Les travaux publiés dans le journal Nature ouvriraient ainsi la voie à la conception de cellules solaires organiques présentant des rendements de conversion de puissance supérieurs à 20 %.

L’IA, une arme de dissuasion ?

En juillet dernier, le Commandement de la défense aérospatiale de l’Amérique du Nord (NORAD) et le Commandement du Nord des États-Unis (NORTHCOM) ont mené une troisième série de tests appelés Global Information Dominance Experiments (GIDE 3). La première et la seconde série de tests avaient eu lieu respectivement en décembre 2020 et en mars dernier.

Chaque test avait pour objectif de mesurer les performances de trois outils d’IA interconnectés appelés Cosmos, Lattice et Gaia. Le premier fournit une connaissance de la situation en temps réel pour n’importe quel emplacement géographique, à partir d’énormes volumes de données : images satellites, communication, rapports de renseignement, données de capteurs…

Les objectifs de l’expérience GIDE 2, avec notamment Lattice, étaient d’acquérir une compréhension et une image communes de la menace pour chacun des commandements et de mener une coordination des actions de réponse. Basé sur le cloud, Cosmos permet une collaboration stratégique entre différents commandements.

Le KGB et la STASI et les risques de guerre nucléaire

En travaillant conjointement, ces trois solutions reposant sur l’IA et le machine learning sont censées anticiper les actions des adversaires et éviter ainsi un conflit armé. Un objectif également retenu par le KGB dans les années 1980.

Quelques années avant la fin de la guerre froide, le principal service de renseignements de l’URSS et la STASI (ministère de la Sécurité de l’État de l’Allemagne de l’Est) s’étaient associés dans le cadre du « Projet RYaN ».

Il s’agissait de prédire le début d’une guerre nucléaire de six mois à un an à partir de différents indicateurs : emplacement physique des ogives nucléaires américaines, surveillance des ambassades américaines, déplacements imprévus de hauts fonctionnaires, exercices et alertes militaires, entretien programmé des armes…

Toutes ces informations avaient été introduites dans un modèle informatique pour « calculer et surveiller la corrélation des forces, y compris les facteurs militaires, économiques et psychologiques, afin d’attribuer des chiffres et des poids relatifs ». Les résultats de RYaN ont contribué à la paranoïa soviétique concernant une attaque nucléaire américaine imminente en 1983 et ont presque conduit les dirigeants soviétiques à déclencher une guerre nucléaire.

Mais, quel que soit le type de données analysées, prédire l’avenir avec certitude reste encore un défi pour l’IA. Les solutions basées sur l’IA sont toujours susceptibles de se comporter de manière inattendue. Et s’il est très difficile aux militaires d’expliquer la logique de « raisonnement » d’un algorithme qui annonce une action éminente, il sera certainement difficile aux hommes politiques d’être convaincus…

Tirer parti d’outils basés sur l’IA pour prendre de meilleures décisions est une chose, mais les utiliser pour prédire des actions adverses afin de les prévenir en est une autre. « Si vous ne pouvez pas expliquer quelque chose en termes simples, c’est que vous ne le comprenez pas », déclarait le physicien américain Richard Feynman…

Reconnaissance faciale : une solution qui peut être détournée pour frauder

Faudra-t-il montrer son meilleur profil pour être correctement identifié dans les prochaines années ? Le marché mondial de la reconnaissance faciale devrait en effet atteindre 12,92 milliards de dollars d’ici 2027, soit une croissance 14,8 % par rapport à 2020.

Le dernier rapport intitulé « Facial Recognition Market Size, Share, Covid-19 Impact Analysis and Regional Forecast, 2020-2027 » de Fortune Business Insights confirme que cette technologie est utilisée pour de nombreux usages et dans de nombreux secteurs. Les plus connus sont les systèmes d’identification déployés dans des aéroports.

Mais la pandémie a accéléré le recours à cette solution et de façon générale, aux outils de collecte de données biométriques (contrôles de température dans les aéroports, caméras thermiques dans les écoles…).

Un selfie pour des personnes en isolement Covid

En septembre dernier, l’Australie a étendu un programme utilisant la reconnaissance faciale pour faire respecter les mesures de sécurité liées au Covid-19. Les personnes mises en quarantaine sont soumises à des contrôles aléatoires, au cours desquels elles doivent envoyer un selfie pour confirmer qu’elles respectent les règles.

Outre-Atlantique, 24 États utilisent la reconnaissance faciale de la société ID.me afin de vérifier l’identité des personnes avant de leur verser leur allocation chômage. De nombreux gouverneurs fondent leur décision sur un rapport publié en 2021 par le National Institute of Standards and Technology (NIST) qui considère que la précision s’est considérablement améliorée et que les systèmes les plus précis commettaient moins d’erreurs fondées sur la race ou le sexe.

Ces États s’appuient également sur l’affirmation du PDG d’ID.me affirmant que sa technologie FaceMatch « opère avec une efficacité de 99,9 % ». Et la sentence est sans appel : au bout de trois échecs d’identification, l’allocataire potentiel est bloqué. Il peut toujours contacter le service d’aide de cette entreprise américaine, disponible au maximum en 30 minutes 24h/24 et 7j/7 d’après le PDG d’ID.me Blake Hall. Mais de nombreux messages de plaintes indiquent qu’il y aurait plusieurs semaines d’attente et de procédures.

Un simple maquillage pour leurrer la reconnaissance faciale

Des délais qui pourraient être dus à la multiplication des fraudes à l’identité. Cet été, ID.me a indiqué avoir recensé plus de 80 000 tentatives frauduleuses entre juin 2020 et janvier 2021 au sein des agences gouvernementales américaines pour lesquelles elle travaille.

Pour tromper ces systèmes, des pirates, mais aussi des hacktivistes et des fraudeurs ont recours à des deepfakes (images très réalistes générées par l’IA), portent des masques, utilisent des vidéos ou encore découpent des photos. Une étude récente menée à l’Université Ben Gourion a même constaté qu’il est possible de leurrer les systèmes de reconnaissance faciale avec du maquillage.

De son côté, Adversa, une start-up travaillant sur des mesures de sécurité appliquées pour l’intelligence artificielle, a démontré comment PimEyes.com, un moteur de recherche d’images publiques, a confondu un homme avec Elon Musk (patron de Tesla) sur une photo.

« Certaines technologies sont trop facilement détournées, et aucune réglementation ou évolution de la conception ne peut les empêcher de porter atteinte à nos droits. Nous pensons que c’est le cas des outils de surveillance qui permettent la collecte et le traitement à distance en masse de données biométriques, ainsi que la surveillance ciblée discriminatoire », avertit la Ligue des droits de l’Homme dans un appel pour l’interdiction mondiale du recours à la reconnaissance faciale.

Autant de raisons (outre la problématique du consentement explicite et préalable) qui ont certainement poussé Michel Cadot, le délégué interministériel aux Jeux olympiques et paralympiques de Paris 2024, à indiquer il y a quelques jours que la solution de la reconnaissance faciale était « écartée » concernant la sécurité de l’évènement.

Le meilleur de la tech #12

LEONARDO : un drone muni de jambes

LEONARDO (acronyme pour Legs OnboARD drOne) n’est pas comme les autres robots… Inspiré de la nature, et plus précisément des oiseaux, LEO est capable de marcher comme de voler. Cette plate-forme robotique de 2,58 kg et 75 cm de haut a été présentée par ses inventeurs le 6 octobre 2021 dans Science Robotics. Les ingénieurs du Caltech (California Institute of Technology) ont muni LEO d’un torse, d’un système de propulsion électrique, ainsi que de deux jambes multiarticulées. Aussi à l’aise au sol que dans les airs, le robot est capable de réaliser des manœuvres complexes, allant du skateboard à l’esquive d’obstacles.  LEO peut également se débrouiller seul, son ordinateur embarqué et sa myriade de capteurs lui accordant une certaine autonomie. Un bon point quand l’on sait ce que les ingénieurs ont en tête pour son avenir : remplacer les opérateurs humains dans des situations à risques, dans des lieux difficiles d’accès. Ainsi, l’inspection de lignes à haute tension ou la peinture des immeubles pourrait être reléguée à ces futurs assistants robotiques.

Les cyanobactéries trahies par leurs « empreintes digitales »

Les algues bleues vertes que sont les cyanobactéries ont évolué sur des millions d’années. En est ressortie une adaptation à divers climats… au détriment de la vie aquatique ! En effet, leur prolifération amène à une baisse importante d’oxygène et de luminosité dans les lacs, rivières et autres réservoirs. Et ce n’est pas tout ! Certaines de ces algues produisent des substances toxiques, qui peuvent nuire aux animaux comme aux humains. C’est pourquoi leur identification rapide est essentielle, de manière à prévenir du mieux possible leur prolifération future. Dans ce but, des chercheurs de l’Université de Birmingham et de l’Association Écossaise de Science Marine ont voulu différencier les espèces de cyanobactéries. Dans l’Analytical Chemistry du 17 octobre 2021, ils ont fait part de leur utilisation de la spectrométrie de masse native afin de repérer précisément les phycobiliprotéines – des pigments de la photosynthèse solubles dans l’eau. Or, ces protéines sont particulières à chaque cyanobactérie, à la façon des empreintes digitales chez les humains. Avec leur méthode, dix fois plus sensible que la précédente, les chercheurs espèrent détecter les algues toxiques avant même qu’elles ne commencent à proliférer !

Le bandage connecté, pour mieux cicatriser

Cachée sous le bandage, une blessure est difficile à surveiller. Pour vérifier la progression de la guérison, les soignants sont obligés de retirer le pansement, au risque de détériorer le tissu en reconstruction. Leur attention se porte alors sur la température ou bien l’acidité auxquelles est soumis ce dernier. Mais le paramètre qui les intéresse tout particulièrement est l’humidité. En effet, si l’exsudat de la blessure n’est pas suffisant, le tissu va se dessécher. Au contraire, une humidité trop importante va le laisser macérer. Et le meilleur moyen pour optimiser la cicatrisation reste de limiter le changement de bandage… Pour y parvenir, des chercheurs de l’Université de Bologne ont mis au point un bandage muni d’un capteur intégré. L’objectif ? Relever le niveau d’humidité avant de transmettre l’information à un smartphone. La méthode employée, décrite le 25 octobre 2021 dans Frontiers in Physics, se base sur un polymère conducteur – le PEDOT:PSS – inséré dans une gaze par sérigraphie. Cette même gaze est ensuite incorporée à un bandage du commerce, avec une puce servant à la communication sans fil avec le téléphone portable. Le signal électrique mesuré par le capteur changeant avec l’humidité, les soignants peuvent ainsi garder un œil sur la guérison de la blessure sans avoir à gêner le processus.

Un mois dans l’espace #22

Il y a deux jours, la Nasa annonçait avoir repoussé le retour sur Terre de l’équipage Crew-2, pour des raisons météorologiques. En effet, une capsule Crew Dragon devait initialement décoller le dimanche 31 octobre du Kennedy Center, avec à son bord quatre astronautes, : les Américains Raja Chari, Thomas Marshburn et Kayla Barron, ainsi que l’Allemand Matthias Maurer. Ces derniers remplaceront l’équipage de la mission Alpha.

Les membres de Crew-3, qui vont remplacer dans les jours qui viennent l’équipage actuellement à bord de l’ISS ©SpaceX

Le vol qui a donc été repoussé pour des raisons météorologiques au 3 novembre dans un premier temps, a ce matin fait l’objet d’un nouveau report, pour « un problème de santé mineur chez l’un des astronautes », comme annoncé par la Nasa.

L’agence américaine a également précisé que ce problème de santé rencontré par l’un des astronautes n’était pas une urgence médicale, et n’était pas lié au Covid-19. Le départ de Crew Dragon est donc annoncé pour samedi 5 novembre à 23h36 heure locale. Thomas Pesquet et ses trois collègues seront dans la navette qui repartira de l’ISS, à priori. En effet, la Nasa a laissé entendre une possible passation indirecte des commandes de la station spatiale internationale entre les équipages, ce qui reviendrait à dire que le Français, qui a pris les commandes de l’ISS le 4 octobre dernier, pourrait être amené à rester quelques jours supplémentaires à bord.

Que va-t-il se passer lorsque les quatre astronautes arriveront à bord de l’ISS ? Lorsque la capsule Crew Dragon s’arrimera à l’ISS, environ 22 heures après son décollage de Floride, le nouvel équipage pénétrera à bord de la station. Peu de temps après aura lieu la passation de pouvoir, entre Thomas Pesquet et le Russe Anton Chlaplerov, qui se trouve déjà à bord de l’ISS. Ce dernier est en orbite autour de la Terre depuis le 5 octobre dernier, en compagnie d’un réalisateur et d’une actrice russes, qui ont tourné le premier film dans l’espace.

A partir de là, la passation à proprement dite devrait durer quelques jours : en avril 2021, lorsque l’équipage du Crew-1 avait quitté l’ISS, 8 jours avaient été nécessaires pour effectuer cette passation.

Une fois que Thomas Pesquet et ses trois collègues astronautes auront embarqué à bord de Crew Dragon, la capsule de SpaceX, ils atterriront quelques heures plus tard au large de la Floride, dans l’une des sept zones prévues à cet effet. Des bateaux seront présents sur chacune de ces zones pour accueillir la capsule et aider l’équipage à s’extraire de Crew Dragon.

Ce retour sur Terre devrait, selon l’agence spatiale européenne, être plus technique pour l’équipage qu’un retour sur la terre ferme, qu’avait connu Thomas Pesquet en 2017.

Ensuite, direction Houston pour l’équipage qui subira une batterie de tests, qui permettront d’évaluer l’état de santé des astronautes et établir leur programme de ré-acclimatation aux conditions terrestres. Quelques jours plus tard, Thomas Pesquet prendra la direction du Centre Européen des Astronautes de Cologne en Allemagne pour trois semaines, avant de se voir octroyer une semaine de vacances, la première depuis très longtemps pour le Français, qui a dévoilé sur Twitter il y a deux jours avoir pris une seule journée « off » depuis son arrivée à bord de l’ISS.

Enfin, Thomas Pesquet retournera à Houston courant décembre, pour participer à de nouveaux tests : les médecins vont attentivement suivre l’évolution de son état de santé dans les mois qui viennent.

Et la suite ? Ce qui est certain, c’est que le Français ne mettra plus les pieds dans l’ISS. Âgé de 42 ans, il pourrait faire partie des heureux élus qui, grâce au programme Artemis, vont effectuer une mission en orbite lunaire, aujourd’hui prévue pour 2023, avant de reposer le pied sur la lune l’année suivante.

La mission Artemis prévoit d’installer une base lunaire, d’ici à 2024 ©Nasa

Par P.T

COP26 : entre désillusion, craintes et espoir

La COP26 prévue en novembre 2020 et reportée pour cause de pandémie s’est finalement bien ouverte le 31 octobre 2021. Elle devrait se tenir jusqu’au 12 novembre à Glasgow, en Écosse. Une centaine de chefs d’État sont attendus sous l’égide de l’ONU au cours des prochains jours. Deux grands absents sont à déplorer pour cette édition : le président russe Vladimir Poutine et le président chinois Xi Jinping.

Des engagements toujours insuffisants pour +2°C

L’objectif de l’Accord de Paris est de maintenir le réchauffement « bien en deçà » de +2°C en 2100, si possible à +1,5°C, par rapport à l’ère préindustrielle. Pour ce faire, chaque pays devait rendre sa feuille de route pour respecter ses engagements, matérialisés sous la forme de contributions dites « déterminées au niveau national » (CDN). La première série d’engagements fournie en 2015 était largement insuffisante. Les CDN des signataires plaçaient alors la planète sur une trajectoire de réchauffement entre +3°C et +4°C.

Depuis, la plupart des pays signataires ont revu leur copie. Malgré quelques progrès, l’objectif des + 2°C reste toujours hors de portée, celui des + 1,5°C encore plus. Selon la dernière évaluation de l’ONU, qui prend en compte les derniers engagements d’une majorité des pays signataires, le monde se dirige toujours vers un réchauffement « catastrophique » de +2,7°C à la fin du siècle.

Limiter le changement climatique à 1,5°C ?

L’urgence climatique et ses manifestations poussent finalement les dirigeants à s’orienter, au moins dans les paroles, vers l’objectif des +1,5°C. Mais avec les engagements actuels, les experts du GIEC ont mis en garde contre le risque d’atteindre un réchauffement de +1,5°C autour de 2030. Jugeant les progrès des dernières semaines insuffisants, António Guterres, secrétaire général des Nations unies, ne cesse d’alerter sur le risque de « catastrophe climatique » et en appelle au « sens des responsabilités » des gouvernements. « Quand je vois à quel point nous sommes loin de là où nous devrions être, je suis profondément inquiet », déclarait récemment le secrétaire général de l’ONU. Il évoque un « aller simple vers le désastre ».

En ouverture de la COP26 ce dimanche, son président Alok Sharma a estimé que l’événement était « le dernier et le meilleur espoir » de parvenir à limiter le réchauffement de la planète à +1,5°C. Antonio Guterres pointe la « responsabilité particulière » des pays du G20 qui représentent près de 80 % des émissions mondiales. Alors que la COP26 s’ouvrait à Glasgow, les pays du G20 envoyaient un signal positif à Rome. Dans son communiqué final, le G20 réaffirme l’objectif de l’Accord de Paris et reconnaît que « conserver 1,5 degré à portée nécessitera des actions et des engagements significatifs et efficaces de tous les pays ».

Des plans détaillés pour atteindre la neutralité carbone

De plus en plus de pays s’engagent pour la neutralité carbone d’ici 2050, quelques-uns pour 2060 ou 2045. Selon les Nations unies, plus de 130 pays se sont fixé ou envisagent d’atteindre la neutralité carbone d’ici le milieu du siècle. Au mieux, en prenant en compte ces promesses souvent « vagues » de neutralité carbone pour le milieu du siècle, le réchauffement de la planète pourrait s’établir à +2,2°C, estime l’ONU.

Mais pour cela, il faudra passer des promesses aux engagements formels sous la forme de contributions nationales mises à jour. 49 pays représentant 57 % des émissions mondiales, dont l’ensemble des membres de l’UE et les États-Unis, ont pris cet engagement de façon formelle, selon le dernier rapport du Programme des Nations unies pour l’environnement. Les derniers engagements de neutralité carbone viennent de l’Arabie saoudite et du royaume du Bahreïn qui ont annoncé la viser d’ici 2060, mais n’ont pas encore fourni leur plan détaillé.

100 milliards de dollars d’aide par an, pour quand ?

En 2009 à Copenhague, les pays développés se sont engagés à aider les pays en développement à hauteur de 100 milliards de dollars par an à partir de 2020 afin de s’adapter au changement climatique et favoriser les technologies bas carbone. Selon la dernière évaluation de l’OCDE fournie en septembre 2021, les financements climat ont atteint 79,6 milliards de dollars en 2019.

Les 20,4 milliards de dollars manquants sont pourtant « essentiels » pour le succès de la COP26, selon Alok Sharma. L’un des défis de la COP26 sera de montrer l’engagement des pays développés à respecter leur engagement. « L’objectif de 100 milliards de dollars est hors de portée en 2021 », admet toutefois le ministère français de la transition écologique.

Les COP sont aussi l’occasion de lancer de nouvelles alliances et coalitions ambitieuses. « J’espère qu’à la COP26, nous verrons de nouveaux engagements sur le charbon, les voitures, le méthane et la déforestation », déclarait Alok Sharma le 12 octobre au siège de l’Unesco à Paris. Les prochains jours seront ainsi décisifs pour l’avenir climatique.

Ecoutez notre podcast Cogitons Sciences : Les hard skills ne suffisent plus ! [Les ingénieurs se réinventent #1]

Quelles sont ces compétences sociales et sociétales demandées aux ingénieurs? Comment y former les futurs ingénieurs ? Et quelles sont les attentes de la nouvelle génération d’ingénieurs ?

Pour répondre à ces questions, nous recevons Laure Bertrand. Laure Bertrand est enseignante-chercheuse et directrice soft skills, développement durable et carrière au Pôle Léonard de Vinci. Ce pôle réunit une école de commerce (EMLV), une école du digital (IIM) et surtout l’école d’ingénieurs (ESILV).

(Crédit photo : pôle Léonard de Vinci.)

Vous pouvez l’écouter ici.

L’évolution de la société influe sur les attentes en termes de compétences [1:19] – [16:55]

Les soft skills et le développement durable font depuis quelques années partie de la formation de l’école d’ingénieurs ESILV. Selon Laure Bertrand, c’est une nécessité d’inculquer le plus tôt possible aux jeunes diplômés ces compétences sociales, humaines et relationnelles, et de modifier les cursus pour répondre aux enjeux de l’urgence climatique.

La demande émane à la fois des entreprises, des étudiants, de la société civile et des écoles. Les recruteurs notamment sont en demande des soft skills car les compétences scientifiques ne suffisent plus. Afin de préparer leurs programmes sur 5 ans, les écoles doivent être constamment en éveil et avoir un regard prospectif sur l’évolution du marché du travail et des attentes de la société.

Laure Bertrand constate d’ailleurs une évolution notable du côté des étudiants et étudiantes, qui souhaitent un management plus horizontal en entreprise, et qui cherchent à avoir un impact positif sur la société grâce à leur travail.

Les soft skills dans le travail des ingénieurs [16:55] – [27:38]

Laure Bertrand divise les soft skills en 2 sous-parties : les compétences intrapersonnelles (l’esprit critique, l’intelligence émotionnelle, la créativité etc.) et interpersonnelles (l’empathie, la capacité d’écoute, la coopération, l’intelligence collective etc.). « La bonne nouvelle c’est qu’on peut se former aux soft skills », ajoute-t-elle. Elle prend alors l’exemple de l’empathie et donne des méthodes pour la travailler.

Différentes soft skills sont utiles aux ingénieurs : le développement de l’intelligence émotionnelle, la créativité, la flexibilité et l’agilité, la coopération. Dans l’école où elle travaille, les étudiants et étudiantes ont aussi des cours pour trouver leur style de leadership afin d’embarquer une équipe, avoir de l’impact sur les autres, même sans autorité hiérarchique.

Acquérir les compétences personnelles [27:38] – [42:08]

Même sans passer par une école, plusieurs méthodes existent pour progresser et améliorer ses compétences. Première étape : faire un état de lieux pour comprendre les soft skills qui existent et faire le point sur ses atouts et ses points faibles. Ensuite, il est possible de faire des formations sur les sujets qui nous intéressent ou de suivre des Moocs.

Selon Laure Bertrand, les compétences soft permettent d’acquérir des aptitudes indispensables pour évoluer dans le monde professionnel, et notamment dans le contexte de la transition écologique. Parmi les compétences utiles, elle cite le développement de la pensée systémique, la capacité à coopérer dans un cadre interdisciplinaire, l’intelligence collective, la capacité au plaidoyer, le développement de l’esprit critique, la capacité à gérer et impulser le changement etc.

Elle rappelle d’ailleurs qu’agir pour la transition écologique ne se fait pas uniquement pas convictions. Certains peuvent s’y engager par pragmatisme car le monde évolue et les entreprises sont de plus en plus soumises à des restrictions et des cadres particuliers. D’où l’importance de développer ses compétences personnelles sur le sujet.

Ecoutez l’épisode !

 

Références citées :

  • CGE : conférence des grandes écoles
  • Le manifeste des étudiants pour un réveil écologique
  • C3D : Le collège des directeurs du développement durable
  • The Shift project
  • Youmatter
  • Greta Thunberg
  • VIA survey
  • Cartes de forces éditées par Positran
  • Questionnaire MBTI
  • DISC
  • Process communication
  • Performance

Ressources pour aller plus loin :

  • Rapports de The Shift project
  • La conférence des grandes écoles
  • Le manuel de la grande transition
  • La Contagion émotionnelle de Christophe Haag

Cogitons Sciences est un podcast produit par Techniques de l’Ingénieur.  Cet épisode a été réalisé par Alexandra Vépierre, en collaboration avec Intissar El Hajj Mohamed. Le générique a été réalisé par Pierre Ginon et le visuel du podcast a été créé par Camille Van Belle.

Imposer les riches pour réduire les émissions mondiales de CO2 ?

D’après les dernières données du World Inequality Lab (WIL), l’économiste Lucas Chancel calcule que les 1 % les plus riches du monde émettaient 17 % des gaz à effet de serre de la planète en 2019. Les 10 % les plus riches du monde émettaient près de 48 % des gaz à effet de serre, tandis que la moitié la plus pauvre de la population mondiale n’en émettait que 12 %. Ainsi, les 1 % les plus fortunés émettaient chacun 110 tonnes de CO2 en 2019, les 10 % les plus riches 31 tonnes contre seulement 1,6 tonne pour les 50 % les plus pauvres.

Les politiques climatiques pèsent pourtant le plus souvent sur les consommateurs à faible revenu et ne parviennent pas à diminuer les émissions des plus fortunés. L’étude propose donc de mettre davantage l’accent sur l’imposition des plus gros pollueurs riches. « Cela peut se faire via des instruments politiques ciblant les investissements dans les activités polluantes et fossiles, propose l’étude. Des impôts sur la fortune progressifs sur la propriété d’activités polluantes pourraient accélérer les désinvestissements, réduire les niveaux de pollution des plus riches et générer des ressources indispensables pour intensifier les investissements dans les infrastructures à faible émission de carbone. Enfin, la propriété et la vente d’actifs associés à de nouveaux projets fossiles devraient être interdites. »

Riche rimerait avec consommer et investir et donc polluer

« Depuis 1990, les émissions des 1 % les plus riches ont augmenté plus rapidement que celles de tout autre groupe en raison de la montée des inégalités économiques au sein des pays et en raison de la teneur en carbone de leurs investissements », relève l’étude. Ainsi, les émissions moyennes des 50 % les plus pauvres de la planète restent aujourd’hui environ quatre fois inférieures à la moyenne mondiale. Et le milliard d’individus les plus pauvres de la planète émet moins d’une tonne de CO2 par habitant et par an.

Il y a certes déjà des inégalités entre les pays. Ainsi, un Européen émet en moyenne 10 tonnes de CO2 équivalent par personne et par an. Pendant ce temps, un Américain du nord en émet environ 20 tonnes, un Chinois 8 tonnes, un asiatique du sud 2,6 tonnes et un Africain d’Afrique subsaharienne 1,6 tonne. Mais dans les pays riches, il y a désormais de vraies inégalités entre les populations les plus riches et les plus pauvres.

Dans de nombreux pays riches, les émissions par habitant de la moitié la plus pauvre de la population ont en effet diminué depuis 1990, contrairement à celles des groupes les plus riches. « Les niveaux d’émissions actuels de la moitié la plus pauvre de la population sont proches des objectifs climatiques par habitant pour 2030 aux États-Unis, au Royaume-Uni, en Allemagne ou en France, relève l’étude. Dans ces pays, les efforts politiques devraient donc être largement concentrés sur la réduction des niveaux d’émissions de la moitié supérieure de la population et en particulier des 10 % les plus riches ». De la même façon, dans les pays à faible revenu et émergents, les actions les plus urgentes devraient chercher à réduire les émissions des plus riches pour éviter qu’elles n’explosent également.