Le rapport de l’Etat sur l’environnement publié en 2019 indiquait que le secteur des transports était responsable d’environ un tiers des émissions de gaz à effet de serre. Les poids lourds, au milieu de tout cela, généraient 22 % de la pollution totale due aux transports, soit 30 Mt eq CO2. Aussi, le transport routier est un secteur fortement émetteur d’oxydes d’azote, un autre gaz à effet de serre très puissant.
Le transport routier de marchandises, loin devant les autres
Ces chiffres ne sont pas voués à évoluer à la baisse. Le principal concurrent du camion, le train, coûte trop cher à mettre en place et les autorités françaises ont décidé de ne pas faire du rail une priorité.
A partir de là, comment faire pour voir le transport routier réaliser sa propre transition énergétique, alors même que les habitudes des particuliers, dans le contexte actuel, vont vers toujours plus de commandes à distance, avec des délais de livraison toujours raccourcis ?
un objectif de réduction des émissions de CO2 de 15 %, fixé pour 2025, en tant que réduction relative sur la base des émissions de CO2 moyennes des véhicules utilitaires lourds nouvellement immatriculés pendant la période allant du 1er juillet 2019 au 30 juin 2020 ;
dès 2030, un objectif de réduction des émissions de CO2 fixé à – 30 %.
Un réexamen de ces dispositions est même prévu en 2022 pour potentiellement accélérer ce dispositif. Ensuite, le Green Deal européen a vu la France s’engager sur une ambition de neutralité carbone à l’horizon 2040. Cette volonté s’accompagnera de l’interdiction de tous les véhicules fonctionnant grâce à des énergies fossiles. Plus près de nous, les collectivités locales ont déjà commencé à mettre en place une régulation contraignante concernant l’accès des poids lourds dans leurs zones routières. Le but : favoriser un basculement progressif des flottes vers des motorisations à faibles émissions. L’entrée en vigueur de ces réglementations sera effective à Paris d’ici 2024.
Les innovations technologiques sur les poids lourds vont de l’automatisation de la conduite au développement de matériaux plus légers, en passant par la connectivité des véhicules, entre eux et avec les plateformes logistiques. L’objectif, encore une fois, est d’optimiser les flux de marchandises et des poids lourds sur les routes, notamment en permettant aux camions de circuler les uns derrière les autres (platooning), ce qui permet d’économiser 10% de carburant en moyenne.
Enfin, le développement de nouveaux carburants est probablement la solution la moins complexe à mettre en place sur le court terme. Plusieurs carburants innovants sont développés : carburant 100% végétal, ED95 (biocarburant), biogaz… un carburant à base d’eau est même à l’essai aux Pays-Bas.
Cette année encore, Techniques de l’Ingénieur a organisé son grand jeu-concours annuel, avec des lots privilégiant votre confort :
1er lot : un pack « télétravail everywhere », composé d’un ordinateur portable Huawei MateBook D14 (2020 – SSD 512 Go) d’une valeur max. de 600 € et d’un casque Jabra Evolve USB d’une valeur max. de 50 €, un module CerT.I. de votre choix d’une valeur de 270 € HT et un abonnement pendant un an à une ressource documentaire de votre choix dans le catalogue Techniques de l’Ingénieur (valeur max. 2 140 €).
2e lot : un smartphone durable Android Fairphone 4 d’une valeur max. de 579 €, un module CerT.I. de votre choix d’une valeur de 270 € HT et un abonnement pendant un an à une ressource documentaire de votre choix dans le catalogue Techniques de l’Ingénieur (valeur max. 2 140 €).
Du 3e au 5e lot : un siège de massage (dossier massant et chauffant) d’une valeur max. de 110 € et un module CerT.I. de votre choix d’une valeur de 270 € HT.
Du 6e au 10e lot : un sac mystère rempli d’objets Techniques de l’Ingénieur d’une valeur unitaire minimum de 10 € et un module CerT.I. de votre choix d’une valeur de 270 € HT.
Le tirage au sort des gagnants a été réalisé, ils vont être contactés ! Retrouvez-les ainsi que les résultats du quiz ici !
Les informations de ce concours se trouvent dans le règlement.
« La France a un potentiel ferroviaire de premier plan qui doit être sauvegardé et développé. C’est pourquoi pour la première fois tous les acteurs de la filière fret se sont mobilisés dans une alliance et travaillent main dans la main pour proposer un plan qui réponde aux grands enjeux environnementaux et sociétaux. » Cette phrase a été prononcée il y a à peine un an par Marc Tuffereau, coordinateur de 4F, l’alliance qui réunit les acteurs du fret ferroviaire en France. Créée en 2020, l’alliance 4F vise à redynamiser une filière en difficulté, et à s’adapter au contexte inédit depuis plus de deux ans. Le plan en question, adopté par le gouvernement, entend doubler la part du fret ferroviaire d’ici à 2030, avec trois objectifs :
Trois fois plus de transport combiné rail route et 50 % de plus de transports de fret conventionnels ;
Des trains longs (750 à 1 500 mètres) et lourds (jusqu’à 3 000 tonnes), transeuropéens et à haute productivité, sur des artères électrifiées et permettant le transport de semi-remorques ;
Des plateformes territoriales pour alimenter les trains européens, avec la réappropriation de leur potentiel ferroviaire par les Régions, les métropoles et les territoires.
Un secteur sous perfusion
Pour mener à bien ces missions, l’Etat a annoncé au mois de septembre dernier, par l’intermédiaire du Ministre des transports, Jean-Baptiste Djebbari, un plan de soutien pour le fret ferroviaire de 170 millions d’euros par an jusqu’en 2024. Le tout pour soutenir et relancer une filière sous-utilisée en France, malgré un réseau ferré très performant. Est-ce que cette enveloppe suffira à relancer une filière nationale en difficulté depuis plusieurs décennies – en 1984, le transport de marchandises par voie ferroviaire assurait 30 % du trafic, contre 9 % en 2018, avant la crise sanitaire – et qui n’arrive pas à s’imposer, alors qu’elle a de nombreux atouts ? Ainsi, le transport de marchandises par train est beaucoup moins polluant que son équivalent routier. D’ailleurs, la volonté de développer un modèle de fret mixant ferroviaire et routier est encore aujourd’hui la volonté de l’Etat, et aussi celle des citoyens qui ont exprimé cet avis à l’occasion de la convention citoyenne sur le climat.
L’objectif reste le transport combiné
Aujourd’hui, le fret ferroviaire ne représente que 9% du transport de marchandises en France. Il est pourtant neuf fois moins polluant que le fret routier, et six fois moins énergivore.
Alors pourquoi ? Les avantages écologiques de fret ferroviaires sont incontestables, l’Etat soutient la filière, et pourtant les lignes de fret continuent de fermer, comme la très symbolique ligne Perpignan-Rungis. Cette ligne historique, fermée car les trains circulaient à vide, a depuis repris son activité.
Le fret ferroviaire n’est pas compétitif économiquement aujourd’hui, et a absolument besoin des perfusions de l’Etat pour continuer son service : les convois de wagons ne sont pas assez longs, les wagons circulent parfois à vide, les incidents (pannes, arbre sur la voie, souci mécanique…) sont nombreux, qui plombent la compétitivité du secteur dans un secteur -la logistique- ultra concurrentiel. La volonté de l’Etat de développer les transport combinés, qui pourraient voir un conteneur être déchargé d’un navire pour être chargé sur un train, et in fine sur un camion implique que le fret ferroviaire puisse s’intégrer dans cette chaine logistique sans la ralentir. Aujourd’hui ce n’est pas le cas, alors même que l’Etat cherche désespérément des solutions pour diminuer le fret routier.
Selon les experts de l’alliance 4F, il faudrait 15 milliards d’euros pour réellement relancer la filière, et mettre en place, au niveau des infrastructures et du réseau, les solutions d’exploitation qui permettront de rattraper le retard français sur le fret ferroviaire, en termes de compétitivité.
Le prix par kilomètres du fret ferroviaire tricolore est 30% plus cher que chez nos voisins allemands. Concrètement, le réseau ferré français est exploité en premier lieu pour le transport de passagers. C’est cette dichotomie que l’Etat n’arrive pas à résoudre. Comment développer à la fois un service de transport de voyageurs et de marchandises sur un réseau commun en grande partie, et faire en sorte que ces deux services soient compétitifs ?
Michel Péry et Jean Zanuttini, anciens de la marine marchande, sont les co-fondateurs de Neoline. Convaincus que les enjeux climatiques vont devoir forcer les armateurs à développer de nouveaux types de propulsion plus neutres écologiquement, ils ont décidé de réfléchir à ces concepts de navires de transport de marchandise ayant comme source de propulsion principale le vent. C’est ainsi que l’entreprise Neoline est née. Si les premiers navires, qui vont bientôt entrer en construction, bénéficieront d’une assistance à la propulsion via un moteur diesel, la finalité de Neoline est bien de développer des bateaux zéro émission.
Jean Zanuttini, aujourd’hui président de Neoline, a expliqué à Techniques de l’Ingénieur les origines du projet Neoline, ainsi que les enjeux actuels autour du transport maritime, qui traversent une crise inédite depuis le début de la pandémie du Covid-19.
Techniques de l’Ingénieur : Comment a démarré l’aventure Neoline ?
Jean Zanuttini, Président de Neoline
Jean Zanuttini : La réflexion autour de ce qu’est aujourd’hui Neoline a débuté en 2011, impulsée par neuf personnes qui ont en commun une grande expérience dans le domaine de la marine marchande. C’est mon cas, puisque j’ai été marin de commerce, avant de migrer vers la conception, pour réaliser des études d’aménagements portuaires et d’ingénierie navale.
Ce qui nous a guidés dès le début, c’est la volonté de proposer une vision du navire du futur d’un point de vue pragmatique, tout en étant ambitieux au niveau des objectifs de l’outil, à savoir : un outil qui s’inscrit dans un standard logistique ; un service de transport efficace ; réaliser des économies de carburant très importantes par rapport aux pratiques actuelles.
Quels ont été les axes de travail pour développer des navires moins énergivores ?
Avec un point de vue d’armateur, nous avons la possibilité de toucher à tous les leviers possibles, en premier lieu la vitesse. En abaissant la vitesse commerciale, on réduit d’ores et déjà substantiellement la consommation de carburant. C’est sur cet axe là que Neoline s’est développé, d’abord de manière associative.
A partir de 2015, nous avons créé la société Neoline et depuis fin 2016 je me consacre exclusivement à ce projet. Nous sommes donc depuis lors sur une dynamique de constitution d’équipe, de levées de fonds, et aujourd’hui nous nous apprêtons à passer à la phase de construction de notre premier navire.
Notre objectif reste de développer des services de transport qui sont à la fois industriels, compétitifs, tout en visant le zéro émission. Au niveau industriel, nous utilisons les structures portuaires classiques, il s’agit donc pour nous de pouvoir nous intégrer dans ce qui existe à l’heure actuelle. Nos cargos transportent des frets classiques et des containers.
Pour ce qui est du zéro émission, nous n’y sommes pas encore, mais cela reste le but à atteindre, et c’est une donnée qui guide le développement de nos projets de navires.
Présentez-nous le premier navire que vous vous apprêtez à construire.
Le premier concept que nous avons développé est le Neoliner 136 mètres, qui est un navire roulier, ayant une capacité de 5500 tonnes et spécialisé dans le transport de frets hors gabarit. Cette dernière particularité lui offre une spécificité qui le distingue des navires classiques et lui donne une plus-value logistique propre.
Il sera équipé de 4200 mètres carrés de voile, avec un gréement voile souple. La surface vélique est considérable, surtout comparée aux autres projets qui existent dans le domaine. Étant donné que nous voulons faire de la voile notre mode de propulsion principal, nous sommes obligés de développer des surfaces véliques les plus grandes possible. Les navires seront également équipés de systèmes anti-dérive rétractables et rabattables, pour remonter au vent.
Pour nous, il y a un grand enjeu lié au tirant d’air [hauteur maximale des superstructures ou mâts d’un bateau, au-dessus de la ligne de flottaison, NDLR]. Il faut savoir qu’un des enjeux pour les navires comme le Neoliner 136 mètres est de pouvoir se rendre dans des ports plus petits, pour s’approcher au plus près des clients. Il faut donc que le navire soit en capacité de passer sous des ponts, ou d’évoluer dans des zones à faible tirant d’eau par exemple [le tirant d’eau correspond à la distance verticale entre la ligne de flottaison d’un navire et le point le plus bas de la coque, NDLR]. D’où le choix d’un gréement rabattable. Quand les mâts sont érigés, nous sommes à 67 mètres de tirant d’air, pour 41,5 mètres quand ils sont rabattus. Cela nous permet de passer sous les ponts quasiment partout.
En ce qui concerne le tirant d’eau, nous pouvons le réduire à 5,5 mètres pour l’entrée dans les ports, en relevant les systèmes anti-dérive. Cela nous donne une marge de manœuvre supplémentaire pour être en capacité d’entrer dans les ports plus petits.
En termes de vitesse de navigation, quels sont vos objectifs ?
La vitesse commerciale sur laquelle nous nous engageons est de 11 nœuds. C’est inférieur à ce qui se fait aujourd’hui sur les grandes lignes maritimes transatlantiques, mais cette vitesse nous permet d’aller chercher le vent, pour réduire autant que possible la consommation du navire.
Nous voulons pour le moment déployer deux navires sur une ligne transatlantique nécessitant un mois de navigation (pour une rotation aller-retour complète). Nous visons donc un départ de chaque port toutes les deux semaines.
Ces navires disposent d’une motorisation auxiliaire, pour les manœuvres portuaires et le manque de vent, qui se produit surtout en été. Cette motorisation hybride est basée sur un moteur diesel avec du gazole, qui permet au navire d’atteindre une vitesse de 14 nœuds. Cette réserve de puissance constitue une assurance pour les marins et leur donne la possibilité d’aller chercher le vent au maximum : c’est tout l’intérêt du bateau.
Comment cela se traduit-il en termes d’économies de carburant ?
L’économie de carburant sur laquelle nous tablons est de 80 à 90 %, en comparaison d’un navire conventionnel équivalent, et évoluant à une vitesse typique proche des 15 nœuds. Si on effectuait la comparaison avec un navire évoluant à la même vitesse, nous serions plus sur une économie de carburant de l’ordre de 70 %. Le vent apporte donc 70 % du besoin énergétique du navire.
Toute la réflexion autour de la taille des voiles se situe sur la proportion de propulsion vélique [utilisation de l’énergie du vent, produite sur la voile, pour faire avancer le navire, NDLR] que l’on veut pour son navire. Par exemple, les armateurs qui veulent équiper leurs navires existants d’une propulsion par le vent pour économiser du carburant vont pouvoir le faire, mais leur gain sera au maximum de l’ordre de 20% d’économies. Pour maximiser le rendement du bateau en termes de propulsion vélique, il est nécessaire que le bateau et son opération aient été pensés pour cela dès le départ. C’est aussi pour cela que nous avons fait le choix de nous engager sur une vitesse commerciale inférieure à ce qui existe aujourd’hui. Il s’agit d’être cohérent avec les caractéristiques des outils que nous développons et l’objectif de zéro émission que nous nous sommes fixés dès le départ.
Quelles sont les prochaines étapes pour Neoline ?
Dans un premier temps, il est important de démontrer que développer des liaisons commerciales opérées par des navires à propulsion vélique est possible. Notre choix de débuter par une liaison transatlantique par le nord, où le vent est relativement fort et constant toute l’année, doit nous permettre de montrer que notre ambition est une solution d’avenir. Se faisant, nous voulons montrer que le service que nous développons est fiable et constitue une réelle solution logistique.
La propulsion éolienne est-elle une solution pour les bateaux existants ?
Oui bien sûr. Dans le domaine maritime, il existe une diversité immense en ce qui concerne les innovations autour de l’énergie éolienne. Étant tous rassemblés au sein des mêmes associations, nous nous connaissons bien. La plupart des innovations qui sont mises en œuvre à l’heure actuelle concernent des bateaux existants, ce qui est normal, vu le nombre de navires opérant à l’heure actuelle. Ce segment de marché est en forte progression et répond à un enjeu fondamental aujourd’hui, celui de la décarbonation de la flotte existante.
Ensuite, il y a toute une panoplie de projets développés par des armateurs, qui incluent dans le mix énergétique de leur bateau une propulsion vélique. C’est sur la quantité de propulsion vélique au sein du mix énergétique que va se faire une différence importante. Les navires construits avec une propulsion vélique auxiliaire gardent des caractéristiques de vitesse et de capacité élevées qui correspondent aux standards actuels. Les armateurs qui choisissent de faire du vent leur mode de propulsion principal sont obligés de se baser sur des standards de vitesse et de capacité inférieurs, de par la nature même du navire développé.
La décarbonation du transport maritime est-elle une priorité pour vos clients ?
L’appétence sur le marché pour le type de service que nous développons est de plus en plus grande. C’est un phénomène intéressant, qui s’explique en partie par le contexte actuel. Aujourd’hui, le secteur du transport maritime rencontre de grandes difficultés, depuis le début de la crise sanitaire. Aussi, la situation sanitaire a obligé chacun à se faire livrer ses produits, et ces habitudes persistent. On est aujourd’hui dans une situation d’explosion de la demande, avec des dérèglements dus à la crise sanitaire qui ne permettent pas de répondre correctement à cette demande. Par conséquent, les prix explosent, sans forcément de garantie sur les délais de livraison. La situation est donc très tendue.
La massification des transports maritimes est aujourd’hui extrême, et permet de proposer des services très efficaces. Mais on oublie les impacts du dragage, de l’artificialisation des sols, des grues, des camions nécessaires pour gérer toute cette logistique… Notre proposition vient à contre-courant de cette tendance : nous développons des navires plus petits, plus lents, qui vont dans des ports plus locaux pour se rapprocher des clients et des usines.
Sur quels types d’offres serez-vous immédiatement concurrentiels ?
Pour le moment, nous sommes concurrentiels sur les offres hors-conteneurs. Nous restons plus chers sur les conteneurs, même si les choses sont en train d’évoluer. Notre offre est indépendante des facteurs qui plombent aujourd’hui le secteur, et cette résilience est un argument de vente très efficace auprès des clients. Cette situation aujourd’hui contextuelle entre en résonance avec un enjeu plus large, celui des engagements environnementaux des entreprises qui examinent aujourd’hui scrupuleusement les solutions pour décarboner leur activité. C’est une évolution que nous ressentons fortement.
Le parc électrique français d’énergie renouvelable – éolien, solaire, hydroélectricité et bioénergies – atteint une capacité installée de près de 59 gigawatts (GW) fin septembre. La hausse atteint 2 876 mégawatts (MW) sur les trois premiers trimestres de l’année 2021. Alors qu’il reste un trimestre à comptabiliser, le nombre de raccordements dépasse déjà le record de 2017, qui s’élevait à 2 757 MW. Et le rythme de développement devrait encore s’amplifier pour atteindre les objectifs de la Programmation pluriannuelle de l’énergie (PPE) pour 2023. « Le volume des projets en développement s’élève à 29 203 MW. Le volume des projets en développement a augmenté de 35 % sur une année », partagent les auteurs du 28e Panorama de l’électricité renouvelable.
Les énergies renouvelables ont couvert 26,6 % de la consommation d’électricité en France métropolitaine au cours du troisième trimestre, en hausse de 9,4 % par rapport au même trimestre de l’année dernière. Sur le trimestre, l’hydroélectricité couvre 13,1 % de la consommation électrique, l’éolien 6,4 % et l’énergie solaire 5 % et les bioénergies 2,1 %.
Accélération pour atteindre les objectifs 2023 de la PPE
Au troisième trimestre 2021, un solde net de 887 MW de nouvelles installations vient s’ajouter aux réseaux d’électricité métropolitains. La filière solaire ajoute 621 MW, l’éolien 279 MW. À la marge, les bioénergies ajoutent 3 MW et l’hydroélectricité recule de 16 MW.
Le parc renouvelable français se développe, poussé par la croissance du solaire et de l’éolien. (Copyright : Panorama de l’électricité renouvelable)
Fin septembre, le parc éolien atteint ainsi 18 487 MW, soit 76,6 % de l’objectif gouvernemental à atteindre fin 2023. Le parc solaire atteint pour sa part une puissance de 12 329 MW soit 60,6 % de l’objectif pour fin 2023. Le parc hydroélectrique perd 16 MW sur le trimestre, et atteint 25 498 MW en France métropolitaine, hors Corse. La programmation pluriannuelle de l’énergie vise dans ce périmètre un parc de 25 700 MW, objectif atteint à 99,2 %.
La production électrique d’origine photovoltaïque est en hausse de 9 % par rapport au même trimestre en 2020 et atteint 4,8 térawattheures (TWh). La production hydroélectrique est en hausse de 16 % et atteint 12,7 TWh. En revanche, la production d’origine éolienne baisse de 2 %, à 6,2 TWh.
Selon la start-up DiviGas, chaque année, 110 milliards de dollars d’hydrogène gazeux sont générés dans les raffineries, les usines chimiques et les usines d’engrais. Sur ce total, environ 15 %, représentant 16 milliards de dollars, sont perdus à cause du torchage. La membrane développée par DiviGas, pourrait recycler cet hydrogène gazeux auparavant non récupérable, rapportant à la raffinerie en moyenne 3 à 6 millions de dollars par an avec un retour sur investissement de 2 à 3. Entretien avec son PDG et cofondateur André Lorenceau.
Techniques de l’Ingénieur : Vous lancez une nouvelle membrane, présentée comme révolutionnaire pour purifier l’hydrogène. À quoi sert-elle ?
André Lorenceau. Crédit photo : DiviGas
André Lorenceau : Aujourd’hui, la quasi-totalité de l’hydrogène produit dans le monde – 73 millions de tonnes chaque année – l’est à partir de charbon ou de gaz naturel. Lors de cette production, on obtient environ 75 % d’hydrogène et 25 % de CO2. Cet hydrogène est majoritairement utilisé dans les raffineries pour fabriquer les carburants dérivés du pétrole et pour produire de l’ammoniac, des fertilisants ou des explosifs.
Avant d’utiliser l’hydrogène, il faut le purifier. Cela peut se faire soit par séparation chimique, un procédé assez toxique qui existe depuis 90 ans, soit avec des membranes. Ce second type de procédé est plus récent, mais les membranes ont généralement du mal à tolérer certaines molécules, particulièrement les acides, les hexanes et les sulfites. Ces molécules ont tendance à dégrader la structure polymérique des membranes. Il y a un autre problème : les molécules avec de grandes chaînes carbonées se condensent facilement et bouchent les filtres. Une solution serait de monter la température dans la membrane, mais les molécules ne tolèrent pas les températures au-delà de 50°C-60°C.
Qu’est-ce que votre membrane a de plus que les autres ?
Notre membrane est beaucoup plus résistante aux hautes températures et aux acides. Ce qui fait son efficacité, c’est sa structure, les matériaux utilisés et le procédé de fabrication. Elle résiste ainsi aux acides jusqu’à 150ºC, ce qui ouvre des possibilités dans les raffineries, mais aussi dans plusieurs industries nouvelles. C’est notamment le cas du stockage souterrain de l’hydrogène vert dans les nappes phréatiques et les mines de sel ou pour la gazéification de biomasse.
Comment fonctionne votre membrane ?
Notre membrane renferme des fibres polymères radicalement nouvelles. Chaque module est un tube contenant environ 300 km de fibres creuses polymériques. Si l’on veut s’imaginer ces fibres, on peut les comparer à des spaghettis pas cuits.
Crédit photo : DiviGasFibres contenues dans les membranes. Crédit photo : DiviGas
La membrane repose sur un processus mécanique. Le gaz est poussé à travers ces fibres. La pression mène à une séparation moléculaire de l’hydrogène. L’hydrogène pur sort à une pression légèrement inférieure à la pression initiale, les autres gaz à une pression identique. On obtient ainsi d’un côté l’hydrogène pur et de l’autre les autres gaz.
Exemple de membrane. Crédit photo : DiviGas
Où en êtes-vous de votre développement ?
Nous avons levé 3,5 millions de dollars pour fabriquer notre première usine pilote à Melbourne, en Australie. Elle devrait être opérationnelle en mars 2022 et nous pourrons livrer nos premiers produits en juillet 2022. Cette usine permettra de fabriquer 70 modules par an, c’est un début. En effet, les besoins dans cette industrie sont énormes. Certains de nos clients ont besoin de 5 à 30 modules par an, d’autres jusqu’à 5 000 unités.
Dès que notre usine pilote aura permis de montrer l’efficacité de notre membrane sur le terrain, nous ferons une nouvelle levée de fonds de quelques dizaines de millions de dollars pour construire plusieurs usines beaucoup plus grosses un peu partout dans le monde.
Votre prochain développement est une membrane à purifier le CO2, pour quel marché ?
D’ici 2023, nous espérons développer une membrane à purifier le CO2. Elle servirait à capter les émissions dans les centrales électriques au charbon et au gaz, dans les cimenteries et les aciéries.
Lorsqu’on utilise une membrane, l’avantage est que le CO2 garde sa pression, alors qu’il la perd avec la séparation chimique. Si l’on veut capturer et stocker le CO2, il faut donc forcément passer par une membrane, car re-pressuriser le CO2 est prohibitif économiquement.
Un système de captage et de stockage de CO2 comprend 4 étapes : la séparation, la compression, le transport et le stockage. Les étapes de séparation et compression représentent jusqu’à 75 % du coût du système. Avec une membrane, on pourrait aider à abaisser les coûts globaux des systèmes de captage et de stockage de CO2 et ainsi participer à développer ce secteur dans le cadre de la lutte contre le réchauffement climatique.
Il y a quelques semaines, la Commission européenne a proposé que l’USB-C devienne le port commun afin de permettre aux consommateurs de recharger leurs appareils avec le même type, quelle que soit la marque de l’appareil.
Si cet objectif est louable, car il évitera d’avoir autant de chargeurs que d’appareils mobiles, il ne résout pas le casse-tête du câble. Trop court, fragile, facilement perdu, le câble qui permet de recharger son smartphone et sa tablette n’est pas l’idéal.
La solution consisterait-elle à couper le « cordon ombilical » en s’appuyant sur la technologie baptisée « Cota Real Wireless Power » ? Brevetée par la société américaine Ossia, elle fonctionne de manière très similaire au Wi-Fi, sauf qu’au lieu d’envoyer des données, elle transmet de l’énergie radiofréquence sur environ 10 mètres.
Pratique pour disposer d’un smartphone rechargé facilement ou pour assurer de la maintenance industrielle grâce à des capteurs IoT (Internet of Things), ce dispositif a obtenu le feu vert de l’Europe début septembre 2021.
Les certifications obtenues confirment que le système Cota est conforme aux réglementations en matière de radio, d’émissions, d’immunité et de normes de sécurité RF (énergie radiofréquence) applicables en vertu de la directive européenne sur les équipements radio et du règlement britannique sur les équipements radio.
En plus de ces certifications, Ossia a également obtenu la conformité aux restrictions européennes sur les substances dangereuses dans les équipements électriques (RoHS-restrictions on hazardous substances in electrical equipment) et aux exigences de sécurité des produits
Des appareils rechargés simultanément
Cette solution repose sur deux petits modules. Premièrement, un récepteur de la taille d’une micropuce est intégré dans n’importe quel appareil. Il entame la « conversation » en envoyant un signal de balise pour trouver un émetteur. Il utilise les murs et les objets, mais pas les personnes ou les animaux domestiques, pour trouver un chemin vers l’émetteur.
Ce dernier renvoie alors de l’énergie en suivant exactement le même chemin (fréquence de 5,8 GHz). Cet « échange » entre l’appareil et l’émetteur se produit 100 fois par seconde, afin d’envoyer de l’énergie en toute sécurité aux appareils à distance tout en étant en mouvement. Tous les appareils compatibles avec Cota peuvent être alimentés simultanément.
Selon Ossia, un seul émetteur peut alimenter une pièce, un véhicule ou une salle frigorifique. À noter que, pour économiser l’énergie, l’émetteur n’envoie du courant que si un appareil doté d’un récepteur Cota se trouve à portée.
« Après de nombreuses recherches, nous sommes convaincus que la solution Cota d’Ossia est la meilleure de sa catégorie et la seule technologie capable de fonctionner de manière sûre et efficace pour les applications IoT. Ce partenariat est une étape importante pour l’électronique grand public, et les produits que nous avons prévu de lancer ne sont qu’un début », a expliqué Loïc Poirier, PDG d’Archos, dans un communiqué.
Selon Archos, les premières solutions commercialisées seront une caméra sans fil d’intérieur, une station surveillant la qualité et température de l’air et un Smart Tracker (clipsé sur le collier d’un animal de compagnie ou dans un sac, il sera automatiquement localisé et chargé durant quelques jours).
Aux États-Unis, cette solution a été retenue par des spécialistes de la logistique, afin de permettre aux opérateurs de repérer immédiatement la bonne remorque à décharger.
L’Union européenne prévoit la fin de la vente des véhicules thermiques en 2035. Une nouvelle étude de l’Association européenne des fournisseurs automobiles (CLEPA) commandée aux consultants de PwC Strategy& estime que cette décision entraînerait la disparition de 501 000 emplois chez les fournisseurs automobiles dans la production de composants entrant dans la fabrication des moteurs à combustion interne. 70 % de ces emplois seraient probablement perdus en cinq ans, entre 2030 et 2035.
« Alors que les constructeurs automobiles ont une plus grande capacité à céder ou à délocaliser des activités pour compenser une perte d’activité dans le domaine des groupes motopropulseurs, les équipementiers automobiles peuvent réagir avec beaucoup moins d’agilité, car ils sont liés par des contrats à long terme avec les constructeurs automobiles », rappelle l’association.
Limiter la perte d’emplois
L’électrification devrait toutefois créer de nouveaux emplois, notamment dans les logiciels, la fabrication et l’assemblage des éléments de batteries, selon cette étude. Cette reconversion réduirait la perte nette d’emplois à 275 000. Mais cela suppose la création d’une filière européenne compétitive de batteries. C’est ce que tente actuellement de faire la Commission européenne. Ces activités nouvelles ne seront pas forcément localisées dans les mêmes entreprises, ni les mêmes régions, met en garde le lobby basé à Bruxelles. Elles nécessitent en effet des compétences et une expertise très différentes de celles de la technologie conventionnelle.
Les usines de batteries sont ainsi peu susceptibles d’offrir des opportunités à la plupart des travailleurs des équipementiers automobiles, en particulier les petites et moyennes entreprises qui emploient environ 20 % du secteur. Des recherches précédemment menées par la CLEPA ont en effet montré que la production de batteries offre relativement plus d’emplois aux employés ayant une formation universitaire et moins aux ouvriers mécaniques.
Défendre l’hybride, l’hydrogène et les biocarburants
Le paquet Fit-for-55 ne considère que les normes d’émission de CO2 au pot d’échappement des véhicules. Il laisse de côté les émissions liées à la production de véhicules ou aux carburants qu’ils utilisent, y compris la façon dont l’électricité est produite. Pour encourager les technologies ayant l’empreinte carbone globale la plus faible, les émissions des véhicules devraient idéalement être réglementées sur la base du cycle de vie, avec une approche du puits à la roue, défend la CLEPA.
Cette approche prendrait en compte la production et la distribution du carburant et de l’électricité utilisée pour alimenter un véhicule. « Une approche technologique ouverte devrait inclure une électrification rapide avec une énergie propre et renouvelable, complétée par une technologie de combustion propre avec des carburants renouvelables durables, juge Sigrid de Vries, secrétaire générale de la CLEPA. Il y a plus d’options que le zéro émission à l’échappement. »
La CLEPA regroupe 3 000 entreprises qui emploient 5 millions de personnes. L’association souhaite donc compléter l’électrification avec toutes les solutions disponibles, à savoir les hybrides, l’hydrogène vert, mais aussi les « carburants renouvelables durables ». Le lobby estime qu’il serait ainsi possible de réduire de 50 % les émissions de CO2 d’ici 2030, tout en préservant les emplois.
L’agence internationale de l’énergie (AIE) publie son rapport annuel Énergies renouvelables 2021 – Analyse et prévisions à 2026. Malgré l’augmentation des coûts des principaux matériaux utilisés pour fabriquer des panneaux solaires et des éoliennes, les installations de nouvelles capacités d’énergie renouvelable devraient atteindre un nouveau record. L’AIE prévoit une hausse de 3 % par rapport à 2020, une année déjà record, pour atteindre 290 gigawatts (GW) en 2021. Cette année, le photovoltaïque compte pour 55 % des nouvelles capacités, suivi par l’éolien et l’hydroélectricité.
« Les prix élevés des matières premières et de l’énergie que nous constatons aujourd’hui posent de nouveaux défis pour l’industrie des énergies renouvelables, mais les prix élevés des combustibles fossiles rendent également les énergies renouvelables encore plus compétitives », analyse Fatih Birol, directeur exécutif de l’Agence internationale de l’énergie (AIE).
Une accélération encore insuffisante
Les déploiements d’énergies renouvelables s’accélèrent grâce aux politiques de transition énergétique. L’AIE estime que les capacités mondiales en électricité d’origine renouvelable devraient augmenter de plus de 60 % d’ici 2026 par rapport aux niveaux de 2020. Elles atteindraient alors plus de 4 800 GW, soit l’équivalent de la capacité électrique mondiale totale actuelle des combustibles fossiles et du nucléaire combinés. Les énergies renouvelables devraient ainsi représenter près de 95 % de l’augmentation de la capacité électrique mondiale d’ici 2026, le solaire photovoltaïque à lui seul en fournissant plus de la moitié.
Mais cela reste largement insuffisant pour atteindre la neutralité carbone au milieu du siècle. Dans son rapport, l’AIE estime qu’il faudrait installer presque le double de capacités électriques d’origine renouvelable d’ici 2026. Il faudrait en plus augmenter quatre fois plus rapidement la demande en biocarburants et tripler la demande de chaleur renouvelable.
Plus d’énergies renouvelables dans toutes les régions
D’ici 2026, les énergies renouvelables devraient croître à un rythme renforcé dans toutes les régions du monde par rapport à la période 2015-2020. La Chine, l’Inde, l’Europe et les États-Unis représentent ensemble 80 % de l’expansion des capacités renouvelables dans le monde, calcule l’AIE.
La Chine reste le leader mondial incontesté en termes de volume installé. Le pays devrait atteindre 1 200 GW de capacité totale éolienne et solaire en 2026, quatre ans plus tôt que son objectif fixé à 2030. L’Inde devrait pour sa part arriver en tête en termes de taux de croissance, doublant les nouvelles installations par rapport à 2015-2020. Le gouvernement a récemment annoncé vouloir atteindre 500 GW d’énergies renouvelables d’ici 2030.
Les déploiements en Europe et aux États-Unis sont également en passe de s’accélérer de manière significative par rapport aux cinq années précédentes. Aux États-Unis, la hausse des capacités d’énergie renouvelable pourrait atteindre 65 %.
La réduction de la consommation de carburant des navires de pêche est un enjeu majeur, non seulement pour réduire leur empreinte carbone, mais aussi pour maintenir les coûts d’exploitation des bateaux à un niveau acceptable. D’autant plus que le prix du gazole a fortement augmenté ces derniers mois, passant de 40 centimes d’euros en fin d’année 2020, à plus de 60 centimes aujourd’hui. Initié en 2019, le programme AMARREE (Accompagnement de MARins-pêcheurs pour la Réalisation d’Economies d’Energie), mené par la coopération maritime, offre la possibilité aux marins-pêcheurs d’obtenir un économètre afin de réduire leur consommation de carburant.
Crédit photo : Programme AMARREE
De plus en plus de bateaux de pêche sont équipés d’un afficheur de la consommation instantanée de carburant en litres par heure, branché sur le circuit d’alimentation du moteur du navire. Développé par MBM Électricité et Marinelec Technologies, deux entreprises finistériennes, l’économètre AMARREE se veut un outil analytique d’aide à la prise de décision pour une conduite plus économe. Il est constitué d’un automate Siemens qui récupère les données de consommation de carburant et se connecte aux GPS présents à bord pour acquérir la vitesse du bateau. « À partir de ces deux données, il va comparer la consommation réelle du navire avec une consommation idéale et théorique. Celle-ci est réalisée grâce à un calibrage du navire, au moment de l’installation de l’outil, lorsque le bateau est à vide, le moteur chaud et avec une météo calme. Cette opération nous permet d’obtenir la consommation la plus économe », explique Tifenn Brizé, responsable méthodes et industrialisation, chez Marinelec Technologies.
Crédit photo : Programme AMARREE
L’économètre dispose d’un écran de contrôle sur lequel s’affiche un graphique avec deux courbes et à partir duquel le marin-pêcheur peut ajuster la vitesse du navire afin de se rapprocher d’une consommation idéale. D’autres écrans de visualisation sont disponibles ; l’un d’eux propose notamment un scénario de navigation en fonction du prix du gazole et de la distance à parcourir. « Dans ce cas, le patron-pêcheur doit rentrer son prix du gazole, par exemple 60 centimes le litre, ajoute Gaëtan Vallet, chargé d’étude au sein du programme Amarrée. En fonction de la distance à parcourir pour rejoindre sa zone de pêche, l’économètre va lui proposer un indicateur avec plusieurs vitesses allant de 1 à 12 nœuds. Par exemple, pour une navigation de 9 nœuds, le navire va consommer 100 litres pour un coût de 60 euros ; en réduisant la vitesse d’un nœud, le temps de trajet va peut-être se rallonger de 15 minutes, mais permettra d’économiser 25 litres soit 15 euros. »
Crédit photo : Programme AMARREE
Des économies de carburant comprises entre 10 à 15 %
Le programme AMARREE est actuellement dans une phase de fin de déploiement de cet outil, avec à ce jour 174 économètres installés à bord des navires. Coût de l’équipement : 11 150 euros, comprenant le matériel et l’installation. Mais ce coût est entièrement pris en charge grâce aux Certificats d’Économie d’Énergie (CEE), un dispositif gouvernemental qui permet le financement de ce projet. Six économètres sont encore disponibles pour être installés.
Les premiers retours d’expérience des marins-pêcheurs sont positifs puisqu’ils affirment avoir réalisé des économies de carburant comprises entre 10 à 15 %. « Certains marins-pêcheurs se rendent compte qu’il est inutile d’être à plein régime, car le bateau n’avancera pas plus vite, mais consommera beaucoup plus, relate Tifenn Brizé. D’autres prennent conscience qu’il n’y a pas que le moteur destiné à la navigation qui consomme du carburant, mais que tous les équipements à bord, notamment le déclenchement d’une commande auxiliaire pour actionner un vérin, font grimper cette consommation. »
L’économètre est disponible en deux versions, l’une équipée d’un débitmètre pour mesurer la consommation de carburant et l’autre où il se raccorde directement aux données du moteur lorsque celui-ci mesure déjà ce paramètre. Les travaux de développement de cet équipement se poursuivent afin qu’il soit capable de s’interfacer sur tous les bateaux. « En 2022, nous souhaitons monter un protocole scientifique afin de quantifier exactement l’économie d’énergie réalisée grâce à cet économètre. En plus de cet outil, le programme Amarrée propose aussi des formations à l’écoconduite des navires et destinées aux marins-pêcheurs. Un observatoire économique du carburant a également été mis en place pour fournir des informations permettant de mieux comprendre la part du poste carburant dans le chiffre d’affaires des entreprises de pêche », conclut Gaëtan Vallet.
Pilier incontournable de la transition énergétique, le bois-énergie est en cours de développement, comme d’autres ressources qui seront mises en avant lors de la Semaine de la chaleur renouvelable.
Techniques de l’Ingénieur : Quels sont les avantages du bois-énergie ?
Mathieu Fleury, président du Comité interprofessionnel du bois-énergie. Crédits : Biocombustibles SA
Mathieu Fleury : Cette ressource énergétique a été historiquement et est toujours la première des énergies vertes en France (cf. encadré) comme le montre le panorama de la chaleur renouvelable réalisé chaque année par les professionnels du secteur. Le bois-énergie a l’avantage d’être assez bien réparti sur le territoire, il crée de l’emploi local et il est disponible sous différentes formes (bois-bûches, plaquettes forestières, broyats de recyclage, briquettes, granulés, etc.). Il peut être utilisé individuellement, de préférence avec des appareils performants labellisés Flamme verte, ou bien collectivement par des chaudières et des réseaux de chaleur urbains. Le développement de la biomasse solide fait partie de la stratégie nationale bas-carbone, avec l’objectif ambitieux que la chaleur renouvelable représente 38 % de la consommation finale de chaleur en 2030. Mais en 2020, on était à moins de 23 %, soit une augmentation de seulement 7 points par rapport à 2010. Le rythme doit s’accélérer si on veut tenir l’objectif.
Pourquoi cette difficulté à être en phase avec l’objectif ?
Depuis plusieurs années, le bois-énergie était concurrencé par le gaz fossile dont le prix était bas. Il n’était pas évident de convaincre les collectivités et les industriels d’engager des projets de chaufferies bois. Ils permettent pourtant de créer de gros volumes de chaleur renouvelable à un coût abordable grâce au soutien public du Fonds Chaleur de l’Ademe. De plus, ce sont des projets dont il faut sécuriser l’approvisionnement en bois sur le long terme, ce qui nécessite de bien structurer la filière amont de récolte, de préparation et de livraison de la biomasse. Le CIBE que je préside élabore un suivi des prix des différents types de bois-énergie. De toutes les ressources, c’est la moins chère, son prix est stable (même orienté à la baisse actuellement, ce qui est problématique) alors que toutes les autres énergies voient leurs prix augmenter ! La conjoncture actuelle nous est donc favorable et l’industrie, en particulier, identifie mieux l’intérêt du bois-énergie grâce aux nouveaux soutiens gouvernementaux pour la décarbonation.
Ces soutiens sont-ils durables ?
Dans le cadre du plan de Relance, et des appels à projets lancés par le Gouvernement pour décarboner l’industrie, on a une stimulation forte. Elle est nécessaire pour commencer à rattraper le retard des années précédentes, surtout si les collectivités actent aussi des projets. Encore faut-il ensuite qu’ils sortent bien de terre ! On a d’ailleurs besoin d’avoir accès au suivi des projets sélectionnés pour savoir quels territoires vont effectivement mobiliser de la biomasse. Sur le long terme, le Fonds Chaleur est néanmoins le meilleur outil de soutien public ; c’est pourquoi nous militons pour que sa dotation soit augmentée l’an prochain. L’accélération serait aussi plus forte si un nouvel appel à projets de cogénération biomasse était lancé.
Existe-t-il des freins à la multiplication des projets de bois-énergie ?
Il faut tout d’abord qu’on aide les exploitants forestiers à avoir la capacité (et la rémunération qui va avec) de collecter plus de bois dans des parcelles peu utilisées. Comme beaucoup d’entreprises, nous avons des soucis de recrutement, alors que de nombreux emplois attractifs sont recherchés dans la filière bois-énergie. Et il y a aussi une contrainte actuelle sur l’accès aux pièces de rechange pour la maintenance des machines. C’est ponctuel, mais cela nous fait réfléchir à s’orienter vers plus de réparation, ce qui aurait du sens dans le cadre de la transition écologique.
Huit grandes techniques de chaleur renouvelable
Le bois-énergie est la première des sources de chaleur renouvelable en France. Sur les 152,7 TWh produits en 2020, le bois domestique représente 49 % et les chaufferies au bois (collectif, industriel, tertiaire) 16 %. Le reste est assuré par sept autres solutions technologiques. Les pompes à chaleur aérothermiques sont les plus importantes en volume (22 %) avec 8,5 millions d’équipements installés. La géothermie de surface (plus de 206 000 pompes à chaleur) et la géothermie profonde (77 installations, principalement dans les bassins parisien et aquitain) cumulent 5 % de la production de chaleur renouvelable. Les unités de valorisation énergétique des déchets (4 %) et les gaz renouvelables (3 %) complètent le tableau, tandis que le solaire thermique ne compte que pour 1 %. Enfin, la valorisation de chaleur fatale commence tout juste d’être développée, mais son potentiel a été estimé à 118 TWh.
Approuvée le 30 novembre par les députés, cette proposition se présente comme l’équivalent du NutriScore. Retenu dans différents pays, ce système d’étiquetage nutritionnel à cinq niveaux est établi en fonction de la valeur nutritionnelle d’un produit alimentaire.
Présentée fin 2020 par le sénateur Laurent Lafon (UDI), cette proposition de loi pourrait donc déboucher sur l’apparition d’un CyberScore… le 1er octobre 2023. Il concernera les plateformes opérant sur le territoire et « dont l’activité dépasse un ou plusieurs seuils qui seront fixés par décret », donc des réseaux sociaux comme Facebook et Twitter.
Le grand public saura immédiatement si un site a mis en place différents processus de sécurité informatique afin d’assurer la protection des données et notamment celles à caractère personnel.
Pas une usine à gaz
À l’instar du NutriScore, l’affichage du résultat devra être présenté « de façon lisible, claire et compréhensible et accompagné d’une présentation ou d’une expression complémentaire, au moyen d’un système d’information coloriel ».
Pour l’instant, ce projet de loi ne détaille pas les critères d’évaluation pour établir le CyberScore (sous forme de certification) d’un site. Mené par des prestataires approuvés (liste pas encore connue) par l’Anssi (Agence nationale de la sécurité des systèmes d’information), l’audit portera évidemment sur la sécurité des données, leur localisation (dont le lieu du ou des datacenters…).
« L’objectif n’est pas de créer une usine à gaz ou un diagnostic long à monter, mais d’identifier quatre ou cinq critères qui permettent assez facilement d’identifier le risque encouru. Il va falloir jauger où on met le curseur avec un double objectif : la fiabilité et le pragmatisme », a précisé Laurent Lafon au site nextinpact.com.
« Comme le Digital Services Act et Digital Markets Act, l’objectif du CyberScore est d’inciter les grandes plates-formes à plus de transparence. Comme pour le NutriScore qui indique quand un pain au chocolat industriel est trop gras, ce classement pour la sécurité des données sensibilisera peut-être le grand public, mais aussi tous les professionnels aux risques qu’ils encourent. Tous ceux qui sont tenus au secret professionnel et qui utilisent Whatsapp ou Messenger pour échanger des informations sensibles ou à caractère personnel seront peut-être plus attentifs. Mais comme pour les campagnes qui informent sur les dangers de la cigarette, la prise de conscience et les changements d’habitude prendront du temps », explique Maître Christiane Féral-Schuhl, avocate spécialisée en droit des nouvelles technologies et en droit de la propriété intellectuelle.
Amende peu dissuasive
Le CyberScore entrant dans le champ d’application de l’article L.131-4 du code de la consommation, ce texte de loi prévoit une amende – prononcée par la DGCCRF (Direction générale de la Concurrence, de la Consommation et de la Répression des fraudes) – pouvant aller jusqu’à 375 000 euros.
Un montant qui apparaît comme dérisoire comparé aux chiffres d’affaires des GAFAM qui ont fortement progressé entre 2019 et 2020 : 182 milliards de dollars pour Alphabet (maison mère de Google) en 2020, 153 milliards pour Microsoft et 77 milliards pour Meta (ex-Facebook).
« La proposition de loi peut encore évoluer et, sur le principe, elle n’est pas choquante. Reste à préciser les modalités et le montant des sanctions, car 375 000 euros ce n‘est pas très dissuasif pour les grands acteurs du numérique qui sont ciblés », reconnaît Maître Christiane Féral-Schuhl.
Où travaillent les ingénieurs aujourd’hui ? Quels métiers évoluent ou disparaissent ? Comment le numérique et la transition énergétique impactent-ils le métier ?
Pour répondre à ces questions, nous recevons Marc Rumeau et Christine Quinola. Marc Rumeau est président d’IESF (Ingénieurs et Scientifiques de France), une association fondée en 1848 qui représente 175 des associations d’alumnis d’écoles d’ingénieurs en France. Il est ingénieur et a fait toute sa carrière dans des entreprises dans le domaine des automatismes, de l’électronique puis de la sécurité électronique et incendie. Christine Quinola est secrétaire générale d’IESF. Elle a été ingénieure dans la pétrochimie puis a fondé Calliroxe, son entreprise de formations en gestion de projet.
Panorama des ingénieurs en France [1:36] – [15:36]
Marc Rumeau commence par présenter IESF et notamment ses missions auprès des ingénieurs. Parmi celles-ci, encourager les collaborations transversales en créant une communauté d’ingénieurs et scientifiques, représenter la profession auprès des pouvoirs publics et promouvoir en France et à l’étranger la filière française d’études scientifiques.
Pour dresser un panorama de la profession, IESF réalise chaque année une enquête nationale via son Comité Observatoire des ingénieurs, pour laquelle sont interrogés environ 55 000 ingénieurs. L’enquête 2021 a révélé que les ingénieurs se trouvaient dans tous les secteurs et pas uniquement l’industrie, et que la part de femmes stagnait à 24 %. Géographiquement parlant, les ingénieurs français sont à 85 % sur le territoire français, mais beaucoup travaillent sur des projets à l’international.
Afin d’évoluer dans sa carrière, Christine Quinola met en avant la nécessité du réseau, notamment permis par des associations comme IESF. La fédération souhaite favoriser la force d’entraide entre les alumnis et accompagner les personnes qui veulent progresser dans leur métier. Marc Rumeau et Christine Quinola revendiquent l’importance de la curiosité dans ce métier, qui permet de se former tout le long de sa carrière.
L’évolution des métiers d’ingénieur [15:37] – [34:38]
Plus qu’une disparition de métiers, Marc Rumeau parle de leur évolution et de la nécessité d’un accompagnement dans ces bouleversements. Parmi les domaines émergents, l’hydrogène, mais aussi la data, même si Christine Quinola temporise et rappelle le besoin de traiter les données de manière intelligente. Cela nécessite de nouvelles compétences, d’où l’émergence de métiers comme data scientist.
La transition numérique a ainsi bouleversé les métiers, tout comme la transition énergétique. Pour le président d’IESF, il s’agit surtout de trouver des solutions pour le développement durable. Christine Quinola souhaite aussi mettre en avant le mix énergétique comme un secteur qui va fortement recruter. Elle partage alors son expérience : initialement réfractaire à travailler dans le domaine du pétrole, elle reconnaît finalement que ses valeurs écologiques personnelles lui ont justement permis de changer les choses dans ce milieu, notamment en s’assurant que les normes étaient respectées. Nos deux invités comptent sur les ingénieurs, scientifiques, doctorants français pour participer à la création d’un monde plus durable, mais ils regrettent que leurs compétences ne soient pas suffisamment exploitées.
Par ailleurs, d’autres spécialisations ne sont pas assez présentes en France. C’est le cas des experts techniques, tous domaines confondus, et des spécialistes en jumeau numérique. Marc Rumeau déplore notamment la pénurie de professeurs et la mauvaise gestion de la formation continue.
Cogitons Sciences est un podcast produit par Techniques de l’Ingénieur. Cet épisode a été réalisé par Alexandra Vépierre, en collaboration avec Intissar El Hajj Mohamed. Le générique a été réalisé par Pierre Ginon et le visuel du podcast a été créé par Camille Van Belle.
Et si demain, l’énergie des voitures électriques n’était plus stockée dans des batteries telles qu’on les connaît aujourd’hui, mais dans la structure même des véhicules, comme le plancher ou la carrosserie ? Ce changement de paradigme pourrait devenir une réalité et repose sur une nouvelle technologie, celle des batteries structurelles. Ces dernières ont la particularité d’être conçues à partir de matériaux dits multifonctionnels, capables à la fois de stocker de l’électricité tout en possédant une intégrité mécanique. L’intérêt est double : gagner en encombrement, mais surtout en poids, afin d’alléger les véhicules et donc augmenter leur autonomie. Au-delà des voitures, cette technologie pourrait intéresser toutes les applications de transport, allant des vélos électriques jusqu’aux avions de petite taille.
Ces batteries structurelles fonctionnent selon le même principe que les batteries électrochimiques au lithium, sauf que les matériaux utilisés ne sont pas les mêmes. Ici, elles peuvent par exemple être constituées de polymères renforcés par des fibres de carbone qui servent à la fois d’électrode et de renforcement structurel mécaniquement porteur. Plus précisément, les fibres de carbone sont noyées dans un matériau formant une matrice à l’image d’un composite. Plusieurs couches sont ainsi formées et empilées les unes sur les autres. « Cette configuration permet le transfert de charge entre les fibres ainsi que le transport des ions lithium, explique Gaël Guégan, ingénieur veille stratégique au Cetim, et auteur d’une note sur ce sujet. Ce qui n’est pas le cas des batteries standard qui sont constituées de matrices, par exemple en vinylester ou époxy sur des composites thermodurcissables. »
D’importants obstacles restent à surmonter avant de voir cette technologie sur le marché, notamment en matière de conception de ces matériaux multifonctionnels et d’industrialisation. Néanmoins, les perspectives sont très encourageantes. Ainsi, l’entreprise américaine Kitty Hawk a mis au point un petit avion électrique dénommé Cora, au gabarit proche de celui d’un taxi volant, et équipé de batteries structurelles dont l’énergie spécifique atteint 220 wattheures par kilogramme. « Pour développer le marché des voitures volantes, il est couramment admis qu’il faudrait atteindre 400 wattheures par kilogramme, complète l’ingénieur du Cetim. Cela signifie qu’il ne reste plus qu’un facteur de deux pour atteindre cet objectif. »
Le plancher de certaines voitures du constructeur Tesla stockera l’électricité
Tesla semble très avancé dans ce domaine puisque le constructeur de voitures électriques a annoncé que son modèle Y, construit dans sa gigafactory à Berlin, sera équipé de batteries structurelles, tout comme son modèle S Plaid. « Leur technologie a été annoncée il y a plusieurs années à travers des brevets, mais c’était tellement avant-gardiste qu’on s’est demandé comment ils allaient s’y prendre pour l’intégrer dans leurs voitures. Ils ont non seulement une longueur d’avance sur les aspects électriques, mais aussi en l’occurrence sur les systèmes de stockage. » Ces batteries structurelles devraient être intégrées dans le plancher des véhicules, à l’aide d’une presse hydraulique de 8 000 tonnes qui sera capable de fabriquer à terme ces planchers en une seule pièce. La firme automobile a annoncé que cette nouvelle technologie lui permettrait de multiplier par 5 l’énergie stockée, par 6 la puissance, et d’augmenter de 16 % l’autonomie du véhicule. « L’intérêt de cette technologie pour le secteur automobile est qu’en réduisant le poids de la voiture, vous pouvez massivement améliorer son autonomie, puisque retirer la moitié du poids du véhicule permet de doubler son autonomie, analyse Gaël Guégan. Ainsi, choisir un matériau qui stocke l’énergie nécessaire à la propulsion et sert également à supporter la charge mécanique de la voiture sera considéré comme un réel avantage. »
En Europe, plusieurs projets de développement de cette technologie sont menés, notamment celui baptisé SORCERER (Structural pOweR CompositEs foR futurE civil aiRcraft). Il réunit quatre universités européennes : l’Imperial College London au Royaume-Uni, l’IMDEA (Instituto Madrileño de Estudios Avanzados) en Espagne ainsi que le KTH (Kungliga Tekniska högskolan) et l’Université technologique de Chalmers en Suède. En plus d’améliorer les performances électriques et mécaniques de ces matériaux multifonctionnels, son objectif est de résoudre les problèmes liés à leur intégration et à leur mise à l’échelle. Les applications visées sont cette fois-ci à destination de futurs avions électriques et hybrides. À terme, il est question de construire un démonstrateur à vocation industrielle, en partenariat entre autres avec Airbus.
Le Centre Technique Industriel de la Plasturgie et des Composites (IPC) est un acteur de référence en innovation plastique et composite en France. Sa ligne de tests de recyclabilité à destination des emballages plastiques souples a été co-financée par l’Union européenne (fonds FEDER), par IPC en fonds propres et soutenue financièrement par la région Auvergne-Rhône-Alpes. Pour en apprendre plus sur les objectifs et le fonctionnement de ce projet, nous avons échangé avec Gilles Dennler et Jaime Rodrigues, respectivement directeur de la recherche et responsable du service Développement Matériaux chez IPC.
Techniques de l’Ingénieur : Le recyclage des emballages souples est associé à des enjeux forts. Quelle est la genèse de ce projet ?
Gilles Dennler, directeur de la recherche à IPC (Crédit : IPC)
Gilles Dennler : Ce projet a démarré en 2018, lorsque CITEO a sollicité IPC dans le cadre de l’extension des consignes de tri. Cette extension du tri à d’autres types d’emballages, notamment aux emballages souples, a fait émerger de nouvelles problématiques en matière de recyclage.
Bien qu’il existe déjà des lignes industrielles permettant le recyclage des emballages souples et multicouches en Europe – il y en a au moins deux en France –, la recyclabilité de nombreux emballages nécessite encore d’être évaluée. Plutôt que de le faire à grande échelle, IPC a proposé la création de cette ligne pilote.
Actuellement, l’extension des consignes de tri concerne environ 1 Français sur 2, l’enjeu étant pour CITEO de couvrir l’ensemble de la France d’ici les prochaines années. Établir des protocoles de recyclage pour chaque matériau est donc nécessaire pour assurer une meilleure valorisation matière en sortie de centre de tri.
Pourquoi distinguer un emballage souple d’un emballage rigide ? Quelles sont les différences ?
Jaime Rodrigues, responsable du service Développement Matériaux. (Crédit : IPC)
Jaime Rodrigues : Pour le moment, il n’existe pas vraiment de définition officielle d’un emballage souple. CITEO propose cependant de différencier les matériaux rigides des souples par leur capacité à être transportés plus ou moins loin au cours d’un essai de séparation balistique [les séparateurs balistiques permettent le tri de tous types de déchets, grâce notamment à des palettes de criblage ajustables, NDLR].
Avoir une définition claire est essentiel, car d’un point de vue technique, les emballages souples ne se comportent pas de la même manière lors du tri et du recyclage. Pour concevoir cette ligne, nous n’avons pas démarré de zéro, puisque nous possédions déjà des briques technologiques associées au recyclage des matériaux rigides (broyeurs, systèmes de régénération-filtration, etc.). Néanmoins, le recyclage des emballages souples nécessite des équipements spécifiques et donc des investissements, en particulier pour le broyage (les films souples ayant tendance à s’enrouler autour du rotor des broyeurs à couteaux classiques) et la densification.
D’un point de vue technique, comment fonctionne cette ligne ?
J.R : Cette ligne a été développée selon un protocole d’évaluation de la recyclabilité défini avec le COTREP [Le Comité Technique pour le Recyclage des Emballages Plastiques (COTREP) est l’organisme qui réunit Citeo, Elipso, Valorplast et SRP, NDLR]. Ce protocole décrit les moyens mis en œuvre, la manière d’utiliser les équipements ainsi que les différents essais qui doivent être conduits pour valider ou non la recyclabilité d’un nouvel emballage souple. Évaluer la recyclabilité consiste à vérifier qu’un nouveau matériau ne vienne pas perturber le recyclage d’un flux existant. Ce flux de référence a été validé par le COTREP : il s’agit d’un film en polyéthylène basse densité déjà recyclé.
En 2021, IPC a ainsi travaillé avec le COTREP sur la recyclabilité de 5 types d’emballages souples sur base PEBD [polyéthylène basse densité, NDLR], certains intégrant une barrière EVOH [pour Ethylene vinyl alcohol, NDLR], une pollution PP [polypropylène, NDLR] rigide et une barrière polyamide. Ces travaux continueront sur l’année 2022. Une partie des résultats a déjà été rendue publique et le COTREP a fait paraître deux avis généraux en septembre 2021.
Le protocole complet est résumé dans le synopsis ci-dessous :
En détail, le protocole de l’évaluation de la recyclabilité des plastiques souples. Crédit : IPC
Les industriels de l’emballage peuvent-ils utiliser cette ligne test de recyclage ?
J.R : Le COTREP a signé une convention avec IPC lui permettant d’utiliser cette ligne pour valider de nouvelles solutions de recyclage pour les emballages souples. En dehors de notre partenariat avec le COTREP, IPC propose également aux industriels de tester la recyclabilité de leurs emballages, par le biais de prestations. La force d’IPC c’est d’être multi-secteurs et nous avons l’habitude de travailler avec toutes sortes de matériaux plastiques et composites, y compris des matériaux très techniques comme le PEEK [le polyétheréthercétone, un thermoplastique semi-cristallin, NDLR], ou le polyamide.
Le but de cette ligne n’est pas d’innover, mais de proposer aux industriels qui souhaitent évaluer le recyclage de leurs matériaux souples un équipement qui ressemble aux lignes de recyclage existantes, sans nécessiter de gros volumes pour les essais. Selon leurs besoins, la recyclabilité peut ainsi être évaluée en suivant les protocoles validés par CITEO ou par les protocoles qu’ils nous auront fournis.
Pour caractériser au mieux les nanosystèmes, l’objectif est de suivre le mouvement interne des nanoparticules avec la meilleure résolution spatiale et temporelle possible. Actuellement, les marqueurs employés à cet effet sont soit des fluorophores, soit de puissants diffuseurs. Or, tous deux sont coûteux, potentiellement toxiques, et modifient par leur seule présence les propriétés intrinsèques de l’objet étudié. Pour y remédier, la physicienne Larissa Kohler du Karlsruher Institut für Technologie, en Allemagne, a développé un appareil microfluidique. Celui-ci, relié à une cavité fibreuse, permet d’échantillonner un fluide à raison de volumes ultra-faibles. Pourquoi un fluide ? Parce que la couche de liquide entourant les nanoparticules aide à leur détection en les rendant plus imposantes. De plus, l’outil décrit le 4 novembre 2021 dans Nature Communications a déjà relevé en trois dimensions le chemin parcouru par des nanosphères de dioxyde de silicium (SiO2), en s’intéressant aux changements de fréquence de dispersion à l’intérieur de la microcavité. Non marquées, les nanoparticules ont pu être repérées avec une résolution de 300 μs et 8 nm ! Un résultat permettant à la physicienne de déterminer le rayon hydrodynamique (l’épaisseur d’eau autour de la nanoparticule), la polarisabilité ou encore l’indice de réfraction. Ce travail pourrait mener à des études sans marqueurs de processus biologiques dynamiques, comme le repliement des protéines.
Une plongée dans les eaux souterraines
Les nappes phréatiques représentent une source d’eau douce cruciale pour des milliards de personnes. Or, cette ressource indispensable est fortement impactée par le changement climatique, la pollution et la surexploitation. Une première étape vers l’amélioration revient à localiser les étendues d’eau souterraine avant de surveiller leur usage de façon durable. Pour ce faire, la RMN (Résonance Magnétique Nucléaire) de surface est plébiscitée car non invasive. En produisant un champ magnétique, il est possible de relever son effet sur les atomes d’hydrogène des molécules d’eau. Toutefois, cette méthode est très sensible aux bruits parasites, avec une faible amplitude du signal reçu. Des chercheurs des Départements de Géoscience et d’Ingénierie Électrique et Informatique de l’Université d’Aarhus, au Danemark, ont donc établi une nouvelle technique s’appuyant sur les dernières avancées en matière de capacités de transmission et de modélisation numérique. Dans les Geophysical Research Letters du 10 novembre 2021, ils détaillent leur mesure effectuée sur des signaux produits par de longs trains de pulsation, eux-mêmes composés de pulsations répétées à l’identique. Ainsi, la magnitude est améliorée de plusieurs ordres de grandeur ! Un résultat qui promet des analyses précises dans des zones jusque-là inaccessibles.
Un capteur pour tout type de peau
Pour imaginer une main robotique capable par exemple d’attraper des objets, il faut un capteur de pression à la hauteur ! Autrement dit suffisamment sensible malgré son élasticité, nécessaire pour percevoir des interactions physiques sur des peaux déformables, qu’elles appartiennent à un être humain ou à une prothèse. C’est ce que se sont évertués à réaliser des chercheurs de la Pritzker School of Molecular Engineering, aux Etats-Unis. Ils ont présenté le 24 novembre 2021, dans Science Advances, leur capteur bi-couche. À l’extérieur, un élastomère est associé à une pâte de nanoparticules conductrices. À l’intérieur, des micropyramides forment une microstructure mécanique. Leur design permet à la fois une haute élasticité et une forte sensibilité à la pression, le tout sans altération. Sur près de 500 tests avec une déformation à 50 %, 98 % des mesures étaient correctes – avec une limite inférieure de pression calculable de 0,2 Pa. Les premiers essais se sont déjà montrés probants, avec la captation réussie d’un pouls au poignet.
Le 15 novembre dernier, des débris spatiaux ont été repérés dérivant en orbite, et ont obligé les locataires actuels de l’ISS à se prémunir d’une potentielle collision.
Très rapidement, le lendemain, Moscou a publié un communiqué revendiquant l’usage d’un missile antisatellite : « Le 15 novembre, le ministère russe de la Défense a mené avec succès un test à l’issue duquel l’engin spatial Tselina-D, en orbite depuis 1982 et inactif, a été détruit », résume laconiquement le communiqué.
Les débris étaient donc ceux du satellite russe détruit. À bord de l’ISS, les astronautes ont fini par se réfugier dans leurs vaisseaux, prêts à évacuer la station si besoin. Force est de constater que l’incident a été évité. Les autorités russes ont d’ailleurs rapidement évoqué un non-évènement, alors que les critiques s’accumulaient au niveau international. Le chef de la Nasa, les responsables américains, la Ministre des armées Florence Parly, Thomas Pesquet, le CNES, entre autres, ont exprimé leur stupéfaction, condamnant un acte inédit qui pourrait constituer le point de départ d’une militarisation de l’espace, que la communauté internationale veut éviter à tout prix.
La Russie a minimisé les critiques, évoquant un test réussi et arguant que les débris issus de la « pulvérisation » du satellite ne représentaient pas de danger réel.
Dans le passé, Les Etats-Unis (en 2008) et la Chine (en 2007) ont déjà procédé à la destruction d’objets en orbite. Les débris générés par la destruction du satellite chinois avaient d’ailleurs causé (et causent toujours) de nombreux problèmes en orbite. La destruction du satellite américain avait quant à elle généré plus de 400 débris, qui sont toujours en orbite.
Ainsi, au-delà des gesticulations diplomatiques, il apparaît évident que la communauté internationale va devoir établir des règles claires sur les pratiques en haute atmosphère. Car les tensions liées à ces sujets vont aller crescendo dans les années à venir.
Revivez le retour de Thomas Pesquet sur Terre
L’astronaute tricolore Thomas Pesquet a terminé sa mission à bord de l’ISS et a touché la Terre à 4h33 heure française, dans la nuit du 8 au 9 novembre. Voici, en trois minutes, les images de ce retour, du décrochage de la capsule amarrée à l’ISS au repêchage, au large de la Floride, de l’astronaute français et de l’équipage de la mission Alpha :
Si vous voulez revivre ce retour en temps réel, une vidéo publiée par SpaceX (d’une durée de 7 heures quand même…) revient point par point sur les différents aspects de cette mission, avec de nombreux focus sur les technologies développées par l’entreprise américaine, au niveau des combinaisons, de la capsule et de son fonctionnement…
Non content d’acheminer des astronautes vers l’ISS, SpaceX a également fait l’actualité le 22 novembre avec le lancement de la mission DART, conduite par la NASA. L‘objectif de la mission, à savoir évaluer notre capacité à détourner un astéroïde de sa trajectoire, consistera à faire s’écraser un satellite sur la lune de l’astéroïde Didymos, et d’évaluer l’impact de cette collision sur la trajectoire de l’astéroïde.
On a tendance à dire « GPS » pour parler des systèmes de navigation. Mais il ne faut pas oublier que derrière cette appellation se cache en réalité plusieurs constellations de satellites permettant le bon fonctionnement de la géolocalisation, dont l’historique GPS américain. A lui s’est ajouté le russe Glonass, le chinois Beidou (ex-Compass), ou encore l’européen Galileo. Ce dernier est opérationnel – mais toujours en cours de déploiement – depuis 2016. Pour savoir où en est son déploiement, ses applications mais également ses futurs développements, nous avons échangé avec Jean Maréchal, responsable du programme Navigation et localisation au Centre national d’études spatiales (CNES).
Techniques de l’Ingénieur : Où en est le développement de Galileo ?
Jean Maréchal : Le déploiement de Galileo touche à sa fin. Un prochain lancement est prévu le 2 décembre 2021, puis encore deux en 2022. Chaque lancement comprend 2 satellites. Avec ces trois lancements, la constellation passera à 24 satellites nominaux et 4 satellites redondants en orbite. Ces derniers satellites, en finalisant la constellation, permettront de terminer le déploiement du service ouvert public et gratuit fin 2022. Nous sommes déjà très près du but et ce sera transparent pour l’utilisateur…
En parallèle de la constellation, le système déployé au sol est lui aussi mis à jour pour apporter plus de robustesse afin de garantir la disponibilité du service. Il est composé d’un réseau mondial de 16 stations, de 2 centres de contrôle en Italie et en Allemagne, et de 2 centres de sécurité en France et en Espagne. Dans un système de navigation comme Galileo, la contribution du segment sol est essentielle pour la performance finale : c’est lui qui synchronise tous les satellites entre eux et calcule leur orbite à 25 cm près, quasiment en temps réel.
Les systèmes de navigation embarqués ont-ils dû s’adapter à Galileo ?
Oui, il faut que la puce GNSS (pour Global Navigation Satellite System) – historiquement la puce GPS – soit compatible et devienne multi-constellations. Galileo nécessite un certain nombre de traitements spécifiques des signaux, qui diffèrent des autres systèmes car ils ne sont pas codés de la même façon. Les signaux Galileo sont un peu plus performants et sont transmis sur plusieurs fréquences, certaines spécifiques à Galileo et qu’il faut décoder si on veut profiter au maximum de la performance du système.
Les signaux Galileo sont interopérables avec les signaux GPS et les autres constellations. Ils partagent en particulier deux fréquences (L1-E1/L5-E5a) et se mélangent. Mais pour les mélanger, il y a des processus mathématiques spécifiques. La différenciation des signaux se fait ensuite grâce à l’accès par identification de code. Plus simplement : le récepteur va chercher le signal de chaque satellite parmi tous les autres en appliquant une sorte de filtre qui utilise le code du satellite. Avec les quatre constellations, jusqu’à une trentaine de satellites peut être suivie en parallèle par un récepteur quand le ciel est dégagé.
Et si la puce n’est pas faite pour décoder Galileo, on ne peut pas simplement la mettre à jour. Il faut la changer. Mais aujourd’hui, les fabricants de récepteur satellite intègrent tous Galileo. N’importe quel téléphone de haute ou moyenne gamme reçoit les signaux des quatre constellations (GPS, Galileo, Glonass, Beidou) qui sont devenues des standards.
Quels sont les futurs développements ?
Parmi les futurs services Galileo prévus dans les années à venir, il y aura un service pour les usages critiques : l’authentification qu’on appelle aussi OS-NMA, pour Open Service Navigation Message Authentication. On aura dans le message Galileo une sorte de sceau qui prouvera qu’on n’est pas en train d’écouter un faux signal mais bien Galileo. Une certification utile pour les usages légaux et se protéger du « leurrage ». Par exemple, le service sera intégré dans les futurs tachygraphes digitaux qui font l’objet d’un règlement européen, à bord des camions. Ils devront utiliser au moins Galileo ainsi que sa fonction d’authentification dès qu’elle sera disponible. Ce service permet de prouver que le camion a roulé à une certaine vitesse et un certain moment. Et pour éviter la triche sur ces informations, on les authentifiera avec les signaux Galileo. Ce que le GPS n’offre pas. Des tests sont en cours, le service sera disponible en 2023.
Un autre développement est le positionnement précis, que l’on nomme HAS pour High Accuracy Service et qui sera gratuit. Aujourd’hui nous sommes à un mètre, mais pour le véhicule autonome, la précision visée est de 20 cm, voire moins. Cette précision permet de localiser un véhicule dans sa voie, par exemple. Les travaux sont en cours, la fonction devrait arriver en 2023-24. Cette fonction pourrait venir compléter les moyens de navigation d’un véhicule quasi autonome sur une portion d’autoroute par exemple. Aujourd’hui les capteurs utilisés par les véhicules quasi autonomes sont principalement les caméras et le radar. La navigation par satellite viendra s’hybrider avec ces capteurs pour apporter des informations de position fiables et absolues, c’est-à-dire calculées directement par rapport à une carte.
Et pour finir, nous sommes en train de préparer la deuxième génération de satellites. Deux gros contrats ont été signés cette année avec Airbus et Thalès. Ces nouveaux satellites, trois fois plus gros et beaucoup plus flexibles, seront capables d’envoyer de nouveaux signaux, par exemple des signaux dédiés à l’internet des objets (IoT). En effet, un récepteur de navigation consomme beaucoup d’électricité pour décoder les signaux actuels, ce qui est une contrainte forte pour une balise IoT. Nous développons donc de nouveaux signaux basiques et robustes qui seront dans cette deuxième génération.
Quelles sont les applications ?
Galileo a d’abord été développé pour des besoins de souveraineté de l’Union européenne. Donc la souveraineté économique, mais pas seulement. Un des services importants est aussi le signal gouvernemental réglementé, le PRS, pour Public Regulated Service. Ce service, plus compliqué à mettre en place que le service public de géolocalisation, sera disponible en 2024. Il est crypté et très sécurisé. Il est réservé à des utilisations gouvernementales et nécessite des récepteurs très spécifiques qui utilisent des clés numériques pour décrypter les signaux.
Les autres applications sont le train autonome et les nouveaux concepts de géolocalisation des trains, la robotique agricole ainsi que l’agriculture de précision. Cette dernière utilise systématiquement le plus de constellations possibles et utilisera le futur HAS. Elle utilise déjà des services complémentaires payants qui ajoutent des informations au GPS et à Galileo pour faire des positionnements précis avec des récepteurs très spécifiques et des antennes de bonne qualité travaillant sur plusieurs fréquences. Ces récepteurs sont capables de faire des mesures plus complexes pour avoir un positionnement à quelques centimètres.
Pourquoi en agriculture la précision est-elle plus fine ? Est-ce grâce au complément des capteurs ?
Pour avoir une précision très fine, de l’ordre du centimètre, on utilise non seulement les messages codés dans les signaux (la façon simple de faire des mesures avec une précision d’un ou deux mètres), mais aussi les messagers eux-mêmes. C’est-à-dire qu’on effectue une deuxième mesure plus précise sur l’onde sinusoïdale qui porte les informations. On appelle ça la mesure de phase.
Mais il est difficile de l’utiliser car il y a une incertitude sur cette mesure : elle a été faite sur un cycle de l’onde sinusoïdale, mais on ne sait pas lequel ! En recevant des corrections transmises par des systèmes complémentaires comme RTK (cinématique en temps réel) ou PPP (positionnement précis), le récepteur arrive à éliminer les points ambigus pour n’en conserver qu’un seul très précis. Ça peut être instantané ou demander un temps de convergence de quelques minutes selon les technologies utilisées et le prix du service.
Cette technologie est particulièrement adaptée à l’agriculture car la réception des satellites sur un tracteur est de bonne qualité et n’est pas interrompue. En voiture, c’est plus compliqué car les signaux sont parfois masqués par les ponts, les bâtiments ou les tunnels. C’est pour cette raison qu’on mélange les informations du récepteur de navigation par satellite avec celles d’autres capteurs très différents et complémentaires. Cette fonction de localisation hybridée permet de toujours savoir où on est et, grâce à la navigation par satellite, de recaler régulièrement la position dans un référentiel absolu.
Pour bien utiliser les mesures de Galileo HAS, il faudra d’ailleurs mettre en œuvre ces techniques.
Issue du monde de la recherche, Lactips produit un polymère biosourcé et biodégradable à base de caséines. Ses multiples propriétés techniques permettent d’envisager son utilisation dans de nombreuses applications : film hydrosoluble pour doses de lessive, billes utilisées comme support de parfum, ou encore étiquettes solubles pour fruits et légumes. Récemment, c’est dans le cadre d’une solution d’enduction pour papier que Lactips a mis en œuvre son polymère, qui permet de conférer au papier des propriétés de barrière aux graisses, à l’oxygène et aux huiles minérales, sans pour autant affecter sa recyclabilité. Une innovation baptisée « Plastic Free Paper », que nous présentent Charlène Béal-Fernandes et Élodie Chevalier, respectivement chargée de communication de Lactips et Cheffe de projet R&D de l’entreprise.
Techniques de l’Ingénieur : Comment Lactips est-elle née ?
Charlène Béal-Fernandes : L’entreprise est issue de la recherche scientifique, et plus précisément de l’Université Jean Monnet de Saint-Étienne. Frédéric Prochazka, enseignant-chercheur et membre du laboratoire Ingénierie des Matériaux Polymères de l’université, s’intéressait à la protéine de lait, la caséine, à partir de laquelle il cherchait à développer une innovation. Il a découvert que l’on pouvait en faire un thermoplastique. Pour ne pas en rester à ce stade académique, l’innovation a été propulsée par Pulsalys (incubateur d’innovations deep tech basé à Villeurbanne, NDLR) pour en faire une solution industrielle. Lactips a ainsi été créée en 2014. Frédéric Prochazka s’est alors allié avec Marie-Hélène Gramatikoff, spécialiste de la plasturgie et stratège d’entreprise. Elle est donc co-fondatrice mais aussi, aujourd’hui, notre dirigeante. Nous sommes actuellement plus de cinquante, nous disposons d’une première ligne de production mise en route en 2018 ; et nous allons bénéficier d’ici une quinzaine de jours de la livraison de notre nouveau site industriel et siège social (propos recueillis le 04/11/2021, le déménagement vient d’avoir lieu, NDLR), qui va nous permettre d’augmenter nos capacités de production.
Comment la matière que vous produisez se présente-t-elle ?
C. B.-F. : Nous sommes fabricants d’une matière première sous forme de granulés. Il s’agit de la forme originelle de tous les plastiques, même conventionnels. Cela permet à cette matière première à base de caséines d’être transformable sur toute la chaîne de transformation plastique. Grâce à différentes formulations, nous pouvons proposer différentes solutions, notamment notre dernière innovation, le « Plastic Free Paper ».
S’agit-il d’un matériau en tant que tel ?
C. B.-F. : Le « Plastic Free Paper » désigne en fait la solution d’enduction pour papier que nous avons développée. Nous ne sommes pas papetiers, nous sommes donc en contact avec des industriels de la papeterie pour leur proposer notre solution d’enduction naturelle et biodégradable pour leur papier.
Comment produisez-vous cette solution d’enduction ?
Élodie Chevalier : Nous partons de poudre de caséine, notre matière première, que nous mélangeons avec d’autres ingrédients végétaux. Cette formule passe ensuite par un procédé d’extrusion bivis afin d’obtenir ce que nous commercialisons, c’est-à-dire les granulés. Ces granulés vont pouvoir être redispersés en solution aqueuse afin d’être appliqués sur le papier, tels un vernis, une encre d’impression ou un adhésif. Cela permet d’ajouter une couche fonctionnelle et évite ainsi de mettre d’autres types de couches qui sont pour l’instant traditionnellement utilisées comme du polyéthylène, de l’EVOH (Éthylène-alcool vinylique), du PVDC (polychlorure de vinylidène)… Des couches plastiques qui peuvent se révéler problématiques en fin de vie du matériau.
Quelles sont les principales propriétés apportées par cette couche fonctionnelle à base de caséines ?
É. C. : Une des propriétés principales est le thermoscellage : la couche permet d’apporter une matière scellante. Cela permet ainsi d’éviter notamment le polyéthylène, beaucoup utilisé sur les emballages papiers actuellement. Nous apportons également des barrières : aux graisses, aux huiles minérales et aux gaz, donc aussi aux arômes. C’est un aspect important notamment pour l’agroalimentaire. La seule barrière que l’on ne peut pas apporter est la barrière à l’eau et à l’humidité. Notre matière est en effet hydrosoluble, ce qui est aussi un avantage puisque cela permet, dans la filière de recyclage papier, de dissoudre la matière très facilement dans les bains de recyclage. Cela permet de récupérer un pourcentage important de fibres de cellulose.
Hormis le recyclage, d’autres solutions sont-elles envisageables pour gérer la fin de vie du matériau ?
É. C. : Même si le recyclage reste privilégié, la matière est aussi compostable, et même naturellement biodégradable dans l’eau douce et dans l’eau de mer. Il s’agit donc d’une matière avec beaucoup de possibilités de fin de vie dans différents milieux. Les industriels se disent intéressés par ces différentes possibilités de fin de vie : on peut facilement imaginer que de petits emballages, parfois perdus dans la nature, se dégraderont très rapidement.
Ce Plastic Free Paper est-il déjà commercialisé ?
É. C. : Nous commercialisons d’ores et déjà notre solution auprès d’industriels papetiers. Je pense en revanche qu’il n’y a pas encore de produits finis sur le marché bénéficiant de notre revêtement. Il reste encore des étapes de validation à réaliser. C’est maintenant aux papetiers de vendre leur papier enduit à des clients et aux clients de valider que le nouvel emballage est apte à être utilisé.
Quels sont vos objectifs avec l’ouverture de votre nouveau site industriel ?
É. C. : L’usine de 2 500 m² est prévue pour une capacité de production de 3 000 tonnes par an, contre 1 500 actuellement, et cela pour une seule ligne de production, sachant qu’à terme, l’usine pourra en accueillir jusqu’à six. Cela va nous permettre d’anticiper les besoins croissants et les demandes des clients.
La pandémie fragilise certains secteurs. Elle favorise aussi la création de solutions pour combattre les coronavirus. Des lampes, des boîtiers et même des robots à UV sont commercialisés pour désinfecter un smartphone ou une salle d’hôpital.
L’autre piste en lice est basée sur le principe de décharges à barrière diélectrique. « Une électrode est soumise à une haute tension électrique, ce qui produit des décharges à barrière diélectrique contrôlées qui, en agissant sur les composants de l’air ambiant, créent un plasma froid d’ions », lit-on sur le site de la société Aeriashield qui commercialise des boîtiers anti-covid.
Pouvant être porté autour du cou, ce boîtier va donc détruire tous les virus expectorés par une personne, ce qui n’est pas le cas de solutions concurrentes qui sont posées dans un coin d’une pièce.
Ces boîtiers portatifs n’envoient aucun produit ni additif. Ils génèrent des ions négatifs qui, toujours selon Aeriashield, sont « connus pour avoir une action antivirale et bactéricide avérée, mais également pour repousser les moustiques ».
Dissuader les moustiques
À l’origine, cette technologie a en effet été développée il y a une dizaine d’années dans une démarche humanitaire pour combattre la malaria. Les moustiques, vecteurs de cette maladie, sont attirés par les odeurs humaines (plus précisément, par celles du microbiote cutané humain). En détruisant ces odeurs, cette solution évite ainsi d’être piqué.
Ce dispositif a été adapté il y a quelques années par la start-up française Moskitofree. Convaincue de l’intérêt de cette solution, la société tourangelle Aeriashield lui a acheté les droits de distribution pour l’Hexagone, mais aussi huit autres pays dont les USA, le Canada, la Grande-Bretagne et l’Italie.
Un dispositif testé et validé par l’Institut Pasteur de Lille
Rechargeables via un port USB, les trois modèles disposent d’une autonomie qui varie de 11 à 30 heures selon la superficie à « traiter » (entre 2 m² à 15 m²). Et ils semblent efficaces selon Aeriashield puisqu’ils ont été « testés et certifiés par l’Institut Pasteur de Lille ». Ils peuvent être installés dans des bureaux, des classes ou encore des taxis par exemple.
« Dans une enceinte hermétique de 1,4 mètre³, l’Institut Pasteur de Lille a testé ce dispositif durant plusieurs mois en injectant la souche jumelle du coronavirus (HCoV-229 E). Au bout de 5 minutes, des mesures étaient prises et il a été constaté que 99 % des coronavirus étaient éliminés et 95,8 % en dix minutes », nous explique Mathias Sarmadi, président d’Aeriashield.
Précisons néanmoins que cet appareil vient en complémentarité des gestes barrières préconisés par les autorités de santé, notamment le fait de se laver régulièrement les mains. Cette solution est inefficace lorsque le virus se transmet par le contact direct (toucher).
RTE ne fait pas les choses à moitié. Le gestionnaire du réseau de transport élaborait déjà régulièrement un solide bilan prévisionnel pour la décennie à venir mais, suite à une saisine du gouvernement en 2019, il a élaboré une large et complexe vision prospective à l’horizon 2050, rendue publique fin octobre. Ces « Futurs énergétiques 2050 », compilés dans un rapport de plus de 600 pages, envisagent de nombreuses options pour l’avenir.
Il faut dire que RTE a de quoi se poser des questions. Même si le système électrique français est robuste, plusieurs signaux inquiètent : un parc nucléaire vieillissant, des énergies renouvelables stigmatisées dans le débat public, des économies d’énergie encore trop faibles, des investissements nécessaires dans les réseaux. Tout cela dans la perspective de décarboner entièrement l’économie dans les 25 ans qui viennent, en particulier par de nouveaux usages de l’électricité permettant de se passer d’énergies fossiles, par exemple dans la mobilité. Contraintes et enjeux sont élevés ; il est donc utile d’anticiper les besoins d’adaptation à l’avenir.
Trois trajectoires possibles de consommation d’électricité
RTE a défini une trajectoire de référence de la consommation d’électricité en France en adaptant la Stratégie nationale bas carbone (SNBC) aux plus récentes évolutions, par exemple sur la démographie, sur le rythme de rénovation des bâtiments ou sur le besoin de produire de l’hydrogène. Il en résulte une augmentation de 35 % par rapport à aujourd’hui, soit 645 TWh consommés en 2050, en incluant les effets du changement climatique
Évolution de la consommation intérieure d’électricité entre 2019 et 2050 dans la trajectoire de référence et décomposition en effets (Source : RTE)
Le gestionnaire de réseau a aussi considéré deux autres trajectoires tout autant possibles que la première. Une trajectoire dite de « Réindustrialisation profonde » fait grimper la consommation d’électricité à 755 TWh, en appuyant le développement de l’industrie agroalimentaire, la chimie et la pharmacie, les produits électriques et électroniques et l’industrie manufacturière. Une trajectoire de « Sobriété » permet de limiter la consommation à 555 TWh et repose sur des changements de comportements qui ont été chiffrés comme la part de télétravail (50 % contre 20 % dans la trajectoire de référence), l’augmentation des circuits courts pour les marchandises (conduisant à une baisse de 20 % des km.tonnes transportés contre 9 %), le nombre de personnes par véhicule (2,2 contre 1,7), ou l’allongement des durées de vie des équipements, le réemploi et le recyclage de matière.
A ces trois tendances envisageables de consommation, RTE ajoute une multitude de variantes pour jauger les effets de certaines variations de l’efficacité énergétique, du niveau d’électrification, du recours à l’hydrogène, etc., le tout dans le cadre de flexibilités plus grandes mais aussi de pointes de consommations plus importantes, y compris l’été à cause de la climatisation.
Synthèse des trajectoires de consommation modélisées dans l’étude (Source : RTE)
Six scénarios autour de la trajectoire de référence
Les principaux modes de production d’électricité sont connus : énergies renouvelables pilotables (l’hydraulique reste stable à 22 GW quelles que soient les options) ou variables (éolien, photovoltaïque), nucléaire existant ou neuf, centrales thermiques. RTE propose de les combiner de six manières différentes, mais pour… la seule trajectoire de référence de consommation. Trois de ces scénarios sont orientés vers la prédominance des énergies renouvelables et trois autres s’appuient sur le renouveau du nucléaire, tous assurant la sécurité d’approvisionnement :
M0 est un scénario prévoyant une électricité 100 % renouvelable en 2050 (208 GW de solaire, 74 GW d’éolien terrestre et 62 GW d’éolien en mer) et une sortie du nucléaire existant échelonnée jusqu’à 2050. Selon RTE, ce scénario impose plus de flexibilité, comme il l’a déjà analysé dans un précédent rapport avec l’Agence internationale de l’énergie.
M1 tend également vers le 100 % renouvelable mais avec plus de solaire (214 GW) notamment en toiture, et moins d’éolien (59 GW terrestre et 45 GW en mer). Il reste encore 16 GW de nucléaire en 2050 pour une sortie définitive en 2060 (hors EPR de Flamanville).
M23 arrive aussi au 100 % renouvelable mais en faisant plutôt appel à de grands parcs photovoltaïques (125 GW) et éoliens (72 GW terrestre et 60 GW en mer). Le nucléaire évolue comme dans M1.
N1 est le premier des trois scénarios privilégiant un maintien voire un renforcement du nucléaire. Il mélange un développement des renouvelables de même nature que M23 mais avec moins de capacité (118 GW de solaire, 58 GW d’éolien terrestre et 45 GW en mer). L’ancien nucléaire évolue comme dans M1 et M23, et plusieurs paires de nouveaux EPR sont construits (13 GW en 2050).
N2 est comme N1 mais il accentue le développement du nucléaire neuf (23 GW de nouveaux EPR) au détriment de celui des renouvelables (90 GW de photovoltaïque, 52 GW d’éolien terrestre et 36 GW en mer).
N03 pousse le curseur encore plus loin en prolongeant plus longtemps les anciens réacteurs (pour certains, au-delà de 60 ans) afin d’en garder encore 24 GW en 2050. Il prévoit aussi un rythme élevé de construction de nouveaux EPR auxquels s’ajouteraient quelques GW de petits réacteurs modulaires (soit un total de 27 GW). Les sources renouvelables seraient alors plus réduites (70 GW de solaire, 43 GW d’éolien terrestre et 22 GW en mer).
Évolution de la répartition EnR et nucléaire dans le mix de production des six scénarios et dans le mix actuel (2020)
Des annonces centrées sur la trajectoire de référence
Quels enseignements tire RTE de ce travail prospectif ? On peut en identifier quatre principaux.
Il est nécessaire de développer les énergies renouvelables, quel que soit le scénario, pour atteindre la neutralité carbone (au minimum deux fois plus d’éoliennes qu’aujourd’hui et cinq à dix fois plus de surfaces pour le photovoltaïque). Ce constat est sans appel, d’autant plus que l’analyse environnementale sur l’occupation des sols ou l’approvisionnement en ressources minérales ne montre pas d’enjeu majeur.
Les défis industriels et d’acceptation sociétale sont très élevés, tant pour développer de nouveaux réacteurs nucléaires que des sites de production d’électricité renouvelable. Dans tous les cas, un renforcement du réseau électrique est aussi nécessaire. Pour les filières éolienne et solaire, il s’agit d’arriver à des rythmes d’installation parmi les plus forts vus en Europe. Pour la filière nucléaire, l’enjeu est de retrouver une capacité industrielle à construire rapidement des réacteurs à un coût raisonnable (ce qui est loin d’être le cas actuellement) tout en prévoyant de sécuriser les contraintes amont (enrichissement de l’uranium de retraitement et usage du MOX) et aval (gestion des déchets radioactifs).
Les coûts des différents scénarios sont du même ordre de grandeur, en incluant les coûts induits par l’adaptation du système électrique, de 59 milliards d’euros par an pour N03 à 80 Md€/an pour M1. Entre M23 et N2, l’écart n’est que de 10 Md€ (respectivement 71 et 61 Md€/an). Il diminue presque de moitié si le coût du nucléaire reste élevé et si celui des renouvelables continue sa baisse. Si on prend en compte un coût moyen pondéré du capital de 4 % pour les énergies renouvelables et de 7 % pour le nucléaire (vu la différence de risque porté par les investisseurs), ces deux scénarios sont alors au même niveau de coût.
Coûts annualisés des scénarios en 2060, en fonction du coût moyen pondéré du capital pour les acteurs du système électrique
La trajectoire de sobriété permettrait de soulager les besoins d’investissement. Une première évaluation de RTE souligne que la réduction des coûts complets annualisés serait de 8 à 10 Md€ en 2050 par rapport à la trajectoire de référence dans le cas d’une plus grande sobriété.
Face à la richesse de l’étude de RTE et notamment de ce dernier enseignement, il est dommage que les annonces se soient concentrées principalement sur la trajectoire de référence. Dès lors, le message, largement repris par de nombreux personnages politiques tels la ministre Barbara Pompili est que la forte hausse de la consommation d’électricité est inéluctable et que les scénarios avec nucléaire sont les plus intéressants. Gageons que les compléments d’étude annoncés par RTE pour début 2022 viendront redonner de la nuance dans ce point de vue.
Stocker de très grandes quantités de données sur un support fiable pendant plusieurs milliards d’années est désormais possible. Le stockage optique de données 5D, également connu sous le nom de cristal à mémoires de Superman (en référence aux cristaux de mémoires utilisés dans les films Superman), a connu des avancées majeures ces dernières années.
Fin octobre, une équipe de scientifiques de l’université de Southampton a publié ses dernières recherches. Les chercheurs ont développé une méthode permettant de stocker 500 téraoctets de données sur un volume en verre à peine plus gros qu’un CD. Ce stockage de données est plus de 10 000 fois plus dense que la technologie de stockage sur disque Blu-Ray.
Une écriture laser plus rapide et meilleure
Le stockage de données 5D consiste à inscrire des informations sur une surface en verre nanostructuré à l’aide d’un laser. On utilise la désignation « 5D » parce que, en plus des trois dimensions spatiales habituelles utilisées pour stocker les données, les nanostructures créées dans le verre contiennent des informations sur l’intensité et la polarisation du rayon laser.
Le principe du stockage de données optiques 5D dans des matériaux transparents avait déjà été démontré. Mais l’écriture de données était trop lente et avec une densité peu élevée, rendant les applications réelles difficiles. Pour surmonter cet obstacle, les chercheurs ont utilisé un laser femtoseconde, un type de laser qui produit des impulsions ultra-courtes d’une durée de l’ordre de quelques femtosecondes, avec un taux de répétition élevé. Mais plutôt que d’utiliser ce laser pour écrire directement dans le verre, les scientifiques ont exploité la lumière pour produire un phénomène optique connu sous le nom d’amplification en champ proche. Cette technique a minimisé les dommages thermiques qui ont été problématiques pour d’autres approches utilisant des lasers à taux de répétition élevé.
Conserver des archives nationales sur le long terme
Cette approche permet d’augmenter considérablement la capacité de stockage (500 téraoctets de données sur un CD), mais ce n’est pas son seul avantage. Cette méthode de stockage serait fiable pendant plusieurs milliards d’années. Et le stockage 5D peut potentiellement résister à des chaleurs allant jusqu’à 1 000 degrés Celsius.
Si la vitesse d’écriture a été augmentée, l’inscription de 500 To de données nécessite tout de même 60 jours. Un délai qui semble acceptable pour la conservation d’informations très longue durée, mais qui ne permettra pas de le généraliser à n’importe quel type de données. « Nous pensons que le stockage de données 5D dans du verre pourrait être utile pour le stockage de données à long terme pour les archives nationales, les musées, les bibliothèques ou les organisations privées », précise Yuhao Lei, chercheur à l’Université de Southampton au Royaume-Uni qui a participé à l’étude, sur le site internet de la revue scientifique Optica. « Avec le système actuel, nous avons la capacité de préserver des téraoctets de données, qui pourraient être utilisés, par exemple, pour préserver des informations de l’ADN d’une personne », renchérit Peter G. Kazansky, chef de l’équipe de chercheurs.
Comme certains réglages des machines sont encore manuels, l’équipe estime qu’elle pourra encore améliorer le processus en passant à l’automatisation.
Sur Terre, l’être humain s’habitue aux nuisances sonores faibles et continues. Certaines personnes vont même jusqu’à s’apaiser ou s’endormir au bruit des avions, voitures ou trains. Mais lorsque le bruit est plus fort ou récurrent (imaginez un robinet qui fuit), il peut très vite devenir insupportable. Il en va de même dans le milieu marin et nos activités peuvent devenir létales pour les animaux qui y vivent. Nous en avons discuté avec Olivier Adam, professeur à Sorbonne Université qui travaille également sur la communication des cétacés. Il a coorganisé, en collaboration avec Ocean Ambassadors, une journée de conférences sur la pollution sonore dans l’océan, en septembre dernier.
Techniques de l’ingénieur : Qu’est-ce que la pollution sonore dans l’océan ?
Olivier Adam : Dans le passé, on utilisait le mot « pollution sonore » lorsque le risque était létal pour ceux qui subissaient ces sons, et « nuisance sonore » sinon. Mais, récemment, seul le terme « pollution sonore », y compris dans les articles scientifiques, est utilisé, à partir du moment où l’activité humaine génère des sons récurrents, susceptibles d’impacter la biodiversité marine.
Quelles sont les sources de pollution sonore ?
Si nous devions classer les pollutions de la plus bruyante à la moins bruyante, viendrait en première position le trafic maritime. En effet, les supertankers et tankers de la marine marchande ainsi que les énormes ferries utilisent des moteurs et des hélices surdimensionnés qui génèrent des sons de fortes intensités et de basses fréquences : ils ont l’inconvénient de se propager bien et loin dans le milieu marin, en particulier autour des autoroutes maritimes entre l’Asie, l’Europe et le continent américain. Ensuite, en deuxième position : l’industrie qui se développe en mer, comme les éoliennes qui propagent un son constant dans l’eau, mais également les ports industriels qui continuent à se développer pour accueillir de plus en plus de containers. Ensuite, en troisième et quatrième positions, mais de façon plus ponctuelle car émis lors de missions spécifiques, il y a la recherche de pétrole qui utilise des airguns, instruments qui génèrent des explosions visant à décrire les sédiments sur les fonds marins, et certains sonars utilisés par les marines militaires pour détecter des sous-marins habités ou robotisés.
Comment mesure-t-on cette pollution ?
Pour acquérir de la donnée, on met des hydrophones dans l’eau. Il y a une dizaine d’années, cela se faisait de façon ponctuelle, mais nous avons désormais des bouées qui recueillent de l’information 24h/24 et 7j/7. Il existe différents projets en Méditerranée et en Atlantique, impliquant des pays comme les États-Unis, le Canada et la France. Les observatoires se sont bien développés au cours de ces dernières années. Ces données collectées ne sont pas en temps réel. La seule acquisition en temps réel est possible lors d’une construction, par exemple, pour permettre d’alerter lorsque l’intensité sonore dépasse un certain seuil mettant en danger la biodiversité marine. Il faut noter que cette surveillance des intensités acoustiques des travaux n’est pas spécifique au milieu marin, mais existe également pour surveiller les effets des travaux terrestres.
Il faut ensuite analyser ces données pour évaluer les effets possibles sur la biodiversité marine. Ce travail est assez compliqué à déterminer car les impacts dépendent de nombreux paramètres. En fonction de la bande fréquentielle, l’impact diffère selon les espèces, mais également de l’intensité acoustique, le temps d’exposition à l’onde sonore et le type de son, c’est-à-dire s’il est continu ou impulsif. Car pour les mammifères marins, il a été noté qu’ils ont une sensibilité différente pour des sons transitoires (comme les sonars par exemple).
Il existe 89 espèces de cétacés. Il s’agit de mammifères marins qui vivent en structures sociales plus ou moins complexes et qui utilisent les sons dans leurs activités vitales. Ces espèces vont avoir des réactions différentes. Il faut alors faire du cas par cas. Pour mieux comprendre, je vous suggère de regarder le film Sonic Sea. Il y décrit les effets des trois sources les plus impactantes pour les cétacés, et montre pour chacune d’elle pourquoi certaines espèces de cétacés sont en difficulté, allant de la gêne par masquage acoustique de leurs propres émissions sonores à des risques d’échouage.
Cet impact est-il uniquement sur le système auditif ?
Non, il y a également un impact sur le corps, car l’onde acoustique est une onde physique, au sens où il s’agit d’un déplacement de particules. On peut faire exploser la vessie natatoire d’un poisson, comme l’a remarqué sans le vouloir le scientifique Arthur N. Popper lors d’une expérience.
Pour évaluer les effets des sons émis par les activités humaines, on peut avoir recours, pour des expériences scientifiques, à du play-back, c’est-à-dire diffuser des sons spécifiques via un ou plusieurs haut-parleurs dans l’eau. Ces expérimentations sont effectuées sous certaines conditions pour des raisons d’éthique : il ne s’agit pas de harceler des animaux, encore moins de leur faire courir le moindre risque pour leur système auditif ou leur santé.
Et les résultats sont très intéressants. On peut citer notamment les excellents travaux de la chercheuse française Charlotte Curé, sur les baleines à bosse, cachalots, orques, globicéphales. Ces études sont fondamentales pour mieux comprendre comment ces sons anthropiques peuvent gêner les cétacés, comme par exemple en interrompant des cachalots dans leurs recherches de nourriture.
Y a-t-il des solutions pour diminuer cet impact ?
Nous ne cherchons effectivement pas à arrêter les activités humaines, mais à atténuer leurs impacts sur l’environnement marin, un peu comme cela a été fait avec les voitures et les avions, avec des normes, progressivement depuis plus d’une trentaine d’années. Concernant le bruit sous-marin dans les océans, la France l’a inscrit dans la loi en 2010.
Alors oui, il y a des solutions qui existent pour diminuer les bruits rayonnés par les grands bateaux de la marine marchande, comme réduire la vitesse, changer les hélices ou faire des opérations de maintenance sur les cargos. En effet, il est possible d’isoler les moteurs de la coque pour éviter les vibrations, comme le font les militaires. Ensuite, on peut changer les hélices pour avoir un meilleur rendement et moins de cavitation (microbulles). Certains industriels trouvent des solutions pour inciter à réduire le bruit : le port de Vancouver a par exemple mis un hydrophone à son entrée. Si le bateau fait moins de bruit que le seuil imposé, il paye son stationnement 50 % moins cher.
Je pense que les dix prochaines années vont être dédiées à la mise en place de nouvelles réglementations et à faire appliquer plus largement celles déjà en place, il y a 4 ou 5 ans.
La loi anti-gaspillage pour une économie circulaire (AGEC) qui transpose en droit français la Directive-cadre déchets de 2018 prévoit l’obligation de tri à la source des biodéchets pour tous les producteurs, au 31 décembre 2023. Les collectivités sont libres de déployer la méthode de collecte de leur choix – compostage domestique ou collectif, porte-à-porte, point d’apport volontaire. Pour rappel, les acteurs économiques produisant plus de 10 tonnes de biodéchets par an sont déjà soumis à l’obligation de tri à la source de leurs biodéchets. Ce seuil passe à 5 tonnes par an au 1er janvier 2023.
Mais à ce jour, le compostage de proximité tout comme la collecte séparée des déchets alimentaires ménagers restent encore peu développés en France. Selon la dernière synthèse de l’ADEME d’avril 2020, la collecte séparée des biodéchets couvrait 6 % de la population française en 2016. Pour connaître la perception des petites villes de France et savoir comment elles se préparent à cette généralisation, l’association des petites villes de France (APVF) a réalisé, avec le soutien de Citeo et du groupe SPHERE, un sondage auprès de 200 communes de 7 545 habitants en moyenne. Leur population se répartit à 72 % dans l’habitat individuel, 28 % dans l’habitat collectif.
Les petites villes de France se préparent
Les petites villes, c’est 4 000 communes comprenant entre 2 500 et 25 000 habitants. L’association des petites villes de France (APVF) représente ainsi 26 millions d’habitants vivant dans des territoires ruraux et périurbains. « Il faut comprendre qu’il n’y a pas de vérité pour la collecte des biodéchets, insiste Nicolas Soret, vice-président APVF et maire de Joigny, commune de 10 000 habitants, située dans le département de l’Yonne en région Bourgogne-Franche-Comté. Il faut faire la différence entre les zones très urbanisées et les zones rurales et appliquer le principe de subsidiarité en laissant le choix de la solution retenue aux maires et communautés de communes. »
L’étude montre que les petites villes sondées ont bien connaissance de la réglementation sur les biodéchets et sont largement en faveur de cette collecte. Les collectivités qui ont répondu au sondage sont pionnières : 42 % d’entre elles ont déjà mis en place le tri des biodéchets. Dans le cas où elle n’est pas encore mise en place, cette collecte sélective est en cours de réflexion dans 52 % des cas, en cours de mise en place dans 19 % des cas, et n’est pas encore prévue dans seulement 29 % des cas.
Les petites villes se déclarent à 87 % en faveur de la mise en œuvre d’une collecte sélective des biodéchets sur leur territoire selon l’étude. Dans les petites villes sondées et déjà concernées par une collecte des biodéchets, la gestion des biodéchets se fait à 40 % par compostage domestique, 28 % par compostage collectif, 16 % en porte-à-porte et 16 % en point d’apport volontaire.
Des freins à lever en amont de la généralisation
Le principal frein à la mise en place de la collecte sélective des biodéchets est le coût économique suivi de l’acceptabilité des citoyens. Il y a donc un réel besoin d’accompagnement financier de l’État dans l’investissement des collectivités locales, mais aussi un fort besoin de sensibilisation et de communication en amont et lors du déploiement, insiste l’APVF. « Les freins financiers ou techniques demeurent nombreux dans ces territoires », confirme Christophe Bouillon, président de l’APVF.
Tout le monde a en mémoire l’hologramme de la princesse Leia dans le premier film Star Wars en 1978. Et si cela devenait une réalité ? C’est l’ambition de deux startups. Leur projet a de quoi intriguer, car leur solution n’oblige pas à porter une paire de lunettes comme c’est le cas avec les expériences de réalité mixte de Microsoft Mesh ou avec l’Horizon Workrooms (encore en beta), l’espace RV dédié à la communication de Facebook.
La première entreprise, ARHT Media, a été créée en 2012 à Toronto, au Canada. Elle a développé des hologrammes pour AT&T et la chaîne sportive américaine ESPN.
La seconde s’appelle PORTL Inc et se trouve à Los Angeles.
Atout majeur de cette solution : la communication apparaît comme plus réaliste que durant une visioconférence ou lors d’échanges dans un monde virtuel (metavers). On ressent la « présence » de son interlocuteur même s’il apparaît sous forme d’un hologramme et qu’il se trouve à des centaines de kilomètres. C’est toute la force du langage corporel : la personne apparaît grandeur nature, ce qui n’est pas le cas durant une visioconférence. De quoi aussi réduire le syndrome baptisé « Zoom fatigue »…
Soins de santé à distance, défilés de mode virtuels, salons professionnels…
De la taille d’une cabine téléphonique et pesant environ 180 kg, la solution de PORTL (vendue à partir de 60 000 dollars) permet à une personne d’apparaître en effet en taille réelle, sous une forme 3D réaliste. Cette cabine est équipée de haut-parleurs et de microphones bidirectionnels intégrés de chaque côté et de deux caméras Intel RealSense filmant la personne se trouvant devant la cabine. Un processeur de vision Intel RealSense D4 intégré dans les caméras effectue tous les calculs de profondeur.
Comme le projet Starline de Google, l’HoloPod d’ARHT (disponible uniquement sous forme d’abonnement à partir de 5 000 dollars), utilise un grand écran holographique 3D pour restituer des hologrammes sur toute la longueur du corps. En ajustant soigneusement l’éclairage des deux côtés de la personne transformée en avatar 3D, les yeux du spectateur combinent les informations et le cerveau crée l’effet volumétrique.
Tout n’est pas encore parfait. La conversation n’est pas toujours optimisée, la latence pouvant rendre plus difficiles les échanges. PORTL a indiqué que la latence était actuellement inférieure à une seconde et que l’objectif était de la ramener à moins de 100 millisecondes.
Selon ces deux startups, les applications de ces dispositifs de communication bidirectionnelle sont multiples : soins de santé à distance, défilés de mode virtuels, salons professionnels, expositions artistiques, formations (un programme pilote de PORTL est testé auprès de deux organisations militaires dans trois pays)…
Selon une étude publiée récemment dans le magazine Auto Plus, les embouteillages ont repris de plus belle dans les villes françaises. Pour établir ce classement, Auto Plus s’est appuyé sur les données recueillies sur le mois de septembre dernier par TomTom, via les GPS et téléphones portables, et les a comparées avec septembre 2020. Rennes arrive en première position. Résultat, ses habitants ont perdu 18h05 en septembre 2021, soit 3h31 de temps de plus pour se déplacer qu’en 2020.
En deuxième position : Marseille, avec 17h22 perdues, soit 1h49 de plus que l’an passé, suivi de près par Bordeaux avec 16h59, soit 3h54 de plus que l’an passé. Contrairement à une idée reçue, la capitale n’arrive qu’à la 7e place !
La solution pour perdre moins de temps ne serait-elle pas de monter à bord d’un bateau-taxi ? Comparé aux routes, l’environnement des canaux est plus facile à « gérer » pour un véhicule autonome : la circulation n’est pas aussi dense que sur une nationale, la vitesse est limitée (en France, elle varie entre 6 à 8 km/h sur les canaux, et 10 à 15 km/h sur les rivières, mais elle peut être réduite dans certains secteurs) et il n’y a pas de risques de rencontrer un piéton ou un cycliste…
Des taxis volants aux taxis autonomes
L’idée de bateaux-taxis n’est pas récente. Elle a donné lieu à de nombreux projets plus ou moins sérieux. Le dernier en date est celui des taxi-volants sur l’eau SeaBubbles. La production en série était prévue pour cette année pour répondre aux demandes de différentes villes, dont Paris, Dubaï, Venise, Zurich… Mais les bateaux ne sont jamais sortis. Aux dernières nouvelles, SeaBubbles a été rachetée en décembre 2020 par Mediapps Innovation, un fonds lyonnais.
Le projet du MIT s’intéresse de son côté aux bateaux autonomes. La conception des Roboats remonte à 2015. À l’époque, il s’agissait de petits bateaux de la taille d’une boîte à chaussures pour créer des structures aquatiques autoassemblées comme des ponts. Cinq ans plus tard, le MIT disposait d’une version suffisamment grande (4 m sur 2 m) pour supporter un humain.
Nouvelle étape cette année avec une démonstration publique à Amsterdam ce mois-ci. Pour l’instant, il n’y a qu’un bateau. Alimenté par batterie (10 heures d’autonomie), il navigue sur les canaux en utilisant un lidar[système optronique permettant de détecter les objets environnant le véhicule, NDLR] pour se localiser sur une carte préexistante, des caméras et des capteurs à ultrasons pour détecter et éviter les collisions avec des objets, tels que des ponts, des piliers et d’autres bateaux.
Lorsque le système capte un objet « non identifié », comme un canoë, l’algorithme signale l’objet comme « inconnu ». Lorsque l’équipe examine plus tard les données collectées de la journée, l’objet est sélectionné manuellement et peut être étiqueté comme « canoë ». Mais pour éviter tout risque d’accident, un opérateur à terre surveille le Roboat à distance depuis un centre de contrôle. À terme, il pourrait surveiller plus de 50 unités Roboat.
D’ici la fin de cette année, le MIT espère mettre à l’eau deux bateaux. Le MIT travaille aussi sur un projet de cargo qui pourrait être utilisé pour l’enlèvement des déchets.
Pour notre dossier de novembre, « Des matériaux innovants pour une construction plus durable », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.
Avec la 5e version de son scénario présentée fin octobre, l’Association négaWatt tente de prouver qu’il est possible d’arriver à la neutralité carbone d’ici 2050 sur l’ensemble des secteurs d’activité (bâtiment, transport, industrie, agriculture / alimentation). Le défi n’est pas mince puisqu’il s’agit de réduire suffisamment les émissions de gaz à effet de serre, de 450 MtCO2eq actuellement à environ 50 MtCO2eq à partir de 2047, pour que les puits de carbone naturels les absorbent entièrement. Elle propose un chemin de transition qui englobe toutes les consommations et productions d’énergie d’aujourd’hui jusqu’en 2050, grâce à une base chiffrée de tous les usages et de leurs évolutions année après année.
Les choix de sobriété (consommer moins et mieux) et d’efficacité (produire autant avec moins) du scénario négaWatt conduisent à une réduction de la consommation d’énergie finale, en 2050, de 53 % par rapport à 2019. Le bilan en énergie primaire est même meilleur (-64 %) puisque les ressources fossiles et fissiles (souvent avec de mauvais rendements) disparaissent du paysage énergétique à terme. Cette réduction de la demande est la pierre angulaire de la transition autant écologique que sociétale. L’Association fait d’ailleurs une série de recommandations pour que les politiques publiques soient orientées en ce sens.
Une nouvelle approche dédiée aux matériaux
Dans ce nouvel opus, négaWatt a approfondi son approche globale par une analyse des besoins en matériaux et par le calcul de l’empreinte matière et de l’empreinte carbone totale des Français, c’est-à-dire en incluant leurs importations de biens. Là aussi, la sobriété de consommation, l’économie circulaire (durée de vie plus longue des produits, possibilité de les réutiliser et de les réparer) et le recyclage conduisent à la diminution de consommation de l’ensemble des matériaux de base et de l’extraction de matières premières (-76 % pour le fer, -95 % pour le cuivre, -84 % pour le cobalt, -76 % pour le sable).
Évolution en % de la quantité de matériaux primaires et recyclés en fonction de la quantité totale en 2019 (Source : Association négaWatt)
Cette nouvelle partie « négaMat » permet aussi d’identifier les filières où, en baissant les importations, on peut relocaliser des productions industrielles en France, par exemple dans le textile, la métallurgie, la mécanique, la chimie fine, les produits de base pour la pharmacie, les semi-conducteurs, l’électronique professionnelle, les emballages en papier-cartons.
Enfin, elle donne l’occasion de vérifier si la transition énergétique prônée dans ce scénario va mobiliser trop de matériaux. Comment définir « trop » ? Les experts de négaWatt, par souci d’équité entre pays, estiment que la France peut disposer au maximum de 1 % des réserves prouvées des matières premières dans le monde, puisqu’elle ne pèse que 1 % de la population mondiale. Leurs calculs montrent que ce quota, même avec beaucoup d’éolien et de solaire photovoltaïque, est rarement atteint. Les tensions apparaissent surtout pour le cuivre, et pour le lithium et le cobalt nécessaires aux batteries électrochimiques. Ces derniers frôlent la limite et obligent à une grande prudence sur le développement d’une mobilité tout-électrique : 30 % des voitures sont donc des hybrides électricité-BioGNV dans le scénario négaWatt en 2050 et les véhicules doivent jouer la sobriété en termes de poids et d’autonomie pour éviter d’avoir besoin de trop grosses batteries.
Quelles technologies privilégier ?
L’exemple précédent sur le transport montre que ce scénario repose sur des choix technologiques. Selon l’Association négaWatt, les technologies en phase avec les objectifs de développement durable de l’ONU sont privilégiées. Cela permet une diversité qu’on retrouve dans le mix énergétique proposé pour 2050 [voir à la fin de l’article]. Mais la porte n’est pas ouverte à des technologies comme le captage et le stockage de carbone, l’Association assumant un certain discernement sur les solutions innovantes, en fonction de leur maturité sur les échelles technologique, industrielle, environnementale et sociale.
L’Association négaWatt ne retient que les technologies présentant un niveau égal ou supérieur à 7 sur les échelles de maturité habituelles (Technical Readiness Level, Manufacturing Readiness Level) ainsi que sur une autre bâtie à partir du modèle Social Readiness Level de la Fondation danoise de l’innovation.
Si le chemin proposé par négaWatt était mis en œuvre, quelles seraient donc les orientations techniques majeures ? On en retiendra sept principales qui sont autant de filières d’activités à développer.
1. Mobilité douce et transports en commun
En matière de transports, négaWatt mise sur un fort développement du vélo, des deux-roues motorisés et du train. Pas de révolution technologique, mais des infrastructures à adapter à cette réorientation des circulations, pour les voyageurs comme pour les marchandises. Des solutions intelligentes sont aussi à trouver pour booster le covoiturage, comme le fait par exemple la jeune entreprise Ecov.
2. Évolution des motorisations des véhicules vers l’électron et le méthane
En plus d’un gain en efficacité (réduction de 60 % de la consommation moyenne des voitures d’ici 2050), le scénario mise sur le remplacement des motorisations diesel et essence par de l’électrique et du bioGNV. Le biométhane est d’ailleurs le carburant n°1 pour les poids lourds (74 %). Les véhicules 100 % électriques se taillent la part du lion avec 67 % des voitures. L’hydrogène fait aussi partie des solutions mais à une échelle moindre (3 % des voitures et 14 % des poids lourds)
3. Rénovation et construction : large part aux matériaux biosourcés
En prévoyant un grand plan de rénovation performante des bâtiments, et en orientant les constructions neuves vers le petit collectif, négaWatt veut pousser la filière à changer ses habitudes. Cela passe aussi par un recours important aux matériaux à faible énergie grise (bois, terre crue, isolants biosourcés, etc.) pour lesquels les techniques peuvent s’améliorer.
4. Prédominance des pompes à chaleur dans le bâtiment
Pour le chauffage des bâtiments, le scénario prévoit que les chaudières gaz et les radiateurs électriques perdent leur première place actuelle au profit des réseaux de chaleur, de la biomasse (bûche, plaquettes et granulés) dans des appareils performants et des pompes à chaleur. Ces dernières représenteraient ainsi environ 50 % du chauffage en maison individuelle et logement collectif en 2050.
5. Électrification et décarbonation des process industriels
Pour gagner en efficacité, négaWatt prévoit comme dans ses précédents scénarios une électrification des chaudières et des process industriels (pompes à chaleur, induction, compression mécanique de vapeur, arc électrique). La part de la cogénération est aussi augmentée. L’utilisation d’hydrogène vert (voir ci-après) est plébiscitée pour décarboner la sidérurgie (réduction directe dans les hauts fourneaux) et pour former le méthanol nécessaire à la chimie.
6. Développement d’une filière « hydrogène vert »
Grâce à l’électrolyse de l’eau avec de l’électricité d’origine renouvelable, l’accès à de l’hydrogène vert est possible. Toute une infrastructure de production (voire de transport) va devoir se développer pour atteindre les 36 GW prévus par le scénario négaWatt. Quand on sait que le démonstrateur Jupiter 1000 a une capacité de 1 MW, cela veut dire le déploiement de milliers de sites d’électrolyse sur le territoire. Une fois recombiné avec du CO2, l’hydrogène permet d’avoir du méthane utilisable pour les transports ou stockable en prévision des besoins hivernaux.
7. Une énergie 100 % renouvelable
Après la sobriété et l’efficacité, le troisième pilier de négaWatt est le recours aux énergies de flux. Tout d’abord les bioénergies (biomasse solide et liquide et biogaz) qui nécessitent de développer en particulier la filière méthanisation (130 TWh en 2050) utilisant biodéchets, déjections d’élevages, cultures intermédiaires, herbe et résidus de culture. En énergie thermique, la géothermie double sa production entre 2019 et 2050, et le solaire thermique fait presque de même, pour arriver respectivement à 8,9 TWh et 2,1 TWh. Comme déjà dit, les pompes à chaleur sont très utilisées avec un quasi-décuplement de leur production d’énergie (73,5 TWh en 2050).
Du côté de l’électricité, l’éolien et le solaire deviennent les deux moyens principaux de production. La force du vent est utilisée tant sur terre (162 TWh en 2050) qu’en mer (65 TWh en offshore posé et 78 TWh en offshore flottant). Cette hausse se traduirait par un total de 18500 mâts sur terre (soit un doublement par rapport à 2021) et 3000 mâts en mer en 2050, quand l’Allemagne en compte déjà presque 30 000 actuellement rien qu’en terrestre ! L’offshore flottant pourrait d’ailleurs être un fer de lance industriel tricolore pour le marché intérieur et l’export, selon négaWatt.
Le solaire connaît aussi un ambitieux développement dans le scénario avec plus d’un doublement du rythme d’installation par rapport à aujourd’hui (4,5 GW/an contre 2 GW/an en 2021) en mélangeant ombrières de parking (15 TWh en 2050), petits systèmes diffus (28 TWh), grandes toitures plates (22 TWh), hangars agricoles (17 TWh), toitures orientées est-ouest (15 TWh) et parcs au sol (72 TWh).
D’autres technologies sont appelées à produire de l’électricité : l’hydraulique bien sûr (légère baisse de la production à cause des contraintes climatiques), l’hydrolien et un peu de géothermie haute température.
Il en résulte un mix de production diversifié.
Mix énergétique global et mix électrique proposé par négaWatt en 2050 (Source : Association négaWatt)
Si le choix de l’abandon du nucléaire dans le scénario négaWatt (fermeture des centrales existantes entre 40 et 50 ans, non-démarrage de l’EPR de Flamanville, pas de nouveaux réacteurs) est l’objet de vives discussions, on voit par ce rapide panorama que l’analyse de l’Association est beaucoup plus vaste que le seul prisme de l’atome. Elle envisage de multiples solutions technologiques et prévoit des stratégies industrielles pour la transition, en lui associant d’ailleurs de nombreux bénéfices (création d’emplois, meilleure santé, lutte contre la précarité, protection de la biodiversité et des ressources en eau).
Les matériaux bio-sourcés captent du CO2 au cours de leur croissance via la photosynthèse. L’usage de ces matériaux pour la construction pourrait compenser les émissions des autres matériaux à l’échelle d’un bâtiment, voire permettre de considérer les bâtiments comme des puits de carbone. Leur gisement doit être géré de manière durable : en termes de bilan carbone, une forêt exploitée est dite durable si la biomasse extraite durant une année est compensée par la biomasse créée durant cette même année. Ceci nécessite de prendre en compte plusieurs facteurs tels que la croissance d’un arbre et donc la période de révolution au sein d’une exploitation forestière, qui dure entre quelques dizaines d’années (minimum 20 ans pour certains résineux) et quelques centaines d’années (jusqu’à 300 ans pour certains feuillus). Cependant, la période de croissance d’un arbre doit être mise en vis-à-vis de la durée de vie du bâtiment. Compte tenu de cette problématique, les matériaux agro-sourcés, qui sont des plantes annuelles, pourraient être considérés comme de meilleurs candidats pour répondre à la demande croissante de matériaux de construction tout en stockant temporairement du carbone. Les principaux matériaux issus de plantes annuelles actuellement utilisés en Europe comme matériaux d’isolation sont les fibres de chanvre et de lin, la chènevotte de chanvre et la paille de blé. Le bois d’arbre, quant à lui, se destine principalement à quatre types de produits : le bois de structure, les revêtements de sols et de parois, les panneaux de particules et la laine de bois. L’ensemble de ces produits bio-sourcés pourrait représenter à moyen terme un volume conséquent de stockage de carbone.
Cas d’une paroi : conventionnel vs bio-sourcé
Pour cet exemple, nous prendrons le cas « non spécifié » du tableau 14, c’est-à-dire une durée de vie du bâtiment de 75 ans. L’unité fonctionnelle comprend aussi une surface (1 m² de paroi), et une valeur de résistance thermique (de l’ordre de 7,3 m²K/W). Le système est étudié du « berceau à la tombe », en considérant les phases de production des matériaux (années 1 et 2), de construction (année 2), d’usage (années 2 à 76), de maintenance (renouvellement dépendant de la couche de durabilité) et de fin de vie. La solution conventionnelle choisie correspond à une paroi très classique en France. Cette solution technologique est décrite tableau 15. Le système étudié comprend une structure en blocs béton, et une isolation par l’intérieur en laine de verre. Les durées de vie associées aux matériaux tiennent compte des couches de durabilité : 15 ans pour les peintures intérieure et extérieure, 25 ans pour les enduits. Les plaques de plâtre et l’isolant ont une même durée de vie, en considérant que l’isolation intérieure sera renouvelée en même temps que les cloisons. La résistance thermique théorique de cette paroi est de 7,36 m²K/W.
La solution bio-sourcée est une ossature bois avec isolation répartie en paille (tableau 16). Le bois est non traité, avec un scénario de fin de vie comme suit : 34 % incinérés pour valorisation énergétique, 43 % recyclés et 23 % enfouis en décharge. La paille est, quant à elle, considérée comme totalement incinérée (scénario le plus défavorable). La résistance thermique théorique d’une telle section de paroi est de 7,33 m²K/W. La solution conventionnelle commence par émettre des gaz à effet de serre, et en séquestre en fin de vie (béton) ou en œuvre (enduit). La solution bio-sourcée commence par séquestrer du carbone dans le bois d’arbre et dans la paille, puis réémet tout ou partie de ce carbone en fin de vie. Si on fait un calcul « statique », c’est-à-dire en additionnant toutes les valeurs sans tenir compte du temps, l’impact « réchauffement climatique » de la solution conventionnelle est de 49,08 kgCO2eq/UF et celui de la solution bio-sourcée est de 3,72 kgCO2eq/UF.
Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 9 décembre 2021 !