Sous présidence chilienne, la COP25 se tient à Madrid du 2 au 13 décembre. Surnommée « Blue Cop », cette nouvelle COP a pour thème clé les océans. Le Chili lance à cette occasion une plate-forme d’engagements des Etats consacrée aux solutions océaniques. L’objectif est que les pays incluent des engagements océaniques dans leurs nouveaux plans de lutte contre les changements climatiques.
La biodiversité s’installe enfin dans les discussions
Au-delà des océans, cette COP s’attachera à souligner les liens majeurs entre climat et biodiversité. Concrètement, les solutions fondées sur la nature, c’est-à-dire les solutions en termes d’atténuation et d’adaptation fondées sur la protection des écosystèmes, pourront être mises dans les nouvelles contributions des États qui réévaluent à la hausse leurs engagements en matière de protection du climat.
« On ne peut pas se donner une ambition climatique au détriment de la biodiversité », souligne Sébastien Treyer, directeur de l’Institut du Développement Durable et des Relations Internationales (IDDRI). Cette année, les trois rapports spéciaux du GIEC – sur le réchauffement à 1,5°C, sur les sols, l’océan et la cryosphère – ont en effet montré que tous les secteurs et tous les territoires doivent viser la neutralité carbone dans la seconde moitié du siècle. Cela ne pourra se faire que si l’on garantit un bon fonctionnement des écosystèmes.
« Si l’on ajoute le rapport de l’évaluation mondiale de l’IPBES, la science est assez claire : des scénarios d’ambition climatique très forte qui ne seraient pas compatibles avec la biodiversité sont des scénarios qui ne seraient pas souhaitables, note Sébastien Treyer. Cette prise de conscience est assez nouvelle dans le milieu de la négociation climatique. »
Conditionner l’action climatique à la préservation de la biodiversité
Ces derniers mois, une impulsion politique semble apparaître pour mettre la biodiversité et le climat au même niveau de priorité. À travers sa présidence du G7, la France a fait signer la Charte de Metz sur la Biodiversité aux ministres de l’Environnement du G7. L’Hexagone a par ailleurs lancé l’initiative « One Planet Lab » où la biodiversité, le climat et l’océan sont au même niveau de priorité. Le 6 novembre, la déclaration conjointe d’Emmanuel Macron et de XI Jinping, Président de la République populaire de Chine, mettait aussi au même niveau le climat et la biodiversité.
« Les sujets du climat et de la biodiversité sont aussi au cœur de cet agenda multilatéral commun », ont insisté les deux présidents. 2020 sera une année importante pour la préservation de la biodiversité et le climat avec le Congrès mondial de la nature à Marseille, la COP biodiversité à Kunming en Chine, la COP26 à Glasgow en Ecosse, ainsi que des négociations sur la conservation et l’utilisation durable de la biodiversité marine en haute-mer. La COP25 est une étape importante de construction pour préparer ces rencontres et coordonner une action ambitieuse sur la biodiversité et sur le climat. « Nous attendons l’ouverture d’un programme de travail stratégique entre la convention climat et la convention biodiversité pour orchestrer les engagements climatiques, des « contributions déterminées au niveau national » (NDC, selon l’acronyme anglais), et les stratégies et plan d’action nationaux pour la biodiversité », prévient Sébastien Treyer.
Le travail de préparation de la COP25 par le Costa Rica et le Chili a mis en avant la biodiversité au cœur des discussions à venir. « Quand on appartient à des territoires ou des secteurs dépendants du capital naturel, on ne peut pas penser une trajectoire de décarbonation sans réfléchir à son impact en matière de biodiversité, sinon on met en jeu la viabilité économique même de ce territoire ou de ce pays », conclut Sébastien Treyer.
Les revêtements étudiés par ces chercheurs de l’université de Chalmers en Suède s’appuient sur les propriétés de certaines molécules, capables, sous l’effet du rayonnement solaire, de se transformer en un isomère métastable à haute énergie. L’énergie ainsi stockée peut être restituée plus tard sous forme de chaleur par une réaction au cours de laquelle la molécule reprend sa forme d’origine. Les différentes molécules recensées qui présentent cette capacité et le processus lié sont désignés par l’acronyme MOST pour molecular solar thermal storage. Le relargage de l’énergie de ces photocommutateurs moléculaires peut se faire sous l’action d’un stimuli extérieur (chaleur, électricité, lumière etc.) ou spontanément, en condition ambiante, à la fin du temps de vie de l’isomère à haute énergie. Plusieurs types de molécules ont déjà été étudiées comme les azobenzènes, les tétracarbonyl-fulvalène-diruthenium complexes, les dihydroaulènes et les nobornadiènes (NBD). Dans leurs travaux parus dans Advanced Science, les Suédois ont montré que l’on pouvait créer un film polymère contenant des molécules MOST qui peuvent capturer la lumière du soleil le jour pour la relarguer sous forme de chaleur la nuit.
Plusieurs obstacles à franchir
Pour réussir à mettre au point un revêtement fonctionnel, il a fallu passer plusieurs obstacles et trouver le composé :
qui présente une bonne concordance entre le spectre d’absorption de la molécule mère et le spectre solaire concomitamment à une forme isomère métastable à haute énergie qui ne présente pas une absorption concurrente ;
qui propose un bon rendement quantique (ici rapport entre le nombre de molécules qui se transforment par photoisomérisation et le nombre de photons utilisés), un isomère à haute densité d’énergie et dont la capacité à se retransformer en sa forme parent ne s’altère pas trop au court du temps ;
qui possède une durée de stockage de l’isomère métastable qui soit compatible avec l’application souhaitée ;
et enfin que l’on puisse intégrer dans un substrat filmable.
Dans les travaux des chercheurs de l’université de Chalmers, c’est le couple norbornadiène (NBD) quadricyclane (QC) qui a été particulièrement étudié car il présentait de bonnes propriétés de départ et semblait avoir un bon potentiel de « réglage ». Le NBD-QC présente ainsi une efficacité d’absorption estimée à 3,8 % associée à des densités de stockage d’énergie allant jusqu’à 0,48 MJ.kg-1. En jouant sur les unités donneuses et accepteuses de la molécule par de subtiles changements de structures, les chercheurs ont réussi à obtenir une meilleure correspondance avec le spectre solaire, avec un début d’absorption pouvant atteindre 529 nm et une durée de vie jusqu’à 10 mois. Le cycle de stockage d’énergie de cette molécule est un cycle quotidien. Différentes intégrations du NBD-QC dans des matrices polymères ont été testées comme le PMMA (c’est-à-dire du plexiglas), révélant que la matrice la plus pertinente est un polystyrène. Au final, ils ont donc obtenu un film qui peut absorber la lumière du soleil et la relarguer sous forme de chaleur sur un cycle de l’ordre de la journée. Sa durée de vie est suffisante pour permettre de l’appliquer comme revêtement de vitres et ainsi, à terme, proposer des fenêtres fonctionnelles pour la climatisation ou le dégivrage.
Les MOST sont faits pour durer
Ces travaux font suite à ceux sur des MOST dédiés, eux, à un stockage de l’énergie longue durée, qui pourrait s’appliquer à diminuer l’effet des variations saisonnières sur la consommation d’énergie. En effet, le laboratoire de l’université de Chalmers avait déjà publié en 2018 une série d’articles (voir ci-dessous) portant sur des travaux sur l’amélioration des MOST pour les rendre utilisables dans de premières applications commerciales sous une dizaine d’années.
Leurs travaux ont notamment permis de mettre au point un MOST qui peut stocker l’énergie sur plus de 18 ans et qui peut être facilement activé. Stockable sous une forme liquide – les chercheurs avait réussi à se passer du toluène, hautement inflammable, pour stocker la molécule – les chercheurs ont trouvé un catalyseur qui agit comme un filtre. Lorsque le liquide passe dans le catalyseur, il se crée une réaction dégageant de la chaleur. Dans leur système, la température du liquide augmente jusqu’à 63°C. Ainsi, si le liquide stocké est à 20°C, il passe à 83 °C. Lors de cette réaction, il revient à sa forme moléculaire d’origine, permettant de créer un système cyclique.
Références supplémentaires
Les articles des chercheurs de l’université de Chalmers parus en 2018 :
Du 2 au 13 décembre, l’enjeu principal de la COP25 résidera dans la dynamique à donner pour réévaluer l’ambition des pays. Sans le leadership des États-Unis, la Chine pourrait prendre la tête des négociations. Mais en absence de pays suffisamment ambitieux, le risque est grand que ce niveau d’ambition reste trop faible.
Des engagements climatiques à renforcer pour tous
En amont de la conclusion de l’Accord de Paris, tous les pays avaient soumis des engagements climatiques, des « contributions déterminées au niveau national » (NDC, selon l’acronyme anglais). Elles demeurent insuffisantes pour atteindre l’objectif de limiter le réchauffement climatique à +2°C, voire 1,5°C en 2100 par rapport à l’ère préindustrielle. Et les pays ne prennent pas le chemin pour atteindre ces contributions déjà insuffisantes.
Par construction, l’Accord avait prévu un mécanisme de l’ambition qui donnait rendez-vous à tous les pays cinq ans plus tard pour relever ces engagements. « L’échéance arrive à la COP26 de Glasgow, rappelle Lola Vallejo, directrice du programme Climat de l’Institut du Développement Durable et des Relations Internationales (Iddri). Mais la COP25 de Madrid joue un rôle important pour faire en sorte que la coalition des pays engagés pour plus d’ambition se développe. »
Renforcer l’ambition climatique de tous les pays
Les engagements à l’horizon 2050 se multiplient, mais les plus concrets, à 2030, sont moins courants. Ainsi, 67 pays ont adhéré à l’Alliance pour l’Ambition Climatique qui vise à atteindre la neutralité carbone en 2050, mais « les pays qui ont annoncé qu’ils allaient relever leur ambition représentent ensemble moins de 10% des émissions », relate Lola Vallejo. « Ceux qui se sont fermement engagés dans le processus ne sont pas encore les gros émetteurs », poursuit-elle. La COP de Madrid sera l’occasion de renforcer cette coalition et de définir les conditions nécessaires pour que les autres pays soient prêts à relever leur ambition sur le plan climatique.
La NDC de l’Union européenne est actuellement de baisser les émissions de 40 % en 2030. La révision pourrait retenir une nouvelle contribution entre 50 % et 55 %. À la présidence de la COP25, le Chili a pour sa part soumis son NDC à la société civile. Le pays compte réduire les émissions de 47% d’ici 2030, au lieu des 30% de sa précédente contribution, et atteindre la neutralité carbone en 2050.
Les dernières négociations sur les mécanismes
Entre la COP21 et la COP24, les négociations ont particulièrement porté sur les règles de mise en œuvre de l’Accord de Paris. Le dernier volet des règles d’application de l’accord de Paris restant à négocier concerne les marchés du carbone. « Il va y avoir principalement deux éléments de négociation : finir les règles de l’Accord de Paris sur ce qu’on appelle l’article 6 lié aux marchés de carbone internationaux et réviser le mécanisme international de Varsovie sur les pertes et préjudices », complète Lola Vallejo.
Les négociations seront particulièrement difficiles sur ces deux points. Sur les marchés du carbone, il faut définir les mécanismes de compensation d’un pays à l’autre et étudier la création d’un marché mondial du carbone qui permettrait aux pays (et aux entreprises) de négocier les compensations, à travers le financement de projets, mais sans restrictions géographiques. Par ailleurs, les pays en développement demandent un flux financier additionnel à l’adaptation pour financer les pertes et préjudices. Il s’agit de tous les impacts résiduels auxquels les pays ne pourront plus s’adapter. En particulier, il servirait à indemniser les pays touchés par des événements météorologiques extrêmes.
« Cette COP est plus limitée sur les vrais éléments de négociation, prévient Lola Vallejo. On va rentrer beaucoup plus dans des COP de mises en œuvre où il faudra encore plus ouvrir la porte aux acteurs non étatiques pour arriver à des stratégies de décarbonation en collaboration avec des acteurs privés ou locaux ».
Plusieurs mois après le lancement de l’attaque en justice contre l’État pour inaction climatique, associations écologistes et activistes se mobilisent de nouveau. Les associations Le Mouvement et Notre affaire à tous ainsi que la chaîne Youtube Partager C’est Sympa ont lancé ce mardi 26 novembre une nouvelle campagne de mobilisation appelée SuperLocal. L’objectif de cette mobilisation est d’inciter citoyens et militants à se réunir partout en France contre des projets accusés de porter atteinte à l’environnement ou « injustes ». Ils concernent des fermes-usines, des autoroutes, des centres commerciaux ou encore des incinérateurs ; et leur réalisation engendrerait des pollutions de l’air, de l’eau et des sols.
« On va soutenir, rejoindre et créer des collectifs en lutte contre les sites et projets polluants ou injustes partout sur le territoire » explique Vincent Verzat, youtubeur de Partager C’est Sympa. Les instigateurs du mouvement ont identifié 600 sites qui pourraient potentiellement donner lieu à des mobilisations. L’acteur français Baptiste Lorber dénonce ainsi un projet de carrière d’où seraient extraites 700 000 tonnes de roches pour bétonner la région Île-de-France. La Youtubeuse Charlie Danger pointe, quant à elle, du doigt le projet de surf park de Saint-Père-en-Retz (44). Aucune hiérarchie n’existe parmi les différents projets. Pour Elliot Lepers, directeur de l’ONG Le Mouvement, « toutes les luttes sont urgentes dans les mois qui viennent ».
SuperLocal veut aider les militants à « monter en puissance et en compétences »
Concrètement, SuperLocal permet de rejoindre l’un des 200 collectifs de lutte déjà existants, ou d’en créer de nouveaux. « Partout en France, des collectifs d’habitants se mobilisent déjà ou veulent se lancer, et nous allons les y aider » résume Vincent Verzat. Là est l’originalité de cette nouvelle action. Dans le but d’atteindre une caisse de résonance puissante, les organisateurs de SuperLocal veulent offrir des formations aux militants. « Nous voulons leur donner accès aux meilleures expertises nationales pour faire gagner en efficacité les actions entreprises » explique Elliot Lepers, joint par téléphone. Les militants sont également invités à mettre toutes leurs compétences en commun, qu’ils soient entre autres cuisiniers, grimpeurs, ingénieurs ou encore graphistes.
Les moyens mis en place par les associations pour aider les militants à rendre leurs actions plus efficaces peuvent revêtir plusieurs aspects. « Notre affaire À tous va assurer le suivi juridique de tous les collectifs qui utiliseront le droit comme moyen de lutte » déclare Chloé Gerbier, coordinatrice des juristes, dans la vidéo de lancement de la campagne. « L’ONG Le Mouvement est experte en mobilisation citoyenne, et nous allons aider les collectifs locaux à avoir le plus grand impact possible » ajoute Elliot Lepers. Dans les faits, ils apprendront aux personnes mobilisées à maîtriser et utiliser différents outils de communication. Comme le rappelle Vincent Verzat, le but recherché par les organisateurs est de réussir à faire « monter en puissance, en nombre et en compétences » les personnes mobilisées.
Interpeller les candidats aux municipales, sans n’en soutenir aucun
Cette forte volonté d’apporter de l’aide en termes d’organisation et de formations s’explique en partie par l’imminence des élections municipales. Les parties prenantes de SuperLocal souhaitent que les candidats parlent des projets controversés durant les débats électoraux. En revanche, aucune directive d’action n’est donnée aux collectifs. « Les groupes existants sont autonomes et sont libres d’agir comme ils le veulent pour interpeller les candidats » indique Elliot Lepers. Et leur action politique n’ira pas plus loin. Aucune candidature ni aucune liste ne se présentera aux élections, à l’inverse des « gilets jaunes » lors des législatives. « Nous ne soutiendrons aucun candidat non plus, même s’il s’engageait à mettre un terme à un projet » précise le directeur du Mouvement.
Dans tous les cas, les militants attendront des réponses concrètes, dans un contexte politique hostile au gouvernement. Les militants n’accepteront pas non plus que de grandes questions sociétales soient renvoyées dos à dos, comme l’explique Usul, vidéaste et chroniqueur pour Mediapart. « L’argument des élus pour justifier toutes ces infrastructures polluantes, c’est toujours […] l’emploi. Mais c’est qu’on a la mémoire courte. Ces entrepôts Amazon, ces fermes industrielles, ces centres commerciaux ont déjà détruit des millions d’emplois ». Deux jours après le départ de SuperLocal, plusieurs milliers de personnes auraient rejoint la campagne. Les organisateurs en sont satisfaits.
Ils sont encore peu nombreux, mais ils vont devenir incontournables dans les prochaines années. Selon le rapport World Robotics, l’IFR (International Federation of Robotics), le «nombre d’unités installées reste très faible avec une part de 3,24 % seulement.»
En 2018, moins de 14 000 des 422 000 robots industriels installés étaient des cobots. Mais BIS Research (un cabinet américain de consultants spécialisé dans les innovations et les tendances industrielles) se montre très optimiste.
Selon son rapport, intitulé “Global Collaborative Robot (Cobot) Market – Analysis and Forecast 2019-2024”, le marché des robots collaboratifs devrait atteindre 9,13 milliards de dollars en 2024. Ce secteur devrait bénéficier d’un taux de croissance frôlant les 60 % entre cette année et 2024.
La “cobotique” est un néologisme imaginé en 1999 par Edward Colgate et Michael Peshkin, professeurs à la Northwestern University. Ce sont des machines qui travaillent “avec” des personnes, et non “à leur place”. Le besoin de robots sûrs et flexibles, capables de travailler de concert avec les humains, a conduit à l’invention de robots collaboratifs.
On en distingue plusieurs types : ceux pilotés par un opérateur situé à proximité immédiate du système, d’autres commandés à plus grande distance (ou téléopérés) et les exosquelettes, sortes de prolongements du corps humain.
Ces robots collaboratifs fonctionnent sans protection physique ; ils doivent calculer en permanence le risque de collision ou de choc avec l’homme. En cas de contact inattendu, ils peuvent notamment réduire leur vitesse – et donc l’énergie cinétique – afin de limiter les conséquences sur les techniciens qui se trouvent à côté d’eux. Les personnes et les robots peuvent ainsi partager le même espace de travail sans aucun souci.
Ces machines sont utilisées depuis quelques années chez des industriels pionniers. En 2008, Universal Robots avait vendu le premier robot collaboratif au monde.
Aujourd’hui, les usages des cobots sont très variés : l’équipement, le mobilier, les industries à base de plastique, l’alimentation, l’automobile, l’usinage…
La forte croissance enregistrée par le marché est favorisée par les objectifs des industriels :
amélioration de la productivité, la vitesse et l’efficacité ;
réduction de la main-d’œuvre ;
fabrication en continu…
Grâce à leurs capteurs intégrés, ces machines sont capables d’automatiser des tâches d’assemblage délicates, depuis l’assemblage de transmissions automobiles jusqu’à l’insertion de bouchons en caoutchouc ou la manipulation de pièces flexibles.
Avec les récents développements de l’intelligence artificielle et de l’apprentissage machine, les robots deviennent de plus en plus flexibles. Ils devraient jouer un rôle clé dans l’Industrie 4.0, non seulement dans le cadre de la production moderne, mais aussi en tant que collecteurs de données capables de communiquer toutes les informations pertinentes aux systèmes informatiques en temps réel si nécessaire.
Ces données pourraient être utilisées pour optimiser la production et la qualité.
Techniques de l’ingénieur : Les dérives de l’industrie de la mode sont de plus en plus flagrantes. Quels sont les grands impacts environnementaux à considérer ?
Majdouline Sbai : En 2014, 100 milliards de vêtements étaient vendus dans le monde, soit deux fois plus qu’en 2000. La courbe est exponentielle : on pense que l’on est aujourd’hui autour de 150 milliards de vêtements vendus chaque année. Selon les chiffres fournis par l’ADEME, la mode émet 1,2 milliard de tonnes de CO2 chaque année. C’est plus que l’aviation et le trafic maritime international réunis. L’entretien de nos vêtements synthétiques en machine relâche autour de 500 000 tonnes de microplastiques chaque année dans l’océan, soit l’équivalent de plus de 50 milliards de bouteilles en plastique.
Un impact considérable est la consommation d’eau avec l’irrigation, notamment pour le coton, et la phase d’ennoblissement. Cette dernière concerne la finition du textile, dont la teinture et le lavage. Ainsi, l’industrie de la mode est le troisième consommateur des eaux d’irrigation dans le monde. Dans la phase d’ennoblissement, on utilise aussi beaucoup de produits chimiques qui polluent les eaux et se retrouvent aussi en partie dans les vêtements.
Ajoutons à ces impacts le gaspillage lors de la découpe. Environ 15% du tissu part alors à la poubelle, ce qui constitue un énorme gaspillage de ressources. Enfin, on emballe les vêtements dans du plastique (polybag). 15% des emballages jetables dans le monde seraient, au passage utilisés par l’industrie textile. Les vêtements sont ensuite transportés sur des milliers de kilomètres. Environ 70% des textiles achetés en Europe viennent de l’Asie du sud-est, en avion ou en bateau.
Quel est le défi principal pour réduire l’impact de cette industrie ?
L’enjeu capital est de mieux connaître les impacts de l’industrie de la mode au niveau mondial. C’est une industrie très complexe et mondialisée. Il y a une diversité de produits, d’opérateurs, beaucoup de sous-traitance et une certaine forme d’opacité.
Face à cette complexité, il faut avoir une règle : rien ne se perd, tout se transforme. Il faut penser dès le début la réparabilité et la recyclabilité du produit. Et au maximum utiliser des matières recyclées pour faire de nouveaux produits. Il faut aussi développer les techniques pour optimiser les découpes et éviter les chutes. Le design des vêtements devra prendre en compte ces aspects.
En France, autour de 624 000 tonnes de textiles d’habillement, linge de maison et chaussures sont mises sur le marché chaque année. Soit environ 2,6 milliards de pièces. On en a collecté et trié 239 000 tonnes en 2018, avec un taux de réemploi d’environ 60%. Les 40% restant sont principalement effilochés ou transformés en chiffons d’essuyage.
Y a-t-il des fibres moins polluantes que d’autres ? Lesquelles privilégier ?
63% des fibres utilisées dans le monde sont issues de la chimie, qu’elles soient synthétiques – polyesters, acrylique et autres – ou à base de bois transformé chimiquement (le bambou, la viscose et le tencel). En parallèle, 26% des fibres sont en coton et 11% sont en matières naturelles hors coton, à savoir majoritairement laine, soie et lin.
Les matières à privilégier sont les matières réemployées et recyclées. Elles permettent d’aller la durée de vie du textile et d’éviter la phase amont de production. On sait qu’il faut réduire la part du coton qui utilise beaucoup de pesticides, ainsi que des matières synthétiques qui sont issues de la pétrochimie et relâchent des microplastiques. Mais pour le reste, la question principale demeure la traçabilité. Il ne faut pas que les fibres provoquent du déboisement et doivent être produites dans de bonnes conditions de travail. Les matières naturelles végétales qui nécessitent peu d’eau et pas de pesticides, comme le lin et le chanvre, sont à favoriser. Pour un rendu esthétique différent, le tencel peut être intéressant, mais le problème reste la traçabilité. Pour les non végans, la laine et le cuir peuvent être intéressants, mais doivent provenir d’élevages équitables, avec de l’agroforesterie.
De nouvelles matières, réalisées avec des sous-produits de l’industrie agroalimentaire, arrivent sur le marché. C’est par exemple le cas avec des épluchures d’agrumes ou du marc de café. Nous pourrions faire la même chose avec les épluchures de betteraves. Avec les enjeux environnementaux, il faut se demander quelles doivent être les matières du 21e siècle. Ce ne peut pas être les mêmes que celles d’aujourd’hui. Plein de nouvelles filières naturelles sont à créer.
Cet article est extrait de «Recyclage dans le secteur textile », rédigé par Serge CRUTEL et Emmanuel PRETET. Consultez l’article complet sur www.techniques-ingenieur.fr, en saisissant sa référence [N4603] dans le moteur de recherche (ou directement sur : https://tinyurl.com/yyogua4k).
Le prix des matières augmente en rupture avec la tendance des décennies passées. Pour répondre à la demande croissante, l’exploitation de nouvelles ressources issues du recyclage est nécessaire. L’économie circulaire vise à favoriser les modes de consommation et de production moins dispendieux. Le recyclage des textiles est au cœur des enjeux environnementaux et doit contribuer à économiser les ressources naturelles : le déchet de l’un devient alors une nouvelle ressource pour l’autre.
Le recyclage textile fait appel à de nombreuses technologies pouvant être classées en trois catégories : recyclage chimique, recyclage mécanique et recyclage physique. Les textiles usagés peuvent permettre la fabrication de nouveaux textiles (recyclage en boucle fermée), mais également des produits non textiles, comme des plastiques (recyclage en boucle ouverte).
Les défis à relever ne sont pas seulement d’ordre technique, mais surtout d’ordre structurel et organisationnel. Cela nécessite la mise en place de filières adaptées dont les enjeux sont la massification des gisements, l’optimisation du tri et du démantèlement en vue de faciliter l’approvisionnement des secteurs textiles et non textiles susceptibles d’absorber les matériaux textiles à recycler.
Enfin, la réussite du recyclage textile passe par le développement de technologies intégrant la viabilité économique de la filière.
Quelles sont les difficultés du recyclage textile et comment pouvons-nous nous projeter dans un avenir nouveau utilisant des matériaux secondaires ?
Techniques de recyclage
Différentes formes de valorisation des textiles usagés existent :
la réutilisation pour un usage identique à leur première utilisation ;
le recyclage en boucle fermée qui consiste à refaire des articles textiles à partir de textiles recyclés ;
le recyclage en boucle ouverte qui consiste à développer de nouveaux produits grâce à la matière textile (isolants, essuyage) ;
d’autres formes de valorisation matière et énergétique.
De nombreuses solutions de recyclage des textiles existent, comme en atteste la figure ci-dessous.
Typologie de valorisation et secteurs utilisateurs de textiles en fin de vie
Le recyclage mécanique
Le recyclage mécanique, technique la plus utilisée à ce jour, consiste à récupérer les matériaux textiles après un traitement mécanique. Il regroupe différentes méthodes.
La coupe: Le procédé de recyclage mécanique le plus courant consiste à couper et déchiqueter le tissu en petits morceaux qui peuvent être utilisés comme garnissage dans des matelas ou des tapisseries d’ameublement, comme isolation ou comme sous-couche de tapis. La coupe concerne généralement les articles d’habillement arrivés en fin de vie. Cela consiste à découper les textiles, les reconditionner et enfin commercialiser les produits secondaires. Les opérations de coupe sont réalisées soit manuellement à l’aide de scies ou d’emporte-pièces, soit mécaniquement à l’aide de coupeuses automatisées.
L’effilochage : L’effilochage est une opération qui consiste à transformer les textiles en fibres en les passant au travers d’une effilocheuse qui va étirer et déstructurer la matière. Les étoffes textiles à recycler sont préalablement découpées dans des coupeuses rotatives afin de produire des chiquettes qui permettent ensuite d’alimenter l’effilocheuse. Le procédé d’effilocheuse est entièrement automatisé. L’effilocheuse consiste en une succession de cylindres rotatifs, garnis de milliers d’aiguilles ou picots. Plus la matière avance dans l’effilocheuse, et plus la densité d’aiguilles augmente afin d’affiner la matière textile en vue d’obtenir de la fibre. L’effilochage agresse et casse les fibres. À la sortie de l’effilocheuse, les fibres sont généralement réduites, leur taille étant considérée comme moyenne et leurs propriétés mécaniques sont affectées. Ces fibres seront incorporées en filature à d’autres fibres plus longues afin d’être filées, puis de nouveau tissées ou tricotées.
Le broyage : Un autre type de recyclage mécanique est le broyage des textiles mis au rebut. Cette opération consiste à réduire les textiles usagés en les broyant afin d’obtenir des fibres très courtes ou des poudres. Les déchets textiles sont d’abord découpés en petits morceaux, puis passés à travers un tambour rotatif constitués de plusieurs lames qui vont alors les transformer en fibres de quelques millimètres. Des tamis ou grilles permettent de calibrer la pulpe de fibres en fonction de la longueur souhaitée.
Le défibrage : Le défibrage est un procédé qui permet de récupérer des fibres suffisamment longues pour être utilisées en filature, dans le but de produire de nouveaux articles textiles en tricotage ou en chaîne et trame. Le défibrage utilise essentiellement les technologies de l’effilochage, mais avec des modifications sur le matériel industriel qui permettent de préserver la longueur de la fibre, et donc de produire un fil de meilleure qualité. En fonction des caractéristiques finales recherchées dans le fil, le filateur pourra mélanger des fibres issues du recyclage avec des fibres vierges afin d’obtenir les résistances mécaniques et les effets souhaités (effet chiné, boutonné, etc.). Dans l’opération de défibrage, les articles textiles sont déstructurés et passent de l’état d’étoffe à un état de matière fibreuse. Le procédé est entièrement automatisé et breveté par Filatures du Parc. Les articles sont ainsi découpés, délissés, puis pré-démaillés et démaillés afin de ne pas agresser et casser les fibres, le but étant de garantir une certaine qualité des fibres de seconde vie. À ce niveau, on retrouve des fibres et de la bourre utilisables comme matière première secondaire pour l’étape de filature.
Le recyclage physique
Le recyclage physique des textiles va utiliser des technologies qui font appel aux propriétés physiques des matériaux à traiter.
Un obstacle important au recyclage des vêtements et autres textiles provient de leurs fibres originelles, dont la plupart sont composées d’un mélange de fibres. Les mélanges les plus couramment utilisés dans l’industrie textile sont les mélanges de coton et de polyester, dans différentes proportions (50/50, 30/70 ou 70/30). Les mélanges sont souvent binaires (deux matières), mais peuvent être aussi ternaires voire quaternaires.
Les industriels ont recours à des mélanges de matières soit pour des raisons techniques (augmenter les résistances grâce à la fibre de polyester), soit pour des raisons économiques. On retrouve les mélanges de fibres dans tout type de secteur, par exemple le secteur de l’ameublement (notamment les articles de literie : draps, couettes, oreillers, protection matelas) et de l’habillement.
Lorsque les articles textiles arrivent en fin de vie, la difficulté réside dans le mélange de matières qui n’ont pas les mêmes propriétés, et donc qui ne sont pas directement réutilisables en tant que telles dans d’autres applications. Pourtant, bien qu’il soit facile de recycler le coton et le polyester individuellement, il n’est pas facile de les séparer mécaniquement, car les fibres sont étroitement liées entre elles.
Pour cela, les industriels et chercheurs travaillent à la mise au point des techniques de séparation des matériaux.
Si trois scenarii sont en présence (*), l’AIE se penche largement sur celui affichant les politiques annoncées (STEPS) et sur celui définissant la trajectoire pour atteindre les objectifs climat-énergie fixés lors de la COP 21 à Paris en 2015 (SDS).
Ainsi, l’AIE constate que la croissance de la demande en électricité est encore plus rapide que celle de la demande énergétique mondiale. La consommation électrique croît en effet à un rythme deux fois supérieur à celui de la demande globale d’énergie dans le scénario STEPS, confirmant, insiste l’Agence, « sa place au cœur des économies modernes. » Une croissance tirée par les moteurs industriels (notamment en Chine), suivie par les appareils ménagers, les systèmes de refroidissement, et les véhicules électriques. Et dans le scénario SDS, l’électricité est l’une des rares sources d’énergie dont la consommation progresse encore après 2040 (principalement à cause des véhicules électriques), tout comme la demande directe en énergies renouvelables (ENR) et en hydrogène.
En 2040, dans ces scenarii, la part de l’électricité dans la demande finale totale dépassera celle du pétrole, alors qu’aujourd’hui, elle en représente moins de la moitié.
Solaire et éolien permettent aux ENR de dépasser le charbon dans le mix de production électrique au milieu des années 2020, indique l’AIE. Et d’ici 2040, les énergies bas carbone (incluant ici le nucléaire) fournissent plus de la moitié de la production totale d’électricité. L’AIE signale, au passage, que la montée du solaire (le photovoltaïque étant le grand vainqueur en termes de capacité installée dans les années à venir) et de l’éolien (dont un boom attendu côté offshore) n’éclipse pas les contributions de l’hydraulique (15%) et du nucléaire (8%), qui continuent à jouer un rôle dans la décarbonation du mix mondial.
Encore un effort…
Néanmoins, si l’électricité devrait ainsi progresser de 25% en termes de demande, d’ici à 2040, signale Tim Gould, responsable de la partie production du WEO, c’est loin d’être suffisant pour répondre aux enjeux écologiques et pour alimenter la population. Le directeur général de l’AIE a en effet rappelé, lors de la présentation du WEO, le 13 novembre dernier, que 860 millions d’habitants de la planète n’avaient toujours pas accès à l’électricité.
Ainsi, la sécurité énergétique mondiale (faut-il rappeler que c’est l’essence même de la création de l’AIE) va reposer de plus en plus sur l’électricité. Et le coût des coupures de courant devient de plus en plus cher… Or, insiste l’Agence de l’OCDE, les investissements dans les réseaux et dans le stockage (qui progresse, certes, grâce à la baisse de son coût permettant d’envisager, dans le scénario STEPS, 120 GW en 2040) sont loin d’être à la mesure de ce qu’ils devraient être.
Par ailleurs, certains éléments, comme la montée en puissance du véhicule électrique est pour l’heure contrebalancée par celle des SUV, dont l’électrification est plus « difficile », indique l’AIE, et dont les modèles « conventionnels », donc thermiques, consomment 25% de plus que des véhicules de taille moyenne (leur électrification n’améliore pas vraiment le rendement !).
Enfin, martèle l’AIE, « si le monde entend inverser la tendance actuelle en matière d’émissions, il doit se concentrer non seulement sur les nouvelles infrastructures, mais également sur les émissions verrouillées par le système existant ». Ainsi, malgré les évolutions rapides du secteur électrique, les rejets de CO2 liés à l’électricité ne diminuent pas dans le scénario STEPS, notamment à cause de la longévité du parc existant de centrales au charbon, qui représente actuellement 30% des émissions liées à l’énergie. Dans son scénario SDS, l’AIE juge que la majeure partie des 2080 GW de capacités au charbon devront soit réduire leurs opérations (en participant à la sécurité du réseau), soit être fermées de manière anticipée.
(*) Les trois scénarii 2019
Le scénario « politiques actuelles » (Current Policies Scenario, ou CPS), scénario de référence, qui intègre les politiques actuelles et ce qui se passe si elles se poursuivent en l’état. Dans ce scénario, la demande énergétique continue de croître de 1,3% par an jusqu’en 2040 ; chiffre inférieur à celui de 2018 (+2,3%).
Le scénario “Politiques annoncées” (Stated Policies Scenario, ou STEPS), qui intègre les objectifs, politiques et mesures prévues et/ou annoncées aujourd’hui, en plus des politiques actuelles. L’AIE rappelle qu’il ne s’agit pas de faire des prédictions, mais de montrer où conduisent les politiques annoncées.
Le scénario “Développement durable” (Sustainable Development Scenario, ou SDS), qui intègre les politiques nécessaires pour atteindre les objectifs climat-énergie fixés par les décideurs politiques à travers le monde. Ce scénario présente une trajectoire compatible avec les objectifs de température de l’Accord de Paris (hausse maximale des températures moyennes mondiales de +2°C, et si possible de +1,5°C).
Dans l’industrie, la maquette physique est le point de rendez-vous incontournable des équipes de conception et de développement. Dans un rituel bien défini, à l’occasion de jalons planifiés longtemps à l’avance, on la regarde, on la touche, on la caresse, on la manipule. On échange, on critique, on partage. On décide !
Des produits tels qu’un véhicule automobile, un avion ou un navire sont très complexes et leurs développements impliquent des centaines d’acteurs de spécialités bien différentes ; la maquette permet d’atteindre le consensus entre les différents métiers, parce que, quelle que soit la culture ou la formation des parties, chacun est confronté au même objet. Malheureusement, la maquette physique présente de graves défauts sur chacun des sommets du fameux triangle : coût, délai, prestations. C’est pourquoi l’industrie qui fait appel massivement au numérique entrevoit dans la réalité virtuelle un axe ultime permettant de tirer tous les bénéfices de l’investissement numérique des bureaux d’études.
De la CAO à la réalité virtuelle en milieu industriel
Après la révolution engendrée par l’introduction des techniques de CAO, les industries manufacturières ont connu un nouveau bouleversement avec l’introduction de la réalité virtuelle. Ces deux révolutions sont liées à plus d’un titre. Tout d’abord, la première a créé la notion de maquette numérique que la deuxième exploite pleinement. Ensuite, elles ont eu pour vocation d’optimiser le cycle de conception des produits industriels afin de réduire les temps de développement. Fondamentalement, par rapport au bureau d’études, la question posée par l’introduction de la réalité virtuelle dans la vie de l’ingénieur concerne le fait de savoir, d’une part, comment il pourra mieux réaliser avec la réalité virtuelle ce qu’il faisait avant et, d’autre part, comment il pourra exploiter l’outil pour concevoir, fabriquer ou produire différemment.
En CAO, seules des caractéristiques techniques et fonctionnelles dépendant de lois physiques peuvent être testées. Les caractéristiques techniques et fonctionnelles dépendant d’un comportement humain, comme les aspects ergonomique et esthétique du produit, ne sont pas prises en compte ou le sont difficilement.
Par exemple, il est difficile pour des concepteurs d’étudier l’ergonomie de l’intérieur d’une voiture en se basant sur des plans ou sur des images de synthèse affichées sur un simple écran d’ordinateur. Une vision immersive est plus adaptée à leur problématique pour leur permettre de tester et de modifier la conception de l’intérieur de la voiture, visualisée dans un CAVE (Automatic Virtual Environment : ensemble de 3 à 6 grands écrans entourant l’usager) à haute résolution avec la captation des gestes du testeur.
Evaluation ergonomique de la conception de l’intérieur d’une voiture, visualisée dans un CAVE (Copyright Groupe PSA)
Maquette virtuelle en remplacement de maquette physique
Les outils de la réalité virtuelle permettent cette incursion dans l’écran, cette immersion dans l’environnement virtuel, cette simulation à la première personne où ce ne sont plus des mannequins numériques qui sont à bord et que nous observons de l’extérieur, essayant de comprendre ce qu’ils voient, ce à quoi ils accèdent. Nous sommes à bord, nous, êtres humains, nous voyons en vraie grandeur, nous ressentons en direct, nous interagissons en temps réel, ouvrant une porte, réglant la hauteur d’un volant, manipulant un pare-soleil ou réglant un rétroviseur : c’est tellement plus simple, tellement plus riche.
Cette immersion et cette interaction avec le produit devront être compatibles avec un fonctionnement en temps réel, ce qui est encore un verrou technologique pour des produits complexes. C’est un challenge difficile mais en voie d’être résolu, nommé par ce nouvel acronyme : CARV (Conception Assistée par Réalité Virtuelle). Une des grandes autres difficultés de la CARV est de pouvoir récupérer efficacement et facilement les données utiles des modèles géométriques CAO. Si les concepteurs modifient le modèle en CARV, ils souhaitent pouvoir « remonter » ces modifications dans le modèle CAO.
Quel est l’objectif principal de la CARV ? Sans aller jusqu’à penser qu’en conception toute maquette physique (réelle) d’un produit sera supprimée, l’objectif est d’en diminuer le nombre et (ou) d’améliorer la qualité de la conception. Dans le « cycle en V » de la vie d’un produit (de sa conception à sa fin d’utilisation), pendant l’étape de conception, la CARV permet de court-circuiter une partie du « cycle en V » (sans fabriquer le produit) pour tester certaines spécifications sur le prototype virtuel. Les stylistes et les ergonomes des constructeurs d’automobiles vont pouvoir concevoir ensemble et non séquentiellement comme auparavant, avec toutes les contraintes que cela entraînait. Mais, cela demande une approche différente, un changement culturel dans la façon de travailler. De même, quand les ingénieurs ont dû passer de la conception 2D à la conception 3D, le changement ne s’est pas fait sans remise en cause des habitudes de travail et de pensée.
Dès l’étude d’un avant-projet, la réalité virtuelle est un outil intéressant dans la démarche de conception. En partant du modèle fonctionnel du produit, on peut en avoir une représentation virtuelle sans avoir à spécifier précisément les dimensions et les caractéristiques techniques qui seront définies ensuite dans la phase CAO. En exemple, on peut citer l’étude du maquettage virtuel d’un appareil électronique, portable et utilisé en extérieur : la réalité virtuelle permet de tester les fonctionnalités de son boîtier de commande (accessibilité des boutons, qualité de l’affichage sur l’écran, couleurs, facilité de compréhension pour un novice…). En même temps, elle permet de valider le programme informatique dédié à cet appareil.
La conception d’un produit peut utiliser la réalité virtuelle pour permettre à un opérateur de tester l’ergonomie du produit, qu’il soit de petite ou de grande dimension (le poste de commande d’une machine, la signalétique dans une station de métro, d’une gare…). La signalétique de la gare SNCF de Saint Lazare à Paris a été analysée en réalité virtuelle avant la rénovation de cette gare. Les constructeurs de moyens de transport sont très intéressés par cette fonctionnalité. Des applications en réalité virtuelle sont exploitées quotidiennement aussi en aéronautique.
Il peut s’agir de tester la conception d’un produit au niveau géométrique : l’étude de l’encombrement des pièces, du montage et du démontage d’un ensemble, testé virtuellement par un utilisateur, pour concevoir la maintenance et le dépannage d’un mécanisme ou d’un processus, qu’il soit simple ou complexe (machine, raffinerie, véhicule…). Des tests virtuels d’accessibilité et d’assemblage peuvent valider ou remettre en question la conception d’un produit. Le deuxième cas est plus difficile à simuler : les gestes de l’opérateur doivent être les mêmes que ceux qui seront exécutés en environnement réel (dans un but d’étude ergonomique ou de formation à la maintenance). Les retours d’efforts, qui doivent être alors impérativement simulés, sont très difficiles à réaliser, surtout au niveau des doigts. Une solution est d’utiliser un « prop », une pièce réelle, ayant la forme et les dimensions de l’objet virtuel à manipuler, soumis aux bons retours d’effort en forces et couples grâce à une interface à retour d’effort 6D.
Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 12 décembre !
Depuis le 15 novembre dernier, le PDG de Total, Patrick Pouyanné, craint pour l’avenir de sa filière de production de biocarburant. À cette date et lors d’un second scrutin concernant le projet de loi de finances 2020, l’Assemblée nationale a largement voté contre le maintien de l’huile de palme dans la liste des biocarburants disposant d’un avantage fiscal. La veille, lors d’un vote éclair, les députés avaient décidé de la maintenir jusqu’en 2026. Or, plusieurs d’entre eux ont déploré les conditions dans lesquelles se sont déroulées le scrutin. « La très grande partie de l’Assemblée nationale, à ce moment-là, n’a pas bien compris de quel amendement on parlait, tout simplement parce qu’il n’a pas été discuté », déplorait Laurent Saint-Martin, député (LREM) du Val-de-Marne.
À la suite de ce premier vote, associations écologistes et députés opposés à l’utilisation de l’huile de palme comme biocarburant se sont vivement insurgés. L’association Les Amis de la Terre a accusé le gouvernement de céder « au lobbying éhonté de Total » et de faire à la firme un « cadeau fiscal évalué entre 70 et 80 millions d’euros ». La députée des Deux-Sèvres Delphine Batho (GE) a également manifesté son opposition au premier vote en déclarant que « cette niche fiscale est complice d’un écocide ». Ce revirement de position était d’autant plus surprenant que la décision de retirer l’huile de palme de la liste des biocarburants date de 2018. Même le recours effectué par Total auprès du Conseil constitutionnel n’avait pas abouti.
Muselier défend Total, Wargon souhaite aider
Si la décision de l’Assemblée nationale ne fait pas du tout les affaires de Total, c’est à cause de l’usine de La Mède. Située dans le département des Bouches-du-Rhône, la bioraffinerie prévoit d’utiliser jusqu’à 300 000 tonnes d’huile de palme « durable et certifiée » par an pour créer du biocarburant. Sur LCI, Patrick Pouyanné a déclaré craindre pour la « survie » du site qui emploie 250 personnes. Pour être mise en route, la bioraffinerie de La Mède a demandé à la firme 275 millions d’euros d’investissement. Cependant, l’arrêt des activités du site n’est pas encore à l’ordre du jour. « Nous continuerons à produire du biocarburant à base d’huile de palme à La Mède pour l’exporter en Allemagne, en Belgique » affirme Pouyanné.
De son côté, Emmanuelle Wargon, secrétaire d’Etat auprès de la ministre de la transition écologique et solidaire, estime qu’il est du ressort de l’État d’accompagner Total dans sa recherche d’une huile de palme qui n’impliquerait pas de déforestation. « Ce que dit l’entreprise, c’est qu’elle veut un délai pour adapter ses pratiques. Je crois qu’il faut qu’on regarde avec elle si c’est possible d’acheter de l’huile de palme qui ne déforeste pas. On a donc dit qu’on allait ouvrir un groupe de travail avec l’entreprise pour voir si c’est possible » a déclaré la secrétaire d’État rattachée à la ministre de la Transition écologique et solidaire. Le président de la région Sud, Renaud Muselier (LR) souhaite également soutenir Total. « Je ne serai pas le président de région qui remet en cause une sortie en douceur d’une activité qui, certes, présente des contraintes environnementales fortes, mais permet également à plus de 250 familles de la région Sud de vivre. »
L’huile de palme, cause d’une déforestation massive en Asie du Sud-Est
Or, les « contraintes environnementales fortes » dont parle Renaud Muselier sont bien au cœur des oppositions à l’huile de palme. Bien que cette huile affiche des rendements six à sept fois supérieurs au colza et au tournesol, sa production engendre des déforestations d’envergure. En Malaisie et en Indonésie, la production d’huile de palme pourrait faire disparaître 98% des forêts tropicales. De plus, le brûlage des terrains fait office de défrichage en vue des cultures, ce qui engendre de fortes émissions de gaz à effet de serre. « Avec les arbres, disparaissent des espèces rares comme l’orang-outan, l’éléphant pygmée de Bornéo ou le tigre de Sumatra » déplore l’ONG Sauvons la forêt. Dans ces pays, 3,34 millions d’hectares servaient à la culture de l’huile de palme en 2000 contre 4,86 millions en 2010.
En Europe, l’huile de palme est au cœur de nombreux usages, notamment pour fabriquer du biocarburant. Selon la Fédération européenne pour le transport et l’environnement, la part d’huile de palme utilisée en raffinerie est passée de 15% à 53% en dix ans. En France, 70% de l’huile de palme est destinée à cet usage. Autre poste où la demande européenne d’huile de palme se fait de plus en plus grande : le chauffage. En 2008, 5% de la matière était allouée à ce poste, contre 20% en 2018. Si la France compte interdire l’huile de palme dans les biocarburants dès 2020, le Parlement européen a fixé, quant à lui, la sortie de l’huile de palme à 2030. C’est pourquoi Patrick Pouyanné avait manifesté sa volonté de voir la date de l’interdiction française repoussée à 2026. Notons cependant que la décision finale n’est pas encore prise dans l’Hexagone. « Nous restons vigilants car ce vote positif est une première étape » indiquait par voie de communiqué l’association Agir pour l’Environnement.
La troisième édition du salon Virtuality, consacré aux technologies immersives, s’est achevée ce samedi 23 novembre au Centquatre à Paris. L’évènement, qui se veut généraliste, convoque de nombreux secteurs d’activité mis en lumière par 110 exposants : le divertissement – qui a assurément la plus grosse part – au travers d’expériences ludiques immersives, la culture pour observer le patrimoine sous un nouvel angle, la santé et le bien-être, le marketing et l’aide à la vente ou encore l’industrie, bien que celle-ci soit beaucoup plus discrète qu’à Laval Virtual… Bref, toutes les filières qui font un usage grandissant des casques de réalité virtuelle, augmentée ou mixte pour tenter de doper leur business.
Les chiffres reflètent cet engouement : 330 000 casques seront vendus en France cette année, selon une étude d’Idate. Soit cinq fois plus qu’il y a cinq ans… Le rapport ne donne pas la répartition entre le monde professionnel et le monde du grand public. Mais il y a fort à parier que le premier est le client de prédilection. Le grand public, lui, reste sur sa réserve, malgré les promesses des casques HTC, Oculus ou Playstation. De toute évidence, ce salon, dont la dernière journée est ouverte à tout le monde, est étudié pour lui donner goût à ces technologies.
Les produits et technos
Mieux mémoriser les gestes qui sauvent
Un mannequin connecté qui transmet plusieurs mesures, un casque de réalité virtuelle HTC Vive : ce kit technique permet d’enseigner les gestes de premiers secours, comme le massage cardiaque, de façon immersive. Selon l’entreprise D’un Seul Geste qui le commercialise depuis huit mois, cette méthode développe la mémorisation des gestes réflexes. Des projets-pilotes pour former les nouveaux employés sont conduits chez Orange, EDF et les laboratoires Servier.
Les Hololens reviennent en meilleure forme
Officiellement disponibles depuis le 7 novembre dernier, les lunettes de réalité mixte Hololens 2 de Microsoft étaient mises en œuvre sur le stand de Holoforge notamment. Elles permettaient d’observer une maquette du Mont Saint-Michel enrichie d’hologrammes 3D contextuels. Cette deuxième version bénéficie de nombreuses améliorations, dont la visière escamotable, le champ de vision élargi (52° au lieu de 34°), le poids mieux réparti et les interactions plus naturelles avec les hologrammes.
Des casques décontaminés grâce aux UV
Conçu par une entreprise californienne, Cleanbox décontamine les casques de réalité virtuelle grâce aux ultraviolets : 99% des virus, bactéries et champignons seraient éradiqués au bout d’une minute. C’est une solution hygiénique imaginée pour les milieux professionnels où les casques sont portés par de multiples personnes, comme les centres de formation, l’industrie ou encore les hôpitaux. Plusieurs configurations existent pour traiter un ou plusieurs casques simultanément.
Magic Leap One : pas de magie dans l’ergonomie
Ayant suscité une forte attente, les lunettes de réalité mixte Magic Leap One, d’origine américaine, étaient mises en scène sur le stand d’Opuscope. Un évènement rare en France, où elles sont peu répandues. Les Magic Leap One s’utilisent avec un mini-PC, à clipser à la ceinture, et une télécommande. Un système d’emblée moins ergonomique que celui des Hololens, où tout est logé dans le casque. Autre reproche : il est impossible de les porter si on a déjà des lunettes sur le nez ! La question de leur avenir, dans l’industrie ou ailleurs, reste posée.
Des modèles 3D rapides avec 6 Freedom
La start-up 6 Freedom met à profit le principe de la vidéo-grammétrie : son dispositif de capture 3D caméra, greffé à un iPad, et son algorithme reconstruisent rapidement un modèle 3D fidèle – avec texture et couleur appropriées – de ce qui est filmé. L’idée est d’enrichir les scènes 3D avec des objets 3D réalistes, et donc de favoriser l’apprentissage lors de sessions de formation en réalité virtuelle.
Manus VR : redonner le sens du toucher
Les gants de Manus VR, entreprise d’origine néerlandaise, s’utilisent conjointement avec une casque de réalité virtuelle. Repérés dans l’espace, ils permettent à l’utilisateur de voir ses mains, et même d’éprouver le sens du toucher, les doigts du gants étant équipés de vibreurs. Ce dispositif haptique faisait l’objet d’une démonstration où l’on devait saisir des pièces mécaniques puis les assembler sur un moteur d’avion. Volkswagen en fait déjà usage pour former ses opérateurs qui travaillent sur les moteurs de voiture.
Cayceo combine hypnose et réalité virtuelle
Commercialisée depuis septembre dernier par l’entreprise montpelliéraine Cayceo – le CHU de Bordeaux est le premier client – Ipneo utilise des techniques immersives pour traiter l’anxiété et la douleur des patients dans les milieux hospitaliers ou pédiatriques. Cette «régie» accueille jusqu’à cinq casques de réalité virtuelle, du fabricant Pico, et un écran tactile pour sélectionner et diffuser les vidéos, mises à jour à travers une connexion avec le cloud. Une mallette avec deux casques est également disponible. Exploitant le même principe, HypnoVR exposait également sur le salon.
La volonté de Skyreal est de fournir des applications à leurs clients qui vont leur permettre de créer eux-mêmes leurs contenus immersifs. Un défi permanent pour la start-up dirigée par Hugo Falgarone, spécialisée dans le développement d’outils de visualisation pour de grands systèmes : avions, usines… Interview.
Editions Techniques de l’Ingénieur : Racontez-nous l’émergence de SkyReal dans le monde de la réalité virtuelle.
Hugo Falgarone : J’ai travaillé pendant 17 ans chez Airbus, où j’ai participé au développement des méthodes et outils destinés aux ingénieurs pour concevoir de grands projets ou systèmes complexes. Il s’agit de passer d’un modèle CAO à un modèle virtuel pour la visualisation et la prise de décision. Nous avons travaillé sur tous les outils numériques, immersifs et autres, qui permettaient de faire cela et nous avons pu valider ces technologies et l’apport de ces dispositifs sur tous les grands programmes d’EADS et d’Airbus ces dernières années.
Le projet Skyreal vient en fait de l’externalisation de ces technologies développées chez Airbus. L’équipe actuelle de Skyreal est composée pour l’essentiel d’anciens collaborateurs d’Airbus, et nos premiers clients sont en fait nos anciens collègues, avec qui nous avions déjà validé ces technologies.
Quel est le principe des modèles virtuels développés ?
Un des points importants pour nos clients est le fait de pouvoir se servir des données de conception CAO et de pouvoir le plus rapidement possible les utiliser à l’échelle 1. C’est particulièrement pertinent dans l’aéronautique où l’on conçoit des systèmes de grande taille.
L’exemple que l’on donne couramment va être celui de savoir si, dans un sous-marin, un outil amené à être utilisé à différents endroits du submersible pourra toujours donner satisfaction avec les configurations spatiales prédéfinies.
Cette capacité de vérification de l’opérabilité des outils est quelque chose qui prend d’habitude énormément de temps. C’est également un moyen de repérer les erreurs de conception, puisque nous pouvons simuler une quantité de situations impossibles à anticiper dans leur ensemble. Si ces erreurs existent dans tous les projets, il s’agit aujourd’hui de les détecter le plus rapidement possible. Toujours dans le but de réduire les temps de cycle.
Le traitement des données constitue un véritable défi pour visualiser des maquettes aussi massives.
Aujourd’hui, c’est la réussite d’Airbus d’avoir permis le développement de modèles capables de traiter une quantité de données très importante, pour fournir des outils immersifs capables de gérer la visualisation à l’échelle 1 d’un avion ou d’une usine par exemple. D’ailleurs, ces immenses modèles voient leurs données mises à jour quotidiennement, pour que les utilisateurs puissent évoluer dans un environnement immersif «à jour».
L’autre point clé est l’utilisation d’un moteur 3D issu du jeu vidéo, Unreal Engine, qui offre des performances très importantes, à la fois dans la partie collaborative mais aussi en termes d’évolution, puisque le secteur du jeu vidéo est extrêmement concurrentiel.
Quels types d’usages proposez-vous à vos clients ?
Ils sont au nombre de trois. Le premier usage concerne les revues de maquettes. C’est l’usage typique, qui peut concerner aussi bien les ingénieurs, les clients… D’ailleurs, nous constatons chez tous les types de publics un attrait immédiat pour la technologie et les rendus virtuels que l’on obtient. Il n’y a pas de phénomène de rejet lié à l’utilisation de cette technologie chez les clients, au contraire. Aussi, la revue permet de valider beaucoup plus vite les choix, ou au contraire de constater immédiatement les problèmes et les traiter.
Le second usage concerne la validation. On s’adresse là aux ingénieurs qui ont besoin, pour faire les gammes de montage, de maintenance, de pouvoir démonter un sous-ensemble et étudier les meilleurs biais pour le remonter, le modifier, le réparer… Ils vont alors se mettre dans la peau des opérateurs pour visualiser concrètement toutes les opérations à faire – et à prévoir – sur un ensemble. A quelle hauteur on opère, quel poids est soulevé, combien de temps met-on pour assembler tels ou tels composants…?
Quelle est la place de la formation, votre troisième usage ?
C’est un sujet important, qui est en train de se mettre en place. Il s’agit de former des personnels qui vont opérer et maintenir des équipements.
Le premier sujet mis en place est l’évaluation de la capacité d’un opérateur à suivre des instructions : est-ce que ces instructions sont suffisamment claires, y a-t-il des points de blocage… On va pouvoir également mettre l’opérateur dans des situations plus variées pour évaluer sa capacité d’adaptation : on n’opère pas de la même façon selon que l’endroit est sombre, que l’on est sur une échelle, que l’espace pour travailler est réduit… On va aussi pouvoir simuler des situations de panne, de danger, d’urgence, qui sont prévues dans la formation mais souvent complexes à mettre en situation sans dispositif de RV.
Le sujet principal aujourd’hui sur le domaine de la formation est le coût de génération du contenu. Nous, nous ne produisons pas de contenu. Nous fournissons uniquement l’applicatif qui permet au client de créer le contenu par lui-même à partir de ses données 3D. C’est ce que nous voulons également pour les formations, c’est-à-dire délivrer au client les outils nécessaires qui lui permettront de créer ses formations de manière autonome.
L’intégration de la réalité virtuelle dans les processus métier na va pas de soi, notamment car cette technologie n’est pas encore évidente à utiliser pour tout un chacun.
Entretien avec Antoine Bernard, président de l’entreprise Reality Academy, qui propose des prestations de réalité virtuelle, de formation, d’onboarding (processus pour l’intégration de nouveaux salariés), de prévention… avec comme leitmotiv une «prise en main» la plus facile possible.
Editions Techniques de l’Ingénieur: Présentez-nous Reality Academy.
Antoine Bernard: Reality Academy est une agence spécialisée dans l’immersive learning. Nous avons 3 métiers au sein de l’entreprise : de la vidéo 360, de la VR 3D et de la réalité augmentée. Notre agence accompagne les organismes de formation ou les départements formation dans la conception de modules sur mesure en immersive leasing. En termes humains, nous employons deux réalisateurs, deux développeurs, un chef de projet, un graphiste 3D et des commerciaux.
Vous proposez toute une série d’applications pour les formations, la prévention, l’onboarding… notamment à destination des industriels.
Les applications que nous proposons pour l’industrie vont être pertinentes dans plusieurs cas d’usage. Par exemple, une vidéo 360° de visite d’usine va permettre aux commerciaux de montrer un nouveau processus de conception en clientèle. Ces vidéos vont aussi être utilisées en événementiel, dans des salons par exemple. Les ressources humaines peuvent également s’en servir pour présenter l’entreprise aux salariés, ou pour faire de l’onboarding. Elles vont aussi être utiles aux services marketing pour animer leurs réseaux sociaux, Facebook, LinkedIn… c’est une façon pour le client de mieux rentabiliser son investissement et de le décliner autant que possible.
Vous avez opté pour un partenariat avec Oculus. Pourquoi ?
Nous avons choisi Oculus comme partenaire de notre société notamment parce que cette société développe des casques de grande qualité à un prix abordable. Cela nous permet d’imaginer des expériences utilisateurs optimales et répond à un parti pris que nous avons, c’est-à-dire la volonté que l’expérience pour l’apprenant ne soit pas limitée par sa connaissance de la RV. Si l’utilisateur met 10 minutes à comprendre comment fonctionne le casque et ce qu’est la réalité virtuelle, c’est que notre pari est perdu.
Dans ce même cadre nous assumons de proposer des contenus qui ne sont peut-être pas les plus engageants, mais qui sont faciles à comprendre. L’Oculus Go, qui fonctionne avec des interactions au regard, permet cette simplicité de prise en main et rentre très bien dans le cadre que nous nous sommes fixés.
Vous développez également des applications avec l’Oculus Quest.
Effectivement le second casque d’Oculus avec lequel nous travaillons est le Quest, qui va bientôt intégrer la fonction de hand tracking. Des caméras disposées devant l’utilisateur reconnaissent ses mains et lui permettent d’interagir avec l’application sans manettes, uniquement avec des mouvements de mains. Comme pour l’Oculus Go, on voit ici que l’expérience utilisateur est privilégiée grâce à un device sans manettes, très simplifié et intuitif.
Vous ne développez pas encore d’applications de réalité augmentée. Pourquoi ?
Nous avons la capacité de faire de la réalité augmentée, nous le proposons dans notre catalogue, mais aujourd’hui la réalité du terrain fait qu’il y a des entreprises très spécialisées sur ce domaine, et nous ne le sommes pas encore assez.
Le gros point noir de la réalité augmentée reste le coût des matériels : aujourd’hui on est à plus de 3 000 euros par poste, alors qu’un casque Oculus Go vaut à peine 200 euros. Aussi le codage reste extrêmement cher, sans parler des contraintes liées aux devices, qui ne permettent pas d’avoir les mains libres par exemple.
Que ce soit en termes de device et en termes de création de contenus innovants, la réalité virtuelle est bien plus avancée.
Pourtant beaucoup d’industriels ne semblent jurer que par la réalité augmentée…
Je pense que c’est très complexe pour un industriel de comprendre les tenants et les aboutissants de ces deux technologies. Notamment car il y a encore beaucoup de pédagogie à faire, pour percevoir leurs atouts propres mais également leurs limites.
On a beaucoup plus de cas d’usages en réalité virtuelle qu’en réalité augmentée, et je ne suis pas persuadé que cela s’inverse dans les années à venir. Le fait de pouvoir créer un univers virtuel de A à Z grâce à la réalité virtuelle offre des solutions et des applications plus larges que l’ajout d’informations sur la réalité existante, ce que propose la réalité augmentée.
François Brottes, le président de RTE, a d’abord insisté sur les « injonctions un peu contradictoires » auxquelles le gestionnaire du réseau est confronté en permanence. C’est en effet à RTE qu’incombe à la fois de lutter contre le changement climatique (en facilitant l’arrivée de capacités renouvelables notamment), de garantir la continuité du service, tout en mettant en place des tarifs adaptés et des plans, sans pour autant « avoir la main sur l’approvisionnement » qui procède des producteurs. Note d’optimisme cependant, « plus l’exercice est compliqué pour nous, plus cela veut dire que le système change », donc que la transition énergétique est à l’œuvre, a insisté le président de RTE.
Rien à signaler pour l’hiver à venir, dans des conditions normales de températures, indique RTE. La consommation, stable depuis six ans, devrait conduire à une demande en pointe de l’ordre de 85 GW, signale Jean-Paul Roubin, directeur de l’exploitation du gestionnaire. Si certains scénarios (grands froids) font apparaître une pointe potentielle à 100 GW, les capacités de production françaises seront au rendez-vous, comme les possibilités d’importation. En effet, indique le responsable, le stock hydraulique est au plus haut de ces 10 dernières années, les producteurs hydroélectriques ayant géré avec parcimonie sur le premier semestre de l’année 2019 (très sec) la ressource, et cette dernière s’étant largement reconstituée depuis septembre. Côté nucléaire, le parc devrait avoir une disponibilité supérieure à celle de la même période l’an dernier. En outre, les capacités thermiques n’évoluent pas sur l’hiver à venir. Et les productions renouvelables sont en constante hausse. Enfin, côté interconnexions, l’offre étrangère devrait en moyenne atteindre les 8 600 MW, soit meilleure qu’en 2018-2019, quand manquaient à l’appel du nucléaire belge, de l’éolien allemand et de l’hydraulique suisse ; « sans aléas à l’étranger, il sera possible d’importer plus », insiste le responsable de RTE.
Les trois temps sur 2020-2025
Sur la période de 2020 à 2025, en revanche, c’est plus incertain. Deux points sont acquis cependant : le report du démarrage de l’EPR de Flamanville au mieux en 2023 et la poursuite de la montée en puissance des capacités renouvelables, en prenant comme référence la planification pluriannuelle de l’énergie.
Ainsi, Thomas Veyrenc, directeur stratégie et prospective de RTE, signale que jusqu’en 2022, la tendance enregistrée cette année devrait se prolonger. « Le système est au plus près des besoins. Il n’y a pas de surplus par rapport au critère réglementaire ». Les fermetures de Fessenheim (1,8 GW) et des premières centrales au charbon (Le Havre notamment) doivent, insiste Thomas Veyrenc, être compensées par le développement des interconnexions (avec l’Italie, sur Piémont-Savoie et avec le Royaume-Uni, IFA2) et la mise en service de la centrale à cycle combiné de Landivisiau (400 MW). Sinon, le maintien de l’équilibre sera plus complexe, d’autant que le planning des arrêts programmés de centrales nucléaires pour visites décennales monte en puissance, avec jusqu’à sept réacteurs par an dès 2022.
Un motif qui est d’ailleurs déterminant à partir de l’hiver 2021-2022. La situation se tend en effet à compter de cette période, avec ce que RTE considère comme une période de « forte vigilance ». Outre les arrêts pour visites décennales sur le parc nucléaire, la poursuite des fermetures de centrales au charbon (3 GW au total) et les débuts de vives fermetures de centrales au charbon outre-Rhin, conduisent à ne pas respecter le critère national dans la plupart des variantes étudiées. Et la tension est particulièrement vive sur l’hiver 2022-2023, signale RTE, notamment sur la partie Grand Ouest, si l’arrêt de la centrale charbon de Cordemais est maintenu.
Au-delà, à partir de 2024 (jusqu’en 2025, fin de la période étudiée dans ce bilan prévisionnel), le système électrique retrouve des marges, notamment grâce à l’entrée en service des premières vagues de parcs éoliens offshore… Marge retrouvée au plus vite si l’EPR de Flamanville est mis en service, mais RTE estime que même s’il démarre seulement en 2025, le compte y sera.
« Attention, insiste T. Veyrenc, ce n’est pas certain, mais il y a un niveau de risque élevé » sur la période 2022-2023. Mais des « remèdes » existent : « activer les leviers post-marché », c’est-à-dire, importer au maximum, faire appel aux effacements (dont l’effacement diffus, via le dispositif EcoWatt), actionner l’interruptibilité des entreprises qui ont un contrat ad hoc, enfin, baisser la fréquence, et en dernier recours, procéder à des délestages (coupures tournantes).
Enfin, une bonne nouvelle, il n’est pas question de sécurité d’approvisionnement régionale hors Grand Ouest. Que ce soit en Région Sud (PACA), en Lorraine et Alsace (avec la fermeture de Fessenheim et de Saint-Avold) ou encore autour de Gardanne, dans le Sud. Reste la question de la Bretagne, qui est la seule région où RTE préconise clairement un maintien en service de la centrale de Cordemais.
Cependant, RTE préconise également d’étendre le dispositif EcoWatt qui vise à lancer un appel citoyen à la réduction de consommation, ou au décalage de cette consommation, lors des périodes de pointe et donc de grand froid. Le gestionnaire du réseau rappelle en effet que même si cet appel via des messages textes sur téléphone ou tablette ne joue que « marginalement », puisque les consommateurs ne sont pas contraints de réduire leur demande, quand l’appel à la pointe est de 100 GW, 1% de baisse de demande représente quand même 1 000 MW… ce qui est loin d’être négligeable. Cela constitue également la « fameuse situation de vigilance sur la période 2022-2024 ».
La Convention citoyenne pour le climat a bien été constituée. Les trois premiers week-ends de travail ont déjà permis aux 150 citoyens tirés au sort de comprendre les conséquences du changement climatique, et d’identifier les premières pistes de mesures. À mi-parcours, elle dresse plusieurs propositions dans ses 5 groupes thématiques : se nourrir, produire et travailler, consommer, se loger et se déplacer. Les premières pistes de solutions demeurent grossières. Elles seront approfondies dans les trois prochaines sessions pour aboutir à des recommandations formelles le 26 janvier prochain.
Comment baisser les émissions de gaz à effet de serre d’au moins 40% en 2030 par rapport à 1990 ? Un groupe de travail transverse aux différentes thématiques prévoit de faire évoluer la Constitution pour y inscrire la transition écologique. Il s’intéressera dans ses prochaines réunions à la question des financements. Objectif : garantir que le fléchage des financements publics et privés soit cohérent avec cet objectif de réduction des émissions. Le groupe de travail propose aussi d’étudier la création d’une banque du climat et de sortir les investissements décarbonés de la dette. Il souhaite par ailleurs garder en sujet transversal la protection des milieux naturels et la biodiversité, ainsi que le sujet de la production et de la consommation d’énergies, notamment fossiles.
Une agriculture au service d’une alimentation saine
À l’accoutumée, les premières propositions concernent la lutte contre le gaspillage alimentaire, l’éducation et la sensibilisation de tous aux enjeux d’une alimentation plus respectueuse, ainsi que le renforcement de l’information des consommateurs. Des pistes sont prometteuses, à l’instar d’étendre et de pérenniser la loi EGALIM ou de généraliser les contrats tripartites, associant producteurs, transformateurs et distributeurs.
Des propositions semblent particulièrement intéressantes, comme le fait de mieux réglementer la pêche, stopper l’artificialisation des sols et de réfléchir à un modèle de politique commerciale qui encourage une alimentation saine et faible en émissions de gaz à effet de serre. La Convention propose en plus de valoriser les circuits courts, améliorer le traitement des déchets organiques, réformer la PAC et développer la formation dans les lycées agricoles. Elle suggère de développer de nouvelles pratiques agricoles et d’introduire une notation « d’éthique éco-alimentaire pour les producteurs et les restaurateurs ».
Des entreprises plus vertes et une consommation plus vertueuse
L’idée du groupe de travail est de créer des exonérations fiscales pour aider au renouvellement des « équipements verts » et des circuits bancaires dédiés. Plusieurs pistes proposées sont à l’ordre du jour du projet de loi Economie circulaire : la durabilité des produits manufacturés, à travers l’écoconception, la réparabilité, la mise à disposition des pièces détachées, et le recyclage obligatoire de tous les objets plastiques d’ici 2025… Mais pas encore d’obligation à l’ordre du jour sur la réduction de la consommation ou l’incorporation de plastiques recyclés dans les produits. Autre idée : créer un guichet unique pour accompagner la reconversion écologique des entreprises et la transformation des métiers au niveau régional. Et enfin ajouter un bilan carbone au bilan comptable.
Comment mieux consommer ? L’idée serait de créer un observatoire de la transition écologique pour suivre l’impact des mesures et sanctionner en cas de manquement. Une proposition intéressante consiste à indexer le taux de TVA sur la distance entre le lieu de production et celui de vente. Le groupe suggère de réguler la publicité et limiter « de manière significative » la consommation d’énergie dans les lieux publics et privés.
Mieux se loger et mieux se déplacer
Côté rénovation, pas de grande nouveauté à l’horizon. Le groupe soumet l’idée d’un financement public de la rénovation énergétique à travers une nouvelle aide unique, et de développer la formation des professionnels. Il souhaite limiter l’étalement urbain, lutter contre l’artificialisation des sols, favoriser la végétalisation et développer les matériaux biosourcés.
Quelles sont les priorités côté transports ? La Convention souhaite réduire le recours à la voiture individuelle en favorisant les usages partagés, les déplacements doux et les transports en commun. Les citoyens voudraient mieux encadrer la publicité et réduire encore les vitesses sur autoroute. En parallèle, ils proposent de développer le ferroutage et le transport par barges pour les transports des marchandises et de taxer les poids lourds sur route. Mais pas un mot pour l’instant sur la taxe carbone. Enfin, la Convention propose un accompagnement à la transition de la flotte de véhicules dans les 10 ans et de lutter contre l’obsolescence des véhicules.
Pour la cinquième année consécutive, les ENR&R comptent pour plus de la moitié dans le mix énergétique des réseaux de chaleur, signale l’étude. Sur les 25,4 TWh livrés en chaleur en 2018, 14,1 TWh provenaient des ENR&R.
En premier lieu, la chaleur de récupération provient des UVE (unités de valorisation énergétique des déchets) à hauteur de 25%, puis de la biomasse 22% (malgré un ralentissement du développement) et de la géothermie 5%.
Ce verdissement des livraisons a permis de réduire fortement l’empreinte carbone des réseaux. Aujourd’hui, précise l’étude, « le contenu moyen en CO2 s’élève à 0,116 kg /kWh, soit 36% de moins que l’électricité, 50% de moins que le gaz naturel et 61% de moins que le fioul. Il a donc été réduit de 45% en 12 ans ». Cette réduction significative est principalement liée à l’introduction progressive de la biomasse dans le mix énergétique.
Plus récents, les réseaux de froid progressent également, avec 1,05 TWh livré en 2018, soit 5% de hausse par rapport à 2017. Leur contenu carbone est encore meilleur, avec 0,010 kg/kWh.
Une trajectoire insuffisante
Néanmoins, malgré cette trajectoire positive des réseaux, la hausse de 0,4 TWh de la chaleur renouvelable livrée en 2018 par rapport à 2017 est loin d’être suffisante pour atteindre les objectifs fixés. En effet, dans l’état actuel de la Programmation pluriannuelle de l’énergie, l’objectif de chaleur et de froid renouvelables est de 24,4 TWh (sur 41 TWh au total) pour 2023, et entre 31 TWh et 36 TWh en 2018 (sur de 49 TWh à 57 TWh au total), tandis que la loi de transition énergétique pour une croissante verte (LTECV) de 2015 fixe, à l’horizon 2030, une cible de 39,5 TWh d’ENR&R (sur 61 TWh). Ces chiffres supposent une multiplication par cinq du rythme de développement, soit +2 TWh par an.
Pas sûr que la hausse du budget de l’Ademe (Agence de l’environnement et de la maîtrise de l’énergie) actée mercredi 20 novembre permette de rejoindre la trajectoire nécessaire. Le conseil d’administration de l’Ademe a validé les 350 millions d’euros pour la chaleur (et le froid) renouvelable, à destination des collectivités et des entreprises, en hausse de 78% par rapport à 2017.
En 2018, les 781 réseaux de chaleur français enquêtés assuraient donc le confort thermique de plus en plus d’abonnés puisque 40 116 bâtiments sont raccordés (38 212 en 2017), soit 2,42 millions d’équivalents logements.
La France se situe, avec 5% de recours aux réseaux de chaleur, au 20e rang européen. A noter que ce sont les pays nordiques et orientaux de l’Europe qui sont en tête de ce classement, l’Islande prenant la première place avec 92%, devant la Biélorussie (70%) et le Danemark (64%). L’Allemagne, avec quelque 14%, est en 15e position.
Fedene : Fédération des services énergie environnement
SNCU : Syndicat national du chauffage urbain
SDeS : Service de la donnée et des études statistiques (SDeS) du ministère de la Transition écologique et solidaire
Amorce : Association de collectivités territoriales et de professionnels autour des déchets, de l’énergie et de l’eau
Les entreprises intègrent petit à petit dans leurs processus métiers des technologies de réalité virtuelle.
La baisse du coût de l’équipement est, selon Arthur Devouge, le point de bascule qui a permis à la réalité virtuelle de devenir une solution à valeur ajoutée pour les entreprises. Entretien.
Editions Techniques de l’Ingénieur: Racontez-nous la génèse de Realitim.
Arthur Devouge: J’ai d’abord travaillé pendant 10 ans dans des sociétés d’ingénierie et d’études informatiques. J’ai vu arriver les technologies de réalité virtuelle, qui existent depuis les années 70 mais dont le développement s’est accéléré drastiquement entre 2010 et 2017. Le nouveau modèle de casque déployé par HTC en 2016, le Vive, constitue pour moi un virage très important. On a remplacé des systèmes chers et volumineux par une solution beaucoup plus abordable financièrement et très ergonomique. Cela a permis de développer de nouveaux cas d’usages.
Voyant tout cela, j’ai décidé de travailler sur le déploiement de ces technologies début 2018. J’ai créé Realitim en avril. J’ai d’abord passé beaucoup de temps à rencontrer les clients grands comptes, les entreprises privées et publiques… l’idée étant de voir comment ils fonctionnaient et comment la réalité virtuelle pouvait s’intégrer dans leurs processus métiers.
Cela m’a permis de développer 6 offres métiers basées sur le secteur industriel, sur l’architecture, sur les RH, la communication, le marketing et la formation. Dans chacun de ces pôles métiers, on va retrouver des offres qui utilisent des technologies de réalité virtuelle et apportent des solution à valeur ajoutée à nos clients.
Quelles solutions spécifiques développez-vous pour les industriels ?
Le premier cas d’usage sur lequel nous avons un véritable retour sur investissement est constitué de maquettes virtuelles destinées à la revue de conception. On comprend bien l’intérêt de remplacer la multiplication des prototypes grâce à des applications virtuelles. La 3D avait déjà rajouté une couche entre la représentation 2D et la maquette physique. La réalité virtuelle vient aujourd’hui constituer une couche intermédiaire entre le modèle 3D et la maquette physique. Modèle virtuel sur lequel on peut bien sûr travailler avant de passer à la maquette physique.
Ces nouveaux outils de maquettes virtuelles ont je pense un potentiel très important pour les bureaux d’études et l’industrie, en tirant considérablement les coûts de production vers le bas.
Peut-on dire que la réalité virtuelle se généralise chez les industriels ?
Aujourd’hui, il y a encore peu de solutions techniques. Je dirais que les choses s’accélèrent depuis un an. Le déploiement est en cours, les plus grands groupes s’intéressent au sujet et ont parfois des projets pilotes, mais c’est encore loin d’être généralisé dans toutes les entreprises. Par exemple, lorsque nous nous déplaçons chez des industriels pour faire une démonstration, nous sommes souvent les tout premiers à leur faire expérimenter de la réalité virtuelle.
Que va apporter la réalité virtuelle dans des processus métiers préexistants ?
La plupart du temps, ce que nous apportons, ce sont de nouveaux outils, qui vont venir s’intégrer dans un processus métier. Ils vont parfois remplacer certaines étapes de ce processus, l’enrichir, le compléter.
Prenons l’exemple de la prévention des risques. Nous proposons toute une bibliothèque de formations sur la prévention des risques avec des outils immersifs. Les personnes qui vont être formées vont pouvoir vivre des expériences de risques, de dangers liés à la prévention des risques qu’ils n’auraient jamais pu ressentir autrement. On est donc là sur une amélioration de ce qui existe déjà.
Selon le besoin du client, nous allons proposer des applications «sur étagère» qui peuvent couvrir le besoin en question, ou alors développer spécifiquement une application, selon le budget et les besoins spécifiques.
La réalité virtuelle peut également être utilisée dans l’industrie pour l’organisation des chaînes de production. On se rapproche là de ce qui se fait avec le BIM. L’idée est de modéliser l’intérieur de l’usine ou de la chaîne de production et de déplacer les différentes machines / objets virtuellement pour optimiser l’espace, par exemple.
La réalité virtuelle semble aujourd’hui un média de formation à forte valeur ajoutée…
Aujourd’hui, les spécialistes estiment qu’on retient 10% de ce qu’on voit, 20% de ce qu’on lit, et 95% de ce que l’on vit ou ressent. La réalité virtuelle en tant que média est donc un outil de formation très puissant. L’impact cognitif lié à l’immersivité de la réalité virtuelle permet donc d’améliorer l’impact de la formation.
Considérons par exemple une grosse machine industrielle. Elle est composée de nombreux éléments, visibles ou cachés à l’intérieur de la machine. Pour pouvoir former les équipes de maintenance et répéter une maintenance avant qu’elle ait lieu, il est possible de créer un éclaté de cette machine, et de faire visualiser les différents éléments de cette machine en apesanteur à l’opérateur.
Envisagez-vous de développer une offre sur la réalité augmentée ?
On me demande souvent si nous avons une activité liée à la réalité augmentée. Ce n’est pas le cas. Pourquoi ? Justement parce que cette technologie n’est pas encore mature. Dès qu’on passe sur un casque, on est encore très limité technologiquement pour tout ce qui est réalité augmentée. La réalité virtuelle est une technologie beaucoup plus mature, même si elle reste jeune.
Si les applications actuelles restent principalement dédiées aux productions sur mesure (implants, chirurgie, etc.) ou à forte valeur ajoutée (aéronautique, défense, Formule 1, etc.), la démocratisation de ces technologies va, dans un avenir proche, impacter de nombreux domaines tant sur le plan technologique que sur le plan social. Si les contraintes principales pour la diffusion massive de certains de ces procédés restent encore une taille de pièce restreinte et des coûts machine et/ou matière élevés (en particulier pour les produits métalliques), il est fort probable qu’une fois ces verrous levés, le potentiel d’innovation lié à ces technologies pourra se révéler par leur adoption massive. La fabrication additive permet d’affranchir les concepteurs de nombreuses contraintes techniques et d’avoir un panel de possibilités immense en termes de complexité de formes.
Un rapprochement entre créativité et fabrication additive est étudié par les chercheurs et les concepteurs. Les méthodes de créativité spécifiques au paradigme additif peuvent favoriser la génération d’idées nouvelles ouvrant la voie aux futures applications de la fabrication additive. Comment la fabrication additive peut-elle favoriser les phases créatives pour la conception innovante de produits ?
La France recycle à peine 22 % de ses plastiques. L’Europe a fixé un objectif de recyclage des emballages plastiques à 50 % en 2025 et 55 % en 2030. Le gouvernement français est plus ambitieux : il espère tendre vers le recyclage de 100 % des plastiques en 2025. Mais les technologies disponibles pour recycler tous les plastiques sur le marché sont insuffisantes. À 99%, il s’agit d’un recyclage mécanique qui entraîne majoritairement une baisse de la qualité des plastiques.
Faire émerger de nouvelles techniques
Le gouvernement veut miser sur le développement de nouvelles techniques de recyclage. Il s’agira d’aider au financement de « pilotes, démonstrateurs ou unités de recyclage ». « Aucune restriction n’est faite sur les technologies qui pourraient être mises en œuvre dès lors qu’elles conduisent majoritairement à la fourniture de matières recyclées », indique cet AMI. Qu’elles soient chimiques ou biotechnologiques, elles permettent le retour aux monomères de base des plastiques et la séparation des additifs ou contaminants qui perturbent le recyclage actuel. Les techniques éligibles dans cet AMI englobent aussi celles qui produisent de nouvelles matières premières par modification de la structure chimique des plastiques, via « cracking, gazéification ou dépolymérisation ». Enfin, elles concernent les techniques de dissolution sélective qui purifient les polymères, sans les dégrader.
« Ces procédés sont basés sur l’utilisation de substances chimiques (solvants), mais aussi sur des méthodes de traitements thermiques et catalytiques pour craquer, dépolymériser ou dissoudre les matières, précise l’AMI. La conversion biotechnologique (utilisation d’enzymes) a aussi fait l’objet de développement R&D en France ». En particulier, l’entreprise française Carbios mise sur le recyclage enzymatique du polyéthylène téréphtalate (PET). L’entreprise canadienne Loop Industries développe pour sa part un procédé de dépolymérisation chimique du même plastique. Et plusieurs entreprises travaillent sur la pyrolyse des plastiques pour les transformer en gaz ou carburant. Cet AMI est directement fait pour accélérer le développement de tels procédés.
Recycler les plastiques des ménages et des entreprises
L’extension progressive des consignes de tri concernera tous les Français d’ici 2022. En plus des 904 000 tonnes collectées en vue de leur recyclage en 2018, les fédérations professionnelles prévoient une hausse de la collecte des déchets plastiques ménagers s’échelonnant entre + 28 % et + 45 % à cet horizon. Soit une augmentation de 150 000 à 200 000 tonnes par an du tonnage à recycler. « Pour faire face à cette hausse, le développement de techniques de recyclage chimique ou biotechnologique semble indispensable », estime la direction générale des entreprises.
En outre, les nouvelles techniques de recyclage permettraient de traiter les déchets plastiques en mélange des entreprises qui peinent à trouver un repreneur suite à la fin des exportations chinoises. En 2018, la collecte des déchets plastiques a en effet chuté de 14 000 tonnes auprès des entreprises, faisant suite à une baisse de de 20 000 tonnes en 2017. En cause : le manque de solutions techniques compétitives pour recycler ces plastiques de faible valeur économique ou trop techniques.
Les projets retenus seront réorientés vers des dispositifs d’aides existants, notamment dans le cadre du Programme d’investissements d’avenir ou les appels à projets Citeo. Ils pourront aussi être soutenus via d’autres formes en fonction des difficultés identifiées.
Le rapport « Production Gap » (l’écart de production, en français) est le fruit de centres de recherches sur l’énergie et du climat, avec le soutien du Programme des Nations unies pour l’environnement (PNUE). Il estime pour la première fois l’écart entre les objectifs de l’Accord de Paris et la production prévue de charbon, de pétrole et de gaz dans le monde. À cette fin, le rapport passe en revue les politiques et actions visant à développer les combustibles fossiles dans dix pays producteurs : Chine, États-Unis, Russie, Inde, Australie, Indonésie, Canada, Allemagne, Norvège et Royaume-Uni.
Un futur rempli d’énergies fossiles
Sans changement radical, le fossé d’émissions se creusera rapidement. Le monde produira beaucoup trop d’énergie fossiles en 2030, +53 %, par rapport à un monde compatible avec un réchauffement à 2°C et +120 % par rapport à un réchauffement limité à 1,5°C.
La production de charbon est particulièrement concernée. Le rapport estime que les pays prévoient de produire 150 % de charbon en trop pour limiter le réchauffement à 2°C. Et 280 % en trop par rapport à une réduction du réchauffement à 1,5 ° C.
Le pétrole et le gaz devraient également dépasser les budgets carbone, avec des investissements continus et empêchant le développement des alternatives. D’ici 2040, les pays produiraient entre 40 % et 50 % de pétrole et de gaz en trop par rapport aux prévisions compatibles avec une limitation du réchauffement à 2 ° C.
Des solutions à déployer d’urgence
Les pays ont de nombreuses options à leur disposition pour réduire l’écart de production. Le rapport les invite notamment à limiter l’exploration et l’extraction des énergies fossiles. Il conseille aussi de supprimer les subventions et d’aligner les plans de production futurs sur les objectifs climatiques.
Le rapport sur les écarts de production est publié alors que plus de 60 pays se sont déjà engagés à mettre à jour leurs contributions déterminées au niveau national dans le cadre de l’Accord de Paris d’ici 2020. « Les pays peuvent utiliser cette opportunité pour intégrer des stratégies de gestion de la production de combustibles fossiles dans leurs contributions déterminées au niveau national [CND] – ce qui les aidera à atteindre leurs objectifs de réduction des émissions », conseille Niklas Hagelberg, coordinateur du PNUE pour le changement climatique.
Historiquement, la première application de réalité virtuelle pour l’industrie était un simulateur de vol. Encore en plein déploiement aujourd’hui, l’ajout de réalité virtuelle dans les processus métiers a accéléré son développement depuis la fin des années 2010 en France.
L’apparition de nouveaux outils, plus ergonomiques et moins chers a permis de créer un effet de levier significatif. La réalité virtuelle vient donc progressivement améliorer des pratiques existantes – maintenance, formation, prévention – avec de nouveaux outils.
Et ce nouvel outil, pour le résumer en un mot, est immersif. Ce qui a deux grands avantages.
Immersion en cours
D’abord, la réalité virtuelle utilisée en tant que média est d’une efficacité redoutable, pour tout ce qui concerne la formation, la prévention… Aussi, la réalité virtuelle offre la possibilité de prototyper virtuellement des objets, permettant des économies substantielles autant sur les interventions sur ces objets (la maintenance) que sur leur fabrication (prototypage, maquettes). De là découlent des applications pour de nombreux secteurs de l’industrie.
Certains cas d’usages se prêtent parfaitement au contexte actuel de l’industrie. Prenons l’exemple de l’onboarding (ou processus d’intégration), qui n’est pas l’application la plus spectaculaire mais probablement une des plus efficaces en termes de gains de temps et de personnel. Cela consiste à intégrer rapidement de nouveaux salariés, des intérimaires par exemple, dans le fonctionnement d’une activité, industrielle par exemple. La réalité virtuelle permet de rapidement apporter à l’employé les informations de contexte – géographique, sécuritaire, réglementaire…- harmonisées, quelle que soit la situation (ou la mission) spécifique de la personne formée.
La formation, la prévention, la maintenance sont également des domaines dans lesquels l’usage de la réalité virtuel se révèle bénéfique à court terme.
Des prévisions de croissance très élevées
D’ailleurs, les prévisions de croissance du marché de la réalité virtuelle sont impressionnantes. L’année dernière, l’institut IDC estimait que la réalité virtuelle et la réalité augmentée constituaient un marché de 27 milliards de dollars. On estime que ce marché atteindra 100 milliards de dollars dans cinq à dix ans. Une fourchette de temps volontairement large, puisqu’elle dépend principalement de l’adoption des technologies de réalité virtuelle par le grand public.
Mais au-delà, cette étude révèle la montée en puissance de la réalité augmentée. Il s’agit là d’un marché dont le déploiement ne fait que commencer, mais beaucoup d’industriels l’apprécient plus que sa cousine virtuelle.
Réalité virtuelle VS réalité augmentée ?
La réalité augmentée permet d’imaginer des applications dans l’industrie permettant des gains – sécurité, productivité, fiabilité… – très importants. Le problème, c’est qu’aujourd’hui ces applications ne sont pas encore suffisamment accessibles financièrement, ni assez développées technologiquement pour pouvoir être déployées massivement. Contrairement à beaucoup d’applications de réalité virtuelle.
Cependant, plusieurs grands groupes industriels – Dassault, Airbus, Renault, Naval Group… – ont investi massivement dans des concepts de réalité augmentée, et une étude récente réalisée par le cabinet Capgemini laissait entendre que 54% des industriels préfèrent investir dans la réalité augmentée plus que virtuelle.
Alors bien sûr, la réalité augmentée utilise de la réalité virtuelle, mais il sera intéressant de voir à quelles vitesses respectives les réalités virtuelle et augmentée vont être adoptées par l’ensemble de l’industrie.
L’autre inconnue demeure l’évolution – à la baisse – du coût des dispositifs de réalité augmentée. La technologie, limitante actuellement, va s’améliorer rapidement. Mais qu’en sera t-il du prix des technologies développées ?
Jean-Claude André, inventeur français de la fabrication additive
La réalité économique, les tendances qui se dessinent, l’exploration du complexe, la nécessaire approche épistémologique… Jean-Claude André nous livre sa vision du futur.
Comment avez-vous mis au point le premier système de fabrication additive ? Avez-vous tout de suite pressenti le caractère révolutionnaire de cette technologie ?
Il existait en 1984 des brevets d’idées de Battelle sur des procédés bi-photoniques de polymérisation visant la réalisation d’objets complexes, mais ce n’était pas faisable. Alain Le Méhauté souhaitait poursuivre dans cette voie, et moi dans le développement d’un procédé rustique par polymérisation par la lumière de couches déposées successivement. Nous sommes allés « voler » quelques grammes de résines dans le labo d’à côté et avons réalisé la première pièce en utilisant le soleil comme source stigmatique (ce qui a permis de définir rapidement une feuille de route pour la recherche). Le concept de la fabrication additive était né en quelques jours avec par l’aspect visuel une impression de procédé magique. Au départ cela permettait de démontrer et ce n’est qu’au bout de quelques semaines que j’ai commencé à voir des applications, sans jamais avoir pensé que le procédé était révolutionnaire parce qu’on disposait déjà de tout « sur étagère »…
On parle beaucoup de fabrication additive notamment dans le cadre de l’industrie du futur, quelle en est la réalité industrielle et économique ?
Au départ, la cible était le prototypage avec l’aspect disruptif lié à la réduction des étapes entre la conception et la réalisation (idée de photocopieuse 3D). Puis avec le développement de procédés de fabrication de pièces en céramiques ou en métaux, le domaine s’est engagé vers la production de pièces fonctionnelles avec différentes cibles : réalisation d’éléments dans des zones confinées (marine de guerre, espace, etc.), réparation (avec une fenêtre d’action pour certains Fab-Labs), réalisation de pièces industrielles nouvelles permises par le re-design. Par ailleurs, dans cette aventure de niches porteuses, il a été possible de montrer que le concept d’Industrie 4.0 représentait une association de technologies (dont essentiellement l’intelligence artificielle) faiblement mutualisées. L’histoire n’est donc pas terminée.
Dans quels secteurs et pour quels matériaux ces technologies sont-elles le plus avancées ?
Après les balbutiements de 1984, pratiquement toutes les cibles possibles sont couvertes : prototypage, médecine, pièces fonctionnelles, art, etc. parce que les technologies 3D utilisent de plus en plus la « bonne matière » relativement à une fonctionnalité souhaitée. Au départ, ce sont surtout les polymères, chargés ou non, qui ont été utilisés (40% environ du marché), mais aujourd’hui ce sont les usages des métaux qui se développent avec des croissances importantes (20% environ/an) pour réaliser des objets complexes directement utilisables ou pour effectuer des réparations. Certains procédés sont aujourd’hui qualifiés pour des usages en situations difficiles (aéronautique, espace). Pour l’instant, la production d’objets en multi-matériaux est encore au stade de la recherche, mais ce domaine pourrait représenter une nouvelle aventure industrielle tout à fait importante (traitement de surface par exemple) pour autant que l’état de surface des pièces réponde aux cahiers des charges.
Quelles implications sur la société et l’environnement sont à prévoir si les procédés de fabrication additive se démocratisent dans l’industrie mais aussi auprès du grand public ?
Dans l’inconscient et dans le discours, on a fait apparaître la fabrication additive comme un ensemble de procédés propres, faciles à mettre en œuvre avec cette vision réductrice de photocopieuse 3D. Dans les faits, réaliser un objet conçu par soi-même nécessite un certain savoir-faire (avec la réalisation de supports), suivi de la « découpe » de l’objet en « tranches » pour pouvoir le réaliser via une imprimante 3D (il existe des logiciels), la préparation de la machine, la réalisation de l’objet et la vérification de sa conformité relativement à l’objectif, le nettoyage de la machine et de la pièce (élimination des supports), puis la récupération de la matière non utilisée (pas toujours recyclable)… Il s’agit d’une activité qui heureusement est largement soutenue par la présence de nombreux Fab-Labs dans l’Hexagone qui peuvent permettre une démocratisation en profondeur de la technologie grâce à des machines de coût de moins en moins élevé. Autrement, on reste dans le jouet de Noël… En revanche, l’industrie utilise de manière très professionnelle les procédés 3D.
Indépendamment de ces aspects se pose la question générale de l’aspect « durable » des technologies 3D avec des risques pour les opérateurs (nuisances olfactives, pollutions chimiques, poudres) et de possibilités variables de recyclabilité des matières et même des objets.
Sur quoi travaillent les chercheurs dans ces domaines ? Quelles seront les prochaines évolutions selon vous ? Que reste-il à inventer ?
Tout d’abord, ce qui avait été envisagé en 1984 reste dans les feuilles de route : évitement des retraits, des déformations, mise en place de supports, etc. Avec les procédés à poudre, il a fallu trouver des conditions pour que la porosité des pièces soit minimale, etc. De manière évidente, il y a encore des études à mener sur les procédés et surtout sur le couplage entre procédés et matériaux. De plus, dans cet univers de recherche incrémentale se développent des activités très innovantes en termes de logiciels de création de pièces, de procédés hybrides (soustractif, additif). Bref, dans le domaine, la recherche a encore du travail à mener… de l’espace nanométrique au décamétrique…
Côté plus disruptif plusieurs tendances se dessinent : la vraie impression 3D (faire un objet sans passer par l’étape des couches), le 4D printing en ajoutant un aspect dynamique aux objets, soit pour leur réalisation, soit dans leurs usages (actionneurs, robotique), et le bio-printing forme de 4D avec du vivant (cibles fabrication de tissus biologiques, voire peut-être d’organes ; bio-bots, etc.) représentant des marchés potentiels considérables.
Le passage du simple au complexe est-il un point de blocage ?
Si en 1984, il a été possible d’explorer le principe « Keep it simple » avec une preuve de concept validée en quelques jours, les recherches disruptives actuelles après une créativité indispensable, impliquent l’exploration de la complication, voire de la complexité en faisant converger des disciplines scientifiques parfois profondément disjointes (à l’exemple évident du bio-printing). L’expérience montre une émersion difficile des idées radicalement nouvelles et perturbatrices non totalement stabilisées qui entrent en compétition avec des technologies robustes avec des prises de risques difficiles à appréhender. Cette situation se traduit par la publication de Preuves de Concept (POC) sans qu’il soit facilement directement envisageable une application industrielle ou médicale.
De surcroît, si la prise de risque doit être soutenue, l’atteinte d’un objectif inscrit dans la complexité nécessite une approche épistémologique pour rassembler de manière efficace les talents issus d’horizons disciplinaires différents, ce qui ne correspond que partiellement aux cultures des chercheurs de plus en plus spécialisés.
Quels sont les risques de ne pas voir émerger ces nouvelles niches technologiques ?
La technique 3D peut continuer à se développer, par sophistication de modèles, l’amélioration des matériaux ou de systèmes qui ne sont pas encore optimaux. En d’autres termes, elle pourrait empêcher des révolutions épistémologiques latentes. Ce que l’on constate :
– avec des taux d’augmentation supérieurs à 20%, les personnes déjà formées vont plutôt en production ou en vente/conseil ;
– une forte dilution des activités de recherche en France, lisibilité modeste ;
– peu de personnes formées en recherche et aux problèmes inverses (épistémologie ou « problem-solving ») ;
– le positionnement du domaine : est-ce vraiment de la recherche ? (vision académique) ;
– un financement de l’interdisciplinarité modeste ;
– un faible soutien à des opérations à risque conduisant, au mieux, à la publication de preuves de concept.
Quelle est votre vision du futur ?
Malgré le succès indéniable de la fabrication additive (ce qui me réjouit), cette dernière question donne l’impression d’une forme de crainte, voire d’angoisse de ne pas faire émerger du nouveau utile pour la société. Mais connaître les limites d’un système, ça aide à les surmonter à condition qu’existe un minimum de conviction. Je ne sais pas, comme certains scientifiques l’ont écrit, s’il sera possible de réaliser votre clone à partir de votre seul ADN par bio-printing, mais il existe nombre de niches porteuses permises par l’existence d’un monde qui reste encore à explorer (à inventer ?), et c’est exaltant (même pour un vieux chercheur). On peut encore « découvrir l’Amérique »…
D’ailleurs avec des collègues du CNRS, de l’INRIA, de l’Université nous nous sommes engagés dans des recherches en 4D Printing et en vraie impression 3D (avec des brevets). Dans le cas du bio-printing, l’épistémologie me parait nécessaire à traiter.
Sous l’effet du réchauffement des eaux océaniques, les espèces planctoniques des régions polaires pourraient se voir remplacées par des espèces tropicales. Ces résultats auxquels ont abouti deux équipes de recherches – CNRS, EMBL, CEA, Paris-Sorbonne, PSL –, dans le cadre des expéditions Tara Oceans, ont été publiées dans la revue scientifique Cell, jeudi 14 novembre.
Le plancton est composé de virus, de microbes et d’animaux microscopiques ; il est à la base de la chaîne alimentaire. Ces espèces captent une grande partie du CO2 atmosphérique et produisent de l’oxygène par photosynthèse. Ainsi, une modification de l’état planctonique des océans pourrait déséquilibrer des écosystèmes, notamment dans des zones abritant actuellement des espèces protégées. Tara Oceans considère que de telles modifications auraient également des conséquences économiques.
La nature du plancton change au gré des latitudes
Une navigation autour du Pôle Nord en 2013 a permis à plusieurs équipes de recherche d’étudier plus précisément la diversité des espèces planctoniques dans différentes zones du monde. Il est apparu que les populations planctoniques sont différentes d’une latitude à une autre. Dans le but de cartographier la présence de plancton dans le monde, Lucie Zinger, chercheuse au CNRS, et Chris Bowler, chercheur à l’IBENS – PSL, ont observé les données récoltées par 189 stations d’échantillonnage disséminées dans le monde dans le cadre de l’expédition Tara Oceans. Pour ce faire, les scientifiques ont évalué le type et la taille d’une population dans un espace donné.
« Nos résultats montrent clairement que la diversité planctonique est plus importante autour de l’équateur et diminue vers les pôles » explique Lucie Zinger. « L’existence de tels gradients latitudinaux de diversité est bien établie pour la plupart des organismes terrestres et avait été décrite par Alexander von Humboldt il y a déjà 200 ans ». Toutes les catégories de plancton sont concernées par le phénomène, « depuis les virus géants jusqu’aux petits métazoaires ».
Les données observées montrent de grandes différences de populations entre l’équateur et les pôles, qui se modifient progressivement selon les latitudes. Une première catégorie d’espèces planctoniques s’étend de l’équateur à 40 degrés au nord ou au sud. Ensuite, plusieurs strates témoignant de changements rapides sont enregistrées entre 40 et 60 degrés, dans les deux hémisphères. Au-delà de ces latitudes, les données redeviennent stables, au nord comme au sud. Cela s’explique par des changements physico-chimiques dans les eaux de surface, notamment la baisse significative des températures.
Des espèces planctoniques polaires inadaptées à la tropicalisation
Le réchauffement climatique ayant une incidence sur la température des océans pourrait donc provoquer une « tropicalisation » des régions océaniques tempérées et polaires. Lucie Zingler et Laurent Bopp, directeurs de recherches à l’ENS-PSL, ont évalué les effets possibles du réchauffement climatique sur la biodiversité planctonique. Bien que cette prédiction ne soit pas précise, il semblerait qu’une hausse de la diversité planctonique soit à prévoir dans les zones polaires.
Cela s’expliquerait notamment par une difficulté d’adaptation génétique des espèces planctoniques polaires au réchauffement climatique. Shinichi Sunagawa a étudié les capacités d’adaptation génétique du plancton par rapport au lieu de vie. Il apparaît que les espèces planctoniques tropicales ont la capacité de s’adapter à un changement d’environnement. Mais ces capacités ne se retrouvent pas chez les espèces polaires. Ces dernières ont des propriétés génétiques qui sont exclusivement adaptées à leur niche écologique.
D’autres espèces menacées, au-delà du plancton
Il semblerait donc que le réchauffement des océans puisse engendrer l’extinction du plancton spécifiques aux régions froides qui serait remplacé par des espèces planctoniques tropicales. C’est ce risque d’extinction qui est pointé du doigt, car de nombreuses espèces animales et végétales pourraient être impactées. Par extension, les conséquences économiques concerneraient en premier lieu la pêche. En effet, la modification de la population planctonique dans les eaux polaires et tempérées pourrait entraîner une réaction en chaîne.
Comme le rappelle Chris Bowler, « la présence de plancton plus gros capable d’absorber du carbone et de le maintenir stocké au fond des océans a un impact positif sur les émissions de CO2 dans ces environnements fragiles, tandis que l’existence de plancton plus petit servira de nourriture aux autres espèces ». Ainsi, sous l’effet du réchauffement climatique, des espèces pourraient disparaître d’un espace donné. Le saumon sauvage, par exemple, ne vit que dans les eaux froides de l’océan Atlantique. Il se nourrit de crevettes, qui elles-mêmes se nourrissent de plancton. Or, si le plancton habituellement présent dans ces zones disparaît, il manquera un maillon de la chaîne alimentaire.
« Aujourd’hui, l’éolien offshore représente un marché de plusieurs milliards de dollars », signale le rapport Offshore Wind 2019 de l’Agence de l’OCDE, « avec une chaîne de compétence en place dans les marchés leaders, qui s’étend du développement des projets à la construction, l’installation, l’exploitation et la maintenance, voire au démantèlement des machines ». L’investissement global dans cette technologie a représenté quelque 20 milliards en 2018, contre un peu moins de 8 milliards de dollars en 2010, insiste l’AIE, qui rappelle que cela compte pour un quart des investissements dans l’éolien dans le monde l’an dernier, mais seulement 6% des montants dépensés dans les énergies renouvelables en général.
Ces investissements sont le fait majoritairement de grandes entreprises (des « utilities ») et de fonds d’investissements, car les projets sont gourmands en immobilisation de financement initial. Un parc de 250 mégawatts (MW) a en effet un coût évalué par l’AIE à environ un milliard de dollars, ce qui représente un frein sérieux pour de petits acteurs.
L’Europe compte pour l’instant comme le marché dominant, avec des acteurs historiques particulièrement présents, tel le Danois Ørsted (c’est le pays qui s’est lancé le premier sur ce marché), devant l’Allemand RWE. Ces deux seules entreprises représentent près de 25% du marché mondial, respectivement avec 12,86% et 10,44%. Le Suédois Vattenfall se glisse dans le top 15 des développeurs et exploitants à la quatrième place, avec près de 4% du marché, l’Espagnol Iberdrola se classant septième, juste devant le Norvégien Equinor… Tous deux avec à peine plus de 2% du marché mondial. EDF se classe 12e de ce classement, avec 1,85% du marché.
Mais l’AIE signale que les Chinois sont en forte progression. Deux entités sont dans le Top 10 : China Lonyuan, qui se classe troisième, avec 5,34% du marché et China Three Gorges, dont la montée en puissance est actée, 14e avec 1,74% de ce marché mondial. Dans ce palmarès, côté fonds, l’Australien Macquarie Capital est à la cinquième position, avec 3,72% du marché, tandis que le fonds américain Global Infrastruture Partners, pointe à la septième place. Deux fonds allemands sont également présents (Siemens Financial Services et la Stadtwerke München, la régie de Munich) et le fonds de pension des collectivités publiques danoises, (Public Pension Denmark).
A noter également que sur les 15 sociétés citées par l’Agence de l’OCDE, 9 sont des entreprises publiques, contre 6 privées.
Siemens Gamesa, leader incontesté
Côté fabricants de machines, le leadership est encore plus marqué et centré aussi sur l’Europe, même si la Chine progresse fortement. L’Allemand Siemens Gamesa possède 63% des parts du marché sur la période 1995-2018, loin devant le deuxième du classement l’historique Vestas, devenu MHI Vestas (au sein d’un co-entreprise avec le Japonais Mitsubishi Heavy Industries), avec 18% du marché sur cette période. En 2018, la différence se réduit, puisque Siemens Gamesa a installé 41% des machines, contre 30% pour MHI Vestas. GE Renewables Energy (qui a absorbé Alstom et sa technologie offshore) pointe à la septième place, mais avec seulement 1% du marché. L’AIE note ici encore une montée en force des entreprises chinoises, dont six sont dans ce Top 10 mondial.
Une concentration également due à la taille des machines à mettre à l’eau, et qui s’est accentuée avec un rapprochement des acteurs historiques dans les deux dernières années. Alors qu’en 2010, les éoliennes avaient une capacité moyenne de 3 MW, l’an dernier, les premières machines de 8 MW ont été mises à l’eau. Une course à la taille et au rendement dans laquelle, pour l’heure, GE, grâce à son Haliade-X, sortie d’usine, mène le jeu pour l’heure avec 12 MW et des pales de 107 m. Siemens Gamesa, avec sa SG 10.0- 193 DD (pales de 94 m), dont la première nacelle est sortie d’usine ce 7 novembre avance également. Et MHI Vestas, déjà à 9,5 MW, mise aussi sur une puissance supérieure à 10 MW. Ici aussi la Chine n’est pas absente. Si Envision, troisième du classement de l’AIE, développe pour l’heure des outils de 4 MW, son compatriote Dongfang Electric Corp (DEC), pas encore présent sur ce marché, vient de présenter en août dernier sa première machine de 10 MW prête à être expédiée… Et pour 2030, l’AIE juge que des éoliennes de 15 MW à 20 MW pourraient être mises en service.
Pour les outils d’usinage, pour des applications biomédicales comme le dentaire, pour l’optique et les lasers, pour la résistance des matériaux (sous forme de nanodiamants) et bien sûr pour la joaillerie, la demande de diamants de synthèse ne cesse de grandir. Les prix des diamants de synthèse sont de 10 à 50 % inférieurs aux diamants naturels. Le défi aujourd’hui : les fabriquer vite et en grande quantité et surtout pouvoir leur donner la forme et les caractéristiques désirées. Car aujourd’hui un diamant de synthèse doit encore « pousser » et cela prend plusieurs semaines pour en fabriquer un petit lot. Mais les technologies progressent et de nouveaux procédés voient le jour.
Au printemps dernier, la société suédoise Sandvik Additive Manufacturing annonçait qu’elle pouvait imprimer les premiers diamants composites en 3D. Même si ce n’est encore qu’un composite, c’est déjà une petite révolution.
La première impression d’un diamant en 3D
Ce diamant-là ne brille pas. Bien que cela ne soit qu’un diamant composite, c’est-à-dire dont une partie est un polymère, ses propriétés sont déjà suffisamment performantes pour convenir à nombres d’applications industrielles. Sandvik fabrique ce type de diamant par un procédé de stéréolithographie par UV sur une matrice formée par de la poudre de diamant et un polymère. Le diamant, créé couche par couche, peut donc prendre presque n’importe quelle forme, y compris des formes complexes. Ensuite, un procédé breveté, développé par la société suédoise, permet de donner au diamant un certain nombre de propriétés recherchées : dureté, conductivité, basse densité, résistance à la chaleur et à la corrosion etc. Par ailleurs, le procédé est économique au niveau des matières premières, puisque la poudre de diamant non utilisée, encore mélangée au polymère peut être récupérée pour une autre fabrication. Outre les applications classiques, la possibilité de conférer des formes complexes à ces diamants composites devraient ouvrir la voie à des applications qu’il reste à inventer !
De beaux progrès dans les techniques classiques
Aujourd’hui, deux principales voies sont utilisées pour fabriquer des diamants de synthèse, que ce soit pour l’industrie ou la joaillerie.
Il s’agit tout d’abord du procédé HPHT (Haute pression, haute température) où la croissance de la gemme se fait dans des presses industrielles sous haute pression (jusqu’à 50 000 fois la pression atmosphérique) et à haute température (environ 1500°C).
La deuxième voie de synthèse est un procédé CVD (dépôt chimique en phase vapeur) où la croissance s’opère couche après couche à partir d’un substrat en silice ou en diamant. Dans des réacteurs en phase vapeur, un mélange d’hydrogène et de méthane à basse pression (0,1 atm) et à des températures autour de 800°C est ionisé par une décharge micro-onde qui crée un plasma dans la chambre de croissance. Cela crée des diamants plus purs qu’en HPHT mais moins résistants. C’est sur cette technique qu’un laboratoire du CNRS a travaillé depuis les années 1990. A la clé, la création en 2016 par l’une des chercheuses, Alix Gicquel, du premier producteur français de diamants de synthèse pour la joaillerie (Diam Concept). La start-up qui conçoit ses propres réacteurs CVD est déjà capable de produire 60 pierres par lot, contre 10 dans les réacteurs commerciaux courants. Maintenant que son process de fabrication est stabilisé, Diam Concept doit rejoindre le centre d’innovation du groupe Air Liquide pour pouvoir multiplier les réacteurs, augmenter la taille des lots et investir dans un laser lui permettant de tailler elle-même ses diamants.
Des nanodiamants, coproduits du carbone trempé
Une autre voie de fabrication de nanodiamants pour l’industrie est en train d’être développée. Elle a l’avantage de pouvoir se faire à température et pression ambiante. Il s’agit d’un procédé utilisant les lasers et qui a été mis à jour en 2015 lors de la découverte du carbone Q (aussi appelé carbone trempé). Les caractéristiques du carbone Q sont exceptionnelles : dureté et transparence supérieure à celle du diamant, électrons périphériques peu liés, comportement ferromagnétique à température ambiante, et à basse pression précurseur du diamant.
Le carbone Q s’obtient en chauffant et refroidissant rapidement une mince couche de carbone amorphe (quelques centaines de nanomètres) déposée sur un substrat (saphir, polymère etc.). La chauffe se fait par un laser en quelques centaines de nanosecondes qui permet à la couche superficielle du substrat d’atteindre les 4000k et d’entrer en surfusion. En refroidissant, les atomes s’arrangent dans une forme différente du diamant ou du graphite, de manière uniforme dans l’espace. Les recherches ont permis de déterminer qu’en faisant varier les substrats ou les vitesses de refroidissement, on modifie les formes de cristallisation et que l’on peut obtenir une cristallisation sous forme cubique à face centrée propre au diamant. On peut alors obtenir des nano ou des microdiamants.
Élisabeth Borne demande, et Jean-Bernard Lévy répond par la négative. Dimanche 10 novembre, la ministre de la Transition écologique et solidaire avait demandé à EDF d’envisager un scénario composé à 100% d’énergies renouvelables. En clair, de se demander comment se passer du nucléaire. Mercredi 13 novembre, lors d’une audition par la Commission des affaires économiques du Sénat, le PDG d’EDF se montre opposé à une telle idée. Pour lui, atteindre la neutralité carbone en 2050 n’implique pas nécessairement de se passer du nucléaire, qu’il souhaite, au contraire, développer.
« Nous continuons de penser que le nucléaire, qui n’émet pratiquement pas de CO2, qui est pilotable, a toute sa place dans le mix français à l’horizon 2050. C’est la position d’EDF » a déclaré Jean-Bernard Lévy. Premier argument avancé : le prix. Le nucléaire permettrait d’assurer une « électricité en France 30 à 40% moins chère que dans les pays voisins. Voire même 80% moins chère qu’en Allemagne ». Donc plutôt que d’imaginer un plan sans nucléaire, Jean-Bernard Lévy préférerait voir les industriels rassurer l’État sur cette filière. Un exercice auquel il s’est largement adonné face aux sénateurs.
Un nucléaire qui « fonctionne bien », mais Flamanville toujours enlisé
Présenter un nucléaire français fiable, stable, fort, voilà l’intention d’EDF. Preuves en sont faites, à la suite du séisme de Montélimar, dans les centrales du Tricastin et de Cruas. Le PDG se veut rassurant en arguant que l’épisode sismique n’a eu aucune incidence sur le site du Tricastin. L’arrêt de l’activité de Cruas répondrait uniquement à une mesure de sécurité et ne refléterait aucun risque notoire. « Les inspections en cours montreront qu’il n’y a pas de dommage. Nous sommes totalement rassurés aujourd’hui sur le fait qu’il n’y a pas de danger sur ces centrales ». La centrale, située à une vingtaine de kilomètres de l’épicentre du séisme, sera remise en fonctionnement dans les prochains jours.
« Les 58 centrales fonctionnent bien. Même les deux unités de Fessenheim fonctionnent bien ». Mais malgré les difficultés rencontrées sur le site de Flamanville 3, soulignées par le rapport Folz, Lévy considère que la filière nucléaire est essentielle à une France « qui ne dispose pas de ressources naturelles ». Pour expliquer les retards, EDF refuse de mettre en cause la technologie, qui « fonctionne à Taishan ». Le PDG déplore un emballement financier, des manquements de « qualité industrielle » et techniques, à l’instar de la pénurie de soudeurs qualifiés. Pour proposer une solution, EDF présentera un plan en décembre.
Nucléaire et renouvelable au service de l’électricité décarbonée
De plus, Jean-Bernard Lévy a annoncé qu’EDF soutiendrait auprès du gouvernement le projet de construction de six nouveaux réacteurs EPR « simplifiés ». Le montant global de l’opération s’élèverait à 45 milliards d’euros financés sur 20 ans. Ce montant s’ajoute aux 4 milliards d’euros annuels pour financer le grand carénage du parc actuel. Ces conditions seraient nécessaires pour atteindre l’objectif de la loi climat qui fixe la part du nucléaire dans le mix énergétique à 50% en 2035.
Au-delà de la promotion du nucléaire, Lévy a réitéré les ambitions d’EDF en termes d’énergies renouvelables, pour lesquelles « EDF veut jouer un rôle majeur et encore plus important ». Le développement du parc éolien en mer est dans la ligne de mire de l’entreprise. L’avantage de ce mode de production serait de parvenir à produire une électricité sensiblement au même coût que celle issue du nucléaire. Autre piste envisagée : l’énergie solaire. Le plan solaire d’EDF prévoit le déploiement de 30 GW en 2035. Ainsi, nucléaire et énergies renouvelables seraient mises au service de la production d’une électricité « décarbonée », et permettraient de réduire les émissions de gaz à effet de serre « à un facteur d’au moins 6 ».
La Région Île-de-France veut investir fortement pour assurer sa transition écologique. Ce sont ainsi 10 milliards d’euros d’investissements qui vont être consentis entre 2020 et 2024 pour une région plus respirable, plus verte et en meilleure santé. Une région aussi plus propre et circulaire qui favorise l’urbanisme durable, décarboné qui mise sur les énergies renouvelables, qui prône une écologie concertée et partagée. Voici la promesse sur le papier.
Une enveloppe de 2 milliards d’euros pour 2020
Les 21 et 22 novembre prochain, le conseil régional devrait voter une enveloppe budgétaire dédiée à la transition écologique de 2 milliards d’euros pour 2020. Avec un budget global d’environ 4 milliards d’euros, la région se félicite que « près de 1 euro sur 2 des dépenses régionales ait un impact positif pour l’environnement ». Contre seulement 1 euro sur 10 pour les dépenses de l’État.
En pratique, seulement 145 millions d’euros seront débloqués pour le budget environnement au sens strict. Soit 122 millions d’investissements et 23 millions pour les frais de fonctionnement. Un budget en hausse de 25% par rapport à 2019. Dans le détail, 46 millions d’euros viendront renforcer les énergies renouvelables, avec plus de 20 millions d’euros pour doubler le parc photovoltaïque d’ici fin 2021. Aussi, 30 millions d’euros financeront la stratégie régionale pour la biodiversité. Ils permettront notamment d’augmenter le nombre d’espaces naturels, d’améliorer leur accessibilité et de mieux protéger la biodiversité. Puis, 17 millions d’euros viendront améliorer la qualité de l’air. Enfin, près de 9 millions d’euros renforceront la lutte contre les dépôts sauvages, les actions de réduction et de valorisation des déchets et l’accompagnement de la transition vers l’économie circulaire.
De nombreux projets pour développer les transports
Les 1,855 milliard restant seront des dépenses régionales ayant « un impact positif pour l’environnement » dans chaque domaine de compétence de la collectivité. Ils auront trait à des domaines aussi variés que la qualité de l’air, la santé ou l’urbanisme, en passant par la gestion des déchets, la biodiversité et les transports.
Les transports ont une place prépondérante dans ce plan. Un plan anti-bouchons, déjà engagé, d’un total de 250 millions d’euros prévoit de soutenir l’innovation routière et traiter 40 points noirs de trafic. La région consacre 85 millions d’euros pour moderniser et développer le réseau fluvial et les installations portuaires. Elle promet par ailleurs une enveloppe de 100 millions d’euros pour construire un écosystème vélo. En particulier, une nouvelle aide pour l’achat de 30 000 vélos électriques verra le jour en 2020, avec une enveloppe de 12 millions d’euros. La région hisse aussi le budget d’aide aux professionnels pour acheter des véhicules « propres » à 23 millions d’euros.
Du neuf pour les bâtiments, l’agriculture et un budget participatif
Au rayon des autres nouveautés : l’achat de centaines de nouveaux bus « propres », la création d’un label pour les points de charge des véhicules électriques, le développement de nouveaux tiers-lieux et espaces de coworking, le lancement d’expérimentations pour purifier l’air des stations de métros. Côté bâtiments, la région vise la rénovation de 21 lycées d’ici 2023. 10 millions d’euros seront accordés en 2020 pour rénover 5 000 logements sociaux, avec pour objectif d’en rénover 25 000 d’ici 2024.
Dans un autre domaine, la région finance le Pacte agricole à hauteur de 30 millions d’euros chaque année jusqu’en 2022. Ce pacte prévoit de tripler les surfaces cultivées en bio en 4 ans pour atteindre 45 000 ha de terres agricoles en 2022. En 2020, 3 millions d’euros aideront au développement du bio dans les cantines. Objectif : approvisionner 100% des cantines des lycées en produits locaux dont 50% de produits bio d’ici 2024.
Le premier budget participatif régional verra le jour en 2020. La Région dégagera 500 millions d’euros d’ici 2024 pour financer des projets sur le territoire. Des projets dans 5 domaines : la biodiversité, la mobilité propre, les déchets, la transition énergétique et la santé environnementale.
Découvrez ces Mini-Cheetahs, quadrupèdes de 9 kg télécommandés et qui ressemblent à des petits chiens. Sous la houlette d’étudiants du MIT, ils mettent en avant leurs aptitudes à courir, sauter ou encore se relever lorsqu’ils sont renversés.
L’impression 3D multi-matériaux
Des chercheurs à Harvard ont développé une imprimante 3D capable de déposer jusqu’à 8 matériaux différents avec la même buse d’impression. Cette technique baptisée MM3D (pour multimaterial multi-nozzle 3D en anglais) permet la création d’une pièce avec plusieurs matériaux de façon rapide et continue. Les chercheurs espèrent élargir le spectre de ces matériaux et se diriger progressivement vers l’impression de cellules humaines.
Le scanner du futur pour numériser les œuvres d’art
La start-up Mercurio développe à Marseille une machine inédite pour créer rapidement des modèles 3D d’œuvres d’art, de la plus petite à la plus grande. Outre les musées, qui pourraient ainsi mieux valoriser leurs collections, le jeune fondateur espère s’attaquer au marché de l’art en ligne.
L’avenir des voyages en train
Moving Platforms a conçu un nouveau réseau d’infrastructures qui fonctionnerait avec des trains à grande vitesse pour permettre aux passagers de circuler plus rapidement et ainsi d’atteindre leur destination sans descendre d’un train. Une évolution significative pour des infrastructures ferroviaires qui n’ont peu changé depuis 200 ans.
Dubaï investit dans l’impression 3D de bâtiments
La ville de Dubaï poursuit ses objectifs en termes d’impression 3D de bâtiments ; elle prévoit d’imprimer en 3D 25 % des infrastructures d’ici 2030. Dans cette vidéo, vous découvrez la plus grande structure imprimée en 3D sur deux étages. Et pour cause, celle-ci fait 640 mètres carrés et s’étend sur 9,5 mètres de haut – elle a même été reconnue par le Livre des records du monde Guinness.