Nos enfants souffriront du changement climatique

La nouvelle étude « Lancet Countdown sur la Santé et les Changements Climatiques » publiée le 14 novembre s’attache cette année à alerter sur les conséquences qu’aura le changement climatique sur les enfants nés à partir de 2019. Ce rapport annuel réunit 120 experts issus de 35 institutions, dont l’Organisation mondiale de la santé (OMS) et la Banque Mondiale.

Inutile d’attendre d’hypothétiques générations futures. Les enfants nés à partir d’aujourd’hui seront exposés aux conséquences de la hausse des températures. Les experts identifient plusieurs risques sanitaires liés à un monde qui pourra se réchauffer de plus de 4°C dans 71 ans. Citons la malnutrition, la hausse des maladies infectieuses, l’impact de la pollution aux particules fines et la multiplication des maladies virales comme la dengue. Cette maladie transmise par les moustiques est celle qui se propage le plus rapidement avec le réchauffement climatique. Près de la moitié de l’humanité est désormais menacée.

Des enfants particulièrement vulnérables

« Les enfants sont particulièrement vulnérables aux risques sanitaires liés aux changements climatiques, explique le Dr Nick Watts, directeur exécutif du Lancet Countdown. Leur corps et leur système immunitaire sont en train de se développer, ce qui les rend plus vulnérables aux maladies et aux polluants environnementaux ». En particulier, la pollution de l’air est particulièrement néfaste pour les jeunes dont les poumons sont encore en développement.

Ces dommages persistent et pourront avoir d’autres effets à l’âge adulte. « Sans action radicale de la part de tous les pays pour réduire les émissions de gaz à effet de serre, les gains en termes de bien-être et d’espérance de vie sont compromis », alerte-t-il. Un air pollué tout au long de la vie diminue la fonction pulmonaire, aggrave l’asthme, augmente le risque de crise cardiaque et d’accident vasculaire cérébral.

Quelle sera leur vie devenus adultes ?

L’Accord de Paris prévoit de limiter le réchauffement climatique sous la barre des 2°C en 2100, voire le cantonner à 1,5°C. Les experts rappellent qu’il faudrait baisser les émissions de CO2 d’origine fossile de 7,4% chaque année à partir de maintenant jusqu’en 2050 pour limiter le réchauffement climatique à 1,5°C. Nous n’en prenons pas le chemin puisqu’elles ont augmenté entre 2018 et 2019.

Sans changement radical, nos enfants seront confrontés à davantage de phénomènes météorologiques extrêmes. Les canicules, les inondations graves, les sécheresses prolongées et les feux de forêt se multiplieront. Les vagues de chaleur, plus fréquentes et plus longues, auront un impact important sur leur capacité de travail. Rien qu’en 2018, quatrième année la plus chaude enregistrée de l’ère industrielle, la chaleur extrême a entraîné la perte de 45 milliards d’heures de travail par rapport à l’année 2000. En parallèle, les récoltes diminueront, menaçant la sécurité alimentaire et entraînant une hausse des prix de l’alimentation.

Des objectifs ambitieux à respecter

Plusieurs lois récentes donnent des objectifs ambitieux d’ici 2050. S’ils sont atteints, un enfant né en 2019 verra en France la fin des ventes de voitures neuves à essence et diesel d’ici son 21e anniversaire. Pour ses 31 ans, la France et plusieurs autres pays du monde atteindront la neutralité carbone.

Les auteurs du Lancet Countdown appellent à bannir le plus rapidement le charbon dans le monde. Ils invitent les pays riches à respecter leur engagement de financer les pays en développement chaque année à hauteur de 100 milliards de dollars par an à partir de 2020. « Augmenter les systèmes de transports publics pour qu’ils soient accessibles, abordables et efficaces, en favorisant la marche et le vélo, en créant des pistes cyclables, et en mettant en place des programmes de location ou d’achat de vélos », voici la troisième piste. Et enfin « investir massivement » pour adapter le système public de santé. Car l’adaptation au changement climatique passera aussi par un accès assuré aux services médicaux et aux services d’urgence.

Longtime : le label contre l’obsolescence des produits

« Le label couvre une large palette de produits manufacturés à partir du moment où il y a un assemblage de composants, explique Florent Preguesuelo, cofondateur de la coopérative Ethikis, à l’origine du label Longtime. Cela passe par toutes sortes de produits électroménagers, électroniques, de loisirs ou de jardinage ». La promesse de ce label ? « Des produits conçus pour durer, fiables et réparables ».

Le label ne garantit pas que le produit ne tombera jamais en panne. « C’est la réaction en cas de panne qui nous intéresse, détaille le cofondateur. On prend en compte ce qui peut poser problème au consommateur dans l’allongement de la durée de vie de son produit : la disponibilité des pièces détachées, leur prix, le support technique, etc. »

Les premiers produits déjà sur le marché

Le label Longtime est un label indépendant, soutenu par l’Ademe. Après deux ans de concertation avec les fabricants, réparateurs, associations environnementales et associations de consommateurs, les premiers produits apparaissent sur le marché. « Nous labellisons produit par produit et non par marque, car une marque peut avoir certains modèles fiables et réparables, et d’autres non », précise Florent Preguesuelo.

Depuis octobre, le label est apposé sur deux types de produits : les aspirateurs Rowenta Silence Force R064 et deux détecteurs de métaux DEUS et ORX de XPlorer. D’autres produits sont en cours de labellisation : des produits électroménagers, un sécateur et des produits d’aménagement intérieur. « Notre objectif est d’arriver à 50 familles de produits en 2022, avec au moins une unité par famille », prévient Florent Preguesuelo.

En échange de l’affichage du label, les entreprises payent à Ethikis une redevance sur les ventes des produits labellisés. « Cela revient à quelques centimes par produit, avec un montant minimum de redevance fixé à 500 euros par an », confie le cofondateur. Avec ses simulations de vente, Ethikis parie sur un montant moyen de redevance entre 1500 et 2000 euros par an et par produit, hors audit.

Un cahier des charges sérieux

Le cahier des charges est consultable en ligne. Il présente 41 critères, réunis autour de 3 exigences principales : conception robuste, réparabilité et support technique. En particulier, les critères concernent le caractère démontable du produit, ses garanties, la qualité du SAV, la qualité de la documentation, la disponibilité et le prix des pièces détachées. Des exigences sont fixées par typologie de produits dans des « annexes sectorielles ».

Le label est attribué après un audit initial réalisé par l’un des deux organismes de contrôle indépendants reconnus par l’entreprise : Apave certification ou Ecocert Environnement. Sur les 41 critères, le produit est soit « conforme », soit « non conforme ». Dans le détail, il existe des critères très importants qualifiés de « KO », des critères importants qualifiés de « majeur » et d’autres de « mineur ».

« Lors de l’audit initial, il faut que le produit soit conforme à 100 % pour les critères KO, 80% pour les critères majeurs et 50% pour les critères mineurs, développe Florent Preguesuelo. L’entreprise doit alors établir un plan de labellisation pour montrer à l’auditeur comment elle entend devenir conforme avec 100% des critères majeurs en 1 an et 100% des critères mineurs en deux ans. »

Un indice de réparabilité devrait voir le jour en France en 2021. Il concernera 5 types de produits : les machines à laver, les télévisions, les ordinateurs, les smartphones et les tondeuses à gazon. « C’est un premier pas intéressant, mais il faudra voir comment les notes sont attribuées et par qui », prévient Florent Preguesuelo. Et « il ne faudra pas confondre fiabilité et réparabilité ».

Le médiateur national de l’énergie fait le tour de son mandat

Autorité publique indépendante, le médiateur national de l’énergie a pour mission de proposer des solutions amiables aux litiges avec les entreprises du secteur de l’énergie et d’informer les consommateurs d’énergie sur leurs droits. Le médiateur est doté de la personnalité morale et de l’autonomie financière. Son financement est assuré par l’État et son budget, qui figure en loi de finances, est arrêté chaque année par les ministres en charge de l’économie et de l’énergie. Jean Gaubert fait le point sur son mandat.

Six ans durant lesquels la médiation énergétique n’a pas chômé. Comme il le rappelle, en arrivant, il y avait encore beaucoup de choses dans le secteur « qui balbutiaient ». Il y avait notamment « peu d’opérateurs sur les marchés de l’électricité et du gaz, alors qu’aujourd’hui, il s’en crée tous les jours ; des opérateurs français, mais aussi des étrangers, comme, pour citer le dernier en date, le Suédois Vattenfall. »

Conséquence, « alors que nous avions émis quelque 2 800 recommandations aux consommateurs et opérateurs en 2013, nous en aurons émis plus de 7 000 cette année. Et heureusement, nous disposons d’une plateforme internet qui permet de traiter les dossiers de réclamation ! », insiste le médiateur de l’énergie.

Les dossiers de réclamations devraient atteindre les 20 000 cette année, ce qui est lié directement à la hausse de l’activité sur le marché. Comme « les marges sont faibles », insiste le MNE, « il faut arracher les clients », ce qui peut entraîner des dérapages, notamment dans le démarchage. En outre, « c’est sans compter sur l’ingéniosité des opérateurs… Et la multiplication des erreurs notamment au moment du changement de fournisseur ». Sans oublier la difficulté pour les opérateurs de réseau à dépanner, le distributeur n’ayant pas le droit d’avoir les coordonnées du consommateur… Ce qui constitue un problème quand il s’agit d’un dépannage.

« Je pense que la situation s’éclaircira », indique Jean Gaubert, « il y aura des marchés de niche, comme le courant vert avec des acteurs tels qu’Enercoop, ou des offres plus ciblées (comme par exemple les offres week-end), ou encore avec des offres de service ». Mais il y aura une concentration.

Élargir le scope du MNE avec une équipe constante

Par ailleurs, cela signifie que, « comme notre équipe n’a pas changé et est toujours composée de 41 personnes, elles ont fait deux fois plus de travail sur la période… ».

Et pour revenir à l’actualité, Jean Gaubert rappelle que si « certains » veulent que le MNE puisse étendre sa compétence à la fraude en matière de rénovation énergétique (et de CEE, les certificats d’économie d’énergie), « ce qui aurait une certaine logique », cela implique « dans un premier temps au moins deux emplois supplémentaires ». Pour l’heure, cette disposition n’est pas passée ni dans la loi énergie-climat qui vient d’être promulguée le 9 novembre, ni pour l’heure dans le projet de loi de finances 2020. Le MNE signale qu’un amendement en ce sens avait été déposé dans ces textes, impliquant un budget en hausse de 200 000 à 300 000 euros sur les 5,5 millions d’euros actuels, mais il a été retiré à la demande du gouvernement dans les deux cas.

En outre, sur la rénovation énergétique, « il y a une certaine incompréhension », car « obliger à des résultats est impossible, puisque l’usage peu changer après rénovation en fonction des personnes » et qu’il peut y avoir un effet rebond avec des personnes qui consomment plus après les travaux parce qu’avant elles ne pouvaient pas se chauffer…

Les sujets qui demeurent

Demeurent plusieurs sujets pour le successeur de Jean Gaubert. Savoir si les colonnes montantes d’électricité appartiennent aux copropriétés ou au réseau public de distribution d’électricité par exemple. Un sujet qui est toujours sur la table, même si le distributeur dispose dans les faits du réseau « jusqu’au compteur ». Mais Jean Gaubert souligne qu’avant la libéralisation, ce sujet n’existait pas…

Par ailleurs, la « fin des tarifs réglementés du gaz pour les clients particuliers va jeter le trouble chez les consommateurs ». Ce sera sans nul doute un sujet ! « La concurrence va se développer, et on va multiplier les problèmes », insiste le MNE.

L’intelligence artificielle, une aide à la conception des robots mouche

Elle se déplace sur tout type de terrains : mur, plafond, vitre, plante, humain… La mouche a cette capacité étonnante de se poser sur n’importe quelle surface, grâce à ses pattes dotées de griffes, de pelote adhésive et de ventouses. Pas étonnant que ce petit animal attire l’attention des chercheurs, comme ceux de l’Ecole polytechnique fédérale de Lausanne (EPFL), en Suisse.

Pour comprendre le comportement de la mouche drosophile “à un niveau de détail sans précédent”, l’équipe a conçu DeepFly3D, un outil de modélisation en 3D des mouvements de ce petit insecte. Basé sur des algorithmes d’apprentissage profond (deep learning) et de multiples caméras, le système permettrait de comprendre précisément les principes de contrôle neuronal de la mouche pour mieux concevoir des robots. Une approche largement utilisée dans la modélisation, notamment pour le tracking des mouvements de l’homme et des grands animaux, mais qui s’avère compliquée lorsque le modèle en question mesure 2,5 cm de long, dispose de nombreuses articulations et doit être éclairée par une lumière infrarouge pour éviter toute stimulation visuelle.

Une triangulation des données 2D

Lors de l’expérimentation, la mouche est “attachée” pour la contraindre à se déplacer sur une sorte de balle. Sept caméras enregistrent simultanément ses mouvements : “en utilisant plusieurs caméras synchronisées et en exploitant la redondance des multiples vues, le logiciel fournit une estimation de pose précise à l’échelle submillimétrique” précise l’étude. DeepFly3D va ainsi détecter la position en 2D de 38 points de repère qui ont été au préalable définis sur un jeu de données. En effet, leur approche s’appuie sur un apprentissage en profondeur supervisé pour former un réseau de neurones détectant l’emplacement des articulations 2D dans des images provenant de caméras individuelles. “Le logiciel utilise ces points de repère annotés par l’homme pour former un réseau de neurones profonds pouvant ensuite identifier les mêmes points de repère sur des données de test”, nous précise Pavan Ramdya qui a dirigé l’étude à l’EPFL.

Parmi ces points de repères, cinq sont positionnés sur chaque membre : les articulations thorax-hanche, hanche-fémur, fémur-tibia et tibia-tarse, ainsi que le pretarsus, la partie terminale du tarse (soit le “pied”). Mais également six sur l’abdomen (trois de chaque côté) et un sur chaque antenne pour mesurer la rotation de la tête. Ces emplacements en 2D vont ensuite être triangulés pour produire des estimations de pose 3D. Les détections 2D erronées sont identifiées et corrigées automatiquement par l’outil lui-même.

Source : eLife

Aider la robotique et la médecine

Adapté à la mouche drosophile pour cette étude, l’outil pourra également être utilisé pour d’autres modèles, comme les souris, les primates ou les humains, à condition de changer les dimensions de configuration. Des explications sur ces changements de caractéristiques sont proposées dans la partie “Méthodes” de l’étude.

“En tant qu’organisme modèle, la mouche présente un bon compromis entre docilité et complexité”, partage Pavan Ramdya dans un article de l’EPFL. “Si nous comprenons comment elle accomplit ses actions, nous pourrons apporter une importante contribution à la médecine et à la robotique.”

Total se retire d’une association professionnelle pour cause climatique

Total affiche son ambition depuis 2016 : « devenir le major de l’énergie responsable ». «Notre politique vis-à-vis des associations professionnelles est un gage de cohérence et de crédibilité, prévient Patrick Pouyanné, PDG de Total. La transparence ne peut que renforcer l’action des entreprises qui jouent un rôle clé dans les débats sur les moyens d’atteindre les objectifs de l’Accord de Paris». En ces mots, Patrick Pouyanné défend la position de Total qui a évalué les 30 principales associations professionnelles dont il est membre. Objectif : s’assurer que leurs positions sont alignées avec celles du groupe Total sur le climat (cf. Intégrer le climat à notre stratégie).

Les associations professionnelles dans le collimateur

À la suite de cette évaluation, l’entreprise françaises s’est retirée de l’American Fuel & Petrochemical Manufacturers. En cause : des différences de vision sur l’Accord de Paris, la tarification du carbone et les énergies renouvelables. Cette position fait suite à une initiative similaire de la compagnie pétrolière anglo-néerlandaise Shell en avril dernier. Shell estimait alors que sa position sur le changement climatique était mal alignée avec environ la moitié des associations commerciales dont elle faisait partie.

Pour sa part, Total n’a identifié que trois autres associations comme « partiellement alignées ». Les trois sont américaines : l’American Chemistry Council, l’American Petroleum Institute et la Canadian Association of Petroleum Producers. L’entreprise annonce dans son rapport maintenir son adhésion « en vue de faire évoluer leurs positions de l’intérieur, mais se tient prêt à reconsidérer sa participation en cas de désaccord persistant ».

Une évaluation sur 6 points clés

L’évaluation de Total a trait à 6 points clés. Les associations doivent ainsi reconnaître le lien entre changement climatique et émissions anthropiques de gaz à effet de serre et soutenir l’Accord de Paris. Elles doivent également défendre la mise en place d’une tarification du carbone et prôner le rôle du gaz naturel en remplacement du charbon. Enfin, elles doivent soutenir le développement des énergies renouvelables et des « biocarburants durables », et soutenir les techniques de captage et de stockage du CO2, « indispensables à l’atteinte de la neutralité carbone durant la seconde moitié du siècle », selon Total.

Un rapport publié par plusieurs ONG fin octobre interroge toutefois sur la sincérité de la démarche. Il révèle que les 5 majors pétrolières – Total, Exxon Mobil, Shell, BP et Chevron – ont dépensé 251 millions en lobbying depuis 2010 pour « saboter l’action en faveur du climat » à Paris et Bruxelles, au niveau parlementaire.

L’énergie en Afrique, un enjeu « crucial », estime l’AIE

L’Agence de l’Organisation de coopération et de développement économiques (OCDE) signale d’abord que l’Afrique va avoir de plus un plus un rôle déterminant en matière d’énergie. La croissance démographique attendue d’ici à 2040 devrait faire qu’une personne sur deux supplémentaire sur la planète sera africaine, et de plus en plus en milieu urbain. Ce qui va entraîner des besoins en énergie en forte augmentation dans tous les secteurs, de l’industrie à l’habitat, en passant par les transports.

Boom d’une demande qui part de loin

La demande énergétique de l’Afrique pourrait augmenter deux fois plus vite que partout ailleurs dans le monde, estime l’AIE. L‘Afrique pourrait émerger comme un « acteur majeur sur le marché mondial du gaz et du pétrole », à l’horizon 2040. La flotte de véhicules devrait doubler, dont la majeure partie fondée sur des technologies à faible efficacité énergétique (voitures thermiques), alors que le GPL (gaz de pétrole liquéfié, comme le butane ou le propane) devrait être de plus en plus utilisé pour la cuisson. Ainsi, la demande en pétrole pourrait progresser de 3,1 millions de barils par jour d’ici à 2040, juge l’AIE, soit plus que la hausse de la demande en Chine, et juste après celle de l’Inde.

Reste que, côté électricité, le paysage est moins positif, puisque quelque 600 millions de personnes n’ont toujours pas accès à l’électricité et que dans 80% des régions subsahariennes, les coupures de courant sont fréquentes et préviennent le développement économique. En outre, près de 900 millions de personnes n’ont pas accès à des moyens pour cuisiner… Ce qui fait par conséquent que le Continent demeure un « contributeur mineur » en termes de changement climatique, avec seulement 2% des émissions de CO2 mondiales. L’AIE estime en outre qu’en 2040, malgré une forte croissance attendue de la demande énergétique, la hausse des rejets carbonés de l’Afrique ne devrait pas dépasser 4,3% sur la période, ajoutant à peine 0,2% aux émissions de CO2 mondiales.

Des atouts en termes de production

En matière de gaz, le continent dispose d’atouts majeurs, insiste l’Agence de l’OCDE, qui juge que ce combustible peut faciliter grandement le développement du Continent. En Afrique du Nord, le gaz représente déjà la moitié des besoins en énergie, mais dans la zone subsaharienne, ce chiffre chute. La part dans le mix énergétique du continent africain tombe ainsi en moyenne à 5%, soit la part la plus faible au monde, insiste l’Agence.

Néanmoins, les récentes découvertes de gisements de gaz en Afrique de l’Est (Mozambique et Tanzanie), en Egypte, en Afrique de l’Ouest (Sénégal et Mauritanie) ainsi qu’en Afrique du Sud, représentent environ 40% des nouvelles découvertes réalisées dans le monde entre 2011 et 2018. Reste que le développement de ce marché du gaz constitue un enjeu de taille, face à des marchés typiquement petits, même si le potentiel boom des énergies renouvelables devrait pousser à l’édification d’installations au gaz pour pallier la variabilité des énergies renouvelables, insiste l’AIE. Cette dernière mise sur le fait que l’Afrique deviendra un acteur majeur des marchés gaziers, comme producteur (la production pourrait doubler d’ici à 2040, selon le scénario conservateur de l’AIE, dénommé STEPS), comme consommateur (la part du gaz pourrait passer à 24% en 2040, selon le scénario Africa Case, défini par les pays de l’Union africaine en 2015, avec un horizon 2063 pour un développement durable) et comme exportateur (la production demeurant largement supérieure à la demande, des pays comme l’Egypte ou le Mozambique pourraient devenir rapidement de sérieux concurrents mondiaux en termes de gaz naturel liquéfié).

La difficile équation électrique

Les besoins en électricité devraient progresser très fortement (triplement attendu, selon le scénario Africa Case) sur la période sous revue. La demande actuelle est de quelque 700 TWh (en France, c’est un peu moins de 500 TWh), les pays du Nord et l’Afrique du Sud représentant 70% de cette demande. Mais, selon le scénario STEPS de l’AIE, celle-ci pourrait passer à 1 600 TWh et atteint 2 300 TWh dans le scénario Africa Case. La majorité de cette progression proviendrait des besoins industriels et des classes moyenne et haute (pour la climatisation notamment).

A cette hausse de la demande va correspondre une hausse de la production, remplie selon l’Agence très largement par les énergies renouvelables (75%). Mais, souligne l’AIE, tout va dépendre de la progression du solaire. En effet, l’Afrique ne dispose aujourd’hui que de 5 GW (5 000 MW) en solaire, soit à peine 1% de la capacité solaire mondiale, alors même que la ressource y est largement abondante. Selon le scénario Africa Case, le solaire pourrait cependant représenter la première source d’électricité en 2040, en termes de capacité installée, et la deuxième en termes de production. Le déploiement du photovoltaïque pourrait atteindre 15 GW par an sur la période sous revue. Reste que ce développement repose aussi sur des investissements conséquents dans les infrastructures, notamment les réseaux, de transport et de distribution. Le scénario Africa Case implique un système électrique plus sûr et une maintenance accrue pour éviter les coupures inopinées et réduire fortement les pertes (aujourd’hui de 16% en moyenne, contre moins de 10% dans les économies « développées »). Enfin, la mise en œuvre de grands projets, comme les barrages hydroélectriques, implique une coopération renforcée entre les pays et ne se feront pas s’ils sont portés par la demande d’un seul Etat…

Enfin, l’Afrique représente 17% de la population mais compte seulement pour 4% des investissements mondiaux en matière d’électricité. L’AIE juge que pour parvenir à construire un système électrique fiable, il faudrait a minima un quadruplement de ces investissements, soit quelque 120 milliards de dollars par an jusqu’en 2040, dont la moitié pour les seuls réseaux ! D’où un besoin sérieux de régulation, et de mesures pour faciliter l’investissement… Donc des choix politiques cohérents.

Usine extraordinaire 2019 : l’industrie française souhaite attirer les jeunes

Aéronautique, construction navale, chimie, métallurgie, pharmacie, agroalimentaire, biotechnologie, l’avenir de l’industrie française s’écrit déjà au futur. Pourtant, les préjugés persistent puisque les métiers de l’industrie sont considérés comme « essentiellement manuels et peu qualifiés ». A travers cet événement gratuit et ludique, l’Usine Extraordinaire souhaite leur offrir un nouveau visage.

Entre ciel, terre et mer

Portée par Industries Méditerranée, la seconde édition de l’Usine Extraordinaire veut faire le lien entre industrie et grand public. Au programme : des expériences immersives à la découverte des coulisses de l’usine, des rencontres avec les acteurs de l’industrie, des ateliers, des échanges animés et des tables rondes pour répondre aux grands défis de demain. « 50 entreprises industrielles comme EDF ou Total participent à l’événement autour de grands thèmes : industrie du futur, environnement, formation et éducation, numérique » souligne Thierry Chaumont, président de l’UIMM, l’Union des industries et des métiers de la métallurgie Alpes Méditerranée.
En effet, l’industrie est un secteur qui recrute malgré la pénurie de main d’œuvre. Les questions environnementales et énergétiques l’ont obligée à repenser ses activités. De plus, la digitalisation et la robotisation ont transformé les modes de travail et de production.

Attirer la nouvelle génération

« Nous voulons motiver la jeunesse et montrer que l’industrie est une voie d’avenir qui recrute », explique Thierry Chaumont. Près de 8 000 jeunes sont attendus et parmi eux, 150 élèves ingénieurs de différentes grandes écoles qui seront mobilisés pour les accompagner et les encadrer. Pour séduire la jeune génération et susciter de nouvelles vocations, l’Usine Extraordinaire a pour ambition de recréer ce lien avec l’industrie.
Pendant 3 jours, sur l’esplanade du J4, le public pourra vivre la « fabuleuse Odyssée de l’électricité » ; avec l’UIMM, il pourra expérimenter et vivre les multiples potentialités offertes par l’usine du futur. A bord du Méditerranée, le navire de Corsica Linea amarré sur le quai d’honneur du port de Marseille Fos, le visiteur embarquera pour une immersion dans le monde du transport maritime, grâce à une installation totalement inédite. Il sera aussi impossible pour les visiteurs de manquer les objets monumentaux comme la pale d’éolienne de 10 mètres, les panneaux solaires, la turbine hydraulique, l’assemblage combustible nucléaire installé par EDF, ou encore la grue de 80 mètres avec la possibilité d’aller dans la nacelle. L’opération séduction de l’Usine Extraordinaire a déjà commencé.

Décryptage : la loi énergie-climat enfin promulguée !

Après sa validation par le Conseil constitutionnel le 7 novembre, la loi énergie-climat a finalement été publiée au Journal Officiel le samedi 9 novembre. Le Conseil n’a modifié que quelques dispositions de l’article 62, en lien avec le mode de calcul de l’accès régulé à l’énergie nucléaire historique (Arenh), mais a validé son augmentation de 100 à 150 térawattheures par an.

La loi énergie climat entérine les nouveaux objectifs énergétiques et climatiques de la France. En 8 chapitres et 69 articles, elle regroupe les dispositions du Plan climat de Nicolas Hulot, de la Stratégie nationale bas carbone (SNBC), de la programmation pluriannuelle de l’énergie (PPE) et du paquet « Une énergie propre pour tous les Européens ».

De grands objectifs marqués dans la loi

Les grands objectifs sont là : baisser de 40 % la consommation d’énergies fossiles d’ici 2030 par rapport à 2012 (contre 30 % auparavant) et « atteindre la neutralité carbone à l’horizon 2050 en divisant les émissions de gaz à effet de serre par un facteur supérieur à six » (contre une division par 4 auparavant). Cette neutralité est définie comme « un équilibre, sur le territoire national, entre les émissions anthropiques par les sources et les absorptions anthropiques par les puits de gaz à effet de serre », conformément à l’Accord de Paris, sans avoir recours aux crédits internationaux de compensation carbone.

La loi valide la fermeture des quatre dernières centrales à charbon françaises d’ici 2022. Mais elle valide aussi le report de la réduction à 50 % de la part du nucléaire dans la production d’électricité de 2025 à 2035. Elle souhaite en revanche « encourager la production d’énergie hydraulique, notamment la petite hydroélectricité » et développer progressivement l’éolien offshore pour porter à 1 gigawatt l’installation annuelle de nouvelles capacités d’ici 2024. L’hydrogène « bas-carbone et renouvelable » et ses usages industriel, énergétique et pour la mobilité vont se développer pour atteindre « 20 à 40% des consommations totales d’hydrogène et d’hydrogène industriel à l’horizon 2030 ». Et pour mieux piloter la production électrique, l’objectif est d’installer au moins 6,5 gigawatts de capacités d’effacement en 2028.

La valorisation de la biomasse devra pour sa part se « concilier » avec « les autres usages de l’agriculture et de la sylviculture, en gardant la priorité à la production alimentaire, ainsi qu’en préservant les bénéfices environnementaux et la capacité à produire, notamment la qualité des sols ». Avant le 1er septembre 2020, le Gouvernement remettra un rapport au Parlement sur les « modalités de prise en compte des externalités positives du biogaz dans la détermination des conditions d’achat ou du complément de rémunération ».

Répondre à l’urgence écologique et climatique

L’article 1er reconnaît « l’urgence écologique et climatique », décrétée par le Président Emmanuel Macron. À cette fin, elle prévoit avant le 1er juillet 2023, puis tous les cinq ans, une nouvelle loi pour déterminer les objectifs et fixer les priorités d’action de la politique énergétique nationale afin de répondre à cette urgence. Elle comprendra les objectifs de réduction des émissions de gaz à effet de serre, de la consommation d’énergie finale, de développement des énergies renouvelables, de diversification du mix de production d’électricité, de rénovation énergétique et d’autonomie énergétique en outre-mer pour une à trois périodes successives de 5 ans.

La loi crée le Haut Conseil pour le climat au 27 novembre 2018, organisme indépendant, placé auprès du Premier ministre. Composé de treize experts élus pour 5 ans, renouvelable une fois, il rend chaque année un rapport d’évaluation de l’action climatique de l’État et des collectivités territoriales. Le Haut Conseil pour le climat est chargé de l’évaluation de l’action climatique du gouvernement. Ses missions consistent à analyser annuellement la mise en œuvre et l’efficacité des mesures pour réduire les émissions de gaz à effet de serre, développer les puits de carbone et réduire l’empreinte carbone. Il évalue les dispositions budgétaires et fiscales ayant un impact sur le climat et calcule l’impact socio-économique de ces politiques publiques. Ses travaux sont transmis au Parlement et au Conseil économique, social et environnemental (CESE). Le Gouvernement est tenu de répondre à ce rapport sous 6 mois devant ces deux instances.

Une évolution du DPE pour mettre fin aux passoires thermiques

Le texte met en place un dispositif progressif de rénovation énergétique des passoires thermiques. Sont ainsi nommés les logements consommant plus de 331 kWh d’énergie primaire/m2/an. Objectif : les éradiquer d’ici 2028. Un rapport sera remis chaque année au Parlement sur l’atteinte des objectifs de rénovation. Il donnera une estimation du nombre de passoires thermiques rénovées l’année précédente et du nombre de celles devant encore être rénovées.

Une première phase incitative visera à inciter les particuliers à la rénovation. Ainsi, pour toutes les passoires thermiques, le diagnostic de performance énergétique (DPE) sera accompagné d’un audit énergétique. Il proposera des bouquets de travaux pour atteindre « un très haut niveau de performance énergétique » et au moins une proposition pour passer sous le seuil des 331 kWh d’énergie primaire. Cet audit fournit des ordres de grandeurs des gains sur la facture d’énergie et du coût des travaux, avec les aides existantes. Entre 2022 et 2027, les travaux deviendront obligatoires, l’obligation étant mentionnée dans les annonces immobilières. À partir de 2028, le non-respect de l’obligation sera rendu public dans les annonces immobilières, et d’autres sanctions graduées seront mises en place.

D’autres dispositions pour plus d’efficacité

Le texte prévoit pour les stratégies bas-carbone un « budget carbone spécifique au transport international » à partir de 2022, alors que les émissions de ce secteur ne sont pas intégrées dans les objectifs nationaux.

La loi renforce la lutte contre la fraude aux certificats d’économies d’énergie (CEE). À cette fin, elle accélère les procédures de contrôle et facilite les échanges d’information entre les services de l’État.

La loi énergie-climat supprime les tarifs réglementés de vente d’électricité pour les entreprises et collectivités publiques ayant plus de 9 salariés et celles ayant un chiffre d’affaires, ou recettes, ou bilan annuel de plus de 2 millions d’euros d’ici fin 2020. Elle précise enfin les conditions visant à la suppression des tarifs réglementés de vente (TRV) du gaz naturel d’ici 2023. La première étape : la fin de la commercialisation des TRV du gaz. « L’arrêt de la commercialisation du tarif réglementé de vente de gaz naturel prend effet au plus tard trente jours après la publication de la présente loi », indique le texte. Soit au plus tard le 10 décembre prochain.

Turbulences en cours pour le recyclage des plastiques

En 2018, 904 000 tonnes de plastiques ont été collectées et vendues en France en vue de leur recyclage. C’est 0,4% de plus qu’en 2017, après une baisse de 0,2% par rapport à 2016. Ces chiffres cachent une information importante : si l’extension des consignes de tri permet de collecter davantage de plastiques auprès des ménages, la collecte auprès des entreprises baisse fortement. Ainsi, en 2018, la collecte a augmenté de près de 18 000 tonnes auprès des ménages, mais a chuté de 14 000 tonnes auprès des entreprises. C’est une baisse de 2,9% pour les entreprises. La collecte auprès des entreprises avait déjà baissé de 20 000 tonnes en 2017 (-3,1%). La part des plastiques collectés auprès des ménages passe ainsi à 33%, celle des entreprises à 67%.

« Sur certains produits industriels, la baisse de collecte atteint même jusqu’à 10% », explique Pierre Moguerou, vice-président de la branche Plastiques chez Federec. Malgré la hausse de la collecte, le chiffre d’affaires global de la filière baisse de 4,5% pour atteindre 188 millions d’euros en 2018. « Cette baisse est en particulier portée par la baisse de prix de ventes des flux industriels, avec des prix qui chutent jusqu’à -70% pour les films à cause d’un marché complètement saturé », complète-t-il. En effet, environ 5 million de tonnes de films à laver étaient exportées de l’Europe vers la Chine en 2016 et se retrouvent désormais à recycler sur place.

La fin des débouchés hors de l’Union Européenne

En 2017, les entreprises françaises et européennes pouvaient encore trouver des débouchés au grand export, notamment vers des pays d’Asie du sud-est. Mais en 2018, le marché international s’est complètement fermé. Les exportations hors Union européenne ont ainsi diminué de 82% par rapport à 2017. Les exports dans l’Union européenne ont pour leur part augmenté de 59%. Finalement, en 2018, la France a recyclé 54% de ses plastiques sur le territoire national, en a exporté 43% dans l’Union européenne et 3% hors des frontières de l’UE. L’ Asie a consommé 87 700 tonnes, quasi exclusivement sur l’ Asie du Sud-Est, soit 35 % des 250 000 tonnes qui étaient encore exportées directement ou indirectement en Chine par la France en 2017.

Pour s’adapter, la filière française et européenne réoriente donc des flux, et améliore le tri en investissant dans des outils de tri ou de régénération. Sur le marché des plastiques industriels, les films en mélange ou « à laver » sont particulièrement touchés par la baisse de la demande. Leur prix chute et dans certains cas, ils peuvent tout simplement ne plus être collectés en vue de leur recyclage. Dans ce cas, ils sont incinérés ou mis en décharge.

Entre bonne et basse qualité, pas de pitié

Sur le marché de la collecte sélective, le recyclage du PET clair connaît une forte hausse de la demande. Les prix augmentent suite à la réglementation européenne qui vise des obligations d’incorporation de PET recyclé dans les bouteilles neuves de 25% en 2025 et suite aux engagements volontaires liés au Pacte National sur les emballages plastiques.  La tendance est aussi bonne pour le polyéthylène haute densité. En revanche, les solutions de recyclage pour les films issus de l’extension des consignes de tri peinent à se développer, faute de débouchés suffisants. Les prix s’écroulent, alors que le volume de collecte des films augmente.

L’année 2019 est remplie de défis pour le recyclage des plastiques. Les stocks de certains produits « à trier » continuent d’augmenter. Comme pour la filière de recyclage dans son ensemble, les plastiques sont particulièrement concernés par la baisse des possibilités d’enfouissement en France et le manque de solutions de valorisation énergétique, notamment de combustibles solides de récupération. Faute de débouchés, le risque est que de plus en plus d’entreprises ne trient plus leurs plastiques. Les discussions dans le cadre de la loi Economie circulaire pourront aussi bouleverser grandement la filière, notamment avec la mise en place de la consigne, de nouvelles filières REP et l’évolution des éco-organismes.

Fabrication additive : les contrôles nécessaires

Communément appelée, par abus de langage, impression 3D, la fabrication additive est une véritable révolution, car elle permet de pallier les limites de la fabrication traditionnelle (injection plastique, usinage, formage, assemblage). En effet, elle donne toute latitude pour fabriquer des pièces de grande complexité, irréalisables par d’autres techniques, ouvrant ainsi des perspectives d’innovation. Cependant, la presse grand public a tendance à présenter la fabrication additive comme une technologie presse bouton, accessible à tous. La réalité est tout autre.

En fabrication additive, le matériau et la pièce sont fabriqués simultanément, couche après couche, à partir d’un modèle numérique. Mais, réaliser une pièce ne consiste pas simplement à transférer un dessin numérique à la machine, à appuyer sur un bouton et à attendre que la pièce soit fabriquée. Il y a de nombreuses étapes en aval et en amont. Le processus complet comprend la conception de la pièce, la préparation de la machine, sa configuration, puis la fabrication de la pièce, et enfin son post-traitement.

Un processus de fabrication complexe et en plusieurs étapes

La conception de la pièce se décline en plusieurs étapes : la sélection du matériau et de la structure (pleine ou lattice) ; la conception du modèle numérique décrivant la géométrie de la pièce avec ou sans optimisation topologique ; la discrétisation de la surface de la pièce ; le positionnement et l’orientation de la pièce, voire des pièces, sur le plateau de fabrication ; la mise en supports de la pièce et le découpage du modèle numérique en strates représentant les couches à réaliser. La préparation de la machine comprend, suivant les procédés : le nettoyage de la machine, le chargement de la matière première, éventuellement son homogénéisation et son nivellement sur le lit de la chambre de fabrication et le réglage de la hauteur du niveleur.

La configuration de la machine consiste à la paramétrer : par exemple, pour la catégorie fusion sur lit de poudre par laser, à choisir la vitesse de balayage du laser, sa puissance, la taille du faisceau, le nombre de passages du niveleur. Il ne faut pas omettre d’enregistrer les données d’entrée pour la traçabilité du processus de fabrication. À la fin du processus, il faut extraire la pièce de la matière première non transformée et la nettoyer. Ensuite, il faut procéder au post-traitement thermique de la pièce. Cela consiste, suivant les procédés, à un recuit pour éliminer les contraintes résiduelles ou pour parfaire le processus de liaison de la matière première ou encore pour délianter la pièce. Enfin, la pièce est détachée du plateau de fabrication de la machine, ses supports sont découpés, son état de surface amélioré et elle est nettoyée. Outre le fait que ces nombreuses étapes démontrent la nécessité de revoir les procédures de conception, elles mettent en lumière la complexité du processus.

Qualifier les machines et toutes les étapes du process

En conséquence, avant que la fabrication additive ne puisse être adoptée par les industriels, principalement ceux concernés par la production de petites séries (aéronautique, aérospatial et médical), il est indispensable de qualifier les machines et de démontrer que les pièces réalisées en fabrication additive répondent aux mêmes exigences de qualité que celles réalisées par des techniques traditionnelles. Pour cela, il faut réaliser non seulement des contrôles sur les machines, mais également à tous les stades du processus de fabrication à savoir sur la matière première, sur le matériau et sur la pièce finie.

Certains contrôles sont communs aux techniques traditionnelles, mais d’autres sont spécifiques à la fabrication additive. Différentes méthodes de contrôles sont également suggérées.

Une nécessité pour la généralisation de l’utilisation de la fabrication additive

La fabrication additive se développera et s’imposera au fur et à mesure que l’on maîtrisera de mieux en mieux sa technologie, et cela passe nécessairement par des contrôles. Aujourd’hui, de nombreux industriels s’intéressent de près ou de loin à la fabrication additive. Certains évaluent les différents procédés en faisant réaliser des pièces par des prestataires de service. D’autres se sont équipés d’une machine et évaluent un procédé bien spécifique tout en essayant d’élaborer un protocole de fabrication. Quels qu’ils soient, ils réalisent des contrôles, car le mot « évaluation » sous-tend le mot « contrôle ».

La technologie étant en plein essor, la nécessité d’autres contrôles peut apparaître. Par ailleurs, le  cadre normatif est important pour le développement et la généralisation de l’utilisation de la fabrication additive. Il faut donc poursuivre les efforts en termes de normalisation pour promouvoir l’acceptation de la fabrication additive par l’industrie. Il faut d’une part réviser les normes existantes dédiées aux technologies de fabrication traditionnelle pour les adapter à la fabrication additive, et d’autre part en écrire des spécifiques à la fabrication additive, notamment sur les protocoles de contrôle.

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 1er décembre !

Fabrication additive : contrôles , un article d’Anne-Françoise OBATON

Bilan mitigé pour la prime à la conversion en 2018

« La prime à la conversion a bénéficié à des ménages plutôt ruraux, non imposables dans 72 % des cas, et a permis de mettre au rebut des véhicules anciens (19 ans), diesel à 80 %, pour les remplacer par des véhicules récents moins polluants », résume le commissariat général au développement durable (CGDD) dans son rapport consacré au bilan 2018 du dispositif.

Des véhicules un peu moins polluants sur les routes

Le contrat est en partie rempli. La prime bénéficie majoritairement à des ménages modestes pour remplacer un vieux véhicule diesel. Deux tiers des véhicules achetés respectent la norme EURO 6, la plus récente, l’autre tiers la norme EURO 5. Ils émettent en moyenne 106 grammes de CO2 par kilomètre (gCO2/km). C’est un peu moins que les émissions moyennes des véhicules neufs (112 gCO2/km). Mais on reste loin de véhicules « propres » : 48,3% des véhicules achetés sont diesel et 44,9% essence. Seulement 2,3% des véhicules achetés sont tout électriques, soit 7 775 véhicules. 2,6 % ont une autre motorisation, notamment hybride. 14% des véhicules électriques ont été achetés d’occasion.

Entre 2015 et 2017, le dispositif a connu peu de succès avec moins de 10 000 bénéficiaires par an. Le fait d’élargir le dispositif aux véhicules thermiques d’occasion (émettant moins de 130g/km de CO2 et disposant d’une vignette Crit’Air 1 ou 2) en 2018 a fait exploser le nombre de bénéficiaires. En 2018, 60% des véhicules achetés le sont sur le marché de l’occasion. Ils coûtent en moyenne 13 200 euros.

Des gains pour la collectivité qui pourraient augmenter

Les gains calculés en matière d’environnement grâce au remplacement de vieux véhicules par des véhicules plus récents sont évalués à 375 millions d’euros. Pour la collectivité, le principal gain est lié à la réduction de la pollution de l’air par les particules fines et les oxydes d’azote (220 millions d’euros). Elle gagne également 75 millions d’euros via les économies en carburant et 60 millions d’euros grâce aux économies d’entretien. Les 440 000 tonnes de CO2 évitées représentent une économie de 25 millions d’euros.

Ces chiffres sont à confronter aux 310 millions d’euros dépensés par l’État pour accorder ces aides. En fin de compte, le gain net s’élève donc à 65 millions d’euros. Mais le diable est dans les détails. « Dans plus de deux tiers des cas, le bilan collectif est négatif ou nul », note le CGDD. Pour être positif, les véhicules doivent rouler dans les agglomérations d’une densité supérieure à 1 000 habitants par km². C’est là que le coût social associé à la pollution atmosphérique est le plus élevé. Or, la densité moyenne des communes où habitent les bénéficiaires est de 991 habitants par km². Dans ces zones densément peuplées, le bilan collectif est « positif dans plus de 3/4 des cas ». Pour être sûr d’avoir un bilan positif, il faut remplacer un très vieux diesel par un véhicule électrique ou à faible émission de CO2.

Une aide utile qui permet un bilan positif pour l’acquéreur

La prime à la conversion permettrait d’anticiper l’achat, de 2 ans pour les ménages non imposables et de 6 mois pour les ménages imposables. En absence de prime à la conversion, le bilan serait négatif pour l’acquéreur dans 92 % des cas, estime le rapport. Le gain estimé grâce aux économies de carburant et la réduction des frais d’entretien s’élève à 230 millions d’euros pour les acquéreurs. Loin de couvrir les 535 millions d’euros liés à l’anticipation de l’achat.

« Si on prend en compte les primes à la conversion versées aux acquéreurs, le bilan devient positif dans la quasi-totalité des cas […], avec un gain global de 140 millions d’euros », rassure le CGDD. Et en absence d’un intérêt individuel suffisant pour remplacer de vieux véhicules, « il semble donc que l’intervention publique soit justifiée », conclut l’organisme.

Les pays du G20 en peine sur leurs objectifs climatiques

Les pays du G20 sont responsables d’environ 80 % des émissions mondiales de gaz à effet de serre. Et mauvaise nouvelle : les émissions de CO2 y ont augmenté dans tous les secteurs clés en 2018. La hausse atteint 1,8 % pour l’énergie, 1,6 % pour l’électricité, 1,2 % pour les transports et 4,1 % pour le bâtiment. Les énergies renouvelables ne croissent pas assez vite. Encore 82% de l’énergie consommée dans les pays du G20 provient d’énergies fossiles.

Un rapport pour mieux comprendre les leviers d’action

Le rapport « Du brun au vert : la transition du G20 vers une économie à 0 émission nette » est rédigé par Climate Transparency, une initiative internationale reliant organismes de recherche et ONG. Il analyse la performance des pays du G20 à travers 80 indicateurs d’atténuation, de financement et d’adaptation au changement climatique par rapport à l’objectif de 1,5°C.

« Aucun des pays du G20 n’a de plan assez ambitieux qui le mette en voie de limiter le réchauffement climatique à 1,5°C, bien que la plupart d’entre eux en soient techniquement capables, et qu’ils aient un intérêt économique à le faire », observe Climate Transparency.

Des objectifs et des efforts à intensifier

Alors que les objectifs actuels ne sont déjà pas assez ambitieux, seulement la moitié des pays du G20 devraient les atteindre ou les dépasser. La Chine, l’Union européenne et ses états membres du G20, l’Inde, l’Indonésie, la Russie, l’Arabie saoudite et la Turquie devraient atteindre ou dépasser leurs objectifs, à l’exclusion des émissions liées à l’utilisation des terres, au changement d’affectation des terres et à la foresterie. La Corée du Sud, le Canada et l’Australie sont les pays du G20 les plus éloignés de la mise en œuvre de leurs engagements, déjà peu ambitieux.

L’ensemble des pays doivent augmenter leurs objectifs d’émissions pour 2030 d’ici 2020 et intensifier considérablement leurs efforts d’atténuation, d’adaptation et de financement au cours de la prochaine décennie. Les solutions sont connues et rappelées par Climate Transparency.

Les secteurs clés sont bien connus

Pour limiter le réchauffement à 1,5°C en 2100, il faut sortir du charbon d’ici 2030 dans les pays de l’Organisation de coopération et de développement économiques (OCDE) et d’ici 2040 dans le monde. Les pays du G20 doivent interdire la vente de nouvelles voitures à combustibles fossiles au plus tard en 2035. Le transport de marchandises doit atteindre la neutralité carbone d’ici 2050. Il faut aussi réduire les subventions gouvernementales au secteur de l’aviation, taxer le kérosène et utiliser les revenus pour investir massivement dans de nouveaux carburants sans carbone. La rénovation des bâtiments demeure un défi pour tous les pays du G20. Les nouveaux bâtiments doivent être à énergie zéro d’ici 2020-2025.

Les pays du G20 ont encore accordé plus de 127 milliards de dollars de subventions pour les combustibles fossiles en 2017. C’est beaucoup moins qu’en 2013 – 248 milliards de dollars –, en partie grâce à une importante baisse des prix du pétrole, du gaz et du charbon sur la période. Les aides ont diminué dans neuf pays du G20, mais les subventions pour les infrastructures et la production de gaz naturel sont restées stables ou ont augmenté dans plusieurs pays. « Ne consacrer qu’une fraction de ces subventions aux combustibles fossiles aux énergies renouvelables pourrait financer la transition vers une énergie propre et réduire considérablement les émissions », rappelle le rapport.

Enfin, les institutions publiques du G20 finançaient toujours le charbon et la production d’électricité à base de charbon pour un montant de 17 milliards de dollars à l’échelle internationale et de 11 milliards à l’échelle nationale en moyenne par an entre 2016 et 2017. « Mettre fin au financement du charbon est l’une des étapes les plus cruciales pour atteindre les objectifs de Paris », rappelle Climate Transparency.

Techniques de l’Ingénieur participe à BE 4.0 !

BE 4.0, Salon Industries du futur, c’est :

  • 4000 visiteurs dont 20 % d’étrangers (Allemands, Suisses, Espagnols, Canadiens…).
  • La mise en lumière de l’excellence opérationnelle et de la créativité de 270 exposants dont 50 start-ups ainsi qu’une trentaine d’offreurs de compétences venant de France, d’Allemagne et de Suisse !
  • 300 rendez-vous BtoB, 60 conférences sur les enjeux clés de l’industrie 4.0 et 5 plénières bilingues français-anglais.
  • La rencontre avec des industriels et experts européens de la transformation 4.0 au travers de conférences, tables rondes, retours d’expériences.
  • La présence des acteurs du Grand Est qui conseillent et accompagnent les entreprises vers leur transition 4.0, le soutien des promoteurs du 4.0 en France, au Bade-Würtemberg et en Suisse.

2 thématiques à l’honneur : IA et efficacité énergétique

5 conférences plénières seront animées par le journaliste innovations Anicet Mbida.

  • La plénière inaugurale : « Regards tri-nationaux croisés sur le futur de l’industrie », en présence d’élus et d’industriels français, allemands et suisses
  • L’IA au service de l’industrie du futur, quel chemin prendre ? Ou comment faire de l’IA un levier de performance et de compétitivité pour l’industrie de demain ?
  • L’industrie face aux enjeux de la transition énergétique, ou comment évoluer vers une gestion responsable et durable des ressources grâce à la transformation numérique ?
  • Collaborateur 4.0, des innovations au service de l’attractivité de l’industrie
  • Confiance numérique sur la cybersécurité

Les autres conférences aborderont les sujets de l’optimisation des flux par la robotique, la réalité mixte et le jumeau numérique, la maintenance prédictive et proactive, le digital appliqué à la sécurité, l’open source au cœur des innovations de l’usine du futur…

Le salon BE 4.0 2019 se déroule à Mulhouse, au cœur de la région Grand Est, partenaire du French Fab Tour. Elle est la première région française en matière d’investissements industriels (automobile, aérospatiale, énergie..), et constitue le territoire de référence en matière d’Advanced Manufacturing. Situé aux confluences des stratégies françaises, allemandes (Industry 4.0) et suisses (Industry 2025), le salon ouvre les portes de l’excellence sur les nouvelles solutions, innovations et formations industrielles.

Zero Standby Energy réduit à zéro la consommation des appareils en veille

Objectif… nul ! Le slogan pourrait désigner l’action de Zero Standby Energy, un circuit électronique miniature conçu pour réduire à zéro la consommation électrique des appareils en veille. Ou dit autrement, les appareils qui ne sont pas à l’arrêt complet, mais en sommeil, ponctionnant en douce et en continu des dizaines de watts-heure sur le réseau électrique. L’Ademe, d’après une fiche éditée en juin dernier, en dénombre entre 15 et 50 par foyer, dont la consommation en veille coûterait 80 € par an. A l’échelle mondiale, celle-ci représenterait 1% des émissions de CO2.

Zero Standby Energy est une réalisation commune de Raymond Morel, un ingénieur suisse, et de Raoul Parienti, un habitué des concours Lépine et créateur, entre autres, du Pass Navigo. Cet ex-professeur associé de l’Université de Nice-Sophia Antipolis est aujourd’hui à la tête d’une holding qui détient quelque 150 brevets. Vient s’ajouter à la liste cette invention composée de deux parties : une télécommande et un circuit électronique passif intégré dans l’appareil.

«Le signal ultrasonique émis par la télécommande, dans la bande des 40 kHz, entre en résonance avec le circuit électronique, explique Raoul Parienti. Il se produit une différence de potentiel qui permet d’enclencher ou de déclencher à distance l’interrupteur, et donc de mettre en marche ou à l’arrêt l’appareil». Le bouton On/Off de la télécommande, qui sert d’ordinaire à l’entrée ou la sortie de veille, peut ainsi totalement couper l’alimentation. «L’émission ultrasonique est légèrement directive, avec un angle de 60°, admet Raoul Parienti. Mais ces ondes rebondissent sur les murs.»

Bientôt intégré dans les appareils électroniques ?

Les consommations en veille étaient telles dans les années 2000 – une quinzaine de watts pour un téléviseur par exemple – que la Commission européenne avait enjoint les fabricants à la diminuer progressivement au cours des années 2010. L’efficacité énergétique s’étant amélioré dans le même temps, la LED qui signale l’état de veille d’un TV et la photodiode en attente du signal infrarouge de la télécommande consomment quelques dixièmes de watt aujourd’hui. Mais les équipements électroniques se sont tellement multipliés que le sujet n’en reste pas moins d’une grande importance, à l’origine de nombreux travaux.

Dans un document publié en mai dernier, des chercheurs de l’Université de Californie et du laboratoire national Lawrence Berkeley décrivent ainsi quelques solutions techniques pour résoudre cette problématique, dont certaines ont donné lieu à des prototypes. Le cap de la commercialisation est toutefois plus difficile à franchir, ce que Zero Standby Energy a réussi, semble-t-il. D’ici au premier trimestre 2020, une prise externe est prévue pour le grand public et sera disponible, avec sa télécommande, dans la grande distribution. Son prix n’a pas encore été fixé, mais serait inférieur au coût de la consommation électrique des appareils en veille dans un foyer. Sa consommation propre ne sera pas nulle cependant, car le circuit à quartz, requis pour la programmation horaire de son fonctionnement, réclamera une petite quantité de courant.

A plus long terme, l’équipe de Zero Standby Energy voudrait implanter son dispositif dans les appareils électroniques eux-mêmes et concéder une licence d’exploitation. «Nous discutons avec deux fabricants majeurs de TV et d’équipements électroniques, confie Raoul Parienti. Notre composant ne mesurant qu’un demi-centimètre cube, son intégration est facile. L’émetteur dans la télécommande est encore plus petit et ne consomme que quelques micro-ampères sur quelques millisecondes. L’impact sur le prix est négligeable». Quoi qu’il en soit, si cette offre voit le jour, le remplacement du parc actuel par des appareils «0 watt en veille» prendra de nombreuses années.

Le recyclage des papiers et cartons est en crise

En 2018, la collecte des papiers et cartons pour recyclage en France atteint 6,96 millions de tonnes, en baisse de 4,6 % par rapport à 2017. « C’est la première fois que nous avons une telle baisse », fait savoir Pascal Genneviève, président de la branche Papiers-cartons de Federec. Le taux de récupération atteint 79,2%, en baisse aussi pour la première fois depuis de nombreuses années.

Dans le détail, la baisse est de 5,6% pour les 2,25 millions de tonnes de papiers collectées. « Cela reflète tout simplement la baisse de l’utilisation du papier dans notre société », analyse Pascal Genneviève. Si la baisse chronique du gisement de papier se poursuit, la baisse touche pour la première fois l’activité de recyclage des cartons. Ainsi, 4,71 millions de tonnes de cartons ont été collectées et triées, en baisse de 4,1%.

Trouver de nouveaux débouchés en Europe

La baisse est en grande partie liée à la fermeture des débouchés asiatiques qui importaient 7,9 millions de tonnes de papiers et cartons d’Europe chaque année. En plus, la France manque toujours cruellement de papeteries. Le pays reste très dépendant des exportations. 65% des papiers et cartons triés sont consommés en France, 30% dans l’Union européenne et 5% hors de l’UE. Dans ces conditions, une partie des fibres part dans les ordures ménagères ou dans les refus de tri. Destination l’incinération ou l’enfouissement.

L’activité de recyclage des papiers continue à souffrir de la diminution de l’utilisation de papiers graphiques dans ses principaux usages (édition, presse…). La baisse du volume d’ archives papiers, déjà observée, se confirme. Les prix s’effondrent : ils ont été divisés par deux pour le carton et atteignent leur niveau le plus bas depuis dix ans. Combiné à la baisse des volumes, la profession fait face à une baisse importante de son chiffres d’affaires. Il atteint 729,2 millions d’euros, en baisse de 26% par rapport à 2017.

Des centres de tri engorgés

Le marché chinois était déjà très restrictif en quantité et en qualité. Il s’est totalement fermé aux flux européens de papiers-cartons en 2019. Si certaines usines papetières du sud-est asiatique importaient une partie des excédents européens et américains, elles sont désormais saturées ou ont mis en place des dispositifs de contrôle contraignants. Cela a engendré un engorgement du marché mondial.

Etant très dépendante des exportations, la France est particulièrement affectée par ce manque d’exutoires. Les prix chutent et les centres de tri se trouvent engorgés. Une nouvelle crise s’ajoute à cette situation ces derniers mois. Les usines fabriquant du papier-journal ont du mal à vendre leurs bobines donc ralentissent leur production. « Nous ne savons plus quoi faire des journaux-magazines issus de nos centres de tri », avertit Pascal Genneviève, qui incite à trouver rapidement des solutions localement pour désengorger les centres de tri. Cette situation pourrait conduire à l’arrêt temporaire de certains centres de tri. La situation devrait s’améliorer à partir de 2020, avec la création de nouvelles capacités en Europe et la structuration de certains marchés asiatiques, hors de la Chine.

AddUp, un modèle de croissance dans la fabrication additive métallique 

AddUp est une coentreprise détenue à 50 % par Michelin et 50 % par Fives, un groupe d’ingénierie industrielle qui conçoit et réalise des machines, équipements, lignes de production pour l’industrie et qui comptait en 2017 près de 9000 collaborateurs dans une trentaine de pays pour un chiffre d’affaires de 1,9 Md€.

Née en avril 2016, sous le nom de Fives Michelin Additive Solutions, AddUp a depuis grandi en rachetant des entreprises françaises aux technologies ou marchés complémentaires. Avec un objectif affiché à sa création de capter 10 % du marché mondial des équipements de fabrication additive métallique, AddUp se donne les moyens de son ambition en ouvrant des bureaux à l’international (Etats-Unis, Europe etc), en étoffant son offre de services régulièrement et en multipliant les partenariats de recherches et développement.

Une croissance externe pour une offre multi-technologie

La nouvelle entreprise s’appuie sur l’expérience, le réseau et les ressources de deux grands groupes industriels internationaux. Michelin fait partie des industriels pionniers en matière de fabrication additive  et a lancé ses premières recherches dans les années 2000. Petit à petit le fabricant de pneus a développé ses propres solutions à partir de la technologie de fusion laser sur lit de poudre. La production de pièces de moules en 3D a permis d’innover avec par exemple le lancement des pneus CrossClimate en Europe. Dès 2017, Michelin a produit plus d’un million de pièces en fabrication additive pour ses pneus dans plusieurs ateliers dans le monde. AddUp constitue une manière de valoriser son savoir-faire et ses machines (gamme FormUp).

De son côté, Fives cherchait aussi à se positionner sur ces nouvelles technologies. En 2010, le groupe d’ingénierie a fabriqué la première machine à technologie LMD (Laser Metal Deposition – il s’agit de faire fondre des poudres métalliques par laser avant de les déposer de manière contrôlée) pour l’IREPA Laser. Cette technologie brevetée sous le nom de CLAD® qui fait partie de la famille des technologies de dépôt par énergie dirigée (DED) est notamment commercialisée par la société BeAM, que AddUp a acquis en 2018. Pour compléter son offre technologique, AddUp a aussi acquis en 2017 la start-up 3A (Applications Additives Avancées) qui s’est développée sur la technologie de fusion par faisceau d’électrons et a notamment travaillé avec Dassault.

En 2018, AddUp a conforté son offre globale en prenant une participation majoritaire dans une autre entreprise française, Poly-Shape. Cette dernière, créée en 2007, propose aux industriels des services de sous-traitance de la conception à la production de pièces en fabrication additive tous matériaux. Elle apporte à AddUp le plus grand parc machine français, une forte expérience en conseil et accompagnement et une filiale en Italie spécialisée dans l’automobile.

Le credo de l’offre globale

Parce que la fabrication additive métallique industrielle est encore complexe à maîtriser, parce qu’elle coûte cher, parce qu’elle nécessite du temps et des ressources, AddUp a d’emblée fait le choix de proposer une offre globale à ses clients pour qu’ils puissent accéder à la fabrication additive métallique plus facilement. L’offre AddUp s’articule autour de trois pôles : formation et consulting ; accompagnement de projet (validation des choix de matériaux, machines etc jusqu’à la preuve de concept) ; production (avec différents systèmes de machines à l’achat, location, mobile etc).

AddUp se propose donc de prendre par la main l’industriel qui veut lancer un projet de fabrication additive métallique du début à la fin. Ce modèle semble être une des clés du développement du secteur et les nombreux partenariats, fusions, alliances et autres formes de coopérations que l’on voit apparaître depuis 2-3 ans montrent que les fournisseurs de matériaux, d’équipements ou d’autres services ont besoin de proposer des offres clés en main pour mieux capter leurs clients. C’est une forme de consolidation du secteur qui devrait s’accélérer et vers laquelle les grands industriels classiques s’orientent déjà à l’image de General Electrics qui a racheté en 2018 le fabricant de machines de fusion par faisceau d’électrons suédois Arcam et sa filiale canadienne de fabrication de poudres (AP&C). Il avait déjà acquis en 2016 le spécialiste allemand de la fusion laser Concept Laser.

Dans cet esprit, AddUp veut créer un véritable réseau entre les différents acteurs autour de ses machines et de ses technologies. Baptisé AddUp Community, ce réseau se structure pour le moment autour d’un label de qualité accordé par AddUp aux utilisateurs de ses machines qui remplissent un certain nombre de critères de qualité. Ces utilisateurs peuvent bénéficier de formations techniques, de conseils HSE et sont référencés et mis en avant auprès des clients recrutés par le réseau international d’AddUp.

Information et formation : deux pré-requis pour le marché

Parmi les services proposés par AddUp, la formation et l’information sont deux piliers.  L’offre de formation d’AddUp est désormais soutenue par une plateforme de « digital learning » qui s’adresse aux industriels et aux universitaires. Présentée officiellement en juin 2019, AddUp Academy Online répond à plusieurs objectifs : une démarche d’information pour expliquer les technologies et les possibilités qu’elles offrent à tous ceux qui s’y intéressent via un parcours de découverte gratuit de près de 2h. Elle répond aussi à un véritable objectif de formation visant une réelle montée en compétences et couvre « tous les aspects depuis les matières premières jusqu’aux contrôles qualité en passant par les aspects économiques, organisationnels, de gestion des compétences, de sécurité et d’environnement » précise Frédéric Parisot, ingénieur formation chez AddUp. Cette formation est modulable selon le public visé dans l’entreprise et représente jusqu’à plus de 8h de contenu. Elle a aussi été déclinée avec des options adaptées au monde académique (création de classe virtuelle, mode « classique » d’apprentissage ou mode « examen »…) ainsi que sous la forme d’un serious game baptisé AddUp Adventure. Sur cette base, AddUp a aussi annoncé l’arrivée de contenus additionnels grâce à des partenariats avec des centres techniques ou des industriels référents dans leur secteur.

La R&D au coeur du projet

Recherche et développement sont au coeur du projet d’AddUp qui espère, en investissant massivement, rester à la pointe des évolutions technologiques et pouvoir tirer rapidement profit des augmentations de productivité et de qualité qui restent encore attendues dans ces technologies. Dès sa création, AddUp anime donc le consortium SoFIA  (Solutions pour la Fabrication Industrielle Additive métallique) qui est composé de 7 entreprises et 9 laboratoires de recherche français autour de l’impression 3D métallique.

SoFIA vise à réduire le coût de fabrication des pièces, améliorer leur robustesse, faciliter l’exploitation des machines dans leur environnement, garantir le respect des contraintes HSE et couvrir des recherches sur toute la chaîne de fabrication (poudres et matériaux, équipements et procédés, outils numériques).

D’autres collaborations sont régulièrement lancées. En juin dernier, Famergie (Fabrication additive métallique pour l’énergie), une plateforme technologique et un écosystème d’incubation pour les projets de fabrication additive dédiés au secteur de l’énergie (composants de turbines, réacteurs catalytiques,
génie électrique etc.) a été créée avec le CEA. Les installations sont accueillies à Grenoble sur le site du CEA-Liten. La collaboration entre Poly-Shape et l’Onera au sein du Lab NAFA (Nouveaux alliages
dédiés fabrication additive) a aussi été annoncée et a pour objectif d’améliorer la composition de certains superalliages pour leur utilisation en fabrication additive.

Au fur et à mesure de son développement, AddUp ajoute ainsi de nouvelles pierres à son édifice et est en train de construire autour d’elle un véritable environnement français de la fabrication additive métallique.

 

Loi Mobilité : nouveau retard après le rejet du Sénat en seconde lecture

Si le point d’achoppement entre le Sénat et l’Assemblée nationale réside dans une demande sénatoriale – un dispositif destiné à développer une offre de mobilité, alternative à la voiture individuelle, sur les territoires qui en sont aujourd’hui dépourvus -, le texte va bien au-delà de ce sujet en matière d’énergie.

A l’occasion d’une rencontre avec des journalistes de l’AJDE, Nathalie Sarles, députée de la cinquième circonscription de la Loire et rapporteur du projet de Loi-Energie Climat, et Jean-Luc Fugit, député de la 11ème circonscription du Rhône, rapporteur du projet de Loi d’Orientations des Mobilités (LOM), ont rappelé les enjeux de ce texte qui vise à réorganiser les transports afin « d’améliorer concrètement les déplacements au quotidien pour tous les citoyens et dans tous les territoires grâce à des transports plus faciles, moins coûteux et plus propres », comme le signale le gouvernement dans son texte de présentation.

Jean-Luc Fugit, rappelle d’abord que ce texte fait suite aux Assises de la mobilité lancées dans la foulée de l’élection présidentielle.

Du droit du transport à celui de la mobilité

Le texte tend à combler l’absence de loi depuis 1982 sur le sujet, explique le rapporteur. Il s’organise autour de quatre grands enjeux : mettre en œuvre des autorités organisatrices de la mobilité (au niveau communal, intercommunal, ou, par subsidiarité régional), la LOM passant de la notion de droit aux transports à celui de droit à la mobilité. En outre, il s’agit d’adapter la législation à la nouvelle donne (mise à disposition de données, mobilité autonome, par exemple). L’objectif est également de mettre en place les infrastructures, en donnant les outils afin de faciliter la décision d’investissement. Enfin, il faut aussi répondre à l’ambition de neutralité carbone inscrite dans la loi énergie-climat récemment votée, en allant vers une mobilité plus propre et plus active.

J-L. Fugit rappelle en effet que, côté énergie, l’objectif général de la LOM s’inscrit dans la perspective de la loi énergie-climat récente, qui vise à la neutralité carbone à l’horizon 2050. Une ambition qui repose sur plusieurs leviers, insiste le rapporteur de la LOM. D’abord, une consommation d’énergie qui se réduit, ensuite, plus de sobriété, enfin des puits de carbone. Autant de sujet qui impliquent une organisation d’une démarche de société vers cet objectif. Et, en résumé, il s’agit de « fixer tout le CO2 émis par les activités anthropiques et de les remettre dans le cycle », en s’appuyant sur le fait que « moins il y en a à stocker (du CO2), plus c’est facile de le stocker ».

Un objectif de lutte contre la pollution aussi

Le transport, c’est environ 30% des émissions de CO2 anthropiques. Néanmoins, la LOM vise à deux objectifs concomitants : réduire les émissions de CO2 en volume, d’une part, et lutter contre la pollution de proximité, qui a un impact direct sur les populations (notamment en ville), d’autre part. Il s’agit donc bien « en même temps de travailler sur moins de CO2 et moins de polluants de proximité, comme les oxydes d’azote (les NOx) », insiste le rapporteur.

On retrouve ainsi, dans les grandes orientations de la loi, différents aspects. D’abord, une approche favorable à une mobilité plus active, en appuyant sur le sujet de la bicyclette, avec des pistes cyclables (en donnant les moyens aux collectivités locales de statuer) ou encore des stationnements dans les gares.

Ensuite, la recherche d’une avancée dans le domaine du véhicule. « Il s’agit d’un enjeu important au niveau européen », avec une directive sur le cycle de vie des véhicules, il était en effet nécessaire de « s’y mettre », insiste J-L. Fugit. En outre, c’est un bon moyen de favoriser la recherche française, explique le rapporteur, puisque, par exemple, 60% des recherches sur l’hydrogène sont publiées en Europe par des chercheurs français. Côté véhicule, c’est donc favoriser les véhicules électriques, mais aussi ceux au biogaz et les carburants alternatifs, dans la mesure où ils trouvent une place et où ils n’empiètent pas sur les surfaces agricoles.

En outre, il s’agit de mettre fin à la vente des véhicules utilisant du diesel et de l’essence d’ici à 2040, avec une proposition de trajectoire ad hoc. Il fallait en effet donner de la visibilité aux constructeurs afin d’atteindre la massification, qui permet de faire baisser les prix, donc le coût à l’achat. Ce qui n’était pas possible dans le temps prévu par la loi de 2015. « Il faut que le texte soit socialement acceptable, économiquement soutenable et environnementalement durable » insiste le rapporteur.

Destinée à être « une loi pour les trois prochaines décennies », ajoute-il, la LOM prévoit en outre une évaluation par l’Office parlementaire des choix scientifiques et technologiques (OPECST) tous les cinq ans (donc en 2024 et ainsi de suite). Ce qui permet, indique J-L. Fugit, par exemple de se dire que l’on pourra prendre une décision dans 10 ans sur le choix de l’hydrogène ou du biogaz, ou autre.

En revanche, sur la question des polluants, il était nécessaire de mettre en place des obligations, en excluant les véhicules émetteurs de ces polluants. Un dispositif qui repose sur la prime à la conversion, mais aussi sur le maintien de la notion de vignette Crit’Air.

Techniques de l’Ingénieur partenaire de Blockchain Paris 2019 !

L’événement aura lieu les 13 & 14 novembre 2019 à la Cité Universitaire Internationale de Paris et réunira tout l’écosystème blockchain pour accélérer le développement d’applications business en entreprise !

Blockchain Paris réaffirme son positionnement de facilitateur d’adoption de la blockchain en entreprise, et développe une programmation pointue et ouverte pour permettre à l’ensemble des métiers et secteurs d’appréhender les différentes ruptures à venir et structurer le futur d’une économie numérique sous influence blockchain. Ce seront ainsi pas moins de 1 700 décideurs, 30 speakers et 30 marques leaders des chaînes de blocs en entreprise qui se retrouveront lors de cet événement pour échanger sur les possibilités réelles de la blockchain en abordant de façon très didactique et opérationnelle les différents chantiers de transformation à venir.

Blockchain Paris donne la parole aux acteurs de la blockchain d’aujourd’hui

Parce que les précurseurs d’aujourd’hui détiendront le pouvoir normatif et le potentiel économique de demain, l’écosystème blockchain français, avec pour chef de file le gouvernement et son Ministre de l’économie, cherche à pousser le développement d’applications concrètes et industrielles des chaînes de blocs sur la scène hexagonale.

Afin de donner les moyens aux décideurs de franchir le pas de la blockchain et donner corps à cette ambition nationale, Blockchain Paris donne la parole aux hommes et aux femmes qui font de la blockchain une réalité en France. Le programme sera constitué de conférences stratégiques orientées d’une part marché et prospective, et d’autre part retours d’expérience et cas d’usages.

Blockchain Paris, première place de marché des technologies blockchain en France

Premier salon français entièrement dédié à l’intégration des technologies blockchain en entreprise, l’exposition réunira les 30 exposants français et internationaux qui font et feront les chaînes de blocs de demain. A la fois laboratoire d’inspiration et hub de rencontres, les participants pourront y faire l’expérience des innovations et usages qui pourraient bientôt bouleverser leurs organisations au travers de 2 formats clés :

  • LES ATELIERS BLOCKCHAIN PARIS : des formats courts de 30 minutes, visant à faire découvrir durant 2 jours les solutions, technologies et usages qui bousculeront demain les stratégies blockchain des organisations.
  • L’EXPO BLOCKCHAIN PARIS : qu’ils soient experts des infrastructures et protocoles, éditeurs d’ERP, consultants ou encore spécialisés sur le développement d’applications sectorielles ou métiers, 30 marques expertes des chaînes de blocs se réuniront durant 48H pour répondre à l’ensemble des problématiques et besoins métiers des décideurs et construire ensemble le futur de vos stratégies blockchain.

Plus d’informations et inscriptions sur www.blockchainevent.fr ! 

Le secteur du recyclage en pleine mutation

La collecte des déchets en vue de leur recyclage a atteint 107 millions de tonnes fin 2018. C’est une hausse de 2 % par rapport à 2017, notamment grâce à une activité du bâtiment en croissance. Le nombre d’emplois continue sa progression pour atteindre 28 810 emplois, en hausse de 1,6 % par rapport à 2017. Ces évolutions positives ne parviennent cependant à entraîner une hausse du chiffre d’affaires. Il diminue de 0,8 % pour s’établir à 9,04 milliards euros fin 2018.

Des évolutions contrastées suivant les filières

« Nous avons traité plus de matières, mais nous les avons revendues moins cher, analyse Jean-Philippe Carpentier, président de Federec. Nous nous attendons malheureusement à une évolution similaire en 2019 ». A l’exception des papiers-cartons et des métaux non ferreux, la collecte augmente dans toutes les filières. Malgré cette hausse, les seules branches qui connaissent un accroissement de leur chiffre d’affaires sont les déchets du bâtiment, les déchets organiques et les solvants. Le secteur des papiers-cartons est particulièrement touché, avec une chute de chiffre d’affaires de 26 %. Le secteur des plastiques continue à souffrir de la fin des exportations asiatiques.

Le recyclage a tout de même permis d’éviter la consommation de 113 térawattheures d’électricité et l’émission de 21 millions de tonnes de CO2 en 2018. Cela représente l’équivalent de 100% des émissions annuelles du transport aérien et la consommation électrique de 16 réacteurs nucléaires.

Des investissements en hausse malgré des difficultés

Les entreprises du recyclage continuent d’investir pour entraîner la mutation du secteur. Après une hausse de 12% en 2017, l’investissement continue sa progression pour atteindre 568 millions d’euros. Soit une nouvelle hausse de 9%. Les investissements se concentrent en priorité sur les machines de tri (44%) et le matériel de collecte (27%). Le reste sert à moderniser les bâtiments (12%), à la numérisation (15%) et autres investissements liés à la production (2%).

Les entreprises du secteur ont de plus en plus de mal à valoriser les matières recyclées sur les marchés nationaux et internationaux. Ceci est particulièrement vrai pour la filière papiers-cartons et pour les plastiques de basse qualité. Certaines entreprises en difficulté sont rachetées, la concentration du secteur se poursuit, avec un univers du recyclage estimé à 2 000 établissements et 1000 entreprises en 2018. C’est 100 entreprises de moins et 50 établissements de moins dédiés au recyclage qu’en 2017.

De nouveaux défis en 2019 pour pérenniser les filières

Les choses ne s’arrangent pas en 2019. Seulement 50 % des entreprises interrogées par Federec pensent que l’année sera positive pour le secteur. Et seuls 15 % d’entre elles s’attendent à un accroissement du chiffre d’affaires pour l’année.

Les entreprises sont confrontées à un nouveau problème : l’enfouissement de leurs déchets ultimes. « Quand on fait du tri, quel que soit le matériau, on a des résidus que l’on peut qualifier d’ultimes : on ne peut plus les valoriser car ils sont trop petits, trop mélangés, trop imbriqués, explique Jean-Philippe Carpentier. On aimerait les valoriser énergétiquement par l’incinération ou par les combustibles solides de récupération (CSR), mais en absence de capacités disponibles, la profession se tourne vers l’enfouissement.»

Petit problème pour les recycleurs : la loi de transition énergétique pour la croissance verte prévoit une réduction de stockage des déchets inertes de 50% d’ici 2025. Dans certaines régions, les capacités disponibles sont saturées par les contrats de long-terme avec les collectivités locales.  « Certains acteurs ont dû arrêter leur activité car ils ne pouvaient plus éliminer les déchets ultimes, s’indigne Jean-Philippe Carpentier. Cette crise qui a commencé fin 2018 se retrouve pleinement en 2019 et s’accentue. »

Pour Federec, la voie à suivre pour ne pas « tuer le secteur du recyclage en France » est de favoriser l’utilisation des combustibles solides de récupération (CSR) en France. La technologie peine toujours à se développer. Malgré une capacité de production d’environ 900 000 tonnes, seulement 274 000 tonnes ont été consommées en 2018, en baisse de 6%.

Les batteries sodium-ion passent le cap de l’industrialisation

A l’heure où les prix Nobel récompensent les concepteurs des piles lithium-ion, la recherche poursuit ses efforts pour faire encore mieux. Notamment en s’affranchissant du lithium dont l’exploitation, le recyclage et la toxicité posent des problèmes éthiques et environnementaux.

Ainsi, les laboratoires du réseau sur le stockage électrochimique de l’énergie du CNRS et du CEA ont développé une nouvelle génération de batteries à charge ultra-rapide à base de sodium. Depuis les premiers prototypes industriels présentés fin 2015, la technologie a bien progressé. A présent, c’est Tiamat, une start-up amiénoise créée fin 2017, qui poursuit le développement, l’industrialisation et la commercialisation de ces batteries.

Concept et performances

Les cellules de batterie sodium-ion fonctionnent sur le même principe que les batteries lithium-ion :  au fur et à mesure des cycles de charge et de décharge, les ions sodium se déplacent d’une électrode à l’autre dans un milieu liquide. Ce qui change, ce sont les performances. Tiamat annonce ainsi une charge 10 fois plus rapide : 5 minutes au lieu de 4h et une durée de vie de l’ordre de 10 ans (4000 cycles d’utilisation).

Si ces batteries ne sont pas compétitives en termes de densité d’énergie électrique (quantité d’énergie stockage par kilogramme), elles sont idéales pour des applications nécessitant une forte puissance et une charge rapide comme les vélos, les scooters et les trottinettes électriques, pour les robots industriels et l’outillage ou encore pour le stockage de l’électricité sur les réseaux.

Les premières cellules fabriquées par Tiamat se présentaient sous le format industriel standard « 18650 », comme les batteries lithium-ion, c’est-à-dire un cylindre de 1,8 cm de diamètre sur 6,5 cm de haut. D’autres formats de cellules ont été testés depuis comme des piles boutons.

Par ailleurs, en plus de se passer du lithium, ces batteries permettent aussi de s’affranchir de l’utilisation du cobalt présent dans les batteries lithium-ion, dont l’exploitation et l’utilisation posent aussi des problèmes sociaux et environnementaux.

Financement, applications et industrialisation

Tiamat s’est allié à EasyLi pour intégrer ses batteries dans des trottinettes électriques. Les premiers véhicules équipés ont été présentés en mai 2018. Ce partenariat a permis de montrer les performances réelles de ces batteries sur une application concrète et de s’attaquer à des obstacles tels que l’intégration sur le plan électronique car les batteries sodium-ion ne se comportent pas de la même manière que les lithium-ion. D’autres équipements ont été testés comme des chariots élevateurs, des scooters et un système de stockage stationnaire de type powerwall.

Ces démonstrateurs ont aussi permis de réaliser, fin 2018, une levée de fonds de 3,6 millions d’euros, auprès de plusieurs investisseurs (Finovam Gestion, Picardie Investissement et CNRS Innovation, filiale du CNRS et de Bpifrance pour assurer le transfert vers l’industrie de technologies innovantes). Un soutien qui permet à l’entreprise de programmer le lancement de la production de petites séries pour 2020 avec une commercialisation prévue dans toute l’Europe.

Le public invité à détecter les cratères d’astéroïdes

« Vigie-cratère », déclinaison du programme « Vigie-ciel » sur les étoiles filantes et les météorites, lancé en 2016, doit permettre de détecter des cratères d’impact grâce à des reconstructions numériques du relief terrestre, explique dans un communiqué le CNRS, initiateur de la plateforme avec le Muséum d’histoire naturelle et l’Université Paris-Saclay.

Le monde a été découpé en 200.000 images topographiques couvrant chacune une parcelle de continent de 50 km par 50 km, explique le CNRS dans un communiqué.

A partir de ces images, tirées au hasard, la plateforme propose de chercher des structures circulaires et d’entourer les dépressions détectées.

« Sans l’aide du grand public, l’analyse des 200.000 images nécessiterait, pour une personne, pas moins de six années », explique Sylvain Bouley, du laboratoire Géosciences à l’Univsersité Paris-Sud.

Dans une deuxième interface, le public est invité à analyser les structures détectées (qui pourraient être confondues avec des cratères volcaniques, ou des carrières) par les autres utilisateurs, et à voter.

Les personnes vivant près d’un cratère identifié peuvent enfin se rendre sur place pour prendre des photos.

Les premiers cratères d’impact observés sur Terre, comme le Meteor Crater en Arizona, ont été découverts au début du XXe siècle. « Mais pendant longtemps, on n’a pas su ce qu’ils étaient », explique Sylvain Bouley à l’AFP. Il faudra attendre 1960 pour « lever le doute » sur leur nature, en démontrant que certains minéraux ne pouvaient se former « que lors d’un impact avec des corps extra-terrestres », ajoute-t-il.

« Chaque cratère marque des moments importants de l’histoire géologique. Une structure de quelques kilomètres peut expliquer par exemple la présence dans une région de certaines ressources minérales, comme les métaux rares », fait valoir le chercheur.

La plupart des cratères de plus de 6 km de diamètre auraient tous été découverts mais il resterait encore à en découvrir « plus de 90 de 1 à 6 kilomètres, et plus de 250 inférieurs à 1km », rappelle le CNRS.

Des réseaux neuronaux plus performants, vers une IA plus créative ?

Nos smartphones et les voitures autonomes vont-ils être encore plus « intelligents » ? Peut-être avec une nouvelle génération de réseaux neuronaux profonds (Deep neural networks -DNNs) développés par une équipe dirigée par Alexander Wong, titulaire d’une chaire de recherche du Canada dans le domaine de l’IA et professeur en génie de la conception de systèmes à l’Université de Waterloo.

Les réseaux neuronaux profonds deviennent de plus en plus performants. Mais ils ne peuvent pas encore être « intégrés » dans des appareils mobiles, des drones ou bien des véhicules.

« Le problème avec les réseaux neuronaux actuels, c’est qu’ils sont construits à la main et qu’ils sont incroyablement grands, complexes et difficiles à utiliser dans n’importe quelle situation réelle », explique Alexander Wong. Ironiquement, l’intelligence artificielle elle-même peut être utilisée pour aider les scientifiques et les développeurs de données à construire et à évaluer les Deep neural networks.

Reconnaissance vidéo

Dénommée Generative Synthesis, la technologie développée par Alexander Wong (qui a cofondé une start-up nommée DarwinAI pour la commercialiser) est capable justement de réduire la complexité de la conception de solutions d’apprentissage profond à haute performance. Elle facilite également l’apprentissage profond, ce qui permet à l’utilisateur de comprendre pourquoi un réseau prend telle ou telle décision.

Appelés AttoNets, les réseaux neuronaux de l’équipe de Alexander Wong ont en effet démontré l’efficacité de la conception collaborative homme-machine.  Les résultats expérimentaux pour la tâche de reconnaissance d’objets ont montré que les AttoNets nécessitent beaucoup moins de paramètres et de coûts de calcul que les autres types de réseaux.

Ils pourraient être utilisés pour la classification d’images et la segmentation d’objets. Mais ils peuvent également servir de blocs de construction pour la reconnaissance d’action vidéo, la production d’images et autres tâches de perception visuelle.

Petits et agiles, ses réseaux pourraient être exploités dans les secteurs de l’automobile, de l’aérospatial, de l’agriculture, des finances et de l’électronique grand public selon ce scientifique.

Cette technologie a été récemment validée par Intel. Audi Electronics Ventures a également montré qu’elle accélère considérablement la conception d’apprentissage profond pour la conduite autonome.

Le boom des ventes de véhicules électriques attendu pour 2020

Selon les données réunies par l’analyste berlinois Matthias Schmidt, cité dans Les Echos, il s’est vendu plus de 200 000 véhicules 100 % électriques en Europe de l’Ouest entre janvier et août 2019. Et plus de 310 000 en comptant les hybrides rechargeables. Cela représente 2,1 % du marché sur la période, et 85 % de plus que sur la même période de l’année précédente.

Le boom va s’amplifier. Jusqu’à un million de véhicules électriques et hybrides rechargeables seront vendus l’année prochaine en Europe, à en croire les prédictions d’une nouvelle étude de l’ONG Transport & Environnement. Intitulée « Mission impossible: comment les constructeurs automobiles peuvent atteindre leurs objectifs de CO2 pour 2021 et éviter les amendes », elle dévoile comment les constructeurs automobiles peuvent atteindre leurs objectifs climatiques européens.

Après des années d’efforts limités, les constructeurs parient sur les véhicules électriques et hybrides pour se conformer à la loi européenne sur les émissions de CO2 des voitures. Ainsi, les véhicules électriques pourraient représenter entre 3 et 7 % des ventes de véhicules neufs en 2020 et entre 5 et 12 % en 2021, en fonction des stratégies retenues par les constructeurs automobiles.

Les constructeurs sur le point de passer à l’électrique

L’investissement pionnier de Toyota dans le véhicule hybride non rechargeable et de l’alliance Renault-Nissan dans le véhicule électrique à batterie les place en tête des constructeurs les plus avancés pour se conformer aux objectifs européens. À l’opposé, plusieurs constructeurs ont beaucoup à faire pour combler leur retard, en particulier Honda, Ford, Hyundai-Kia,Volvo et Fiat-Chrysler.

« Nous allons voir des véhicules électriques de bonne qualité et abordables dans un an ou deux, et non pas dix, et c’est une excellente nouvelle pour les consommateurs qui économiseront beaucoup d’argent à la pompe » prévient Julia Poliscanova, directrice des véhicules propres chez Transport & Environnement.

Selon l’Agence de l’environnement (AEE), les émissions moyennes des voitures neuves s’élèvent à 120,4 gCO2 / km. C’est bien supérieur aux objectifs de 95 gCO2 / km d’ici fin 2020. C’est surtout 2,3 gCO2 / km de plus que le niveau minimum atteint en 2016. Cette hausse est majoritairement due à l’augmentation des ventes de SUV en Europe. Leur part dans les ventes de véhicules neufs est passée de 7% en 2009 à 36% en 2018 et pourrait atteindre 40% d’ici 2021.

Flamanville-3 : un rapport accablant ouvre la porte à un plan d’action

Lundi 28 octobre 2019, l’ex-PDG de PSA Peugeot Citroën Jean-Martin Folz a remis le rapport « La construction de l’EPR de Flamanville » aux ministres de l’Economie et de la Transition écologique. Les anti-nucléaires et les pro-nucléaires ne s’y sont pas trompés, le rapport Folz va bien au-delà du simple constat, même si l’exercice est particulièrement celui d’un équilibriste.

Réactions en chaîne

Ainsi, Greenpeace, que l’on ne présente plus, a réagi au quart de tour. « Depuis le départ, cet exercice de style vise à “sauver” la filière nucléaire en imposant la construction de six EPR en France malgré l’absurdité du projet, son coût astronomique, ses déchets nucléaires dangereux, des délais de construction trop longs et incompatibles avec l’urgence climatique et la transition écologique. Le plus effarant, c’est de voir que le lobby nucléaire étatique est prêt à tout pour y arriver, notamment à imposer ce choix en catimini et à détourner les investissements verts de l’Europe. Le seul “plan d’action” viable pour EDF et les contribuables serait d’investir massivement dans les énergies renouvelables et les économies d’énergie », indique Alix Mazounie, chargée de campagne sur les questions d’énergie pour Greenpeace France dans une réaction parue le jour même.

La SFEN (Société française d’énergie nucléaire), de son côté, rapporte ce mercredi que « si les retards et les difficultés successifs de l’EPR de Flamanville sont une déception, à commencer pour la filière nucléaire elle-même, la 3ème filière industrielle française, le rapport Folz rendu public lundi 28 octobre dernier a le mérite d’analyser et de synthétiser, pour la première fois, l’ensemble des aspects de ce projet sans exception, mais aussi de proposer des recommandations. »

Son de cloche similaire du côté de la Fédération des mines énergies (FNME-CGT), le syndicat majoritaire d’EDF. Dans un communiqué de presse daté du 30 octobre, la FNME-CGT rappelle avoir, depuis le début du projet, alerté sur une planification et des coûts irréalistes. Néanmoins, « Tirer sur l’ambulance EPR c’est facile, et permettrait ainsi de crucifier le modèle d’entreprise intégrée EDF avec le dernier pan du service public de l’électricité… Il omet pour partie les problématiques liées au changement de contexte étatique (passage d’EDF EPIC à EDF SA) et réglementaire (évolutions des codes et standards) ainsi que, depuis les années 1990, à la dégradation du tissu industriel (poids de l’industrie divisé par deux dans le PIB) et à la financiarisation du secteur de l’énergie », insiste le syndicat. Et d’estimer que ce qu’il faut désormais, c’est « un programme (y compris à long terme), un tissu industriel solide, et le gréement de compétence permettant à l’ingénierie d’être en situation réelle d’Architecte-ensemblier. »

Les points positifs

Comme le souligne la SFEN, « le rapport Folz constitue un jalon important dans le programme d’instruction, en cours, du projet de Programmation pluriannuelle de l’énergie (PPE) publié fin janvier 2019 et qui précisait : ‘’le gouvernement conduira avec la filière, d’ici 2021, un programme de travail permettant d’instruire, entre autres, l’option de construire de nouveaux réacteurs nucléaires’’. Pour ce faire, il paraissait nécessaire de faire le point des difficultés cumulées sur l’EPR Flamanville… mais aussi de faire un retour d’expérience sur la construction des deux réacteurs EPR qui fonctionnent aujourd’hui à pleine puissance en Chine. »

Or c’est exactement ce que fait le rapport. Après avoir « démonté » l’imbroglio historique qui a conduit à une vaste dérive des coûts et des délais dans le chantier de Flamanville-3 (pêle-mêle, de la « gouvernance inappropriée » au « manquement dans le management de projet », « organisation complexe des ressources d’ingénierie », « études insuffisamment avancées lors du lancement », « estimations irréalistes » au départ, etc.), l’ancien PDG de PSA tire la sonnette d’arrêt avant l’hallali.

Comparaison

Jean-Martin Folz signale d’abord, qu’« avant de conclure ce rapport sur les difficultés rencontrées à Flamanville, il n’est pas inutile de se pencher sur les meilleures performances du chantier de Taishan (Chine, ndlr). Les deux EPR qui sont aujourd’hui en fonctionnement industriel normal – le premier depuis près d’un an – ont été construits en 110 et 113 mois, soit un dépassement de 5 ans du délai initialement annoncé, pour un coût d’environ 95 milliards de RMB, soit 60 % de plus que le budget prévu ». Son rapport ajoute que d’abord, en commençant quatre ans après le chantier de l’EPR finlandais d’Olkiluoto et deux ans après celui de Flamanville, les EPR chinois ont bénéficié du retour d’expérience des débuts de chantier.

Ensuite construire des tranches jumelles sur le même site a été un atout, « confirmant les acquis de l’expérience d’EDF », car la majorité des tranches françaises construites jusqu’alors sont jumelles, et c’est d’ailleurs cela qui a facilité leur installation en un temps record.

Enfin, J-M Folz souligne que la direction de projet a été présente dès le début et n’a pas changé… Ce qui constitue un facteur de réussite que l’ex-PDG de PSA estime hautement important. Sans oublier que le programme nucléaire chinois bat son plein avec plusieurs tranches en chantier en même temps.

Conclusion

Au final, le rapport conclut que les mesures correctives décidées par EDF en 2015, notamment « la mise en place d’une équipe de projet puissante, disposant de moyens propres importants et d’effectifs pérennes, clairement indépendante des entités d’études et d’ingénierie auxquelles elle fait appel à son initiative… » mais aussi le rachat de Framatome par EDF et la création commune Edvance ont permis de « rationaliser et de simplifier l’organisation des ressources scientifiques et techniques dans les projets nucléaires ». En outre, une profonde remise à niveau des capacités industrielles et des ressources humaines a été engagée chez Framatome, et « elle doit être menée activement à son terme. »

Reste qu’il faut porter « une attention particulière » aux métiers de soudage, avec des efforts de formation initiale et d’entretien des compétences. Le rapport juge qu’en la matière, « EDF a manifestement un rôle à jouer. »

La dernière phrase de conclusion est ainsi rédigée : « Il s’agit concrètement d’afficher des programmes stables à long terme de construction de nouveaux réacteurs en France et d’entretien du parc existant qui donnent aux entreprises concernées la visibilité et la confiance nécessaires pour qu’elles engagent les efforts d’investissement et de recrutement indispensables. »

Et Bruno Le Maire n’a plus eu qu’à indiquer que le PDG d’EDF avait un mois pour apporter les réponses bien tracées par le rapport Folz.

Dernier petit obstacle à lever, le timing pour la présentation d’un nouveau programme de construction (le ministre de l’Economie l’a déjà demandé à Jean-Bernard Lévy en septembre pour une remise avant 2021) et surtout qu’un gouvernement donne son feu vert à un nouveau programme nucléaire ; pour l’heure, la ministre de la Transition écologique Elisabeth Borne ne veut pas entendre parler de décision politique sur de nouvelles constructions avant le démarrage de Flamanville-3.

Ce qui, avec le calendrier remanié d’EDF, en début octobre, amène jusqu’en 2023… (à noter, après les élections présidentielles). Là, à l’aune des errements contenus dans le rapport Folz, la SFEN dit : c’est un peu tard, avec le risque de voir se reproduire un « gap » dans les compétences avant le début de la construction d’une nouvelle tranche…

Mais le calendrier politique est largement disjoint du calendrier industriel… A suivre donc.

Des filaments d’impression 3D multimatériaux avec électronique embarquée

La technologie d’impression 3D par dépôt de filament (FDM) a beau donner des résultats moins précis que des procédés comme la stéréolithographie (SLA), son coût extrêmement faible et la très grande variété de matériaux utilisables contribuent à sa popularité. Pour l’équipe du MIT, cette technique a un autre avantage : elle utilise une matière première sous forme de filaments, une morphologie qui se prête bien à l’intégration de fibres.

Un filament contenant des métaux, des semi-conducteurs et des polymères

Les fibres multimatériaux qui entrent dans la composition de ces nouveaux types de filaments sont en réalité développées depuis une vingtaine d’années par l’équipe du professeur Yoel Fink. Elles contiennent des dizaines de matériaux différents – métaux, semi-conducteurs et polymères –, chacun ayant une fonction qui leur est propre.

Pour prouver le fonctionnement de cette technologie, les chercheurs ont ainsi réalisé un démonstrateur unique en son genre. Il s’agit d’une maquette d’aile d’avion imprimée avec un filament intégrant des composants électroniques capables d’émettre de la lumière et d’en détecter. Ce matériau, une fois alimenté en énergie, peut par exemple être employé dans le but de révéler la formation de microfissures.

Une imprimante modifiée pour préserver l’électronique

L’impression FDM classique utilise une buse chauffée pour conduire à la fusion complète du thermoplastique à extruder, ce qui n’est pas souhaitable dans le cas de l’impression multimatériaux. Par conséquent, afin de préserver la structure interne de ce nouveau filament, les chercheurs du MIT ont dû concevoir une buse d’extrusion sur mesure. Ainsi, cette nouvelle buse produit une chaleur plus faible et mieux contrôlée, de manière à ne fondre que l’extrême surface du filament. Ceci a également l’avantage d’accélérer fortement le processus d’impression puisque cette méthode permet d’imprimer trois fois plus vite qu’avec les autres procédés FDM.

De nombreuses applications biomédicales

Une telle technologie aurait des applications prometteuses en bioélectronique et tout particulièrement dans la conception d’implants biomédicaux. Si l’impression 3D est déjà utilisée dans le monde de la recherche pour la fabrication de supports favorables à la régénération cellulaire, ce nouveau procédé permettrait d’aller plus loin avec l’ajout de capteurs intégrés. Il deviendrait ainsi possible de suivre la croissance des cellules au cœur de l’implant.

Source

L’AIE met en garde contre le ralentissement de l’amélioration de l’efficacité énergétique

En effet, l’intensité énergétique primaire mondiale – un indicateur important de la consommation énergétique de l’activité économique mondiale, qui est le rapport entre l’énergie consommée et le PIB – n’a augmenté que de 1,2% en 2018, soit le taux le plus faible depuis le début de la décennie, selon le rapport annuel de l’AIE sur l’efficacité énergétique.

Ainsi, ajoute l’agence internationale, le taux d’amélioration de l’efficacité énergétique (l’intensité énergétique primaire) a désormais diminué pendant trois années consécutives, ce qui le place bien en dessous du minimum de 3% qui, selon l’AIE, est essentiel pour atteindre les objectifs mondiaux en matière de climat et d’énergie.

« Le ralentissement historique de l’efficacité énergétique en 2018 – le taux d’amélioration le plus faible depuis le début de la décennie – appelle les décideurs et les investisseurs à prendre des mesures audacieuses », a déclaré Fatih Birol, directeur exécutif de l’AIE à cette occasion. « Nous pouvons améliorer l’efficacité énergétique de 3% par an simplement en utilisant les technologies existantes et des investissements rentables. Il n’y a aucune excuse à l’inaction : des politiques ambitieuses doivent être mises en place pour stimuler les investissements et mettre les technologies nécessaires au travail à l’échelle mondiale », ajoute-t-il, mettant en garde contre une rechute de l’amélioration constatée jusqu’en 2015.

 Si cet indicateur avait atteint 3% au cours de cette période, le monde aurait pu générer une production économique supplémentaire de 2 600 milliards de dollars, soit quasiment autant que l’ensemble de l’économie française, pour la même quantité d’énergie, insiste le rapport.

Quelles causes ?

L’AIE souligne que trois grandes causes convergent pour ralentir l’amélioration de l’efficacité énergétique.

D’abord, l’industrie et la météo. Ainsi, l’AIE constate que dans les pays comme la Chine et les Etats-Unis, les industries énergo-intensives (comme l’acier par exemple) ont enregistré une hausse de leur production conduisant à une progression du recours aux énergies primaires. Aux Etats-Unis, la météo a renforcé cette montée de la demande, à l’aune d’un hiver froid et d’un été sec, poussant à la hausse de la consommation d’énergie pour la chaleur et pour la climatisation. A l’inverse, en Europe, un hiver clément a réduit la demande en gaz, et participe aux bons résultats européens en matière d’amélioration de l’efficacité énergétique. La hausse de la demande en électricité a également contribué à l’augmentation de la production… dont la majeure partie de cette hausse est encore attribuable à des centrales à base de combustibles fossiles, insiste l’AIE, dégradant l’efficacité énergétique mondiale.

Ensuite, des mouvements structurels sont en cause, indique l’Agence. Ainsi, dans les transports, malgré une amélioration de leur efficacité sur un plan énergétique, la demande en énergie continue de grimper, notamment à cause de « grosses » voitures. Et dans le bâtiment, l’AIE souligne que les gains en efficacité énergétique sont depuis 2014 toujours compensés par de nouveaux usages, ou par un agrandissement des surfaces occupées.

Enfin, l’AIE signale que l’implication politique (les choix politiques) et l’investissement sont en encéphalogramme plutôt plat depuis des années. Ainsi, le nombre de sujets couverts par des politiques réglementaires (donc avec des obligations en matière de consommation finale d’énergie) a progressé de 0,5% en 2018, soit un peu plus que sur les deux années précédentes, mais la « couverture et la force des obligations des programmes en matière d’efficacité énergétique demeurent largement inchangées ». En outre, côté investissements, les niveaux sont à peu près identiques depuis 2014, autour de 240 milliards de dollars annuellement, « loin des niveaux requis pour capturer l’ensemble des possibilités ».

Des points positifs

Malgré cet avertissement global, l’AIE précise que l’efficacité énergétique continue d’avoir des bénéfices, à la fois en termes de sécurité d’approvisionnement pour les pays importateurs de pétrole (c’est l’ADN de l’AIE, faut-il le rappeler…), mais aussi en matière de réduction des émissions carbonées. Ainsi, en 2018, les efforts en matière d’efficacité énergétique ont permis de réduire des importations de pétrole pour les plus grandes économies mondiales de quelque 165 millions de tonnes équivalent pétrole, soit autant que la demande primaire en pétrole pour l’Allemagne, l’Australie et la Belgique réunies. En outre, le Japon a dépensé en 2018 20 md$ de moins de pétrole grâce à une amélioration de 20% de son efficacité énergétique en termes de pétrole depuis 2000. De même, en Chine, les efforts ont permis un recul de 10% de la demande en pétrole.

En matière de réduction des émissions de CO2, l’amélioration de l’efficacité des technologies (technical efficiency, selon le terme de l’AIE) a par exemple permis d’éviter quelque 3,5 gigatonnes de CO2 entre 2015 et 2018, soit environ les rejets japonais sur la période. Ce qui permet de se rapprocher des objectifs mondiaux en matière de climat.

Enfin, l’AIE consacre un long chapitre aux technologies numérique, dont l’Agence attend beaucoup en termes d’amélioration de l’efficacité énergétique. Le rapport estime en effet que « les technologies numériques pourraient profiter à tous les secteurs et à toutes les utilisations finales, mais l’incertitude quant à l’ampleur des avantages demeure ». Ainsi, la numérisation « pourrait réduire la demande mondiale du secteur des bâtiments jusqu’à 10% entre 2017 et 2040. La numérisation pourrait également décupler la capacité de maîtrise de la demande en libérant de nouvelles sources flexibles (par exemple des batteries, ndlr) dans les secteurs du bâtiment et des transports ». L’AIE cite, à ce propos, un besoin d’accorder un prix à ces nouveaux services fondés sur les technologies numériques, comme par exemple l’utilisation des batteries de véhicules électriques.

 Mais l’Agence conclut : « Cependant, l’ampleur exacte de ces impacts est incertaine et dépend des mesures prises par les pouvoirs publics, qui doivent également prendre en compte le risque d’augmentation de la demande en énergie résultant de la croissance des appareils numériques. »

Les Français encore frileux sur le photovoltaïque

Les Français font attention à leur portefeuille et le font savoir. Dans un nouveau sondage OpinionWay pour In Sun We Trust, 72% des Français estiment que l’électricité coûte déjà trop cher. Et ils ne s’attendent pas à une inversion de la tendance. En effet, 90% d’entre eux pensent que le prix de l’électricité va continuer à augmenter.

Des solutions pour diminuer la facture d’électricité

Dans ces conditions, la majorité des Français cherchent une ou plusieurs solutions pour diminuer la hausse de leur facture. Ils sont 55% à croire que l’action la plus efficace pour ce faire est de réduire leur consommation en chauffant moins, en éteignant la lumière ou en adoptant d’autres écogestes. 47% d’entre eux estiment qu’il est plus efficace de mieux isoler son logement.

Il y a d’autres pistes moins répandues dans l’opinion publique. 23% des sondés estiment que recourir à de nouvelles sources d’énergies permettra de réduire la facture. Ils sont 15% à considérer que l’action la plus efficace est de changer de fournisseur. Seulement 13% se résignent et pensent qu’aucune action ne sera efficace.

Le solaire photovoltaïque passé au crible

Parmi les énergies renouvelables, le solaire photovoltaïque apparaît comme la piste la plus prometteuse pour 31% des Français. Devant l’énergie géothermique (20%), l’énergie des mers (14%), l’énergie éolienne (14%), la biomasse (10%) et l’hydraulique (8%).

De nombreux préjugés sur cette forme d’énergie restent toutefois ancrés dans l’esprit des Français. 80% d’entre eux estiment que les panneaux photovoltaïques ne fonctionnent que dans les régions ensoleillées comme le Sud de la France. Entre 5 et 6 Français sur 10 pensent qu’ils ne sont pas recyclables, qu’ils renferment tous des terres rares et que leur durée de vie ne dépasse pas dix ans.

En réalité, ils fonctionnent dans toutes les régions, avec des performances acceptables s’ils sont bien orientés. Ils sont recyclables à près de 95% et seule la technologie photovoltaïque dite de CIGS utilise deux terres rares : l’indium et le gallium. Enfin, la plupart des fabricants garantissent qu’un panneau solaire présente encore 80% de sa puissance initiale au bout de 25 ans.

Lever les freins à l’équipement

Le premier frein à l’équipement demeure le coût d’une installation. « Qu’est-ce qui pourrait vous motiver à investir dans des panneaux photovoltaïques ? » A cette question, un Français sur deux répond une baisse importante du prix d’installation et davantage d’aides d’Etat. David Callegari, directeur général d’In Sun We Trust, leur répond : « contrairement à l’opinion exprimée dans ce sondage, il existe bel et bien des aides importantes pour le photovoltaïque chez les particuliers (environ 3 000 € au total, sur un investissement de 8 000 €). Elles sont néanmoins trop complexes, trop éparpillées, et donc largement inconnues du grand public. »

Ce sondage OpinionWay pour In Sun We Trust a été réalisé via un questionnaire en ligne selon la norme ISO 20252 les 9 et 10 octobre 2019 auprès d’un échantillon de 1027 personnes représentatif de la population française âgée de 18 ans et plus. L’échantillon a été constitué selon la méthode des quotas, au regard des critères de sexe, d’âge, de catégorie socioprofessionnelle, de catégorie d’agglomération et de région de résidence.

Des messages invisibles dans un papier réinscriptible

James Bond en a rêvé, les Chinois l’ont fait. « La sécurité de l’information est un sujet qui préoccupe beaucoup de personnes, surtout dans les domaines économique et militaire. Par conséquent, le but principal de notre travail est de fournir une solution sûre et pratique », explique Qiang Zhao, de l’Institut des matériaux avancés (Laboratory for Organic Electronics and Information Displays & Jiangsu Key Laboratory for Biosensor).

Il existe en effet une demande croissante pour la sécurité des documents papier, car il reste encore le support le plus répandu pour le stockage de l’information.

L’une des approches les plus populaires pour l’enregistrement des données de sécurité sur papier consiste à utiliser des encres de sécurité fluorescentes dont les informations ou motifs imprimés ne sont visibles que sous la lumière UV. Mais la plupart des encres de sécurité fluorescentes largement utilisées ont une faible complexité et une grande prévisibilité de sorte que les informations enregistrées peuvent être facilement « déchiffrées ».

Développé par Qiang Zhao, Yun Ma, Wei Huang et ses collègues, ce procédé ingénieux a été présenté en septembre dernier dans la revue Matter. Leur méthode d’impression sécurisée et réinscriptible s’appuie sur les réactions photoluminescentes (phénomène d’émission de lumière suite à la réaction d’un matériau photoluminescent sujet à une « excitation » par exposition à un rayonnement optique ultraviolet, visible ou infra rouge) du manganèse dans l’eau. Les complexes ioniques luminescents de Mn (II) sont des « candidats idéaux pour une application en impression de sécurité », selon les scientifiques chinois.

Ils ont enduit un film polymère contenant les complexes ioniques de Mn (II) sur du papier filtre où les informations confidentielles peuvent être imprimées à plusieurs reprises en utilisant de l’eau pure comme encre, ce qui peut détruire la coordination ionique des complexes.

Mais on peut le lire sous une lumière UV de courte longueur d’onde (254 nm). Mieux, le papier peut être réutilisé (pour au moins 30 cycles selon ses inventeurs) après avoir effacé le message en le chauffant avec un sèche-cheveux pendant 15 à 30 secondes !

Cette solution présente plusieurs avantages. Premièrement, son faible coût. Les Chinois l’estiment à 0,002 dollar. Mais surtout, « la plupart des encres de sécurité fluorescentes sur le marché – utilisées pour enregistrer des informations confidentielles – ne sont pas respectueuses de l’environnement et ne peuvent pas être effacées », précise cette équipe.

D’autres pistes sont envisagées, car la lumière UV de courte longueur d’onde est potentiellement nocive pour l’homme. Les chercheurs chinois travaillent à trouver une solution capable de réagir à la lumière visible ou proche de l’infrarouge.

Par ailleurs, Zhao et ses collègues ont également développé une impression de sécurité de haut niveau. Les chercheurs enduisent le papier de ligands à phosphine. Il s’agit de molécules qui peuvent s’accrocher au manganèse dans l’encre en solution saline d’halogénure de manganèse pour créer le complexe manganèse.

Les informations enregistrées sont invisibles à la fois sous la lumière ambiante et sous la lumière UV. Les données ne seront révélées que lorsqu’elles seront analysées par une technique d’imagerie à durée de vie par photoluminescence (Phosphorescence Lifetime Imaging-PLIM), ce qui les protégera des méthodes classiques de décryptage.

Expédition 7e continent en quête de nanoplastiques en Méditerranée

L’expédition 7e continent a navigué en mer Méditerranée sur son voilier à la recherche de micro et nanoplastiques entre le 20 septembre et le 15 octobre 2019. À bord, quatre marins et quatre scientifiques pour échantillonner cette pollution à peine visible, et invisible. Alexandra Ter Halle, directrice scientifique de l’association et chercheuse au CNRS rappelle que l’on parle de microplastiques grands comme « des miettes de pain » et que « les nanoplastiques sont 1 million de fois plus petits que les microplastiques ».

Avec une équipe pluridisciplinaire, composée de chimistes, biologistes, océanographes, spécialistes de l’atmosphère et de la mécanique des fluides, la mission a pour but d’étudier la répartition des micro et nanoplastiques dans la mer et évaluer leur présence dans l’air. Elle permet de travailler à la fois sur la biologie, la physique et la chimie de la pollution plastique.

Des plastiques qui changent de structure

Alexandra Ter Halle pense que les nanoplastiques changent de structure et de comportement en se dégradant. « Il faut comprendre les nouvelles structures et étudier la façon dont elles interviennent avec le milieu naturel », prévient-elle.

En parallèle, Jean-François Ghiglione, chercheur au laboratoire d’Océanographie Microbienne de Banyuls-sur-Mer, étudie la vie sur ces micro et nanoplastiques. Dès qu’un plastique arrive en mer, une vie variée y installe domicile. « Nous identifions les espèces en analysant leur ADN et cherchons à comprendre pourquoi elles se développent dessus et ce qu’elles y font », explique le chercheur.

Des nanoplastiques partout ?

Yann Ourmières est océanographe à l’Institut Méditerranéen d’Océanologie (MIO). Il rappelle que les particules nanométriques sont transportées par des courants sur des centaines, voire des milliers de kilomètres. « Pour connaître les zones d’accumulation, il faut s’intéresser aux courants », résume-t-il. C’est la raison pour laquelle, les prélèvements se sont déroulés dans des zones différentes, avec des masses d’eau présentes depuis plus ou moins longtemps en mer Méditerranée. « Nous avons prélevé des échantillons dans des zones froides, chaudes, plus ou moins anciennes, afin de trouver des zones de concentration en nanoplastiques ».

Afin d’avoir le plus d’informations possibles, l’équipe a déployé une CTD-Rosette entre la surface et 150 mètres de profondeur. Ce préleveur d’eau multi-instrumenté permet de mesurer les caractéristiques de l’eau (salinité, profondeur et température) et de prélever des échantillons d’eau pour analyser les nanoplastiques. Grâce à ces différentes informations, l’équipe modélisera la distribution verticale des plastiques dans la colonne d’eau pour mieux comprendre les paramètres qui contrôlent cette dynamique.

Des nanoplastiques dans les nuages ?

Enfin, la mission a échantillonné la phase atmosphérique. « Nous avons dû développer un prototype sans matériaux plastiques, car tous les instruments existants sont en plastique, explique Boris Eyheraguibel, chercheur à l’Institut de Chimie de Clermont-Ferrand. Une pompe aspire l’air à débit important et le fait passer à travers une cuve remplie d’eau qui va piéger les particules ».

Boris Eyheraguibel poursuit : « l’objectif est de collecter l’air au-dessus de la colonne d’eau pour travailler sur les transferts des microplastiques de l’eau dans l’air ». Et Jean-François Ghiglione complète : « il est important de savoir si des bactéries s’attachent aux plastiques qui vont dans l’air pour mieux comprendre ce que nous respirons ». Les premiers résultats de cette mission sont attendus pour 2020.