La densification urbaine peut être perçue comme une opportunité environnementale dans le sens où elle permet de lutter contre l’étalement urbain (les zones urbaines représentent actuellement seulement 3 % des terres émergées de la planète), d’éviter l’artificialisation des terres, identifiée comme une sévère menace écologique, et de limiter les déplacements des citoyens qui travaillent et logent en ville. Mais l’augmentation démographique dans les villes engendre aussi des pressions sur l’environnement et la santé publique, contribue à accroître la pauvreté et l’exclusion sociale et participe à une vulnérabilité croissante des villes, avec en particulier des conflits pour l’usage des sols. De plus, des pollutions sont fréquemment observées en zones (péri)urbaines avec de possibles impacts sanitaires. Les controverses sociales et environnementales, notamment autour de l’utilisation des produits phytosanitaires ou engrais minéraux, sont récurrentes.
Il devient donc crucial de développer des villes plus accueillantes (avec suffisamment de logements, services…), esthétiques et nourricières (paysages nourriciers), des villes à l’atmosphère respirable et résilientes pour faire face à la forte pression anthropique et au changement climatique.
Une des conditions essentielles pour promouvoir la durabilité des villes est l’organisation circulaire et synergique entre les flux de matières et les énergies. Ceci implique au préalable de réduire les flux et d’éco-concevoir les matériaux et produits pour éviter la dispersion de polluants (éco)toxiques. La figure ci-dessous représente par des doubles flèches la circulation et les interactions entre les divers secteurs.
La circularité du métabolisme urbain pour promouvoir la durabilité des villes
Parmi les solutions développées pour accroître l’efficience et la circularité du métabolisme urbain, réduire l’empreinte écologique des villes, favoriser le bien-être et la santé des populations, les projets d’agricultures urbaines (AU) apparaissent particulièrement pertinents. Jardins collectifs et familiaux, gestion des territoires ou sciences participatives, plus de 800 millions de personnes dans le monde s’impliquent actuellement dans des projets d’agriculture urbaine. L’AU apporte des solutions concrètes aux défis des villes durables en rendant des services complémentaires tels que la production locale de denrées alimentaires, la valorisation des déchets, le renforcement des liens sociaux ou l’éducation à l’environnement.
Extrait de Rôles de l’agriculture urbaine dans les transitions écologiques de Camille Dumat.
Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 13 février !
«Acheter le moins d’objets neufs pendant un an», hors alimentaire, hygiène et cosmétique, voici l’objectif du défi «Rien de Neuf». Alors que près de 35 000 participants sont aujourd’hui inscrits sur la plateforme riendeneuf.org, Zero Waste France dresse un premier bilan des freins et leviers à la baisse des achats d’objets neufs. En fin de compte, 66% des participants estiment qu’il est simple d’essayer d’acheter le moins d’objets neufs possible. Dans 80% des cas, ils l’achètent tout simplement d’occasion. Dans 19% des cas, ils renoncent à l’achat et trouvent une solution alternative. Ils privilégient alors le don de la part de proches, dans des boîtes à dons et sur les plateformes en ligne. Ils testent la réparation des produits électroménagers et des vêtements, l’emprunt des outils de jardinage et de bricolage à leurs voisins ou leurs proches et la fabrication maison. Ils empruntent les objets culturels en bibliothèques et ludothèques, privilégient la location pour les moyens de transport et d’autres objets.
Apprendre pour réduire son empreinte écologique
Tout au long du défi, un espace personnel permet, grâce à une étude de l’Ademe, de mesurer les quantités de ressources économisées en évitant d’acheter du neuf. On y apprend par exemple qu’un smartphone nécessite 183 kg de matières premières et a une empreinte carbone de 27 kg équivalent CO2. «Les participants achètent moins d’objets inutiles, en jettent beaucoup moins, sont plus soigneux», se félicite Zero Waste France. Le défi «Rien de neuf» est poussé par la participation des femmes. Elles ont principalement entre 25 et 40 ans, vivent en couple (45%), en famille (32%) ou seules (23%), dans des agglomérations de plus de 100 000 habitants.
Les deux motivations principales restent la réduction de son impact environnemental et le besoin d’un cadre de façon à aligner son comportement de consommation avec sa sensibilité environnementale. En plus, participer au défi permet de faire des économies, de donner du sens à sa consommation et de créer du lien social. Le défi offre en effet l’entraide et le partage d’informations nécessaires pour changer de comportement : plus de 350 interactions par jour ont été recensées et analysées. «Cet espace leur permet de trouver la compréhension et l’écoute qu’ils et elles ne trouvent pas toujours dans leur entourage», assure Marine Foulon, coordinatrice du défi.
Des freins psychologiques au changement
La société tourne autour de la consommation. En conséquence, se passer de neuf comporte de nombreux freins à surmonter, qu’ils soient techniques ou psychologiques. «Les alternatives au neuf demandent de l’organisation, du temps et de l’anticipation», prévient Zero Waste France. Les difficultés à acheter d’occasion portent notamment sur le manque de disponibilité des produits et de structures proches. Les freins psychologiques à l’achat d’occasion sont nombreux : peur de l’arnaque, méfiance vis-à-vis de la propreté ou de la sécurité pour certaines typologies de produits comme les sièges auto, les textiles ou les casques. Vis-à-vis de la réparation, les freins portent sur le manque de confiance en soi ou envers les professionnels et le manque d’outils spécifiques à disposition pour réparer soi-même. La peur d’être redevable ou de déranger peut empêcher de demander de l’aide et de préférer la location lorsqu’elle n’est pas trop chère.
Lorsque l’on considère les barrières psychologiques, la plus grande contrainte reste le regard des autres, notamment de son entourage proche. «Offrir un cadeau d’occasion et refuser un cadeau neuf ou exiger un cadeau immatériel ou d’occasion restent une des difficultés majeures du Défi, relève Zero Waste France. Certaines personnes préfèrent ainsi garder leur engagement pour elles face au peu de personnes concernées par les problématiques environnementales dans leur entourage.»
L’enquête relève l’importance de promouvoir et développer les alternatives au neuf partout en France. A l’instar des Repair Cafés (ateliers de réparation d’objets) ou des ludothèques, ces alternatives peuvent également être des espaces dans lesquels partager des objets et des idées. Enfin, Zero Waste France souligne la nécessité d’aider les citoyens à se réapproprier des savoirs et compétences comme la réparation d’objets et vêtements. En 2020, le défi «Rien de neuf» continue et accueille de nouveaux participants.
RTE rappelle que, comme l’a montré son récent schéma décennal de développement du réseau, le système électrique peut absorber le développement des énergies renouvelables prévu par la Programmation Pluriannuelle de l’Energie (PPE, pour la période allant jusqu’en 2028) qui vient de s’ouvrir à la consultation publique. Pour le gestionnaire du réseau de transport, «le dimensionnement actuel du réseau électrique associé au déploiement des automates et du numérique permettra d’intégrer les nouveaux moyens de production au réseau électrique, à cette échéance.»
Néanmoins, RTE signale qu’au-delà de l’échéance de la PPE, il y a nécessité d’un recours accru à des flexibilités. Ainsi, «le recours accru au pilotage de la consommation, la mobilisation des différentes formes de stockage (diffuses ou de grand volume) et l’hydrogène, en fonction des scénarios d’évolution du mix énergétique» auront un rôle majeur à jouer.
Depuis 2017, RTE travaille ainsi sur une expérimentation de «ligne virtuelle», en recourant à un stockage d’électricité sur son réseau. Cette expérimentation, dénommée «Ringo» sur trois sites en France, devrait permettre de «tester le stockage des surplus ponctuels et locaux de production des énergies renouvelables (éolienne et solaire) ne pouvant pas être transportés par le réseau, et leur déstockage ailleurs, simultanément». Ce fonctionnement permet d’assurer une neutralité vis-à-vis du marché, RTE étant un acteur «neutre» sur le marché de l’électricité, ne pouvant tirer de bénéfices autres que pour l’équilibrage du système, d’un stockage, assimilé au regard de la législation européenne comme un «outil de production».
Ringo permet de gérer les surplus locaux de production EnR Source : RTE
Ce système de stockage permet d’un côté de stocker le courant provenant d’énergie renouvelable «non utilisée» (en surplus), à un point du réseau pour pouvoir, simultanément, injecter du courant à un autre endroit sur le réseau afin de garantir l’alimentation.
Ainsi, il évitera les pertes de production d’électricité d’origine renouvelable et reportera la construction (ou le renforcement) de certaines lignes électriques, dans le respect du schéma décennal de développement du réseau de RTE.
RTE vient de choisir trois sites et trois consortiums différents pour lancer cette expérimentation : Vingeanne (en Côte d’Or) sera équipé par Nidec Asi, Bellac (en Haute-Vienne) par Saft/Schneider et Ventavon (dans les Hautes-Alpes) par Blue Solutions/Engie Solutions/SCLE INEO.
A Vingeanne, sera installée une batterie de 12 MW, pour une capacité de stockage installée de 37 MWh. Les travaux devraient commencer en février, pour une mise en service industrielle à partir de mars 2021. A Bellac, ce sont 30,8 MWh de capacité de stockage (10 MW) qui seront installés entre janvier 2020 et octobre 2021. Enfin, à Ventavon, 30,2 MWh de capacité de stockage seront implantés (10 MW), à partir de mars 2020 pour une mise en service en mars 2022. L’expérimentation durera trois ans, jusqu’en 2024/2025.
RTE a également publié le même jour une étude sur «la transition vers un hydrogène bas carbone», afin d’alimenter le débat public sur le déploiement de l’hydrogène bas carbone. Un document qui confirme l’intérêt du développement de l’hydrogène bas carbone pour réduire les émissions de gaz à effet de serre de l’économie française, notamment dans le secteur de l’industrie et celui des transports.
Le Fonds monétaire international estime que le PIB mondial s’élevait à près de 85 000 milliards de dollars en 2018. Les évaluations économiques varient mais s’accordent à dire que la lutte contre le réchauffement climatique demande des investissements équivalent à plusieurs points de PIB chaque année dans la finance verte. La finance verte comprend l’ensemble des activités financières en lien avec la transition écologique et énergétique. La finance internationale choisit d’ailleurs son slogan : «shifting the trilions», «faire basculer les milliers de milliards de dollars» vers la finance verte.
Des milliers de milliards de dollars ?
Il faudrait sortir de la vision classique qui réduit le discours à un montant d’investissement nécessaire face au réchauffement climatique. «Ce qu’on oublie souvent lorsque l’on parle de ces masses globales, c’est qu’il ne faut pas uniquement des milliers de milliards d’euros dans l’économie verte, mais aussi que les milliers de milliards d’euros qui financent actuellement l’économie non verte soient réduits à la plus faible portion», prévient Maxime Combes, économiste et porte-parole d’Attac.
L’économiste préfère d’ailleurs focaliser son attention sur un autre indicateur. «Le bon indicateur pour comprendre le verdissement du système monétaire est de regarder le marché obligataire mondial, l’ensemble de la dette émise par les Etats et les très grandes entreprises pour financer leurs activités opérationnelles au quotidien, note Maxime Combes. Le stock des obligations en circulation s’élève à environ 100 000 milliards de dollars». Face à ce marché obligataire mondial, un marché de l’obligation verte se développe. «Le stock émis reste encore inférieur à 1 000 milliards de dollars, soit 1% du marché», complète-t-il.
Un manque de contrôle de la finance verte
«La finance verte est encore minuscule et pas assez régulée et organisée pour s’assurer que ce qui est financé est réellement vert», prévient en plus Maxime Combes. Dans un rapport paru en 2017, Attac dénonçait déjà le manque de contrôle des projets financés. Il prenait alors pour exemples les financements du nouvel aéroport de Mexico par le Mexique, celui d’un méga-barrage par Engie et le financement par la compagnie pétrolière Repsol de l’efficacité énergétique de ses raffineries et usines chimiques en Espagne et au Portugal.
Depuis, l’Union européenne a travaillé sur la question. La Commission se veut motrice et vient de mettre sur pied une «taxonomie de la finance verte» dans le cadre de son nouveau Pacte Vert. Elle dresse ainsi un inventaire de toutes les activités qui peuvent entrer dans le cadre de la finance verte. Pour être considérée comme durable, une activité doit contribuer significativement à au moins l’un de ces 6 critères, sans causer de préjudice significatif aux autres : l’atténuation du changement climatique, l’adaptation au changement climatique, l’utilisation durable et la protection des ressources hydrologiques et marines, la transition vers une économie circulaire et la prévention et le recyclage des déchets, la prévention et le contrôle de la pollution, et la protection des écosystèmes sains. Le compromis obtenu en décembre n’exclut pas le gaz et le nucléaire des activités vertes. Si elles ne peuvent pas être incluses dans la catégorie des investissements «purement verts», ces activités peuvent potentiellement être qualifiées de «sources transitoires» d’énergie. «Cela ne va pas vraiment dans le bon sens», regrette Maxime Combes.
Sans même parler de la finance internationale, la France compte environ 22 millions de livrets de développement durable et solidaires (LDDS). La réalité est qu’ils n’offrent aucune garantie que cette épargne collectée finance la transition écologique. «Nous avions fait une proposition de loi pour exiger que les Français soient certains que chaque euro placé sur un LDDS finance bien la transition écologique, mais cela n’a pas été voté», se rappelle Maxime Combes. La finance verte semble finalement bien manquer de vert.
Le scénario de la SNBC dessine la feuille de route de la France pour atteindre l’objectif de neutralité carbone à 2050 et la PPE est la trajectoire énergétique de la France pour ces 10 prochaines années (deux périodes 2019-2023 et 2024-2028). Cette dernière intègre l’adoption de la Loi énergie-climat (en septembre 2019) actant le report de l’échéance à 2035 pour le recul de la part du nucléaire dans le mix à 50% (contre près de 75% aujourd’hui) ainsi que la Loi sur les mobilités (en novembre 2019). Le texte présenté à la consultation fait 396 pages, le projet de décret 12 articles, dont 10 qui traitent tous les aspects de la question. Passage en revue de quelques modifications d’importance par rapport à la version précédente.
Consommation d’énergie
Sur la consommation d’énergie, les objectifs de réduction de la consommation primaire fossile par rapport à 2012 sont les suivants :
pour le gaz naturel : -10% en 2023 et -22% en 2028 ;
Par rapport à la version précédente, à la suite de la loi énergie-climat de 2019, le projet de PPE a été modifié pour viser une réduction de 20% de consommation d’énergie finale en 2030 (par rapport à 2012) au lieu de 17% et une réduction de 40% de la consommation d’énergie fossile primaire en 2030 au lieu de 30%. Enfin, l’objectif de réduction de la consommation finale d’énergie par rapport à 2012 est de -7,5% en 2023 et de -16,5% en 2028, pour rentrer dans la trajectoire de la SNBC.
Production d’électricité
Côté production d’électricité, la fermeture des centrales au charbon est actée d’ici à 2022. Mais en outre, conformément aux orientations sur la valorisation prioritaire de la biomasse sous forme de chaleur, l’Etat n’accordera pas de soutien aux projets de production d’électricité à partir de cette énergie (donc pas pour la conversion de la centrale de Cordemais par exemple). En outre, le texte prévoit de ne plus autoriser à l’avenir aucune centrale à partir de combustibles fossiles.
Ensuite, côté nucléaire, là encore le texte acte le passage de la part du nucléaire à 50% en 2035. Ainsi, 4 à 6 réacteurs nucléaires seront fermés d’ici 2028, dont ceux de Fessenheim. Et au total, 14 réacteurs seront arrêtés à terme pour atteindre une part de 50% d’électricité nucléaire dans le mix électrique, contre 75% en 2017.
Pour les énergies renouvelables électriques, l’objectif est aussi conforté, mais avec des disparités. En termes de capacité globale, 73,5 GW sont prévus en 2023, soit 50% de plus par rapport à 2017 et 101 à 113 GW sont prévus d’ici à 2028, soit un doublement par rapport à 2017. Mais si les objectifs pour l’éolien en mer passent de 5,2 GW à 6,2 GW en 2028, contre 4,7 GW à 5,2 GW dans la précédente version, côté éolien terrestre les objectifs passent désormais d’une fourchette de 34,1 GW à 35,6 GW à une option plus basse entre 33,2 GW et 34,7 GW.
La chaleur renouvelable et le biogaz
La chaleur renouvelable a la cote. Le gouvernement soutient celle-ci via le crédit d’impôt transition énergétique (CITE) et à MaPrimeRenov’ qui lui succède progressivement, les CEE et les aides de l’Agence nationale de l’habitat (Anah) pour le déploiement de moyens de chauffage renouvelables. Le chauffage renouvelable dans le bâtiment peut être fourni par une chaudière biomasse, une pompe à chaleur air/eau ou eau/eau, un système solaire combiné ou le raccordement à un réseau de chaleur renouvelable. Les nouveaux bâtiments, y compris dans le collectif et le tertiaire, devront produire un minimum de chaleur renouvelable. Des mesures spécifiques seront instituées pour inciter les ménages à remplacer les chauffages au charbon, les chaudières au fioul et les anciennes chaudières au gaz par des chauffages renouvelables ou des chaudières gaz à très haute performance énergétique. L’ambition est de ne plus utiliser de charbon ou de fioul domestique pour le chauffage à l’horizon de la fin de la PPE, en 2028.
En outre, côté réseaux de chaleur, la trajectoire du Fonds chaleur est maintenue à 350 M€/an à partir de 2020 (contre une trajectoire décroissante dès 2022 dans la version précédente). Elle pourra être revue en fonction des autres mesures à définir visant la maîtrise de la demande en énergie, précise le document en consultation. L’objectif est «d’atteindre une quantité de chaleur et de froid renouvelables et de récupération livrés par les réseaux entre 32.4 et 38.7 TWh en 2028, soit une hausse de 50 % à 100 % du rythme de développement actuel de la chaleur et du froid renouvelables et de récupération livrés par réseaux».
Enfin, le gouvernement a tranché sur le facteur de conversion en énergie primaire de l’électricité et du coefficient d’émission de l’électricité de chauffage utilisés dans la réglementation des bâtiments neufs (RT 2012, Label E+C-, RE 2020). Ce facteur de conversion sera fixé à 2,3, valeur résultant d’un calcul en moyenne sur 50 ans, en prenant en compte les objectifs de diversification du mix électrique fixés dans la loi. En outre, «le facteur d’émission de l’électricité sera déterminé par la méthode mensualisée par usage, qui conduit à une valeur de 79 gCO2/kWh pour le chauffage électrique.»
Côté biogaz, «la trajectoire du tarif d’achat des appels d’offres biogaz a été ajustée à la hausse, avec une cible de 75 €/MWh PCS en 2023 (contre 65 €/MWh PCS dans la version précédente). La cible du tarif d’achat pour 2028 n’a pas été modifiée et reste de 60 €/MWh PCS». Les volumes des appels d’offres seront réajustés en fonction des tarifs moyens demandés au cours de la période ; les objectifs de production et d’injection de biogaz restent cependant inchangés dans cette nouvelle version de la PPE. Il s’agit de «porter le volume de biogaz injecté à 14 à 22 TWh en 2028, contre 0,4 TWh en 2017. Le biogaz (injecté ou utilisé directement) représentera une part de 6 à 8 % de la consommation de gaz en 2028». Une disposition qui ne satisfait toujours pas pleinement la profession, qui réclamait plus de volumes.
La mobilité propre
La Loi d’orientation sur les mobilités (LOM) fait son entrée en détail dans le document. Plusieurs mesures sont confirmées, comme l’arrêt de la vente des véhicules particuliers et utilitaires légers neufs utilisant des énergies fossiles en 2040 ou le respect de l’objectif européen d’émissions de gaz à effet de serre de 95 gCO2/km en moyenne pour les voitures neuves vendues en 2021. L’objectif est d’atteindre «de la manière la plus efficiente l’objectif européen pour 2030 de 37,5 % de baisse des émissions de CO2 des voitures neuves vendues par rapport à 2021.»
Pêle-mêle, des mesures visent à soutenir le déploiement des infrastructures de recharge, comme une exonération de TICPE pour la navigation fluviale, une réduction de cette taxe pour les bateaux et navires à quai, un forfait mobilité durable (de 400€) pour les vélos et covoiturages, la mise en œuvre du plan vélo et mobilités actives, etc.
L’hydrogène
La PPE version 2020 souligne que : «En tant que vecteur énergétique, l’hydrogène produit par électrolyse d’électricité décarbonée est à long terme une solution structurante de décarbonation. Il peut immédiatement remplacer l’hydrogène fossile utilisé dans l’industrie. A moyen terme, il peut être un des vecteurs de décarbonation du secteur des transports. Au-delà de 2030 ou 2035, il pourra contribuer à l’intégration des énergies renouvelables au système électrique». Pour y parvenir, le document souligne notamment la mise en place d’un soutien au développement de l’hydrogène décarboné à hauteur de 50 M€ par an et le lancement d’appels à projet sur la mobilité et la production d’hydrogène à l’aide d’électrolyseurs ainsi que la mise en œuvre en 2020 d’un système de traçabilité de l’hydrogène décarboné.
Les prévisions climatiques de référence pour la France ont été réalisées par Météo-France, le Centre Européen de Recherche et de Formation Avancée en Calcul Scientifique (CERFACS) et l’Institut Pierre-Simon Laplace pour le portail DRIAS. Ce dernier permet de visualiser de multiples indicateurs pour appréhender l’évolution du climat région par région. En particulier, il regroupe les échéances de projections futures en horizons : proche (2021-2050), moyen (2041-2070) et lointain (2071-2100).
Un réchauffement sur toute la France
Avec un réchauffement mondial de 1°C déjà effectif par rapport à l’ère préindustrielle (soit avant le XIXème siècle), la France s’est réchauffée de plus de 1,5°C. «Avec un réchauffement mondial de 2°C en 2100, la France métropolitaine accuserait un réchauffement d’environ 3°C», prévient David Salas Y Melia, chercheur et responsable de l’unité climat au Centre national de recherches météorologiques (CNRM) à Météo-France. Hormis la Guyane, les DOM-TOM quant à eux connaîtraient un réchauffement plus faible, typique des régions côtières et de l’ordre de 2°C.
En France métropolitaine, le portail DRIAS indique que l’augmentation moyenne des températures pour le milieu du siècle s’échelonnera d’environ 1°C pour la façade Atlantique à 2°C pour les territoires plus continentaux. D’ici la fin du XXIe siècle, le scénario le plus pessimiste prévoit une augmentation moyenne annuelle comprise entre 3 et 4°C pour la façade nord-ouest, et entre 4 et 5 °C pour le reste du territoire.
Des vagues de chaleur qui s’intensifient
En premier lieu, il faut s’attendre à une hausse de la fréquence et de l’intensité des vagues de chaleur. «Depuis les années 2000, il y a eu des canicules presque tous les étés», rappelle le chercheur. Les pics de chaleur sont plus élevés avec des records de température et les projections montrent que la sévérité des canicules continuera à augmenter. «Sur les scénarios les plus forts, avec un réchauffement de 4 à 5°C en France, dès le milieu du siècle, on a une chance sur deux chaque été d’avoir une canicule plus intense que celle d’août 2003», ajoute-t-il.
Par ailleurs, l’intensité des valeurs les plus élevées de température augmente plus vite que la température moyenne du globe. «Si la température du globe se réchauffe de X°C, les extrêmes chauds se réchauffent en moyenne mondiale de 2X et les extrêmes froids de 3X», résume David Salas Y Melia. Alors que les vagues de chaud seront plus intenses et fréquentes, les vagues de froid se raréfieront et seront de moindre ampleur.
Une baisse des ressources en eau
Côté pluviométrie, la France se divise en deux. «En moyenne sur le pays, on assiste à une hausse d’environ 5 % des précipitations depuis les années 50, assure David Salas Y Melia. Il y a une tendance à une pluviométrie accrue dans le nord et en diminution dans le sud». Mais si l’on s’intéresse aux ressources en eau réellement disponibles, il faut prendre en compte l’évaporation. En effet, les précipitations qui contribuent aux ressources en eau sont celles qui s’infiltrent dans les nappes profondes ou ruissellent via les fleuves.
«Avec le réchauffement, on observe une hausse de l’évaporation depuis quelques décennies donc on a tendance à avoir des ressources en eau en baisse, même dans les régions où les précipitations évoluent peu», éclaire l’expert. Ainsi, la tendance est à l’assèchement du pays en été, mais les prévisions demeurent incertaines pour l’hiver. De même, il n’y a pas encore de message clair sur l’évolution de la fréquence des pluies extrêmes d’automne sur les régions méditerranéennes. Les cyclones pourraient devenir un peu plus violents et les pluies associées plus intenses, mais cela reste à confirmer. En revanche, Météo-France prévoit une hausse de la probabilité d’incendies sur une grande partie du pays. «Aujourd’hui, l’espace méditerranéen est particulièrement touché car il est plus sec, prévient le chercheur. La forêt des Landes devrait être de plus en plus touchée, certaines forêts du Nord de la France également.»
En 2012, le bureau d’études BRL Ingénierie, les centres Irstea d’Antony et Lyon et Météo-France ont mené le projet 2070. Objectif : étudier l’évolution des débits fluviaux du fait du changement climatique. Le projet Explore 2070 prévoit une baisse des débits des cours d’eau qui pourrait être très importante. «En fonction des connaissances actuelles, on prévoit une diminution du débit moyen de fleuves français et une réduction des débits minimum d’étiage quinquennaux qui peuvent aller jusqu’à 70% dans le pire des scénarios autour de 2070», projette David Salas Y Melia. Enfin, les projections climatiques prévoient au minimum une montée du niveau marin de 40 cm au niveau mondial d’ici 2100. Elle pourrait atteindre 80 cm dans le pire des cas. «40 cm, c’est déjà très problématique pour les côtes de basse altitude, notamment dans l’espace méditerranéen», prévient le chercheur de Météo-France.
La plupart des centres de tri envoient encore au refus les petits emballages en aluminium et en acier. Citons pêle-mêle : dosettes, capsules de bouteilles, papiers d’aluminium, petits tubes métalliques et plaquettes de médicaments usagés. Ces petits emballages représentent tout de même un gisement de 43 000 tonnes d’aluminium chaque année. Soit presque la moitié du gisement total d’emballages en aluminium mis sur le marché en France chaque année (84 000 tonnes). Un gisement qui part donc majoritairement en enfouissement ou en incinération.
Pour mettre en place une filière de recyclage pour ces petits emballages légers en aluminium et en acier, le projet Métal a vu le jour en 2014. Il est né du rapprochement de Citeo (ex Eco-Emballages), de l’Association des Maires de France (AMF), du Club du recyclage de l’emballage léger en aluminium et en acier (CELAA) et du Fonds de dotation pour le recyclage des petits aluminiums créé par Nespresso. Fin 2019, 19 millions de français bénéficiaient d’une extension de consignes de tri pour ces emballages. C’est notamment le cas de l’agglomération parisienne, Rennes, Rouen, Strasbourg, Grenoble et Cannes. Dès la fin du premier semestre 2020, 3,75 millions de Français supplémentaires en bénéficieront, à Brest, Lens, Limoges, Lyon, Montpellier et Nantes. Pour cette population couverte, la consigne est simple : qu’il s’agisse d’emballages souples, complexes ou de petite taille, tous les emballages contenant un bout de métal vont dans la poubelle de tri.
Un projet Métal pour trier les petits emballages légers en aluminium et en acier
En 2018, le projet a permis de recycler 950 tonnes de petits emballages en aluminium supplémentaires, contre 660 tonnes en 2017. La barre des 1 000 tonnes recyclées a été franchie en 2019. Fin 2019, 28 centres de tri sont équipés en France sur les 200 que compte le pays. Les centres de tri modernisés captent en moyenne 50% d’aluminium et 10 % d’acier en plus. Le taux de recyclage des emballages en aluminium atteint désormais 44 % au niveau national, contre 32 % en 2009.
Comment se fait le financement ? Dans la réponse aux appels d’offres, les centres de tri répondant aux critères prévoient de s’équiper en vue du tri de ces emballages en aluminium et acier. Et en 2022, 60 centres de tri devraient avoir les équipements nécessaires. Alors, 30 millions de Français pourront trier leurs petits emballages en aluminium. «L’investissement est rentable pour tous les centres de tri traitant plus de 20.000 tonnes de déchets par an», assure Jean Hornain, directeur général chez Citeo. C’est-à-dire des centres collectant les déchets d’environ 400 000 habitants. Pour accélérer les décisions, Citeo finance 50 000€ sur un investissement de 175 000 € en moyenne pour l’installation d’une machine dite à courant de Foucault qui permet de récupérer les emballages en aluminium léger. L’éco-organisme rémunère 400€ par tonne de petits aluminiums recyclés, majorée de soutiens à la performance pouvant aller jusqu’à 200€ la tonne. Le Fonds de dotation pour le recyclage des petits aluminiums de Nespresso promet en complément 300€ pour chaque tonne d’aluminium sortie des centres grâce au tri de ces petits emballages.
Dans le cadre de l’Accord de Paris, l’Union européenne fixe son propre objectif de réduction d’émissions de gaz à effet de serre. Elle répartit ensuite l’effort entre les États avec des objectifs contraignants sur le climat pour 2030. «Il y avait déjà des objectifs de réduction pour 2020, rappelle Neil Makaroff, responsable Europe du Réseau Action Climat. Dans ce système, le principal défaut était que le contrôle ne se faisait qu’en fin de période d’engagements, lorsqu’il était déjà trop tard pour réagir». Par exemple, l’Allemagne risque de rater son objectif climatique pour 2020, s’exposant à une importante amende.
L’ancienne Commission européenne a donc fait évoluer la gouvernance climatique européenne en 2018. Le nouveau système demande à tous les États membres de l’Union européenne de rendre un plan national énergie-climat à la Commission européenne. Ce plan doit comprendre la liste des mesures décidées pour atteindre les objectifs climatiques de 2030, à savoir une réduction de 40 % au niveau européen. Tous les deux ans, les pays devront fournir un rapport d’avancement. «Cela permet tout au long de la période entre 2020 et 2030 de vérifier que les États sont sur la bonne trajectoire et réalisent ce qu’ils ont promis», détaille Neil Makaroff. Le suivi sera ainsi plus régulier et plus contraignant.
La Commission veut vérifier le respect des engagements nationaux
Les États membres ont rendu leurs premiers plans énergie-climat à la Commission européenne en décembre 2018. Elle leur a renvoyé en juin 2019 en faisant un certain nombre de recommandations. Par exemple, elle a demandé à la France d’augmenter la part des énergies renouvelables dans le mix énergétique de 32% à 33% en 2030. Le gouvernement a intégré cette évolution dans la Loi Énergie-climat à l’automne dernier.
Tous les Etats membres devaient soumettre à nouveau leur plan final à la Commission avant le 31 décembre 2019. Mais plusieurs pays ont manqué le rendez-vous, note Euractiv, la Commission refusant de divulguer quels États membres étaient à la traîne. Elle attend les derniers plans dans les prochaines semaines au plus tard.
Une palette d’instruments à disposition de l’Europe
«Après analyse des plans finaux, la Commission européenne pourra, si besoin, demander aux États de faire plus ou prendra des mesures plus importantes à l’échelle de l’Union grâce à des instruments propres», expose Neil Makaroff. La Commission peut en effet prendre diverses mesures à l’échelle européenne sans forcément passer par des politiques nationales pour faire baisser les émissions.
C’est tout l’enjeu du Pacte vert. Il identifie secteur par secteur les mesures à mettre en place pour baisser les émissions de gaz à effet de serre. Il comprend des mesures au niveau des énergies renouvelables, de l’efficacité énergétique, de l’énergie du bâtiment et du marché carbone européen. Il considère d’autres mécanismes législatifs à déployer comme la politique agricole commune, ou une stratégie industrielle européenne, l’un des rares secteurs en Europe qui ne baisse pas ses émissions alors qu’elles en représentent 19% du total européen. Enfin, la Commission réfléchit à instaurer une taxe carbone aux frontières pour protéger les industries européennes qui seraient exposées à une concurrence déloyale.
Un objectif européen actuellement insuffisant
L’objectif actuel de l’Union européenne est une baisse de 40% des émissions de gaz à effet de serre pour 2030. Cet objectif n’est pas aligné avec celui de l’Accord de Paris d’une limitation du réchauffement climatique à 2°C, voire 1,5°C. «L’objectif de -40% a été fixé avant l’Accord de Paris en 2014 et est obsolète par rapport à ce que l’UE peut faire, rappelle Neil Makaroff. Si l’on veut respecter les 2°C, il faudrait que l’UE baisse ses émissions de -55% et si l’on veut respecter les 1,5°C, il faudrait qu’elle les baisse de -65%». Il reste donc un grand écart entre l’objectif actuel et la trajectoire fixée par l’Accord de Paris.
Des débats ont lieu depuis la mise en place de la nouvelle Commission européenne. Cette dernière propose de rehausser l’objectif à 50%, voire 55% si les conditions sont favorables. La Commission européenne doit rendre une étude d’impact sur l’augmentation de cet objectif d’ici juin prochain. Cette étude doit permettre aux chefs d’Etat et de gouvernement, réunis en sommet européen, de trancher sur un nouvel objectif. Si un nouvel objectif européen est fixé en 2020, les États auront jusqu’en 2022 pour fixer leurs nouveaux objectifs nationaux sur le même processus.
Pour éviter que les États bloquent l’augmentation des objectifs, il faudra un budget européen beaucoup plus solidaire sur la question climatique. Si l’on veut baisser les émissions entre -55 % et -65 % en 2030, il faudra en effet baisser drastiquement l’usage du charbon d’ici 2030. Il y aura un coût économique et social important, d’où l’importance que l’UE soit capable d’apporter des contreparties et d’aider les États via un fonds de transition juste, notamment pour accompagner les régions les plus dépendantes aux énergies fossiles, comme le charbon, à en sortir.
En mars, la première loi climatique européenne sera présentée. Elle fixera l’objectif climatique de long terme, à savoir la neutralité carbone pour 2050. Par ailleurs, elle renforcera les mécanismes de contrôle des politiques nationales et européennes et définira les moyens de vérifier la cohérence.
Depuis le 22 juillet 2015 et l’adoption de la loi sur la transition énergétique, l’obsolescence programmée est officiellement reconnue comme étant un délit passible de deux ans d’emprisonnement et de 300 000 euros d’amende. Pour une entreprise, la sanction prévue peut aller jusqu’au versement de 5% de son chiffre d’affaire annuel. Selon l’article L.213-4-1 du Code de la consommation, l’obsolescence programmée correspond à «l’ensemble des techniques par lesquelles un metteur sur le marché vise à réduire délibérément la durée de vie d’un produit pour en augmenter le taux de remplacement».
Cette loi qui va dans le sens de la protection du consommateur est pourtant jugée insuffisante par certaines associations. À l’heure actuelle, il revient au consommateur lui-même d’apporter la preuve de l’obsolescence programmée. Or, ce dernier n’a pas nécessairement les capacités ou les moyens de le faire, comme le déplore la fédération des associations de protection de la nature France Nature Environnement. C’est pourquoi en 2015, Laetitia Vasseur, experte en économie circulaire et ancienne collaboratrice parlementaire, a décidé, «avec certains de [s]es collègues», de créer l’association Halte à l’Obsolescence Programmée, désignée par le sigle HOP. Elle en est actuellement la directrice générale.
Le Club de la durabilité
La volonté de l’association est de «fédérer et de sensibiliser les consommateurs et les citoyens» et de les orienter vers de meilleurs choix de consommation. Pour ce faire, une équipe de vingt-quatre personnes aux profils divers – juriste, spécialiste data, journaliste, ou encore responsable communication – entreprennent des actions ciblées contre des entreprises accusées d’enfreindre la loi sur l’obsolescence programmée. Se joignent à eux un comité d’experts composé de professionnels venus de divers secteurs, et 40 000 membres bénévoles. Toutes leurs actions ont pour but une application ferme de la loi de juillet 2015, et d’induire des changements dans les pratiques des entreprises.
Afin d’insuffler de bonnes pratiques dans la conception des produits, HOP a créé un Club de la durabilité avec une vingtaine d’entreprises. «Nous travaillons notamment avec Michelin, qui vise à fabriquer des pneus qui s’usent moins vite. Le groupe FNAC-Darty développe une politique de réparation plus efficace. Nous travaillons également avec Back Market qui reconditionne et donne une seconde vie à divers objets électroniques» explique Laetitia Vasseur. Le Club de la durabilité a remis en octobre 2019 un rapport compilant trente et une propositions pour favoriser la conception plus durable des produits proposés aux consommateurs.
Des plaintes contre Epson, Apple et Amazon
Par ailleurs, HOP présente un manifeste qui appelle à «repenser ensemble notre système et faire émerger un modèle économique alternatif écologique et social», «informer le citoyen» et à «agir localement et en justice». C’est dans ce cadre que les entreprises Amazon, Apple et Epson ont été visées par des plaintes auprès du procureur de Paris. Apple avait été pointé du doigt par l’association en 2018 du fait de mises à jour qui bridaient délibérément les capacités des batteries de certains smartphones. La même année, HOP avait porté plainte contre Epson qui faisait changer les cartouches d’encre des imprimantes de ses clients avant que ces dernières ne soient complètement vides.
La plainte contre Amazon date, quant à elle, de fin 2019. Dans ce cas, HOP dénonce le manque de transparence du géant américain quant à ses obligations en termes de garanties légales de conformité. «En France, les distributeurs ont l’obligation d’assurer que le produit vendu pourra fonctionner normalement pendant deux ans. Mais Amazon ne fait figurer cette mention nulle part» précise Laetitia Vasseur. À l’heure actuelle, aucune de ces entreprises n’a été condamnée en France pour les pratiques dénoncées par HOP. Mais ailleurs en Europe, de telles sanctions ont déjà été prononcées. «En décembre 2018, la Haute Autorité de la Concurrence italienne a condamné Apple et Samsung pour pratiques commerciales déloyales» rappelle la directrice générale de HOP.
À ce jour, 197 pays ont signé l’Accord de Paris, 183 l’ont ratifié. «Les pays qui ne l’ont pas ratifié sont des pays qui sont soit en difficulté par déstabilisation interne comme l’Irak, soit en difficulté en termes de développement comme l’Angola, détaille Lucile Dufour, responsable Politiques internationales du Réseau Action Climat. Le seul grand pays qui ne l’a pas encore ratifié est la Turquie». Les États-Unis l’ont ratifié mais prévoient de sortir de l’Accord de Paris le 4 novembre 2020.
Du côté des pays ayant ratifié l’accord, les engagements adoptés en 2015 demeurent insuffisants. Ils mènent vers un réchauffement de +3°C d’ici la fin du siècle s’ils sont respectés. Il est donc prévu qu’en 2020, les pays soumettent de nouvelles contributions déterminées au niveau national (acronyme NDC pour nationally determined contribution). «Le problème est que l’on ne voit pas pour l’instant de volonté politique de fournir ces nouvelles contributions nationales», regrette Lucile Dufour.
Une nouvelle ambition qui peine à émerger
Selon Climate Action Tracker, les îles Marshall ont soumis leur nouveau NDC le 22 novembre 2018. Lors de la COP25, seul le Suriname a soumis un nouvel NDC. Le Chili et la Mongolie ont pour leur part mis en consultation au niveau national leur nouvelle contribution. Au total, selon Climate Watch,108 pays se sont engagés à revoir leur NDC cette année, représentant 15,1 % des émissions mondiales de gaz à effet de serre. «Les pays actuellement engagés représentent peu d’émissions et sont peu responsables du dérèglement climatique actuel, analyse Lucile Dufour. À l’inverse, les pays les plus responsables, ceux du G20, qui représentent près de 80% des émissions mondiales, n’ont pris aucun engagement pour l’instant. Seule l’Union européenne, via la nouvelle commission européenne et le Parlement, a envoyé des signaux en disant qu’elle allait revoir à la hausse sa NDC.»
Il existe un décalage profond entre l’urgence à agir, la prise de conscience et la volonté politique des pays les plus responsables du dérèglement à adopter des objectifs adéquats. À ce jour, les États-Unis, le Japon, Singapour et l’Australie ont indiqué qu’ils ne mettraient pas à jour leur objectif 2030.
Où en est-on des règles d’application ?
Les grandes lignes directrices d’application de l’Accord de Paris ont été adoptées à la COP24 en Pologne. «Les pays sont encouragés à intégrer l’ensemble des émissions de gaz à tous les secteurs dans leur reporting et dans leurs objectifs», résume Lucile Dufour. À la COP25, les pays devaient discuter des détails et définir comment, concrètement, les nouvelles règles de comptabilisation des émissions de gaz à effet de serre s’ajusteront mais aucun accord n’a été trouvé. «Sur la question de la transparence, comme sur celle de l’ambition climatique et celle des marchés carbone, on est au point mort à l’issue de la COP à Madrid», regrette-t-elle.
Les marchés carbone étaient le grand sujet de la COP25. Comment les pays monétisent et échangent-ils des réductions de gaz à effet de serre ? «Il est très important que les marchés carbone soient bien construits pour être sûr que les réductions d’émissions achetées et échangées ne puissent pas être comptées deux fois, et que les projets financés via ces marchés respectent les droits humains», assure Lucile Dufour. À l’initiative du Costa Rica, la coalition de pays signataires des des «Principes de San Jose pour une ambition élevée et l’intégrité des marchés carbone internationaux» appelle donc à des règles robustes concernant les marchés des crédits de carbone. Elle regroupe de petits états insulaires, des pays d’Amérique latine et certains pays européens (liste complète ici). En 2020, le défi reste ainsi de définir de bonnes règles. «Sur ces marchés carbone, on joue la crédibilité de l’Accord de Paris», souligne Lucile Dufour.
Où en est-on de la solidarité ?
À Copenhague en 2009, les pays développés se sont engagés à fournir 100 milliards de dollars par an à partir de 2020 aux pays en développement afin de s’adapter au changement climatique et favoriser les technologies bas carbone. Dans ces 100 milliards, sont comptabilisés les fonds publics et les fonds privés mobilisés par des investissements publics.
L’OCDE a rendu son dernier rapport sur le suivi des 100 milliards en octobre 2019. Ainsi, 71,2 milliards de dollars de financements totaux ont été mobilisés en faveur de l’action climatique dans les pays en développement en 2017. Sur ce total, 54,5 milliards de dollars provenaient de financements publics. Il reste donc un effort encore substantiel à faire par les pays développés pour augmenter les financements publics.
L’enjeu dépasse la simple question de solidarité. Ces financements sont d’autant plus importants qu’une partie des engagements des pays en développement sont conditionnés à leur versement. «La question du financement et de l’ambition climatique sont intimement liées, conclut Lucile Dufour. Sans financement adéquat, l’ambition ne peut pas être adéquate.»
Un passionné de réalité virtuelle a recréé son appartement avec une grande précision grâce à la technologie du « hand-tracking » d’Oculus. A travers son casque, il peut naviguer sur Google Map, jouer au piano ; soit autant d’interactions effectuées avec des mouvements ultra-réalistes. Dans la vidéo, le monde de la VR a semble t-il franchi un nouveau cap.
Un mini bus modulable électrique et autonome
Présenté lors du CES 2020 de Las Vegas, cette navette pourrait bien représenter l’avenir de la mobilité urbaine. Entre livraison de biens et transports de personnes, ce nouveau véhicule modulable s’inspire des techniques de l’aviation et est capable d’atteindre 85 km/h.
Un pare-soleil « virtuel » qui prévient l’éblouissement au volant
Si vous êtes conducteur, il se trouve forcément des moments où vous prenez le soleil en pleine face. Des ingénieurs de l’entreprise Bosch ont développé une « visière virtuelle », constituée d’un écran LCD et d’une caméra pointée sur le visage du conducteur. À chaque instant, elle détermine quel endroit du pare-soleil assombrir afin d’éviter l’éblouissement. Une zone qui change constamment, en fonction des mouvements du véhicule et du conducteur.
Le robot Walker peut maintenant servir à boire
Présent l’an dernier au CES 2019, le robot Walker d’UBTech a fait pas mal de progrès ; il a prouvé qu’il était capable d’utiliser un ouvre-bouteille pour décapsuler du soda puis de le verser dans un verre. Grâce à des améliorations logicielles, ce robot connecté se déplace plus facilement avec une augmentation de sa vitesse de déplacement de 25 % (de 1,5 à 2 km à l’heure) ainsi qu’un meilleur équilibre.
Des maisons construites à partir de briques de plastique recyclé
En Colombie, une association vient de mettre sur pied un procédé inédit permettant de faire des briques à partir de plastique recyclé qui sont ensuite utilisées pour construire des maisons aux sans-abris. Chaque maison construite permet de recycler 4 tonnes de plastique. Tout en réduisant de 40 % le coût de construction d’une maison.
Depuis décembre 2017, un arrêté préfectoral interdit le brûlage à l’air libre des déchets agricoles dont ceux des activités viticoles en Savoie car ils polluent l’environnement. Les souches ainsi que les sarments de vignes et de pépinières viticoles, c’est-à-dire les tailles de l’année, sont traditionnellement brûlés dans ce département. Sur le territoire savoyard, ces déchets représentent chaque année un volume de 28 000 m3 et concernent 330 viticulteurs et 23 pépiniéristes. Aucune solution alternative ne leur a été proposée.
Christine Piot et Grégory Chatel, enseignants-chercheurs à l’Université Savoie Mont Blanc.
Alors, à l’initiative de l’Université Savoie Mont Blanc et en partenariat avec des professionnels du secteur, des services de l’Etat et des élus, le projet VITIVALO est né. Son objectif : transformer cette contrainte réglementaire en opportunité afin de développer de nouvelles filières valorisant les déchets viticoles. Au final, une cascade d’idées nouvelles pour valoriser les déchets ont été trouvées, dont certaines sont en cours de recherche. Entretien avec Christine Piot et Grégory Chatel, enseignants-chercheurs à l’Université Savoie Mont Blanc et coordinateurs de ce projet.
Techniques de l’Ingénieur : Quelles sont les pistes de valorisation les plus intéressantes ?
Christine Piot et Grégory Chatel : Il n’existait pas de données sur la valorisation chimique des déchets de vignes des cépages savoyards en particulier. Une thèse de doctorat a débuté dans le but d’extraire des molécules à haute valeur ajoutée. Une première molécule a été identifiée : le resvératrol. Elle a déjà fait l’objet de nombreuses études à travers le monde et est très utilisée dans les cosmétiques, les compléments alimentaires ou autres alicaments. Sur le plan de la santé, cette molécule est un puissant antioxydant et agit en médiateurs d’effets biologiques pour le traitement de la maladie d’Alzheimer par exemple. Elle a des propriétés anti-âge, anti-cancéreuse, anti-inflammatoire, anti-microbien et anti-fongique. Nous avons démontré que les deux principaux cépages savoyard (Jacquère et Mondeuse) avaient des niveaux de concentration élevés en resvératrol, compris entre 2 à 6 grammes par kg de matière sèche.
D’autres molécules présentent-elles un intérêt ?
Une seconde appelée la viniférine a été également identifiée. Elle est beaucoup moins étudiée que la première mais a aussi des propriétés antioxydantes et présente quasiment les mêmes effets positifs que le resvératrol. Beaucoup moins employée par l’industrie, le marché de cette molécule est donc moins important. Nous avons pour projet de travailler avec un laboratoire afin de la tester sur des cellules humaines et du sang. La viniférine présente le même niveau de concentration dans les déchets bois viticoles que le resvératrol. Nous étudions les paramètres tels que le temps de stockage, la nécessité de broyage, ainsi que les conditions d’utilisation de ces déchets afin d’obtenir des concentrations maximales en viniférine.
Quelles sont les pistes de valorisation pour les résidus de matière bois ?
Nous avons écarté la piste de la valorisation énergétique car une étude réalisée dans le Vaucluse démontre que ces déchets ont un rendement faible et que cette valorisation n’est pas viable économiquement vis-à-vis du coût de transport. En 2018 et 2019, nous avons testé la valorisation sous la forme d’amendement. Après des analyses de sol, nous avons identifié que ces déchets présentaient les mêmes propriétés que des déchets de bois de type feuillu, le fumier ou la paille. Par contre, nous avons détecté la présence de cuivre, classé dans la catégorie des métaux lourds. Sa présence est liée à l’utilisation de la bouillie bordelaise [un fongicide fabriqué à partir de sulfate de cuivre, de chaux et d’eau, NDLR] pour traiter les vignes. Nous avons alors testé le compostage avec la collaboration d’une plateforme industrielle en diluant ces déchets viticoles à raison d’un cinquième avec d’autres déchets végétaux. Résultat : le produit final respecte les normes de compost. Un temps de compostage de 4 mois est nécessaire avant que ce produit ne puisse être vendu en compost industriel à des jardineries et à des maraîchers.
Quels sont vos futurs axes de recherche ?
Nous travaillons actuellement avec un laboratoire sur les propriétés d’isolation phonique et thermique. Ces déchets pourraient être utilisés pour renforcer des matériaux biocomposites. Nous allons également poursuivre notre travail sur la qualité de l’air car nous manquons de données scientifiques sur les émissions de gaz et particules fines lors des brûlages. Cela servira à étayer les arguments et la pédagogie vers les viticulteurs. Actuellement et malgré l’interdiction, environ 15% de ces déchets bois viticoles sont encore brûlés. Nous estimons que ce brûlage représente annuellement les émissions de 225 kg de particules fines. En comparaison, si l’on souhaite transporter la totalité de ces déchets avec des camions à moteur diesel vers un centre de traitement situé à 15 km, seulement 300 g de particules seraient rejetés.
A présent, notre projet rentre dans une phase opérationnelle avec la mise en place d’un nouveau modèle économique et un extracteur des molécules va devoir être installé. En amont, nous devons aussi résoudre la question de la gestion de la collecte. Situés sur des coteaux, ces déchets sont parfois difficiles d’accès et l’une des pistes serait de travailler avec une entreprise d’insertion afin de les descendre au bas des vignes. Enfin, nos travaux vont pouvoir servir à d’autres régions puisque d’autres territoires sont concernés par l’interdiction de brûler les déchets viticoles. C’est le cas par exemple de la Bourgogne et nous savons que le pinot noir contient lui aussi des molécules à haute valeur ajoutée.
Actuellement, en vertu de la loi sur l’énergie (Nome) et de la réglementation européenne de 2010, EDF est contraint de céder jusqu’à 100 TWh/an de sa production nucléaire à ses concurrents à un prix fixe de 42 €/MWh). Le mécanisme appelé Arenh est prévu jusqu’à fin décembre 2025, même si la récente loi sur l’énergie et le climat prévoit certaines modifications. Mais le gouvernement français a souhaité proposer une modification plus profonde du mécanisme de marché pour protéger les clients français qui bénéficient, via les tarifs réglementés, du nucléaire auquel ils «ont participé par le passé». Mais aussi pour permettre à EDF de couvrir ses coûts et de reconstituer du «cash-flow», à l’aune des investissements à venir dans le parc existant, dans les démantèlements futurs (car EDF va devoir fermer des réacteurs dans le cadre de la loi pour passer à 50% du mix électrique, au lieu des 75%) comme prévu par le gouvernement, et aussi pour investir dans les énergies renouvelables, ont indiqué des responsables du ministère quelques jours plus tôt.
Dans le mécanisme existant, lorsque le prix fixe de l’Arenh est inférieur au prix du marché, le concurrent d’EDF a un avantage, EDF étant obligé de vendre le volume d’Arenh (à concurrence de 100 TWh) quel que soit le prix du marché. Lorsque le prix du marché est inférieur au prix d’Arenh, les concurrents d’EDF peuvent acheter sur le marché, et c’est une fois encore EDF qui «paie» la différence, a noté à plusieurs reprises EDF.
Le mécanisme destiné à remplacer Arenh obligerait EDF à vendre «toute» la production nucléaire du parc existant, y compris la future production de l’EPR de Flamanville-3, dans un «corridor» de prix, avec un plancher et un plafond. Il équivaudrait à des contrats pour différence (CfD, en initiales anglaises), utilisés au Royaume-Uni pour de nouveaux éoliens nucléaires et offshore.
«Les niveaux de prix plancher et plafond seraient fixés selon une méthodologie transparente et seraient mis en œuvre sous le contrôle du régulateur du marché de l’énergie, la CRE», insiste le document présenté aux journalistes. La fourchette de prix ne dépasserait cependant pas 6 euros/MWh, précise le document. Ce «corridor» permettrait à EDF de couvrir ses coûts et lui apporterait des revenus équitables.
Encore faut-il que ce nouveau mécanisme soit validé par l’Union européenne. C’est là qu’intervient la deuxième partie de cette modification. Il faudrait en effet dégrouper les ventes d’EDF de la production d’EDF (procéder à un «unbundling», selon la terminologie bruxelloise), afin de se conformer aux règles de l’UE relatives aux aides d’Etat et à la distorsion du marché, selon le document. La branche commercialisation d’EDF devrait donc acheter l’électricité nucléaire en utilisant le nouveau mécanisme, comme le feraient d’autres concurrents, en France et en Europe, insiste le document. Quant à la production nucléaire elle deviendrait un «service d’intérêt économique général», une dénomination que Bruxelles entend parfaitement… Le texte du document de consultation est clair : «Le producteur nucléaire (EDF donc, ndlr) serait obligé dans la durée de mettre à disposition le productible défini par la régulation, en cohérence avec la stratégie de long terme de la France sur son mix énergétique et la programmation pluriannuelle de l’énergie (PPE) de la métropole continentale actualisée tous les 5 ans». Une réorganisation qui va dans le droit fil du projet Hercule de scission de l’entreprise EDF en deux entités, l’une réglementée, l’autre concurrentielle et active sur le marché…
Le gouvernement français a également indiqué dans son document qu’il souhaitait mettre en œuvre ce nouveau modèle d’ici 2022. Elisabeth Borne, Ministre de la Transition écologique et solidaire, chargée de l’énergie, doit prochainement rencontrer des responsables de la Commission européenne pour s’assurer de la compatibilité de ce mécanisme avec les règles communautaires.
Lewis Pugh nage dans les écosystèmes les plus vulnérables de la Terre, équipé d’un simple maillot de bain, de lunettes de piscine et d’un bonnet. Rien ne lui résiste : Pôle Nord, lacs de glaciers, Mont Everest… Il a nagé 560 km le long de la Manche et effectué une nage de longue distance dans tous les océans du monde. Son nouveau défi ? Traverser à la nage un lac supraglaciaire sur 1 km dans l’Antarctique oriental ce jeudi 23 janvier.
Lewis Pugh fait partie de ces aventuriers qui veulent alerter l’opinion publique sur les risques liés au réchauffement climatique. «Je nage dans l’océan depuis plus de 30 ans et je l’ai vu changer, affirme-t-il. Pour moi il n’y a aucun doute : nous sommes confrontés à une urgence climatique. La glace fond à un rythme sans précédent aux deux extrémités de la Terre.»
Les lacs supraglaciaires, témoins du réchauffement climatique
Les lacs supraglaciaires sont des lacs qui se forment à la surface des glaciers. Leur nombre se multiplie à mesure que les températures augmentent. D’après une étude parue en septembre 2019 dans la revue Scientific Reports, 65 000 lacs supraglaciaires se trouvent sur l’inlandsis (ou calotte polaire) de l’Antarctique oriental où nagera Lewis Pugh. Ils peuvent atteindre plusieurs kilomètres de diamètre, plusieurs mètres de profondeur. Éphémères, ils peuvent persister plusieurs années ou se vider en quelques heures.
Lewis Pugh nagera ainsi dans des conditions extrêmes sans combinaison. Il affrontera une eau juste au-dessus de 0°C, soumise à un fort refroidissement éolien. Et rien ne lui garantit que le lac ne se videra pas soudainement par une fissure dans la calotte glaciaire…
Créer un réseau d’aires marines protégées autour de l’Antarctique
Le Droit international impose que 25 nations et l’Union européenne conviennent ensemble des mesures à prendre pour protéger l’Antarctique. Dans ce cadre, trois propositions d’aires marines protégées sont sur la table. Mais la Russie et la Chine bloquent le projet international de sanctuaires marins. Après sa traversée, Lewis Pugh se rendra donc à Moscou afin de convaincre les dirigeants politiques à soutenir la mise en place de ce réseau de zones marines protégées dans l’océan Austral autour de l’Antarctique.
Le nageur remercie la France pour son rôle dans cette campagne. «Je suis très reconnaissant au président Macron d’avoir encouragé toutes les nations à protéger les eaux autour de l’Antarctique, déclare Lewis Pugh. J’invite toutes les nations à se joindre à la France pour protéger ces dernières zones sauvages avant qu’elles ne disparaissent à jamais. Le temps est maintenant compté.»
Grâce à ses exploits passés, le parrain de l’ONU pour les océans a déjà participé à la protection de plus de 2,2 millions de km2 d’océan, une superficie plus grande que l’Europe occidentale. En particulier, il a contribué à la première aire marine protégée dans la mer de Ross, au large de l’Antarctique sur 1,5 million de km2, la plus grande zone protégée au monde à ce jour. Il travaille à la protection complète d’au moins 30 % des océans du monde d’ici 2030.
Photo de Une : Entraînement de Lewis Pugh en Antarctique / Kelvin Trautman.
Inaugurée vendredi, la machine, à pleine puissance, offre une capacité de calcul équivalente à celle de 40.000 ordinateurs personnels (16 pétaflops – 16 millions de milliards d’opérations par seconde), doublant la puissance de calcul de la France.
« Les GAFA se sont dotés très tôt de grands supercalculateurs (dédiés à l’IA), rapidement imités par les Etats-Unis », explique à l’AFP Jamal Atif, chercheur au CNRS.
Si l’entreprise britannique DeepMind a pu concevoir AlphaGo, dont la victoire contre le champion du monde du jeu de Go avait fait grand bruit en 2016, c’est parce qu’elle disposait de la puissance de calcul de Google.
Mais en France, « il n’y avait rien. Et sans calcul, nous restions dans des temps anciens », avoue le chercheur du Laboratoire d’analyse et modélisation de systèmes pour l’aide à la décision.
« La compétition est terrible dans ce domaine là, et les chercheurs français s’estimaient très désavantagés par rapport à leurs compétiteurs », raconte Denis Girou, ancien directeur de l’Institut du développement et des ressources en informatique scientifique (Idris) du CNRS.
– « au bout d’une semaine! » –
L’un des défis de l’intelligence artificielle consiste à donner aux ordinateurs la capacité d’apprendre à partir de données, le « machine learning » ou apprentissage profond.
Mais pour apprendre à réaliser une tâche spécifique (reconnaître une image, traduire un texte, jouer au Go …), un algorithme a besoin d’ingérer des milliards d’exemples.
« Traiter cette grande masse de données nécessite beaucoup de calculs », détaille le chercheur du Laboratoire d’analyse et modélisation de systèmes pour l’aide à la décision. Pareil pour tester ces algorithmes ou en concevoir des nouveaux.
Dans une grande salle toute blanche, une quarantaine d’énormes armoires noires renferment processeurs et disques de stockage. Rien de spectaculaire si ce n’est le bruit assourdissant.
Installé au centre de calcul Idris du CNRS sur le plateau de Saclay en région parisienne, Jean Zay, ce nouveau bijou technologique, d’un coût de 25 millions d’euros, dispose de processeurs particuliers (des GPU). « Ces accélérateurs sont absolument cruciaux pour les chercheurs en IA », explique Denis Girou.
« Beaucoup de choses sont attendues de ma communauté », reconnaît Jamal Atif, citant « la promesse de la voiture autonome », les assistants intelligents, la justice prédictive, l’aide automatique au diagnostic…
Mais avant tout cela, quelques mystères restent à éclaircir, notamment le problème de « l’explicabilité »: les opérations réalisés par les algorithmes sont tellement complexes qu’il est difficile d’expliquer comment l’algorithme est arrivé à telle ou telle décision.
Aux Etats-Unis, le logiciel COMPAS est utilisé pour prédire la récidive. « Mais nous ne savons pas sur quoi il se base exactement… », explique Jamal Atif.
Autre limite de l’apprentissage profond: il reste vulnérable aux attaques. Un minime changement sur une image, même imperceptible à l’oeil nu, peut tromper un algorithme, l’empêcher de reconnaître un panneau stop ou lui faire prendre un autobus scolaire pour une autruche.
Un problème de taille si l’on veut déployer des algorithmes de deep learning dans des véhicules autonomes ou des avions. « On comprend beaucoup de choses mais beaucoup de choses nous échappent », résume le chercheur.
Jean Zay sera également utilisé dans d’autres domaines également très gourmands en temps de calcul comme la climatologie, l’astrophysique, la dynamique moléculaire ou la génomique…
Notamment pour simuler l’évolution du climat, recréer l’environnement solaire ou visualiser le comportement de virus de la grippe selon différentes températures.
« Au lieu d’attendre des résultats un mois, nous les aurons au bout d’une semaine! », se réjouit Marc Baden, directeur du laboratoire de biochimie théorique du CNRS.
Le programme Angels, qui a vu le lancement de son prototype le 18 décembre dernier, est le symbole d’une filière française qui cherche à passer un cap supérieur.
Nicolas Multan est le directeur général de Hemeria
Et ce cap, c’est la capacité à proposer des débouchés commerciaux grâce aux nouvelles applications que permettent l’usage de nanosatellite(s).
Pour Techniques de l’Ingénieur, Nicolas Multan a accepté de revenir sur l’histoire – récente – de Hemeria, ex Nexeya, et sur l’aventure démarrée avec le CNES, qui a pour finalité la mise en orbite d’une constellation de 25 satellites, Kinéis, en 2022.
E.T.I : Expliquez-nous comment a émergé Hemeria, qui est aujourd’hui l’acteur français majeur de la filière nanosatellites ?
Nicolas Multan : Il y a deux histoires qui se rejoignent et qui aboutissent à ce qu’est Hemeria aujourd’hui.
Il y a d’abord la genèse de l’aventure nanosatellites chez Nexeya, puis la genèse d’Hemeria à proprement parler.
L’idée de produire des nanosatellites à des fins industrielles et commerciales est née en 2009. A l’époque, les projets de nanosatellites donnaient de bons résultats, mais uniquement sur des thématiques étudiantes et scientifiques. L’approche, assez novatrice, a été de se dire que ces petits satellites pourraient offrir des débouchés au monde de l’industrie et du privé.
Ce programme a été contractualisé avec Nexeya au mois de mars 2017, et a abouti au lancement de Angels le 18 décembre dernier. Ce lancement et le démarrage du projet Kinéis marquent la volonté du CNES de constituer une véritable filière française du nanosatellite et cela a été déterminant.
Pour finir, début octobre 2019, Nexeya a été vendue. A cette occasion, certaines activités – spatial, vol, dissuasion nucléaire – ont été exclues du deal et ont été transférées au sein d’un nouvelle société, Hemeria. Hemeria, en tant qu’intégrateur, est aujourd’hui le fer de lance de la filière française des nanosatellites.
Comment avez-vous travaillé avec le CNES sur le programme Angels ?
Pour nous, il s’agissait de trouver des débouchés à nos programmes de développement. Nos discussions avec le CNES nous ont permis de nous mettre d’accord sur le développement par Hemeria d’un démonstrateur.
A partir de là s’est mis en place un tout nouveau mode de fonctionnement entre l’agence nationale et un industriel. En effet, le CNES a été à la fois spécificateur du besoin, mais a également oeuvré en codéveloppement avec nous sur la réalisation d’Angels. Jusqu’à 8 experts du CNES ont intégré les équipes d’Hemeria et ont challengé les propres spécifications du CNES, dans le but de mener à bien ce projet, dans des délais deux fois plus courts que ce qui est préconisé pour ce type d’entreprise… Au final, nous avons développé un satellite entièrement en deux ans et demi, du jamais vu.
Angels a été mis en orbite le 18 décembre dernier. Il fonctionne bien, s’oriente bien… nous avons allumé la charge utile il y a une semaine (le 8 janvier), et cette charge fonctionne. Il s’agissait pour nous d’une deuxième étape de validation très importante et qui nous permet de dire aujourd’hui qu’Angels est un satellite bien né.
Une deuxième version du logiciel de vol doit être injectée au mois de mars et va rendre le satellite définitivement opérationnel. A partir de là, Angels pourra intégrer dès l’été prochain la constellation Argos – constituée de 6 satellites – opérée par CLS, une filiale du CNES. Le but étant, d’ici 2022, de remplacer l’actuelle constellation de satellites qui opèrent Argos par la constellation Kinéis composée de 25 nanosatellites.
Les analyses réalisées sur Angels vont-elles être utiles pour améliorer ce que seront les satellites de la constellation Kinéis ?
Angels est un démonstrateur opérationnel. Il faut qu’il fonctionne au moins deux ans. Comme c’est un prototype précurseur, toutes les informations que nous allons tirer de son fonctionnement vont alimenter le développement en cours de la constellation Kinéis. Un satellite de la constellation Kinéis aura des gènes d’Angels, mais sera profondément revu, car il s’agira d’un produit industriel avec une durée de vie de huit ans. Et dont la vocation ne sera plus scientifique mais commerciale.
Au-delà du programme Angels, quelle est la stratégie d’Hemeria sur le marché des nanosatellites ?
Il n’est pas exagéré de dire qu’aujourd’hui Hemeria est le pilier de la filière nanosatellites française. En tant que intégrateur fédérateur, Hemeria anime une communauté d’environ 15 entreprises qui intègrent de près ou de loin la filière française.
Kinéis représente bien sur un gros enjeu pour nous dans les années qui viennent, puisque nous devons livrer 25 satellites d’ici 2022.
Au-delà, nous avons signé avec Thalès d’un côté et Airbus de l’autre des lettres d’intérêts mutuels, qui nous permettent d’organiser régulièrement des comités de direction pour challenger les opportunités du domaine des nanosatellites. Cela nous a amené à développer des partenariats très pertinents sur des offres IoT et d’observation.
Le second point est la thématique de militarisation de l’espace. Une des étapes consiste à mettre des guetteurs en orbite géostationnaire, projet qui intéresse au plus haut point Hemeria.
Enfin, nous répondons à des appels d’offre à l’international en adoptant une stratégie ToT – Transfer of Technology – puisqu’il s’agit aujourd’hui d’une nécessité. Cet accompagnement local fait partie du package proposé par Hemeria sur l’export.
Anywaves fournit deux types d’antennes, avec pour chacune un usage bien spécifique.
L’antenne Band-S est destinée à piloter le satellite. Il s’agit donc d’être en lien permanent avec le satellite et de proposer une couverture tout autour de ce dernier, en continu.
Pour répondre aux défis de la miniaturisation Anywaves a choisi de développer – via l’impression 3D – des antennes à base de métamatériaux en céramique. Une spécialisation qui correspond au développement de cette filière hyper spécifique, comme nous l’explique Nicolas Capet.
E.T.I : Comment émerge la filière autour de la miniaturisation des satellites?
Nicolas Capet : L’apparition des cubsats s’est faite au Japon et aux Etats-Unis dans un premier temps, dans les années 2000. Il s’agissait alors de projets étudiants. L’idée était de concevoir des petits satellites, afin de permettre aux étudiants de se former sur ce qu’est le spatial, ses contraintes… La visée était donc principalement pédagogique.
Plusieurs universités ont donc développé des petits satellites. Certains ont été assemblés et envoyés vers l’ISS quand cela était possible, d’autres sont restés au sol. Les universités continuant à proposer des projets de satellites toujours plus performants, force a été de constater : plutôt que d’utiliser un gros satellite ultra performant, on peut également choisir un ensemble de petits satellites, moins performants mais offrant des services complémentaires. Et ces services intéressent des acteurs économiques.
Quels acteurs ?
Par exemple, cela peut concerner les acteurs de l’observation de la Terre en temps réel. Là où un gros satellite va avoir un taux de revisite de 4 à 5 jours, les constellations vont permettre des survols beaucoup plus fréquents. Cela va intéresser tout ce qui touche aux interventions en urgence, le suivi de la végétation, des activités industrielles…
Partant de là, on a vu apparaître des spin-offs issues des universités, qui ont commencé à exister sur ce nouveau marché et à proposer des services commerciaux.
Comment a évolué le marché des nanosatellites ?
Aujourd’hui je dirais que nous sommes dans une seconde phase, où le marché s’est développé et est en attente de services performants, de qualité et de retour sur investissement. Or, si les projets des universités ont permis de développer des satellites à des coûts compétitifs, les problématiques de qualité n’étaient pas suffisamment prises en compte. C’est cette seconde phase dans laquelle nous sommes : la professionnalisation de la filière, et dans ce domaine, la France dispose d’atouts redoutables. Si l’émergence d’une filière française s’est faite un peu tard, le pays dispose d’un savoir-faire dans le spatial qui va lui permettre de revenir rapidement dans la compétition.
On assiste aujourd’hui à une véritable montée en gamme en termes de qualité et de performance des équipements. Les acteurs commerciaux du secteur qui au début faisaient tout eux-mêmes commencent aujourd’hui à se concentrer sur leur métier d’intégrateurs. C’est ce que font des groupes comme Airbus ou Thales aujourd’hui, pour les satellites ou les avions, en achetant les équipements dont ils ont besoin chez des sociétés expertes.
Anywaves s’inscrit dans cette catégorie des équipementiers experts, en proposant spécifiquement des antennes pour les constellations de satellites.
Va-t-on assister à une compétition entre petits et grands satellites ?
Les constellations vont plutôt proposer un service de couverture globale en temps réel, là où un gros satellite sera beaucoup plus performant mais sur un temps donné. Donc on est plus sur de la complémentarité que de la compétition. Le choix d’un gros satellite plutôt que d’une constellation va vraiment dépendre de l’usage.
Quels autres avantages voyez-vous au développement des projets de constellations de satellites ?
Un avantage réel de ce type de solution est que l’on n’est pas obligé d’avoir une constellation complète pour commencer à proposer des services commerciaux. Cela permet de développer des business models complètement différents.
Une société peut commencer avec deux satellites pour tester un modèle et vendre une solution commerciale. Au fur et à mesure de l’avancement de la constellation, les satellites mis en orbite profitent des retours d’expériences réalisés sur les premiers lancers, pour offrir un service continuellement amélioré.
Qu’est-ce que la Newspace Factory ?
Anywaves fait partie de ce que nous avons appelé la Newspace Factory. Nous nous sommes regroupés avec plusieurs PME françaises du spatial, notamment pour développer des démarches beaucoup plus percutantes à l’export.
L’idée est de pouvoir proposer tout un catalogue de produits sur étagère auprès de tous les acteurs qui se mettent à développer des nanosatellites. Nous pensons notamment à des pays comme l’Inde, la Chine et beaucoup d’autres qui, devant les coûts relativement faibles, ont développé des projets de petits satellites.
Les avancées technologiques ont-elles leur place dans une économie verte ? Cette question intéresse et interroge Léonard, la plate-forme de prospective et d’innovation de Vinci. La structure est partie du constat selon lequel durant les dernières décennies, le progrès a contribué à améliorer la vie des usagers dans de multiples secteurs. Mais ce confort a été gagné au prix de dépenses énergétiques et de consommations de ressources conséquentes. Or, la France, tout comme le reste de l’Union européenne à l’exception de la Pologne, tend à atteindre la neutralité carbone à l’horizon 2050.
Dans ces circonstances, le champ d’action et de développement des entreprises technologiques sera-t-il le même à l’avenir ? C’est pour répondre à ces questions que Léonard a décidé de réunir, le temps d’une table ronde, quatre experts en économie verte. Étaient présents Philippe Bihouix, directeur général adjoint d’AREP ; Stéphanie Chrétien, en charge du Paris Fonds Verts et partenaire chez Demeter ; Thomas-Olivier Léautier, directeur de l’Université Groupe de Management chez EDF ; et Christophe Tallec, partenaire et directeur marketing adjoint chez Hello Tomorrow. Le débat s’est tenu le 15 janvier dernier, dans les locaux parisiens de Léonard.
French Tech innovante et débat démocratique
«L’un des vrais enjeux est de faire émerger les nouvelles technologies. Et ce même si l’on ne sait pas encore quels seront les résultats exacts sur l’efficacité énergétique» a déclaré Christophe Tallec, avant de rappeler que «c’est la voie que suit la French Tech». Cette allégation dénote ainsi qu’en termes de technologie, la France donne actuellement la priorité à l’innovation. Mais selon lui, innovation et environnement ne sont pas incompatibles, et il avance qu’un développement des entreprises qui leur permettrait d’atteindre la «Série B» pourrait être bénéfique pour la croissance verte. Pourtant, questionné sur la capacité mondiale à aboutir rapidement à un réel verdissement de l’économie, ce dernier a concédé que «faire adopter de nouveaux usages sera quelque chose de complexe, même s’il suffit de 10% d’acteurs pour changer une culture».
Une pensée positive partagée par Thomas-Olivier Léautier, qui estime que du point de vue énergétique la France est en bonne posture. «Nous avons la chance d’avoir un parc nucléaire. C’est une technologie qui n’émet pas de carbone et qui produit des kilowatts, bien moins polluante que les centrales à gaz ou à charbon» se félicite-il en relativisant la problématique des déchets nucléaires. De façon plus générale, Thomas-Olivier Léautier veut croire à l’efficacité du débat démocratique, d’où émergeraient les solutions et les bonnes pratiques à mettre en place pour assurer un avenir écologique pérenne. «Un consensus politique sur l’importance du réchauffement climatique est nécessaire. Sans cela l’Australie va continuer de brûler, et d’autres pays auront de plus en plus chaud» assène-t-il.
Pour l’économie verte, donner un prix au carbone
Afin de parvenir à une efficacité énergétique mondiale, Thomas-Olivier Léautier estime qu’il est nécessaire de «mettre un prix au carbone». Selon lui, cette solution serait la condition sine qua non pour «aboutir à un mix entre nouvelles technologies et réductions des émissions de CO2». Ce dernier reste confiant quant aux réserves de ressources naturelles nécessaires aux progrès technologiques, qu’il s’agisse de ressources fossiles ou de terres rares. Christophe Tallec rappelle qu’actuellement «capter une tonne de carbone coûte trente euros», et que la problématique financière a tendance à freiner les entreprises dans leur verdissement.
C’est pourquoi Stéphanie Chrétien considère qu’il faut «savoir parler aux entreprises dans un langage qu’elles comprennent. Il faut leur parler en termes de création de valeur, et privilégier les solutions qui, à coût égal, sont plus bénéfiques». Elle rappelle également qu’il est nécessaire de les accompagner dans leur transition. C’est ce que fait Paris Fonds Vert, un fonds d’investissement créé par la mairie de Paris qui vise à soutenir le développement des PME et à accélérer la transition énergétique et écologique des grandes métropoles. «Le défi pour nous est d’orienter les financements vers la croissance verte, et rendre la croissance grise plus verte» explique-t-elle. Pour ce faire, Paris Fonds Vert travaille avec le cabinet Carbone 4, qui réalise une «due diligence» pour évaluer les points sur lesquels une structure doit travailler. L’accompagnement par Paris Fonds Vert doit durer dix ans.
Une accumulation technologique aux effets pervers
Philippe Bihouix faisait office de contradicteur durant cet échange. Le directeur général adjoint d’AREP considère que l’idée selon laquelle les progrès technologiques favoriseraient l’efficacité énergétique et écologique est biaisée car une nouvelle technologie ne vient pas nécessairement remplacer la précédente, et souvent s’y ajoute. Pour lui, «on n’a jamais su capter les biens technologiques. Blablacar n’a pas fait baisser le nombre de voitures sur les routes, et une ligne à grande vitesse ne suffirait pas pour désengorger l’aéroport de Blagnac». Il évoque également le cas de la 5G, qui en plus d’être plus énergivore que la 3G et la 4G, ne les remplacera pas mais viendra s’y ajouter. «On s’éloigne aujourd’hui de l’économie circulaire» craint Philippe Bihouix.
Au sujet d’une taxation mondiale des émissions de CO2, le directeur général d’AREP se montre encore dubitatif. «Je suis d’accord pour dire qu’un prix carbone universel serait diablement efficace. Le problème, c’est qu’on ne l’aura jamais car tous les pays n’ont pas les mêmes intérêts. Je ne sens pas une dynamique planétaire qui va en ce sens, je ne crois pas au consensus collectif» a-t-il répondu à Thomas-Olivier Léautier. Philippe Bihouix parle également d’une «fuite en avant» causée par les avancées technologiques, qu’il n’estime pas inéluctable. Selon lui, la transition écologique doit passer par une meilleure optimisation de l’existant. «On utilise très mal les bâtiments qu’on a, comme les écoles qui sont fermées le soir, ou les voitures qu’on remplace intégralement en fin de vie.»
Le 18 décembre dernier était lancé le satellite Angels, un prototype destiné à démontrer la pertinence des nanosatellites. Un prototype qui est également le premier élément de la future constellation Kinéis, amenée à opérer le système Argos, un système mondial de localisation et de collecte de données géo-positionnées par satellite.
Pour Caroline Laurent du CNES, la mission qui démarre avec le déploiement d’Angels va démontrer que les capacités des nanosatellites, dont les prix baissent, sont une solution pour développer des applications commerciales abordables et variées.
E.T.I : Le 18 décembre dernier était mis en orbite Angels. Expliquez-nous en quoi consiste Angels ?
Caroline Laurent : Angels est un prototype, qui préfigure ce que sera la constellation Kinéis. Deux enjeux ont conduit au développement des prototypes Angels.
D’abord, Angels embarque le système Argos. Actuellement, les équipements Argos sont embarqués sur différents satellites. Ces charges utiles sont opérées par le CNES et ensuite CLS, une filiale du CNES, prend en charge les usagers, la vente des balises et l’exploitation du système.
Nous avons voulu miniaturiser ces balises de plus en plus, et nous avons développé la charge utile Argos Neo, embarquée sur Angels. Le lancement d’Angels, le 18 décembre dernier, permettait donc d’avoir un instrument supplémentaire en orbite.
C’est important car dans les constellations de nanosatellites, plus on a de charges utiles, plus le système est performant. Il y a avait donc un besoin d’avoir un satellite supplémentaire.
Dans le même temps, le CNES et CLS ont imaginé une constellation – Kinéis – de nanosatellites. C’est le second enjeu. La baisse des coûts liée à la miniaturisation a permis de développer des programmes ambitieux – et qui ne sont pas excessivement chers – dont celui de se passer des plateformes étrangères pour faire fonctionner Kinéis.
Pour résumer, Angels fait à la fois la démonstration que la charge utile peut être miniaturisée et devient aussi le prototype pour la constellation Kinéis, dont le développement démarre.
Quel est l’objectif de Kinéis ?
L’objectif de Kinéis est de mettre en orbite 20 satellites. Cela permettra plus de passages et même si cela ne permet pas un suivi temps réel, on pourra avoir une transmission de données tous les quarts d’heure ce qui est déjà très bien. Nous sommes aujourd’hui en capacité d’exploiter le système Argos à partir de nanosatellites.
Kinéis servira également dans le domaine de l’IoT.
La localisation existait déjà avec le système Argos. Mais profiter des messages de localisation pour ajouter des informations plus importantes, cela finit par s’appeler de l’IoT. C’est le but, pouvoir échanger des informations de localisation en temps réel et ajouter d’autres informations sur n’importe quel objet : montre, moteur, machine industrielle…
Quels sont les avantages des constellations de satellites, en termes de développement de programmes ?
Ce qui fait la grande différence, c’est que l’usage d’une constellation permet d’accepter pour chaque satellite une probabilité de fonctionnement moindre que dans le cas d’un unique gros satellite. Vu que les coûts de fabrication sont également moins importants, on peut se permettre d’avoir un satellite de la constellation qui tombe en panne sans mettre en péril l’ensemble du système. On peut même envisager d’avoir une constellation qui fonctionne bien avec seulement 70% des satellites, par exemple. Donc cela change beaucoup de choses. Mais il faut bien garder à l’esprit que ces constellations vont également permettre de développer des usages différents. La miniaturisation limite les performances, et les gros satellites auront toujours leur utilité.
Qu’est-ce que Nanolabs ?2
Les très petits satellites permettent de développer de toutes petites applications opérationnelles sur un tout petit spectre. Ils permettent également de multiplier les tests, les “proofs of concept”… C’est pour cela que le CNES va mettre en commun tous ses laboratoires qui font de la miniaturisation et qui contribuent au développement de nanosatellites et travailler avec les universités et les écoles d’ingénieurs. Pour dans un premier temps et dans le cadre du projet Janus, travailler au successeur d’EyeSat, qui est un nanosatellite d’observation développé par des étudiants en partenariat avec le CNES.
Dans un second temps il s’agit aussi de soutenir les industriels qui se sont développés sur ce secteur, et qui commencent à se fédérer via un groupement comme la Newspace Factory par exemple.
Comment le CNES vient-il soutenir la filière française des nanosatellites ?
Il y a beaucoup de PME qui évoluent dans le domaine des nanosatellites et il faut les soutenir. Au niveau du CNES, nous essayons de rendre cohérentes nos actions, puisque nous finançons de la R&D avec les projets que nous menons. Par exemple, nous faisons en sorte que les moteurs que nous développons en R&D soient bien réutilisés par les maîtres d’oeuvre pour les lancements… A ce jour, la pérennité de cette filière passe encore par un peu d’aide publique.
Classées en trois familles, la première appelée «Adaptation littorale» part de l’hypothèse qu’une coopération internationale entre les États sera menée rapidement pour décarboner les activités. Dans le même temps, des actions seront réalisées au niveau local pour protéger le littoral. Cette famille regroupe quatre scénarios. Ce sont les plus vertueux de cette projection.
Le plus positif, nommé « Maîtrise climatique », décrit des villes côtières se transformant progressivement mais sans pour autant remettre en cause le modèle actuel de développement urbain. Elles seront malgré tout confrontées à des événements climatiques extrêmes. Et ponctuellement, d’importants impacts seront observés sur certains littoraux les plus exposés aux aléas.
Dans le scénario « Villes résilientes », là encore, l’élévation du niveau de la mer sera relativement limitée. Face aux événements climatiques extrêmes, des barrières artificielles ou naturelles seront construites le long des zones urbaines littorales. Ces dernières anticiperont aussi ces événements grâce aux technologies numériques. Les infrastructures énergétiques, de communication et de transport seront renforcées pour faire face aux aléas. Cependant, les zones à faible densité de population, délaissées et peu concernées par les mesures d’adaptation, seront très exposées aux risques de submersion.
La réaction sera plus marquée dans les scénarios « Sobriété et anticipation ». On assistera en effet à une stratégie de repli à l’intérieur des terres. Grâce au développement d’une culture de la sobriété dans l’ensemble des domaines d’activité économique, les émissions de gaz à effet de serre se réduiront. Au final, le niveau d’élévation de la mer sera limité.
Quant au scénario « Adaptation prioritaire et atténuation tardive », il se déroulera en deux temps. Jusqu’en 2060, chaque État agira isolément et concentrera ses efforts à l’adaptation de son littoral. Ensuite, face à l’intensité des conséquences du changement climatique, de fortes politiques seront coordonnées à l’échelle mondiale et permettront de limiter la hausse du niveau de la mer à 1m.
Un demi-siècle d’inaction
La famille nommée « Déni » regroupe trois scénarios. L’étude part des hypothèses que les États n’agiront pas avant 2050. Puis, les politiques publiques réagiront enfin face à la recrudescence des catastrophes. Le scénario du « Déni à la réaction » se traduira ainsi par une l’élévation du niveau marin et des événements extrêmes et dévastateurs. Face à cette réalité, la prise de conscience sera alors collective. Décideurs, société civile, citoyens jugeront que la lutte contre les conséquences du dérèglement climatique devient une priorité absolue. Bien que tardives, des actions d’atténuation du changement climatique seront engagées de manière durable. Et d’ambitieuses stratégies d’adaptation du littoral se développeront à l’échelle du globe.
Dans le scénario « Abandon du littoral », les élites organiseront un repli systématique de leurs intérêts les plus stratégiques vers l’arrière-pays. Elles délaisseront les franges littorales les plus vulnérables. Dépendantes des ressources locales et de l’accès aux terres, les populations les plus pauvres de ces territoires demeureront livrées à elles-mêmes. A la toute fin du siècle, face à la répétition des catastrophes humanitaires, des efforts minimaux d’adaptation du littoral seront consentis. L’objectif étant de prévenir des phénomènes de migrations massives vers l’intérieur des terres.
Le scénario « Passivité » conduit à des conséquences extrêmes. Face à l’inaction, des flux migratoires importants s’intensifieront au fur à mesure de l’élévation du niveau de la mer. Sous l’effet de l’emballement du moteur climatique, les écosystèmes se dégraderont de façon souvent irréversible. Et la vitesse de recul du trait de côte s’accélérera progressivement. La situation deviendra catastrophique. Des crises environnementales, économiques et humanitaires se répéteront. Les rapports sociaux se brutaliseront.
Une logique du « chacun pour soi »
Une dernière famille, « Monde fragmenté », se traduit par des politiques locales et nationales menées de manières différentes et parfois contradictoires. Elles conduiront à une dynamique à plusieurs vitesses selon la logique du «chacun pour soi». Cette famille regroupe un scénario unique nommé « Fragmentation persistante » dans lequel les États les plus riches mèneront de front une politique de lutte contre l’élévation du niveau de la mer. Ils réaliseront un retrait stratégique progressif des zones littorales les plus vulnérables. A l’inverse, les États les plus pauvres n’anticiperont pas les changements littoraux. Les mégalopoles côtières se développeront toujours et leur vulnérabilité s’accroîtra. Cette logique duale se maintiendra et s’accentuera durant le siècle avec de nombreuses variantes intermédiaires.
Pour les experts de cette étude, la gouvernance sera un levier majeur pour limiter la remontée du niveau de la mer. Ils restent neutre vis à vis du scénario le plus probable en l’état car de très nombreux paramètres rentrent en jeu dans le réchauffement climatique et la remontée du niveau de la mer. Sans être alarmiste, ils avertissent qu’en l’absence de politiques publiques volontaristes au niveau global d’ici 2040, des situations graves ou extrêmes pourront se développer.
Les 11e Rencontres internationales de l’usinage auront lieu les 29 et 30 janvier 2020, à Cluses (74). Intercut est le rendez-vous de tous les professionnels de l’usinage. Durant 2 jours, ce sont plus de 250 participants qui sont attendus pour appréhender de manière concrète des opérations, dispositifs ou procédés innovants avec :
12 conférences pour s’informer sur les avancées et innovations dans le domaine de l’usinage et enrichir sa veille technologique
14 ateliers de démonstrations techniques en visite libre pour rechercher ensemble des solutions et innover dès à présent
1 table ronde pour échanger sur l’évolution des marchés automobile et aéronautique
1 espace d’exposition avec 25 exposants qui ont répondu présent afin de proposer un concentré de solutions technologiques innovantes et rencontrer les partenaires de l’industrie mécanicienne et du décolletage
des points de rencontre favorisant les échanges.
Gardez une longueur technologique d’avance en participant à Intercut 2020 !
«Nous avons atteint 70% de l’objectif annuel du contrat stratégique de filière, note ainsi Cécile Goubet, déléguée générale de l’Avere-France. Il faudra rattraper ce déficit tout en doublant le nombre de véhicules vendus en 2020 pour tenir la trajectoire» fixée par le contrat stratégique de filière. Une trajectoire qui vise à atteindre 1 million de véhicules légers électrifiés en 2022 et 170 000 dès 2020.
Et la responsable de l’Avere-France s’inquiète du «choix du gouvernement sur la réduction du bonus, en particulier pour la cible professionnelle, qui pose question quant à la capacité des clients à être au rendez-vous avec des véhicules qui restent encore aujourd’hui plus chers à l’achat que leur équivalent thermique ». Cette réduction a pris effet au 1er janvier 2020, et pourrait agir comme un frein.
Une bonne nouvelle cependant, la fin d’année a montré un boom des immatriculations. En décembre 2019, 4 803 voitures particulières (+8%), 640 utilitaires légers électriques (-29%), 2 437 hybrides rechargeables (+113%) et 10 BMW i3 dotées d’un prolongateur d’autonomie (-84 %) ont été mis à la route en France Métropolitaine, indique l’Avere. Cela représente un bond de 2 000 véhicules électrifiés de plus que le mois précédent et 1 000 de plus qu’en octobre. Mais c’est peut-être aussi une anticipation de la baisse à venir de la prime prévue en 2020.
La progression sur 2019
Selon le bilan de l’Avere, 50 884 véhicules légers électriques à batterie ont été immatriculés en 2019, soit +26% comparé à 2018. S’y ajoutent 18 582 hybrides rechargeables, pour un total de 69 466 véhicules électrifiés mis en circulation en 2019.
Le segment des véhicules particuliers affiche une hausse de 38%, avec 42 763 unités immatriculées. De même, le segment des véhicules hybrides progresse de 38%, avec 18 582 unités immatriculées l’an dernier.
Les ventes de véhicules électriques utilitaires ont en revanche reculé de 2% avec 7 958 unités immatriculées en 2019 contre 8 103 en 2018. C’est sur le segment des deux-roues électriques que la progression est la plus forte, avec 13 965 immatriculations l’année dernière, soit un bond de 43%.
Par ailleurs, les véhicules hydrogène se sont fait une petite place sur le marché avec 63 unités immatriculées en 2019, contre 36 en 2018, soit +43%.
En France, 275 565 véhicules électrifiés ont été mis en circulation depuis 2010 (218 249 véhicules électriques et 57 316 hybrides rechargeables). Côté points de charge, 28 666 points de charge publics étaient installés en France au 7 janvier (avec une progression de 15% en 2019). Néanmoins ce chiffre est loin des 100 000 points de charge publics qui devront être installés en 2022 pour atteindre l’objectif inscrit dans le projet de Programmation pluriannuelle de l’énergie (PPE).
Renault toujours en tête
En termes de modèles pour les particuliers, la Renault Zoé est la plus plébiscitée puisqu’elle représente 44% des immatriculations du segment (18 817 unités ; +10%), suivie de la Tesla Model 3 qui se hisse directement à la deuxième place : en 11 mois, 6 455 unités ont ainsi été livrées soit 15% de parts de marché. La Nissan Leaf se classe ensuite à la troisième position du classement avec 3 738 immatriculations enregistrées (-20%, en raison de l’adaptation de la stratégie commerciale globale du constructeur visant à assainir les canaux de distribution). Elle représente 9% des immatriculations du segment, indique l’Avere.
Renault conserve aussi premières places pour les véhicules utilitaires, avec 3 807 nouveaux Kangoo ZE (- 9% ; 48% de parts de marché) et 1 142 Zoé (+ 17% ; 14% de parts de marché). Le Nissan eNV200 prend la troisième position avec 925 immatriculations (+45% ; 12% de parts de marché).
Sur marché des hybrides, c’est le Mitsubishi Outlander qui prend la première place avec 3 131 immatriculations (+139 % ; 17% de parts de marché). Suivent ensuite la Mini Countryman (1 929 unités ; + 45% ; 10% de parts de marché) et le Land Rover Range Rover (1 917 ; + 216% ; 10% de parts de marché).
Depuis la Loi de transition énergétique pour la croissance verte, votée en 2014 et en vigueur depuis 2015, la loi française punit le délit d’obsolescence programmée. Elle est définie par «l’ensemble des techniques par lesquelles un metteur sur le marché vise à réduire délibérément la durée de vie d’un produit pour en augmenter le taux de remplacement». Elle est punie de 2 ans d’emprisonnement et de 300 000€ d’amende.
Mais les affaires sont rares. En septembre 2017, l’association HOP (Halte à l’Obsolescence Programmée) avait déposé plainte contre les marques d’imprimantes (Canon, Brother, Epson et HP). C’est l’exemple le plus connu d’obsolescence : certaines cartouches d’encre sont équipées d’une puce qui bloque l’impression dès que le niveau d’encre atteint un certain niveau.
HOP avait aussi porté plainte, en décembre 2017, contre Apple sur l’obsolescence de ses modèles d’iPhone 6, 6 s, SE et 7. Selon HOP, «le ralentissement des appareils plus anciens semble avoir pour intention délibérée de pousser les clients d’Apple à l’achat du nouveau modèle.»
Pour l’instant, la justice continue d’enquêter sur ces sujets…
Le pire est à venir avec l’IoT…
Pour certains, cette usure prématurée serait donc programmée pour que des pièces ne tiennent pas éternellement. Mais selon le laboratoire fédéral d’essai des matériaux et de recherche (Empa), deux autres facteurs seraient déterminants.
Premièrement, la pression exercée sur les prix qui oblige les marques à faire des compromis avec certains composants de moindre qualité. Deuxièmement, les logiciels embarqués auraient un impact sur la durée de vie des appareils. En poussant au maximum de leurs capacités les équipements, des logiciels augmenteraient prématurément leur «usure».
C’est comme si l’on roulait tous les jours, pendant plusieurs centaines de kilomètres à 130 km/h, sur l’autoroute avec une citadine. Le moteur et ses composants vont être usés plus vite que s’il s’agit d’une routière.
«Ce facteur pèse probablement plus lourdement sur la perte de valeur des équipements que l’obsolescence programmée», estime l’Empa, qui prévient que ce phénomène risque de s’amplifier lorsque l’IoT (Internet des objets)«sera devenu une réalité».
Selon les scientifiques suisses, «l’IoT risque de nous mettre dans la situation où il sera nécessaire de remplacer un réfrigérateur qui refroidit parfaitement, mais dont l’électronique est prise de court par les nouveaux logiciels…»
Mais les logiciels eux-mêmes peuvent être «usés». Avec une augmentation importante de l’utilisation des systèmes programmables au cours des 25 dernières années, l’obsolescence des logiciels est devenue un problème majeur qui va continuer à croître.
Cela se manifeste de plusieurs façons :
des temps d’arrêt prolongés lorsque des pannes surviennent, car il faut beaucoup plus de temps pour restaurer le logiciel et le remettre en marche ;
des dépenses forcées et imprévues pour la mise à niveau du matériel et des logiciels ;
des problèmes de sécurité peuvent être soulevés par l’obsolescence des logiciels ;
des vulnérabilités de cybersécurité peuvent apparaître dans des logiciels obsolètes à mesure que de nouvelles cybermenaces sont découvertes et que les logiciels ne sont pas corrigés.
En attendant, la situation évolue dans le bon sens. En juillet 2018, le projet de loi anti-gaspillage présenté par le Gouvernement français contenait un indice de réparabilité obligatoire sous la forme d’une note allant de 1 à 10. Cet indice de réparabilité devrait être transformé en un indice de durabilité à partir de 2024.
Enfin, il y a quelques mois, la Commission européenne a adopté des règles obligatoires pour augmenter la réparabilité. À compter de mars 2021, il sera obligatoire pour les fabricants de mettre à disposition des pièces détachées et de publier les informations nécessaires à la réparation de certains produits.
L’étude sur le marché des “robotaxis” du cabinet PwC publiée en mars 2019 prévoit un développement important des véhicules partagés à la demande – la MaaS, pour “mobilité en tant que service”. Le cabinet estime que ce marché devrait représenter 1 400 milliards de dollars d’ici 2030, réparti entre les trois grandes zones géographiques que sont les Etats-Unis (250 milliards), l’Union européenne (451 milliards) et la Chine (656 milliards). Le marché européen des véhicules partagés à la demande augmentera de 25 % entre 2017 et 2030. À cette date, la MaaS pourrait représenter 22 % du chiffre d’affaires de l’industrie et 30% de ses bénéfices (contre respectivement 38% et 26% pour les véhicules neufs). Les premiers véhicules autonomes de niveau 4 seront déployés dans des cas précis à partir de 2021.
Selon les experts du cabinet, “c’est avant tout la politique plus que la technologie qui donnera le rythme du changement : les gouvernements ont beaucoup à perdre en Occident (taxes sur les carburants, emplois dans le secteur manufacturier) et beaucoup à gagner en Orient (réduction du smog [nuage de pollution atmosphérique, ndlr], leadership des technologies de batteries).”
2019, une année d’expérimentations
Dans la MaaS, on retrouve les navettes autonomes dont de nombreuses expérimentations ont débuté en 2019 en France. En janvier par exemple, l’agglomération lyonnaise a accueilli l’expérimentation d’une navette sur route ouverte. “Après avoir reçu l’autorisation ministérielle de mise en circulation dans un cadre expérimental mi-janvier, la navette Mia, du constructeur Navya, opérée par l’entreprise Berthelet, a été testée sur site pendant un mois, précise le communiqué. Cette première phase a permis d’ajuster et de finaliser les paramétrages de la navette en situation réelle, sur le terrain, afin de lui permettre d’acquérir une connaissance plus fine du parcours pour lequel elle a été programmée”. La navette est intégrée à la circulation sur 2,4 km avec le passage de deux ronds-points. “Conformément à la législation actuelle, la navette MIA circule avec la présence d’un agent de bord. Cet opérateur est formé pour répondre à toutes les questions et prendre les commandes du véhicule si besoin. Un soutien humain qui pourrait ensuite laisser place à un système de supervision à distance.” D’autres tests ont également eu lieu à Lyon, dans le quartier de la Confluence.
A Paris, les navettes de l’entreprise Easymile ont été testées par la RATP entre les gares de Lyon et d’Austerlitz, transportant 30 000 voyageurs. En avril 2019, Elisabeth Borne a annoncé le lancement de 16 nouvelles expérimentations de véhicules autonomes en France, dont 12 concernent des navettes. Pour ces dernières, les acteurs pilotes sont PSA, RATP, Transdev, Renault, Keolis, Oncopôle Toulouse, Communauté d’agglomération de Sophia Antipolis (CASA), Communauté de communes cœur de Brenne et Nantes Métropole.
La navette Mia (marque Navya) est en cours d’expérimentation sur route ouverte dans l’agglomération lyonnaise. SO DUPONTRENOUX
Un bilan mitigé à Paris La Défense
Dans le quartier de La Défense à Paris, tout ne s’est pas déroulé comme prévu. De juillet 2017 à mai 2019, un service de navette autonome a été testé par Ile-de-France Mobilités, Keolis et le constructeur Navya. L’objectif de cette expérimentation était double : proposer une solution de mobilité et faire progresser la technologie en la testant dans un environnement très dense (piétons, vélos, véhicules techniques, etc.) avec un passage à terme 100 % autonome, sans opérateur à bord. Mais l’expérimentation n’a pas atteint cet objectif. “Au terme de l’expérimentation, le bilan global n’est pas satisfaisant, explique Paris La Défense dans un communiqué. D’une part, la technologie n’a pas su s’adapter aux mutations de l’environnement urbain. D’autre part, l’objectif de passage en “full autonome” n’a pas abouti. Enfin, la vitesse de circulation de la navette n’a pas réussi à progresser et donc à rendre le service attractif. Dans ces conditions et au vu de ce bilan mitigé, Paris La Défense ne souhaite pas reconduire l’expérimentation.”
Dans une interview accordée au Monde informatique, Patricia Villoslada, vice-présidente exécutive de transports autonomes chez Transdev, commente : “Il faut apporter de l’intelligence en implémentant des algorithmes de plus en plus complexes car la perception ne suffit pas. Il faut que la technologie soit capable d’identifier non pas qu’il y ait un obstacle sur la route mais sa nature, par exemple une personne qui marche à 4 km/h et suit tel chemin, pour être en mesure d’anticiper.”
Dans un communiqué de presse présentant ses nouvelles orientations stratégiques, la française Navya décrivait “un décollage du marché plus ciblé et plus long qu’initialement anticipé”. Elle “considère que le marché des navettes autonomes restera un marché d’expérimentation pour les 24 prochains mois avant un décollage lié au retrait de l’opérateur de sécurité”, et estime que “les systèmes de conduite autonome de niveau 4 pour les premier et dernier kilomètres dans un environnement maîtrisé à basse vitesse devraient être les premiers à se déployer pour le transport de passagers, ainsi que pour les véhicules à usage logistique et industriel”. L’entreprise présente un chiffre d’affaires en baisse de 30% au premier semestre 2019 par rapport à 2018.
L’évolution du cadre législatif
Le gouvernement fait évoluer le cadre législatif français pour permettre le développement du véhicule autonome. C’est le cas de la Loi Pacte, qui permet l’expérimentation des véhicules jusqu’au plus haut niveau de délégation de conduite, en précisant le régime de la responsabilité dans cette phase. Mais également de la loi d’orientation des mobilités (LOM) qui prépare le cadre de la libre circulation de véhicules autonomes sur les routes. “Au plan législatif et réglementaire, l’article 12 de la LOM habilite le gouvernement à établir par ordonnances le cadre de circulation des véhicules autonomes, qui vise notamment à définir les conditions d’autorisation de mise en service de systèmes de transports routiers collectifs publics ou privés à délégation de conduite, qui, outre l’homologation préalable des véhicules, impliquerait une forme à préciser de vérification préalable de la sécurité des parcours pour les véhicules concernés” détaille le rapport « Développement des véhicules autonomes« . Lors de la rédaction des orientations stratégiques pour l’action publique, le gouvernement visait la réalisation d’un cadre complet (textes législatifs et réglementaires, référentiels méthodologiques) d’ici fin 2020.
Il y a quelques jours, SpaceX effectuait avec succès son premier lancement de l’année. Il s’agissait de mettre en orbite 60 nanosatellites destinés à s’ajouter aux 120 déjà déployés. Ce sont donc désormais 180 nanosatellites qui orbitent pour tisser le réseau Starlink, qui doit permettre un accès à internet dans chaque recoin du monde. A termes ce sont des milliers de satellites – au moins 12 000 – qui permettront à l’entreprise d’Elon Musk d’atteindre ce but. D’ici là, Starlink devra trouver des clients susceptibles d’être intéressés par les offres de services déjà disponibles. On en saura plus dans le courant de l’année 2020, après le 24 ème lancement, à partir duquel Starlink devrait offrir une couverture mondiale d’internet.
Cet exemple illustre ce qui fait réellement la spécificité des nanosatellites : leur taille. Et leur coût, par ruissellement, si on peut dire. Il n’est pas question de concurrence avec les satellites de plus grande taille, car ces derniers offrent des informations – images, données – avec une précision incroyable. Et qui dit précision incroyable dit équipements volumineux. Pour ces usages là – par exemple l’imagerie de précision par satellite – la taille des équipements exclut de fait les nanosatellites.
Par contre, pour couvrir un réseau et proposer des passages de satellites les plus fréquents possible, une constellation de petits satellites sera plus performante qu’un gros satellite. Et moins chère. Et plus facile à améliorer au fur et à mesure des retours d’expériences réalisés lors des lancers précédents. Bref, les projets de constellations de nanosatellites ont cet avantage : ils peuvent être très évolutifs dans le temps, et la facilité croissante pour lancer des grappes de satellites leur permet aussi d’être réactifs dans les réajustements. Pour ainsi dire, ces projets ont une capacité forte à adresser toujours plus précisément une demande client dans le temps.
Localisation, suivi, temps réel… des applications nombreuses et variées
L’autre aspect remarquable des nanosatellites est leur démocratisation dans le secteur du spatial. Aujourd’hui, la plupart des nanosatellites sont constitués d’éléments produits par des fabricants très spécialisés : moteur, antenne, objectifs, charge utile… c’est une particularité du secteur. Quand le phénomène de miniaturisation a impacté les satellites, on a mis en place le standard cubsat, dont l’unité est un cube de 10 cm d’arête. Un nanosatellite peut être constitué d’un ou de plusieurs cubesats. Cette standardisation a spécifié le rayon d’action des nanosatellites, en termes de matériels embarqués en tout cas. Cela a également permis aux fabricants de s’orienter vers la production de matériels adaptés et de s’ouvrir les portes de nouveaux marchés potentiels à l’étranger.
Comme on le voit, un écosystème s’est mis en place autour de la production à bas coûts de nanosatellites. La notion de constellation est toujours un facteur démultiplicatif, puisqu’il permet d’envisager un rayon d’action et une performance à grande échelle.
Mais la baisse des coûts de production et de lancement de nanosatellites aux performances limitées mais dédiées, ouvre un champ d’application sans précédent. C’est là le second avantage des nanosatellites. Le business model développé autour de leur usage autorise aussi bien le développement d’applications à grande échelle – via les constellations – que d’applications (ou des tests scientifiques) hyper spécifiques.
La France n’est pas en reste et va dans les prochaines années remplacer son système Argos actuel par une constellation de satellites, Kinéis. Pour l’instant, un premier nanosatellite a été lancé; le retour d’expérience réalisé sur Angels orientera la suite du programme, dont la finalité est de placer 20 satellites en orbite. Là où Argos est un système de localisation, Kinéis se voit aussi comme un outil destiné au marché de l’IoT, qui devrait être très demandeur dans les prochaines années.
Découverte d’une nouvelle exoplanète en zone «habitable»
On pourrait se dire «encore une !». En effet les annonces de la NASA concernant la découverte d’exoplanètes situées à une distance de leur étoile permettant d’envisager la présence d’eau liquide sur la planète en question se sont multipliées ces dernières années.
TOI700d, c’est son nom, est à une distance de 100 années lumières de la Terre. C’est beaucoup, mais pas tant que ça aux dires du Jet Propulsion Laboratory de la NASA. Et ce n’est pas tout. TOI700d fait à peu près la même taille que la terre (20% de plus), et tourne autour de son étoile en 37 jours.
Cette étoile, TOI700, est plutôt petite, à peu près 40% de la taille du soleil. 4 planètes orbitent autour de TOI700, mais seule TOI700d est à bonne distance de son astre. Les autres (a, b et c) n’intéressent donc pas les astronomes. En termes d’habitabilité s’entend.
Enfin, on sait que cette nouvelle exoplanète a une rotation synchrone, comme la lune. De fait, TOI700d présente toujours la même face à son étoile.
Toutes ces similitudes avec la Terre donnent beaucoup d’espoirs aux astronomes, qui prédisent qu’on trouvera bientôt des traces de vies sur ce type d’exoplanète.
Le 11 décembre dernier, la firme aérospatiale américaine a lancé et récupéré avec succès son lanceur touristique New Shepard. Mission accomplie, le lanceur a réalisé un vol parfait de 10 minutes et 16 secondes, atteignant 105 km d’altitude.
Et comme prévu, l’étage et la cabine du lanceurs ont été récupérés.
Cette mission – baptisée NS 12 – transportait également sa centième charge commerciale.
Le replay de la mission NS 12 :
Mais la grande question qui se pose pour 2020 concerne les vols habités. Cela fait plusieurs années que des rumeurs prédisent des vols spatiaux touristiques imminents. Mais aujourd’hui les choses se précisent. Les sociétés Virgin Galactic et Blue Origin ont annoncé vouloir débuter une activité touristique spatiale dès la seconde partie de l’année 2020.
Virgin a en effet annoncé un premier vol en juin et un prix pour le fameux sésame : 226 000 euros. Blue Origin prépare encore sa capsule New Shepard pour un premier vol habité.
Le programme spatial chinois reprend sa marche en avant
Le 27 décembre dernier, le secteur spatial chinois a pu souffler un grand coup. En effet, le lancement réussi de la fusée lourde chinoise Longue Marche 5 – dite CZ 5 – a permis d’emmener en orbite le satellite militaire de télécommunication Shijian 20, amené à remplacer Shijian 18, perdu lors du fiasco de 2017. Cette année là, le lancement raté de la précédente Longue Marche 5 avait sérieusement entamé le crédit du programme spatial chinois. Voila qui est oublié.
En effet, le CNSA prévoit pour 2020 deux missions vers la Lune et vers Mars. Rien de moins.
La microgravité pour combattre le cancer ?
De nombreuses expériences scientifiques sont menées dans l’ISS. Une équipe de chercheurs australiens prépare une expérience ayant pour finalité l’envoi sur l’ISS de cellules cancéreuses, afin d’étudier leur comportement dans des conditions de microgravité. Déjà étudié en laboratoire, le phénomène pourrait permettre de limiter l’expansion des cancers dans les organismes. Comment ? C’est assez simple. Un cancer apparaît lorsque des cellules d’un organisme se divisent de façon incontrôlée et colonisent un tissu. Par la suite, ces cellules cancéreuses vont s’agglomérer pour former des tumeurs, premier stade de l’expansion du cancer aux tissus encore sains de l’organisme. Mais pour s’agglomérer et former une tumeur, les cellules cancéreuses ont besoin de se repérer et de se diriger, grâce à des forces mécaniques. Ces forces sont étroitement liées à la gravité et elles n’existent donc pas dans les milieux où cette dernière est trop faible. Il s’agit donc d’une piste de recherche intéressante. Le lien vers l’article publié par l’Université australienne à propos de cette mission est disponible ICI.
Située dans la constellation d’Orion, cette « super géante rouge », presque mille fois plus grosse que le Soleil, brille intensément dans le ciel d’hiver, où elle est visible à l’oeil nu grâce à sa couleur orange.
L’étoile figurait parmi les 10 les plus brillantes de la galaxie, mais depuis la mi-novembre, « sa luminosité a chuté de manière drastique, de l’ordre de 70% », explique à l’AFP Pierre Kervalla, de l’Observatoire de Paris – PSL.
Alertés par des observateurs amateurs, des astronomes ont déclenché en décembre une vaste campagne d’observation, mobilisant les plus grands télescopes de la planète, dont le Very large télescope au Chili.
« C’est l’ébullition ! Nous avons monté un groupe de recherche à travers le monde pour utiliser tous les instruments capables d’imager la surface de Bételgeuse », témoigne Eric Lagadec, astrophysicien à de l’Observatoire de la Côte d’Azur.
Et des centaines d’astronomes amateurs sont mis à contribution, et « passent leurs nuits dans leurs jardins ou leurs sites d’observation favoris » afin d’apporter des mesures complémentaires, raconte ce chercheur CNRS.
Plusieurs hypothèses sont avancées: il pourrait s’agir d’une éjection de gaz formant de la poussière et cachant le rayonnement ou … de la mort de Bételgeuse.
Ce dernier scénario se solderait par une explosion en supernova. S’il semble peu probable dans un avenir proche, il fait rêver les astronomes: l’astre en fin de vie n’ayant plus de « carburant » (issu de la fusion nucléaire), son coeur s’effondrerait sur lui-même et formerait une étoile à neutrons, un objet très compact qui crée une onde de choc disloquant complètement l’étoile, le tout en quelques heures seulement.
– « Spectacle inoubliable » –
Depuis la Terre, on observerait alors à l’oeil nu un point aussi brillant que la Lune dans la voûte céleste diurne et nocturne. A cela s’ajouterait un joli spectacle, « celui d’un écho de lumière se propageant autour, comme des ronds dans l’eau », précise Pierre Kervalla.
Au bout de plusieurs semaines, ce point disparaîtrait et formerait une nébuleuse, visible dans le ciel pendant des milliers d’années, à l’instar de celle du Crabe, résidu de la supernova survenue en 1054 (qui fut rapportée par des astronomes chinois).
« Ce serait un spectacle inoubliable pour l’humanité entière. J’espère pouvoir voir une supernova de mon vivant », confie Eric Lagadec. Car ce phénomène n’arrive qu’une fois par siècle dans la Voie lactée, et la dernière formation de supernova observée remonte à 1604.
L’explosion de Bételgeuse est attendue puisque l’astre, âgé de « seulement » 10 millions d’années, est bel et bien en fin de vie.
Mais il est difficile de prédire précisément quand elle mourra, car il n’existe aucun signe annonciateur: « c’est un peu comme un séisme; la veille de l’explosion, l’étoile sera pareille », souligne Pierre Kervalla. Cela pourrait donc arriver dans les semaines qui viennent comme… dans 100.000 ans.
« Nous n’avons aucun moyen de le savoir », reconnaît Andrea Chiavassa, astrophysicien CNRS au laboratoire Lagrange de l’Observatoire de la Côte d’Azur.
Quoi qu’il en soit, cela serait sans danger pour notre planète, dont Bételgeuse est distante de 600 années-lumière. « Si on la voit exploser d’ici, cela signifiera que l’explosion a eu lieu physiquement il y a 600 ans », rappelle Pierre Kervalla.
Sur le plan scientifique, l’évènement permettrait aux astronomes de suivre directement, et pour la première fois de l’histoire, les différentes phases de l’explosion, une précieuse jauge pour mesurer l’expansion de l’Univers. « On comprendrait aussi ce qui va arriver à la future génération d’étoiles », selon Andrea Chiavassa.
En 2019, l’ensemble des incendies mondiaux ont engendré l’émission de 7 273 mégatonnes de CO2. C’est plus que les trois années précédentes mais moins que le record de 2003 avec près de 8 950 mégatonnes. «Globalement, 2019 est une année moyenne lorsque l’on regarde la totalité des émissions liées aux incendies de forêts, estime Mark Parrington, directeur scientifique au CAMS. La particularité est la survenue d’incendies puissants dans des endroits très inhabituels et hors des saisons où ils se manifestent généralement avec des feux qui ont produit beaucoup de fumées.»
Émissions annuelles des feux de forêts dans le monde entre 2003 et 2019. PHOTO//Copernicus
De nombreux incendies ont fait la Une des médias
Les feux de forêt ont été sans précédent en termes d’emplacement, d’ampleur et de durée dans tout le cercle polaire arctique, en Sibérie et en Alaska pendant une période prolongée entre juin et août. Puis, les incendies en Amazonie ont fait la Une des journaux du monde entier en août. Ensuite, les incendies très intenses en septembre en Indonésie, et les feux de brousse en Australie ont aussi fait parler d’eux. «Depuis que nous suivons les incendies mondiaux ces 17 dernières années, nous n’avions pas vu des incendies aussi étendus et persistants dans le cercle Arctique», note Mark Parrington.
En Indonésie, les feux de forêt ont été l’un des incidents les plus intenses depuis près de deux décennies entre août et novembre. En cause : la combustion de tourbières riches en carbone et des conditions plus sèches que la moyenne. Ainsi, l’intensité quotidienne totale des feux a été supérieure à la moyenne des 16 dernières années. Et des milliers de kilomètres carrés de terres importantes sur le plan écologique ont été brûlés, provoquant un brouillard toxique, menaçant la santé de la population locale ainsi que les forêts naturelles et la faune.
Un risque incendiaire qui devrait s’accentuer
Certains incendies moins connus ont également eu des effets importants sur l’environnement et la qualité de l’air, notamment en Colombie, au Venezuela, en Syrie et au Mexique. En Syrie par exemple, au printemps et au début de l’été, la puissance de feu totale détectée était largement supérieure à la moyenne de 2003-2018.
Le risque incendiaire devrait s’accentuer à l’avenir. Dans les cercles Boréal et Arctique, les scientifiques du CAMS ont surveillé plus de 100 feux de forêt en 2019. Ils ont principalement été causés par des conditions exceptionnellement chaudes et sèches dans la région. «Quand nous observons un certain nombre de hotspots incendiaires, nous voyons qu’ils arrivent normalement dans des lieux où les température de surface sont élevées, donc on s’attend évidemment à voir une hausse du risque d’incendies avec le changement climatique», prévient le chercheur.
Surveiller les feux de forêts tout au long de l’année
Les scientifiques du CAMS surveillent les feux de forêt actifs dans le monde entier au quotidien. Pour ce faire, ils utilisent les données provenant des instruments MODIS de la Nasa embarqués sur deux satellites. Ces «radiomètres spectraux pour imagerie de résolution moyenne» détectent la puissance radiative du feu, essentiellement le signal thermique, des incendies actifs.
Grâce à leur système global d’assimilation des incendies (GFAS), les scientifiques du CAMS déterminent ensuite l’emplacement, l’intensité et les émissions des incendies de forêt dans le monde entier. Enfin, en combinant ces émissions avec le système de prévisions météorologiques du Centre européen pour les prévisions météorologiques à moyen terme pour le compte de l’Union européenne (CEPMMT), ils sont en mesure de fournir des informations vitales, par exemple sur la façon dont la qualité de l’air sera affectée, jusqu’à cinq jours en avance.
Voici quelques tendances : l’intelligence artificielle est désormais omniprésente et les constructeurs et équipementiers automobiles sont aux premières loges pour proposer des technologies nouvelles.
L’automobile : star incontestable du CES 2020
À l’instar de son édition précédente, le CES 2020 avait encore une fois des airs de salon de l’automobile. Hyundai, BMW, Audi, Mercedes-Benz, Nissan, Bosch… autant de grands noms réunis pour présenter concept cars et innovations plus modestes, mais tout aussi intéressantes.
Un pare-soleil transparent qui ne cache pas la vue
Les innovations les plus utiles sont parfois les moins spectaculaires. Bosch a ainsi présenté un pare-soleil qui ne gêne pas la conduite en n’obstruant pas le champ de vision du conducteur. Ce pare-soleil du XXIe siècle est un panneau LCD transparent qui assombrit le champ de vision de manière locale, à la manière d’un filtre dynamique. Doté d’une caméra, ce système très sophistiqué est capable de détecter les ombres provoquées par le soleil et d’adapter en temps réel le filtrage.
Un métamatériau pour l’insonorisation 4 fois plus léger
En plus de son nouveau concept appelé Ariya, Nissan a présenté un nouveau matériau acoustique dont les performances sont aussi bonnes que le caoutchouc, mais pour un poids quatre fois inférieur. Ce matériau, composé d’une association d’un film plastique et d’une structure en nid d’abeille, permet ainsi de réduire la transmission acoustique du bruit à large bande, sur la plage de fréquence 500 – 1200 Hz, autrement dit les bruits associés à la route et aux moteurs.
Cybersécurité des véhicules connectés
La problématique récurrente de la cybersécurité des véhicules connectés a également fait grand bruit cette année. Alors que les incidents liés au piratage des véhicules connectés se multiplient à travers le monde, l’entreprise israélienne GuardKnox a démontré en direct ses effets dévastateurs en prenant le contrôle à distance d’un poste de conduite. En effet, la multiplication des processeurs et applications des ordinateurs de bord démultiplie également le risque en fournissant plus de portes d’entrée aux hackers. Le directeur de GuardKnox n’a d’ailleurs pas mâché ses mots à ce sujet : il a évoqué un possible ”11 septembre sur roues” en cas de prise de contrôle d’un camion transportant du carburant.
Une foule d’objets connectés
Cette édition 2020 du CES regorgeait d’objets connectés pour toutes les applications. Dans le domaine du bien-être et de la santé, on pouvait notamment y trouver des objets capables d’améliorer notre sommeil. Ainsi, la startup française Withings a présenté une nouvelle montre connectée appelée “ScanWatch”. Ce dispositif est à la fois capable de mesurer l’activité électrique du cœur, de détecter la fibrillation auriculaire, mais aussi l’apnée du sommeil, grâce à la présence d’un capteur de mesure du taux d’oxygène.
Les entreprises françaises étaient d’ailleurs bien représentées dans ce domaine de la santé connectée qui nous fera bientôt entrer dans l’ère de la médecine prédictive et personnalisée.
Robotique
Ce CES 2020 était pour Samsung l’occasion de présenter “Ballie”, un petit robot domestique de forme sphérique. Ce robot original et utile joue ainsi un rôle de “chef d’orchestre” de la maison connectée, car il est aussi bien capable de contrôler les équipements de la Smart home que de servir de détecteur de chute pour personnes âgées ou encore de surveiller les animaux de compagnie durant votre absence à l’aide d’une caméra.
Enfin, toute une foule de robots plus ou moins utiles ou insolites ont pu être aperçus à ce CES 2020, comme un robot dont le seul rôle est de vous apporter du papier toilette lorsque vous n’en avez plus ou encore un exosquelette qui vous aide dans vos séances de fitness.