État de l’internet en France : bilan de santé mitigé

Dans un gros pavé d’environ 90 pages, le « gendarme des télécoms » dresse « l’état d’internet en France ». Objectif de ce bilan de santé : s’assurer que le réseau de réseaux qu’est internet demeure un bien commun inclusif ».

Les experts de l’ARCEP ont donc ausculté les différents « organes » du web français : réseaux internet fixes et mobiles, progression de l’IPV6, neutralité du net… Le gendarme a mis à l’amende les différents services censés mesurer les performances d’une connexion internet.

C’est un euphémisme de dire que l’ARCEP a constaté que les comparateurs actuels présentent des résultats qui ne sont pas du tout cohérents. Ils ne reflètent en aucun la performance d’un fournisseur d’accès. Les tests que tout les internautes font ne constituent donc pas un élément permettant de déterminer le bon FAI : il y a un facteur de 1 à 5 en ce qui concerne le résultat observé pour la même ligne !

Pourquoi de telles différences ? Elles s’expliquent par le nombre de variables prises en compte (navigateur utilisé, connexion Ethernet/WiFi, etc.). En outre, les classements par débits opérés par les observatoires de la qualité ne différencient pas les technologies utilisées (ADSL, fibre et câble) par les FAI. Devant une telle situation, l’ARCEP va «proposer la version bêta d’un code de conduite et d’une méthodologie » en concertation avec tous les acteurs concernés.

S’agissant de la progression de l’IPv6, l’Autorité avertit que la multiplication des objets connectés va épuiser le stock d’adresses IPv4 encore disponibles d’ici à 2021. À ce jour, seuls deux opérateurs parmi les quatre principaux ont un nombre significatif de clients activés en IPv6.

La moitié du trafic par 4 fournisseurs de contenus….

Concernant la neutralité du net, l’ARCEP estime que « les actions de préventions ont porté leurs fruits » et que la majorité des acteurs français concernés par le règlement européen sur l’Internet ouvert suivent les recommandations. Mais la réalité est-elle aussi rassurante ?

Aux États-Unis, l’abrogation de la neutralité du Net est entrée en vigueur le 11 juin. Une victoire pour l’opérateur américain Verizon et d’autres (AT&T, Charter, Comcast, CenturyLink…) qui militent pour l’autorégulation et la priorisation payante du service d’accès.

Cette situation pourrait-elle déboucher en France sur un internet à deux vitesses ? Netflix et Google (YouTube inclus) ont accaparé près d’un tiers du trafic total en France en 2017 selon l’ARCEP. Le service de streaming vidéo ne représentait que 9% du trafic internet en France en 2016. Au total, les quatre principaux fournisseurs de contenus (Google, Netflix, Akamai, Facebook) cumulent environ 50% du trafic entrant sur les réseaux des principaux FAI en France.

Et cette situation devrait s’accentuer avec la montée en puissance de la fibre optique qui incite à regarder des vidéos sur le web. Quelques jours après la présentation de son second rapport, l’ARCEP a publié les résultats de son observatoire du marché des services fixes à haut et très haut débit. Au cours du premier trimestre de cette année, le nombre d’abonnements très haut débit (débit maximum descendant supérieur ou égal à 30 Mbit/s) a progressé de 505 000 pour atteindre 7,5 millions.

Le nombre total d’abonnements à haut et très haut débit atteint 28,6 millions à la fin du premier trimestre 2018, en croissance de 175 000 en un trimestre et de 685 000 en un an (+2,5%).

Par Philippe Richard

Les voitures électriques pourront-elles bénéficier de la charge ultra-rapide à 350 kW ?

Tesla a installé le premier réseau mondial de superchargeurs de 145 kW. Tesla possède à présent 1229 stations (équipées au total de 9623 chargeurs ultra-rapides de 145 kW) en Europe, dont 62 en France (mai 2018). Les voitures de la gamme Tesla acceptent une puissance de charge de 120 kW, ce qui permet de capturer en environ 40 minutes assez d’énergie pour parcourir 400 kilomètres. 10 kilomètres par minute de charge.

Le 30 novembre 2016, les constructeurs Volkswagen (marques Audi et Porsche), BMW, Daimler (Mercedes) et Ford ont annoncé s’unir pour la création d’un réseau de recharge payant à l’échelle de l’Europe, baptisé Ionity et reposant sur 400 stations-service possédant en moyenne chacune 6 superchargeurs de 350 kW, soit le triple de ceux de Tesla. La promesse de diviser par presque trois le temps de charge. Et d’offrir aux automobilistes européens un point de charge tous les 120 kilomètres. Ionity, co-entreprise 100% privée, est basé à Munich.

Le 24 décembre 2016, répondant à Fred Lambert, fondateur du site Electrek, le PDG de Tesla, Elon Musk, a déclaré: « Du simple 350 kW…A quoi faîtes-vous référence, à un jeu d’enfant ? » Il s’agissait non pas d’une annonce indirecte sur le développement par Tesla de superchargeurs de puissance supérieure à 350 kW (c’est ainsi que les propos de Musk ont été compris par les journalistes), mais au contraire  d’une antiphrase soulignant qu’il était très complexe d’avoir des batteries de voitures acceptant une puissance de charge de 350 kW, que ce n’était pas un jeu d’enfants.

Elon Musk a précisé son propos le 2 mai 2018: « Nous allons effectivement améliorer notre technologie de superchargeurs. Le truc à propos du chargeur de 350 kW c’est qu’il n’a pas beaucoup de sens, sauf si vous avez une énorme batterie ou alors un taux de charge follement élevé, et alors dans ce cas votre densité énergétique va être faible. » Ceci pour éviter que la batterie chauffe et se dégrade.  « Nous pensons que 350 kW pour une voiture seule, vous allez abîmer la batterie si vous faîtes cela. Vous ne pouvez pas charger une batterie de haute densité énergétique avec ce taux de charge, sauf si vous avez une batterie avec une très haute puissance. Donc (pour nous), cela sera quelque chose de 200 à 250 kW, peut-être. »  Les batteries Tesla auront-elles dans le futur un réservoir supérieur à 100 kWh ? Quel niveau de charge maximal sera toléré ? Tesla révélera la nouvelle génération de ses superchargeurs (« V3 ») durant l’été 2018, selon une réponse d’Elon Musk du 21 mai 2018 à Christian Prenzler du média Teslarati.350 kW ? « C’est effectivement un niveau de puissance que nous avons discuté et exploré » a complété le 2 mai JB Straubel, co-fondateur et CTO de Tesla.  « Il y a un compromis, fondamentalement, entre la vitesse de charge et essentiellement l’autonomie, et le coût de la batterie. Nous regardons cela assez attentivement. Nous comprenons le compromis. Nous pourrions concevoir des cellules et un pack qui pourrait charger à plus de 300-400 kW, mais ce n’est pas un compromis très utile pour le client. »

Lors d’un débat à l’occasion du Nordic EV Summit début février 2018 à Oslo en Norvège, Ole Henrik Hannisdahl, directeur de Grønn Kontakt AS, spécialiste norvégien des bornes de charge pour voitures électriques a estimé qu’ « actuellement, il n’y a pas de voitures qui ont besoin d’une puissance de près de 350 kW. (…) Si vous avez une batterie de 100 kWh, vous pouvez charger une puissance maximale de 130 kW (compte tenu du facteur 1,3C, ce qui est normal aujourd’hui). Si vous voulez charger 350 kW avec 1,3 C, vous aurez essentiellement besoin d’une batterie d’une capacité de 280 kWh, c’est à dire qui a une autonomie d’environ 1 500 kilomètres et un poids d’environ une tonne. Ou alors vous êtes à du 4 C. C’est une nouvelle chimie électrique. » Or cette nouvelle chimie est-elle dès à présent disponible ? Le C-rate correspond à la puissance (en kW) du chargeur divisée par la capacité (en kWh) de la batterie. C’est l’inverse du temps de charge. Un C-rate de 2 C correspond à un temps de charge d’1/2 heure. Au Nordic EV Summit 2018 une e-tron a été présentée avec un taux de charge de 320 kW. Mais elle est équipée d’une batterie de 95 kWh du sud-coréen LG-Chem; elle sera donc commercialisée dans une version capable d’accepter une puissance de charge de 150 kW ce qui correspond à un C-rate d’1,6 C. Cela semble plus réaliste. Il est possible de la charger avec du 320 kW, ce qu’a montré Audi, mais cela n’est pas conseillé car cela abîme la batterie.

Porsche Mission E: Icare sous le soleil ?

La Porsche Mission E devenue « Porsche Taycan » et qui débarquera sur le marché en 2019, sera équipée d’une batterie de 90 kWh (tout comme la Jaguar I-Pace) mais est en revanche présentée comme capable d’être chargée avec une puissance de 350 kW, soit un C-rate de 3,9 C. Etrange. Si l’on en croit Elon Musk, il sera probablement possible d’atteindre un C-rate d’environ 2,5 C (225 kW), mais s’aventurer au-delà laisse dubitatif. D’ici 2022 le japonais Honda offrira une gamme de voitures électriques rechargeables en 15 minutes pour 240 kilomètres d’autonomie. Soit 16 kilomètres par minute de charge.
Jan Haugen Ihle, CEO de IONITY pour l’Europe du nord a livré ses explications lors du Nordic EV Summit 2018: «Je pense qu’il y a un besoin de charge de haute puissance. Non seulement dans la ville, mais entre les villes, pour permettre des voyages de longue distance. Je comprends l’environnement maintenant, avec la plupart des voitures ayant environ 30 kWh de batteries. Mais maintenant, elles arrivent avec des batteries plus grosses et la possibilité de faire des trajets plus longs. Ensuite, vous devez avoir une charge plus rapide. Tesla a déjà prouvé cela pendant des années. Le problème avec leurs stations est que vous ne savez jamais quelle puissance vous obtiendrez. Ensuite, vous ne pouvez pas prédire le temps de chargement. C’est pourquoi vous avez besoin d’une capacité suffisante pour garantir au client qu’il peut obtenir la vitesse de chargement dont il a besoin. Pour déployer ces voitures sur le marché, il doit y avoir un réseau qui permet la conduite sur de longues distances. Nous avons donc besoin des deux, une charge rapide plus lente dans les villes pour les personnes sans chargeurs à domicile / batteries plus petites et plus de puissance entre les villes. Alors les gens peuvent gérer avec seulement une voiture électrique à batterie (BEV) Ils n’auront pas besoin de la voiture fossile pour des voyages plus longs

Porsche annonce que la batterie de la Mission E (autonomie de 480 kilomètres) pourra être chargée à 80% en 15 minutes. Avec du 350 kW il est en effet possible de capturer assez d’énergie en 8 minutes pour réaliser 200 kilomètres. Ce sont les chiffres qui ont été communiqués par ABB lors de la foire d’Hanovre début avril 2018, en présence de la chancelière Angela Merkel. Cela correspond à 25 kilomètres par minute, soit 2,5 fois mieux qu’avec Tesla. Avec 225 kW (probablement envisageable), cela sera 16 kilomètres par minutes.  Avec 150 kW, cela sera 11 kilomètres par minute.Mais attention, ceci n’est uniquement valable que pour les voitures équipées de batteries de 90 kWh (et donc bénéficiant d’une haute autonomie). Avec une Nissan Leaf équipée d’une batterie de 30 kWh (et permettant d’avoir une autonomie de 200 kilomètres) les temps de charge seront trois fois plus longs pour obtenir le même kilométrage. Les données communiquées à la foire d’Hanovre peuvent donc induire en erreur. La Nissan Leaf d’ancienne génération, équipée d’une batterie de 24 kWh, accepte d’être chargée sur une borne de 50 kW, autrement dit du 2 C. Cela prend environ 30 minutes. Environ 7 kilomètres par minute de charge. Les futures Nissan Leaf, équipées de batteries de 60 kWh, permettront de bénéficier des superchargeurs de 120 kW et même probablement de 150 kW, bref de monter à un  taux de charge de 2,5 C.Les superchargeurs d’ABB sont de 350 kW, mais deux voitures peuvent s’y brancher. Deux Audi e-tron acceptant chacune 150 kW pourront ainsi en bénéficier.  Le français Total étudie actuellement un plan d’installation  le long des autoroutes françaises d’un réseau  de superchargeurs de 150 kW.  En février 2018 Patrick Pouyanné, PDG de Total a déclaré que le groupe va « regarder comment on va mailler les grands axes français (…) pour que tous les 150 à 160 km, on soit capables d’offrir [ce service] à nos clients ». Shell et l’italien Enel accueilleront les superchargeurs Ionity au sein de leur stations-services autoroutières. Volvo, Fiat-Chrysler, PSA (Peugeot-Citroën-Opel), Jaguar-Land Rover et Tesla seraient en discussions avec Ionity pour rejoindre l’initiative. Shell est actif pour promouvoir les  « longs déplacements en voiture électrique ».Ionity n’est pas une initiative isolée en Europe dans le domaine des superchargeurs 350 kW.  Il y a aussi MEGA-E, par Allego, portant sur 322 stations dans 20 pays européens. A une échelle plus modeste Ultra-E a été initié par Allego, Audi, BMW, Magna et Renault, un réseau de 25 stations le long du trans-European transport network. Il y a encore le petit projet E-Via Flex-E porté par ENEL, Renault-Nissan, EDF, Enedis, Verbund et IBIL, consistant en 8 stations  en Italie , 4 en Espagne et 2 dans le sud de la France. Et enfin Fastned en partenariat avec ABB aux Pays-Bas.Aux USA Volkswagen met en place Electrify America, un réseau de stations-services équipées de superchargeurs, également de 350 kW, pour un montant d’investissement de 2 milliards de dollars. 300 autoroutes américaines seront équipées. Le groupe allemand a bien le projet de concurrencer Tesla, y compris aux USA.

Vitesse de charge: à la recherche du meilleur compromis

Au Nordic EV Summit 2018, Rami Syväri, CEO de Fortum Charge and Drive a estimé que « la plupart des véhicules nécessitent aujourd’hui une charge de 50 kW. Et avec les nouveaux véhicules qui arrivent sur le marché, c’est le prochain niveau d’évolution. Les coûts d’investissement dans la recharge haute puissance sont énormes. Cela aura évidemment un impact sur les prix. Ce que nous avons remarqué lorsque vous voyagez sur de longues distances, vous voulez faire une pause. Vous prenez un café ou mangez quelque chose, et cela prend du temps. En allant jusqu’à 150-350 kW, il y aura une question: êtes-vous prêt à payer pour cette vitesse supplémentaire? Ou êtes-vous en train de dire qu’une pause de charge normale est bonne? Avoir l’option, aller vers le futur, sera génial. Pour aller à l’hôpital, vous ne voulez pas attendre 30 minutes. Une charge de forte puissance sera nécessaire, en particulier dans le segment premium. Mais oui; la question est pertinente: à quelle vitesse devons-nous être? »

Le coût du projet Ionity pourrait s’élever à environ 3 milliards d’euros selon les chiffres qui circulent. Ce qui correspond à 1,2 million l’unité  pour chacun des 2400 superchargeurs. Contrairement à Tesla qui offre l’accès à ses superchargeurs aux clients Tesla, Volkswagen et ses partenaires feront payer à l’automobiliste le plein d’électricité au même prix qu’un plein d’essence. Ils pensent vraiment gagner de l’argent avec ce réseau de charge ultra-rapide. Le recours aux superchargeurs n’est utile que pour les longs trajets et ceux-ci représentent moins de 10% du kilométrage annuel d’un automobiliste standard. Le reste du temps la charge sera effectuée à la maison ou sur le lieu de travail, à un faible coût. Devoir payer plein pot lors des départs en vacances pour gagner un peu de temps, une bonne partie des automobilistes concernés acceptera sans doute. Ionity a déclaré que « les emplacements que nous envisageons sont vraiment de première qualité. Directement sur l’autoroute. Pas loin dans les terres, pas besoin de conduire cinq kilomètres jusqu’au prochain quartier industriel pour trouver une borne de recharge quelque part, sans éclairage, sans installations autour, mais directement sur l’autoroute. » Implicitement visé par ces propos, le réseau de Tesla. Face à la concurrence de  Ionity, Tesla déclare être prêt à ouvrir ses « superchargeurs » aux automobilistes possédant un véhicule électrique d’une autre marque que Tesla…Mais ils devront payer.

Le réseau électrique risque-t-il de souffrir avec l’installation des réseaux de superchargeurs ?  L’entreprise anglaise  Pivot Power,  fondée par un ancien de BNEF, a trouvé la parade: installer 45 super-batteries de 50 MW chacune sur l’ensemble de la Grande-Bretagne, directement reliées au réseau de très haute tension, et installer des super-chargeurs 350 kW  juste à côté. Les batteries serviront ainsi à la fois pour offrir des services au réseau électrique et pour charger les voitures électriques. Platts Power souligne qu’il s’agit du plus important projet de stockage batterie à l’échelle mondiale. En outre la société anglaise Zap & Go (issue de l’université d’Oxford) propose d’installer dans les stations-service des conteneurs équipés de batteries stationnaires rechargés durant la nuit et d’une capacité de 1 MWh.
Pour les pays où le réseau électrique manque de robustesse on peut aussi imaginer l’installation in situ de groupes électrogènes pour alimenter les superchargeurs. Alimentés par des carburants verts (agrocarburant, biogaz etc.). Un concept équivalent à celui des voitures hybrides, mais en version stationnaire.

Batteries solides: « the next step »

Avoir des batteries à haute densité énergétique permet d’avoir de longues autonomies mais réduit en revanche la vitesse de charge possible. Avoir une batterie à faible densité énergétique permet de recourir à des taux de charge élevé car elles chauffent moins. Elon Musk estime qu’ « il est plus important d’avoir une longue autonomie que d’avoir un temps de charge super rapide. Vous pouvez penser à cela dans les appareils que vous utilisez. Préférez-vous avoir un téléphone portable qui se charge en 5 minutes ou 10 minutes, mais qui n’a duré que 2 heures. Ou, si vous voulez un téléphone portable qui peut durer deux jours, et peut-être prendre une heure pour charger? » . Sauf que les nouvelles chimies de batterie pourraient changer la donne.

Le 22 mai 2018 le pétrolier BP a annoncé avoir décidé d’investir 20 M$ dans StoreDot, rejoignant ainsi Daimler qui lui a injecté 60 M$.  Cette start-up israélienne, soutenue par l’homme d’affaire le plus riche de l’état hébreux, affirme sur son site officiel que les batteries innovantes qu’il développe permettront de faire le plein d’électron « en 5 minutes », ce qui correspond à un taux de charge très élevé, de 12 C. Les superchargeurs de 350 kW, mis en avant dans les présentations de Doron Myersdorf, fondateur de StoreDot, pourront alors être utilisés par une voiture équipée d’une batterie de 30 kWh (environ 200 kilomètres d’autonomie). « Nous avons réalisé la charge en 5 minutes au niveau d’une cellule. S’il est possible de le faire au niveau d’une cellule, alors il est possible de le faire aussi au niveau d’un pack batterie. La nouvelle chimie et la nouvelle physique de la batterie sont ce qui permet de charger rapidement » a déclaré Myersdorf fin 2017 à Helsinki. Il est possible que la densité énergétique des batteries StoreDot soit au moins aussi bonne que celle des batteries Tesla car StoreDot annonce une autonomie de 480 kilomètres. Mais avec 350 kW il ne faudra pas 5 mais 15 minutes pour charger une batterie de 90 kWh. Pour tomber à 5 minutes il faudrait des superchargeurs d’1 MW. Tesla développe précisément des superchargeurs ayant cette puissance pour ses camions 100% électriques.

Au CES de Las Vegas le constructeur américain Fisker a présenté un dispositif baptisé « UltraCharge » : il promet de pouvoir récupérer 200 km d’autonomie en 9 minutes, soit 22 kilomètres par minute. Rien d’exceptionnel. Mais avec sa nouvelle batterie solide  (solid-state battery) Fisker  croit pouvoir proposer dès 2022-2023 de capturer en 1 minute assez d’énergie pour parcourir 800 kilomètres. Un taux de charge de 60 C ? Cela semble vraiment étrange.

Panasonic s’intéresse fortement aux batteries solides, tout comme son rival sud-coréen Samsung. Le PDG de Toyota, numéro un mondial de l’automobile, s’est affiché aux côtés du PDG de Panasonic (partenaire clé de Tesla) en décembre 2017, dans la perspective d’une alliance stratégique  dans le domaine des batteries. Toyota va commercialiser des voitures 100% électriques à batterie. Une révolution pour ce groupe qui avait jusqu’alors fait le pari de la voiture à hydrogène. En outre Toyota, Nissan et Honda se sont début mai 2018 associés au gouvernement japonais et aux fabricants de batteries pour accélérer le développement et la commercialisation des batteries à l’état solide.Lors du  salon automobile de Tokyo en octobre 2017, le vice-président de Toyota,  Didier Leroy, a annoncé l’arrivée commerciale de cette « Next Generation » dès 2025. Shinzuo Abe, directeur motorisation chez Toyota a déclaré fin mai 2018 dans le magazine Wards Auto: « Nous voulons que les batteries à l’état solide soient disponibles au début de la décennie 2020. Mais en fait, ce ne sera pas une production de masse, nous commencerons par la production de petits lots et d’essais. 2030 pourrait être un calendrier plus réaliste ». Takao Asami, Vice-Président R&D du groupe Nissan est du même avis: « Toutes les batteries à l’état solide, en gros, sont encore dans la phase initiale de la recherche. Donc, selon mon sentiment, c’est pratiquement un zéro à ce stade. » Asami a reconnu en revanche qu’effectivement, les batteries solides fonctionnaient très bien au laboratoire.

General Motors et Honda ont co-signé le 7 juin 2018 une alliance pour développer ensemble des batteries solides. BMW a investi de son côté en décembre 2017 dans la start-up Solid Power basée dans l’état du Colorado, fondée par l’inventeur de la batterie lithium-ion, John Goodenough, âgé de 95 ans. Aussi étonnant que celui puisse paraître la batterie Solid Power, au lieu de perdre de sa capacité au cours du temps, en gagnerait d’après une publication scientifique datant du 28 avril 2018 et dont fait écho le site InsideEVs. Une évolution qui ressemble un peu à celle de la qualité d’un bon vin.Bosch a abandonné dont projet de GigaFactory de batterie en Europe. Le géant allemand a estimé que pour devenir assez compétitif et alors conquérir 20% du marché mondial il fallait investir 20 milliards d’euros, et que c’était trop risqué. Profitant de ce trou d’air le géant chinois CATL va probablement construire une gigafactory de batteries en Allemagne. Pour ne pas que l’Europe soit dépassée face à la concurrence asiatique et américaine Total, via sa filiale Saft, s’est associé en février 2018 à Manz, Solvay et Siemens pour accélérer la recherche sur la batterie solide, dans le cadre d’un programme à 200 millions d’euros. Le gouvernement français a annoncé le 28 mai 2018 qu’il va injecter 10 millions d’euros pour la première tranche (30 M€) de ce projet qui s’inscrit dans la perspective de la construction d’un « airbus des batteries » européen. Cette annonce gouvernementale, pourtant de très haute importance stratégique, a fait très peu de bruit dans les médias français, Nicolas Hulot ayant décidé de communiquer le 1er juin 2018 sur son plan hydrogène à 100 M€. Si la France (et l’Europe) a raté le train de la batterie lithium classique, il reste (un peu) d’espoir pour qu’elle puisse s’imposer sur les batteries solides. Si et seulement si elle se donne dès à présent vraiment les moyens.  Si ce n’est pas l’Europe qui s’impose, alors cela sera, encore une fois, l’Asie.

Total veut construire une usine capable de délivrer 1 GWh par an de batteries solides dès 2023. Et de 10 GWh/an dès 2025. De quoi commencer à tutoyer la Gigafactory de Tesla dans le Nevada et celles qui poussent comme des champignons en Asie. Le 7 juin 2018 les industriels français accompagnés de la secrétaire d’Etat auprès du ministre de l’Economie, Delphine Gény-Stephann, ont rencontré le commissaire européen, Maros Sefcovic, chargé de l’Union énergétique, pour promouvoir ce projet français de création d’usine de batteries.

Cela va très vite côté asiatique: un responsable de Samsung SDI a déclaré anonymement au Korea Herald que « notre niveau technologique pour produire une batterie solide pour les smartphones sera assez mature en un ou deux ans. » Il a aussi estimé que son concurrent LG Chem était au même niveau technologique que Samsung. « Notre directeur du développement parle des batteries à l’état solide, elles sont encore à quelques années devant nous, mais elles viendront » a déclaré Peter Oberndorfer, directeur de la communication produit et technologie d’Audi.  Elon Musk pense de son côté que les batteries Lithium ion de Tesla auront amélioré leur densité énergétique de 30% d’ici 2 à 3 ans. « Il y aura quelques progrès avec le lithium-ion mais je pense que le vrai progrès est de venir avec un état solide ou similaire » a déclaré de son côté Oberndorfer.Aujourd’hui en 2018 les cellules « solid-state » fonctionnent au laboratoire, même s’il y a encore quelques points techniques à régler. D’où l’effervescence constatée à l’échelle mondiale. En 2019-2020 les premières batteries solides équiperont les téléphones portables. Et en 2020-2025 les premiers tests seront effectués in vivo sur des petits lots de voitures électriques. En 2025-2030 les premières commercialisations auront lieu, à moins que certains groupes tentent de brûler un peu les étapes afin d’être les premiers à conquérir ce marché hautement stratégique, et d’effectuer les tests directement avec leurs clients. Total veut que l’Europe devienne leader mondial, d’où la volonté de construire une gigafactory sur le vieux continent dès 2023.

Si tout se passe comme prévu, ces batteries de prochaine génération offriraient une autonomie de 550 km vers 2025 et atteindraient le seuil des 800 km en 2030, tout en chargeant jusqu’à 80% de leur capacité en moins de 20 minutes. Si les batteries solides débarquent concrètement dès 2023 alors elles rendront obsolètes les voitures équipées de moteurs à combustion interne et couperont l’herbe sous le pied à la voiture à hydrogène dont le principal avantage est de pouvoir faire le plein en 5 minutes en dépit de son efficacité énergétique particulièrement médiocre et de son coût très élevé.  En effet d’ici 2025 il est fort peu probable que la voiture à hydrogène ne se soit imposée face à la voiture à batterie lithium. Par conséquent l’arrivée des batteries solides la tuera dans l’œuf. Le marché des camions et des bus sera lui aussi fortement impacté. Il ne restera à l’hydrogène que le marché des bateaux et des avions effectuant de très longues distances.

« L’électricité est l’énergie du XXIe siècle » (Patrick Pouyanné, PDG de Total)

Total (mars 2018) et l’Alliance Venture de Renault-Nissan-Mitsubishi (février 2018) ont décidé, tout comme Samsung, d’investir dans la start-up américaine Ionic, spécialiste de la batterie solide. Non seulement la technologie de Ionic, reposant sur un polymère innovant, permettra de réduire considérablement le temps de charge des batteries lithium (tout en éliminant le Cobalt) et d’augmenter la densité énergétique, mais elle porte aussi la promesse de remplacer les batteries lithium par des batteries alcalines rechargeables à base de zinc ou, encore mieux, d’aluminium. Ce qui a notamment séduit l’écologiste Amory Lovins, fondateur du Rocky Mountain Institute.
Bill Joy, co-fondateur de Sun Microsystems et investisseur devenu membre du board of directors de Ionic, estime que le coût des batteries solides Ionic  à aluminium, un métal peu coûteux et abondant, pourrait tomber aussi bas que 10 dollars le kWh de stockage dans le futur. Contre environ 200 dollars avec les batteries lithium actuelles. Une révolution non seulement dans le domaine de la mobilité mais aussi pour le stockage stationnaire de l’énergie provenant des centrales éoliennes et solaires. Le magazine Wired a qualifié de « Batterie Jésus » la technologie de Ionic. Elle est attendue comme le Messie.
Toshiba a de son côté développé une batterie permettant en 6 minutes de collecter assez d’énergie pour faire  320 kilomètres; soit 53 kilomètres par minute de charge. Mais elles contiennent du Néobium, un élément très rare, ce qui relativise l’intérêt de cette technologie. La vision de Ionic, à l’inverse, est vraiment prometteuse dans une perspective de développement vraiment durable, car elle repose sur des éléments abondants et intégralement recyclables. Renault-Nissan, numéro un mondial de la voiture électrique, et Total, numéro un français de l’énergie,  ont vu juste.
Jean-Gabriel Marie

Quand la matière transforme une pression rectiligne en torsion

A l’origine, le terme de métamatériau désignait des matériaux artificiels, généralement structurés de manière périodique, dont les propriétés électromagnétiques sont surprenantes. Mais il s’est généralisé à tous les matériaux présentant des propriétés mécaniques, acoustiques, optiques qui sortent de l’ordinaire voire qui semblaient impossibles à des matériaux standards. L’échelle des structures de base de ces métamatériaux est généralement inférieure à la longueur d’onde caractéristique du phénomène que l’on veut contrôler.

C’est ainsi qu’une équipe de l’institut Femto-ST de l’université Bourgogne Franche-Comté et du Karlsruhe Institute of Technology (KIT) en Allemagne a conçu un matériau microstructuré qui a l’étonnante propriété de transformer une contrainte uniaxiale qui lui est appliquée en un mouvement de torsion pure. Une propriété mécanique qui sort tellement de l’ordinaire qu’elle a fait la Une du magazine Science.

metamateriau torsion

Un matériau issu de la fabrication additive

Les matériaux testés sont constitués de microstructures périodiques chirales (donc non superposable à leur image dans un miroir) dont la cellule de base de forme générale cubique a été optimisée par calcul numérique. Ils ont été fabriqués par une technique d’impression 3D micrométrique : un laser à impulsions ultra-courtes qui, en son point focal, polymérise un liquide photosensible. Les échantillons de matériaux, de maximum quelques millimètres ont montré une torsion supérieure à 2° pour 1 % de déformation axiale. Les chercheurs ont fait varier le nombre de cellules de base, de 4 à 500, dans des échantillons toujours de la même taille. Ils ont pu observer les changements de propriétés mécaniques induit par le nombre de cellules telle que l’apparition d’une plus grande rigidité.

Contrôler des ondes élastiques

Désormais, les chercheurs vont s’attacher à montrer que ces mématériaux peuvent être utilisés pour contrôler des ondes élastiques. Ils pourront ainsi être à la base de concept ou système de protection contre des ondes indésirables : ondes sismiques, ondes sonores, vibrations dans les structures aéronautiques etc.

Sophie Hoguin

Des ENR pour la chaleur, le froid et les transports ?

L’électricité renouvelable a gagné 178 gigawatts (GW) de capacités au niveau mondial en 2017. L’année dernière, 70 % des nouvelles capacités électriques installées étaient renouvelables. Le solaire représente de loin la majorité des installations : 98 GW, devant l’éolien (52 GW). Les investissements ont été en hausse de 2,2% pour atteindre 279,8 milliards de dollars.

L’électricité renouvelable continue sa percée

« Les investissements dans de nouvelles capacités de production d’électricité renouvelable ont représenté plus du double de ceux consacrés aux nouvelles capacités à base d’énergies fossiles et de nucléaire combinés », fait savoir REN21. À eux seuls, la Chine, l’Europe et les Etats-Unis représentent près de 75 % des investissements mondiaux dans l’électricité renouvelable. Toutefois, plusieurs pays en développement et émergents apparaissent en tête du classement lorsque les investissements sont mesurés par unité de PIB.

Pour la première fois en quatre ans, les émissions de CO2 liées à l’énergie ont augmenté de 1,4 %. La demande a pour sa part augmenté de 2,1 %. « Le déploiement des énergies renouvelables n’est pas assez rapide pour couvrir l’augmentation de la demande d’énergie, et les investissements dans les capacités fossiles et nucléaires se poursuivent », regrette REN21.

Multiplier les efforts dans tous les secteurs

Au niveau mondial, la part des renouvelables dans l’électricité est d’environ 25 % et elle augmente rapidement. Cette part est de moins de 10 % pour la chaleur et d’environ 3 % dans les transports. REN21 est clair : « Si le monde veut atteindre l’objectif fixé dans l’accord de Paris, le chauffage, le refroidissement et les transports devront suivre le même chemin que le secteur de l’électricité – et  rapidement ». En effet, dans ces secteurs, les énergies renouvelables (ENR) peinent à se développer, alors qu’ils représentent environ 80 % de la demande finale mondiale d’énergie.

Si l’on regarde d’un peu plus près les transports, le véhicule électrique se développe lentement. « L’électricité, dont environ un quart est renouvelable, répond à 1,3% des besoins énergiques des transports, et les biocarburants à 2,9 % », note REN21. Les transports dépendent donc encore à près de 97 % des énergies fossiles.

Se doter d’une vraie volonté politique

Le manque de vision polique se fait sentir. Ainsi, seulement 48 pays ont adopté des objectifs nationaux de développement des ENR pour la chaleur et le froid. Du côté des transports, 42 pays ont adopté de tels objectifs,  alors qu’ils sont 146 à l’avoir fait pour l’électricité.

Malgré les avancées, les énergies fossiles reçoivent toujours trois à six fois plus de subventions que les renouvelables. REN21 invite donc les gouvernements à mettre fin aux subventions pour les énergies fossiles et le nucléaire, « en établissant des objectifs stricts et des politiques publiques en matière de chauffage, de refroidissement et des transports ».

Par Matthieu Combe, journaliste scientifique

France Stratégie prépare l’essor des véhicules électriques

À peine 1 % des véhicules neufs vendus en France sont électriques. Pour passer à 100 % d’ici 2040, France Stratégie a analysé les politiques publiques de trois zones du monde où les ventes de véhicules électriques (VE) dépassent les 10 % : la Norvège, la Californie et trois villes chinoises. L’organisme en tire plusieurs enseignements.

En premier lieu, France Stratégie rappelle l’importance des aides à l’achat et des incitations indirectes : entre autres, gratuité des péages, accès gratuit aux parkings et voies réservées. Par ailleurs, l’organisme propose d’imposer des quotas de ventes de VE et à faibles émissions aux constructeurs.

Toujours plus de bornes de recharge

Pour France Stratégie, « le déploiement des bornes de recharge est une condition préalable nécessaire mais non suffisante au développement du véhicule électrique ».  Dimensionner les points de recharge lents et rapides est « un défi de taille » pour les trente prochaines années, grâce à des financements privés et publics. Ces bornes devront être interopérables, sans imposer d’abonnement.

France Stratégie propose notamment d’imposer l’installation d’un quota de bornes dans le cahier des charges des stations d’autoroutes concédées. L’institution propose également l’installation de points de recharge « à la demande », sur l’espace public, pour donner accès à la recharge aux ménages dépourvus de parking privé. Elle suggère aussi de prendre en charge tout ou parti des coûts d’installation de bornes dans les parkings et garages de logements collectifs.

En outre, France Stratégie invite RTE à préparer le schéma à dix ans pour le renforcement des réseaux de distribution et de transport. Le rapport suggère ainsi de considérer une part de 30 % de VE dans les ventes de véhicules neufs en 2030 .

Un véhicule électrique bon marché ?

« Le véhicule électrique ne prendra son plein essor que lorsqu’il sera accessibles aux ménages des déciles les plus faibles possesseurs d’une automobile », rappelle France Stratégie. Il faudra donc des véhicules moins chers, un marché de l’occasion et des garanties réelles de la part des constructeurs sur la durée de vie des batteries « par exemple de huit années ».

Enfin, France Stratégie incite à développer « un effort conséquent de R&D », concernant notamment les batteries, les nouveaux matériaux, le numérique et le recyclage. Une condition nécessaire pour pérenniser les emplois du secteur et produire ses propres batteries.

Par Matthieu Combe, journaliste scientifique

Nicolas Hulot lance son plan hydrogène

La filière française de l’hydrogène compte des acteurs de premier plan sur toute la chaîne de valeur. Par ailleurs, l’industrie française utilise déjà près d’un million de tonne d’hydrogène pour ses procédés. Produit principalement par vaporeformage du gaz naturel ou gazéification du charbon, l’hydrogène représente près de 3 % des émissions de CO2 en France et près de 26% des émissions du secteur de l’industrie française.

Le premier axe du plan de Nicolas Hulot est donc de développer l’électrolyse de l’eau pour « créer une filière industrielle décarbonée ». Cela comprend aussi bien l’électrolyse faite à partir d’électricité d’origine renouvelable que nucléaire. L’objectif est notamment de passer d’une part d’hydrogène décarboné de 5,5 % à 10 % en 2023 et entre 20 et 40 % en 2028.

Stocker l’hydrogène

Le stockage de l’électricité sous forme d’hydrogène intéresse le gouvernement à deux titres. D’un côté, pour le stockage inter-saisonnier des énergies renouvelables intermittentes sous forme de gaz. De l’autre, pour valoriser sous forme d’hydrogène le surplus de production des énergies renouvelables intermittentes.

À ce titre, Nicolas Hulot veut lancer rapidement des expérimentations dans les territoires isolés. Par ailleurs, il charge EDF et l’ADEME d’identifier le potentiel du stockage par hydrogène pour chaque zone non interconnectée.

Des transports zéro émissions

Enfin, le plan veut développer des solutions zéro émission pour les transports routiers, ferrés et fluviaux. La priorité sera donnée au déploiement des flottes professionnelles captives. D’ici 2023, l’objectif est de déployer 5.000 véhicules utilitaires légers. Ils seront alimentés par 100 stations à hydrogène. En 2028, entre 20.000 et 50.000 véhicules utilitaires légers devraient être alimentés par 400 à 1.000 stations.

Des appels à manifestation d’intérêt seront lancés pour développer les véhicules lourds : bus, camions, trains et bateaux. Les objectifs s’élèvent à 200 véhicules lourds en 2023 et entre 800 et 2.000 en 2028.

Par Matthieu Combe, journaliste scientifique

Le plan Hydrogène peut-il sauver le Ministre Nicolas Hulot ? Patrick Pouyanné (Total) est sceptique

Le « en même temps » aurait-il fait place au « au détriment de » ? Avec Macron et Hulot, « nous sommes entrés dans une ère de régression » de la politique d’environnement s’est indignée Corinne Lepage, dans une tribune publiée le 1 juin dans le Nouveau Magazine Littéraire, c’est-à-dire le jour même de l’annonce en grandes pompes du « plan hydrogène » au Ministère de l’écologie. Pourtant cette ancienne Ministre de l’environnement avait soutenu Macron lors de la campagne présidentielle. « Je ne l’avais pas fait en raison de ses convictions écologistes mais parce que je pensais sincèrement que son intelligence lui avait permis de percevoir la gravité des défis auxquels nous sommes ». Mais « malheureusement, je me suis trompée » reconnaît Lepage.

Ségolène Royal, ancienne ministre de l’environnement, y est elle aussi allé de son couplet le 18 mai 2018 quand Hulot a autorisé au géant pétrolier Total d’utiliser un tiers de million de tonnes d’huile de palme dans sa bioraffinerie de la Mède, ex raffinerie de Provence: « Pourquoi tous ces reculs ? Malgré les pressions j’avais dit NON à l’importation d’huile de palme en raison des ravages écologiques et du bilan carbone désastreux, contraire à l’accord de Paris sur le climat ». Pourtant en février 2017 Ségolène Royal s’était emportée face à des militants anti-huile de palme déguisés en orangs-outans : « ils vont pas nous emmerder ! » (sic) avait lancé la socialiste, ajoutant d’un air ironique : « nous aussi on aime les animaux ! ».

L’immixtion de Ségolène Royal dans la politique gouvernementale actuelle a fait réagir Brune Poirson, collègue de Nicolas Hulot, qui a déclaré publiquement: « Ségolène Royal a une mission très importante. La situation est préoccupante en Arctique et en Antarctique et je ne doute pas qu’elle va mettre toute son énergie exclusivement dans ces régions du monde ». A l’assemblée nationale, visiblement perturbée, Poirson a aussi tenté de retoquer un député socialiste le 29 mai 2018, en argumentant que c’est à cause de l’action des socialistes dans le passé que le gouvernement est aujourd’hui contraint de prendre des décisions anti-écologiques.

Pour Jean-François Julliard, le directeur de Greenpeace France, le projet de Total est emblématique de l’hypocrisie du gouvernement français : « on a le sentiment que malgré de nombreux discours et promesses sur la lutte contre le réchauffement climatique, les actes manquent (…) même le minimum du minimum n’est pas fait. »

Une invitation au voyage

La Députée européenne écologiste Michèle Rivasi a partagé un conseil à Nicolas Hulot: « si tu tiens à ta crédibilité, quitte le gouvernement » ! L’interdiction du glyphosate d’ici 2021 en France ne figure pas dans le projet de loi « agriculture et alimentation ». Là aussi Michèle Rivasi dénonce un renoncement sous le poids des lobbys.  Le député EELV Yannick Jadot estime que l’action d’Hulot au gouvernement constitue : « un formidable gâchis». « La France parle haut et agit bas: Il y a de grandes annonces qui se traduisent par des décisions a minima  » constate l’eurodéputé socialiste français Éric Andrieu, président de la commission PEST (pesticides) du Parlement européen.

« On a épuisé toutes les facettes de la métaphore du vivarium (les couleuvres et autres reptiles de la famille des squamates) ingurgités. Nicolas Hulot est-il utile à la cause qu’il défend ? » interroge France-Inter dans un édito signé Thomas Legrand. « A mon sens et s’il est cohérent avec lui même Nicolas Hulot devrait se poser la question de son maintien dans un tel gouvernement qui renie des engagements élémentaires » estime Corinne Lepage. « Macron, ce sont des grands discours et à la fin, ce sont les lobbies qui gagnent. Hulot est asphyxié, il est totalement impuissant. Quel est l’intérêt pour lui de rester au gouvernement et de servir de caution au pire ? » complète Yannick Jadot dans le JDD. Isabelle Saporta, journaliste spécialisée environnement est plus directe: « Les questions environnementales, Macron, il n’en a rien à foutre. Macron voit ces questions comme une contrainte qui empêche le business model (…) Ce n’est même plus des couleuvres qu’avale Nicolas Hulot, ce sont des boas constrictor. On peut pas dire qu’on est écolo et signer tous les trucs les plus dégueulasses qui soient. »

Make our planet great again ? « Voilà, ça fait un an. Une année entière de duperies, de renoncements, de reculs : climat, nucléaire, biodiversité, pollution de l’air, agriculture, alimentation, condition animale, huile de palme, et tant d’autres… Une année d’inaction, une année de perdue » a regretté, également le premier juin, l’équipe de communication d’EELV.

Et il y a aussi le dossier d’un incinérateur en Corse qui fait polémique. « Nicolas Hulot affirme que les incinérateurs sont désormais moins polluants qu’auparavant et demande qu’on refasse un point sur les critères de dangerosité et d’approvisionnement » a rapporté la radio France Bleu. Et d’ajouter :« Le collectif de défense de l’environnement « Zero Frazu – Zéro déchet », s’interroge sur cette position affichée par le ministre. Est-elle neutre, au regard les liens entre sa fondation et certains industriels et grands groupes, notamment de l’énergie et des déchets ? »

Le plan d’Hulot : entrer dans « une nouvelle ère »

C’est dans ce contexte pour le moins tendu et erratique que Nicolas Hulot a lancé le 1 juin son fameux « plan hydrogène ». Le Ministre voit déjà la France devenir « leader mondial » de cette technologie et, l’air de rien, est même allé jusqu’à considérer que « nous sommes entrés dans une nouvelle ère. »  Il n’y a pourtant aujourd’hui que 260 voitures à hydrogène immatriculées en France (alimentées par de l’hydrogène qui est à 95% d’origine fossile en France) et le « plan hydrogène » n’en prévoit que 5000 pour 2023, soit 120 fois moins que le nombre de voitures à batterie qui circuleront probablement dans l’hexagone à cette date d’après les projections disponibles. Le parc automobile français compte 40 millions de véhicules.

Ce plan n’a pas seulement laissé sceptique Matthieu Pechberty, Grand reporter à BFM Business, qui a souligné dans une émission intitulée « Hydrogène : un coup d’épée dans l’eau ? » que « Nicolas Hulot est dans un moment politique où il n’est pas bien, il se prend des revers dans le domaine énergétique à cause du nucléaire, il a besoin de montrer qu’il s’agite un peu sur son terrain de jeu ». En effet le numéro un français de l’énergie, Total, a lui aussi partagé ostensiblement son scepticisme. La voiture à hydrogène ? « C’est encore très cher ».  Cette déclaration du PDG de Total lors de son Assemblée Générale des actionnaires au Palais des Congrès à Paris le 1er juin 2018 n’a pas échappé à l’équipe du média Bloomberg qui a titré : « Total pas convaincu par les voitures à hydrogène alors que le gouvernement annonce des subventions », article diffusé notamment par le Jakarta Post en Indonésie. Le journal économique Les Echos souligne qu’« à une question sur le développement de l’hydrogène, Patrick Pouyanné a dit que l’infrastructure pour cette énergie était très coûteuse et que cette technologie mettrait du temps avant de s’imposer. » A l’occasion d’une interview pour le quotidien Ouest-France (édition du 1er juin) Patrick Pouyanné a complété son propos:  « Quand on fait les calculs économiques et que l’on regarde la filière hydrogène, on a du mal a se convaincre qu’elle a un horizon à 10 ans. Cela coûte encore très cher. La batterie électrique a aujourd’hui un temps d’avance. Toyota, qui était complètement allé sur l’hydrogène, est d’ailleurs revenu sur l’électrique. » Le PDG de Total a aussi déclaré:  « Je pense que les gouvernements n’ont pas à décider des solutions technologiques. Et je trouve, qu’en ce moment, ils en font un peu trop à notre place. Ce qu’ils doivent faire, c’est fixer des limites d’émission, à nous de choisir l’innovation, la solution technologique.»

Dans la ville de Pau, dont François Bayrou, un proche d’Emmanuel Macron, est Maire, l’investissement dans 8 Bus à hydrogène et une station de charge coûte 13,5 M€. Comme l’a remarqué la chaîne LCI c’est deux fois plus cher que les Bus à batterie. Pour être viable le projet a donc été copieusement gavé de subventions européennes et régionales : 7 M€ d’aides publiques, soit 52% du montant du projet et presque 1 M€ par bus…Pour Micheal Liebreich, fondateur de l’agence Bloomberg New Energy Finance, « les voitures à hydrogène sont une solution inférieure à la recherche d’un problème ! Leur attractivité pour les décideurs ignorants, heureux de gaspiller l’argent des contribuables, ne cesse de m’étonner. Mais l’inefficacité chimique inhérente n’est pas quelque chose que la réduction des coûts pourra jamais résoudre. »

Planète Ushuaïa

L’ingénieur polytechnicien Loïk Le Floch-Prigent, ancien dirigeant de Gaz de France (GDF)  souligne dans une tribune ( « Plan hydrogène : les étranges choix de Nicolas Hulot » ) publiée le 2 juin 2018 sur le site Atlantico.fr que « l’H2 vert, c’est-à-dire issu d’énergie renouvelable produisant de l’électricité puis fournissant de l’H2 par électrolyse n’est qu’anecdotique. Tous les rendements successifs sont affreux et conduisent à un prix de la « verdeur » inacceptable ». Un véhicule à hydrogène consomme en effet deux à trois fois plus d’électricité qu’un véhicule à batterie équivalent. « A un moment, il faut revenir sur notre planète avec ses caractéristiques physiques et ses lois » ajoute Le Floch-Prigent.  « Chaque changement d’état conduit à des pertes, et donc multiplier les changements d’état multiplie les pertes et pas plus Monsieur Hulot que moi ne pourrons rien y changer… mais peut-être sur une autre planète. Moi, je préfère la notre pour l’instant. »

Julien Bayou, porte-parole d’EELV, a de son côté refusé d’être mené en bateau : « Grand plan d’investissement ? Les choses en grand ? Avis aux journalistes : opération enfumage. 100 millions d’€ c’est le coût d’environ deux lycées. Ce n’est pas avec ça que l’on prépare la prochaine révolution industrielle… ». Selon Florence Lambert, directrice du CEA-Liten, dans une tribune publiée le 1er juin sur le site officiel du CEA, « un stockage électrique inter-saisonnier à base d’hydrogène ne serait nécessaire qu’à partir de 60% d’énergies renouvelables dans la production totale… ce dont nous sommes encore loin. »

« La France est un petit pays » rappelle Matthieu Pechberty de BFM, et les 0,1 milliard d’euros annoncés par Hulot sont vraiment une goutte d’eau. Pour provoquer un effet d’échelle et ainsi parvenir à baisser les coûts de la filière hydrogène, il faudrait investir des milliards, voire des dizaines de milliards d’euros dans de gigantesques usines d’électrolyse alimentées elles-mêmes par d’énormes centrales solaires et/ou éoliennes. Si le coût de l’hydrogène issu de l’électrolyse ne parvient pas à baisser massivement alors l’hydrogène restera majoritairement produit à partir d’hydrocarbures en émettant 13 kilos de CO2 par kilo d’hydrogène. En outre les 100 millions d’euros annoncés par Nicolas Hulot (dont la moitié pour subventionner les voitures à hydrogène) reposent sur une base qui semble fragile. Dans un article intitulé « Hydrogène : le plan ambitieux mais sans-le-sou de Hulot » Le Parisien a en effet rapporté que « pire, selon nos informations, Bercy, qui tient les cordons de la bourse, n’aurait absolument pas donné son accord définitif sur la partie financière du plan. « Nous ne l’avons pas validé car nous n’en avons pas eu connaissance en détail », justifie-t-on au ministère de l’Economie. « Les réunions interministérielles qui ont été organisées autour de cette thématique ont en effet été loin d’être concluantes », confirme une source proche du dossier. »

L’hydrogène ? Une nouvelle « religion »

« Sur l’hydrogène, ma religion est faîte » a déclaré Hulot le 1er juin, manifestement emberlucoqué et à quelques mètres d’une maquette d’Energy Observer, le premier navire à prolongateur Hydrogène . « Oui ! L’hydrogène vert est l’une des solutions d’avenir pour la transition énergétique ! » a renchérit sur Twitter Mathieu Orphelin ex-directeur de la Fondation Nicolas Hulot et devenu Député étiqueté En Marche. Le Journal de l’Environnement lui a répondu : « Et elle le restera encore longtemps ». En effet, il y a 20 ans, l’hydrogène était déjà présenté comme une solution du futur. On peut même remonter à Jules Verne. L’espoir fait vivre.  La France, technologiquement larguée dans le domaine des batteries lithium face à l’Asie et l’Amérique, tente de s’accrocher aux branches de l’hydrogène.

« 100M€ sur l’hydrogène alors que c’est une impasse technologique coûteuse. Par contre pour la solution vélo on entend pas grand chose. S’il n’y a pas un Plan Vélo sincère et financé, ce sera une nouvelle victoire des lobbies contre la société civile  » s’est exclamé le 1er juin Charles Maguin, président de l’association cycliste Paris en Selle.

« Mi-mai, un proche du ministre confiait qu’il était « déprimé » et « n’y [croyait] plus » rappelle le JDD. Selon elle Hulot avait voulu présenter sa démission fin avril, avant d’en être dissuadé par Emmanuel Macron. Il ne devrait « plus rester très longtemps » explique le JDD. Une thérapie sous masque à hydrogène suffira-t-elle ? Le 1er juin Patrick Pouyanné a un peu coupé le tuyau qui alimente ce masque.

« Qu’il parte ou non, les amarres sont rompues entre Nicolas Hulot et le gouvernement. La semaine qui s’est achevée laissera des traces indélébiles, et pas seulement pour lui-même et pour l’environnement. C’est l’ensemble du quinquennat que son échec éclabousse » estime Hubert Huestas de Médiapart dans un édito du 4 juin 2018 intitulé « Le naufrage emblématique de Nicolas Hulot« .

Terre de feu

La présidente de la FNSEA (Fédération nationale des syndicats d’exploitants agricoles) va peut-être aider Hulot à accélérer sa prise de décision. « La goutte d’huile qui a fait déborder le vase » : Christine Lambert a annoncé le blocage de la totalité des raffineries françaises à partir du 10 juin afin d’interdir l’alimentation de la bioraffinerie de la Mède avec de l’huile de palme importée. Elle s’est déclarée indignée que les agriculteurs français, qui produisent des huiles végétales, soient ainsi sacrifiés sur l’autel de la vente d’avions militaires Rafale à la Malaisie. Parvenir à unir à la fois la FNSEA et les écologistes contre soi, c’est incontestablement une prouesse remarquable. La palme. Et là ce n’est pas un mirage.

Jean-Gabriel Marie

Un robot aérien capable de modifier sa forme en plein vol

Il peut en effet changer l’orientation de ses bras, munis de moteurs et de pales pour se propulser comme un hélicoptère, pour réduire son envergure et naviguer dans des espaces encombrés. Ces travaux, publiés le 30 mai 2018 dans Soft Robotics Journal, ouvrent la voie à une nouvelle génération de robots de grande taille capables de se faufiler dans des passages étroits, un nouvel outil idéal pour les missions d’exploration et de secours.

Les oiseaux et les insectes ailés possèdent une formidable capacité à réaliser des manœuvres rapides pour éviter les obstacles qu’ils rencontrent durant leur vol. Cette grande agilité est nécessaire pour naviguer dans des lieux très denses tels que des forêts ou des environnements très encombrés. De nos jours, des engins volants miniatures sont eux aussi capables d’adapter leur posture (en roulis ou en tangage par exemple) pour passer dans une ouverture étroite. Il existe cependant un autre type de stratégie tout aussi efficace permettant aux oiseaux de traverser un passage resserré à grande vitesse et ce en dépit d’une envergure imposante : ils peuvent modifier subitement leur morphologie durant le vol en repliant leurs ailes et ainsi passer avec aisance à travers toutes sortes d’obstacles.

Les robots volants seront de plus en plus amenés à évoluer dans des milieux très encombrés pour des missions de secours, d’exploration ou de cartographie. Ces robots devront donc éviter les nombreux obstacles et franchir des passages plus ou moins exigus afin de remplir leur mission. Dans cette optique, les chercheurs de l’Institut des sciences du mouvement – Étienne Jules Marey (CNRS/Aix-Marseille Université) ont conçu un robot volant, capable de diminuer son envergure en plein vol pour passer à travers une ouverture sans avoir un pilotage agressif, trop couteux en énergie.

Ce nouveau robot, appelé Quad-Morphing, est doté de deux bras sur lesquels sont fixés deux moteurs munis chacun de pales qui lui permettent de se propulser comme un hélicoptère. Grâce à un mécanisme mêlant câbles souples et rigides, il est capable de modifier l’orientation de ses deux bras, c’est-à-dire de les orienter parallèlement ou perpendiculairement à son axe central, et ceci en plein vol. Il parvient ainsi à réduire son envergure de moitié, à franchir un passage étroit, et à se redéployer, le tout à une vitesse très élevée pour un robot aérien (9 km/h).

L’agilité du Quad-Morphing est  actuellement déterminée par la précision de son autopilote, qui déclenche le changement d’orientation des bras à l’approche d’un obstacle étroit sur la base de sa position fournie par un système de localisation 3D développé au laboratoire. Les chercheurs ont cependant équipé le robot d’une mini-caméra capable de capturer des images à haute cadence (120 images par seconde), ce qui lui permettra à l’avenir d’estimer par lui-même la taille de l’obstacle et de prendre la décision de se replier ou non. Les tests de cette nouvelle version du Quad-Morphing ont débuté en mai 2018.

robot-oiseau-cap

Source : cnrs

L’Europe et IA : mobilisation générale

L’union fait la force ! C’est la raison pour laquelle les 25 pays ont signé à la mi-avril une déclaration commune dans laquelle ils s’engagent à accentuer leur coopération dans l’IA. Mais ils doivent aussi accélérer les investissements dans la recherche et l’innovation.

L’Europe montre la voie. Les investissements de la Commission dans le cadre du programme de recherche et d’innovation Horizon 2020 passeraient à 1,5 milliard d’euros pour la période 2018 – 2020. Doté d’un budget global de 79 milliards d’euros, il permet de financer « des projets résolument interdisciplinaires, susceptibles de répondre aux grands défis économiques et sociaux ». L’IA peut répondre en partie à ces problématiques dans certains secteurs critiques, comme la santé et les transports.

Comme aux États-Unis notamment, l’Europe doit renforcer et multiplier les partenariats public-privé dans le domaine de l’IA mais également dans la robotique et le big data. De son côté le Fonds européen pour les investissements stratégiques va soutenir les start-ups qui se lancent dans l’IA avec une enveloppe de 500 millions d’euros.

Création de valeurs

Tous ces crédits permettront-ils à l’Europe de relever ces défis ? Peut-être, mais il faudra aussi se concentrer sur les limites de l’IA. Dans un rapport intitulé « Notes from the AI frontier, insights from hundreds of use cases », et publié en avril dernier, McKinsey Global Institute a cherché à être concret le plus possible.

Ses analystes ont décortiqué plus de 400 cas d’utilisation dans 19 secteurs d’activité et neuf entreprises. L’IA va permettre d’optimiser les services aux clients, les recommandations d’achat et la tarification dynamique. Elle permettra aussi d’améliorer la logistique et la maintenance prédictive.

Les principaux bénéfices de l’Intelligence artificielle ont déjà été présentés dans de nombreux articles de presse. McKinsey évalue la création de valeurs avec l’intelligence artificielle (IA) entre 2850 et 4730 milliards d’euros par an et à travers le monde. Mais le cabinet constate également qu’il reste encore quelques points de blocage. Il y a tout d’abord, il y a le recueil et la préparation des données. « Ironiquement, l’apprentissage automatique exige souvent beaucoup d’efforts manuels. De nouvelles techniques prometteuses émergent pour relever ce défi, comme le renforcement de l’apprentissage et la formation », lit-on dans ce rapport.

Compréhension

Deuxièmement, McKinsey pointe du doigt la difficulté d’obtenir des volumes de données qui soient suffisamment importants et complets pour être exploités par différents métiers ou secteurs sensibles (essais cliniques par exemple). Les analystes constatent aussi qu’il est encore très difficile d’expliquer de façon simple, à des décideurs, des modèles complexes. Enfin, beaucoup de modèles d’IA ne peuvent pas être généralisés.

Reste l’épineuse question des emplois qui seront automatisés. Mais selon ces analystes, « les prédictions désastreuses selon lesquelles les robots prendront nos emplois sont exagérées ».

Philippe Richard

Dans l’espace aussi le «tout électrique» fait son chemin

Utilisées depuis plus de 20 ans, les technologies de propulsion électrique ont fait des progrès en matière d’autonomie, de miniaturisation, de performances qui les destinent à des projets toujours plus grands. La première sonde équipée d’un tel système de propulsion était Deep Space 1 en 1998. D’autres sondes marquantes ont suivi : Dawn, Smart 1 et Hayabusa. Permettant non seulement aux Américains mais aussi aux Européens et aux Japonais de maîtriser cette technologie issue de la recherche russe des années 1960. Le principe de fonctionnement de cette propulsion électrique est de créer un plasma (gaz de particules électriquement chargées) puis de l’accélérer via des champs électriques ou magnétiques. L’accélération des ions entraîne une réaction de sens opposé qui constitue la propulsion. Juste avant la sortie, les ions récupèrent leurs électrons afin de recréer la neutralité électrique tant du véhicule que du carburant éjecté. Aujourd’hui le carburant le plus couramment utilisé est le xénon. Pour effectuer l’ionisation, il faut tout de même disposer d’énergie électrique. Elle est pour l’instant obtenue via des panneaux solaires mais des systèmes à base de réactions nucléaires sont envisagées comme alternative : soit avec des générateurs thermoélectriques – l’alimentation en chaleur est assurée par la désintégration d’un isotope radioactif, soit avec des réacteurs nucléaires à fission.

Deux technologies majoritaires

On distingue couramment deux options technologiques principales dans la propulsion électrique. D’une part les moteurs ioniques à grilles et d’autre part les moteurs à effet Hall. Dans le premier cas, le champ électrique est créé par deux grilles polarisées. Dans le second, la poussée est plus importante et le champ électrique est issu à la fois d’un champ magnétique induit par deux bobines placées au centre et à l’extérieur d’une cavité cylindrique et d’une différence de potentiel entre une anode et une cathode. L’option ionique à grille est très économe en carburant mais la poussée y est inférieure et plus longue à être amorcée. Elle est donc plutôt préférée pour les longues missions interplanétaires. D’autres variantes sont à l’étude, dont la plus puissante est le propulseur magnétoplasmadynamique (MPD). Il vise à supprimer les collisions entre électrons, atomes et ions qui sont générées dans un moteur à effet Hall du fait de la forme circulaire du courant en créant un courant aligné avec le champ électrique. Le fonctionnement est basé sur la combinaison de deux champs (électrique et magnétique) pour fournir une force de Lorentz axiale. Ce propulseur possède plusieurs avantages : la poussée peut être ajustée par la variation du courant électrique ou la quantité de gaz injecté et les poussées sont 100 fois plus importantes qu’un moteur ionique de base. Les inconvénients ? Il nécessite des courants électriques de plusieurs centaines de kilowatts et doit donc faire appel à une source nucléaire et il érode les éléments du moteur comme les électrodes beaucoup trop vite.

Toujours plus grand !

L’un des projets les plus avancés en matière de propulsion MPD est celui de la société Ad Astra Rocket en contrat avec la Nasa  dans le cadre du programme NextSTEP (Next Space Technologies for Exploration Partnerships) pour le développement d’un propulseur MPD baptisé VASIMR VX200. En 2017, l’étape des 10h de fonctionnement à 100kW a été validée. Les tests de 2018 doivent valider un fonctionnement de 100h continues.

Mais des records de poussées ont aussi été enregistrés pour un propulseur à effet Hall. Le propulseur X3 étudié par une équipe de l’Université du Michigan en partenariat avec Aerojet Rocketdyne pour le compte de la Nasa (là aussi dans le cadre du programme Next), a réussi ses essais en 2017 avec 10h à 100kW pour une poussée de l’ordre de 5,5 Newtons. Cette année sera aussi pour ce moteur l’année du test des 100h. Reste que les moteurs actuellement utilisés sont encore modestes même si déjà bien plus performants que celui de la sonde Dawn ou Smart 1. Ainsi, le nouveau moteur ionique d’Aerojet Rocketdyne’s qui était prêt pour les tests en vol et qui devait équiper la mission DART (Double Asteroid Redirection Test) en 2021 de la Nasa – annulée fin 2017 – présente pour l’instant une puissance maximale de 7kW.

Toujours plus petits !

Si d’un côté on recherche des poussées toujours plus grandes, on recherche aussi à rendre cette technologie vraiment plus compacte et encore plus économe pour pouvoir équiper des satellites de très petites tailles : du Cubesat aux microsatellites en passant par les nanosatellites.

Cela passe par des évolutions comme celle proposée par le laboratoire Icare du CNRS avec un propulseur de Hall « sans parois » : les ions sont produits et accélérés hors du réacteur afin d’éviter le contact entre plasma et parois du moteur pour éviter l’usure des composants. Une technologie qui permettrait aussi d’alimenter le moteur en électricité en courant continu directement depuis les panneaux solaires sans dispositif de conversion du courant. Les recherches s’orientent aussi vers d’autres carburants que le xénon et sur des nanotechnologies.

Ainsi, de son côté, la société américaine Accion Systems a dévoilé un moteur basé sur une puce de propulsion de la taille d’une pièce de moins de 2cm munie d’une centaine de micropropulseurs. Assemblées en tuile, 36 puces forment le TILE (Tiled Ionic Liquid Electrospray) qui peut servir de base de propulsion pour des micro-satellites (200kg max). Le carburant est un sel liquide non toxique qui n’a pas besoin d’être stocké dans des chambres pressurisées et qui évite de nombreux autres éléments comme une grande chambre d’ionisation ou des cathodes externes. L’alimentation se fait directement via une batterie alimentée par les panneaux solaires du satellite. A l’été 2017, Accion Systems a trouvé un partenaire dans le fabricant de plateformes satellitaires York Space Systems pour pouvoir fournir dès qu’il est prêt son moteur lors de missions spatiales réelles. « Et pourquoi pas dans 15 ans, faire du TILE le support à véhicule voyageant vers Mars… » se prend à rêver Natalya Bailey, PDG et co-fondatrice d’Accion Systems.

accion
Une puce de propulsion conçue par Accion Systems, plus petite qu’une pièce de 25cts de dollar, elle contient des centaines de micropropulseurs qui émettent des flux d’ions. Le système du moteur TILE s’appuie sur 36 de ces puces. Crédit @Accion Systems du TILE

Toutes ces avancées montrent que, si en matière de propulsion ionique, les propulseurs de Hall sont encore majoritaires aujourd’hui, les progrès de la micropropulsion pourraient bien marquer l’avènement d’une nouvelle ère spatiale où sondes d’explorations et satellites seraient beaucoup plus petits mais beaucoup plus nombreux, moins chers à la fabrication, plus facilement remplaçables et voleraient en flotte.

Sophie Hoguin

Propulsion chimique : méthane à tous les étages

C’est le grand dada du moment : utiliser du méthane comme ergol pour les futurs moteurs chimiques des lanceurs. Pourquoi le méthane ? Car même s’il est moins puissant que l’hydrogène, il est beaucoup moins coûteux et facile à manipuler – il est liquide à -161°C contre -253°C pour l’hydrogène. Cette température, proche de l’oxygène liquide (183°C), permet des simplifications dans l’architecture du moteur pour le stockage des deux ergols. En effet, il peut par exemple être utilisé pour pressuriser les réservoirs d’ergols (pressurisation autogène), ce qui élimine le besoin de systèmes de pressurisation complexes et coûteux à base d’hélium par exemple. En outre, le méthane est six fois plus dense que l’hydrogène, il prend donc six fois moins de place. Les étages de fusées pourront être plus compacts et potentiellement plus faciles à récupérer pour être réutiliser.

L’Europe mise sur Prometheus

Pour les lanceurs européens, dont Ariane 6, le moteur phare sera Prometheus (pour Precursor Reusable Oxygen METHane cost Effective propUlsion System) qui, comme son acronyme anglais l’indique, est un moteur qui fonctionne à l’oxygène et au méthane et qui doit être réutilisable. Il vise bien sûr aussi une réduction des coûts ! Prometheus disposera d’une poussée variable d’un maximum de 100t et Ariane 6 décollera équipée de 7 d’entre eux. Les premiers essais d’allumage ne sont prévus qu’en 2020 et l’intégration sur les lanceurs à l’horizon 2030. La série des moteurs actuels, Vulcain, a donc encore de beaux jours devant elle.

Prometheus est en début de fabrication dans l’usine d’ArianeGroup à Vernon (Eure) où les premières pièces fabriquées par fabrication additive sont sortis l’été dernier (générateur de gaz). L’utilisation de la fabrication additive et un dispositif industriel conçu pour la production de 50 moteurs par an doit permettre de diviser par 10 le coût de production par rapport à Vulcain 2. Portant le tarif d’un moteur à « seulement » 1M€.

Illustration du moteur Prometheus. Prometheus (Precursor Reusable Oxygen METHane cost E!ective propUlsion System) est un moteur de rupture a tres bas cout, reutilisable et fonctionnant a l’oxygene liquide et au methane. Il possedera une poussee variable avec un maximum a 100 tonnes. Universel et bon marche, il sera utilisable sur toute une gamme de lanceurs futurs, du micro-lanceur a une evolution d’Ariane 6, en version consommable ou reutilisable si l’interet economique de la reutilisation est demontre, en moteur d’etages inferieur et superieur.

Les Américains aussi carbureront au méthane

L’Europe n’est pas la seule à opter pour le méthane. Blue Origin et son moteur BE4 avance aussi. La société fondée par Jeff Bezos, le PDG d’Amazon, a en effet annoncé en janvier 2018, qu’un nouveau test au feu du moteur BE-4 a été effectué avec succès après celui déjà annoncé en octobre 2017.

BE-4-hotfire
crédits @blueorigin

Ce moteur doit notamment équiper le lanceur lourd New Glenn dont le premier vol est prévu en 2020. Il est toujours en compétition pour équiper la future fusée réutilisable Vulcan de United Launch Alliance (ULA). La décision devrait être prise dans les prochains mois. Le test, réalisé à pleine puissance, a montré que les objectifs d’impulsions spécifiques étaient même dépassés. Cet essai avait notamment pour but de vérifier la réutilisation des pompes hydrostatiques et la stabilité des processus de marche/arrêt. Une variante de ce moteur le BE-4U doit en effet pouvoir équiper l’étage supérieur de la New Glenn et permettre ainsi la mise en orbite de plusieurs charges utiles différentes. La New Glenn, qui doit être disponible en version deux ou trois étages, dont le premier réutilisable sera propulsée par une poussée de l’ordre de 176 tonnes (3,85 millions de livres) grâce à 7 BE-4 et devrait pouvoir mettre en orbite basse un peu moins de 50t.

De son côté, Space X travaille à son Raptor. De multiples versions de ce moteur fonctionnant au méthane ont été présentées depuis les débuts du projet en 2009. La version en cours, dont les tests d’allumage sur banc d’essais ont commencé, est finalement la plus petite et doit servir de base à la propulsion de la BFR (Big Fucking Rocket), un lanceur très lourd destiné aux lancement nécessaires aux voyages interplanétaires qui serait pourvu d’une trentaine de Raptors.

Plusieurs autres projets sont aussi en cours ailleurs dans les grandes nations spatiales comme en Russie ou en Chine.

Plus efficace et moins chère

Pour rendre la propulsion chimique plus efficace et attractive, la tendance est à l’optimisation. Du côté d’Ariane, il s’agit par exemple du moteur Vinci pour l’étage supérieur des lanceurs moyens/lourds de l’ESA qui doit apporter plus de polyvalence à Ariane 6. Fonctionnant à base d’ergols liquides (hydrogène et oxygène), il aura par exemple une capacité d’allumages multiples : il pourra se ré-allumer en vol autant de fois que nécessaire pour placer plusieurs charges utiles en orbite à différents endroits, selon les besoins. Une propriété essentielle à l’heure du développement des constellations de satellites. Vinci subit actuellement ses derniers tests avant essais en vol et la fabrication des premières pièces des moteurs de vol sont déjà sorties des usines.

Pour la Nasa, la future « Méga » fusée SLS qui doit être capable d’emporter une capsule Orion avec des passagers pour 2020 sera équipée de moteurs RS25 d’Aerojet Rocketdyne un peu revisités.

Les quatre moteurs RS25 qui doivent équiper le futur lanceur SLS. crédits @Aerojet Rocketdyne
Les quatre moteurs RS25 qui doivent équiper le futur lanceur SLS. crédits @Aerojet Rocketdyne

Le dernier test effectué en décembre 2017 visait ainsi à valider l’un des quatre contrôleurs du moteur qui optimise son fonctionnement avec les données des ordinateurs de vols et les paramètres mesurés dans le moteur. L’essai visait aussi à valider la plus grande pièce de moteur de fusée imprimée en 3D par la Nasa : un système amortisseur d’effet POGO (vibrations provoquées par les fluctuations de poussée du moteur qui peuvent entrer en résonance avec la structure et détruire le lanceur). La fabrication additive doit permettre de réduire les coûts de fabrication du moteur RS-25 de l’ordre de 30 %. Rien que pour l’amortisseur POGO, imprimée en deux parties par fusion laser, le nombre de pièces est passée de 28 à 6 et le nombre de soudures originelles de 123 à 27.

Le chimique fait aussi dans le petit

Les innovations en matière de propulsion chimique ne sont pas réservées aux très gros moteurs. Des solutions voient aussi le jour pour les nanosatellites. Notamment via des systèmes de propulsion par gaz froid miniaturisés. Ainsi, le GomX-4B de l’ESA, lancé en février 2018, est muni de deux paires de petits propulseurs qui ressemblent à des briquets de cigarettes.

GomX-4_pair
La paire de cubesat GOMX4, dont le A est muni de micropropulseurs à butane. crédit @ESA

La mission GomX-4 vise à tester cette propulsion et la communication par radio entre plusieurs satellites (dans ce cas GomX-4B et GomX-4A). Les propulseurs fabriqués par le suédois NanoSpace doivent permettre d’ajuster les mouvements du satellite à des vitesses de l’ordre de 15m/s. Deux réservoirs de butane liquide pressurisés sont reliés aux deux paires de propulseurs. Il n’y a pas de combustion, la poussée est assurée lorsque le liquide pressurisé relâché à l’extérieur se détend pour devenir un gaz. Le butane liquide, 1000 fois plus dense que son gaz, peut être stocké dans un très petit volume. Chaque propulseur fournit une poussée de 1 millinewton, ce qui reste suffisant pour faire bouger le satellite de 8 kg. L’ensemble, chambre, capteurs et tuyères tient sur dans un élément de 1×2 cm et d’1mm d’épaisseur. Avec le vol de GomX-4B, NanoSpace vise à démontrer les différentes variantes de poussées possibles : longues, courtes, par impulsion, dirigées vers le haut, le bas et ce dans de réelles conditions spatiales.

Sophie Hoguin

Propulsion spatiale : la grande foire aux idées !

Les lasers focalisent toujours beaucoup d’attention et sont à l’origine de plusieurs concepts de propulsion spatiale. Cependant, leur utilisation concrète est encore assez limitée. Les premières théories et essais de propulsion laser ont vu le jour dans les années 1970. Mais pendant plus de 25 ans, la technologie laser n’était pas encore assez mûre pour que les concepts inventés puissent être réellement testés.

La propulsion par ablation laser

Au départ, la propulsion par ablation laser s’appuyait sur une source laser émise depuis la Terre ou un satellite, qui, concentrée par un miroir fixé sur le véhicule spatial, était envoyée soit dans une chambre de combustion contenant un ergol (l’air), soit sur un matériau. Dans les deux cas, il y a apparition d’un plasma qui est ensuite éjecté par une tuyère pour créer la poussée. Très vite, on comprend qu’il est préférable d’embarquer directement le laser dans le véhicule. Selon les périodes, l’activité de recherche dans ce domaine est plus ou moins abondante. Depuis, l’apparition des laser pulsés micro et maintenant femtosecondes, les recherches ont repris et portent notamment sur un couplage d’une impulsion laser et des méthodes utilisées en propulsion électrique pour optimiser les plasmas et la poussée. Des systèmes de micro-propulsion ont vu le jour et peuvent permettent par exemple de contrôler l’altitude ou l’orientation d’un satellite.

Le Lightcraft, un véhicule détonnant !

Le laser a aussi été à la base de concepts plus ou moins réussis. Parmi eux, le Lightcraft. Un véhicule spatial ou aérien propulsé par un faisceau laser via la création d’un plasma et de détonations à l’extérieur du véhicule. La source d’énergie de propulsion est externe. Conceptualisé en 1976, quelques prototypes seront construits dans les années 1980 au sein de laboratoires de défenses américains mais il faudra attendre les années 1990 pour voir un véritable projet prendre forme. Le record atteint par un tel engin restera en octobre 2000, 71m et 10,5 secondes de vol via un laser au CO2 de 10kW basé au sol. L’engin emportait alors un carburant d’ablation sous forme de plastique et le corps du véhicule tournait autour de son axe (10000 tr/mn) pour se stabiliser par effet gyroscopique. Le concept a ensuite évolué et le laser remplacé par un maser (microwave amplification by stimulated emission of radiation), dispositif permettant d’émettre un faisceau cohérent de micro-ondes. La propulsion est alors fournie aussi par des détonations mais en plus, des antennes redresseuses récupèrent une partie de l’énergie micro-ondes et la convertissent en électricité pour alimenter un propulseur MHD (LIEN à faire sur article propulsion électrique). Une partie du faisceau est aussi concentré en pointe sur l’avant du véhicule pour former une torche à plasma qui atténue l’onde de choc à l’avant quand le véhicule atteint des vitesses supersoniques. Mais avec le départ en retraite de son inventeur et développeur, Leik Myrabo, en 2011, Lightcraft Technologies Inc a disparu. De leur côté les Japonais se sont emparés de l’idée du Lighcraft pour concevoir un lanceur constitué d’un tube rempli d’un gaz dans lequel on placerait le véhicule qui serait propulsé par un faisceau laser. Avantages : on peut contrôler tous les paramètres physiques du lancement. Inconvénients : il faut construire un tube de plusieurs centaines de mètres, donc le lieu de lancement sera fixe. Et surtout on est encore loin du démonstrateur opérationnel. Les essais menés au début des années 2000 sont restés confinés en laboratoire sur des tubes raccourcis avec un projectile de quelques grammes.

Le LightCraft, propulsé par un rayon laser. La pointe du bas focalise le laser sur le pourtour où a lieu le réchauffement de l’air qui se transforme en plasma.
Le LightCraft, propulsé par un rayon laser. La pointe du bas focalise le laser sur le pourtour où a lieu le réchauffement de l’air qui se transforme en plasma.

Le laser, clé de l’antimatière ?

La propulsion par création d’antimatière est une espèce de Graal. Les obstacles technologiques tombent petit à petit mais il reste encore à résoudre le problème de la source d’énergie, du confinement de l’antimatière et des éventuels rayons gammas produits. Les lasers pourraient faire partie de la solution pour produire de l’antimatière « facilement » depuis qu’on s’est aperçu que certains rayons laser projeté sur des feuilles d’or par exemple produisait en grand nombre de positrons. Un programme de recherche de la Nasa s’est penché sur le sujet de la propulsion antimatière entre 2000 et 2010 mais sans aller jusqu’à une phase de démonstrateur. La création et la manipulation de l’antimatière restant un domaine de recherche constant, cette solution technologique reste toujours prête à sortir des cartons.

La propulsion photonique

Des lasers pour remplacer les radiations du soleil et des étoiles. Une vieille histoire, remise au goût du jour par Philip Lubin et le projet Deep In (Directed Propulsion for interstellar exploration) qui affirme que l’on pourrait atteindre Mars en 3 jours avec un vaisseau de 100kg munis de voiles laser. La feuille de route du projet lancée en 2015-2016 a reçu des soutiens financiers de la Nasa. Depuis mi-2016, le projet est entré dans la phase II des recherches. Mais il reste de très nombreux défis technologiques : de la source du laser, de sa position, de sa puissance à la conformation des voiles.

Voiles solaires : un déploiement très lent

Le concept de voile solaire utilisant les particules éjectées par les étoiles pour pousser des voiles spatiales est né il y a plus d’un siècle dans l’imagination tant des scientifiques que des romanciers mais ce n’est que très récemment, depuis 2010 que l’on a réussi les premiers déploiements de voiles solaires sur des sondes ou des petits satellites. Les principales difficultés résultent de la complexité à trouver une forme et une taille idéale pour capter le maximum de radiations et en même temps que cette forme et taille soient aptes à réussir le déploiement de la voile une fois en orbite tout en assurant un minimum de manoeuvrabilité. Ce sont les Japonais qui ont réussi à déployer et utiliser la première voile solaire sur leur sonde Ikaros (interplanetary Kite-craft Accelerated by Radiation of the Sun). La mission d’une durée initiale de 6 mois a finalement été poursuivie et l’agence spatiale japonaise (Jaxa) continue de récolter les données de la sonde qui orbite autour du Soleil en 10 mois. Cette mission a confirmé que la propulsion basée sur une voile solaire est envisageable.

voile laser

La voile d’Ikaros d’une superficie de 173m2 a permis d’augmenter la vitesse de la sonde – qui pèse 315kg –  d’une dizaine de m/s au bout d’un mois via une poussée mesurée à 1,12 milliNewton. Depuis d’autres démonstrateurs et projets ont vu le jour et les technologies se déploient doucement. L’ESA et le projet européen Graphene Flagship ont par exemple récemment testé l’utilisation du graphène pour des voiles solaires. Le prochain lancement notable devrait être celui de la Planetary Society et sa LightSail 2 en octobre 2018. Le cubesat et sa voile seront lancés en même temps qu’une série de petits satellites des programmes de recherches de l’US Air Force via le premier lancement commercial de la Falcon Heavy de Space X.

L’Em-Drive, l’impossible concept qui défie la chronique

En 2001, un ingénieur britannique, Roger Shawyer, imagine un concept de propulsion spatiale qui générerait une poussée sans éjecter ou absorber de matière. Fonctionnant donc sans carburant. Dans l’EM-Drive (pour Electromagnetic Drive), la force de poussée serait produite par une onde à haute fréquence qui circulerait dans une cavité résonante de forme conique. Le problème : ce concept ne respecte pas l’une des lois piliers de la physique newtonienne, la conservation de la quantité de mouvement. Pour beaucoup de scientifiques c’est une supercherie et ils attendent une explication physique plausible avant de pouvoir y croire. Les résultats du groupe de travail Eagleworks de la Nasa, même parus dans une revue à relecture, restent difficiles à vérifier et à reproduire et pourraient être le résultat d’erreurs de mesure ou d’artefacts. Pour le moment, seuls les Chinois corroborent de telles données. En décembre 2016, lors d’une conférence de presse, les Chinois ont d’ailleurs annoncé qu’ils avaient réussi à mettre en évidence le phénomène en laboratoire et en orbite sur la station spatiale Tiangong 2 et qu’ils s’attaquaient désormais à intégrer cette technologie sur des satellites. Des annonces, accompagnées de fréquents papiers fournissant des tentatives d’explications, bien souvent fondées sur des phénomènes quantiques invérifiables, relancent régulièrement la controverse. Faisant couler beaucoup d’encre et amenant croyants et sceptiques à s’affronter durement sur les réseaux sociaux.

Par Sophie Hoguin

Les starts-up construisent la mobilité de demain !

Wavestone a analysé l’activité de 421 start-up, extraites de la base de données Dealroom, qui regroupe les entreprises à forte croissance dans le monde. Le cabinet a ainsi dressé trois grandes catégories de start-up liées à la mobilité. 50 % d’entre elles s’intéressent au véhicule de demain, 36 % aux nouveaux services proposées autour de la mobilité et 14 % à la place du véhicule dans les trajets intermodaux.

Capture d’écran 2018-05-29 à 16.30.22

Priorité à l’autonomie et à la sécurité des données

Sur 210 start-up consacrées au développement du véhicule de demain, la priorité consiste à rendre les véhicules plus autonomes, à mieux les connecter et mieux les sécuriser. Les entrepreneurs cherchent également à rendre les véhicules plus verts, notamment grâce aux batteries électriques.

Parmi les 85 start-up s’intéressant à l’autonomie des véhicules, trois thèmes de recherche sortent du lot. 51 % d’entre elles développent des capteurs pour que le véhicule soit capable d’apprécier l’environnement dans lequel il évolue (caméras, radars, lidars…). À côté,  33 % développent des systèmes autonomes et des intelligences artificielles grâce au deep learning. Enfin, 16 % s’attachent à développer les technologies cartographiques.

Concernant la cyber-sécurité, la priorité est donnée à la sécurisation des matériels, logiciels et à l’échange de données.  Les start-up développent également des moyens pour mieux détecter les intrusions et savoir comment réagir. Enfin, elles doivent être en mesure de mettre à jour en permanence la vulnérabilité et en suivre l’évolution.

De nouveaux services en préparation

Wavestone distingue trois types de services centrés sur les véhicules : le ride-sharing (avec chauffeur), le car-sharing (auto-partage) et le car-pooling (covoiturage). La majorité des start-up se créent actuellement dans l’auto-partage. Les services liés à la mobilité reposent de leur côté sur l’exploitation des données du véhicule. Il s’agira notamment de pouvoir proposer des services d’assurance ou de maintenance.

Le développement de l’autonomie imposera de repenser complètement l’intérieur des voitures pour proposer de nouveaux services. Le développement de ces nouveaux services à bord est  mis de côté pour le moment. Les start-up se focalisent en priorité sur le fait de faire rouler les véhicules autonomes en toute sécurité.

Le dernier grand défi est d’assurer l’intermodalité et connecter les différents modes de transport entre eux pour un parcours optimisé. Les grands opérateurs de transports s’intéressent de près à cette question. La RATP a par exemple récemment financé Cityscoot, les scooters en libres service. De son côté, Ford a racheté Chariot Shuttle, un service de navettes partagées. Les géants de la tech Didi et Alibaba ont pour leur part racheté Blue Gogo Likesharing et Ofo Bike Sharing, deux systèmes de vélos en libre service. «Les alliances commencent mais le jeu reste ouvert», conclut Amal Boutayeb, experte transports pour le cabinet de conseil Wavestone et auteure de l’étude.

Par Matthieu Combe, journaliste scientifique

Revue de presse anglophone #16

Qu’est-il arrivé à la Tesla Model 3 ?

tesla

Alors que les acheteurs attendent toujours la livraison de la Tesla Model 3 plusieurs fois reportée, les interrogations se multiplient autour de l’état de santé de la firme d’Elon Musk. Lire

Source : The Guardian

Zuckerberg devant le Parlement européen : les 5 choses à retenir

zuckerberg

Les déclarations du patron de Facebook vues du Royaume-Uni. Lire

Source : The Guardian

Comment empêcher Google de gérer votre vie numérique ?

Capture d’écran 2018-05-28 à 11.52.29

Google est impossible à « éviter », mais il existe des moyens de limiter le volume de données personnelles qui vous échappe au profit du géant américain. Lire

Source : Wall Street Journal

Macron et la start-up nation : où en est-on ?

macron

Le Président français avait promis de faire de la France la start-up nation. Qu’en est-il de cette promesse, vu des Etats-Unis ? Lire

Source : New-York Times

Jeff Bezos en dit plus sur son projet de colonisation de la lune

bezos

Le patron de Blue Origin veut faire de la lune un lieu pour l’industrie extractive, afin de préserver les ressources sur terre. Lire

Source : Tech Crunch

Un revêtement omniphobique, durable, applicable partout

Ce revêtement succède à ceux déjà créés par ce laboratoire dont un revêtement qui repoussait la glace et l’eau et un revêtement omniphobique beaucoup plus fragile. En effet, la nouveauté réside dans la durabilité, la transparence et la faible toxicité de ce nouveau revêtement. Le détail de cette recherche, publiée dans ACS Applied Materials & Interfaces de mars 2018, vient compléter un article de l’an dernier sur le même type de composé et qui détaillait ses propriétés d’auto-réparation.

Depuis 20-30 ans, on arrive régulièrement à créer des composés hydrophobes ou superhydrophobes – hydrophobie basée sur des propriétés physiques plus que sur des propriétés chimiques et qui repousse donc tous les liquides qu’ils soient polaires ou apolaires et que les anglo-saxons qualifient parfois d’omniphobie. Mais, il existe en général des freins à leur expansion. Il peut s’agir de leur toxicité ou leur danger pour l’environnement – les premiers composés étaient souvent à base de fluorocarbone -de leur complexité dans le processus de synthèse ou d’application ou encore de leur fragilité, ils perdent leurs propriétés très facilement avec même une faible abrasion par exemple.

Trouver la bonne formule

L’équipe coordonnée par le Pr. Anish Tuteja procède par une approche systématique et des outils mathématiques pour trouver les formules des matériaux. Leurs travaux ont consisté à lister les propriétés fondamentales d’un vaste catalogue de substances et ensuite de créer l’outil mathématique capable de prédire comment deux substances pourraient se comporter mise ensemble. Cela fournit une variété quasi-infinie de combinaisons avec des propriétés sur-mesure.

La bonne formule pour cette fois est un mélange d’un polymère (un polyuréthane fluoré) et d’un matériau superhydrophobe spécial appelé F-POSS (fluorodecyl polyhedral oligomeric silsesquioxane). Le résultat annoncé par les chercheurs est assez bluffant puisque le composé peut être appliqué sur n’importe quel substrat, il est transparent, repousse tous les liquides (eau, éthanol, huiles de silicone, hexadécane), assure une fonction d’auto-nettoyage, et est durable dans le temps grâce à une capacité d’auto-réparation (fonction de l’épaisseur du revêtement). En outre, il est très facile à appliquer avec des procédés courants : dépôt par centrifugation, spray, trempage etc.

Vers une production de masse peu coûteuse ?

Pour Anish Tuteja, ce revêtement, encore cher aujourd’hui, pourrait très vite devenir accessible. Le polyuréthane fluoré est un ingrédient courant et peu cher et le F-POSS pour l’instant rare, est en phase d’industrialisation. Les coûts devraient donc chuter. Les premières études de toxicité semblent prédire que le composé pourrait être sur le marché dans les deux prochaines années y compris pour des objets à destination des enfants, annonce le chercheur.

En outre, des applications industrielles sont déjà envisagées pour la réfrigération, l’énergie et le raffinage ou toute autre industrie qui dépend de la condensation de liquide. En effet, ce revêtement pourrait permettre d’augmenter l’efficacité de certains processus de 20 % en aidant à détacher l’eau ou les produits chimiques condensés sur les parois des équipements.

La commercialisation de cette découverte est déjà entamée via la création d’Hygratek, une start-up fondée par Tuteja.

Les travaux ont fait l’objet de brevets co-déposés par l’Université du Michigan et l’US Air Force qui a subventionné une partie des recherches et qui s’intéresse depuis plus de 10 ans aux propriétés des F-POSS.

Tests de résistance :

Par Sophie Hoguin

Revue du web #114 : les 10 vidéos scientifiques les plus étonnantes du mois

Boston Dynamics : Atlas est maintenant capable de courir !

NASA : des ailes d’avion orientables

Spectacle : une cellule immunitaire dans un organisme vivant

Visite privée : voici le parking connecté de l’Apple Park

RoboFly, un robot insecte qui vole grâce à un rayon laser (projeté sur son dos photovoltaïque)

Drone facile à piloter : défi relevé par MotionPilot

Des propulseurs à gaz pour éviter les chutes à moto

Un matériau mimant la peau des caméléons

Un nouveau jeu vidéo Nintendo en… carton

Microsoft : une manette de jeu dédiée aux personnes handicapées

Par I. B

Découverte du premier corps du Système solaire d’origine extrasolaire

Certains corps de notre système solaire pourraient-il provenir des environs d’autres étoiles ? Les astronomes sont divisés sur le cas des comètes, dont certains imaginent qu’elles puissent s’être formées autour d’autres étoiles avant d’être capturées par notre Soleil… sans l’avoir jamais prouvé. Quant au cas célèbre d’Oumuamua, un astéroïde frôlant la Terre en 2017, il provenait certes d’un autre système solaire mais ne faisait que passer, tel un touriste, et poursuivre son chemin vers d’autres mondes.

L’astéroïde 2015 BZ509, lui, est bien un membre permanent du Système solaire… mais il n’y serait pas né, comme le démontrent les calculs d’Helena Morais, chercheuse à l’Unesp au Brésil, et Fathi Namouni, chercheur CNRS au Laboratoire J.-L. Lagrange (CNRS/Observatoire de la Côte d’Azur1/ Université Nice Sophia Antipolis2).

2015 BZ509, découvert par les télescopes Pan-Starrs à Hawaii en 2014, fait environ 3 km de diamètre. Il occupe l’orbite de Jupiter et tourne autour du Soleil à la même vitesse que la planète géante. Sauf qu’il le fait… en sens inverse. Or les astéroïdes qui ont de telles orbites rétrogrades se trouvent habituellement dans les confins du Système solaire. Seuls certains d’entre eux, les Centaures, s’aventurent occasionnellement vers les planètes géantes pour n’y séjourner que quelques millions d’années.

Intrigués par ce particularisme, Fathi Namouni et Helena Morais ont retracé l’orbite de 2015 BZ509 par simulation numérique, de septembre 2017 à février 2018, en utilisant le Mésocentre Sigamm, installé à l’Observatoire de la Côte d’Azur. Ils ont pu ainsi remonter durant 4.5 milliards d’années jusqu’à la naissance du Système solaire. Surprise : 2015 BZ509 a toujours eu une orbite rétrograde, même aux premiers temps du Système solaire, alors qu’à cette époque, absolument tous les astéroïdes et planètes tournaient autour du Soleil dans le même sens. Cela implique que 2015 BZ509 n’est pas originaire de notre système solaire et qu’il a dû naitre dans un système stellaire voisin avant d’être capturé par Jupiter.

Une immigration tout-à-fait possible car l’amas d’étoiles original dans lequel le Soleil s’est formé contient des étoiles possédant leurs propres planètes et astéroïdes. La grande proximité de ces étoiles, combinée aux forces gravitationnelles des planètes, a pu permettre à ces systèmes stellaires d’attirer, d’enlever et de se capturer des astéroïdes les uns des autres.

2015 BZ509 est donc le premier astre du Système solaire dont l’origine extrasolaire a été identifiée. Mais la liste pourrait bientôt s’allonger. En effet, pour mener cette simulation, les deux chercheurs ont créé numériquement un essaim d’un million de clones de 2015 BZ509 évoluant dans les mêmes conditions. Au fils du temps, la majorité d’entre eux sont restés stables sur leur orbite, beaucoup d’autres sont « tombés » vers le Soleil. Mais quelques-uns de ces astéroïdes virtuels ont été expulsés sur une orbite polaire, à la perpendiculaire du plan où se trouvent les orbites des planètes. Or, des astéroïdes en orbite polaire existent bel et bien aujourd’hui : ils ne sont qu’une dizaine, au-delà de Neptune, la plus éloignée des planètes. Des candidats désormais sérieux pour rallonger la liste des corps extrasolaires du Système solaire.

Comprendre exactement quand et comment 2015 BZ509 a migré dans le Système solaire permettrait de mieux connaitre l’environnement originel du Soleil et de fournir des indices supplémentaires sur l’enrichissement potentiel de notre environnement primaire avec des composants nécessaires à l’apparition de la vie sur Terre.

premier-corps-Système solaire -extrasolaire-cap

Source : cnrssyst

Eolmed : l’éolien offshore fait appel au financement participatif

Le consortium piloté par Quadran Energies Marines lance le premier financement participatif local dédié à un parc éolien offshore, avec un objectif de 300.000 euros. Le financement sur la plateforme Enerfip est réservé dans un premier temps aux habitants de la région Occitanie entre le 22 mai et le 30 juin. Puis, la collecte sera ouverte à tous jusqu’au 5 juillet.

Tout particulier peut investir entre 10 et  2.500 euros. Il bénéficiera en contrepartie d’un taux d’intérêt annuel fixe de 5 %. Les fonds récoltés financeront une partie du Lidar flottant, qui servira à évaluer les gisements de vent sur le site. L’investissement total du parc pilote est estimé à 212 millions d’euros. La construction du parc débutera en 2019 pour une exploitation commerciale à partir de 2021.

Eolmed : 4 éoliennes flottantes

Le consortium a été retenu en juillet 2016  pour installer un parc pilote de 4 éoliennes flottantes en mer Méditerranée. Le parc Eolmed sera situé à plus de 18 km des côtes, au large de Gruissan et de Port-la-Nouvelle dans l’Aude. Il sera doté d’une puissance de 24,6 mégawatts. Le parc produira près de 100 millions de kilowattheures par an. C’est l’équivalent de la consommation électrique annuelle de 50.000 habitants.

Les éoliennes seront installées sur des fondations flottantes en béton d’environ 15.000 tonnes. Une éolienne flottante équipée du flotteur en béton d’Ideol a été acheminée le 29 avril sur le site expérimental Sem-Rev, situé à 22 kilomètres des côtes bretonnes au large du Croisic (Loire-Atlantique). L’installation permettra d’étudier, en situation réelle, les performances de l’éolien flottant avec la technologie prévue pour le parc Eolmed.

Par Matthieu Combe, journaliste scientifique

La bioraffinerie de Total et son huile de palme interrogent

La production de la nouvelle bioraffinerie de Total devrait débuter d’ici cet été. Elle sera en mesure de traiter 650.000 tonnes d’intrants pour produire 500.000 tonnes par an de biodiesel de type HVO (hydrotraitement des huiles végétales). Il s’agit d’une alternative aux carburants traditionnels d’origine fossile. La bioraffinerie « s’approvisionnera à hauteur de 60 à 70 % d’huiles végétales brutes d’origines aussi diverses que le colza, le tournesol, le soja, la palme, le maïs ou de nouvelles plantes du type carinata », fait savoir Total dans un communiqué. Le reste des intrants sera constitué de graisses animales, d’huiles alimentaires usagées et d’huiles issues de déchets et de l’industrie papetière. Cette part a vocation à « augmenter au fil des années en fonction de la disponibilité de ces ressources alternatives », précise le pétrolier.

Jusqu’à 300.000 tonnes d’huile de palme importées par an

L’autorisation accordée par le préfet de la région PACA permet à Total de traiter un maximum de 450.000 tonnes d’huile végétale brute chaque année, soit 69 % de la capacité de l’usine. Total garantit de limiter l’approvisionnement en huile de palme brute à un volume inférieur à 50 % des volumes de matières premières qui seront traitées sur le site, soit au plus 300 000 tonnes par an. « A titre de comparaison, environ 136.000 tonnes d’huile de palme alimentaire sont consommées chaque année en France », note l’association Greenpeace. Cette importation massive d’huile de palme interroge donc.

Selon le rapport Durabilité de l’huile de palme et des autres huiles végétales publié en décembre 2016 par le Ministère de l’écologie, 650.000 tonnes d’huile de palme sont importées en France pour faire de l’huile de palme, représentant 23% de la totalité du biodiesel importé ou produit. Ces nouvelles importations augmenteront donc la production de biodiesel à base d’huile de palme de près de 50 %. Total deviendra ainsi le premier importateur français d’huile de palme.

Des certifications qui ne garantissent pas l’absence de déforestation

Total s’engage à promouvoir un label de certification durable de haute qualité auprès de l’Union Européenne et à ce que l’approvisionnement soit issu de producteurs certifiés RSPO. « Malheureusement, aucune certification ne garantit aujourd’hui l’absence d’impacts directs ou indirects sur les forêts, estime Greenpeace. La RSPO souffre de lourdes carences dans la définition de ses critères de durabilité, de manquements répétés dans sa mise en oeuvre ou encore de faiblesse chronique sur le plan de la transparence ». Ainsi, qui dit certification RSPO ne veut pas forcément dire « absence de déforestation ».

Selon le Ministère de la transition écologique et solidaire, la modernisation de l’usine de la Mède conduira à une baisse des émissions de CO2 de 75%. Les émissions de dioxyde de soufre baisseront quant à elles de 93% et celles de poussières de 98%. Enfin, les composés organiques volatiles (COV) baisseront de 45% par rapport au fonctionnement de la raffinerie historique. De son côté, Greenpeace estime que ce biodiesel serait responsable de « trois fois plus d’émissions de gaz à effet de serre que les carburants fossiles » du fait de la déforestation qu’entraîne la culture du palmier à huile. Même son de cloche chez les Amis de la Terre. « Il y a d’autant plus de risques que Total refuse de rendre public son plan d’approvisionnement, notamment sa liste de fournisseurs », estime Sylvain Angerand, Coordinateur des campagnes de l’association.

Vers davantage d’économie circulaire ?

Pour justifier ce projet, le ministère met en avant les aspects liés à l’économie circulaire. « Le projet de la Mède doit donner la priorité au recyclage des huiles usagées, et dans ce cadre l’Etat a fixé, à Total, comme objectif d’utiliser au moins 25 % de matières premières issues du recyclage des huiles (huiles alimentaires usagées, graisses animales, distillats d’acide gras) avant d’autoriser la mise en service de la bioraffinerie », précise-t-il. La bioraffinerie participerait ainsi à « à la structuration de ces filières encore trop peu utilisées en France et en Europe » pour « se substituer progressivement à d’autres sources d’approvisionnement ».

Une consultation publique d’un mois débutera bientôt sur la stratégie française de lutte contre la déforestation importée. Greenpeace invite les citoyens à y prendre part pour « en finir avec ce double discours toxique pour la lutte contre la déforestation et la protection du climat ».

En janvier 2018, le Parlement européen a voté pour l’interdiction de l’huile de palme dans les carburants d’ici 2021. « Un vote qui se heurte jusqu’à présent au refus des Etats membres, et en particulier de la France », estiment les Amis de la Terre. La pérennité même du site de la Mède serait en jeu si l’Europe décidait d’interdire prochainement l’utilisation d’huile de palme. L’association exhorte donc Total à présenter un plan alternatif prenant en compte cette interdiction potentielle.

Par Matthieu Combe, journaliste scientifique

Engie : une batterie pour l’autoconsommation électrique

Engie dévoile une batterie résidentielle pour les particuliers à des fins de stockage et de consommation d’énergie d’origine solaire. Cette solution, complémentaire de l’offre My Power lancée l’an dernier (production d’électricité via des panneaux photovoltaïques ), promeut l’autoconsommation plutôt que la revente d’électricité sur le réseau. L’industriel estime que le moment est propice grâce à la convergence de trois facteurs. «C’est tout d’abord une tendance dans la société», observe Léo Bénichou, responsable de l’offre, qui étaye son argumentaire par un sondage réalisé par Toluna pour le compte d’Engie : 69% des Français seraient motivés par l’installation de panneaux solaires dans l’objectif de stocker l’énergie produite et de la consommer quand ils le souhaitent.

batterie-engie-consommation-electrique-700

batteries-engie-consommation-electrique

Le prix constitue le deuxième moteur. «Les deux courbes commencent à se croiser : celle du prix du kilowatt-heure (kWh) acheté sur le réseau et celle du coût du kWh produit par une installation de panneaux solaires» poursuit Léo Bénichou. La première croit doucement mais régulièrement, la seconde décroît de manière spectaculaire, le prix des modules photovoltaïques (PV) baissant d’année en année. Troisième incitation : l’évolution règlementaire. «L’arrêté de mai 2017 instaure un cadre rassurant» confie Léo Bénichou. La prime à l’investissement, étalée sur cinq ans et variable selon la puissance de l’installation, peut atteindre 400 €/kWc (kilowatt-crête) pour une puissance inférieure à 3 kWc.

Un procédé annoncé plus sûr et plus durable

La batterie en question est l’oeuvre de l’entreprise allemande Sonnen. Elle ne recycle pas de batterie de seconde vie employée initialement dans l’automobile, comme le fait xStorage Home d’Eaton. Elle ne se base pas non plus sur la technologie Li-Ion, la plus répandue, mais sur la technologie Lithium-Fer-Phosphate. «La densité énergétique de notre batterie est moindre mais elle est plus sûre, offrant une meilleure stabilité thermique, précise Jean-Baptiste Cornefert, directeur marketing de Sonnen. Sa durabilité est supérieure car elle tolère 10000 cycles de charge, soit environ 20 ans de fonctionnement.» La sonnenBatterie, dont la capacité s’échelonne de 2,5 kWh à 15 kWh, a aussi l’avantage d’être modulaire et évolutive, via l’ajout ultérieur de blocs supplémentaires de 2,5 kWh si nécessaire. La garantie est de 10 ans.

Cette batterie, qui peut se raccorder à une installation PV existante, comporte un onduleur bidirectionnel et un gestionnaire qui optimise l’autoconsommation. L’algorithme auto-apprenant tient compte des habitudes des occupants du foyer et des données météorologiques. L’application mobile permet quant à elle d’avoir accès à plusieurs statistiques, dont le niveau d’autonomie et l’historique. Engie ne fournit pas de prix indicatif, si ce n’est un plan de financement sur 10 ans, à partir de 109 €/mois, et évoque un retour sur investissement au bout de 10 à 15 ans. Le groupe a calculé un taux théorique d’autonomie de 96%, en prenant comme référence une maison située à Nice et disposant d’une installation PV de 5 kWc et d’une batterie de 10 kWh.

Plusieurs industriels se sont positionnés sur ce marché naissant depuis environ deux ans : EDF, avec des batteries LG, Eaton (évoqué plus haut), Tesla ou encore Solarwatt avec la batterie MyReserve. Il reste à savoir si la France est un pays aussi hospitalier que l’Allemagne par exemple, où le PV et le stockage sur batterie sont nettement plus développés. Il est vrai que le prix du kWh acheté sur le réseau y est presque le double de celui pratiqué en France, ce qui pousse davantage les particuliers à investir dans l’autoconsommation.

Par Frédéric Monflier

Les enjeux de l’OPA chinoise sur Energias de Portugal

Une OPA ni hostile, ni amicale

Difficile de caractériser formellement l’OPA lancée par la China Three Gorges sur Energias de Portugal. Elle n’est pas vraiment amicale puisque le conseil d’administration n’a pas été intégré dans la manœuvre, contrairement à celui de Direct Energie lors de l’OPA de Total le mois dernier par exemple. Pire, il a estimé mardi après avoir examiné l’offre, de 9 milliards d’euros tout de même, qu’elle n’était pas suffisante et qu’elle ne valorisait pas suffisamment le groupe portugais qui dispose d’un portefeuille de près de 10 millions de clients, plus de 20 000 kilomètres de lignes électrique et un parc de production électrique installé de quelque 26,7 GW, soit l’équivalent d’une trentaine de réacteurs nucléaires…

Elle ne peut pas non plus être considérée comme totalement hostile car avec 23,27%, la compagnie propriétaire des fameux barrages des Trois Gorges est le premier actionnaire d’EDP depuis que le groupe a été privatisé en 2011 suite à la crise financière qui a si durement touchée le Portugal, contraint de vendre tout ou partie de ses fleurons nationaux. La China Three Gorges aurait ainsi investi beaucoup dans la compagnie qui lui appartient déjà pour près d’un quart du capital.

Enjeu géopolitique

Mais voilà, l’énergie est un secteur stratégique et la prise de contrôle d’un acteur de référence sur la scène européenne (surtout ibérique) par une compagnie détenue par l’Etat chinois serait une première et pose problème. D’aucuns voient dans l’opération une tentative à peine déguisée de Pékin de prendre le contrôle d’infrastructures stratégiques pour mieux peser sur les décisions européennes. « Au-delà des infrastructures de transport dont la conquête vise à maîtriser les flux commerciaux, qu’il s’agisse du contrôle du port grec du Pirée ou des investissements colossaux dans l’est et le sud de l’Europe pour construire ses « nouvelles routes de la Soie », cette acquisition d’EDP s’inscrit dans une stratégie chinoise évidente de leadership dans les industries liées aux nouvelles technologies de l’énergie », met en garde la CFE-CGC Energies, l’un des syndicats du secteur français de l’énergie.

D’autres estiment au contraire que l’argent venu d’Asie est le bienvenu pour renflouer des entreprises européennes mises en difficultés par le désengagement de leur Etat et la concurrence accrue sur le marché mondialisé de l’énergie. En réalité, les rumeurs sur l’acquisition d’EDP allaient déjà bon train et il n’est guère surprenant de voir la compagnie faire l’objet d’une OPA. Les noms de l’espagnol Gas Natural Fenosa ou du Français Engie revenaient régulièrement dans les discussions, le premier ayant confirmé son intérêt, le second l’ayant nié. Reste à savoir si le groupe chinois va réussir à atteindre les 50% du capital pour prendre le contrôle d’EDP ou s’il va devoir réévaluer à la hausse son offre pour convaincre des actionnaires encore hésitants. Autre option possible, l’apparition d’une contre-offre issue d’un grand acteur européen pour contrer les velléités chinoises. Affaire à suivre.

Romain Chicheportiche

Les GAFAM : rois d’internet et… des énergies renouvelables

Les énergies renouvelables ont le vent en poupe. Selon les chiffres du Business Renewable Center, publié mi-avril, les contrats d’énergie renouvelable pourraient dépasser les 2,78 gigawatts d’électricité cette année.

Parmi ces acteurs ayant signé des contrats, il y a les géants de l’IT ! Selon une étude menée par Bloomberg New Energy Finance, les GAFAM (Google, Amazon, Facebook, Apple et Microsoft) ont été les principaux acheteurs et utilisateurs mondiaux d’énergies renouvelables l’an passé.

infographie bloomberg

Par exemple, Google (à travers sa filiale Google Energy créée il y a plusieurs années) a acheté suffisamment d’électricité issue de ce type d’énergies pour compenser l’énergie consommée par ses bureaux et ses datacenters.

De son côté, Apple a indiqué en mars que l’intégralité de ses installations fonctionnaient désormais grâce à de l’électricité issue d’énergies renouvelables.  La marque californienne a notamment deux centres de données 100 % renouvelables en Irlande et au Danemark. Mais cela ne signifie pas pour autant qu’elle a accès à de l’électricité renouvelable produite localement : ils s’approvisionnent dans un autre pays à l’intérieur des mêmes « frontières naturelles du marché  » que le pays d’exploitation.

Deux gros contrats pour Microsoft

Il y a deux ans, l’éditeur de Windows avait annoncé que non seulement ses datacenters étaient 100 % neutres en carbone, mais qu’il souhaitait augmenter la quantité d’électricité renouvelable alimentant ses datacenters. Son objectif est de franchir le cap des 50 % d’ici la fin de cette année. Résultat, au cours des deux derniers mois, Microsoft a signé deux importants contrats. Le premier, pour 100 % de la production de 60 MW du plus grand projet solaire de Singapour. Le second pour 500 MW auprès d’un réseau solaire géant en Virginie. C’est le plus gros achat de ce type d’énergie jamais effectué par une entreprise aux États-Unis.

Au total, Microsoft dispose actuellement de 1,2 GW d’électricité renouvelable garantie par des contrats d’achat d’électricité à long terme, ainsi que d’un panneau solaire de 480 kilowatts sur le toit de son campus dans la Silicon Valley.

Datacenters gloutons

Pourquoi cette frénésie de contrats ? Pour ces géants, c’est un argumentaire marketing supplémentaire visant à redorer leur blason. Car la consommation d’électricité des datacenters ne cesse d’augmenter. Elle atteignait 2 % de la consommation mondiale en 2012. Elle pourrait grimper à 13 % en 2030. Leur décision est également motivée par la baisse des coûts des énergies renouvelables. Ils veulent aussi se prémunir contre la hausse des prix de l’électricité.

Mais pas seulement. Les actions des GAFAM incitent aussi des investisseurs à s’intéresser de plus en plus à ce secteur. L’éditeur d’Office s’est aussi associé à Facebook et à un fonds d’investissement pour créer le Microgrid Investment Accelerator (MIA). Cette structure est destinée à mobiliser 50 millions de dollars d’ici 2020 pour la recherche et le développement de nouvelles technologies dans le secteur des microgrids (micro-réseaux d’approvisionnement en énergie renouvelable).

Histoire d’être prises au sérieux, les GAFAM sont d’ailleurs membres de RE100. Créé par le Climate Group en partenariat avec CDP (anciennement Carbon Disclosure Project), ce consortium regroupe des grands comptes qui s’engagent à s’alimenter exclusivement à partir d’énergies renouvelables. De quoi séduire d’autres géants dont les besoins en énergie sont moindres comme Walmart, IKEA ou encore Adobe.

Philippe Richard

Les limites de la reconnaissance faciale

C’est le rêve de toutes les autorités et services de sécurité : repérer, en quelques minutes, un individu recherché en analysant des vidéos ou des photos. C’est l’un des objectifs de la reconnaissance faciale. En Chine par exemple, des paires de lunettes (vendues 500 €) dotées de cette technologie sont portées par les agents de sûreté ferroviaire de Zhengzhou, au centre du pays. Connectées à une tablette, elles permettent de consulter une base de données répertoriant près de 10.000 personnes suspectées de délits et de crimes.

Mais est-elle aussi efficace que le prétendent les entreprises qui vendent ces solutions ? En avril, tous les médias se sont fait l’écho de l’arrestation en Chine d’une personne qui se trouvait au milieu d’une foule de 50.000 personnes venues assister à un concert. Des caméras avaient repéré cet individu recherché pour « crime économique ». Toujours en Chine, les paires de lunettes auraient permis d’arrêter quelques fraudeurs.

Mais au-delà de ces quelques cas, le résultat est très loin d’être positif. C’est ce que montre une étude menée en Angleterre. Il y a un an, lors de la finale de la Ligue des Champions au Pays de Galles, la police a mis en place un système capable de comparer le visage des supporters à une base de données d’images de plus de 500 000 personnes. Un an plus tard, le quotidien britannique The Guardian révèle que cet outil, baptisé « Locate », avait trouvé 2470 potentiels suspects. En réalité, 2297 d’entre elles se sont révélées être des erreurs. Soit un taux de réussite de seulement 7 %.

Discrimination

La police de South Wales a précisé que sur les 15 évènements durant lesquels « Locate » avait été testé, seules 234 personnes avaient été identifiées correctement. Pour les autorités, ces nombreuses erreurs sont dues à une forte proportion d’images de mauvaise qualité et au fait que c’était la première fois que le système était utilisé.

D’autres études ont également constaté des erreurs élevées dans le repérage de personnes de couleur. En février dernier, une étude menée par une équipe du Massachusetts Institute of Technology (MIT) avait constaté que les trois logiciels testés (ceux de Microsoft, d’IBM et de l’entreprise chinoise Megvii) identifiaient correctement des hommes blancs parmi 1270 personnes provenant de trois pays africains (Afrique du Sud, Sénégal et Rwanda) et européens (Finlande, Islande, Suède).

Par contre, ces programmes ont plus de difficultés à reconnaître des femmes (presque 80 % de réussite pour le programme chinois qui avait obtenu le meilleur taux) et encore plus celles de couleur. Le taux d’erreur a atteint jusqu’à 35 %. Ce résultat s’explique notamment par le choix des données qui vont venir alimenter l’algorithme lors de son apprentissage. « On ne peut pas avoir des intelligences artificielles qui ne sont pas inclusives. Or, ceux qui créent les technologies sont ceux qui mettent en place les standards », avait explique Joy Buolamwivi, la scientifique du MIT dans une interview accordée au New York Times.

Par Philippe Richard

L’agrégateur d’énergies renouvelables : 
un métier en plein boom

Bascule vers le marché

Les énergies renouvelables ont réalisé une progression spectaculaire dans le mix électrique mondiale (+ 167 GW dans le monde pour la seule année 2017 selon l’Irena) grâce notamment à de généreuses subventions publiques. Ces dernières se sont caractérisées par des aides directes ou encore des tarifs de rachat de l’électricité produite, un système très en vogue notamment en Europe, qui a produit une rente et une visibilité confortable aux développeurs de parcs éoliens, photovoltaïques, etc. En France par exemple, un parc éolien construit dans les années 2000 bénéficie encore aujourd’hui de ces tarifs d’achat grâce au contrat de 20 ans souscrit avec EDF, l’opérateur national obligé de racheter à prix fixe l’électricité générée par ledit parc. Un système qui a permis de rassurer les investisseurs de l’époque et de créer un effet d’entraînement et d’échelle, avec à la clé une réduction des coûts qui rend aujourd’hui ces énergies rentables, notamment le solaire photovoltaïque.

Comme convenu, ces contrats de 20 ans s’éteindront progressivement dans les années à venir (c’est déjà le cas pour ceux signés à la fin des années 90) et il n’est pas question pour l’Etat de continuer à subventionner des infrastructures largement amorties et qui ont rapportés une rente (certains diront excessive) à leurs propriétaires. Pour autant, elles continueront de fonctionner et seront donc désormais rémunérer dans le cadre d’un mécanisme de marché. Une évolution prévue mais qui n’enchante pas forcément tous les exploitants d’énergies renouvelables qui pour certains appréhendent le passage sur le marché dont les prix sont assez bas et surtout fluctuants. C’est là qu’interviennent les agrégateurs.

L’intermédiaire trader

L’agrégateur est l’intermédiaire entre le producteur d’électricité et le marché. A la fois technicien et trader, il rachète selon des conditions définies à l’avance la production d’une installation renouvelable et la revend soit directement à des clients, soit à la bourse de l’électricité. Pour l’exploitant, cet intermédiaire lui donne une visibilité sur les revenus qu’il va tirer de sa production d’électricité avec des contrats plus ou moins indexés sur les fluctuations du marché en fonction du niveau de risque qu’il accepte de prendre. L’agrégateur cherche quant à lui à se constituer un stock d’installations le plus large possible et surtout les plus complémentaires. En effet, les centrales éoliennes, solaires ou hydroélectriques ne fonctionnent pas de manière optimale au même moment de la journée mais leur mutualisation permet de créer une sorte de centrale virtuelle. L’agrégateur dispose ainsi d’une vue d’ensemble sur les centrales qu’il administre grâce à des capteurs et interfaces de communication complexes type Scada. Il peut en quelques minutes décider de stopper/relancer la production d’une centrale grâce à des système de contrôle à distance afin de tirer le meilleur profit en temps réel des fluctuations des cours de l’électricité.

Des compétences pluridisciplinaires

Pour maximiser l’utilisation des centrales et les revenus générés, les spécialistes de l’agrégation s’appuient sur des ingénieurs aux compétences très diverses. Il y a bien sûr les spécialistes des technologies de communication pour faire remonter les informations issues des centrales, les experts de la big data pour traiter le volume considérable desdites informations, en passant par les opérateurs de marchés financiers. Sans oublier les scientifiques météorologiques qui élaborent des prévisions ultrafines pour anticiper les vents pour les parcs éoliens, l’ensoleillement pour les centrales solaires d’un jour sur l’autre, afin de limiter autant que faire se peut les écarts entre la production anticipée et réelle. Autant de compétences jusqu’ici dispatchées et désormais réunies au sein de mêmes structures telles que Statkraft, Agregia la filiale d’EDF, Vattenfall, Solvay Energy Services, la filiale du groupe chimique, Engie ou encore Uniper, entre autres.

Romain Chicheportiche

Quel bilan pour Nicolas Hulot un an après ?

Lorsque Nicolas Hulot est arrivé au gouvernement le 17 mai 2017, plusieurs défis l’attendaient. Il avait notamment pour mission d’assurer l’application de la loi de transition énergétique pour la croissance verte  et de l’Accord de Paris.

Des avancées dans plusieurs domaines

À travers son Plan Climat, Nicolas Hulot prévoit que la France atteigne la neutralité carbone en 2050. Il projette également la fin des hydrocabures made in France pour 2040, malgré de nombreuses dérogations.

Avec sa secrétaire d’Etat Brune Poirson, il vient de lancer la feuille route pour l’économie circulaire. Celle-ci comprend notamment l’objectif de tendre vers le recyclage de 100% des plastiques en 2025. Malgré quelques mesures intéressantes, on reste toutefois loin de la promesse de basculer complètement vers une diminution sensible de la consommation des ressources. Par ailleurs, l’ancien animateur vient de lancer le plan quinquennal de rénovation énergétique des bâtiments. Il vise à rénover 500.000 logements par an.

La majorité des décisions prises engagent la France sur le long-terme, mais les associations regrettent le peu d’engagements du gouvernement sur le court-terme. Seul l’abandon du projet d’aéroport de Notre-Dame-des-Landes a été jugé comme une réelle victoire. En revanche, l’intervention policière et le maintien de la ZAD pèsent sur cette réussite.

La transition énergétique en question

Le plus grand revers du ministre est certainement le report à 2030 ou 2035 de la diminution de la part du nucléaire dans le production d’électricité à 50%. Cet objectif était initialement prévu pour 2025 et inscrit depuis 2015 dans la loi de transition énergétique. Pour y parvenir, il faudrait fermer entre 17 et 25 réacteurs nucléaires. « Impossible », juge Nicolas Hulot, sauf à relancer les énergies fossiles et les émissions de gaz à effet de serre. Il préfère prioriser la fermeture des quelques centrales utilisant du charbon d’ici 2022.

Du côté des dossiers en cours, la programmation pluriannuelle de l’énergie (PPE) subit les critiques des ONG. La première version présentée en juillet prochain devrait annoncer le calendrier de fermeture des réacteurs nucléaires.

Concernant le développement des énergies renouvelables, des groupes de travail ont été lancés par filières. Les procédures ont été simplifiées et le volume des appels d’offres photovoltaïque a été augmenté de 1 gigawatt. Toutefois, cette politique a été ternie par la volonté du gouvernement de renégocier les projets éolien offshore attribués par appels d’offres.

La mobilité en question

Nicolas Hulot aura réussi à programmer le rapprochement de la fiscalité du diesel à la pompe et de l’essence d’ici 2022. Le ministre a par ailleurs annoncé la fin de la vente de voitures à essence et diesel dès 2040. Il reste à en définir les premières étapes et les différentes technologies qui les remplaceront. Dès 2018, la  prime à la conversion prévue lors de la mise à la casse d’un véhicule diesel a été étendue et une campagne d’information nationale a été lancée le 12 mai pour encourager les français à se débarrasser de leurs vieux véhicules polluants et les remplacer par des voitures plus récentes.

Pour le reste des transports, Nicolas Hulot délègue les décisions à Elisabeth Borne, ministre chargée des Transports. Entre septembre et décembre 2017, elle a mené les Assises de la mobilité. Pour le moment, les conclusions sont accaparées par la réforme de la SNCF, mais elles donneront prochainement naissance à la loi d’orientation sur les mobilités. Cette dernière promet d’atteindre des mobilités plus propres, plus connectées, plus solidaires, plus intermodales, plus sûres et plus soutenables.

Des réformes qui ne vont pas assez loin ?

Au bout du compte, Nicolas Hulot n’aura pas réussi à convaincre ses collègues européens : le glyphosate a été réautorisé en novembre 2017 pour cinq ans en Europe. La France a toutefois annoncé la sortie du glyphosate en trois ans, malgré l’opposition du monde agricole.

Les états généraux de l’alimentation ont déçu les ONG. Son plan loup 2018-2023 présenté en février n’aura pas non plus réussi à apaiser les tensions entre éleveurs et défenseurs de l’environnement. Fin avril, le gouvernement a dévoilé son Plan d’actions sur les produits phytopharmaceutiques et une agriculture moins dépendante aux pesticides. Ce plan de réduction des pesticides contient plusieurs évaluations, notamment de l’Anses et de l’Inserm, mais peu de décisions de court-terme.

Les Assises de l’eau ont été lancées fin avril. Jusqu’en juillet, la première séquence vise à relancer l’investissement  dans les réseaux d’eau et d’assainissement, notamment pour réduire les fuites. D’août à novembre, la deuxième séquence traitera des aspects qualitatifs et quantitatifs des ressources en eau, afin d’aider les territoires à être plus résilients au changement climatique. Le ministre devrait également prochainement présenter un plan pour mettre fin à la déforestation importée en France. Cela empêchera par exemple d’incorporer du biocarburant à base d’huile de palme ou d’importer du soja «non-durable » issu de la déforestation pour nourrir le bétail français.

L’action de Nicolas Hulot a été perturbée par un article d’Ebdo publié le 9 février révélant qu’il avait fait l’objet en 2008 d’une plainte pour viol classée sans suite pour cause de prescription. Depuis ce scandale, le ministre est beaucoup moins présent face caméras. Il brille par son absence lors des multiples déplacements du président à l’étranger. Pas de Nicolas Hulot lors de la rencontre d’Emmanuel Macron avec Donald Trump, ni avec le premier ministre indien ou encore avec le premier ministre australien. Pour mener à bien les futures réformes, il devra revenir rapidement sur le devant de la scène.

Par Matthieu Combe, journaliste scientifique

Recycler 100% des plastiques? Des annonces en demi-teinte!

Seulement 22 % des plastiques, toutes utilisations confondues, ont été recyclés en fin de vie en France en 2016. Si le taux de collecte des bouteilles est en moyenne de 55 %, il reste bien inférieur à celui des pays nordiques (plus de 90 %). Face à ce constat, le gouvernement a décidé d’agir et lance sa feuille de route Economie Circulaire. En vue de recycler 100 % des plastiques, il compte notamment améliorer la collecte, jouer sur la fiscalité et augmenter le taux d’utilisation des matières recyclées.

Pour permettre aux consommateurs de mieux identifier les produits recyclables lors de leurs achats, le pictogramme Triman sera obligatoire sur tous les produits recyclables dès 2021. Il sera accompagné d’une information sur la nature du geste de tri à effectuer. Le « point vert » et autres pictogrammes qui entraînent de la confusion seront interdits.

Améliorer la collecte des plastiques

Dans un premier temps, le gouvernement entend améliorer la collecte des plastiques. La priorité sera mise sur les zones où les taux de collecte sont les plus bas, notamment les zones urbaines les plus denses. Par ailleurs, depuis juillet 2016, les entreprises produisant plus de 1.100 litres de déchets par semaine – soit une vingtaine de sacs poubelles standards de 50 litres – doivent trier, entre autres, leurs plastiques. Cependant, cette loi est loin d’être respectée. La feuille de route vise donc à augmenter le recyclage dans le secteur des cafés, hôtels et restaurants. Toutefois, encore aucun véritable contrôle et aucune sanction ne sont annoncés pour les entreprises ne respectant pas leurs obligations.

La modernisation des centres de tri d’ici 2022 sera l’occasion de simplifier et harmoniser les règles de tri des déchets sur l’ensemble du territoire. Cette modernisation devrait permettre d’atteindre un taux de recyclage « au mieux [de] 70 % à l’échelle nationale« . D’autres efforts doivent donc être mis en place. La mesure phare est la multiplication de nouveaux types de consignes pour le tri hors-domicile, à l’instar des machines automatisées de Lemon Tri et Canibal, ou des kiosques Réco. Le gouvernement veut également développer la « consigne solidaire » dans les collectivités. « Chaque nouvelle bouteille et canette collectée contribuerait au financement d’une grande cause environnementale, de santé ou de solidarité« , explique la Feuille de route. Ces opérations seront financées grâce à un soutien spécifique à la tonne collectée reversé par les éco-organismes agréés de la filière des emballages. Des expérimentations de consigne seront également lancées dans les territoires ultramarins volontaires. Par ailleurs, trois nouvelles filières de responsabilité élargie des producteurs (REP) seront créées pour développer le recyclage des jouets, des équipements de sport et des articles de bricolage et de jardin.

Pour une nouvelle fiscalité des déchets

Le taux de TVA sera réduit à 5,5 % pour les activités contribuant à l’économie circulaire, comme la prévention, la collecte sélective et la valorisation des déchets. De même, la taxe générale sur les activités polluantes (TGAP) va être repensée pour que le recyclage soit favorisé par rapport à la mise en décharge. Les déchets plastiques qui ne peuvent pas être recyclés, comme ceux contenant des substances polluantes organiques persistantes ou les déchets médicaux, seront exonérés de TGAP s’ils sont incinérés avec valorisation énergétique.

En outre, les frais de gestion de la taxe d’enlèvement des ordures ménagères (TEOM) seront réduits de 8 à 3 % en cas d’introduction d’une part de tarification incitative. Cette dernière vise à faire payer les usagers en fonction de la quantité de déchets qu’ils produisent. Cela diminuera d’autant le coût de gestion des déchets et facilitera les investissements de modernisation des centres de tri.

Augmenter le recours aux plastiques recyclés

D’ici l’été prochain, le gouvernement attend des engagements volontaires de la part des industriels de la filière plastique. Ces engagements se feront résine par résine, en particulier pour le polystyrène (PE), le polyéthylène (PE), le polypropylène (PP) et le polychhlorure de vinyle (PVC). Les secteurs concernés sont l’emballage, le bâtiment, l’automobile et les équipements électriques et électroniques.

La Fédération de la plasturgie et des composites travaille ainsi sur le déploiement d’objectifs volontaires d’introduction de matières recyclées par filière. Elle juge qu’elle pourra atteindre un taux moyen d’incorporation de 40% de recyclé. Avec des aides de l’Etat, il serait possible d’arriver à un taux de recyclage nettement plus élevé. Les annonces pourraient néanmoins être insuffisantes pour atteindre l’objectif recherché.

Des mesures qui manquent à l’appel

Pour augmenter le recyclage des plastiques, il faudra développer de nouvelles filières pour les plastiques de moindre valeur, notamment le polystyrène et les films en polyéthylène. Suite à l’interdiction des importations chinoises de plastiques en mélange, il faudra également développer de nouvelles usines de surtri et de lavage en France et en Europe. Aucune annonce n’est faite dans ce sens.

Un point important reste à préciser. Les éco-organismes devront élaborer un plan quinquennal sectoriel pour développer l’éco-conception des plastiques. Par ailleurs, des sanctions sont prévues pour les éco-organismes qui n’atteignent pas leurs objectifs environnementaux. Toutefois, rien ne garantit que ces deux mesures suffiront à faire en sorte que seuls des plastiques 100 % recyclables soient mis sur le marché dans quelques années. En plus, aucun soutien particulier n’est prévu pour démocratiser la réutilisation des plastiques ou pour développer les bioplastiques.

La France a interdit le recours aux microbilles de plastique dans les cosmétiques rincés à usage d’exfoliation ou de nettoyage. Elle poussera cette interdiction au niveau européen. La France compte aussi pousser l’interdiction des plastiques fragmentables et des contenants en polystyrène expansé pour la consommation nomade. Par ailleurs, afin de limiter la dispersion des granulés de plastique, le gouvernement imposera d’ici 2022 l’installation de filtres de récupération des particules de plastiques sur les sites où celles-ci sont produites ou utilisées en France. En revanche, aucune mesure ne vise à interdire ou diminuer le recours aux plastiques à usage unique, comme cela est envisagé dans de nombreux pays.

Par Matthieu Combe, journaliste scientifique

Tatouages : vraiment indélébiles ?

Pendant de nombreuses années, on pensait que les tatouages teintaient les cellules du derme de la peau, les fibroblastes. Cependant, des chercheurs ont suggéré plus récemment que les macrophages de la peau (des cellules immunitaires spécialisées résidant dans le derme) « engloutissaient » le pigment du tatouage, comme ils le feraient normalement avec un pathogène envahisseur ou un morceau de cellule mourante. Dans les deux cas, on présumait que la cellule porteuse de pigment vivait éternellement, permettant ainsi au tatouage d’être plus ou moins permanent.

Cette hypothèse est remise en question par une équipe de recherche associant des chercheurs de l’Inserm et du CNRS, dirigée par Sandrine Henri et Bernard Malissen du Centre d’Immunologie de Marseille-Luminy, qui a développé avec l’aide du Centre d’Immunophénomique de Marseille une souris génétiquement modifiée capable de tuer les macrophages résidant dans son derme. Au cours des semaines, les chercheurs ont observé que les cellules ainsi détruites avaient été remplacées par de nouveaux macrophages dérivés de cellules précurseurs présentes dans le sang et en provenance de la moelle osseuse et connues sous le nom de monocytes.

Ils ont ainsi découvert que les macrophages du derme étaient le seul type de cellules à absorber le pigment lors du tatouage de la queue des souris. Malgré la mort programmée de ces macrophages, l’apparence du tatouage ne changeait pas. L’équipe a donc conclu que les macrophages morts libéraient le pigment dans la zone les environnant où, au cours des semaines suivantes, ce pigment était réabsorbé par de nouveaux macrophages.

tatouages1

Ce cycle de capture, libération et recapture du pigment se produit continuellement dans une peau tatouée, même lorsque les macrophages ne sont pas tués en une seule fois. Les chercheurs ont ainsi transféré un morceau de peau tatouée d’une souris à une autre et découvert que, six semaines plus tard, la plupart des macrophages porteurs de pigment provenaient de l’animal destinataire plutôt que de l’animal donneur.

« Nous pensons que, lorsque des macrophages porteurs de pigment de tatouage meurent au cours de la vie adulte, d’autres macrophages environnants recapturent les pigments libérés et assurent d’une manière dynamique l’apparence stable et la persistance à long terme des tatouages », explique Sandrine Henri, chercheuse Inserm et co-responsable du projet de recherche.

tatouages2

Les tatouages peuvent être effacés par des impulsions laser qui provoquent la mort des cellules cutanées et la libération et fragmentation de leurs pigments. Ces derniers peuvent ensuite être transportés loin de la peau via les vaisseaux lymphatiques qui drainent la peau. « Le détatouage via cette technique laser peut probablement être amélioré par l’élimination temporaire des macrophages présents dans la zone du tatouage», déclarent les chercheurs. « Ainsi, les particules fragmentées de pigment générées au moyen des impulsions laser ne seront pas immédiatement recapturées : cet état augmente la probabilité de les voir évacuées par les vaisseaux lymphatiques. »

Source : cnrs

Failles dans les puces : la performance au détriment de la sécurité informatique

En matière de sécurité informatique, il y a deux règles incontournables. Plus on développe un appareil (ou un programme) complexe, plus il est difficile de repérer des vulnérabilités. Plus vous développez un appareil performant ou économe, plus vous risquez de délaisser sa sécurité. Dans le premier cas, cette règle s’appliquera certainement aux ordinateurs quantiques. Dans le second cas, cela concerne déjà les objets connectés et autres capteurs : pour simplifier cette problématique, on peut dire que le design fait l’impasse sur le chiffrement des flux pour ne pas utiliser trop la batterie.

Or, les failles Meltdown et Spectre (huit autres, dont 4 critiques, ont été découvertes début mai) confirment que la sécurité informatique doit être globale pour être efficace ! Impactant différentes microarchitectures d’Intel et d’autres fondeurs comme AMD, ces vulnérabilités ont été découvertes en janvier dernier par une équipe de recherche internationale. Soutenu par un financement de l’UE pour le projet SOPHIA (Securing Software against Physical Attacks), l’Institut de traitement de l’information et des communications de l’Université de Graz (Autriche) a joué un rôle central.

Milieu des années 90

La cause fondamentale de Meltdown est le matériel. Indépendante du système d’exploitation, elle rompt toutes les hypothèses de sécurité reposant notamment sur l’isolation de la mémoire. Sur les systèmes concernés, Meltdown permet à une personne malveillante de lire la mémoire des processus et des machines virtuelles sans aucune permission ou privilège. Bref, elle peut accéder à des données personnelles ou sensibles. Quant à la faille Spectre, elle permet de voler les données de la mémoire d’autres applications exécutées sur une machine en contournant l’isolation qui les sépare. Précisons toutefois que ce pirate doit avoir un accès physique au PC pour profiter de ces deux vulnérabilités.

Cette opération est rendue possible par une caractéristique de performance appelée « exécution dans le désordre ». Afin d’accélérer un processus, « les processeurs modernes exécutent les opérations dans le désordre, c’est-à-dire qu’ils anticipent et programment les opérations ultérieures pour ralentir les unités d’exécution du processeur », expliquent l’équipe de Graz et d’autres chercheurs dans un communiqué publié sur le site web de la bibliothèque de l’université Cornell.

Le plus inquiétant que ces failles ont été découvertes récemment, mais qu’elles existent depuis le milieu des années 1990 ! Elles vont peut être obliger le monde informatique à revoir sa copie avec ce commentaire classique : « Peut mieux faire ! ».

Complexité et sécurité

« La façon traditionnelle de concevoir les processeurs met l’accent sur la performance et uniquement sur la performance », rappelle Stefan Mangard qui a dirigé l’équipe de Graz.

« Plus quelque chose est complexe, plus il est difficile à sécuriser. Or, un CPU moderne est conçu pour la performance, pas pour la sécurité. Vous avez besoin d’une approche différente, qui consiste à concevoir le matériel en pensant à la sécurité et non à l’optimiser pour autre chose », rappelle Ben Levine, directeur de la gestion des produits chez Rambus, une entreprise américaine spécialisée dans la sécurité des semi-conducteurs.

Et le pire est à venir lorsque de nombreuses failles de sécurité seront découvertes et exploitées dans tous les objets connectés destinés à des usages professionnels ou de santé… « Mon évaluation de la sécurité dans l’IoT ? Zéro », a déclaré Richard Soley, directeur exécutif de l’Internet Industry Consortium.

Par Philippe Richard

Un nouveau plan de rénovation énergétique des bâtiments

Nicolas Hulot, ministre de la transition écologique et solidaire, et Jacques Mézard, ministre de la Cohésion des territoires ont présenté leur nouveau plan de rénovation énergétique des bâtiments.  Il est issu de plus de trois mois de concertation, de novembre 2017 à janvier 2018, avec tous les acteurs concernés, et de plus de 550 contributions recueillies en ligne. 

Le gouvernement rappelle que le secteur du bâtiment représente 45 % de la consommation d’énergie finale et 27 % des émissions de gaz à effet de serre nationales. Par ailleurs, 7 millions de logements sont mal isolés, 14 % des Français disent avoir froid chez eux en hiver et 3,8 millions de ménages ont des difficultés à payer leur facture énergétique. D’où l’urgence qu’il y a à lancer des rénovations ambitieuses.

Accélérer encore et toujours la rénovation

Le gouvernement entend donc mettre les bouchées doubles pour accélérer la rénovation énergétique de tous les bâtiments, notamment pour les ménages modestes. Son plan comprend une feuille de route en 4 axes, 12 actions et 32 mesures. Objectif prioritaire : rénover 500.000 logements par an, dont 100.000 passoires thermiques (étiquetées de E à G) dans le parc social et 150.000 appartenant à des ménages propriétaires modestes. En somme, la moitié des rénovations annuelles devrait venir en soutien  aux ménages les plus modestes. Enfin, 15 % d’économies d’énergie devront être réalisées d’ici 5 ans pour le parc immobilier de l’État, par rapport à son niveau de 2010.

Au total, le plan représente environ 14 milliards d’euros de soutien sur le quinquennat. Dans le détail, 1,2 milliard d’euros seront consacrés à l’Agence nationale pour l’amélioration de l’habitat (Anah)  pour rénover 375.000 logements de ménages aux revenus modestes. En plus, 3 milliards d’euros de prêts bonifiés seront accordés aux bailleurs sociaux pour la rénovation de 500.000 logements. Encore à destination des ménages, 5 milliards d’euros seront alloués aux certificats d’économie d’énergie (CEE) sur trois ans, avec une part réservée aux foyers aux revenus les plus modestes. Ensuite, 4,8 milliards seront consacrés aux bâtiments publics : cités administratives, écoles, hôpitaux, etc. Et 200 millions d’euros sur trois ans, pour l’innovation, la formation et la solidarité grâce aux programmes (CCE).

Remplacer le crédit d’impôt par une prime forfaitaire

La mesure phare de ce plan est le remplacement du crédit d’impôt pour la transition énergétique (CITE) par une prime d’un montant forfaitaire par type d’équipement dès 2019. Alors que les ménages bénéficiaient du crédit d’impôt l’année fiscale suivant leurs travaux, la prime sera désormais immédiate, sur présentation des justificatifs. Par ailleurs, l’éco-prêt à taux zéro, qui permet de payer le reste à charge, va être revu et mis en cohérence avec la prime. Les démarches seront simplifiées et les conditions pour en bénéficier plus claires.

Un fonds de garantie pour les ménages aux revenus modestes

Malgré de nombreuses aides, les dispositifs existants ne financent pas la totalité des coûts de rénovation. Dans ces conditions, les moins bien lotis ont du mal à entreprendre ces travaux, ne pouvant accéder aux prêts bancaires. Pour y remédier, un fonds de garantie pour la rénovation énergétique sera créé. Financé par EDF grâce au dispositif des certificats d’économies d’énergie (CEE), il sera doté de 57 millions d’euros sur trois ans. Il assurera ainsi des prêts garantis, pendant 3 ans, à 35.000 ménages modestes. Ce fonds permettra également de garantir les prêts collectifs de plus de 6.500 copropriétés par an pour leurs travaux de rénovation.

Une étiquette énergie des logements plus fiable

Les critiques sont récurrentes concernant le diagnostic de performance énergétique (DPE). Il n’existe pas de méthode normalisée et les résultats varient énormément en fonction des diagnostiqueurs. Un contrôle renforcé sera mis en place dès le printemps 2018 et le DPE sera techniquement fiabilisé. Si l’étiquette énergétique s’avère incorrecte, il sera simple de la contester d’ici mi-2019.

Mieux former les professionnels et contrôler les travaux

Le label RGE (reconnu garant de l’environnement) permet d’identifier les professionnels compétents pour réaliser des travaux de rénovation énergétique. Seuls les travaux menés par des professionnels RGE sont actuellement éligibles au crédit d’impôt. Le label sera encore amélioré, 65.000 professionnels seront mieux formés et le contrôle de la qualité des travaux effectués par les professionnels RGE sera renforcé. L’éco-conditionnalité des aides s’appliquera à la prime qui va se substituer au CITE, comme à l’éco-PTZ.

Les prix des travaux seront également rendus plus transparents grâce à la création d’un Observatoire de la rénovation énergétique. La filière immobilière, notamment les syndics de copropriétés, sera formée pour mieux maîtriser les enjeux énergétiques.

Par Matthieu Combe, journaliste scientifique