La maquette numérique bouleverse les codes du BTP

Acronyme de Building Information Modeling, BIM désigne le concept de maquette numérique du bâtiment. Un plan 3D, en somme ? En vérité, la méthode va bien au-delà : dans une maquette BIM, à la différence d’une maquette 3D classique, la moindre fenêtre est nommée comme telle et constitue un objet 3D distinct, auquel sont attribués des méta-données décrivant ses caractéristiques, dont le matériau employé, le type de vitrage, etc. Le modèle résultant est suffisamment complet et explicite pour envisager de la simulation de performances, un exercice dont la grande industrie manufacturière est coutumière depuis 25 ans. «Alors que le BTP ne se livre qu’à des calculs réglementaires, l’industrie utilise la simulation pour vérifier que le fonctionnement d’une voiture ou d’un avion sera optimal avant même sa fabrication, explique l’architecte François Pélegrin, à la tête du cabinet d’architecture du même nom. Les détracteurs objectent que ce n’est pas nécessaire car chaque bâtiment est unique. De mon point de vue, c’est une raison supplémentaire de le définir intégralement de manière virtuelle avant de commencer le chantier. C’est la maquette BIM qui fait figure de prototype

Une maquette très visuelle, donc très éclairante. «Cet outil démocratise la compréhension des projets, poursuit François Pélegrin. Il facilite la lecture des contraintes issues du Plan local d’urbanisme, car celles-ci sont matérialisées en 3D. La vérification se déroule sereinement. A Bussy Saint-Georges (en Seine-et-Marne, ndlr), où seront livrés en décembre prochain 109 logements pour l’association Emmaüs, nous avons déposé en avril 2016 le premier permis de construire numérique en France et avons pu faire en deux heures avec l’instructeur, grâce au BIM, ce qui peut nécessiter plusieurs semaines.» A fortiori quand la réalité virtuelle, prolongement naturel du BIM, est mise à contribution. «Co-développée avec BTP Consultants et Scale-1, BIM Screen, notre application de revue en projet en 3D immersive, permet de visiter le bâtiment virtuel. Le but ne change pas : il s’agit d’anticiper les difficultés futures, que ce soit pendant la maîtrise d’oeuvre ou plus tard, l’exploitation

L’adoption s’accélère

Ce point illustre combien le BIM ne se résume pas à un corpus de règles techniques et encourage surtout une approche collaborative. Chaque métier est invité à partager des informations et à enrichir, ce faisant, la maquette BIM qui devient le pivot du projet. Et cela même si, hélas, les intervenants ne sont pas toujours à la hauteur de leurs prétentions. «Des bureaux d’étude, des entreprises voire des architectes font de beaux discours, mais l’épreuve du feu révèle qu’ils ne maîtrisent pas le BIM» regrette François Pélegrin, qui reconnaît que le secteur est en phase d’apprentissage mais plaide pour l’honnêteté. «Sur le chantier de Bussy Saint-Georges où le BIM ne faisait certes pas partie des engagements, le bureau d’études promouvait des compétences BIM qu’il ne possédait pas au final. Nous avons dû le remplacer pour effectuer en phase concours les calculs thermiques» enchaîne-t-il.

Heureusement, l’idée et surtout les compétences progressent. Et de plus en plus vite, observe Philippe Valentin, président et fondateur de la plateforme BIM Sky : «Le sondage que nous avions réalisé il y a un an montrait encore des réticences, liées notamment à l’aspect «high tech» du BIM. Aujourd’hui, la méfiance a quasiment disparu. Les syndicats et les fédérations du BTP sont sensibilisées. Tout l’écosystème du bâtiment pousse en faveur de l’adoption du BIM, avec un effet amplificateur. » Les chiffres publiés en mars dernier par le Plan de transition numérique dans le bâtiment (PTNB) abondent dans ce sens : fin 2017, 35% des 1360 professionnels interrogés déclaraient avoir une connaissance suffisante du BIM, soit 15% de plus qu’un an plus tôt, et 53% estiment avoir besoin de se former rapidement. La plateforme BIM Sky, créée en mars 2017, est un centre d’expertise et de formation consacré aux néophytes et aussi aux professionnels avertis qui cherchent une réponse précise. «On essuie les plâtres depuis 2012, indique Philippe Valentin. Nous faisons profiter les entreprises de notre expérience pour leur éviter de reproduire les mêmes erreurs.» BIM Sky assure actuellement la gestion BIM de la prochaine usine PSA au Maroc, livrée début 2019. Les lignes de production, modélisées avec le logiciel Catia, sont intégrées dans la maquette BIM, réalisée avec Revit. La maquette fera office de superviseur général pour observer comment les processus industriels et l’infrastructure du bâtiment s’interconnectent.

siege bim sky
La maquette BIM du futur siège du groupe Valentin et de BIM Sky, livré début 2019. Même le mobilier de bureau a été modélisé.

 

Les signaux étant positifs, la règlementation pour imposer le BIM, mise sur la table en janvier 2017 avant d’être reportée, n’est peut être pas une étape obligatoire. Alors que plusieurs pays l’ont inscrit dans la loi pour les marchés publics, comme le Royaume-Uni, ou prévoient de le faire, les pouvoirs publics en France misent sur l’incitation. La filière du bâtiment a de son côté signé une charte où elle s’engage à généraliser le BIM dans toute construction neuve d’ici à 2022. Le marché se structure de lui-même, semble-t-il, et «la France, qui se croyait en retard il y a cinq ans, fait maintenant partie des bons élèves» se réjouit François Pélegrin. Mais l’impact sera majeur sur les métiers et la façon dont ils interagissent, dans ce véritable mille-feuilles qu’est le bâtiment. «Le BIM va bouleverser beaucoup de choses dans le jeu des acteurs, confie François Pélegrin. Les métiers qui reposent sur du code-calcul (thermique, acoustique, structure…) peuvent exécuter une simulation à partir de la maquette. L’expertise subsiste mais les autres tâches, les métrés par exemple, disparaissent et le temps passé sur le projet s’en trouve réduit. Si moi, architecte, je consacre une centaine d’heures supplémentaires à la réalisation d’une maquette BIM qui fait économiser une centaine d’heures au bureau d’études, je m’attends à ce que les honoraires soient renégociés. Les rapports entre fournisseurs de produits et services et concepteurs changent également, le choix d’un équipement pouvant être automatisé à partir d’une maquette BIM. Les modes de consultation seront révolutionnés

Un outil de contrôle-qualité

Les écueils ne manqueront probablement pas, le temps qu’une nouvelle organisation se mette en place. Mais ils ne font guère le poids au regard des bénéfices attendus, ne serait-ce que pour diminuer les erreurs de conception. «Les reprises pour cause de non-qualité coûtent entre 10 et 15 milliards d’euros par an au secteur du BTP,  soit environ 15% du chiffre d’affaire total, estime François Pélegrin. La maquette numérique permettra d’effacer une bonne partie de ce gaspillage. J’en ai fait l’expérience avec un charpentier qui travaille depuis toujours en 3D. La charpente initiale ne correspondait pas à notre projet de couverture dans la maquette, la position des velux n’étant pas respectée. Le charpentier a pu la modifier en phase de conception, s’épargnant 2000 à 3000 € de rectifications sur le chantier.» Philippe Valentin évoque aussi des premiers retours patents : «Pour un projet de bâtiment résidentiel collectif simple, une démarche BIM sérieuse engendre entre 7 et 24 € d’économie au mètre-carré. Et plus un projet est complexe, plus le BIM est utile

Des économies seraient donc à la clé, malgré l’investissement initial, estimé par Philippe Valentin à 10000 € par personne, en additionnant les coûts du  logiciel, du matériel et de la formation. Ce qui est une somme pour une TPE. Quant à la durée supérieure de la phase d’études et de conception, elle est endossée principalement par les architectes. «Mais il faut raisonner en coût total de possession, observe Philippe Valentin. Si le projet est conduit de manière globale, et non étape par étape, et soutenu par un vrai «coach » BIM, tout le monde est gagnant, du maître d’ouvrage aux entreprises qui ont réalisé le projet. Les gains sont réalisés sur tous les postes et pour tous les corps de métier : consommation énergétique, approvisionnements, modes opératoires, etc. Les acteurs qui se sont engagés dans une démarche BIM ne reviennent pas en arrière, c’est la meilleure preuve que ça marche. »

Le numérique et ses dangers

La problématique de la propriété intellectuelle des données resurgit souvent quand une démarche BIM est entreprise. «Mais ce souvent les avocats qui agitent le drapeau, tempère François Pélegrin. Depuis 30 ans, on échange des documents électroniques, des plans notamment, et personne ne s’en inquiète.» Le danger viendrait plutôt des effets inhérents du numérique, à savoir le piratage des données et «l’ubérisation» : une IA suffisamment entraînée pourrait traiter des millions de modèles 3D pour élaborer automatiquement un nouveau projet, menaçant du même coup tous les métiers créatifs, dont l’architecture. Autodesk, dont le logiciel Revit est leader du marché, est également ciblé depuis novembre 2017 par une pétition de l’Unsfa (Union nationale des syndicats français d’architectes), qui accuse l’éditeur de commettre un «racket», ni plus ni moins. En cause : le passage du mode d’achat de licence perpétuelle à un mode par abonnement, l’augmentation jugée exorbitante du coût des mises à jour, la «confiscation» des données, hébergées désormais sur le cloud… L’éditeur s’est défendu depuis, mais l’affaire se poursuit.

Frédéric Monflier

Comment le thermicien économise de l’énergie

EnergyPlus, Pleiades ou encore ClimaWin : ces logiciels de simulation sont utilisés pour modéliser le comportement thermique d’un bâtiment, neuf ou en cours de réhabilitation, dans le but d’estimer sa consommation énergétique. Ils sont indispensables, ne serait-ce que pour vérifier la conformité du futur ouvrage à la règlementation thermique en vigueur et aux labels de performance énergétique visés par le maître d’ouvrage. Mais ils n’ont rien d’une partie de plaisir pour les bureaux d’études. «L’ingénieur thermicien doit saisir à la main de nombreux paramètres – géométrie, matériaux, environnement, climat… – avant de lancer le calcul du modèle thermique et d’analyser le confort, les déperditions, etc. détaille Donia Marzougui, ingénieur en efficacité énergétique des bâtiments BIM au sein de l’INES (Institut national de l’énergie solaire). La préparation est laborieuse. Les préconisations du bureau d’études se traduisent par des modifications de la maquette 3D de l’architecte et ainsi de suite. Chacun travaillant sur un support différent, ces allers-retours sont synonymes de perte de temps, voire d’informations

Le BIM est voué à fluidifier ce processus. «La maquette BIM est importée dans le logiciel de simulation, via un protocole d’interopérabilité (IFC, Green Building XML…), explique Donia Marzougui. L’ingénieur n’a plus besoin d’élaborer son propre modèle géométrique et gagne du temps. Il exécute la simulation thermique comme d’habitude et, si jamais des changements sont nécessaires, il pourra réaliser un nouveau calcul à partir de la maquette actualisée par l’architecte, sans avoir à tout recommencer. Le BIM change les pratiques du métier et requiert une période d’adaptation, mais il accélère les prises de décision, quant aux choix des matériaux par exemple. Il permet d’examiner plus rapidement plusieurs scénarios énergétiques.»

Détection automatique de ponts thermiques

L’idée de raccourcir ces longs processus a incité le CSTB (Centre scientifique et technique du bâtiment) à fusionner deux outils dont il est le promoteur : eveBIM, un «viewer» gratuit pour visualiser la maquette BIM, et Trnsys, logiciel de simulation thermique dynamique considéré comme une référence. «La maquette BIM, via IFC, est désormais compatible avec Trnsys et peut être enrichie avec les propriétés thermiques des matériaux notamment, commente Paul Sette, ingénieur dans la division Système d’information et Applications métier au CSTB. La simulation s’appuie sur l’enveloppe BIM 3D existante, ce qui supprime une étape. Toutes les dimensions sont systématiquement prises en compte dans le calcul des échanges thermiques entre les pièces adjacentes, avec l’extérieur, etc. Avec l’apport de maquette BIM 3D, les ponts thermiques sont aussi détectés de manière automatique. L’ingénieur économise plusieurs jours de saisie dans les projets de grande ampleur, temps qu’il pourra consacrer à optimiser les paramètres. C’est là où se situe sa valeur ajoutée. Enfin, Trnsys est très puissant mais très exigeant. Couplé à eveBIM, il se veut plus convivial, plus accessible.»

evebim
Le logiciel eveBIM-Trnsys affiche les courbes de température consécutives à une simulation, réalisée directement à partir d’une maquette BIM.

La maquette BIM et son export ont logiquement une incidence sur la simulation thermique ultérieure. «Que ce soit pour le dessin du modèle 3D ou la création de l’IFC, plusieurs options sont possibles, mais certains choix sont meilleurs que d’autres pour que la simulation thermique soit réussie, confie Paul Sette. Le CSTB a donc édité un guide de bonnes pratiques pour accompagner les architectes et les bureaux d’études. L’apparence de la maquette ne change pas, mais les outils utilisés dans le logiciel CAO seront mieux adaptés

Frédéric Monflier

BIM et énergie : formations européennes en vue

Sacré raccourci que BIMEET,  qui signifie précisément «BIM-based EU-wide standardized qualification framework for achieving energy efficiency training». Né en septembre 2017 et prévu pour deux ans, ce projet européen réunit plusieurs organismes de cinq pays différents (France, Angleterre, Luxembourg, Grèce et Finlande), dont le CSTB et l’INES en France. Financé par le programme de recherche et de l’innovation H2020, il se consacre à la formation à l’efficacité énergétique dans une démarche BIM et cherche à impliquer tous les métiers de la construction, techniciens et ouvriers de chantier en particulier. «Un premier état des lieux indique qu’il n’y a pas ou peu de formations sur le sujet, constate Donia Marzougui de l’INES. BIMEET s’efforcera d’améliorer les compétences et les qualifications des professionnels du secteur du bâtiment en démontrant l’utilité du BIM dans la construction durable et éco-énergétique. Les résultats seront diffusés sur la base du cadre européen de qualifications

Enfin une plateforme d’échange de déchets entre industriels !

Techniques de l’ingénieur :  Pouvez-vous nous présenter le fonctionnement de votre plateforme?

Olivier Gambari : iNex Circular est une plateforme qui cartographie les besoins en matières premières sur une zone, ainsi que les déchets qui y sont produits.  Elle permet de faire de l’écologie industrielle et territoriale, l’un des sept piliers de l’économie circulaire. Les sociétés qui nous intéressent sont celles qui ont des besoins en matières premières et celles qui mettent leurs déchets en décharge ou les envoient à l’incinération. Plutôt que de consommer uniquement de la matière brute, elles pourront, grâce à notre solution, s’échanger des déchets.

Grâce à notre base de connaissance sur la substitution des matières, la plateforme sait quelle matière première peut être remplacée par quel déchet présent sur la zone.  L’intérêt même du système est de faire « matcher » les entreprises pour que les déchets des unes, deviennent les matières premières des autres. Pour ce faire, nous utilisons des données à disposition en open-data. Cela nous permet de ne pas avoir à contacter les entreprises une par une ! Il existe ainsi de nombreuses bases de données déclaratives sur les déchets. Les syndicats et réseaux professionnels nous fournissent également des informations sur les matières premières utilisées et les déchets produits.

E.T.I : Qui sont vos clients ?

O.G : Nous travaillons avec des entreprises industrielles : il en existe 235.000 en France dont certaines ont une obligation légale de déclarer les déchets qu’elles produisent, ainsi que certaines matières premières qu’elles consomment.  Nous avons également récolté directement des données auprès des 3.000 entreprises avec qui nous avons travaillé en direct. Enfin, nous intégrons les fermes et de la restauration collective lors de démarches de bio-méthanisation.

La plupart de nos clients sont des acteurs locaux de développement qui veulent mettre en place une écologie industrielle et territoriale (EIT).  Ce sont des collectivités, des gouvernements, des communautés de communes ou des régions. Nous travaillons avec plus de 1.000 entreprises en Belgique, avec le gouvernement wallon, depuis novembre dernier. Cela va très vite grâce au soutien politique : plusieurs synergies ont déjà été mises en place. Nous sommes aussi implantés sur trois zones industrielles en Espagne. En France, nous avons travaillé uniquement sur le projet Rhône Médian. Un fabricant de films plastique va y récupérer les films de plusieurs acteurs sur la zone. Nous sommes en discussion avec une chaîne de magasins nationale pour valoriser localement ses films. En revanche, il n’y a pas d’appel d’offre depuis plus d’un an sur l’économie circulaire et notamment sur l’EIT. La feuille de route sur l’économie circulaire n’en prévoit pas non plus.

E.T.I : Concrètement, comment accompagnez-vous les entreprises ?

O.G : Le travail se fait en trois étapes. La première phase est d’utiliser notre outil pour savoir quelles sont les grandes tendances sur le territoire. Cela permet de savoir quelles sont les matières sur lesquelles il y aura le plus de rentabilité . Ce bilan est automatique grâce à nos bases de données.

Nous organisons ensuite des ateliers avec les entreprises ciblées autour d’une thématique matière. À ce moment, les acteurs ont tout intérêt à travailler entre elles. Suite à ces ateliers, nous créons des réseaux sur la plateforme entre les entreprises désireuses de se lancer. Nous essayons alors d’inciter les entreprises qui ne se sont pas manifestées à faire partie de cette synergie. Nous accompagnons les entreprises pour leur fournir les moyens techniques. Nous trouvons notamment un logisticien local et les technologies nécessaires.

E.T.I : Quelles sont les matières les plus échangées via iNex Circular ?

O.G : Les entreprises qui utilisent la plateforme échangent notamment des plastiques, des cartons, du bois pour faire du bois-énergie ou des palettes. Il y a également tout ce qui est lié à la méthanisation. Ce sont les déchets issus de l’alimentation collective ou des fermes.

Nous travaillons également sur des déchets plus spécifiques. Nous avons récemment travaillé avec une enseigne de supermarchés pour valoriser les épluchures de ses oranges pressées. Nous travaillons par ailleurs sur un projet de valorisation du phosphore contenu dans des tensio-actifs d’eaux de lavage.

E.T.I : Y a-t-il une distance maximale de parcours pour les déchets ?

O.G : Le transport est généralement au maximum de 100 km. Ce sont les coûts de transports qui imposent la distance maximale. Les acteurs qui passent le cap le font parce que cette solution coûte moins cher que les méthodes d’élimination traditionnelles. Cela permet également de baisser leurs émissions de CO2.

Enfin, je tiens à dire que la feuille de route de l’économie circulaire est extrêmement généraliste et n’apporte pas de solutions concrètes. Toutefois, le triplement de la taxe générale sur les activités polluantes (TGAP) va aider à la mise en place de ce genre de démarches. La mise en décharge des déchets va commencer à coûter extrêmement cher. Cela fait et va faire venir vers nous de plus en plus d’entreprises.

Propos recueillis par Matthieu Combe, journaliste scientifique

Revue du web #115 spéciale robotique : les 5 vidéos les plus étonnantes

Entrepôt du futur : 1100 robots en action

Chez Ocado, un magasin britannique, les robots préparent 65 000 commandes par semaine. Aucune collision grâce à un système de contrôle de trafic aérien !

 

Le retour des Transformers : ce robot se transforme en vol !

Son nom ? Dragon…
Conçu par une équipe de l’université de Tokyo, il peut modifier sa forme en vol pour se faufiler dans des environnements difficiles et même saisir des objets.

 

La réalité augmentée pour faciliter la collaboration homme-machine

Grâce au casque HoloLens, le laboratoire de robotique de l’université de Brown peut visualiser en réalité augmentée les mouvements planifiés par un robot.

 

Matériaux : une fibre élastique pour créer des nerfs artificiels de robot

Des chercheurs de l’Ecole polytechnique fédérale de Lausanne ont imaginé une fibre très élastique utilisable comme capteur. Doigts robotiques, vêtements… les applications possibles sont multiples.

 

Un robot doté de… vrais muscles

Ce petit robot biohybride japonais est pourvu de petits muscles plus vrais que nature, créés à partir de  cellules souches de rat.

Par I. B.

Revue de presse anglophone #17

La coupe du monde de football… robotique

Capture d’écran 2018-06-26 à 11.01.56

Pendant que la « vraie » coupe du monde de football se déroule en Russie, une autre compétition, robotique cette fois, se déroule à Montreal. Lire

Source : The Guardian

Comment les compagnies téléphoniques se partagent vos données

Capture d’écran 2018-06-26 à 11.14.08

Aux Etats-Unis les scandales récents concernant l’usage des données privées par les opérateurs téléphoniques ont fait prendre conscience des enjeux entourant cette problématique. Lire

Source : Wall Street Journal

Comprendre pourquoi le corail meurt

Capture d’écran 2018-06-26 à 11.18.47

Dans un laboratoire de Philadelphie, des chercheurs s’acharnent à faire mourir du corail pour mieux comprendre l’impact des activités humaines sur ces organismes. Lire

Source : New York Times

Jugement capital pour Uber à Londres

Capture d’écran 2018-06-26 à 11.24.09

Uber pourrait perdre sa licence pour exercer ses activités au Royaume -Uni. Le jugement qui commence cette semaine à Londres est très important pour la start-up américaine. Lire

Source : New York Times

Les pistolets à rayons laser, c’est pour quand?

Capture d’écran 2018-06-26 à 11.28.30

Pour le moment les pistolets à rayons laser existent… sous forme de jouets pour les enfants. En sera-t-il autrement un jour ? Lire

Source : The Guardian

Femme et ingénieure… épisode 2

La faible proportion de femmes ingénieures a incité la CDEFI (Conférence des directeurs des écoles françaises d’ingénieurs) à mettre en place l’opération Ingénieuses en 2011, afin d’attirer davantage de jeunes filles en écoles d’ingénieur-e-s. La cérémonie de remise des prix a eu lieu le 25 mai dernier, l’occasion de rencontrer la lauréate Elève-ingénieur Maghreb, Siham MEFTAHI.

 

Son parcours :  

Siham a été chef de projet et Vice Team Leader à Enactus, le réseau des jeunes entrepreneurs des Arts et Métiers de Casablanca pendant 4 ans (2014-2018). Cette expérience lui a permis de s’interroger sur la condition de la femme. Cela l’a poussée à fonder son entreprise sociale féminine « Safe Eat » : en mêlant le problème des femmes inactives et la dangerosité des fast food.  Safe Eat est un réseau de femmes en situation difficile qui préparent des plats sains, et assurent la restauration d’événements. Elle est membre de l’association Moukawilati qui aide les femmes marocaines à entreprendre.  Elle a été nominée par Google et a remporté le prix d’entrepreneur junior femme 2017.

 

Entretien avec Siham :

Qu’est-ce qui a vous a motivée à participer au concours Ingénieuses’18 ?

S.M. : Ce concours met en valeur le savoir-faire technique des femmes et donne une belle image des femmes intelligentes. De plus, c’est un concours français qui a choisi d’être ouvert sur le Maghreb, donc pour moi, en tant que jeune femme ingénieure et entrepreneure, c’était une opportunité de montrer l’image de la femme marocaine et maghrébine, et surtout d’encourager d’autres jeunes de mon pays à participer à ce genre de concours.

 

Pourquoi avoir voulu devenir ingénieure/entrepreneure ?

S. M. : Cela remonte à mon enfance. Mon grand frère est ingénieur, il représentait pour moi un exemple. Avec tous les livres à la maison, la façon dont mes parents étaient fiers de lui, j’ai voulu à mon tour être ingénieure. De plus, j’avais un très bon esprit d’analyse que je voulais développer. Ingénieure, c’était ce que je voulais être, et j’ai relevé le défi de le devenir. Après avoir intégré l’ENSAM Casablanca, j’ai découvert ma passion pour l’entrepreneuriat et j’ai encore choisi de suivre mon instinct. Mon nouveau défi : comment utiliser ce savoir acquis au sein de mon école pour aider l’évolution de mon pays, et surtout des femmes de mon pays ? Comment faire entendre aux jeunes filles qu’il suffit d’y croire pour aboutir à ses objectifs ? Comment réaliser un vrai changement ? La combinaison ingénieure et entrepreneure était tout simplement la réponse : à travers la création d’une entreprise sociale, Safe Eat, qui est un réseau de femmes dans le besoin qui préparent et commercialisent des plats fait maison. L’ingénierie m’a permis de m’ouvrir sur d’autres horizons et de saisir plusieurs opportunités ainsi que de me fixer des objectifs, et à la fin devenir la femme que je suis fière d’être.

 

Quel serait votre conseil pour des jeunes femmes souhaitant suivre votre voie ?

S. M. : Mon conseil est surtout « Faites ce que vous voulez, soyez le maître de votre vie, et croyez en vous ». Vous êtes courageuses, intelligentes et fortes, rien ne vous manque. Ayez confiance en vous et valorisez votre savoir. Relevez le défi et montrez au monde ce que vous pouvez faire. Et surtout en ingénierie, optez pour la filière qui vous intéresse, vous pouvez faire de la mécanique, de l’automatique, de l’informatique… et toute autre option, rien ne peut vous en empêcher. Vous pouvez même entreprendre, créer vos propres business et vos propres chances. Il n’y a aucune limite pour vos rêves. Faites voir au monde ce que vous pouvez faire.

Les recycleurs relèvent le défi du recyclage des plastiques

À en croire Guy Castelan, chef de projet ACV et développement durable chez PlasticsEurope,  «recycler 100% des plastiques est une vision», comme le zéro accident en entreprise. Il y voit même «une étoile polaire inatteignable». Pour sa part, Philippe Maillard, nouveau Président de la Fnade préfère parler de «recyclage matière et énergétique». Les dernières interventions de Brune Poirson confirment qu’il s’agit plutôt d’une tendance à atteindre qu’un objectif ferme.

Il est vrai que la chaîne actuelle du recyclage des plastiques ne fonctionne pas. Le taux de recyclage des plastiques n’est encore que de 22% en France. Et les nouveaux plastiques mis sur le marché en Europe ne contiennent en moyenne que 7% de matière recyclée. Tendre vers 100% de plastiques recyclés demandera donc des engagements forts, mais également plus de collecte et d’usines.

Augmenter fortement la collecte

Dans un premier temps, pour recycler 100% des plastiques, il faudrait en collecter 100%. Le décret 5 flux qui oblige les entreprises à trier papier/carton, métaux, plastiques, verre et bois n’est que trop peu respecté. La Fnade demande des outils de suivi, de contrôle et des pénalités pour mieux faire respecter la loi. Par ailleurs, la collecte reste trop faible dans les centres urbains denses et hors-foyer. Notamment, la collecte dans les centres-villes doit devenir une priorité. Ainsi, les initiatives telles que TriLib à Paris et les Points Tri à Marseille doivent être multipliées.

La feuille de route pour l’économie circulaire prévoit la mise en place de consignes solidaires, malgré l’opposition de certaines collectivités qui craignent des pertes économiques. Carlos de Los Llanos, directeur scientifique de Citeo, veut les rassurer : toutes les nouvelles solutions (apports volontaires, kiosques, machines de tri…) viennent en complément de la collecte, et non en substitution. Il apparaît en effet que les automates attirent de nouveaux citoyens vers le geste de tri. D’après des retours d’expériences, le fait de donner ne serait-ce qu’un centime en bon d’achat dans un automate de collecte fait que les personnes ont plus confiance dans le recyclage.

Des engagements volontaires insuffisants

La Fnade demande des soutiens pour investir dans l’outil industriel. «Quand on fait le calcul de l’investissement nécessaire pour atteindre l’objectif de 100% des plastiques valorisés, cela représente 2 milliards d’euros», projette Jean-Marc Boursier, président sortant de la Fnade. Or la feuille de route économie circulaire ne prévoit aucune aide au financement et le secteur privé n’investira pas sans débouché.

L’Ademe développe donc l’intégration des matières recyclées dans les nouveaux produits avec ses appels à projet «Objectif Recyclage Plastiques» (Orplast). Une centaine de projets sont soutenus, à hauteur de 30 millions d’euros. Ils visent à canaliser environ 300.000 tonnes supplémentaires de déchets plastique vers les recycleurs d’ici trois ans. «Avec 300.000 tonnes supplémentaires, cela fera passer le taux d’incorporation de matières recyclées dans le vierge de 7% à 13%», calcule Jean-Marc Boursier. Ce qui reste loin des objectifs de la feuille de route. «Si l’on veut aller au-delà, il faudra que l’Europe et la France prennent des engagements, avec des quotas d’incorporation obligatoires», insiste-t-il.

La ligne de la Fnade est claire : si les engagements volontaires sont insuffisants, elle demandera de mettre en place des obligations d’incorporation de plastiques recyclés dans certains produits. Et ce, pour les quatre principales résines employées, soit 80 % des 5 millions de tonnes de plastique consommés annuellement en France. «La Fnade pense qu’il est raisonnable de prévoir 10 % en 2020 et 25 % en 2025», avertit Jean-Marc Boursier.

Par Matthieu Combe, journaliste scientifique

Cybersécurité : trop de victimes par des pièges classiques

Qui contacter en cas de piratage informatique ? Pour de nombreuses TPE, PME et particuliers, la réponse n’est pas évidente. Démunis et paniqués, ils ne savent pas qui pourraient les aider. C’est pour répondre à cette problématique que le gouvernement a lancé il y a un an la plateforme Cybermalveillance.gouv.fr.

Outre une fonction pédagogique (avec un kit de sensibilisation), sa mission originelle est de mettre en relation les entreprises et particuliers victimes d’un acte de malveillance numérique avec des prestataires spécialisés dans ce domaine.

Un an après son lancement, cette plateforme livre ses premiers résultats. Ils ne sont peut-être pas très représentatifs de la réalité, car il faut suivre un « parcours ». Derrière ce terme se cache une démarche faite par les victimes (professionnelles et particuliers) : elles doivent diagnostiquer jusqu’au bout leur problème en répondant aux questions de la plateforme.

Sensibilisation

Selon Cybermalveillance.gouv.fr., il y a eu 14 275 « parcours » dont 80 % menés par des particuliers. Logiquement, les plaintes principales concernent les ransomwares. Il s’agit des codes malveillants qui chiffrent (ou cryptent) les fichiers stockés sur un ordinateur, mais qui peuvent aussi être partagés par différents salariés d’une entreprise. En 2017, cette menace représentait entre 30 et 50 %. Puis, elle est descendue à 10 % à partir de février dernier.

Les menaces suivantes ne sont pas vraiment originales dans leur principe. Il s’agit en effet du phishing (20 % des parcours) et du spam (environ 15 %). Pourtant, cela fait des années que le grand public connait ces techniques malveillantes. Cette constance confirme que la sensibilisation des salariés (et pourquoi pas d’ailleurs les collégiens et les lycéens ?) doit perdurer.

Alors que le RGPD est exécutoire depuis le 25 mai dernier, il est inquiétant de constater que le principal signalement des entreprises concerne des infiltrations sur des serveurs contenant des données clients. Les obligations des professionnels vis-à-vis des données à caractère personnel des clients (mais aussi des salariés) permettront-elles de limiter ce type de « parcours » dans les prochaines statistiques ? Les sanctions de la CNIL seront peut-être dissuasives !

Reste la multiplication des arnaques au faux support technique (de Microsoft notamment). Elles représentent un quart des problèmes rencontrés par les particuliers (mais des entreprises en sont aussi victimes) au mois de janvier 2018.

Là aussi, il convient d’être vigilant. La formation des salariés et des particuliers reste la meilleure parade.

Philippe Richard

50% d’électricité renouvelable dès 2030 est possible en France selon une étude Artelys / E3G

Les auteurs montrent qu’il sera inutile de construire de nouvelles centrales au gaz fossile et qu’il sera possible d’éliminer complètement le charbon ainsi que de fermer environ 20 GW de nucléaire. En plus de l’hydroélectricité déjà en place 35 GW de centrales photovoltaïques et 40 GW de centrales éoliennes suffiront pour atteindre le niveau de 50%, dont 37% de solaire et d’éolien.

Les auteurs du rapport soulignent que, «sources importantes de flexibilité, le pilotage des consommations et le stockage d’électricité quotidien associé à la fonctionnalité de déchargement des batteries des véhicules électriques sur le réseau (vehicle-to-grid) facilitent l’intégration d’une proportion croissante d’électricité d’origine renouvelable (en particulier la production solaire photovoltaïque). De même, les interconnexions sont des outils stratégiques pour assurer la flexibilité du système électrique, en remplacement des centrales thermiques flexibles».  

Selon les scientifiques, «malgré la fermeture de 24 GW de capacités de production en base et semi-base, la France ne nécessite aucun investissement dans de nouvelles capacités au gaz (aucune centrale CCG de semi-base et aucune OCGT de pointe ne sont nécessaires) ou de stockage d’électricité (stations de pompage-turbinage hydraulique ou batteries connectées au réseau). Au lieu de cela, les interconnexions, un plus grand recours aux centrales CCG existantes et le pilotage de certaines consommations fournissent la flexibilité nécessaire pour intégrer la production croissante d’ENR et satisfaire les pointes de consommation électrique, même en période de faible production des énergies renouvelables»

Le rapport est disponible à cette adresse, en langue française:
http://www.energyunionchoices.eu/wp-content/uploads/2018/06/EUC_French_Report_Final.pdf

«Les véhicules électriques sont dotés de la fonctionnalité de déchargement de leurs batteries sur le réseau (V2G), laquelle permet d’activer une nouvelle capacité substantielle de stockage de l’énergie disponible pour les besoins du système électrique» expliquent les auteurs.

«Les coûts avantageux des batteries et des énergies renouvelables, seuls, ne sont pas suffisants pour transformer intégralement le secteur de l’énergie. Un nouveau souffle politique est nécessaire pour créer les conditions de leur essor, notamment en développant des réseaux intelligents et transfrontaliers, et en fermant des centrales nocives et en fin de vie» a déclaré Manon Dufour, directrice du bureau E3G à Bruxelles.

L’agence Bloomberg New Energy Finance (BNEF), référence à l’échelle mondiale dans le domaine des CleanTechs et basée à New-York, vient également de publier son New Energy Outlook (#NEO2018) soulignant également le rôle clé que vont jouer les batteries pour parvenir à de très hauts niveaux d’énergies renouvelables.

En réponse au projet du géant chinois CATL de construire une giga-usine de production de batteries en Allemagne, l’américain Tesla a également révélé un projet de gigafactory dans ce pays. Plus précisément à la frontière franco-allemande et pas loin du BENELUX.

Jean-Gabriel Marie

Les trottinettes électriques partagées vont-elles réduire l’usage de la voiture individuelle?

Beaucoup plus écologique et moins consommateur de l’espace urbain qu’Autolib, le concept de Vélib 1 reposait sur de simples vélos et des bornes fixes où l’utilisateur devait restituer la bicyclette. Face à l’arrivée des solutions concurrentes en free-floating (sans système de bornes grâce à la géolocalisation par smartphone) menée par des entreprises chinoises comme Mobike, la réponse avec Vélib 2 a été de proposer des vélos électriques qui donnent une justification au système à base de bornes car ces dernières deviennent des points de recharge électrique. Mais l’installation des nouvelles bornes électrifiées s’avère complexe à Paris et il est possible que l’aventure Vélib 2 échoue.

«Et maintenant des trottinettes électriques en libre-service !» s’exclame Le Parisien. «Le groupe américain Lime lance ce vendredi ses premières trottinettes électriques en libre-service à Paris». Le système proposé par  Lime (ex LimeBike) est encore plus écologique, plus simple et moins coûteux: pas besoin de bornes où venir charger les trottinettes électriques de cette entreprise. Il permet de bénéficier de l‘attractivité de la propulsion électrique pour séduire la clientèle, sans subir les inconvénients des systèmes à base de bornes. Les trottinettes Lime sont en effet géolocalisables par smartphone et par ailleurs ramassées tous les soirs pour être rechargées pendant la nuit. De faible volume et de faible masse, le ramassage peut être réalisé par des moyens très simples et est donc peu coûteux.

Lime propose aux utilisateurs un coût d’1 euro par utilisation, auquel s’ajoute 0,15 euro par minute, soit un total de 2,5 euros pour 10 minutes. Assez pour parcourir 2 kilomètres à 12 km/h en moyenne, la vitesse de l’engin est bridée à 24 km/h. L’autonomie de la batterie est de 50 kilomètres pour un usage urbain standard, soit assez pour que chaque trottinette soit utilisée par 25 utilisateurs chaque jour (soit un total de 4 heures d’utilisation) et générer ainsi un gain d’environ 60 euros par jour, soit 1800 euros par mois. Même si le taux d’utilisation s’avérait deux ou trois fois inférieur, l’équation resterait rentable.  L’investissement initial peut être amorti en seulement quelques mois. La quantité d’électricité consommée est en effet très faible (coût bien inférieur à 1 euro pour 50 kilomètres), le coût principal, outre les frais de réparation et les vols, porte sur la rémunération des personnes chargées du ramassage des engins le soir et de les charger durant la nuit.

Le ramassage peut être réalisé par des professionnels ou alors par des personnes désireuses de gagner ponctuellement un peu d’argent, en suivant le concept d’Uber. C’est le système qu’a mis en place la société Bird, les ramasseurs étant alors qualifiés de «Bird Hunters», et cela marche très bien. A San Francisco, Austin et San Diego 60% du ramassage des e-trottinettes de Lime est réalisé de cette manière, par des freelancers. L’avantage est qu’il n’est pas nécessaire pour l’entreprise d’investir dans des véhicules pour le ramassage. L’investissement initial se limite alors aux seules trottinettes électriques.

A San Francisco chaque e-trottinette Lime a réalisé 9,3 courses par jour et a rapporté 27,7 dollars par jour en moyenne, pour un coût global de 14,30 dollars. Etant donné que chaque e-trottinette ne coûte que 430 dollars on peut calculer que le temps de retour sur investissement est de moins de 2 mois. L’équation économique est donc hautement disruptive. C’est une énorme machine à sous qui se dessine à l’horizon car le marché mondial, de New Delhi à Rio de Janeiro en passant par Bangkok, est colossal ! «Selon l’agence Bloomberg, Bird est sur le point de conclure une levée de fonds d’au moins 150 millions de dollars auprès d’importants fonds de la Silicon Valley» rapporte le blog Silicon 2.0. «Moins d’un an après sa création, la société fondée par Travis VanderZanden, un ancien dirigeant d’Uber et de Lyft, sera ainsi valorisée à un milliard de dollars, contre à peine 300 millions il y a deux mois.»  Lime a de son coté levé 250 millions de dollars auprès de Google Ventures et cherche à lever 500 M$. Davantage que Blablacar en 14 ans souligne l’agence 15Marches, spécialisée en mobilité.

La vitesse moyenne de circulation d’une automobile à Paris est inférieure à 15 km/h. Les trottinettes électriques (qui peuvent être équipées de porte-bagages) sont donc des concurrentes non seulement pour la marche, le vélo et les transports en commun, dont le métro qui est le lieu dont l’air est le plus pollué de Paris, mais aussi pour les voitures, individuelles ou partagées. Ludiques, elles remplissent d’enthousiasme celles et ceux qui les essayent et le désir de les utiliser se propage de manière virale. Et pas seulement chez les adolescents.  Les vélos peinent à attirer les automobilistes car il faut pédaler. Vélib 1 était en majorité utilisé par des personnes qui voulaient échapper autant que possible au métro. Les trottinettes électriques sont motorisées et ont donc un potentiel de séduction bien plus élevé tout en étant très écologiques.

Le calcul est simple: il y a 2,3 millions d’habitants à Paris intra-muros. Environ 230.000 e-trottinettes suffisent pour répondre à la totalité des déplacements intra-mutros de 95% de ces habitants. Cela correspond à un investissement de seulement 85 millions d’euros. Vélib 1 (8700 vélos) coûtait à la Mairie de Paris 16 millions d’euros par an. Et la fermeture d’Autolib (3900 voitures) pourrait coûter 300 M€ aux contribuables.

«Nous ne serons pas satisfaits tant qu’il n’y aura pas plus de trottinettes que de voitures» a déclaré Travis VanderZanden au  New York Times. La déferlante des trottinettes électriques partagées ne fait que commencer et a le potentiel de submerger le marché de la mobilité urbaine beaucoup plus rapidement qu’avec l’intégralité des autres systèmes de mobilité mis en place dans le passé.

Jean-Gabriel Marie

Innovations méthodologiques et pratiques en qualité et systèmes de management

La qualité est à l’honneur dans l’agenda français, européen et mondial de 2018 !

Ce mois de juin, se tient à Paris le congrès européen de la qualité avec le soutien de France Qualité (AFQP) avec pour devise « « Feel the new Quality way! ».

Septembre 2018 sera également une date clé pour la qualité et les démarches de certification associées puisque le 14 septembre 2018 sonnera la fin de la période de transition pour la migration des systèmes de management de la qualité certifiés selon le référentiel ISO 9001 : 2015.

 

Comme l’a récemment rappelé Yves VALENTIN, Directeur Général de Techniques de l’Ingénieur, rendre compte de l’innovation fait partie intégrante de la mission d’éditeur technique et scientifique : « L’innovation, qu’elle soit de produit et de procédé ou organisationnelle, se doit d’être au cœur de la stratégie des entreprises industrielles : c’est un moyen d’atteindre ses objectifs stratégiques, d’améliorer sa compétitivité, de se différencier. … Nous publions chaque année des centaines d’articles sur les  innovations technologiques et les meilleures pratiques à adopter pour accompagner les entreprises dans le changement. »

 

Les fiches pratiques « Piloter et animer la qualité », éditées par Techniques de l’Ingénieur, accompagnent depuis 2012 les responsables et chefs de projets qualité dans la mise en œuvre et l’animation des systèmes de management qualité, sécurité ou environnement de leurs entreprises.

Une équipe d’auteurs expérimentés, professionnels d’entreprises ou consultants, a rédigé plus de 130 fiches pratiques pour aider les fonctions qualité et QSE dans leur quotidien.

Un travail approfondi de mise à jour des fiches selon les nouveaux référentiels s’est achevé et nous ouvrons, aujourd’hui, une nouvelle rubrique destinée à rendre compte des évolutions et innovations en qualité et systèmes de management pour apporter à nos lecteurs un peu de cette saveur des « nouveaux chemins de la qualité » !

Nos expériences dans des secteurs d’activité et pour des tailles d’entreprises variés nous ont convaincus du besoin de faire évoluer ou de créer de nouvelles pratiques et approches pour mieux répondre aux défis actuels des entreprises.

Un exemple est l’élaboration d’un modèle d’architecture de système de management de la qualité spécifiquement conçu et adapté à des entreprises organisées en holding regroupant des fonctions Support auprès de filiales opérationnelles qui proposent des produits et services à leurs clients avec une marge d’autonomie dans la définition de leur offre et le pilotage de leurs activités.

Les fondements de ce modèle sont présentés dans la première fiche de cette rubrique, accessible gratuitement, intitulée : « De la cartographie des processus à l’architecture de S.M.Q ». Les récentes mises en œuvre du modèle présenté, dans des groupes d’entreprises de secteurs différents (Ingénierie, Archivage et numérisation de documents, Conception et fabrication de pièces en caoutchouc pour divers secteurs d’activités), nous ont permis de valider l’approche avec ses méthodes et ses outils, notamment dans leur capacité à enrichir la démarche qualité, à l’accorder au mieux avec les autres pratiques de l’entreprise pour le pilotage de la performance.

D’autres sujets, présentant des expériences ou méthodes novatrices, seront développés dans cette nouvelle rubrique de « Piloter et animer la qualité » au cours de l’année 2018 et 2019, portant par exemple sur les pratiques de développement de l’intelligence collective dans les démarches qualité, de maîtrise des risques stratégiques, organisationnels ou opérationnels, sur l’optimisation et l’articulation des instances de pilotage et de décision dans l’entreprise.

Comme nous n’avons pas la prétention d’avoir exploré tous les nouveaux chemins, nous lançons un appel à tous les praticiens qui souhaiteraient partager leurs innovations méthodologiques, managériales ou opérationnelles dans le domaine des systèmes de management.

Faites-nous part de vos créations, sous forme de pitch d’une demi-page tout d’abord, et après sélection et validation des propositions, les auteurs des expériences sélectionnées seront invités à rejoindre notre collectif d’auteurs et d’utilisateurs des fiches pratiques « Piloter et animer la qualité ».

Il nous revient, praticiens des systèmes de management, de faire vivre et développer nos connaissances, nos savoir-faire et nos méthodes, au cœur des situations professionnelles et sans craindre de sortir des sentiers battus, si besoin.

 

Auteur : Olec Kovalevsky

Consultant en systèmes de management

Coordinateur scientifique « Piloter et animer la qualité »

Pilote du groupement de consultants Performance Qualité TPE – PME

Des métamatériaux activables pour contrôler les sons

Alors que les métamatériaux fabriqués actuellement sont conçus avec des géométries fixes qui déterminent leurs propriétés, aussi inhabituelles soient-elles, des chercheurs de l’USC Viterbi (Los Angeles – USA) en collaboration avec des chercheurs du MIT et de l’Université du Missouri ont développé un métamatériau capable de bloquer des ondes sonores et des vibrations mécaniques qui peut être commutable à distance en utilisant un champ magnétique. Leurs travaux ont été publiés dans Advanced Materials en avril 2018.

Vue de près du métamatériau acoustique @Qiming Wang

Compression par champ magnétique

Le matériau fabriqué présente une structure lattice (structure de type treillis dont la maille élémentaire est souvent en nid d’abeille) intégrant des particules de fer. Lorsqu’un champ magnétique lui est appliqué, la géométrie et l’architecture intérieure du matériau change. Ses propriétés aussi. Et ce de manière réversible. La nouvelle structure compressée obtenue présente la capacité de bloquer les ondes sonores d’une certaine fréquence ainsi que les vibrations mécaniques ayant la même forme d’onde.

Module d’élasticité et densité négatives

Le mécanisme d’action s’appuie sur les propriétés anormales connues des métamatériaux acoustiques : un module d’élasticité effectif et une densité effective négatifs qui sont normalement tous deux positifs dans les matériaux standards. Ce qui signifie par exemple que lorsque l’on comprime le matériau, cela exerce sur lui une force de traction ! Les matériaux ayant ses propriétés négatives piègent certaines ondes par effet de résonance.

Le métamatériau fabriqué ici laisse passer certaines fréquences lorsque le module élastique et la densité sont négatifs en même temps. Si l’un ou l’autre des propriétés est négative et l’autre positive, les ondes sont bloquées. A chaque commutation du champ magnétique déterminée et que l’on a réussi à prévoir de manière théorique, l’état évolue de double négatif à une seule propriété négative.

Pour la suite, les chercheurs voudrait concevoir un matériau avec une réfraction négative – c’est-à-dire où une onde se réfléchit avec un angle impossible. Mais d’abord, ils doivent réussir à fabriquer des structures soient plus grandes soit plus petites que celles qui est présentée ici afin de travailler avec des gammes de longueurs d’onde plus variées.

Sophie Hoguin

Plus de 90% de la population mondiale respire un air pollué

Des chiffres alarmants

Sept millions : c’est le nombre de personnes qui meurent chaque année à cause de l’exposition aux particules fines présentes dans l’air ambiant et à cause de la pollution de l’air à l’intérieur des habitations. Rappelons que ce rapport s’appuie sur la collecte des concentrations moyennes annuelles de particules fines PM10 et PM2,5 (PM2,5 : taux de sulfate, nitrates et carbone noir qui sont les polluants les plus dangereux pour la santé). Il faut souligner que le rapport a le grand mérite de reposer sur les données les plus complètes jamais publiées sur la qualité de l’air : plus de 4 300 villes de 108 pays sont répertoriées soit 1 000 villes de plus que lors du dernier bilan de 2016. Cependant, le rapport pointe un manque criant de données pour le continent africain même s’il faut préciser que plus de deux fois plus de villes du continent ont transmis leurs concentrations en particules fines par rapport aux versions précédentes.

Les pays pauvres en première ligne

Le risque lié aux particules fines est inégalement réparti au sein de la population mondiale comme le confirme le Dr Tedros Adhanom Ghebreyesus, Directeur général de l’OMS : «La pollution de l’air est une menace pour nous tous, mais les populations les plus pauvres et les plus marginalisées sont les premières à en souffrir». Les pays en voie de développement sont, en effet, particulièrement concernés avec 90% des cas de mortalité observés principalement en Afrique et en Asie du Sud-Est. Souvent, les moyennes annuelles de pollution dépassent plus de 5 fois les limites établies par l’OMS dans ces régions. Une injustice qui s’explique par de multiples facteurs qui peuvent être économiques, géographiques ou politiques. L’une des raisons majeures est l’inégalité face à l’accès à des combustibles de cuisson au domicile non nocifs pour la santé. En effet, la principale source de pollution de l’air à l’intérieur des habitations est associée à l’utilisation du charbon de bois en tant que combustible dans les pays asiatiques et africains.

La nécessité d’agir

Malgré une prise de conscience du sérieux et de la gravité de la situation qui a été marquée par un certain nombre de mesures prises (la Chine a mis fin cet hiver au chauffage au charbon par exemple), les avancées demeurent insuffisantes pour permettre d’endiguer le fléau. Face à l’urgence, l’OMS a annoncé la tenue de la première conférence mondiale dédiée à la pollution de l’air et la santé à Genève, au siège de l’institution, du 30 octobre au 1er novembre 2018. Le but est de réunir les gouvernements et les partenaires dans le cadre d’une mobilisation mondiale qui devra aborder les enjeux majeurs tels que la construction d’un urbanisme sain et abordable ou la gestion des déchets et des énergies domestiques.

Par Aliye Karasu

EDF donne sa nouvelle vision de l’avenir énergétique de la France

Sur quatre pages, l’électricien national donne sa vision de l’avenir énergétique pour l’Hexagone. Sans surprise, le nucléaire y tient une place centrale même si une certaine inflexion est à noter. L’énergéticien mise aussi sur l’électrification des transports et l’hydrogène, à l’image de sa récente prise de participation dans McPhy.

Nucléaire oui, mais pas forcément à 60 ans

Représentant trois quarts de sa production, le nucléaire occupe une bonne place dans le mix électrique d’EDF. Malgré la loi sur la transition énergétique votée en 2015 prévoyant de réduire à 50% la part de l’atome dans le mix français pour faire de la place aux énergies renouvelables, le groupe dirigé par Jean-Bernard Levy continue à défendre son parc nucléaire et ses 400 TWh par an. EDF ne fait d’ailleurs pas mention de la loi dans sa contribution d’acteur. Et pour cause, le groupe prévoit de renouveler l’ensemble de son parc par des EPR et insiste sur la nécessité de lui donner le feu vert rapidement : « il serait présomptueux de vouloir planifier la quantité aujourd’hui. Mais être capable de disposer des GW que le pays, en temps voulu, estimera nécessaire suppose une décision prochaine : un engagement rapide conduit à une première mise en service d’une nouvelle centrale en 2030 ou peu après », explique EDF. Seule « concession », EDF estime qu’il ne lui sera pas possible de renouveler le parc de centrales nucléaires au même rythme que durant les années 70-80. Une évidence à une époque où le nucléaire était une priorité nationale et les recours administratifs moins nombreux… « En conséquence, nous envisageons certains des arrêts dès le début des échéances des cinquièmes visites décennales, à partir de 2029. L’essentiel du parc actuel aura donc été arrêté d’ici 2050 », indique le groupe. C’est la première fois qu’il indique publiquement ne pas souhaiter étendre la durée de vie de tous ses réacteurs à 60 ans.

La transition énergétique se joue aussi sur les transports

Les débats sur la transition énergétique se concentrent souvent à tort sur le mix électrique, responsable de seulement 20% des émissions de gaz à effet de serre (GES) au niveau mondial. Grâce à un mix électrique très décarboné, le secteur des transports français pèse mécaniquement plus, près de 45 % des émissions de GES, pour 30 % des consommations d’énergie finale de l’Hexagone. La substitution des carburants fossiles constitue donc un enjeu immense auquel l’électromobilité peut et doit apporter des réponses selon EDF. La vente de véhicules électriques a battu un nouveau record l’année dernière (1,2 million d’unités vendues), même si le VE ne pèse toujours que 1% des ventes mondiales.

« Les solutions de mobilité propre s’ouvrent, les investissements de recherche, de développement et d’industrialisation s’accélèrent à l’échelle mondiale. Deux technologies s’annoncent en priorité : mobilité électrique (batteries) et mobilité hydrogène » qui est une mobilité électrique puisqu’elle utilise une pile à combustible. Pour que cette dernière technologie soit considérée comme vertueuse, l’hydrogène doit en tout état de cause être produit à partir d’énergies renouvelables. Un intérêt qui explique sans doute pourquoi EDF a investi récemment dans McPhy Energy, une start-up française spécialisée dans l’H2, ayant entre autres participé à l’installation de « stations-services » à hydrogène. Selon EDF, l’intégration de ces nouveaux carburants devrait se concentrer d’abord sur le transport lourd, maritime, ferré (lorsqu’il n’est pas électrifié) et routier. La conversion de l’ensemble du parc automobile particulier n’est donc pas la priorité.

Electrification rampante

Si l’électricité ne représente aujourd’hui que 25 % des consommations finales d’énergie, cette part est amenée à augmenter au fil de la transition énergétique, de l’électrification des usages (ex : voiture électrique) et de la consommation électrique propre à l’usage des nouvelles technologies. Cette tendance se heurte à une autre dynamique puissante : l’efficacité énergétique. Que ce soit dans l’industrie, les transports ou dans les bâtiments, la sobriété énergétique est devenue avec les années un véritable pilier des stratégies énergétiques des pays, suivant l’adage : « l’énergie la moins chère (et accessoirement la moins polluante), est celle que l’on ne consomme pas ». De fait, des doutes ont émergé sur l’orientation de la demande d’électricité en France et en Europe après une hausse continue depuis les 30 Glorieuses, hors crises économiques. EDF joue l’optimisme et prévoit de son côté une hausse, modeste, sur les deux prochaines décennies, entre 0 et 0,5 % par an.

Comme le note l’électricien, ce n’est pas tant les volumes consommés, que la répartition des composantes production du système électrique qui vont sensiblement évoluer vers davantage de décentralisation. « Nous allons vers un système composé de grands actifs et de multiples actifs locaux de petite taille », indique EDF. Une référence à un phénomène encore marginal en France : l’autoconsommation (seulement 20 000 installations en France), mais qui se développe à mesure de la baisse des prix des panneaux solaires. Un segment sur lequel EDF s’est positionné avec une offre commerciale dédiée. Signe qu’EDF continue à tenter le grand écart entre d’une part la valorisation de son outil industriel historiquement centralisé et nucléaire, et d’autre part les nouvelles formes de production locales et renouvelables.

Romain Chicheportiche

Femme et ingénieure – épisode 1

La faible proportion de femmes ingénieures a incité la CDEFI (Conférence des directeurs des écoles françaises d’ingénieurs) à mettre en place l’opération Ingénieuses en 2011, afin d’attirer davantage de jeunes filles en écoles d’ingénieur-e-s. La cérémonie de remise des prix a eu lieu le 25 mai dernier, l’occasion de rencontrer la lauréate Femme ingénieure, Amandine DESSALLES.

Son parcours :

En parallèle de son diplôme d’ingénieur, Amandine a fait un Master Recherche, ce qui l’a amenée petit à petit à se questionner sur les interactions entre l’Homme et la machine.

Au sein de sa vie professionnelle, elle a exercé différentes fonctions : elle commença dans le département des Facteurs Humains sur l’interaction Homme-Machine, puis exerça un métier plus technique en tant qu’architecte sur le système de drones SDTI. Elle fut ensuite responsable du système d’information d’artillerie ATLAS et du matériel informatique NUMTACT avant d’être finalement responsable d’une équipe de 15 architectes pour le système d’information du Maintien en Condition Opérationnelle Aéronautique. Pendant son congé maternité pour son troisième enfant, Amandine en a profité pour participer à la création d’un réseau de mamans, appelé « MumAround » qui lutte contre l’isolement des femmes en congé maternité. Elle est encore aujourd’hui très active dans la vie associative puisqu’elle gère une association professionnelle de militaires qui vise à favoriser le dialogue au sein de son entreprise APNM France Armement. Elle est aussi membre de l’association « Avec les femmes de la Défense ».

 

Entretien avec Amandine :

Pourquoi avoir participé au Concours Ingénieuses’18, et pourquoi cette année ?

A. D. : J’avais déjà vu passer les appels à candidature les années précédentes, mais je ne pensais pas que mon profil était extraordinaire. Et puis cette année, je me suis dit « pourquoi pas ? ». Si beaucoup de candidatures sont reçues, cela pourra aider la cause et montrer la multiplicité des profils des femmes ingénieures d’aujourd’hui. C’est dans ce sens que j’ai participé à ce concours. Il faut montrer qu’aujourd’hui, on peut être femme et ingénieure, mais aussi maman, sportive…

Justement, on parle beaucoup de « conciliation vie professionnelle / vie personnelle », qu’en pensez-vous ?

A. D. : Je n’aime pas ce terme de « conciliation », il faut arrêter de croire qu’on peut tout faire. Au début j’ai essayé : travailler en tant qu’ingénieur, rater la réunion de 17h pour rentrer s’occuper des enfants… Et un jour, j’ai réalisé que ce n’était plus possible. La société veut nous faire croire qu’on peut réussir à tout concilier, à jongler avec tout, mais j’ai réalisé que ce n’est pas vrai. Il faut faire des choix, et les faire en accord avec soi-même. L’important est de trouver un équilibre et s’épanouir.

Si vous aviez un conseil à donner à une future diplômée, lequel serait-ce ?

A.D. : Croire en elle, ne jamais se dire que c’est impossible. Il ne faut pas se mettre des barrières soi-même, ne pas s’auto-dévaluer, ni se juger les unes les autres. Quel que soit le projet, on peut essayer. Si on rate, on rate, ce n’est pas grave, on apprend et on rebondira. Nous sommes normales.

Des métasurfaces peuvent transposer le son d’une octave

Ces travaux, publiés dans la revue Journal of Applied Physics, se sont donc intéressés à des métasurfaces élastiques non linéaires. Les métasurfaces, à l’instar des métamatériaux, sont des surfaces synthétiques dont les propriétés n’existent pas dans la nature et qui laissent souvent envisager des perspectives étonnantes comme l’invisibilité optique pour les métamatériaux ou acoustiques pour ces métasurfaces.

Cela donne toujours un La !

Habituellement, quand une onde acoustique vient frapper une surface naturelle, elle est réfléchie et modifiée mais seulement dans son amplitude (écart maximal de pression d’une onde sonore par rapport à sa valeur médiane) ou sa phase (décalage de l’onde dans son cycle). Sa fréquence reste inchangée (correspondant en musique à la hauteur d’une note). Des chercheurs du laboratoire d’acoustique de l’université du Mans et de l’université d’Harvard ont cependant créé des métasurfaces capables de transposer la fréquence d’une onde à l’octave ( ce qui correspond à une conversion de l’onde vers sa deuxième harmonique, soit à multiplier sa fréquence par deux). Pour le moment, les chercheurs n’ont pas réussi à modifier la fréquence de manière aléatoire ou vers d’autres intervalles.

Prédiction et numérisation

Les métasurfaces utilisées sont des surfaces élastiques, hautement déformables où ont été installées des séries de carrés tournants posés sur des sortes de ressorts. Et, fait intéressant ils ont montré que la surface réfléchissante pouvait être extrêmement fine, y compris d’une épaisseur moindre que la longueur d’onde acoustique étudiée.

En outre, l’une des originalités de ces travaux c’est que comparativement à la production d’ondes acoustiques non linéaires après passages dans des solides de types grains de cristal naturels ou synthétiques dont les propriétés ont du mal à être modélisées et contrôlées et souvent disparaissent sur de grandes distances, ces résultats ont pu être calculés et reproduits numériquement et par l’expérience et peuvent ainsi être transposés à d’autres types d’ondes ou surfaces. Ces travaux permettent ainsi d’envisager des applications pour l’atténuation et l’absorption sélective des sons ou encore pour le camouflage des sous-marins puisqu’elles fausseraient complètement les détections effectuées par effet Doppler.

Sophie Hoguin

Usages de l’informatique quantique : beaucoup de bruit pour l’instant !

Les scientifiques du laboratoire national d’Oak Ridge du ministère de l’Énergie américain sont les premiers à simuler avec succès un noyau atomique à l’aide d’un ordinateur quantique. Les résultats, publiés dans Physical Review Letters, ont démontré la capacité des systèmes quantiques à calculer les problèmes de physique nucléaire.

Le 7 juin dernier, pour la première fois, des scientifiques de Volkswagen ont réussi à simuler des molécules d’intérêt industriel (lithium-hydrogène, carbone) à l’aide d’un ordinateur quantique. À long terme, ils ambitionnent de simuler la structure chimique d’une batterie de véhicule électrique complète sur un ordinateur quantique. Leurs travaux de recherche sur l’informatique quantique ont été présentés lors du salon CEBIT (Hanovre, 12-15 juin).

L’informatique quantique, c’est fantastique ! Comme pour l’IA et la Blockchain, les ordinateurs quantiques font régulièrement la Une des médias. Principale raison de ce buzzword mondial : « l’informatique quantique sert à dépasser les limites des processeurs traditionnels pour des applications spécifiques d’optimisation et de simulation dont la complexité croit de manière exponentielle avec la taille du problème », explique le consultant Olivier Ezratty sur son blog. Les bits ne pouvant prendre qu’un état à la fois, il est souvent nécessaire d’itérer sur de nombreuses valeurs pour réaliser un calcul. Au contraire, les calculs réalisés avec des qubits (pour quantum binary digit) opèrent sur toutes les valeurs en même temps.

Quantique sur le web

Alors que la loi de Moore présenterait des signes d’essoufflement, l’informatique quantique permettrait de disposer de machines dotées d’une puissance de calcul sans commune mesure pour étudier plusieurs variables à la fois. Tous les géants de l’IT (dont Google, IBM et Intel, mais aussi Alibaba et Atos) ont développé de tels ordinateurs ou ont créé un laboratoire spécifique. Il est même possible de tester en ligne (sur abonnement) l’ordinateur quantique IBM Q Experience ou celui de Google (Volkswagen a d’ailleurs signé un partenariat avec ce dernier).

Les applications semblent très variées, mais les performances de ces ordinateurs pourraient très utiles dans la construction de modèles en physique et en chimie, la modélisation de nouveaux matériaux ou le machine learning. En 2015, une étude de chercheurs de l’Université de sciences et technologie de Chine, indiquait que l’usage de l’informatique quantique pourrait considérablement accélérer la recherche en apprentissage machine.

Enfin, les capacités des ordinateurs quantiques à naviguer parmi de larges bases de données non structurées permettraient d’optimiser les usages des transports dans une smart city.

Sensible au bruit

Mais nous n’en sommes pas encore là. Différents obstacles devront être levés. Premièrement, un ordinateur quantique doit notamment être maintenu à une température extrêmement froide, proche du zéro absolu, pour conserver sa stabilité.

Deuxièmement, ces systèmes sont sensibles au bruit inhérent à la puce. Cela génère des erreurs dans l’évolution des qubits pendant les calculs quantiques. Enfin, pour obtenir des résultats ayant des applications pratiques, il est nécessaire de disposer d’un grand nombre de qubits. Par exemple, pour factoriser de grands nombres, il faut disposer d’au moins autant de qubits qu’il y a de bits dans ce nombre.

« Nous n’atteindrons pas la suprématie quantique du jour au lendemain, et nous n’y parviendrons pas dans tous les domaines », a déclaré Brian Hopkins. Selon le vice-président de Forrester, l’informatique quantique n’en est qu’aux premières étapes de sa commercialisation, une étape qui se poursuivra jusqu’en 2025-2030.

Philippe Richard

 

Plus besoin de matière sombre pour expliquer la dynamique des galaxies naines

Depuis les années 1970, les astronomes ont admis que la matière sombre – ou invisible – est la principale composante de la matière dans l’Univers. L’astronome américaine Vera Rubin fut la première à constater le besoin d’introduire une importante quantité de matière en supplément à la matière observable pour expliquer la rotation du gaz ionisé au bord des grands disques de la Voie lactée ou de la galaxie d’Andromède : sans cette matière invisible, impossible d’expliquer pourquoi ce gaz tourne aussi vite.

L’astronome néerlandais Albert Bosma confirma ce besoin de matière noire dans les parties les plus externes, le halo des grandes galaxies spirales, en étendant l’étude des courbes de rotation à ces zones. Dans les années 1980, l’astronome américain Marc Aaronson découvrit un effet équivalent, cette fois dans les galaxies les plus minuscules environnant la Voie lactée.

Depuis, de nouvelles galaxies naines ont été découvertes et les mouvements de leurs étoiles, analysés. Une fois de plus, les étoiles qui les composent ont un mouvement beaucoup trop important pour être expliqué uniquement par l’attraction gravitationnelle qu’elles exercent les unes sur les autres. En supposant ces galaxies à l’équilibre, les cosmologistes ont attribué ces mouvements à la présence de matière sombre et calculé que les plus petites d’entre elles pouvaient contenir jusqu’à des milliers de fois plus de matière sombre que de matière observable, soit 99,9 % de la masse totale. L’hypothèse de départ supposait aussi que l’attraction gravitationnelle de la Voie lactée était négligeable.

Une piste insuffisamment explorée : l’attraction de la Voie lactée

C’est seulement dans le halo de la Voie lactée que l’on peut observer les galaxies les moins massives, contenant juste quelques milliers d’étoiles. En analysant leurs propriétés dynamiques, une équipe scientifique franco-chinoise de l’Observatoire de Paris – PSL, du CNRS et du National Astronomical Observatory of China (NAOC) a découvert un lien exceptionnellement fort entre le contenu supposé de matière sombre dans la plupart des galaxies naines, et l’attraction gravitationnelle exercée par la Voie lactée. Ce lien est si étroit que la probabilité que cela soit une simple coïncidence est inférieure à une chance sur dix milliards.

Cela signifie qu’en réalité l’attraction de la Voie lactée contrôle l’ensemble des mouvements des étoiles dans ces galaxies naines, et a contrario, que la masse sombre n’y joue aucun rôle. Les astronomes ont vérifié que cela ne pouvait venir d’un artefact, en montrant par exemple que la corrélation ne dépendait pas de la masse en étoiles. Comment expliquer un tel résultat ?

Un nouveau scénario

La Voie lactée peut influencer la dynamique des étoiles dans les galaxies naines satellites, via les effets gravitationnels dits de marée. Les scientifiques ont démontré que si les galaxies naines étaient le résultat d’une première rencontre avec le halo de la Voie lactée, l’agitation des étoiles pouvait s’expliquer sous la seule influence de la gravitation de la Voie lactée, et cela sans qu’il y ait besoin de matière sombre dans ces galaxies naines. Une telle possibilité avait rarement été évoquée pour les galaxies naines peuplant le halo de la Voie lactée : elles étaient considérées jusqu’à présent comme des galaxies satellites orbitant autour de la nôtre. Cette possibilité est renforcée par le fait que les deux plus grandes galaxies naines de notre voisinage, les Nuages de Magellan, sont bien à leur premier passage près de la Voie lactée.

Cette interprétation explique complètement la relation exceptionnellement forte entre la supposée masse invisible dans les galaxies naines et l’accélération gravitationnelle de la Voie lactée.

Durant le dernier milliard d’années écoulées, plusieurs petites galaxies très abondantes en gaz froid et neutre ont rencontré la Voie lactée. Le halo de la Voie lactée contenant du gaz très chaud à plus d’un million de degrés, celui-ci a arraché le gaz froid des galaxies naines déstabilisant complètement les orbites de leurs étoiles (voir vidéo). Ce sont donc des galaxies fortement déséquilibrées qui rejoignent la Voie lactée, tombant ensuite complètement sous son influence gravitationnelle. Les astronomes ont montré qu’en connaissant seulement la distance de ces galaxies par rapport à la Voie lactée ainsi que leur rayon, on pouvait prédire précisément l’agitation de leurs étoiles, c’est à dire la dispersion de leur vitesse observée sur la ligne de visée.

Des certitudes bouleversées

Les conséquences de cette étude bouleversent l’ensemble de nos connaissances sur l’existence de matière sombre dans les galaxies naines, un tel résultat pouvant s’étendre aussi aux galaxies naines au voisinage de la grande galaxie d’Andromède.

François Hammer, astronome de l’Observatoire de Paris – PSL et premier auteur de l’article, précise : « Ces nouveaux résultats ne prouvent pas stricto sensu l’absence de matière noire dans les galaxies naines, bien qu’il n’y ait plus de raison de présupposer son existence en l’absence complète de preuve. »

L’équipe poursuit son étude pour vérifier de nombreuses prédictions en particulier en utilisant le deuxième catalogue du satellite Gaia, paru récemment.

espace1
Cette galaxie sphéroïdale naine dans la constellation de Fornax se situe dans le halo de notre Voie lactée ; elle fait partie de l’échantillon des 17 galaxies de ce type, dont la dynamique a été analysée par les astronomes de l’Observatoire de Paris – PSL et du CNRS. Crédit : ESO/Digital Sky Survey 2

 

graph-espace
Sur l’axe vertical, le rapport supposé de masse sombre sur la masse en étoiles corrélé très précisément avec l’axe horizontal qui est le rapport de l’accélération gravitationnelle de la Voie lactée sur celle due aux étoiles des galaxies naines. Chacune des 17 galaxies naines est représentée sur la figure par un point. La droite en trait plein montre la relation exceptionnellement forte qui s’étend pour des valeurs de masse sombre sur masse stellaire allant de 10 à 4000. La droite en pointillé indique la prédiction du scénario d’un premier passage.

 

graph-espace2
L’agitation des étoiles dans les galaxies naines se mesure par la dispersion de la vitesse des étoiles (σlos, sur l’axe vertical). L’axe horizontal indique la prédiction du scénario de premier passage (σpredicted) qui est très proche des mesures de vitesses (σlos, sur l’axe vertical) faites avec les spectrographes de haute précision. Les droites ont la même signification que dans l’illustration précédente. Crédit : Observatoire de Paris – PSL/ Hammer et al. 2018

 

Référence Ce travail de recherche a fait l’objet d’un article intitulé “Galactic forces rule dynamics of Milky Way dwarf galaxies”, par F. Hammer et al., paraissant le 14 juin 2018 dans la revue Astrophysical Journal (arXiv:1805.01469). https://doi.org/10.3847/1538-43757/aac3da

Source : cnrs

Un métamatériau qui redirige parfaitement le son

Un certain nombre d’approches théoriques ont essayé d’imaginer un système capable à la fois de réfléchir un son dans la direction désirée et d’en préserver les caractéristiques. Mais personne n’avait jamais construit et expérimenté un tel système. C’est maintenant chose faite et c’est relaté dans un article Nature Communications.

C’est la forme qui importe

Le métamatériau conçu par ces chercheurs est fabriqué par une impression 3D de plastique, mais peu importe le matériau de construction, c’est la forme qui importe, c’est elle qui change la manière dont les ondes sonores sont transmises et réfléchies.

La structure de base est une série de rangées de colonnes creuses d’environ 13mm de large et qui sont coupées par une étroite fente verticale (voir photo). Au total, la longueur du système construit est d’un mètre pour 40 mm de hauteur, mais ces proportions peuvent être changées.

SoundControl1_small

Les ondes sonores vont être contrôlées en fonction de l’espacement entre chaque rangée de colonne et la taille des cavités internes à chaque colonne. Certaines colonnes sont très ouvertes, d’autres presque pleines. Cela recrée quelque chose approchant le système des bouteilles plus ou moins pleines de liquide qui, lorsque qu’on les frappe, émettent des sons différents.

Eviter les dispersions

Le défi c’est d’assurer à la fois la réflexion et la transmission complète du signal de l’onde sonore. En effet, généralement, les dispositifs existants quand ils arrivent à transmettre le signal en le modulant ou non, le font généralement sans contrôle de sa direction de réflexion, avec beaucoup de dispersion. Dans le système imaginé par ces chercheurs, les colonnes résonnent à la fréquence prévue mais interagissent aussi avec leur voisines, il a donc fallu mettre au point un programme d’optimisation qui prennent en compte ces interactions.

Après de nombreux calculs et essais, l’équipe a réussi à créer une conformation qui permet de rediriger une onde qui arrive face au matériau vers une direction formant un angle de 60° et ce avec une efficacité de 96 %. Ceci a été testé sur une onde de 3000Hz, mais le métamatériau peut être mis à l’échelle pour contrôler à peu près n’importe quelle longueur d’ondes. Selon l’angle de sortie de l’onde sonore, l’efficacité de retransmission du signal est plus ou moins forte.

L’application prévue par les chercheurs pour cette découverte est de manipuler des ondes dans l’eau pour une utilisation comme sonar.

Sophie Hoguin

État de l’internet en France : bilan de santé mitigé

Dans un gros pavé d’environ 90 pages, le « gendarme des télécoms » dresse « l’état d’internet en France ». Objectif de ce bilan de santé : s’assurer que le réseau de réseaux qu’est internet demeure un bien commun inclusif ».

Les experts de l’ARCEP ont donc ausculté les différents « organes » du web français : réseaux internet fixes et mobiles, progression de l’IPV6, neutralité du net… Le gendarme a mis à l’amende les différents services censés mesurer les performances d’une connexion internet.

C’est un euphémisme de dire que l’ARCEP a constaté que les comparateurs actuels présentent des résultats qui ne sont pas du tout cohérents. Ils ne reflètent en aucun la performance d’un fournisseur d’accès. Les tests que tout les internautes font ne constituent donc pas un élément permettant de déterminer le bon FAI : il y a un facteur de 1 à 5 en ce qui concerne le résultat observé pour la même ligne !

Pourquoi de telles différences ? Elles s’expliquent par le nombre de variables prises en compte (navigateur utilisé, connexion Ethernet/WiFi, etc.). En outre, les classements par débits opérés par les observatoires de la qualité ne différencient pas les technologies utilisées (ADSL, fibre et câble) par les FAI. Devant une telle situation, l’ARCEP va «proposer la version bêta d’un code de conduite et d’une méthodologie » en concertation avec tous les acteurs concernés.

S’agissant de la progression de l’IPv6, l’Autorité avertit que la multiplication des objets connectés va épuiser le stock d’adresses IPv4 encore disponibles d’ici à 2021. À ce jour, seuls deux opérateurs parmi les quatre principaux ont un nombre significatif de clients activés en IPv6.

La moitié du trafic par 4 fournisseurs de contenus….

Concernant la neutralité du net, l’ARCEP estime que « les actions de préventions ont porté leurs fruits » et que la majorité des acteurs français concernés par le règlement européen sur l’Internet ouvert suivent les recommandations. Mais la réalité est-elle aussi rassurante ?

Aux États-Unis, l’abrogation de la neutralité du Net est entrée en vigueur le 11 juin. Une victoire pour l’opérateur américain Verizon et d’autres (AT&T, Charter, Comcast, CenturyLink…) qui militent pour l’autorégulation et la priorisation payante du service d’accès.

Cette situation pourrait-elle déboucher en France sur un internet à deux vitesses ? Netflix et Google (YouTube inclus) ont accaparé près d’un tiers du trafic total en France en 2017 selon l’ARCEP. Le service de streaming vidéo ne représentait que 9% du trafic internet en France en 2016. Au total, les quatre principaux fournisseurs de contenus (Google, Netflix, Akamai, Facebook) cumulent environ 50% du trafic entrant sur les réseaux des principaux FAI en France.

Et cette situation devrait s’accentuer avec la montée en puissance de la fibre optique qui incite à regarder des vidéos sur le web. Quelques jours après la présentation de son second rapport, l’ARCEP a publié les résultats de son observatoire du marché des services fixes à haut et très haut débit. Au cours du premier trimestre de cette année, le nombre d’abonnements très haut débit (débit maximum descendant supérieur ou égal à 30 Mbit/s) a progressé de 505 000 pour atteindre 7,5 millions.

Le nombre total d’abonnements à haut et très haut débit atteint 28,6 millions à la fin du premier trimestre 2018, en croissance de 175 000 en un trimestre et de 685 000 en un an (+2,5%).

Par Philippe Richard

Les voitures électriques pourront-elles bénéficier de la charge ultra-rapide à 350 kW ?

Tesla a installé le premier réseau mondial de superchargeurs de 145 kW. Tesla possède à présent 1229 stations (équipées au total de 9623 chargeurs ultra-rapides de 145 kW) en Europe, dont 62 en France (mai 2018). Les voitures de la gamme Tesla acceptent une puissance de charge de 120 kW, ce qui permet de capturer en environ 40 minutes assez d’énergie pour parcourir 400 kilomètres. 10 kilomètres par minute de charge.

Le 30 novembre 2016, les constructeurs Volkswagen (marques Audi et Porsche), BMW, Daimler (Mercedes) et Ford ont annoncé s’unir pour la création d’un réseau de recharge payant à l’échelle de l’Europe, baptisé Ionity et reposant sur 400 stations-service possédant en moyenne chacune 6 superchargeurs de 350 kW, soit le triple de ceux de Tesla. La promesse de diviser par presque trois le temps de charge. Et d’offrir aux automobilistes européens un point de charge tous les 120 kilomètres. Ionity, co-entreprise 100% privée, est basé à Munich.

Le 24 décembre 2016, répondant à Fred Lambert, fondateur du site Electrek, le PDG de Tesla, Elon Musk, a déclaré: « Du simple 350 kW…A quoi faîtes-vous référence, à un jeu d’enfant ? » Il s’agissait non pas d’une annonce indirecte sur le développement par Tesla de superchargeurs de puissance supérieure à 350 kW (c’est ainsi que les propos de Musk ont été compris par les journalistes), mais au contraire  d’une antiphrase soulignant qu’il était très complexe d’avoir des batteries de voitures acceptant une puissance de charge de 350 kW, que ce n’était pas un jeu d’enfants.

Elon Musk a précisé son propos le 2 mai 2018: « Nous allons effectivement améliorer notre technologie de superchargeurs. Le truc à propos du chargeur de 350 kW c’est qu’il n’a pas beaucoup de sens, sauf si vous avez une énorme batterie ou alors un taux de charge follement élevé, et alors dans ce cas votre densité énergétique va être faible. » Ceci pour éviter que la batterie chauffe et se dégrade.  « Nous pensons que 350 kW pour une voiture seule, vous allez abîmer la batterie si vous faîtes cela. Vous ne pouvez pas charger une batterie de haute densité énergétique avec ce taux de charge, sauf si vous avez une batterie avec une très haute puissance. Donc (pour nous), cela sera quelque chose de 200 à 250 kW, peut-être. »  Les batteries Tesla auront-elles dans le futur un réservoir supérieur à 100 kWh ? Quel niveau de charge maximal sera toléré ? Tesla révélera la nouvelle génération de ses superchargeurs (« V3 ») durant l’été 2018, selon une réponse d’Elon Musk du 21 mai 2018 à Christian Prenzler du média Teslarati.350 kW ? « C’est effectivement un niveau de puissance que nous avons discuté et exploré » a complété le 2 mai JB Straubel, co-fondateur et CTO de Tesla.  « Il y a un compromis, fondamentalement, entre la vitesse de charge et essentiellement l’autonomie, et le coût de la batterie. Nous regardons cela assez attentivement. Nous comprenons le compromis. Nous pourrions concevoir des cellules et un pack qui pourrait charger à plus de 300-400 kW, mais ce n’est pas un compromis très utile pour le client. »

Lors d’un débat à l’occasion du Nordic EV Summit début février 2018 à Oslo en Norvège, Ole Henrik Hannisdahl, directeur de Grønn Kontakt AS, spécialiste norvégien des bornes de charge pour voitures électriques a estimé qu’ « actuellement, il n’y a pas de voitures qui ont besoin d’une puissance de près de 350 kW. (…) Si vous avez une batterie de 100 kWh, vous pouvez charger une puissance maximale de 130 kW (compte tenu du facteur 1,3C, ce qui est normal aujourd’hui). Si vous voulez charger 350 kW avec 1,3 C, vous aurez essentiellement besoin d’une batterie d’une capacité de 280 kWh, c’est à dire qui a une autonomie d’environ 1 500 kilomètres et un poids d’environ une tonne. Ou alors vous êtes à du 4 C. C’est une nouvelle chimie électrique. » Or cette nouvelle chimie est-elle dès à présent disponible ? Le C-rate correspond à la puissance (en kW) du chargeur divisée par la capacité (en kWh) de la batterie. C’est l’inverse du temps de charge. Un C-rate de 2 C correspond à un temps de charge d’1/2 heure. Au Nordic EV Summit 2018 une e-tron a été présentée avec un taux de charge de 320 kW. Mais elle est équipée d’une batterie de 95 kWh du sud-coréen LG-Chem; elle sera donc commercialisée dans une version capable d’accepter une puissance de charge de 150 kW ce qui correspond à un C-rate d’1,6 C. Cela semble plus réaliste. Il est possible de la charger avec du 320 kW, ce qu’a montré Audi, mais cela n’est pas conseillé car cela abîme la batterie.

Porsche Mission E: Icare sous le soleil ?

La Porsche Mission E devenue « Porsche Taycan » et qui débarquera sur le marché en 2019, sera équipée d’une batterie de 90 kWh (tout comme la Jaguar I-Pace) mais est en revanche présentée comme capable d’être chargée avec une puissance de 350 kW, soit un C-rate de 3,9 C. Etrange. Si l’on en croit Elon Musk, il sera probablement possible d’atteindre un C-rate d’environ 2,5 C (225 kW), mais s’aventurer au-delà laisse dubitatif. D’ici 2022 le japonais Honda offrira une gamme de voitures électriques rechargeables en 15 minutes pour 240 kilomètres d’autonomie. Soit 16 kilomètres par minute de charge.
Jan Haugen Ihle, CEO de IONITY pour l’Europe du nord a livré ses explications lors du Nordic EV Summit 2018: «Je pense qu’il y a un besoin de charge de haute puissance. Non seulement dans la ville, mais entre les villes, pour permettre des voyages de longue distance. Je comprends l’environnement maintenant, avec la plupart des voitures ayant environ 30 kWh de batteries. Mais maintenant, elles arrivent avec des batteries plus grosses et la possibilité de faire des trajets plus longs. Ensuite, vous devez avoir une charge plus rapide. Tesla a déjà prouvé cela pendant des années. Le problème avec leurs stations est que vous ne savez jamais quelle puissance vous obtiendrez. Ensuite, vous ne pouvez pas prédire le temps de chargement. C’est pourquoi vous avez besoin d’une capacité suffisante pour garantir au client qu’il peut obtenir la vitesse de chargement dont il a besoin. Pour déployer ces voitures sur le marché, il doit y avoir un réseau qui permet la conduite sur de longues distances. Nous avons donc besoin des deux, une charge rapide plus lente dans les villes pour les personnes sans chargeurs à domicile / batteries plus petites et plus de puissance entre les villes. Alors les gens peuvent gérer avec seulement une voiture électrique à batterie (BEV) Ils n’auront pas besoin de la voiture fossile pour des voyages plus longs

Porsche annonce que la batterie de la Mission E (autonomie de 480 kilomètres) pourra être chargée à 80% en 15 minutes. Avec du 350 kW il est en effet possible de capturer assez d’énergie en 8 minutes pour réaliser 200 kilomètres. Ce sont les chiffres qui ont été communiqués par ABB lors de la foire d’Hanovre début avril 2018, en présence de la chancelière Angela Merkel. Cela correspond à 25 kilomètres par minute, soit 2,5 fois mieux qu’avec Tesla. Avec 225 kW (probablement envisageable), cela sera 16 kilomètres par minutes.  Avec 150 kW, cela sera 11 kilomètres par minute.Mais attention, ceci n’est uniquement valable que pour les voitures équipées de batteries de 90 kWh (et donc bénéficiant d’une haute autonomie). Avec une Nissan Leaf équipée d’une batterie de 30 kWh (et permettant d’avoir une autonomie de 200 kilomètres) les temps de charge seront trois fois plus longs pour obtenir le même kilométrage. Les données communiquées à la foire d’Hanovre peuvent donc induire en erreur. La Nissan Leaf d’ancienne génération, équipée d’une batterie de 24 kWh, accepte d’être chargée sur une borne de 50 kW, autrement dit du 2 C. Cela prend environ 30 minutes. Environ 7 kilomètres par minute de charge. Les futures Nissan Leaf, équipées de batteries de 60 kWh, permettront de bénéficier des superchargeurs de 120 kW et même probablement de 150 kW, bref de monter à un  taux de charge de 2,5 C.Les superchargeurs d’ABB sont de 350 kW, mais deux voitures peuvent s’y brancher. Deux Audi e-tron acceptant chacune 150 kW pourront ainsi en bénéficier.  Le français Total étudie actuellement un plan d’installation  le long des autoroutes françaises d’un réseau  de superchargeurs de 150 kW.  En février 2018 Patrick Pouyanné, PDG de Total a déclaré que le groupe va « regarder comment on va mailler les grands axes français (…) pour que tous les 150 à 160 km, on soit capables d’offrir [ce service] à nos clients ». Shell et l’italien Enel accueilleront les superchargeurs Ionity au sein de leur stations-services autoroutières. Volvo, Fiat-Chrysler, PSA (Peugeot-Citroën-Opel), Jaguar-Land Rover et Tesla seraient en discussions avec Ionity pour rejoindre l’initiative. Shell est actif pour promouvoir les  « longs déplacements en voiture électrique ».Ionity n’est pas une initiative isolée en Europe dans le domaine des superchargeurs 350 kW.  Il y a aussi MEGA-E, par Allego, portant sur 322 stations dans 20 pays européens. A une échelle plus modeste Ultra-E a été initié par Allego, Audi, BMW, Magna et Renault, un réseau de 25 stations le long du trans-European transport network. Il y a encore le petit projet E-Via Flex-E porté par ENEL, Renault-Nissan, EDF, Enedis, Verbund et IBIL, consistant en 8 stations  en Italie , 4 en Espagne et 2 dans le sud de la France. Et enfin Fastned en partenariat avec ABB aux Pays-Bas.Aux USA Volkswagen met en place Electrify America, un réseau de stations-services équipées de superchargeurs, également de 350 kW, pour un montant d’investissement de 2 milliards de dollars. 300 autoroutes américaines seront équipées. Le groupe allemand a bien le projet de concurrencer Tesla, y compris aux USA.

Vitesse de charge: à la recherche du meilleur compromis

Au Nordic EV Summit 2018, Rami Syväri, CEO de Fortum Charge and Drive a estimé que « la plupart des véhicules nécessitent aujourd’hui une charge de 50 kW. Et avec les nouveaux véhicules qui arrivent sur le marché, c’est le prochain niveau d’évolution. Les coûts d’investissement dans la recharge haute puissance sont énormes. Cela aura évidemment un impact sur les prix. Ce que nous avons remarqué lorsque vous voyagez sur de longues distances, vous voulez faire une pause. Vous prenez un café ou mangez quelque chose, et cela prend du temps. En allant jusqu’à 150-350 kW, il y aura une question: êtes-vous prêt à payer pour cette vitesse supplémentaire? Ou êtes-vous en train de dire qu’une pause de charge normale est bonne? Avoir l’option, aller vers le futur, sera génial. Pour aller à l’hôpital, vous ne voulez pas attendre 30 minutes. Une charge de forte puissance sera nécessaire, en particulier dans le segment premium. Mais oui; la question est pertinente: à quelle vitesse devons-nous être? »

Le coût du projet Ionity pourrait s’élever à environ 3 milliards d’euros selon les chiffres qui circulent. Ce qui correspond à 1,2 million l’unité  pour chacun des 2400 superchargeurs. Contrairement à Tesla qui offre l’accès à ses superchargeurs aux clients Tesla, Volkswagen et ses partenaires feront payer à l’automobiliste le plein d’électricité au même prix qu’un plein d’essence. Ils pensent vraiment gagner de l’argent avec ce réseau de charge ultra-rapide. Le recours aux superchargeurs n’est utile que pour les longs trajets et ceux-ci représentent moins de 10% du kilométrage annuel d’un automobiliste standard. Le reste du temps la charge sera effectuée à la maison ou sur le lieu de travail, à un faible coût. Devoir payer plein pot lors des départs en vacances pour gagner un peu de temps, une bonne partie des automobilistes concernés acceptera sans doute. Ionity a déclaré que « les emplacements que nous envisageons sont vraiment de première qualité. Directement sur l’autoroute. Pas loin dans les terres, pas besoin de conduire cinq kilomètres jusqu’au prochain quartier industriel pour trouver une borne de recharge quelque part, sans éclairage, sans installations autour, mais directement sur l’autoroute. » Implicitement visé par ces propos, le réseau de Tesla. Face à la concurrence de  Ionity, Tesla déclare être prêt à ouvrir ses « superchargeurs » aux automobilistes possédant un véhicule électrique d’une autre marque que Tesla…Mais ils devront payer.

Le réseau électrique risque-t-il de souffrir avec l’installation des réseaux de superchargeurs ?  L’entreprise anglaise  Pivot Power,  fondée par un ancien de BNEF, a trouvé la parade: installer 45 super-batteries de 50 MW chacune sur l’ensemble de la Grande-Bretagne, directement reliées au réseau de très haute tension, et installer des super-chargeurs 350 kW  juste à côté. Les batteries serviront ainsi à la fois pour offrir des services au réseau électrique et pour charger les voitures électriques. Platts Power souligne qu’il s’agit du plus important projet de stockage batterie à l’échelle mondiale. En outre la société anglaise Zap & Go (issue de l’université d’Oxford) propose d’installer dans les stations-service des conteneurs équipés de batteries stationnaires rechargés durant la nuit et d’une capacité de 1 MWh.
Pour les pays où le réseau électrique manque de robustesse on peut aussi imaginer l’installation in situ de groupes électrogènes pour alimenter les superchargeurs. Alimentés par des carburants verts (agrocarburant, biogaz etc.). Un concept équivalent à celui des voitures hybrides, mais en version stationnaire.

Batteries solides: « the next step »

Avoir des batteries à haute densité énergétique permet d’avoir de longues autonomies mais réduit en revanche la vitesse de charge possible. Avoir une batterie à faible densité énergétique permet de recourir à des taux de charge élevé car elles chauffent moins. Elon Musk estime qu’ « il est plus important d’avoir une longue autonomie que d’avoir un temps de charge super rapide. Vous pouvez penser à cela dans les appareils que vous utilisez. Préférez-vous avoir un téléphone portable qui se charge en 5 minutes ou 10 minutes, mais qui n’a duré que 2 heures. Ou, si vous voulez un téléphone portable qui peut durer deux jours, et peut-être prendre une heure pour charger? » . Sauf que les nouvelles chimies de batterie pourraient changer la donne.

Le 22 mai 2018 le pétrolier BP a annoncé avoir décidé d’investir 20 M$ dans StoreDot, rejoignant ainsi Daimler qui lui a injecté 60 M$.  Cette start-up israélienne, soutenue par l’homme d’affaire le plus riche de l’état hébreux, affirme sur son site officiel que les batteries innovantes qu’il développe permettront de faire le plein d’électron « en 5 minutes », ce qui correspond à un taux de charge très élevé, de 12 C. Les superchargeurs de 350 kW, mis en avant dans les présentations de Doron Myersdorf, fondateur de StoreDot, pourront alors être utilisés par une voiture équipée d’une batterie de 30 kWh (environ 200 kilomètres d’autonomie). « Nous avons réalisé la charge en 5 minutes au niveau d’une cellule. S’il est possible de le faire au niveau d’une cellule, alors il est possible de le faire aussi au niveau d’un pack batterie. La nouvelle chimie et la nouvelle physique de la batterie sont ce qui permet de charger rapidement » a déclaré Myersdorf fin 2017 à Helsinki. Il est possible que la densité énergétique des batteries StoreDot soit au moins aussi bonne que celle des batteries Tesla car StoreDot annonce une autonomie de 480 kilomètres. Mais avec 350 kW il ne faudra pas 5 mais 15 minutes pour charger une batterie de 90 kWh. Pour tomber à 5 minutes il faudrait des superchargeurs d’1 MW. Tesla développe précisément des superchargeurs ayant cette puissance pour ses camions 100% électriques.

Au CES de Las Vegas le constructeur américain Fisker a présenté un dispositif baptisé « UltraCharge » : il promet de pouvoir récupérer 200 km d’autonomie en 9 minutes, soit 22 kilomètres par minute. Rien d’exceptionnel. Mais avec sa nouvelle batterie solide  (solid-state battery) Fisker  croit pouvoir proposer dès 2022-2023 de capturer en 1 minute assez d’énergie pour parcourir 800 kilomètres. Un taux de charge de 60 C ? Cela semble vraiment étrange.

Panasonic s’intéresse fortement aux batteries solides, tout comme son rival sud-coréen Samsung. Le PDG de Toyota, numéro un mondial de l’automobile, s’est affiché aux côtés du PDG de Panasonic (partenaire clé de Tesla) en décembre 2017, dans la perspective d’une alliance stratégique  dans le domaine des batteries. Toyota va commercialiser des voitures 100% électriques à batterie. Une révolution pour ce groupe qui avait jusqu’alors fait le pari de la voiture à hydrogène. En outre Toyota, Nissan et Honda se sont début mai 2018 associés au gouvernement japonais et aux fabricants de batteries pour accélérer le développement et la commercialisation des batteries à l’état solide.Lors du  salon automobile de Tokyo en octobre 2017, le vice-président de Toyota,  Didier Leroy, a annoncé l’arrivée commerciale de cette « Next Generation » dès 2025. Shinzuo Abe, directeur motorisation chez Toyota a déclaré fin mai 2018 dans le magazine Wards Auto: « Nous voulons que les batteries à l’état solide soient disponibles au début de la décennie 2020. Mais en fait, ce ne sera pas une production de masse, nous commencerons par la production de petits lots et d’essais. 2030 pourrait être un calendrier plus réaliste ». Takao Asami, Vice-Président R&D du groupe Nissan est du même avis: « Toutes les batteries à l’état solide, en gros, sont encore dans la phase initiale de la recherche. Donc, selon mon sentiment, c’est pratiquement un zéro à ce stade. » Asami a reconnu en revanche qu’effectivement, les batteries solides fonctionnaient très bien au laboratoire.

General Motors et Honda ont co-signé le 7 juin 2018 une alliance pour développer ensemble des batteries solides. BMW a investi de son côté en décembre 2017 dans la start-up Solid Power basée dans l’état du Colorado, fondée par l’inventeur de la batterie lithium-ion, John Goodenough, âgé de 95 ans. Aussi étonnant que celui puisse paraître la batterie Solid Power, au lieu de perdre de sa capacité au cours du temps, en gagnerait d’après une publication scientifique datant du 28 avril 2018 et dont fait écho le site InsideEVs. Une évolution qui ressemble un peu à celle de la qualité d’un bon vin.Bosch a abandonné dont projet de GigaFactory de batterie en Europe. Le géant allemand a estimé que pour devenir assez compétitif et alors conquérir 20% du marché mondial il fallait investir 20 milliards d’euros, et que c’était trop risqué. Profitant de ce trou d’air le géant chinois CATL va probablement construire une gigafactory de batteries en Allemagne. Pour ne pas que l’Europe soit dépassée face à la concurrence asiatique et américaine Total, via sa filiale Saft, s’est associé en février 2018 à Manz, Solvay et Siemens pour accélérer la recherche sur la batterie solide, dans le cadre d’un programme à 200 millions d’euros. Le gouvernement français a annoncé le 28 mai 2018 qu’il va injecter 10 millions d’euros pour la première tranche (30 M€) de ce projet qui s’inscrit dans la perspective de la construction d’un « airbus des batteries » européen. Cette annonce gouvernementale, pourtant de très haute importance stratégique, a fait très peu de bruit dans les médias français, Nicolas Hulot ayant décidé de communiquer le 1er juin 2018 sur son plan hydrogène à 100 M€. Si la France (et l’Europe) a raté le train de la batterie lithium classique, il reste (un peu) d’espoir pour qu’elle puisse s’imposer sur les batteries solides. Si et seulement si elle se donne dès à présent vraiment les moyens.  Si ce n’est pas l’Europe qui s’impose, alors cela sera, encore une fois, l’Asie.

Total veut construire une usine capable de délivrer 1 GWh par an de batteries solides dès 2023. Et de 10 GWh/an dès 2025. De quoi commencer à tutoyer la Gigafactory de Tesla dans le Nevada et celles qui poussent comme des champignons en Asie. Le 7 juin 2018 les industriels français accompagnés de la secrétaire d’Etat auprès du ministre de l’Economie, Delphine Gény-Stephann, ont rencontré le commissaire européen, Maros Sefcovic, chargé de l’Union énergétique, pour promouvoir ce projet français de création d’usine de batteries.

Cela va très vite côté asiatique: un responsable de Samsung SDI a déclaré anonymement au Korea Herald que « notre niveau technologique pour produire une batterie solide pour les smartphones sera assez mature en un ou deux ans. » Il a aussi estimé que son concurrent LG Chem était au même niveau technologique que Samsung. « Notre directeur du développement parle des batteries à l’état solide, elles sont encore à quelques années devant nous, mais elles viendront » a déclaré Peter Oberndorfer, directeur de la communication produit et technologie d’Audi.  Elon Musk pense de son côté que les batteries Lithium ion de Tesla auront amélioré leur densité énergétique de 30% d’ici 2 à 3 ans. « Il y aura quelques progrès avec le lithium-ion mais je pense que le vrai progrès est de venir avec un état solide ou similaire » a déclaré de son côté Oberndorfer.Aujourd’hui en 2018 les cellules « solid-state » fonctionnent au laboratoire, même s’il y a encore quelques points techniques à régler. D’où l’effervescence constatée à l’échelle mondiale. En 2019-2020 les premières batteries solides équiperont les téléphones portables. Et en 2020-2025 les premiers tests seront effectués in vivo sur des petits lots de voitures électriques. En 2025-2030 les premières commercialisations auront lieu, à moins que certains groupes tentent de brûler un peu les étapes afin d’être les premiers à conquérir ce marché hautement stratégique, et d’effectuer les tests directement avec leurs clients. Total veut que l’Europe devienne leader mondial, d’où la volonté de construire une gigafactory sur le vieux continent dès 2023.

Si tout se passe comme prévu, ces batteries de prochaine génération offriraient une autonomie de 550 km vers 2025 et atteindraient le seuil des 800 km en 2030, tout en chargeant jusqu’à 80% de leur capacité en moins de 20 minutes. Si les batteries solides débarquent concrètement dès 2023 alors elles rendront obsolètes les voitures équipées de moteurs à combustion interne et couperont l’herbe sous le pied à la voiture à hydrogène dont le principal avantage est de pouvoir faire le plein en 5 minutes en dépit de son efficacité énergétique particulièrement médiocre et de son coût très élevé.  En effet d’ici 2025 il est fort peu probable que la voiture à hydrogène ne se soit imposée face à la voiture à batterie lithium. Par conséquent l’arrivée des batteries solides la tuera dans l’œuf. Le marché des camions et des bus sera lui aussi fortement impacté. Il ne restera à l’hydrogène que le marché des bateaux et des avions effectuant de très longues distances.

« L’électricité est l’énergie du XXIe siècle » (Patrick Pouyanné, PDG de Total)

Total (mars 2018) et l’Alliance Venture de Renault-Nissan-Mitsubishi (février 2018) ont décidé, tout comme Samsung, d’investir dans la start-up américaine Ionic, spécialiste de la batterie solide. Non seulement la technologie de Ionic, reposant sur un polymère innovant, permettra de réduire considérablement le temps de charge des batteries lithium (tout en éliminant le Cobalt) et d’augmenter la densité énergétique, mais elle porte aussi la promesse de remplacer les batteries lithium par des batteries alcalines rechargeables à base de zinc ou, encore mieux, d’aluminium. Ce qui a notamment séduit l’écologiste Amory Lovins, fondateur du Rocky Mountain Institute.
Bill Joy, co-fondateur de Sun Microsystems et investisseur devenu membre du board of directors de Ionic, estime que le coût des batteries solides Ionic  à aluminium, un métal peu coûteux et abondant, pourrait tomber aussi bas que 10 dollars le kWh de stockage dans le futur. Contre environ 200 dollars avec les batteries lithium actuelles. Une révolution non seulement dans le domaine de la mobilité mais aussi pour le stockage stationnaire de l’énergie provenant des centrales éoliennes et solaires. Le magazine Wired a qualifié de « Batterie Jésus » la technologie de Ionic. Elle est attendue comme le Messie.
Toshiba a de son côté développé une batterie permettant en 6 minutes de collecter assez d’énergie pour faire  320 kilomètres; soit 53 kilomètres par minute de charge. Mais elles contiennent du Néobium, un élément très rare, ce qui relativise l’intérêt de cette technologie. La vision de Ionic, à l’inverse, est vraiment prometteuse dans une perspective de développement vraiment durable, car elle repose sur des éléments abondants et intégralement recyclables. Renault-Nissan, numéro un mondial de la voiture électrique, et Total, numéro un français de l’énergie,  ont vu juste.
Jean-Gabriel Marie

Quand la matière transforme une pression rectiligne en torsion

A l’origine, le terme de métamatériau désignait des matériaux artificiels, généralement structurés de manière périodique, dont les propriétés électromagnétiques sont surprenantes. Mais il s’est généralisé à tous les matériaux présentant des propriétés mécaniques, acoustiques, optiques qui sortent de l’ordinaire voire qui semblaient impossibles à des matériaux standards. L’échelle des structures de base de ces métamatériaux est généralement inférieure à la longueur d’onde caractéristique du phénomène que l’on veut contrôler.

C’est ainsi qu’une équipe de l’institut Femto-ST de l’université Bourgogne Franche-Comté et du Karlsruhe Institute of Technology (KIT) en Allemagne a conçu un matériau microstructuré qui a l’étonnante propriété de transformer une contrainte uniaxiale qui lui est appliquée en un mouvement de torsion pure. Une propriété mécanique qui sort tellement de l’ordinaire qu’elle a fait la Une du magazine Science.

metamateriau torsion

Un matériau issu de la fabrication additive

Les matériaux testés sont constitués de microstructures périodiques chirales (donc non superposable à leur image dans un miroir) dont la cellule de base de forme générale cubique a été optimisée par calcul numérique. Ils ont été fabriqués par une technique d’impression 3D micrométrique : un laser à impulsions ultra-courtes qui, en son point focal, polymérise un liquide photosensible. Les échantillons de matériaux, de maximum quelques millimètres ont montré une torsion supérieure à 2° pour 1 % de déformation axiale. Les chercheurs ont fait varier le nombre de cellules de base, de 4 à 500, dans des échantillons toujours de la même taille. Ils ont pu observer les changements de propriétés mécaniques induit par le nombre de cellules telle que l’apparition d’une plus grande rigidité.

Contrôler des ondes élastiques

Désormais, les chercheurs vont s’attacher à montrer que ces mématériaux peuvent être utilisés pour contrôler des ondes élastiques. Ils pourront ainsi être à la base de concept ou système de protection contre des ondes indésirables : ondes sismiques, ondes sonores, vibrations dans les structures aéronautiques etc.

Sophie Hoguin

Des ENR pour la chaleur, le froid et les transports ?

L’électricité renouvelable a gagné 178 gigawatts (GW) de capacités au niveau mondial en 2017. L’année dernière, 70 % des nouvelles capacités électriques installées étaient renouvelables. Le solaire représente de loin la majorité des installations : 98 GW, devant l’éolien (52 GW). Les investissements ont été en hausse de 2,2% pour atteindre 279,8 milliards de dollars.

L’électricité renouvelable continue sa percée

« Les investissements dans de nouvelles capacités de production d’électricité renouvelable ont représenté plus du double de ceux consacrés aux nouvelles capacités à base d’énergies fossiles et de nucléaire combinés », fait savoir REN21. À eux seuls, la Chine, l’Europe et les Etats-Unis représentent près de 75 % des investissements mondiaux dans l’électricité renouvelable. Toutefois, plusieurs pays en développement et émergents apparaissent en tête du classement lorsque les investissements sont mesurés par unité de PIB.

Pour la première fois en quatre ans, les émissions de CO2 liées à l’énergie ont augmenté de 1,4 %. La demande a pour sa part augmenté de 2,1 %. « Le déploiement des énergies renouvelables n’est pas assez rapide pour couvrir l’augmentation de la demande d’énergie, et les investissements dans les capacités fossiles et nucléaires se poursuivent », regrette REN21.

Multiplier les efforts dans tous les secteurs

Au niveau mondial, la part des renouvelables dans l’électricité est d’environ 25 % et elle augmente rapidement. Cette part est de moins de 10 % pour la chaleur et d’environ 3 % dans les transports. REN21 est clair : « Si le monde veut atteindre l’objectif fixé dans l’accord de Paris, le chauffage, le refroidissement et les transports devront suivre le même chemin que le secteur de l’électricité – et  rapidement ». En effet, dans ces secteurs, les énergies renouvelables (ENR) peinent à se développer, alors qu’ils représentent environ 80 % de la demande finale mondiale d’énergie.

Si l’on regarde d’un peu plus près les transports, le véhicule électrique se développe lentement. « L’électricité, dont environ un quart est renouvelable, répond à 1,3% des besoins énergiques des transports, et les biocarburants à 2,9 % », note REN21. Les transports dépendent donc encore à près de 97 % des énergies fossiles.

Se doter d’une vraie volonté politique

Le manque de vision polique se fait sentir. Ainsi, seulement 48 pays ont adopté des objectifs nationaux de développement des ENR pour la chaleur et le froid. Du côté des transports, 42 pays ont adopté de tels objectifs,  alors qu’ils sont 146 à l’avoir fait pour l’électricité.

Malgré les avancées, les énergies fossiles reçoivent toujours trois à six fois plus de subventions que les renouvelables. REN21 invite donc les gouvernements à mettre fin aux subventions pour les énergies fossiles et le nucléaire, « en établissant des objectifs stricts et des politiques publiques en matière de chauffage, de refroidissement et des transports ».

Par Matthieu Combe, journaliste scientifique

France Stratégie prépare l’essor des véhicules électriques

À peine 1 % des véhicules neufs vendus en France sont électriques. Pour passer à 100 % d’ici 2040, France Stratégie a analysé les politiques publiques de trois zones du monde où les ventes de véhicules électriques (VE) dépassent les 10 % : la Norvège, la Californie et trois villes chinoises. L’organisme en tire plusieurs enseignements.

En premier lieu, France Stratégie rappelle l’importance des aides à l’achat et des incitations indirectes : entre autres, gratuité des péages, accès gratuit aux parkings et voies réservées. Par ailleurs, l’organisme propose d’imposer des quotas de ventes de VE et à faibles émissions aux constructeurs.

Toujours plus de bornes de recharge

Pour France Stratégie, « le déploiement des bornes de recharge est une condition préalable nécessaire mais non suffisante au développement du véhicule électrique ».  Dimensionner les points de recharge lents et rapides est « un défi de taille » pour les trente prochaines années, grâce à des financements privés et publics. Ces bornes devront être interopérables, sans imposer d’abonnement.

France Stratégie propose notamment d’imposer l’installation d’un quota de bornes dans le cahier des charges des stations d’autoroutes concédées. L’institution propose également l’installation de points de recharge « à la demande », sur l’espace public, pour donner accès à la recharge aux ménages dépourvus de parking privé. Elle suggère aussi de prendre en charge tout ou parti des coûts d’installation de bornes dans les parkings et garages de logements collectifs.

En outre, France Stratégie invite RTE à préparer le schéma à dix ans pour le renforcement des réseaux de distribution et de transport. Le rapport suggère ainsi de considérer une part de 30 % de VE dans les ventes de véhicules neufs en 2030 .

Un véhicule électrique bon marché ?

« Le véhicule électrique ne prendra son plein essor que lorsqu’il sera accessibles aux ménages des déciles les plus faibles possesseurs d’une automobile », rappelle France Stratégie. Il faudra donc des véhicules moins chers, un marché de l’occasion et des garanties réelles de la part des constructeurs sur la durée de vie des batteries « par exemple de huit années ».

Enfin, France Stratégie incite à développer « un effort conséquent de R&D », concernant notamment les batteries, les nouveaux matériaux, le numérique et le recyclage. Une condition nécessaire pour pérenniser les emplois du secteur et produire ses propres batteries.

Par Matthieu Combe, journaliste scientifique

Nicolas Hulot lance son plan hydrogène

La filière française de l’hydrogène compte des acteurs de premier plan sur toute la chaîne de valeur. Par ailleurs, l’industrie française utilise déjà près d’un million de tonne d’hydrogène pour ses procédés. Produit principalement par vaporeformage du gaz naturel ou gazéification du charbon, l’hydrogène représente près de 3 % des émissions de CO2 en France et près de 26% des émissions du secteur de l’industrie française.

Le premier axe du plan de Nicolas Hulot est donc de développer l’électrolyse de l’eau pour « créer une filière industrielle décarbonée ». Cela comprend aussi bien l’électrolyse faite à partir d’électricité d’origine renouvelable que nucléaire. L’objectif est notamment de passer d’une part d’hydrogène décarboné de 5,5 % à 10 % en 2023 et entre 20 et 40 % en 2028.

Stocker l’hydrogène

Le stockage de l’électricité sous forme d’hydrogène intéresse le gouvernement à deux titres. D’un côté, pour le stockage inter-saisonnier des énergies renouvelables intermittentes sous forme de gaz. De l’autre, pour valoriser sous forme d’hydrogène le surplus de production des énergies renouvelables intermittentes.

À ce titre, Nicolas Hulot veut lancer rapidement des expérimentations dans les territoires isolés. Par ailleurs, il charge EDF et l’ADEME d’identifier le potentiel du stockage par hydrogène pour chaque zone non interconnectée.

Des transports zéro émissions

Enfin, le plan veut développer des solutions zéro émission pour les transports routiers, ferrés et fluviaux. La priorité sera donnée au déploiement des flottes professionnelles captives. D’ici 2023, l’objectif est de déployer 5.000 véhicules utilitaires légers. Ils seront alimentés par 100 stations à hydrogène. En 2028, entre 20.000 et 50.000 véhicules utilitaires légers devraient être alimentés par 400 à 1.000 stations.

Des appels à manifestation d’intérêt seront lancés pour développer les véhicules lourds : bus, camions, trains et bateaux. Les objectifs s’élèvent à 200 véhicules lourds en 2023 et entre 800 et 2.000 en 2028.

Par Matthieu Combe, journaliste scientifique

Le plan Hydrogène peut-il sauver le Ministre Nicolas Hulot ? Patrick Pouyanné (Total) est sceptique

Le « en même temps » aurait-il fait place au « au détriment de » ? Avec Macron et Hulot, « nous sommes entrés dans une ère de régression » de la politique d’environnement s’est indignée Corinne Lepage, dans une tribune publiée le 1 juin dans le Nouveau Magazine Littéraire, c’est-à-dire le jour même de l’annonce en grandes pompes du « plan hydrogène » au Ministère de l’écologie. Pourtant cette ancienne Ministre de l’environnement avait soutenu Macron lors de la campagne présidentielle. « Je ne l’avais pas fait en raison de ses convictions écologistes mais parce que je pensais sincèrement que son intelligence lui avait permis de percevoir la gravité des défis auxquels nous sommes ». Mais « malheureusement, je me suis trompée » reconnaît Lepage.

Ségolène Royal, ancienne ministre de l’environnement, y est elle aussi allé de son couplet le 18 mai 2018 quand Hulot a autorisé au géant pétrolier Total d’utiliser un tiers de million de tonnes d’huile de palme dans sa bioraffinerie de la Mède, ex raffinerie de Provence: « Pourquoi tous ces reculs ? Malgré les pressions j’avais dit NON à l’importation d’huile de palme en raison des ravages écologiques et du bilan carbone désastreux, contraire à l’accord de Paris sur le climat ». Pourtant en février 2017 Ségolène Royal s’était emportée face à des militants anti-huile de palme déguisés en orangs-outans : « ils vont pas nous emmerder ! » (sic) avait lancé la socialiste, ajoutant d’un air ironique : « nous aussi on aime les animaux ! ».

L’immixtion de Ségolène Royal dans la politique gouvernementale actuelle a fait réagir Brune Poirson, collègue de Nicolas Hulot, qui a déclaré publiquement: « Ségolène Royal a une mission très importante. La situation est préoccupante en Arctique et en Antarctique et je ne doute pas qu’elle va mettre toute son énergie exclusivement dans ces régions du monde ». A l’assemblée nationale, visiblement perturbée, Poirson a aussi tenté de retoquer un député socialiste le 29 mai 2018, en argumentant que c’est à cause de l’action des socialistes dans le passé que le gouvernement est aujourd’hui contraint de prendre des décisions anti-écologiques.

Pour Jean-François Julliard, le directeur de Greenpeace France, le projet de Total est emblématique de l’hypocrisie du gouvernement français : « on a le sentiment que malgré de nombreux discours et promesses sur la lutte contre le réchauffement climatique, les actes manquent (…) même le minimum du minimum n’est pas fait. »

Une invitation au voyage

La Députée européenne écologiste Michèle Rivasi a partagé un conseil à Nicolas Hulot: « si tu tiens à ta crédibilité, quitte le gouvernement » ! L’interdiction du glyphosate d’ici 2021 en France ne figure pas dans le projet de loi « agriculture et alimentation ». Là aussi Michèle Rivasi dénonce un renoncement sous le poids des lobbys.  Le député EELV Yannick Jadot estime que l’action d’Hulot au gouvernement constitue : « un formidable gâchis». « La France parle haut et agit bas: Il y a de grandes annonces qui se traduisent par des décisions a minima  » constate l’eurodéputé socialiste français Éric Andrieu, président de la commission PEST (pesticides) du Parlement européen.

« On a épuisé toutes les facettes de la métaphore du vivarium (les couleuvres et autres reptiles de la famille des squamates) ingurgités. Nicolas Hulot est-il utile à la cause qu’il défend ? » interroge France-Inter dans un édito signé Thomas Legrand. « A mon sens et s’il est cohérent avec lui même Nicolas Hulot devrait se poser la question de son maintien dans un tel gouvernement qui renie des engagements élémentaires » estime Corinne Lepage. « Macron, ce sont des grands discours et à la fin, ce sont les lobbies qui gagnent. Hulot est asphyxié, il est totalement impuissant. Quel est l’intérêt pour lui de rester au gouvernement et de servir de caution au pire ? » complète Yannick Jadot dans le JDD. Isabelle Saporta, journaliste spécialisée environnement est plus directe: « Les questions environnementales, Macron, il n’en a rien à foutre. Macron voit ces questions comme une contrainte qui empêche le business model (…) Ce n’est même plus des couleuvres qu’avale Nicolas Hulot, ce sont des boas constrictor. On peut pas dire qu’on est écolo et signer tous les trucs les plus dégueulasses qui soient. »

Make our planet great again ? « Voilà, ça fait un an. Une année entière de duperies, de renoncements, de reculs : climat, nucléaire, biodiversité, pollution de l’air, agriculture, alimentation, condition animale, huile de palme, et tant d’autres… Une année d’inaction, une année de perdue » a regretté, également le premier juin, l’équipe de communication d’EELV.

Et il y a aussi le dossier d’un incinérateur en Corse qui fait polémique. « Nicolas Hulot affirme que les incinérateurs sont désormais moins polluants qu’auparavant et demande qu’on refasse un point sur les critères de dangerosité et d’approvisionnement » a rapporté la radio France Bleu. Et d’ajouter :« Le collectif de défense de l’environnement « Zero Frazu – Zéro déchet », s’interroge sur cette position affichée par le ministre. Est-elle neutre, au regard les liens entre sa fondation et certains industriels et grands groupes, notamment de l’énergie et des déchets ? »

Le plan d’Hulot : entrer dans « une nouvelle ère »

C’est dans ce contexte pour le moins tendu et erratique que Nicolas Hulot a lancé le 1 juin son fameux « plan hydrogène ». Le Ministre voit déjà la France devenir « leader mondial » de cette technologie et, l’air de rien, est même allé jusqu’à considérer que « nous sommes entrés dans une nouvelle ère. »  Il n’y a pourtant aujourd’hui que 260 voitures à hydrogène immatriculées en France (alimentées par de l’hydrogène qui est à 95% d’origine fossile en France) et le « plan hydrogène » n’en prévoit que 5000 pour 2023, soit 120 fois moins que le nombre de voitures à batterie qui circuleront probablement dans l’hexagone à cette date d’après les projections disponibles. Le parc automobile français compte 40 millions de véhicules.

Ce plan n’a pas seulement laissé sceptique Matthieu Pechberty, Grand reporter à BFM Business, qui a souligné dans une émission intitulée « Hydrogène : un coup d’épée dans l’eau ? » que « Nicolas Hulot est dans un moment politique où il n’est pas bien, il se prend des revers dans le domaine énergétique à cause du nucléaire, il a besoin de montrer qu’il s’agite un peu sur son terrain de jeu ». En effet le numéro un français de l’énergie, Total, a lui aussi partagé ostensiblement son scepticisme. La voiture à hydrogène ? « C’est encore très cher ».  Cette déclaration du PDG de Total lors de son Assemblée Générale des actionnaires au Palais des Congrès à Paris le 1er juin 2018 n’a pas échappé à l’équipe du média Bloomberg qui a titré : « Total pas convaincu par les voitures à hydrogène alors que le gouvernement annonce des subventions », article diffusé notamment par le Jakarta Post en Indonésie. Le journal économique Les Echos souligne qu’« à une question sur le développement de l’hydrogène, Patrick Pouyanné a dit que l’infrastructure pour cette énergie était très coûteuse et que cette technologie mettrait du temps avant de s’imposer. » A l’occasion d’une interview pour le quotidien Ouest-France (édition du 1er juin) Patrick Pouyanné a complété son propos:  « Quand on fait les calculs économiques et que l’on regarde la filière hydrogène, on a du mal a se convaincre qu’elle a un horizon à 10 ans. Cela coûte encore très cher. La batterie électrique a aujourd’hui un temps d’avance. Toyota, qui était complètement allé sur l’hydrogène, est d’ailleurs revenu sur l’électrique. » Le PDG de Total a aussi déclaré:  « Je pense que les gouvernements n’ont pas à décider des solutions technologiques. Et je trouve, qu’en ce moment, ils en font un peu trop à notre place. Ce qu’ils doivent faire, c’est fixer des limites d’émission, à nous de choisir l’innovation, la solution technologique.»

Dans la ville de Pau, dont François Bayrou, un proche d’Emmanuel Macron, est Maire, l’investissement dans 8 Bus à hydrogène et une station de charge coûte 13,5 M€. Comme l’a remarqué la chaîne LCI c’est deux fois plus cher que les Bus à batterie. Pour être viable le projet a donc été copieusement gavé de subventions européennes et régionales : 7 M€ d’aides publiques, soit 52% du montant du projet et presque 1 M€ par bus…Pour Micheal Liebreich, fondateur de l’agence Bloomberg New Energy Finance, « les voitures à hydrogène sont une solution inférieure à la recherche d’un problème ! Leur attractivité pour les décideurs ignorants, heureux de gaspiller l’argent des contribuables, ne cesse de m’étonner. Mais l’inefficacité chimique inhérente n’est pas quelque chose que la réduction des coûts pourra jamais résoudre. »

Planète Ushuaïa

L’ingénieur polytechnicien Loïk Le Floch-Prigent, ancien dirigeant de Gaz de France (GDF)  souligne dans une tribune ( « Plan hydrogène : les étranges choix de Nicolas Hulot » ) publiée le 2 juin 2018 sur le site Atlantico.fr que « l’H2 vert, c’est-à-dire issu d’énergie renouvelable produisant de l’électricité puis fournissant de l’H2 par électrolyse n’est qu’anecdotique. Tous les rendements successifs sont affreux et conduisent à un prix de la « verdeur » inacceptable ». Un véhicule à hydrogène consomme en effet deux à trois fois plus d’électricité qu’un véhicule à batterie équivalent. « A un moment, il faut revenir sur notre planète avec ses caractéristiques physiques et ses lois » ajoute Le Floch-Prigent.  « Chaque changement d’état conduit à des pertes, et donc multiplier les changements d’état multiplie les pertes et pas plus Monsieur Hulot que moi ne pourrons rien y changer… mais peut-être sur une autre planète. Moi, je préfère la notre pour l’instant. »

Julien Bayou, porte-parole d’EELV, a de son côté refusé d’être mené en bateau : « Grand plan d’investissement ? Les choses en grand ? Avis aux journalistes : opération enfumage. 100 millions d’€ c’est le coût d’environ deux lycées. Ce n’est pas avec ça que l’on prépare la prochaine révolution industrielle… ». Selon Florence Lambert, directrice du CEA-Liten, dans une tribune publiée le 1er juin sur le site officiel du CEA, « un stockage électrique inter-saisonnier à base d’hydrogène ne serait nécessaire qu’à partir de 60% d’énergies renouvelables dans la production totale… ce dont nous sommes encore loin. »

« La France est un petit pays » rappelle Matthieu Pechberty de BFM, et les 0,1 milliard d’euros annoncés par Hulot sont vraiment une goutte d’eau. Pour provoquer un effet d’échelle et ainsi parvenir à baisser les coûts de la filière hydrogène, il faudrait investir des milliards, voire des dizaines de milliards d’euros dans de gigantesques usines d’électrolyse alimentées elles-mêmes par d’énormes centrales solaires et/ou éoliennes. Si le coût de l’hydrogène issu de l’électrolyse ne parvient pas à baisser massivement alors l’hydrogène restera majoritairement produit à partir d’hydrocarbures en émettant 13 kilos de CO2 par kilo d’hydrogène. En outre les 100 millions d’euros annoncés par Nicolas Hulot (dont la moitié pour subventionner les voitures à hydrogène) reposent sur une base qui semble fragile. Dans un article intitulé « Hydrogène : le plan ambitieux mais sans-le-sou de Hulot » Le Parisien a en effet rapporté que « pire, selon nos informations, Bercy, qui tient les cordons de la bourse, n’aurait absolument pas donné son accord définitif sur la partie financière du plan. « Nous ne l’avons pas validé car nous n’en avons pas eu connaissance en détail », justifie-t-on au ministère de l’Economie. « Les réunions interministérielles qui ont été organisées autour de cette thématique ont en effet été loin d’être concluantes », confirme une source proche du dossier. »

L’hydrogène ? Une nouvelle « religion »

« Sur l’hydrogène, ma religion est faîte » a déclaré Hulot le 1er juin, manifestement emberlucoqué et à quelques mètres d’une maquette d’Energy Observer, le premier navire à prolongateur Hydrogène . « Oui ! L’hydrogène vert est l’une des solutions d’avenir pour la transition énergétique ! » a renchérit sur Twitter Mathieu Orphelin ex-directeur de la Fondation Nicolas Hulot et devenu Député étiqueté En Marche. Le Journal de l’Environnement lui a répondu : « Et elle le restera encore longtemps ». En effet, il y a 20 ans, l’hydrogène était déjà présenté comme une solution du futur. On peut même remonter à Jules Verne. L’espoir fait vivre.  La France, technologiquement larguée dans le domaine des batteries lithium face à l’Asie et l’Amérique, tente de s’accrocher aux branches de l’hydrogène.

« 100M€ sur l’hydrogène alors que c’est une impasse technologique coûteuse. Par contre pour la solution vélo on entend pas grand chose. S’il n’y a pas un Plan Vélo sincère et financé, ce sera une nouvelle victoire des lobbies contre la société civile  » s’est exclamé le 1er juin Charles Maguin, président de l’association cycliste Paris en Selle.

« Mi-mai, un proche du ministre confiait qu’il était « déprimé » et « n’y [croyait] plus » rappelle le JDD. Selon elle Hulot avait voulu présenter sa démission fin avril, avant d’en être dissuadé par Emmanuel Macron. Il ne devrait « plus rester très longtemps » explique le JDD. Une thérapie sous masque à hydrogène suffira-t-elle ? Le 1er juin Patrick Pouyanné a un peu coupé le tuyau qui alimente ce masque.

« Qu’il parte ou non, les amarres sont rompues entre Nicolas Hulot et le gouvernement. La semaine qui s’est achevée laissera des traces indélébiles, et pas seulement pour lui-même et pour l’environnement. C’est l’ensemble du quinquennat que son échec éclabousse » estime Hubert Huestas de Médiapart dans un édito du 4 juin 2018 intitulé « Le naufrage emblématique de Nicolas Hulot« .

Terre de feu

La présidente de la FNSEA (Fédération nationale des syndicats d’exploitants agricoles) va peut-être aider Hulot à accélérer sa prise de décision. « La goutte d’huile qui a fait déborder le vase » : Christine Lambert a annoncé le blocage de la totalité des raffineries françaises à partir du 10 juin afin d’interdir l’alimentation de la bioraffinerie de la Mède avec de l’huile de palme importée. Elle s’est déclarée indignée que les agriculteurs français, qui produisent des huiles végétales, soient ainsi sacrifiés sur l’autel de la vente d’avions militaires Rafale à la Malaisie. Parvenir à unir à la fois la FNSEA et les écologistes contre soi, c’est incontestablement une prouesse remarquable. La palme. Et là ce n’est pas un mirage.

Jean-Gabriel Marie

Un robot aérien capable de modifier sa forme en plein vol

Il peut en effet changer l’orientation de ses bras, munis de moteurs et de pales pour se propulser comme un hélicoptère, pour réduire son envergure et naviguer dans des espaces encombrés. Ces travaux, publiés le 30 mai 2018 dans Soft Robotics Journal, ouvrent la voie à une nouvelle génération de robots de grande taille capables de se faufiler dans des passages étroits, un nouvel outil idéal pour les missions d’exploration et de secours.

Les oiseaux et les insectes ailés possèdent une formidable capacité à réaliser des manœuvres rapides pour éviter les obstacles qu’ils rencontrent durant leur vol. Cette grande agilité est nécessaire pour naviguer dans des lieux très denses tels que des forêts ou des environnements très encombrés. De nos jours, des engins volants miniatures sont eux aussi capables d’adapter leur posture (en roulis ou en tangage par exemple) pour passer dans une ouverture étroite. Il existe cependant un autre type de stratégie tout aussi efficace permettant aux oiseaux de traverser un passage resserré à grande vitesse et ce en dépit d’une envergure imposante : ils peuvent modifier subitement leur morphologie durant le vol en repliant leurs ailes et ainsi passer avec aisance à travers toutes sortes d’obstacles.

Les robots volants seront de plus en plus amenés à évoluer dans des milieux très encombrés pour des missions de secours, d’exploration ou de cartographie. Ces robots devront donc éviter les nombreux obstacles et franchir des passages plus ou moins exigus afin de remplir leur mission. Dans cette optique, les chercheurs de l’Institut des sciences du mouvement – Étienne Jules Marey (CNRS/Aix-Marseille Université) ont conçu un robot volant, capable de diminuer son envergure en plein vol pour passer à travers une ouverture sans avoir un pilotage agressif, trop couteux en énergie.

Ce nouveau robot, appelé Quad-Morphing, est doté de deux bras sur lesquels sont fixés deux moteurs munis chacun de pales qui lui permettent de se propulser comme un hélicoptère. Grâce à un mécanisme mêlant câbles souples et rigides, il est capable de modifier l’orientation de ses deux bras, c’est-à-dire de les orienter parallèlement ou perpendiculairement à son axe central, et ceci en plein vol. Il parvient ainsi à réduire son envergure de moitié, à franchir un passage étroit, et à se redéployer, le tout à une vitesse très élevée pour un robot aérien (9 km/h).

L’agilité du Quad-Morphing est  actuellement déterminée par la précision de son autopilote, qui déclenche le changement d’orientation des bras à l’approche d’un obstacle étroit sur la base de sa position fournie par un système de localisation 3D développé au laboratoire. Les chercheurs ont cependant équipé le robot d’une mini-caméra capable de capturer des images à haute cadence (120 images par seconde), ce qui lui permettra à l’avenir d’estimer par lui-même la taille de l’obstacle et de prendre la décision de se replier ou non. Les tests de cette nouvelle version du Quad-Morphing ont débuté en mai 2018.

robot-oiseau-cap

Source : cnrs

L’Europe et IA : mobilisation générale

L’union fait la force ! C’est la raison pour laquelle les 25 pays ont signé à la mi-avril une déclaration commune dans laquelle ils s’engagent à accentuer leur coopération dans l’IA. Mais ils doivent aussi accélérer les investissements dans la recherche et l’innovation.

L’Europe montre la voie. Les investissements de la Commission dans le cadre du programme de recherche et d’innovation Horizon 2020 passeraient à 1,5 milliard d’euros pour la période 2018 – 2020. Doté d’un budget global de 79 milliards d’euros, il permet de financer « des projets résolument interdisciplinaires, susceptibles de répondre aux grands défis économiques et sociaux ». L’IA peut répondre en partie à ces problématiques dans certains secteurs critiques, comme la santé et les transports.

Comme aux États-Unis notamment, l’Europe doit renforcer et multiplier les partenariats public-privé dans le domaine de l’IA mais également dans la robotique et le big data. De son côté le Fonds européen pour les investissements stratégiques va soutenir les start-ups qui se lancent dans l’IA avec une enveloppe de 500 millions d’euros.

Création de valeurs

Tous ces crédits permettront-ils à l’Europe de relever ces défis ? Peut-être, mais il faudra aussi se concentrer sur les limites de l’IA. Dans un rapport intitulé « Notes from the AI frontier, insights from hundreds of use cases », et publié en avril dernier, McKinsey Global Institute a cherché à être concret le plus possible.

Ses analystes ont décortiqué plus de 400 cas d’utilisation dans 19 secteurs d’activité et neuf entreprises. L’IA va permettre d’optimiser les services aux clients, les recommandations d’achat et la tarification dynamique. Elle permettra aussi d’améliorer la logistique et la maintenance prédictive.

Les principaux bénéfices de l’Intelligence artificielle ont déjà été présentés dans de nombreux articles de presse. McKinsey évalue la création de valeurs avec l’intelligence artificielle (IA) entre 2850 et 4730 milliards d’euros par an et à travers le monde. Mais le cabinet constate également qu’il reste encore quelques points de blocage. Il y a tout d’abord, il y a le recueil et la préparation des données. « Ironiquement, l’apprentissage automatique exige souvent beaucoup d’efforts manuels. De nouvelles techniques prometteuses émergent pour relever ce défi, comme le renforcement de l’apprentissage et la formation », lit-on dans ce rapport.

Compréhension

Deuxièmement, McKinsey pointe du doigt la difficulté d’obtenir des volumes de données qui soient suffisamment importants et complets pour être exploités par différents métiers ou secteurs sensibles (essais cliniques par exemple). Les analystes constatent aussi qu’il est encore très difficile d’expliquer de façon simple, à des décideurs, des modèles complexes. Enfin, beaucoup de modèles d’IA ne peuvent pas être généralisés.

Reste l’épineuse question des emplois qui seront automatisés. Mais selon ces analystes, « les prédictions désastreuses selon lesquelles les robots prendront nos emplois sont exagérées ».

Philippe Richard

Dans l’espace aussi le «tout électrique» fait son chemin

Utilisées depuis plus de 20 ans, les technologies de propulsion électrique ont fait des progrès en matière d’autonomie, de miniaturisation, de performances qui les destinent à des projets toujours plus grands. La première sonde équipée d’un tel système de propulsion était Deep Space 1 en 1998. D’autres sondes marquantes ont suivi : Dawn, Smart 1 et Hayabusa. Permettant non seulement aux Américains mais aussi aux Européens et aux Japonais de maîtriser cette technologie issue de la recherche russe des années 1960. Le principe de fonctionnement de cette propulsion électrique est de créer un plasma (gaz de particules électriquement chargées) puis de l’accélérer via des champs électriques ou magnétiques. L’accélération des ions entraîne une réaction de sens opposé qui constitue la propulsion. Juste avant la sortie, les ions récupèrent leurs électrons afin de recréer la neutralité électrique tant du véhicule que du carburant éjecté. Aujourd’hui le carburant le plus couramment utilisé est le xénon. Pour effectuer l’ionisation, il faut tout de même disposer d’énergie électrique. Elle est pour l’instant obtenue via des panneaux solaires mais des systèmes à base de réactions nucléaires sont envisagées comme alternative : soit avec des générateurs thermoélectriques – l’alimentation en chaleur est assurée par la désintégration d’un isotope radioactif, soit avec des réacteurs nucléaires à fission.

Deux technologies majoritaires

On distingue couramment deux options technologiques principales dans la propulsion électrique. D’une part les moteurs ioniques à grilles et d’autre part les moteurs à effet Hall. Dans le premier cas, le champ électrique est créé par deux grilles polarisées. Dans le second, la poussée est plus importante et le champ électrique est issu à la fois d’un champ magnétique induit par deux bobines placées au centre et à l’extérieur d’une cavité cylindrique et d’une différence de potentiel entre une anode et une cathode. L’option ionique à grille est très économe en carburant mais la poussée y est inférieure et plus longue à être amorcée. Elle est donc plutôt préférée pour les longues missions interplanétaires. D’autres variantes sont à l’étude, dont la plus puissante est le propulseur magnétoplasmadynamique (MPD). Il vise à supprimer les collisions entre électrons, atomes et ions qui sont générées dans un moteur à effet Hall du fait de la forme circulaire du courant en créant un courant aligné avec le champ électrique. Le fonctionnement est basé sur la combinaison de deux champs (électrique et magnétique) pour fournir une force de Lorentz axiale. Ce propulseur possède plusieurs avantages : la poussée peut être ajustée par la variation du courant électrique ou la quantité de gaz injecté et les poussées sont 100 fois plus importantes qu’un moteur ionique de base. Les inconvénients ? Il nécessite des courants électriques de plusieurs centaines de kilowatts et doit donc faire appel à une source nucléaire et il érode les éléments du moteur comme les électrodes beaucoup trop vite.

Toujours plus grand !

L’un des projets les plus avancés en matière de propulsion MPD est celui de la société Ad Astra Rocket en contrat avec la Nasa  dans le cadre du programme NextSTEP (Next Space Technologies for Exploration Partnerships) pour le développement d’un propulseur MPD baptisé VASIMR VX200. En 2017, l’étape des 10h de fonctionnement à 100kW a été validée. Les tests de 2018 doivent valider un fonctionnement de 100h continues.

Mais des records de poussées ont aussi été enregistrés pour un propulseur à effet Hall. Le propulseur X3 étudié par une équipe de l’Université du Michigan en partenariat avec Aerojet Rocketdyne pour le compte de la Nasa (là aussi dans le cadre du programme Next), a réussi ses essais en 2017 avec 10h à 100kW pour une poussée de l’ordre de 5,5 Newtons. Cette année sera aussi pour ce moteur l’année du test des 100h. Reste que les moteurs actuellement utilisés sont encore modestes même si déjà bien plus performants que celui de la sonde Dawn ou Smart 1. Ainsi, le nouveau moteur ionique d’Aerojet Rocketdyne’s qui était prêt pour les tests en vol et qui devait équiper la mission DART (Double Asteroid Redirection Test) en 2021 de la Nasa – annulée fin 2017 – présente pour l’instant une puissance maximale de 7kW.

Toujours plus petits !

Si d’un côté on recherche des poussées toujours plus grandes, on recherche aussi à rendre cette technologie vraiment plus compacte et encore plus économe pour pouvoir équiper des satellites de très petites tailles : du Cubesat aux microsatellites en passant par les nanosatellites.

Cela passe par des évolutions comme celle proposée par le laboratoire Icare du CNRS avec un propulseur de Hall « sans parois » : les ions sont produits et accélérés hors du réacteur afin d’éviter le contact entre plasma et parois du moteur pour éviter l’usure des composants. Une technologie qui permettrait aussi d’alimenter le moteur en électricité en courant continu directement depuis les panneaux solaires sans dispositif de conversion du courant. Les recherches s’orientent aussi vers d’autres carburants que le xénon et sur des nanotechnologies.

Ainsi, de son côté, la société américaine Accion Systems a dévoilé un moteur basé sur une puce de propulsion de la taille d’une pièce de moins de 2cm munie d’une centaine de micropropulseurs. Assemblées en tuile, 36 puces forment le TILE (Tiled Ionic Liquid Electrospray) qui peut servir de base de propulsion pour des micro-satellites (200kg max). Le carburant est un sel liquide non toxique qui n’a pas besoin d’être stocké dans des chambres pressurisées et qui évite de nombreux autres éléments comme une grande chambre d’ionisation ou des cathodes externes. L’alimentation se fait directement via une batterie alimentée par les panneaux solaires du satellite. A l’été 2017, Accion Systems a trouvé un partenaire dans le fabricant de plateformes satellitaires York Space Systems pour pouvoir fournir dès qu’il est prêt son moteur lors de missions spatiales réelles. « Et pourquoi pas dans 15 ans, faire du TILE le support à véhicule voyageant vers Mars… » se prend à rêver Natalya Bailey, PDG et co-fondatrice d’Accion Systems.

accion
Une puce de propulsion conçue par Accion Systems, plus petite qu’une pièce de 25cts de dollar, elle contient des centaines de micropropulseurs qui émettent des flux d’ions. Le système du moteur TILE s’appuie sur 36 de ces puces. Crédit @Accion Systems du TILE

Toutes ces avancées montrent que, si en matière de propulsion ionique, les propulseurs de Hall sont encore majoritaires aujourd’hui, les progrès de la micropropulsion pourraient bien marquer l’avènement d’une nouvelle ère spatiale où sondes d’explorations et satellites seraient beaucoup plus petits mais beaucoup plus nombreux, moins chers à la fabrication, plus facilement remplaçables et voleraient en flotte.

Sophie Hoguin