Les voitures autonomes signeront-elles la fin des embouteillages ?

En finir avec les bouchons sur la route, le rêve de tout conducteur qui se respecte. Un rêve inatteignable, à priori. Pourtant, un jour, les embouteillages pourraient bien devenir de l’histoire ancienne – grâce aux maths et… aux voitures autonomes, bien sûr.

Il ne faut en effet pas oublier que les bouchons sont dûs, en majorité, bien avant les pannes et les accidents, à un facteur humain : c’est quand nous freinons brusquement, ou que nous accélérons pour doubler, que nous provoquons, à force d’influencer les autres, une congestion du trafic – c’est “l’effet accordéon”. Pour être clair, c’est tous ensemble que nous créons un embouteillage, suite à la conjugaison de nos milliers d’actions individuelles, pas toujours très rationnelles.

Si des embouteillages surviennent soudainement, sans aucune raison apparente (ce que les chercheurs appellent un “embouteillage fantôme”), c’est parce que le ralentissement d’un seul véhicule provoque une réaction en chaîne (l’effet papillon), semblable à l’onde de choc provoquée par une explosion.

Si nous respections tous une certaine distance entre notre voiture et celle devant nous, il n’y aurait en fait plus aucun bouchon, et nous arriverions à destination le plus rapidement possible. Et si nous ne freinions pas ou n’accélérions pas à tout bout de champ aussi. “La modélisation mathématique nous enseigne que si les conducteurs roulaient tous en permanence autour de 80 km/h, la circulation serait constamment fluide”, constate Lorna Wilson, mathématicienne à l’Institute for Mathematical Innovation de l’Université de Bath (Royaume-Uni), dans The Conversation. La situation serait-elle différente si les voitures étaient sans conducteurs, dégagées de nos décisions de conduite impulsives ?

Algorithmes et voitures autonomes

Pour Lorna Wilson, il est clair qu’intégrer les voitures autonomes dans les modèles mathématiques de trafic “améliorera considérablement la fluidité de la circulation”. En modélisant une circulation dense au moyen d’équations différentielles “décrivant le mouvement des fluides”, de modèles de files d’attente et autres modèles mathématiques tenant compte des imprévus non-humains (par exemple, un cerf surgissant sur la route), et en prenant en compte des facteurs comme les fermetures de route ou la synchronisation des feux, il serait possible de bâtir un système automatisé – avec des voitures sans conducteur respectant les limitations de vitesse, et “se comportant d’une manière plus rationnelle”… en communiquant entre elles, afin de changer d’itinéraires ou de comportement au volant.

Berthold Horn, chercheur au MIT (Massachusetts Institute of Technology), a conçu un algorithme  qui permet, en théorie, d’en finir avec les bouchons. Chaque voiture, selon son système, roulerait ainsi à la même distance de celle devant et derrière elle. En communiquant entre eux, les véhicules réguleraient leur vitesse en permanence, anticipant tout ralentissement, même en ville. Comme le montre le jeu vidéo “Error-Prone”, qui simule à la perfection un tel système, les voitures arriveraient toutes à destination bien plus vite que si un conducteur humain ne décidait d’accélérer, et sans le moindre bouchon. Comme les wagons d’un seul et même train.

Capture d’écran 2016-11-02 à 16.26.33Mais pour mettre réellement en pratique ce système, encore faudrait-il que “100% des véhicules roulant sur l’autoroute soient autonomes”, indique Alain Bonnafous, chercheur au Laboratoire d’économie des transports, au Huffington Post. Avant que les voitures sans conducteur deviennent la norme et se généralisent, il nous faudra très probablement attendre plusieurs décennies, puisque celles-ci ne sont encore qu’en développement.

Et que subsistent quelques freins non négligeables, comme l’augmentation du trafic automobile, et la résistance des humains à laisser des algorithmes conduire à leur place. Il nous faudra ainsi faire un énorme travail sur nous-même, pour cesser de considérer nos voitures comme des objets, et les regarder comme des services de transport

Des voitures connectées qui parleront entre elles… en attendant

D’ici là, les voitures autonomes et les voitures conduites par des humains devraient communiquer davantage entre elles, afin de réduire au maximum les fluctuations de vitesse. “En se parlant les uns aux autres pour partager des informations 10 fois par seconde, les véhicules visualiseront bien plus rapidement leur environnement que les humains. Ce qui permettra de prévenir ces derniers, ou d’influer sur leurs régulateurs de vitesse”, indique le Dr. Larry Head, du Transportation Research Institute de l’université d’Arizona, à la BBC.

Cette technologie de communication entre véhicules connectés, le V2V, ou V2X, devrait être déployée dans plusieurs millions de véhicules d’ici 2020 – notamment, en 2017, dans la flotte de Cadillac CTS. La National Highway Traffic Safety Administration (NHTSA), l’agence américaine chargée de la sécurité routière a fait du déploiement du V2V une “priorité”. Notons que pour elle, 90% des accidents de la route étant liés à une erreur humaine, la “conduite automatisée” devrait réduire leur nombre de 80 % d’ici 2035. Jusqu’à frôler un jour le 1% de risque des avions et des trains…

En plus de la communication entre véhicules, une autre technologie actuellement développée aux USA, et testée par le département des transports de l’Illinois, devrait permettre de prévenir les véhicules et leurs conducteurs de la naissance d’une “onde de choc” en aval, afin de leur permettre de rester vigilants : le “Queue Warning”. Combinée au V2V, elle devrait permettre de créer un système anti-bouchons… avant l’hypothétique utilisation, en masse, des voitures autonomes.

 

auto1024BMW, Daimler et Volkswagen n’ont pas perdu de temps, et ont racheté récemment le service allemand de cartographie HERE, afin de faire communiquer les voitures entre elles, au sujet des bouchons, des accidents, des risques routiers (brouillard, voies glissantes), ou encore des limitations de vitesse temporaires – et d’afficher des annonces sur les tableaux de bord des conducteurs. Comme l’explique ZDNet, “ce sont des centaines de milliers de véhicules des 3 constructeurs allemands qui alimenteront en données le système – et des millions d’ici 2018”.

Avant l’arrivée des véhicules autonomes, nous pourrons aussi utiliser des véhicules proposant des systèmes de “conduite autonome dans les bouchons”, semblables à ceux que Renault ou Peugeot s’apprêtent à lancer : une fois un “bouton” actionné, la voiture, semi-autonome, se mettra à suivre celle devant elle. Histoire de nous permettre de faire autre chose que de décélérer toutes les deux minutes pendant un embouteillage. Ce sera déjà ça de gagné.

Par Fabien Soyez

Quel « Partage de l’Effort » en Europe pour 2030 ?

Avec l’accord de Paris, l’Europe s’engage à travers son futur Paquet Énergie-Climat 2030 à baisser d’au moins 40% l’ensemble de ses émissions de gaz à effet de serre (GES) d’ici 2030 par rapport à 1990. Cet objectif se décline en deux sous-objectifs. Les secteurs visés par le système d’échange de quotas d’émission (SEQE) – production d’électricité, gros sites industriels et aviation civile – devront baisser leurs émissions de 43% par rapport à 2005. Les secteurs hors-SEQUE – transports, bâtiments, agriculture,  déchets et petites installations industrielles – devront baisser leurs émissions de 30% par rapport à 2005. A ce point de départ, les secteurs SEQE couvraient environ 45% des émissions totales de GES de l’UE, et les secteurs hors-SEQUE environ 55%.

Le Paquet énergie-climat 2030 est en cours de négociations au sein de l’Union européenne. L’une des questions épineuses à trancher est la révision du règlement « Effort Sharing » (ESR) sur le partage des efforts de réduction des émissions de GES hors-SEQUE parmi les 28 Etats membres. Celui-ci succèdera à la décision « partage de l’effort » établi pour 2013-2020. La Commission européenne a fait une proposition le 20 juillet 2016 pour la période 2021-2030. Celle-ci a été présentée au conseil environnement le 17 octobre 2016. Avant fin 2016, le rapporteur devra rendre un  premier rapport reprenant les amendements retenus pour que la proposition soit votée fin mai à la Commission environnement du Parlement. Elle sera ensuite discutée en plénière au Parlement, avant de nouvelles négociations entre le Parlement, la Commission et le Conseil environnement.

« La proposition  sera satisfaisante si des objectifs de réduction ambitieux sont mis en place, couplés à des mesures nationales concrètes. Mais aussi s’il y a la possibilité de réviser à la hausse l’ambition de cette régulation pour aligner les objectifs globaux de l’Union Européenne à ses objectifs de long-terme », prévient Charlotte Vailles, chef de projet – Industrie, énergie et climat chez I4CE (Institute for Climate Economics). Car l’objectif européen sur la table est de réduire les émissions totales de 20% en 2020 par rapport à 1990 et d’au moins 40% en 2030. « La trajectoire retenue pour 2030 est la moins ambitieuse pour atteindre les objectifs de long-terme de l’Union européenne qui se situent dans une fourchette de réduction des émissions de 80 à 95% en 2050 par rapport à 1990», note l’experte. A ce train là, la réduction ne sera donc que de 80% en 2050.

Paquet Energie climat 2030 vs 2020

Sur la période 2013-2020, l’objectif européen était d’atteindre une réduction de 10% par rapport à 1990 pour le secteur hors-SEQE. « Cet objectif global était divisé en objectifs nationaux, eux-mêmes traduits en allocations annuelles d’émissions suivant une trajectoire linéraire entre 2013 et 2020 », note Charlotte Vailles. Les objectifs nationaux étaient calculés en fonction du PIB/habitant de 2005 par rapport à la moyenne européenne. Ils s’échelonnaient de -20% pour le Danemark, l’Irlande et le Luxembourg à +20% pour la Bulgarie. Des flexibilités étaient prévues pour remplir les objectifs annuels : le report de certains quotas d’une année sur l’autre, le transfert de certains quotas entre Etats et le recours aux mécanismes de projets du protocole de Kyoto (MDP et MOC). La mise en conformité avec les objectifs se faisait annuellement et les pays devaient communiquer tous les deux ans sur les politiques et mesures nationales mises en place pour respecter leurs objectifs.

En 2014, l’objectif de 2020 était déjà atteint, puisque les émissions couvertes par l’ESR étaient inférieures de 12,9% au niveau de 2005. Selon les projections, les émissions des secteurs hors SEQE vont rester en dessous des objectifs fixés pour 2020 dans la plupart des pays. « On estime que seulement 4 Etats [Autriche, Belgique, Irlande et Luxembourg] auraient besoin d’avoir recours à un mécanisme de flexibilité pour respecter leurs objectifs d’ici 2020 sans mesures additionnelles », prévient Charlotte Vailles.

Pour la période post-2020, la proposition de la Commission conserve le même principe. Les objectifs nationaux iront de -40 à 0% par rapport à 2005. La France a un objectif de -37%. Il y aura là encore des allocations annuelles d’émission. Mais cette fois-ci, le PIB/habitant n’est plus le seul facteur pour déterminer les objectifs des différents pays. Il y aura un ajustement relatif des objectifs pour les pays dont le PIB/habitant est supérieur à la moyenne de l’UE, pour tenir compte du rapport coût-efficacité de l’effort supplémentaire qui leur est imposé.

Il y a par ailleurs deux nouveautés. Le cycle de conformité est prévu tous les 5 ans et non plus chaque année. « Si cela réduit les coûts administratifs, cela augmente le risque de non-conformité et diminue la flexibilité du système », observe Charlotte Vailles. Le système prévoit également plus de transparence dans les transferts d’allocations entre Etats. Dans cette proposition, les Etats devront faire une déclaration publique d’intention d’acheter ou vendre des allocations.

Dans la proposition actuelle, les flexibilités existantes sont maintenues. Mais deux nouvelles flexibilités sont introduites : un lien avec les activités liées à l’utilisation des terres, au changement d’affectation des terres et à la foresterie (UTCATF) et le système communautaire d’échange de quotas d’émission. Les séquestrations nettes de certaines catégories comptables du secteur UTCATF peuvent être utilisées pour entrer en conformité. Mais dans une limite totale de 280 millions de tonnes de CO2 équivalent (MtCO2 eq) sur l’ensemble de la période. 9 Etats pourront par ailleurs annuler des enchères du SEQE pour entrer en conformité, dans une limite totale de 100 MtCO2 eq sur l’ensemble de la période. Mais plusieurs Etats réclament encore le renforcement ou la création de nouveaux mécanismes de flexibilité.

Par Matthieu Combe, journaliste scientifique

GoSpectro, ou la spectroscopie accessible

La spectroscopie, technique qui permet de sonder la matière à l’aide de son spectre lumineux, n’est plus réservée aux appareils de laboratoire, volumineux, complexes et onéreux. Grâce au GoSpectro, elle a la portée de n’importe quel smartphone iOS ou Android. «Nous avions pour objectif d’élaborer le spectromètre le plus compact, le plus simple et le moins coûteux» explique Arnaud Zoubir, ingénieur/docteur et responsable du développement d’affaires chez ALPhANOV, centre technologique situé à Talence (Gironde) et adossé au pôle de compétitivité Route des Lasers. Cette ambition a pris forme avec ce dispositif miniature d’une trentaine de grammes, commercialisé depuis septembre à 300 € HT. Ce spectromètre de poche, passif car dépourvu de composant électronique, se fixe au dos du smartphone à l’aide d’une interface mécanique.

Capture d’écran 2016-11-02 à 16.02.12GoSpectro, voué à l’analyse de la lumière visible, respecte le schéma de fonctionnement classique d’un spectromètre. «La lumière entre par une fente et les multiples longueurs d’onde qui la composent sont séparées angulairement par un réseau dispersif, décrit Arnaud Zoubir. Puis vient le détecteur, pour lequel nous utilisons – et c’est la nouveauté – le capteur photo du smartphone.» Plusieurs défis ont été relevés pendant la phase de conception. «La miniaturisation a été la première grande difficulté, car la résolution spectrale est liée à la taille du dispositif, argumente Arnaud Zoubir. Celle du GoSpectro est inférieure à 10 nanomètres. Les appareils de laboratoire, qui travaillent de l’ultraviolet jusqu’à l’infrarouge, sont bien sûr plus performants et il n’est pas question de les concurrencer.» Par ailleurs, le système d’autocalibration du GoSpectro, améliorant la précision de la mesure au nanomètre près, est en attente de brevetage.

Les effets des filtres sont corrigés

La variété des capteurs photo a été une autre contrainte. «La courbe de réponse du capteur dépend par exemple des filtres qui sont superposés, précise Arnaud Zoubir. Nous avons donc créé un algorithme correctif. GoSpectro est compatible de fait avec 95% des capteurs existants. Pour l’anecdote, les téléphones d’entrée de gamme, qui possèdent le moins de filtres, bénéficient d’une gamme un peu plus étendue. En revanche, leurs auto-ajustements (ISO, balance des blancs, etc) ne sont pas toujours débrayables et doivent être compensés par l’application mobile.» Une application développée en interne qui a requis beaucoup d’efforts. «Nous avons cherché à simplifier les fonctions de manière à ce que même un néophyte puisse mesurer un spectre de lumière» ajoute Arnaud Zoubir.

La mobilité, la connectivité et le petit prix du GoSpectro en font un instrument de terrain qui ouvre de nouvelles perspectives à la spectroscopie. «Une société qui équipe le milieu médical en matériel d’éclairage s’en sert pour vérifier in situ le pic d’émission et la qualité spectrale du flux lumineux, commente Arnaud Zoubir. Nous discutons aussi avec des industriels de l’éclairage automobile et de l’agroalimentaire intéressés par les possibilités de contrôle-qualité offertes par le GoSpectro.» S’ajoutent l’analyse des matériaux luminescents (phosphore des LEDs…) ou de l’encre anti-contrefaçon, la caractérisation des composants optiques, des filtres colorés et des pierres précieuses… La liste des usages professionnels est longue. Mais ALPhANOV, pour le moment, sélectionne avec soin ses premiers utilisateurs et GoSpectro évoluera selon les besoins exprimés. L’analyse colorimétrique est d’ores et déjà une fonction en cours de développement.

Frédéric Monflier

Tesla, toitures solaires et nouveautés

Pour répondre au défi posé par le réchauffement climatique et alors que les émissions de gaz à effet de serre atteignent encore des records en 2016, Elon Musk insiste sur l’importance d’accélérer la transition vers les énergies renouvelables. La vision de Tesla repose ainsi désormais sur trois piliers : des toits solaire, des batteries domestiques et des véhicules électriques.

musk-solaireLa grande annonce de cette conférence de presse était la commercialisation prochaine de toits solaires. Disponibles en plusieurs couleurs, ils s’adaptent aux différentes architectures et styles. « Le but est d’avoir des toits solaires qui sont plus beaux que des toits normaux, génèrent de l’électricité, durent plus longtemps, sont mieux isolés et coûtent moins chers », prévient Elon Musk. Pas de prix précis annoncés, mais simplement le fait qu’ils coûteront moins chers « qu’un toit normal plus le coût de l’électricité ». Les premières installations devraient commencer en 2017. Elon Musk espère rapidement capter 5% du marché des toits solaires.

Solarcity, un bon investissement?

Ce produit vise à justifier le projet de rachat de SolarCity par Tesla pour environ 2,6 milliards de dollars. Car les actionnaires semblent inquiets. Face à ce scepticisme, Elon Musk défend le projet. Sur son blog, il a annoncé le 1er novembre que l’achat de SolarCity devrait ajouter plus d’un demi-milliard de dollars de liquidités dans les comptes de Tesla sur les trois prochaines années et apporter près d’un milliard de dollars supplémentaires à son chiffre d’affaires en 2017.

Aux Etats-Unis, SolarCity fournit près d’un nouveau panneau solaire résidentiel sur trois et compte près de 300.000 clients. En rachetant l’entreprise, Tesla espère peser davantage dans ce marché qui génère 12 milliards de dollars rien qu’aux États-Unis. Sur les 5 prochaines années, Elon Musk estime que le marché devrait croître annuellement entre 15 et 20%. De quoi rapidement rentabiliser l’investissement. Il ne reste plus qu’à savoir si les actionnaires se laisseront convraincre. Ils doivent se prononcer sur ce rachat le 17 novembre prochain.

Powerwall 2 et Powerpack 2

Elon Musk en a profité pour faire d’autres annonces. La production du Powerwall 2 débutera ce trimestre à la Gigafactory. Il sera proposé à 5.500 dollars, contre 3.000 dollars pour son prédécesseur mais aura « deux fois plus d’énergie ». La batterie sera capable de stocker jusqu’à 14 kilowattheures (kWh), contre 6,4 kWh pour la version précédente. Elle pourra délivrer jusqu’à 5 kilowatts (kW) de puissance en continu et 7 kW en crête. Cette batterie stockera le surplus d’électricité produit par le toit ou des panneaux solaires la journée et l’électricité du réseau aux heures creuses, pour la délivrer la nuit ou lorsque l’électricité est plus chère.

Elon Musk a aussi annoncé le Powerpack 2, une batterie de 50 kW qui stocke 210 kWh. Le produit est modulaire : il est possible d’assembler plusieurs milliers de Powerpack 2. Tesla déploie d’ailleurs actuellement la plus grande station de stockage Lithium-ion au monde, grâce à ses Powerpack 2. Elle atteindra 20 mégawatts (MW) et 80 mégawattheures (MWh) pour le fournisseur d’électricité Southern California Edison. Par ailleurs, 52 MWh sont prévus pour la coopérative électrique hawaienne Kauai Island Utility.

Par Matthieu Combe, journaliste scientifique

Peut-on transformer sans écouter ?

En marge de cette tribune Techniques de l’Ingénieur vous invite à vous inscrire à la conférence « Peut-on transformer sans écouter » qui aura lieu jeudi 3 novembre à 19h00.

Ancienne présidente de GE France et vice-présidente de GE International, Clara Gaymard aime à rappeler que les entreprises doivent aujourd’hui se transformer pour survivre, encore davantage que dans un passé récent. Et de fustiger un premier écueil en termes de management, « celui de la prétention à l’objectivité absolue, à la modélisation parfaite ». Or, selon cette dernière, il est un flux pour le moins compliqué à objectiver : « l’être humain, avec ses raisons et ses affects, dont il faut susciter l’adhésion » alors que « réussir le changement implique de réunir une masse critique d’acteurs, avec une direction qui incarne et porte une vision, au lieu de se réfugier derrière des process ». Ces quelques verbatims sont issus de la préface du livre intitulé « Conduire le changement avec la méthode ACE », paru à la rentrée 2016 aux Editions Eyrolles, et qui expose une nouvelle méthodologie pour réussir la transformation d’entreprise. Une méthodologie qualifiée de « sériée, systématique et rigoureuse » par Clara Gaymard qui note au passage « qu’il est des ingénieurs parmi les auteurs ! ».  Ce livre est en effet un vrai retour d’expérience de plus de 80 ans de pratique de la transformation cumulée par les auteurs. Il décrit de manière pragmatique et illustrée, la méthode à suivre pour mieux réussir les projets de transformation au sein des organisations.

Traditionnellement, les projets de transformation démarrent par la définition d’une vision par la direction, charge au management de la déployer et aux opérationnels de l’appliquer. L’écoute ne va que dans un sens. Dans bien des cas, ces projets de transformation ne parviennent pas aux résultats escomptés et accouchent d’une souris. Pour réussir une transformation, il faut opérer une nouvelle répartition des responsabilités dans l’entreprise, favorisant l’alignement et l’engagement de tous les collaborateurs dans la définition de la stratégie et sa mise en œuvre à tous les niveaux. Autrement dit, l’écoute doit aller dans les deux sens. Cette approche doit impliquer, tout d’abord, tous les niveaux hiérarchiques dans la définition d’une stratégie – en particulier les opérationnels – qui devient partagée et comprise par tous. La mise en place est ensuite soutenue par une direction qui incarne et soutient les nouvelles directives auprès de leurs équipes. Enfin, le déploiement et l’amélioration continue des nouveaux modes de travail sont assurés par les opérationnels, avec la plus grande autonomie possible.

Concrètement et dans un premier temps, la direction doit mesurer la capacité de l’organisation à se transformer à tous les niveaux. Et construire également une relation de confiance au travers de l’écoute et de l’intégration des idées d’amélioration dans les axes de réflexions stratégiques. Pour ce faire, les équipes dirigeantes doivent notamment réaliser de véritables séances d’immersion, au plus près des opérationnels et du management, pour écouter et recueillir des idées susceptibles de venir alimenter leur réflexion dans le processus de transformation et de définition de la vision. Dans un deuxième temps et une fois la vision définie, le management doit s’assurer de la parfaite appropriation de la stratégie et d’une première mise en place de cette dernière. Lors de cette phase, le management reçoit un soutien total de la direction, qui participe au même titre que les opérationnels aux différents groupes de travail. Enfin, dans un troisième temps, les opérationnels déploient avec la plus grande autonomie possible les chantiers pilotes de la phase précédente, avec le support du management et l’exemplarité de la direction. Toutefois, ces trois temps ne représentent qu’un seul cycle de la transformation à mener. Car cette dernière deviendra un processus continu de l’entreprise, avec des cycles imbriqués les uns dans les autres.

A travers cette méthode, l’entreprise peut faire preuve d’une plus grande agilité, et ce à trois niveaux. Tout d’abord une agilité stratégique, assurée par la cohésion des équipes et leur capacité de s’adapter collectivement à de nouveaux contextes. Une agilité de moyens, de par la présence des dirigeants au sein des équipes chargées de la mise en place de la transformation afin d’ajuster les ressources techniques, financières et humaines. Et enfin une agilité opérationnelle, grâce à l’autonomie donnée aux opérationnels et à leur capacité à adapter leur nouveau cadre de travail aux besoins sans cesse en évolution des clients.

Auteurs : Philippe Dumé, intervenant à HEC France, et Saad Bennani, directeur associé de Karistem

En savoir plus sur les auteurs

Philippe Dumé

Philippe Dumé  est un Managing Director pour Alstom en Roumanie/Bulgarie. Il est également impliqué dans des activités de la transformation digitale du groupe. Il a par ailleurs créé et dirigé une business unit au Kazakhstan, après avoir  été un acteur important du partenariat et de la modernisation de TMH, le plus important fabricant de matériel ferroviaire russe. Auparavant, Philippe Dumé a occupé plusieurs fonctions de direction générale et a mené des programmes de transformation, de retournement et d’améliorations​ opérationnelle​s​ au sein de grands groupes tels que Impress, Ford et Carnaud Metalbox dans l’ensemble de l’Europe et aux USA. Ancien consultant chez McKinsey & Company où il a réalisé de nombreuses missions en stratégie, il enseigne à HEC Paris depuis plusieurs années sur le thème de la transformation des entreprises.

Saad Bennani

Saad Bennani est directeur associé du cabinet de conseil Karistem. Après avoir démarré sa carrière à la BNP, il rejoint Capgemini en 1996 en tant que consultant puis chef de projet autour des systèmes transactionnels bancaires. En 1999, il intègre la practice « B2B MarketPlace» de Capgemini Consulting, où il a participé à de grands projets autour des problématiques de transformation et de performance des organisations. Il a par ailleurs passé deux années en Allemagne et au Pays-Bas dans le cadre d’un projet de création d’une joint-venture dans le secteur de l’automobile, avec un rôle de CIO pour l’Europe. En 2004, Saad Bennani a cofondé le cabinet Karistem, où il assure un rôle de développement et de management tout en maintenant une activité opérationnelle dans le cadrage et la réalisation de projets de Transformation.

Quels objectifs pour la programmation pluriannuelle de l’énergie?

La loi relative à la transition énergétique pour la croissance verte fixe les objectifs pour le développement du secteur énergétique français. Les énergies renouvelables devront atteindre 23 % de la consommation finale brute d’énergie en 2020 et 32 % en 2030. A cet horizon, les énergies renouvelables devront couvrir 40 % de la production d’électricité, 38 % de la consommation finale de chaleur, 15 % de la consommation finale de carburant et 10 % de la consommation de gaz.

Quelles évolutions du mix électrique et de production de chaleur ?

Pour atteindre ces objectifs, le rythme de développement des énergies renouvelables doit fortement s’accélérer. La PPE prévoit de passer de 41 gigawatts (GW) à 71-78 GW en 2023. Ces nouvelles capacités permettront d’atteindre une production d’électricité renouvelable entre 150 et 167 térawattheures (TWh) en 2023.

tab
Objectifs de développement des énergies renouvelables électriques entre 2014 et 2023 (hypothèses haute et basse), avec l’objectif pour le point de passage en 2018. Source : PPE

 

Par ailleurs, la PPE prévoit d’augmenter la production de chaleur renouvelable, avec une production située entre 17 et 19 millions de tonnes équivalent pétrole (tep) en 2023, contre 12,7 millions en 2014. Le point de passage en 2018 est évalué à près de 15 millions de tep.

Moins d’énergies fossiles en perspective

Les énergies renouvelables remplaceront une partie des énergies fossiles et diminueront les émissions de gaz à effet de serre. Les objectifs de réduction de la consommation d’énergie primaire fossile par rapport à 2012 sont de 8,4% en 2018 et 15,8% en 2023 pour le gaz naturel. Une partie sera fournie à la place par du biométhane injecté dans le réseau de gaz, à hauteur de 1,7 TWh en 2018 et 8 TWh en 2023. Pour le pétrole, la baisse sera de 15,6% en 2018 et 23,4% en 2023. La plus forte chute concernera le charbon : -27,6% en 2018 et -37% en 2023. Les émissions issues de la combustion d’énergie passeront ainsi de  294 millions de tonnes équivalent CO2 (MtCO2) en 2018 à  254 MtCO2 en 2023. Grâce à une meilleure efficacité des moyens de production, la consommation finale d’énergie française devra baisser de 7% en 2018 et 12,6% en 2023 par rapport à 2012.

Du côté des carburants, le Gouvernement veut donner la priorité au développement des biocarburants avancés. Il vise un objectif d’incorporation  de 1,6 % en 2018 et 3,4 % en 2023 pour l’essence, et de 1 % en 2018 et 2,3 % en 2023 pour le gazole, sous réserve qu’un ensemble de conditions soient réunies. L’objectif est d’atteindre 2,4 millions de véhicules électriques et hybrides rechargeables en 2023. Le Gouvernement veut aussi développer le bioGNV pour qu’il représente 20% des consommations de GNV en 2023, sur des segments complémentaires.

Un autre objectif de la loi de transition énergétique était de réduire la part du nucléaire dans le mix électrique français de 75% à 50% en 2025 et de plafonner la capacité nucléaire à 63,2 GW. La PPE ne prévoit que la fermeture des deux réacteurs de Fesenheim. Celle-ci devrait faire l’objet d’un décret dédié en 2016. « Pour respecter la loi, la PPE devrait imposer la fermeture de 21 à 23 réacteurs d’ici à son échéance la plus lointaine en 2023 », s’insurge l’association environnementaliste Greenpeace. De son côté,  Jean-Louis Bal, Président du Syndicat des énergies renouvelables salue un texte cohérent qui est « un gage précieux de visibilité pour nos filières ».

Par Matthieu Combe, journaliste scientifique

Nucléaire français : l’affaire du carbone tourne au scandale

L’audition de l’Opecst fait écho à une précédente réunion de juin 2015, suite à la découverte d’une concentration anormalement élevée de carbone au centre du  couvercle et de la cuve du futur EPR en construction à Flamanville. Des éléments fondamentaux d’un réacteur nucléaire qui ne peuvent souffrir d’aucune malfaçon. Le fabricant de ces composants, Areva, est alors entré dans une démarche de justification et de tests de résistance qu’a accepté l’ASN. Un dossier devant permettre l’utilisation de ces pièces majeures sera déposé auprès du gendarme du nucléaire fin 2016 qui devra arrêter une décision. Mais depuis, l’affaire a pris une autre tournure avec la multiplication des découvertes. « On est dans une toute autre situation que lors de ma dernière audition en juin 2015. On part de la cuve de l’EPR qui n’a pas de conséquence immédiate sur la sureté (car il est actuellement en construction) à une anomalie concernant des réacteurs en fonctionnement aujourd’hui », pose d’entrée Pierre-Franck Chevet, directeur de l’ASN. Et pour cause, les investigations de l’Autorité de sûreté ont conclu à une anomalie générique concernant de nombreux réacteurs français et plus seulement l’EPR de Flamanville. Pire, les recherches de l’ASN ont mis à jour de nombreuses irrégularités voire falsifications sur les rapports transmis par Areva.

Anomalie générique

L’anomalie constatée par le gendarme du nucléaire consiste en une concentration en carbone trop élevée sur des cuves, plaques tubulaires et fonds primaires de générateurs de vapeur, tous des éléments critique en terme de sûreté. « Ces concentrations de carbone altèrent les propriétés mécaniques et donc diminue la tenacité du matériau », explique Thierry Charles directeur général adjoint de l’IRSN. Or, la standardisation du parc français, qui a permis de notables économies d’échelle, implique que cette anomalie concerne une dizaine de réacteurs en fonctionnement. EDF mène alors des contrôles qui semblent démontrer que ces anomalies ne remettent pas en cause la sûreté de ces équipements. Sauf sur les fonds de cuve de générateurs de vapeur. L’ASN a en ligne de mire 12 réacteurs en particulier, équipés de générateurs de vapeur fabriqués par la Japan Casting & Forging Corporation (JCFC), un fournisseur d’Areva. Sept d’entre eux sont en cours de contrôle et cinq autres ont reçu l’ordre de l’ASN d’arrêter leur activité sous trois mois pour inspection. L’objectif de ces contrôles est de confirmer les hypothèses du dossier déposé par EDF. Le gendarme français du nucléaire l’étudiera et conclura, ou non, à la  sûreté des réacteurs au cas par cas. Mais l’histoire ne s’arrête pas là car en étudiant les archives de l’usine Areva de Creusot Forge, l’ASN a mis au jour de nombreuses « irrégularités » qui s’apparentent davantage à des falsifications. L’affaire prend alors une autre tournure.

Falsifications

C’est la partie explosive de cette audition fort heureusement ouverte à la presse. Lors de ses investigations l’ASN a découvert des « irrégularités sur des dossiers barrés » de l’usine de Creusot Forge. En étudiant de près ces documents, les inspecteurs ont pu constater des écarts importants sur des équipements de 24 réacteurs. « Il y a aussi des documents qui s’apparentent à des falsifications », indique Pierre-Franck Chevet. Preuves à l’appui, l’ASN démontre que les chiffres qui lui ont été transmis ne sont pas ceux observés lors des contrôles réalisés par Areva. Pire, il ne s’agit pas seulement d’équipements en cours de fabrication, mais en opération. C’est le cas du générateur de vapeur de Fessenheim 2, dont la virole basse fabriquée en 2008 par l’usine du Creusot n’a pas été rebutée comme il fallait,  « avec des conséquences potentiellement majeures sur la sûreté », affirme l’ASN qui a suspendu le certificat d’épreuve de ce générateur de vapeur.

Ces falsifications déjà nombreuses (87 cas déclarés) ne sont que la surface immergée de l’iceberg. « Nous découvrirons à n’en pas douter d’autres irrégularités. C’est une purge nécessaire qui n’est pas encore finie. Il y a encore 1 à 2 ans de travail pour vérifier pas à pas les 10 000 dossiers restants », prédit Pierre-Franck Chevet qui en a profité pour rappeler l’insuffisance des moyens humains qui lui sont octroyés, malgré la création cette année de 30 postes supplémentaires. L’une des principales questions à laquelle l’enquête de l’ASN devra répondre est de savoir si ces pratiques qui semblent avoir duré des années sont localisées uniquement au Creusot. Pour cela, le directeur de l’ASN prévient qu’il s’intéressera dans les prochains mois à d’autres usines du groupe Areva, notamment Chalon/St Marcel.

Le parc nucléaire français
Le parc nucléaire français

EDF et Areva font front commun

Très exposés lors de cette audition, les représentants d’EDF et Areva ont fait front commun. Ces derniers ont tenu des propos qui se veulent rassurants, et ce, malgré l’ampleur du scandale. Dominique Minière, directeur d’EDF en charge du parc nucléaire, a souligné la démarche vertueuse qu’avait entraîné la découverte de ces malfaçons, rappelant qu’il ne s’agit pas du premier problème générique auquel EDF doit faire face. « Dans le nucléaire on établit des marges importantes. Dans cette situation, on consomme de la marge, mais la sûreté reste assurée », indique Dominique Minière. Et de poursuivre : « Sur les 88 irrégularités  découvertes sur le parc en exploitation, une seule pourrait remettre en cause la sûreté : la virole de Fesseheim 2. Nous avons anticipé l’arrêt de tranche pour vérifier cette pièce. Par ailleurs, deux autres pièces sacrificielles ont été construites pour confirmer nos hypothèses ». Bernard Fontana, directeur d’Areva, était lui en première ligne et s’il juge ces falsifications « inacceptables », la question des sanctions et des éventuelles conséquences pénales est en revanche largement ignorée. « Il nous faut en tirer les enseignements pour sortir plus fort de cette épreuve », se contente Bernard Fontana.

Monique Sené, vice-présidente de l’Association nationale des comités et commissions locales d’information (Anccli), estime désormais que la confiance est rompu malgré la loi de 2006 sur l’industrie nucléaire qui devait instaurer plus de transparence à cette industrie. Interpellé par la solidarité affichée entre l’exploitant et son fournisseur, Yves Marignac, de l’association WISE, interroge EDF sur le fait qu’elle ne se retourne pas contre Areva, ni que l’agence de répression des fraudes ne soit associée aux derniers déroulements de l’affaire. EDF entretient certes une relation contractuelle avec Areva, mais il ne faut pas oublier que l’électricien, sous ordre du gouvernement, s’apprête à racheter la partie réacteurs de son fournisseur, qui inclut l’activité de forgerie. L’électricien n’a donc aucun intérêt à la mettre en difficultés, notamment judiciaires, et au contraire l’électricien appuie comme très souvent les efforts de son fournisseur pour rendre une copie satisfaisante à l’ASN.

Impact financier et international

Malgré l’ampleur de ces vérifications, EDF se dit « confiant » de voir ses réacteurs redémarrer au plus vite. Une nécessité économique pour l’électricien français qui estime sa perte à environ 1 million d’euros par réacteur et par jour. Au petit jeu des calculs, cela représente une perte de plus de 70 millions d’euros par semaine pour EDF, pour la dizaine de réacteurs concernés. Et ce, à la veille de l’hiver qui correspond à la période de l’année où la consommation française est la plus importante. Si ces réacteurs ne sont pas autorisés à reprendre le service, EDF devra importer l’électricité manquante à un coût élevé. Une perspective qui ne doit guère enchanter l’électricien déjà dans une situation financière très compliquée, qui a conduit à une augmentation de capital exceptionnelle de 4 milliards d’euros en juin dernier, dont les ¾ au frais du contribuable.

Si cette affaire secoue l’ensemble de la filière nucléaire française, ses implications devraient aller bien au-delà de nos frontières. Les deux réacteurs EPR en fin de construction à Taïshan (Chine) pourraient également avoir été l’objet de malfaçons comme tous les autres équipements fabriqués et exportés par l’usine du Creusot, voire d’autres usines d’Areva ou de ses sous-traitants. « C’est un sujet qui peut concerner d’autres pays », confirme Pierre-Franck Chevet. Affaire à suivre.

Romain Chicheportiche

Sea Bubble : les « bateaux volants » pour traverser Paris pourront-ils « voler » partout ?

Le concept est sexy et séduit. Et à juste titre car il s’agit du mode propulsion motorisé le plus efficace en milieu aquatique. Du moins quand la vitesse est suffisante pour le basculement du véhicule en mode « foil », c’est-à-dire qu’il puisse se dresser sur ses ailes et alors glisser au dessus de l’eau. Tant que le Sea Bubble (« bulle maritime ») est immergé il consomme autant d’énergie qu’un bateau classique. C’est-à-dire beaucoup plus, à vitesse égale, qu’un véhicule terrestre de gabarit équivalent.

Dans un article  intitulé «  Des voitures volantes pour traverser Paris en 15 minutes » RTL présente le navigateur Alain Thebault comme « leur inventeur ». Or à ce stade pas même un prototype n’a été construit. A l’inverse du Quadrofoil dont Techniques de l’ingénieur faisait écho dès 2014. Capable de se déplacer à 21 nœuds (40 km/h) le QuadroFoil (Vidéo) a été développé par une équipé d’ingénieurs basée en Slovénie, petit pays au bord de la mer Adriatique. Il faut que le QuadroFoil, véhicule deux places pesant seulement 100 kilos, franchisse les 6 nœuds (13 km/h) pour qu’il puisse sortir de l’eau. Avec le SeaBubble, quatre places, il est possible que la vitesse requise soit un peu supérieure. A fortiori si les passagers embarquent des bagages.

Selon la direction territoriale du basssin de Seine au niveau des îles Saint-Louis et de la Cité la vitesse de la navigation est limitée à 6 km/h. Le concept de « bateau volant » n’est donc pas valide dans ce secteur. Ailleurs « la vitesse maximale autorisée est de 18 km/heure, à condition que le bateau se trouve à plus de 20 m des rives et qu’il fasse moins de 20 tonnes de déplacement d’eau. Si non, elle est seulement de 12 km/heure. » A plus de 20 mètres des rives les Sea Bubbles pourront donc circuler au maximum à 18 km/h. A 18 km/h on parcourt 4,5 kilomètres en 15 minutes. A noter que « le dépassement ou trématage est interdit entre : le pont de Bir-Hakeim et la passerelle Debilly la passerelle Leopold-Sedar-Senghor (ex passerelle Solférino) et le pont des Invalides le pont Neuf et le pont d’Austerlitz ». C’est pas gagné pour battre un record de vitesse…

A Paris la circulation terrestre s’écoule à une vitesse moyenne d’environ 15 km/h. Avec SeaBubble, compte tenu du temps d’embarquement, de débarquement ainsi que de la traversée à vitesse réduite de la bande des 20 mètres au départ et à l’arrivée, il n’est pas certain que ce mode de déplacement soit plus rapide que les taxis.

Alain Thébault souhaite que traverser Paris en SeaBubble coûte moins cher que de le faire en taxi. La plus grosse partie du montant d’une course correspond au salaire du chauffeur. Etant donné que chaque Sea Bubble ne sera pas 100% autonome et devra faire appel à un pilote humain titulaire des permis requis, et que par ailleurs la consommation électrique en milieu aquatique, même en glissant sur l’eau, est supérieure à celle des taxis électriques terrestres, c’est peu probable. Sauf si la Mairie de Paris met en place un régime règlementaire particulier, ce qui serait déloyal et sans doute dénoncé par les chauffeurs de taxis. Chacun se souvient de leur réaction lors du débarquement des Uber POP.

Alimenter les batteries des Sea Bubbles avec de l’électricité solaire et non pas nucléaire optimisera l’image green des Sea Bubbles parisien. En ce qui concerne les micro-hydroliennes proposées par Alain Thébault le courant disponible en bord de Seine sera-t-il suffisant pour générer un kWh bon marché ?

A l’opposé des jetskis thermiques qui constituent une aberration complète en matière d’efficacité énergétique, les embarcations de type QuadroFoil / SeaBubble ne génèrent pas de vagues, d’émissions polluantes et de bruit : il peuvent circuler au niveau d’écosystèmes aquatiques fragiles avec un impact minimal sur la flore et la faune locale. Le tout en conférant un maximum de plaisir aux voyageurs.

Il faut néanmoins une eau bien lisse pour permettre une propulsion optimale du Sea Bubble. Car dès que des vaguelettes se forment le « bateau volant » redevient un bateau classique.

La Mairie de Paris a donné son feu vert à la piétonisation des berges de Seine. Peut-être cherche-t-elle à faire diversion en occupant le terrain médiatique avec les Sea Bubbles ? Des petites bulles pour tenter de faire éclater la contestation face aux temps de trajet des automobilistes qui s’allongent ?

La splendide devise de Paris,  « Fluctuat nec mergitur »  signifie « tangue mais ne chavire jamais ». La Déesse Isis sur sa barque portera-t-elle chance à Alain Thébault ?

Olivier Daniélo

Nouvel arrêté sur les pesticides agricoles : les futures conditions d’épandage divisent

Depuis 2011, la pulvérisation de pesticides est réglementée notamment à proximité de lieux qui accueillent du public comme les crèches, les parcs, les terrains de sport ou encore les maisons de retraite. Désormais le Comité de rénovation des normes en agriculture inclut également les habitations.
Voulu par le premier ministre et les représentants du secteur agricole, ce Comité a été instauré en mars 2015. Sa mission étant de simplifier les normes existantes et de revoir la méthode d’élaboration des normes applicables dans les exploitations agricoles.

Préserver la santé

Cependant, le monde agricole, particulièrement éprouvé, voit d’un mauvais œil ces futures recommandations, considérées comme de nouvelles contraintes. Pourtant, ce projet d’arrêté entend préserver aussi bien la santé des agriculteurs que celle des riverains. En effet, cet arrêté interministériel en cours de préparation compte définir avec précisions les zones traitées et celles non traitées. Depuis l’arrêté du 12 septembre 2006, les zones non traitées devaient respecter des distances de 5 à 100 mètres aux abords des points d’eau et un délai avant récolte de trois jours minimum et de 6 à 48h pour un retour de l’exploitant et des travailleurs sur la parcelle.

Une forte opposition bien marquée

Le syndicat majoritaire, la FNSEA, craint des conditions encore plus drastiques et la perte considérable de terrains cultivables. Il s’inquiète notamment de l’extension de ces zones dites non traitées le long des fossés, des forêts, des bosquets ou encore des nouvelles mesures de protection à proximité des habitations. La FNSEA demande également plus de souplesse. Dans Le Monde, elle réclame notamment la réduction du délai de retour sur les parcelles traitées, « soit un laps de temps de six ou huit heures au lieu des 24 à 48 heures actuelles, pour peu que le travailleur porte un équipement individuel de protection. » Pourtant, en juillet, l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail, l’Anses, confirmait dans un rapport le manque de données relatives aux expositions aux pesticides des personnes travaillant dans l’agriculture.

La crainte de pertes multiples

Dès l’annonce de la révision de l’arrêté de 2006 (qui ne sera plus applicable à partir du 06 janvier 2017 suite à l’annulation par le Conseil d’Etat), la FNSEA a invité ses adhérents à se mobiliser contre cet « arrêté phyto », comme elle le surnomme. Dans son communiqué de presse, elle évoque comme conséquence directe de ces restrictions, la perte de « milliers d’hectares qui viendraient à manquer pour produire et nourrir nos concitoyens ». Dans un courrier signé par plus d’une trentaine de représentants du secteur et adressé à Ségolène Royale, Ministre de l’environnement, ces représentants « demandent solennellement de ne pas en rajouter sur l’encadrement de l’utilisation des produits phytosanitaires. » Mettant en avant les nombreux efforts fournis (« l’engagement dans la mise en œuvre d’Ecophyto 2 », (dont l’objectif est la réduction de 50% du recours aux produits phytosanitaires en 10 ans) ; «la réduction de moitié de la quantité de produits phytosanitaires par hectare de surface agricole utile », etc.), ils s’insurgent contre la version actuelle du projet. « Appliquée en l’état, ce sont plusieurs millions d’hectares qui sortent de la production agricole (…) avec la suppression de milliers d’emplois agricoles et la perte de plusieurs milliards d’euros par an en termes de chiffre d’affaires agricole. »
Ce futur texte, en cours de rédaction, suscite donc déjà de vives réactions. Il est censé tout remettre à plat et tenir compte de plusieurs paramètres dans l’épandage : force et direction du vent ; distances minimales par rapport aux habitations et à un cours d’eau ; délais d’exposition minimaux, etc. Il devra prochainement donner lieu à une consultation publique sur internet.

Par Nadia Daki

« L’arbre à vent » d’Arnaud Montebourg déplumé (à tort ?) par le canard enchaîné

CvrrzYTXgAAToIu« Arbre à vent, route solaire, la capacité de certains politiques à promouvoir des miroirs aux alouettes énergétiques est sidérante » tonne Thierry Salomon, porte parole de l’association négaWatt. Ceci en réaction au lancement par Ségolène Royal de la construction d’une route solaire en Normandie ainsi qu’à l’article du Canard enchaîné intitulé « L’arbre à vent de Montebourg ? Du vent… ».

Cet ingénieur énergéticien pose une question fondamentale dans une perspective de développement vraiment durable à propos de ces deux innovations très médiatisées : « Une simple question : où sont les études sur le cycle de vie et le temps de retour énergétique (EROI) ? »

L’arbre à vent produit-il (bien) plus d’énergie qu’il n’en consomme ? « Une ACV (Analyse du cycle de vie) sera menée sur la série. Nous ne sommes pas parfaits mais faisons des efforts : bois, chanvre de lin et Steel roots » a déclaré NewWind aux Techniques de l’ingénieur. « Nous revendiquons le droit à nous améliorer, à tester, écouter, corriger, l’innovation c’est du work in progress ».

Thierry Salomon rappelle que « si l’EROI est proche ou inférieur à 1, ces techniques retardent la transition au lieu d’y contribuer ! ». Une remarque potentiellement dérangeante mais absolument essentielle. La meilleure défense sera donc de publier des études environnementales sérieuses.

Qui peut être contre l’innovation ? En fait, pas grand monde. Mais l’innovation peut-elle être sans limite ? Certaines approches sont pipées dans leur conception même. Si un jour un groupe d’ingénieurs propose de tester des éoliennes sur une planète dépourvue d’atmosphère ? Ou si une start-up propose d’installer une centrale solaire sous-marine au fond de La Manche, entre la France et la Grande-Bretagne afin de réduire son impact paysager ? Serait-il judicieux d’y injecter des millions d’euros ?

De l’électricité dans l’air

New Wind a décidé de porter plainte contre le Canard enchaîné, comme en témoigne un communiqué de démenti diffusé le 26 octobre 2016 par la start-up. Le journal fait écho de problèmes de sécurité que poserait l’arbre à vent, problèmes qui ont notamment entrainé l’intervention de l’Apave, spécialiste des risques. La direction de New Wind pense qu’il s’agit d’un coup monté par un salarié en cours de licenciement.

Le journal estime de son côté que « présentée comme une grande innovation » par Arnaud Montebourg, « cette mini-éolienne s’avère dangereuse pour le public, peu productive et chère. L’arbre à vent ne se vend pas. »

CvtMr60WcAAIStW
Dessin extrait de l’article du Canard enchaîné

Les informations rapportées par le Canard enchaîné dans le domaine de l’énergie ne sont pas toujours pertinentes rappelle Stéphanie Franck, journaliste au sein de la rédaction d’Enerpresse, le quotidien français de l’énergie. L’année dernière le canard affirmait que la moitié des éoliennes françaises ne sont pas raccordées au réseau électrique et donc tournent dans le vide, ce qui est faux.

Le journaliste s’était emmêlé les pâles avec les demandes de permis de construire. Malheureusement la fausse information avait trouvé un écho considérable dans la presse grand public qui bien (trop) souvent ne dispose pas de journalistes scientifiques spécialisés en énergies durables. Cependant les révélations du Canard ne sont pas systématiquement fausses.

Arnaud Montebourg a démissionné de son mandat de président du conseil de surveillance de NewWind en raison de sa candidature à la primaire socialiste pour la prochaine élection présidentielle. Mais il demeure actionnaire. Le socialiste a déboursé 56.000 euros.

L’arbre à vent perdra-il ses feuilles cet hiver ? Ou restera-t-il vert comme le sapin de Noël ? A suivre.

Olivier Daniélo

Revue du web #96 : les 10 vidéos étonnantes du mois

Un étrange phénomène observé lors d’une vidange de piscine intrigue le web

Postée sur Reddit, une nouvelle vidéo d’un étrange phénomène observé lors de la vidange d’une piscine gonflable a beaucoup fait parler. Voici quelques explications sur les mécanismes derrière cette manifestation.

Rassor 2.0, le nouveau robot de la Nasa

Voici Rassor 2.0, un petit robot plein de ressources étudié par la Nasa. Ce modèle, ou la génération suivante, sera peut-être dans les valises des premiers êtres humains à débarquer sur Mars à l’horizon 2030.

L’ouragan Matthew en time laps

Plongez au cœur d’une batterie Lithium ion

A l’heure où Samsung rappelle par millions des téléphones aux batteries défectueuses, visite en haute résolution à l’intérieur d’une batterie pendant son fonctionnement, afin de mieux comprendre comment elle s’abîme au cours du temps.

Le module Schiaparelli s’est-il écrasé sur Mars ?

Ce n’est qu’à 11 kilomètres de la surface que l’étalon italien, dont la vitesse ne sera plus que de 1 700 km/h, déploiera son parachute pour se poser sur la plaine équatoriale de Meridiani Planum qui avait déjà été choisie comme site d’atterrissage par le rover américain Opportunity.

La moto du futur

En 2016, l’année de son centenaire, le Groupe BMW est, plus que jamais, avec leurs yeux sur l’avenir et le développement d’une série de véhicules ciblés de propositions pour répondre aux besoins de mobilité des personnes 30 ans plus tard à partir de maintenant.

Renault Trézor

Ce concept-car électrique de la marque française a la particularité de ne posséder qu’une porte, qui s’ouvre via le capot à l’avant telle une soucoupe volante. L’inspiration vient directement d’une photo où l’on voit Steve McQueen passer littéralement par-dessus bord sa Jaguar XKSS

 

Voilà à quoi ressemble la musique pour sourds

Le mieux c’est d’écouter !

Jouer avec du plasma à la maison

Dans la série DIY (do ti yourself), la rédaction vous présente ce jeune homme, qui « joue » avec du plasma dans son garage…

Des robots mous pour imiter les muscles

Une équipe de l’EPFL a développé des robots flexibles, mous et reconfigurables, qui peuvent servir d’outils de réhabilitation. Mis en mouvement par injection d’air, ils imitent les muscles et peuvent être produits à large échelle.

La vidéo inutile de la semaine : tirer la chasse d’un WC rempli de mercure

Adepte d’expériences scientifiques, le Laboratoire de Cody a fait une trouvaille plutôt surprenante. Si vous vous êtes déjà demander ce que ça faisait de tirer la chasse de toilettes remplies de mercure, le youtubeur y répond dans une vidéo publiée mardi 27 septembre.

 

Revue de presse anglophone #2 : Apple car, Workplace, Asgardia, fruit miracle…

Voiture autonome

On commençait à penser que tout ce que touchait la pomme se changeait en or. Mais non. Apple pourrait bien passer à côté de la révolution automobile du futur. Et l’assume.

Source : Bloomberg

Management

Demain, tous sur Workplace ?
Facebook vient de lancer son réseau social professionnel. Bientôt la fin des échanges email et des sites intranet ?

Source : Quartz

 

Vous vous rendez au travail ? Selon une nouvelle étude, il vaudrait mieux laisser votre cerveau à la maison.

Volontiers provocateur, le chercheur André Spicer a baptisé sa théorie « le paradoxe de la stupidité » : trop de réflexion de votre part nuirait au fonctionnement collectif. On vous laisser juger.

Source : aeon

Robotique

Les robots et l’intelligence artificielle pourraient remplacer 6% des emplois aux Etats-Unis en 2021

Une mauvaise nouvelle pour les salariés ? Pas forcément. Ces nouvelles technologies devraient également produire de nouveaux emplois. De futures opportunités à saisir si vous avez toujours rêvé de manager un robot.

Source : Comptuterworld

 

Robots, avoir des bras solides ne suffit plus !

Désormais, on exige d’un robot qu’il fasse preuve d’intelligence et qu’il progresse grâce à sa propre expérience. C’est le principe du machine learning !

Neurosciences

Qu’est-ce qui pousse certaines personnes à rechercher le danger alors que, évolution oblige, nous serions plutôt programmés pour faire preuve de prudence ? L’adrénaline ? Pas seulement.

Source : The Conversation

10% de la population mondiale ! C’est ce qui s’appelle être en minorité. Mais pour quelle raison ? Le mystère n’est pas complètement élucidé.
Source : BBC
Une exploration virtuelle très réaliste.
Source : BBC
Première Nation de  l’espace, Asgardia compterait déjà plus de 370 000 citoyens. Décollage du satellite d’ici deux ans, selon les initiateurs du projet.
Source : The Guardian

Recherche

Le Synsepalum dulcificum, une baie originaire d’Afrique de l’Ouest, aurait la particularité de transformer un goût acide en saveur délicieusement sucrée grâce à une protéine. Des chercheurs étudient les potentielles applications.

Source : Food navigator

Par I. T

Une relation homme-machine plus collaborative

Depuis leur apparition sur les chaînes de production dans les années 1970, les robots industriels ont pris une place de plus en plus importante dans de nombreux secteurs d’activité. Plusieurs avancées techniques les ont rendus indispensables. Demain, ce sera encore plus le cas dans les usines connectées grâce à leurs facultés à s’autoadapter. En s’échangeant des données, ils pourront effectuer différentes tâches selon l’objet à traiter grâce à un système de vision et des capteurs plus évolués.

Ils pourront faire la différence entre des milliers et lancer l’opération qui convient. Mais ils ne remplaceront pas tous les ouvriers. « 8 % des tâches sont aujourd’hui automatisées. Nous estimons qu’avec l’industrie 4.0, ce taux passera à 25 % », estime Olivier Scalabre, directeur associé senior au Boston Consulting Group (BCG).

Autre concept censé optimiser la chaîne de production tout en rassurant les salariés :  la robotique collaborative. Appelée aussi « cobotique »,  un néologisme imaginé en 1999 par Edward Colgate et Michael Peshkin, professeurs à la Northwestern University. Ce sont des machines qui travaillent « avec » des personnes, et non « à leur place ».  On distingue plusieurs types de cobots : ceux pilotés par un opérateur situé à proximité immédiate du système, d’autres commandés à plus grande distance (ou téléopérés) et les exosquelettes, sortes de prolongements du corps humain.

Ils peuvent par exemple décharger la personne des tâches les plus complexes ou laborieuses au profit d’opérations à plus forte valeur ajoutée. La production y gagne aussi, car la technologie permet d’accéder à des pièces très petites, très grandes, trop lourdes ou dont les températures sont trop hautes ou trop basses. Mais la cobotique pourrait aussi d’améliorer les conditions de travail, en prévenant les troubles musculo-squelettiques ou en évitant l’exposition directe du technicien à des environnements dangereux.

À Saclay, en banlieue parisienne,  le BCG a aménagé un mini-showroom industriel, baptisé ICO (pour Innovation Center for Operations). Dans l’usine fictive qui représente une ligne d’assemblage de scooters à monter et démonter en permanence, les robots soulèvent les roues.

Mais selon le BCG, cette même ligne de production de scooters pourrait très bien fabriquer des sèche-linge. Un exemple de l’adaptabilité. Mais pour l’instant, ces cobots ne sont pas aussi performants que leurs grands frères industriels. Ce marché devrait évoluer dans les prochaines années au fur et à mesure grâce à l’intégration de nouveaux capteurs et de scanners laser.

Barclay Equity Research table sur 150 000 en 2020 (contre 4 300 unités dans le monde en 2015) car le prix d’un cobot est environ 10 fois moindre que celui d’un robot industriel classique. De quoi séduire des PME de s’équiper…

Cette agilité et cette interaction avec l’environnement impliquent de multiplier les échanges de données en temps réel via des réseaux Ethernet IP, Internet, mais aussi des technologies d’identification optique. Quel que soit l’événement (nouvelle commande, panne de composants, manque d’approvisionnement en matières premières…), il faut que la machine envoie l’information et prenne la décision à la place de l’homme.

Toutes les informations émises ou reçues par le robot devront remonter à un serveur central afin d’optimiser la gestion et la production. Mais « pour piloter finement les ateliers, il faudra donner du sens à un grand nombre d’informations présentes dans les machines et les différents systèmes de productions et d’exploitation. Si l’on n’est pas vigilant, on pourra très vite se noyer sous cette masse de données. La solution passe d’abord par la contextualisation de ces informations. Cette contextualisation ne peut se faire sans la simulation de différents scénarios potentiels qui peuvent se produire sur une ligne de production ou une machine », prévient, dans l’Usine Digitale, Matthieu Lassalle, directeur général de Rockwell Automation France.

Philippe Richard

L’usine 4.0, c’est quoi ?

L’usine connectée permettra-t-elle de rebattre les cartes de la mondialisation ? C’est l’avis d’experts et du gouvernement français qui a lancé en 2013 ses 34 plans de reconquête industrielle. L’usine du futur y est décrite comme un moyen de relancer l’industrie française. Pour relever ce défi, elle s’appuiera sur la convergence entre l’industrie et le monde du numérique. La « smart factory » – ou Usine 4.0 – vise à réaliser de nouveaux gains de compétitivité et à optimiser des consommations par l’efficacité énergétique. La production est notamment maximisée en fonction du coût de l’énergie et de sa disponibilité au cours d’une journée.

En théorie, ce rapprochement ne présente pas d’obstacles majeurs puisqu’il repose, en partie, sur des outils existant déjà : capteurs, automates, Big data, Internet des objets, Cloud Computing… Dans la pratique, le challenge ne sera peut-être pas aussi facile, car il implique la mise en place d’une nouvelle organisation du mode de production qui donne une plus grande importance au réseau. Connectées entre elles, les machines d’une usine (ou de plusieurs sites) et des capteurs s’échangent des informations. Cette communication continue et instantanée entre les différents outils et postes de travail intégrés dans les chaînes de fabrication et d’approvisionnement permet d’optimiser des process manufacturiers et d’améliorer la flexibilité afin de s’adapter à la demande en temps réel et de mieux satisfaire les besoins individuels de chaque client.

Pour relever ce défi de la personnalisation des services et des produits, l’usine connectée doit bénéficier d’une logistique parfaitement rodée. C’est un élément clé de l’Industrie 4.0. L’administration de la chaîne d’approvisionnement (supply chain management, en anglais) concerne notamment le stockage des produits, le transport, les équipements (camion, chariot élévateur…), les fournitures (emballage, carburants…), la planification et les systèmes d’information et de contrôle de gestion.

« Cela implique une amélioration des process, des méthodes et des qualifications dans des plates-formes de plus en plus complexes que les industriels doivent gérer de façon plus rapide. Comme il n’est pas possible de stopper une chaîne de production pour en créer une nouvelle, la solution passe par une formule incrémentale qui s’articule autour de deux points-clés. Premièrement, des Proof of Concept (POC) et, deuxièmement, des validations des méthodes retenues pour implémenter ces transformations. Cette solution permet d’y arriver progressivement sans jamais stopper ni retarder l’outil de production », explique Philippe Meleard, vice-président marketing & Communication chez Sogeti High Tech.

Les données représentent l’un des maillons essentiels de cette convergence. « Dans l’industrie, on ne fait pas du Big Data mais du Smart Data. Et le Smart Data, c’est capter la bonne donnée, la transformer (ou la contextualiser) et s’en servir pour optimiser son procédé de fabrication », indique Serge Catherineau, Directeur marketing Industrie automobile, aéronautique et système intégrateur chez Schneider Electric. Et d’après des industriels, ce concept porte déjà ses fruits. « Après être passé par l’étape des chantiers pilotes, nous avons désormais notre site d’Amberg qui regroupe tous les concepts de l’industrie 4.0, et qui a vu sa productivité multipliée par deux en quelques années », affirme Franck Mercier, chargé de mission « digital factory » chez Siemens.

Mais cette (r)évolution industrielle n’est pas qu’une affaire de programmes informatiques. Elle implique également une adaptation de la structure de l’entreprise. « Il y a un déplacement du rôle des managers vers beaucoup plus de transversalités. Avec la convergence du monde industriel et des technologies numériques, le partage des données sera facilité », déclare Philippe Meleard.

Philippe Richard

Piratage : les vulnérabilités de l’usine 4.0

De leur côté, les informaticiens qui travaillaient pour des industriels fréquentaient rarement les ateliers. Chacun de son côté…

Ce cloisonnement n’est plus adapté à l’évolution de l’industrie. Toutes les machines sont directement ou indirectement connectées à des réseaux et en particulier à l’internet. Et lorsqu’elles ne le sont pas, elles peuvent accueillir des clés USB ou des consoles de maintenance qui sont connues pour être des vecteurs majeurs de propagation de codes malveillants. L’idée que des automates et des robots peuvent être isolés est utopique.

L’évolution du monde industriel et l’avènement de l’Industrie 4.0, doivent impérativement s’accompagner d’un changement dans les organisations afin d’y

intégrer la cybersécurité. Les automaticiens et les informaticiens doivent travailler ensemble, car l’industrie du futur repose sur l’interconnexion de ces deux mondes ; ce qui induit une plus grande vulnérabilité.

Quels sont les principaux risques ? Des virus peuvent infecter un serveur hébergeant des données sensibles (quantité de matières premières utilisées, productivité, plan de maintenance…) des robots exploités par une usine. Ces informations peuvent être vendues à des concurrents désireux de connaître le savoir-faire de l’entreprise victime. Autre menace : un code malveillant modifie le fonctionnement d’une machine ce qui pourrait entraîner soit la fabrication de produits défectueux (ou non conformes à la législation) ou blesser des techniciens. Enfin, mécontente de sa situation, une personne en interne pourrait bloquer la chaîne de fabrication.

Face à ces menaces, la sécurité d’une installation ne se résume plus à des parades logicielles et matérielles visant à repérer et à éradiquer des codes malveillants. Elle doit garantir aussi la fiabilité du transfert d’informations intègres entre différents équipements. Une surveillance et une prévention permanentes des réseaux seront nécessaires pour réduire les risques de cyberattaques sur l’industrie. Objectif : localiser au plus vite une infection virale afin de limiter sa propagation à toute la chaîne de production. La détection rapide d’un piratage permettra soit d’isoler la machine impactée, soit de l’arrêter si son dysfonctionnement entraîne une modification des données.

Mais les contraintes de l’industrie et des entreprises ne sont pas les mêmes. Le cycle de vie des outils est beaucoup plus long dans l’industrie. Cela signifie que les systèmes informatiques doivent pouvoir continuer d’être protégés efficacement, alors même que Microsoft ne supporte plus ni Windows XP ni sa version 2003. L’autre spécificité repose dans le fait que ces systèmes de cybersécurité ne doivent à aucun moment perturber la production ou, pire, provoquer son arrêt inopiné et dans des conditions non standard.

L’usine 4.0 doit relever un défi. Il ne s’agit pas d’appliquer des méthodes éprouvées dans le monde de l’informatique, mais bien de les adapter, de les réinventer au regard de processus industriels complexes et hétérogènes.

Philippe Richard

Prospective: Panorama mondial de l’énergie d’ici 2060

« Les gains d’efficacité seront obtenus par le déploiement de ressources énergétiques plus efficaces, combiné à l’effet des technologies numériques qui contribueront à mettre en place les réseaux intelligents, les bâtiments intelligents, les maisons et bureaux intelligents et les villes intelligentes », préviennent les auteurs du rapport La grande transition.

Dans sa prospective, le Conseil mondial de l’énergie s’est basé sur 3 scénarios énergétiques possibles : Symphonie inachevée, Modern jazz et Hard rock. En 2060, le scénario le plus ambieux, Symphonie inachevée, imagine un monde où les gouvernements de tous les pays travaillent main dans la main sur les questions environnementales et économiques. Pour sa part, le scénario Hard Rock, le moins ambitieux, prévoit un monde fragmenté. Chaque pays fait passer ses intérêts nationaux avant la lutte contre les changements climatiques. Enfin, le scénario intermédiaire Modern Jazz repose sur des mécanismes de marché très complexes et concurrentiels apportant de l’efficacité, de l’inovation et le déploiement rapide des nouvelles technologies. 

Les trajectoires seront différentes selon les choix politiques et économiques qui seront faits dans les prochaines années. Mais de grandes tendances se dessinent. La demande en énergie primaire par habitant atteindra son pic vers 2030. Au global, la consommation d’énergie finale augmenterait entre 22% et 46% en 2060. Mais la demande en énergie primaire n’augmenterait qu’entre 10% et 34%, grâce au développement de l’énergie solaire et éolienne pour la production d’électricité. « Les taux de conversion pour ces sources d’énergie renouvelables sont beaucoup plus élevés que ceux des centrales à combustibles fossiles, ce qui signifie que moins d’énergie sera nécessaire à partir de la source primaire », précisent les auteurs.

Quelle évolution du mix énergétique mondial?

L’augmentation de la demande en énergie primaire concernera avant tout la demande en électricité qui doublera d’ici 2060, prévoit le rapport. L’électricité représentera entre 25% et 29% de la consommation d’énergie finale à cet horizon. Pour y parvenir, les investissements nécessaires en matière d’infrastructures et d’intégration des systèmes de production dans les trois scénarios s’échelonneront de 35 000 à 43 000 milliards de dollars.

La question sous-jacente est de savoir quel mix énergétique sera utilisé pour répondre à cette demande. Selon le Conseil mondial de l’énergie, le solaire et l’éolien poursuivront leur développement à un rythme sans précédent. Si ces deux énergies ne comptaient que pour 4% de la production électrique mondiale en 2014, ils atteindront entre 20% et 39% de cette production en 2060. Par ailleurs, si la part des combustibles fossiles n’a baissé que de 5% au cours des 45 dernières années, passant de 86% en 1970 à 81% en 2014, la dynamique des nouvelles technologies et des énergies renouvelables va bouleverser la situation.

La part des combustibles fossiles dans la demande en énergie primaire tomberait à 70% en 2060 dans le scénario Hard Rock, 63% dans Modern Jazz, et 50% dans Symphonie inachevée. L’évolution dépendra principalement de l’utilisation que feront la Chine et l’Inde du charbon en 2060. Suivant les scénarios, le pic de demande de charbon sera atteint en 2020 ou 2040. Pour le pétrole, le pic se situerait en 2030 ou entre 2040 et 2050. Seul le gaz naturel continuera à se développer pour remplacer le charbon.

Le pétrole restera néanmoins majoritaire dans le secteur des transports. Sa part passera de 92% en 2014 à 60% dans le scénario Symphonie inachevée, 67% pour Modern Jazz et 78% pour Hard Rock. Les progrès dans les biocarburants de deuxième et troisième générations permettront de jouer un rôle important. Ils représentent de 10% à 21% des carburants en 2060. Les scénarios Symphonie inachevée et Modern Jazz voient une pénétration rapide des véhicules électriques et des voitures hybrides rechargeables. Ces derniers représenteraient entre 26% et 32% des véhicules utilitaires légers en 2060. Les véhicules hybrides à essence ou gazoil représenteraient entre 24% et 31% de cette flotte.

Ces scénarios sont-ils climato-compatibles?

Suivant les scénarios, le pic d’émission de carbone est atteint entre 2020 et 2040. Dans le scénario Symphonie inachevé, le monde se rapproche des objectifs climatiques, avec une baisse des émissions de 61% en 2060 par rapport à 2014. Dans le scénario Modern Jazz, la réduction n’est que de 28%, alors que les émissions augmentent de 5% dans le scénario Hard Rock. Mais ces trois scénarios sont insuffisants pour limiter le réchauffement climatique à 2°C d’ici 2020.

Le budget carbone pour atteindre les objectifs est dépassé de 1.000 gigatonnes de CO2 vers 2040 dans les scénarios Modern Jazz et Hard Rock. Pour la Symphonie inachevée, il est dépassé avant 2060. De quoi faire réfléchir le monde politique et les industriels de l’énergie pour avancer des scénarios énergétiques encore plus ambitieux, climato-compatibles.

Par Matthieu Combe, journaliste scientifique

Au Danemark les émissions de CO2 baissent et le PIB augmente

Ces données issues du monde réel battent en brèche la théorie des promoteurs de la décroissance selon laquelle toute croissance du PIB ne peut s’accompagner que d’une hausse des émissions de CO2. Raison pour laquelle ils estiment qu’il faut passer à un taux négatif de croissance du PIB, autrement dit à la « décroissance » (degrowth en anglais).

La voie du « découplage », doctrine reposant sur la croyance qu’il est possible de concilier développement économique et préservation de l’environnement, est notamment prônée par le Programme des Nations Unies par l’Environnement (PNUE) dans son rapport intitulé « Decoupling ».

CvjIRPAXgAAqslv

Au Danemark plus de la moitié de la demande électrique a été couverte par le solaro-éolien durant l’année 2015. Le royaume de la petite couronne est suivi par le Portugal, l’Irlande et l’Espagne qui ont tous une part solaro-éolienne dépassant 20%. Pour l’Allemagne, la Grèce, le Royaume-Uni, l’Italie, la Roumanie, la Belgique et la Suède cette part est comprise entre 10 et 20%. La France est à moins de 5%, derrière la Pologne et la Bulgarie.

CtuHeTzWcAAmSsy

Les progrès danois, pays nordique, concernent aussi le chauffage, notamment grâce au CHP (Combined Heat and Power) décentralisé. Et aussi grâce aux transports de plus en plus efficients et électrifiés.

Le champion européen en matière d’électro-mobilité n’est cependant pas le Danemark mais la Norvège. Un pays où les voitures électriques sont propulsées par de l’hydroélectricité.

Olivier Daniélo

La rédaction de la revue « Casseurs de pub La décroissance » (n°135, dec 2016 – janv 2017, page 13) a publié un commentaire suite à cet article. Voici la réponse de l’auteur.

Californie et Mexique veulent synchroniser leurs réseaux

Fragile équilibre

La montée en puissance des énergies renouvelables dans le mix électrique complexifie chaque jour un peu plus la mission des gestionnaires de réseaux haute tension. Rarement mis sous les feux des projecteurs, ils accomplissent pourtant une tâche fondamentale : équilibrer en permanence la production avec la demande d’électricité. Sans l’action continue des gestionnaires (GRT dans le jargon) la population serait en proie à des coupures inopinées et répétitives du courant. Jusqu’ici, le travail, bien que minutieux jouissait d’une assez forte prévisibilité. La demande est estimée à l’avance avec, en général, une grande précision, obtenues par la compilation d’années de consommation et de modèles probabilistes. La production était jusqu’ici assurée par les grandes centrales (nucléaire ou autres) ayant des calendriers d’exploitation déterminés à l’avance. La hausse exponentielle des installations éoliennes ou solaires notamment, et leur priorité instaurée sur les réseaux, ont obligé les GRT à imaginer des outils avancés pour classer, traiter et mettre en valeur toutes ces informations.

Energy Imbalance Market

L’accord passé entre le Centro Nacional de Control de Energía (CENACE) et son homologue américain le California Independent System Operator (CAISO), fait suite à un Memorandum of Understanding signé entre Pedro J. Coldwell, le Secrétaire mexicain de l’Energie, et Edmund G. Brown Jr, Gouverneur de Californie en juillet 2014. Il prévoyait d’utiliser les deux interconnexions (Otay Mesa and Imperial Valley) entre la Californie (USA) et la Basse Californie (Mexique) pour imaginer comment l’intégrer au système d’équilibre. L’Energy Imbalance Market est déjà opérationnel dans 7 autres états des Etats-Unis : Oregon, Washington, Utah, Idaho, Wyoming, Arizona et le Nevada. Selon l’opérateur américain, l’EIM lui aurait fait gagner pas moins de 88 millions de dollars en favorisant la sélection de sources de production moins chères et moins polluantes. Le CAISO estime ainsi avoir évité l’émission de quelque 126 000 tonnes de CO2.

Alors que certains s’échinent à vouloir ériger des murs, l’initiative de ces deux opérateurs électriques montrent l’intérêt pratique de la coopération régionale. De surcroit dans des zones ou les caractéristiques de vent changent rapidement, obligeant ces derniers à constamment revoir leurs prévisions. Reste que cette initiative aura un impact limité. En effet, la région mexicaine de Basse Californie n’est pas interconnectée avec le reste du pays réduisant l’apport du parc mexicain à sa seule région frontalière. Symbole que même si le secteur électrique va avoir de plus en plus recours aux technologies de pointe, il lui faudra toujours installer des lignes électriques pour acheminer le courant…

Par Romain Chicheportiche

2000 euros le mètre-carré : la route solaire normande de Ségolène Royal

hors-la-loi
Les affiches de Greenpeace

« Ministre hors la loi ». L’ONG Greenpeace-France ne mâche pas ses mots suite au renoncement de la Ministre de l’écologie en matière de transition énergétique. « Ségolène Royal, 63 ans, n’a pas résisté au lobby nucléaire » s’indigne l’ONG. « Elle s’apprête à signer un décret pro-nucléaire en contradiction avec sa propre Loi ».

De son côté le PDG de Planète OUI, Nicolas Milko, appelle la ministre à mettre fin à une « écologie élitiste ». Pendant ce temps Ségolène Royal s’est rendue le 24 octobre 2016 dans l’Orne pour le lancement d’une route solaire d’un kilomètre.

Attention à la sortie de route

« Les panneaux mesurent 70 centimètres de large et 1.40m de long (soit une surface de 0,98 m2) et nous allons en installer 2600 unités sur cette route » a indiqué le 24 octobre 2016 à Tourouvre dans le Perche ornais Jean-Charles Broizat, le directeur de Wattway, propos rapporté par la chargée de communication de la Préfecture de l’Orne, jointe par téléphone. Autrement dit la surface concernée est de 2548 mètres carrés.

A quel prix ? 5 millions d’euros.Hors Taxes, selon la Préfecture de l’Orne. Chaque mètre carré va donc coûter 1962 euros pour le volet solaire.

20 fois plus coûteux que le solaire standard

routeSachant que selon le directeur de Wattway chaque mètre carré a une puissance de 110 Watts le coût de la route solaire Wattway (hors enrobé obligatoire) est donc de 17,8 € le Watt. Le coût du solaire PV au sol est à aujourd’hui de 0,7 à 1€/W, celui du solaire PV flottant d’1€/W, celui des ombrières solaires de 1,5 à 2€/W et celui du solaire PV en toiture de 1,5 à 2,5€/W. Et là il ne s’agit pas d’un petit démonstrateur de 50 mètres-carrés comme en Vendée (3200€ le mètre-carré selon le chargé de communication du Département) mais d’un projet à grande échelle, sur un kilomètre.

La Ministre a indiqué à de nombreuses reprises qu’elle veut 1000 kilomètres de route solaire, ce qui coûtera 5 milliards d’euros sur la base du coût du projet dans l’Orne. L’entreprise normande SNA doit produire 5000 mètres-carrés de panneaux Wattway d’ici 2017 pour alimenter le chantier de la route de Tourouvre mais aussi pour d’autres petits projets de 50 à 100 mètres-carrés l’unité. Il n’y a pas de substantielle réduction de coût à attendre avec un volume de production aussi faible. SNA, société qui a été dans le passé victime d’une escroquerie et placée en redressement judiciaire n’est pas au bout de ses peines.

Le coût astronomique des projets Wattway est en réalité l’arbre qui cache une forêt encore plus préoccupante : le coût économique est le reflet du coût énergétique de cette technologie. Il faut consommer énormément d’énergie pour produire la colle super-forte permettant aux panneaux de ne pas se décoller dès qu’un camion freine brutalement. Il faut de plus imperméabiliser les panneaux et une structure capable de résister à l’écrasement, ce qui est également coûteux en énergie.

Une route énergétivore

Pour plusieurs spécialistes du solaire il est possible que la route de Ségolène Royal soit en réalité une route à énergie négative, autrement dit qui consomme plus d’énergie pour la construire qu’elle n’en délivrera durant sa vie écourtée par le passage des véhicules.

Les panneaux posés à plat et à l’ombre des arbres et poteaux électriques normands n’amélioreront pas le bilan. Dr Franck Barruel, salarié du CEA et référent scientifique du projet Wattway avait annoncé en janvier 2016 à propos de l’EROI de Wattway qu’ « une première estimation pourrait être délivrée courant de l’année 2016 ». Contacté par Techniques de l’ingénieur il y a une semaine à propos de cette estimation ce scientifique, qui est le seul autorisé à communiquer sur Wattway au sein de l’INES, n’a pas répondu.

L’EROI, taux de retour énergétique, ratio de l’énergie produite sur l’énergie consommée, est pourtant un paramètre clé du développement vraiment durable. Comment envisager d’installer un kilomètre d’une telle route s’il n’a pas été calculé sérieusement ?  L’environnement, cela commence à bien faire ?

L’ex-compagne du Président de la République François Hollande pourrait être la candidate du parti socialiste à l’élection présidentielle de 2017.

Olivier Daniélo

Innover pour mieux recycler les véhicules

Chaque année, environ 1 million de véhicules hors d’usage (VHU) sont traités en France. Ceux-ci transitent en premier lieu par l’un des 1.700 centres agréés. Les professionnels y retirent les pièces à valoriser ou traiter : pneus, batteries, fluides dangereux, pare-chocs, réservoirs, pots d’échappement… Puis, les carcasses sont envoyées vers l’un des 45 broyeurs en fonctionnement sur le territoire national.

Sur les 5 broyeurs que possède le groupe Ecore en France, 200.000 tonnes de véhicules sont broyés par an. Cela en fait le deuxième opérateur national, derrière Derichebourg. Les broyeurs sont d’énormes machines qui vont broyer les véhicules dépouillés. « Grossièrement, une apiration récupère la fraction légère : mousses, textiles, plastiques légers. Ce qui reste est la fraction lourde qui concentre des caoutchoucs, des métaux non ferreux, des minéraux et des plastiques. Un gros aimant récupère l’acier qui sera revendu aux aciéries », simplifie Nicolas Thibault, Responsable Environnement du site de Rocquancourt. « Le traitement des éléments post-broyage des véhicules hors-d’usage est un véritable défi technologique », prévient Philippe Chemineau, directeur du développement de GDE.

Grâce à ses innovations, GDE atteint un taux de réutilisation et de valorisation de 96,1% pour les VHU, contre 91% en moyenne pour la filière. C’est plus que l’objectif réglementaire de 95% qui aurait dû être atteint par toute la filière début 2015. Le recyclage atteint 83%, la valorisation sous forme énergétique en cimenterie 13,1%. Il reste 3,9% de déchets ultimes non toxiques qui rejoindront un centre de stockage de déchets non dangereux. Ils sont constitués de poussières, terres, mousses diverses, verres de textiles et de caoutchoucs. Le défi reste donc de développer des solutions pour valoriser ce gisement résiduel. L’objectif de la R&D de GDE est d’aboutir à 0% de déchets ultimes, grâce à une séparation par granulométrie la plus fine possible.  Pour y parvenir, GDE va consacrer 12,5 millions d’euros par an à la recherche et au développement.

Comment sont triés les résidus de post-broyage?

Le site de Rocquancourt réceptionne l’ensemble des résidus de broyage (RB) légers et lourds du groupe pour les trier. Les RB légers sont traités dans un bâtiment dédié. Transportés sur des tapis roulants, la matière est séparée au fur et à mesure en fonction de la granulométrie par aspiration, aimantation ou optique. « Globalement, il y a deux types de machines : celles qui vont induire une force dans la matière, comme l’induction, et celles qui vont repérer un objet et vont demander à l’éjecter. L’idée est de concentrer les flux et de travailler sur les refus pour avoir le maximum de valorisation », résume  Nicolas Thibault.

Le tri des RB légers permet de récupérer plusieurs flux : des mousses, un mix de métaux ferreux, un mix de métaux non ferreux, du bois et un mélange de plastiques lourds qui vont être redirigés vers le traitement des RB lourds. Les mousses aspirées sont broyées, dépoussiérées, puis pressées. On obtient ainsi des « pellets de mousse », un combustible solide de récupération à très haute valeur ajoutée. « Le pouvoir calorifique du produit obtenu se rapproche du charbon ou le coke de pétrole. Il peut directement être injecté à la flamme en cimenterie », assure l’ingénieur.

Les RB lourds sont traités dans un autre bâtiment. Grâce à une séparation densimétrique par flottation dynamique, puis différents criblages par tri optique, magnétique ou infra-rouge et dépoussiérage, on obtient des métaux ferreux, des plastiques et des pellets de mousse.

GDE est l’une des rares entreprises capable de trier les plastiques contenus dans les résidus de broyage. En fin de chaîne, des plastiques styréniques (polystyrène et ABS) et des polyoléphines (PP/PE) sont réduits en petits agrégats. Outre les résidus de broyage, le site trie en mono-flux le plastique des batteries, des pare-chocs et des réservoirs, extraits en amont du broyage dy VHU, et le revend à des plasturgistes. 600 tonnes de plastiques sont récupérées par mois.

Réorganiser la filière?

Les 1.700 centres pour véhicules usagés mis en place par les constructeurs en France ne collectent pas l’ensemble du gisement. Environ 150.000 tonnes de VHU disparaissent des flux officiels chaque année vers les pays transfontaliers, notamment en Belgique et en Allemagne, où les déchets peuvent être payés en liquide. Une pratique totalement interdite en France. « C’est une concurrence déloyale, source de fuite de matière, car lorsqu’un déchet est payé en cash, il n’y a pas de traçabilité », regrette Philippe Chemineau.

Pour améliorer cette traçabilité, la ministre de l’environnement Ségolène Royal, travaille sur un projet de décret visant à créer un éco-organisme agréé par l’Etat. Un décret qui pourrait entrer en consultation d’ici la fin de l’année, mais qui fait peur aux constructeurs et recycleurs. Les constructeurs devraient ajouter une éco-contribution au prix de vente des véhicules. De leur côté, les recycleurs craignent qu’il affaiblisse la rentabilité d’une filière déjà mise à mal par l’effondrement du prix des matières recyclées. Philippe Chemineau propose plutôt l’interdiction du paiement en liquide dans l’Union Européenne, l’harmonisation de la réglementation et la prise en compte des taux de valorisation des VHU dans les marchés publics.

Par Matthieu Combe, journaliste scientifique

Stock-R, le chauffage nocturne d’origine solaire

Le jour, accumuler la chaleur gratuite distribuée par le soleil. La nuit, la libérer dans tout le logement afin d’économiser l’énergie. Ce principe est la clé de Stock-R, l’accumulateur de chaleur solaire conçu par Systovi, une PME de la région nantaise. Cette société, fondée en 2008 par deux anciens ingénieurs de Vaillant (un industriel spécialisé dans le chauffage), s’était déjà distinguée avec R-Volt, son panneau solaire hybride, photovoltaïque et aérothermique. «Nous avons entrepris de valoriser l’énergie solaire non transformée en électricité, soit environ 700 watts sur 1000 watts/m2 d’énergie incidente, explique Mohamed Benabdelkarim, cofondateur et directeur technique de Systovi. L’air chaud est récupéré sous le panneau, puis redistribué dans l’habitat. Mais R-Volt ne fonctionne a fortiori que la journée et les résidents, absents le plus souvent, n’en profitent pas.»

D’où l’idée de relier ces panneaux à une batterie qui puisse emmagasiner une partie de ces calories et les relâcher une fois le soleil couché, au moment le plus utile. Une première version de cette batterie, équipée d’une échangeur air/eau, est finalisée en 2012. Trop complexe, elle n’a pas le succès escompté. Une deuxième version est aussitôt mise en chantier, avec pour objectif de remplacer l’eau. Les ingénieurs de Systovi se tournent vers les matériaux à changement de phase, capables de stocker une grande quantité de chaleur latente de fusion. «Nous avons opté pour le carbonate de calcium hydraté et avons ajouté notre poudre de perlimpinpin, qui abaisse le point de fusion, s’amuse Mohamed Benabdelkarim. La chaleur latente s’élève à 220 joules/kg à 30°C. Une quantité d’eau 50 fois supérieure aurait été nécessaire pour parvenir au même résultat.»

Des plaques en aluminium étanches à vie

Le changement d’état de ce sel permet d’obtenir le déphasage recherché. «Le jour, le carbonate de calcium fond sous l’effet de l’air chauffé à 35°C, en provenance des panneaux solaires, et absorbe la chaleur, précise Mohamed Benabdelkarim. La nuit, l’air à 20°C aspiré à l’intérieur de la maison solidifie le sel, qui restitue son énergie. L’air à la sortie atteint une température de 26 à 27°C.» Aucun apport électrique ou mécanique n’est nécessaire à cette transformation. D’autre part, le sel n’est jamais au contact de l’air et ne dégrade donc pas. «Il est emprisonné dans des plaques en aluminium serties et étanches à vie, ajoute Mohamed Benabdelkarim. L’anodisation de l’aluminium empêche son oxydation. BASF et DuPont ont déjà mené des travaux sur le sujet mais se servaient de plâtre pour enfermer le sel. Faute de débit d’air suffisant, ces recherches n’ont pas porté leurs fruits.» Stock-R requiert en effet une ventilation assez puissante pour compenser la mauvaise conduction thermique de ces matériaux à changement de phase. «Pendant la charge de la batterie, l’air circule à 300 m3/h, indique Mohamed Benabdelkarim. La nuit, lors de la décharge, le débit diminue à 200 m3/h pour atténuer le bruit produit par l’insufflation d’air.»

Stock-R pèse 26 kg et bénéficie d’une capacité de 2,4 kWh, qui lui offre une autonomie d’environ 5 heures. Commercialisé depuis le 1er octobre, ce dispositif coûte environ 2000 € à l’unité, sans compter les panneaux solaires et les accessoires. L’installation se justifie davantage dans les habitations récentes, même bien isolées. «La nuit, la chaleur se déperd très vite au travers des grandes surfaces vitrées notamment, constate Mohamed Benabdelkarim. Le besoin de déphasage est plus important. Au contraire, dans les maisons les plus anciennes construites en pierre, ce sont les murs épais qui jouent ce rôle de batterie à la nuit tombée.» Selon les premiers résultats analysés par Systovi, Stock-R exploite 30% d’énergie solaire supplémentaire, si on se réfère à une installation basée uniquement sur des panneaux R-Volt.

Frédéric Monflier.

La barre des 500 GW éolien dépassée avant fin 2016 !

21,7 gigawatts (GW) d’éolien ont été installés sur les 6 premiers mois de l’année, une croissance similaire à l’an passé. Au total, 4 pays ont installé plus de 1 GW sur cette période : la Chine (10 GW), l’Inde (2,4 GW), l’Allemagne (2,4 GW) et le Brésil (1,1 GW). Désormais, l’éolien répond à près de 4,7% de la demande électrique mondiale.

La croissance devrait s’accentuer au deuxième semestre. L’Association Mondiale de l’Énergie Éolienne prévoit une hausse des capacités éoliennes d’au moins 45 GW. La barre symbolique des 500 GW devrait ainsi être atteinte avant la fin de l’année. L’éolien permettra alors de répondre à 5 % de la demande électrique mondiale.

tab-solaire
Evolution des capacités éoliennes mondiale entre fin 2013 et Juin 2016 en gigawatts (GW) ou mégawatts (MW)

Un développement poussé par l’Asie

La croissance mondiale de l’éolien est poussée par la Chine qui représente 46% des nouvelles capacités au premier semestre. Fin juin 2016, la puissance installée en Chine atteint 158 GW, soit 35% des capacités mondiales.

En ce début d’année, la croissance est particulièrement importante pour l’Inde. Sur 6 mois, le pays a installé près de deux fois plus d’éolien qu’au 1er semestre 2015 (1,3 GW) et 2014 (1,1 GW). Les capacités y atteignent désormais 27,15 GW.

Situation contrastée en Europe

L’Allemagne est le leader incontesté de l’éolien en Europe avec une puissance installée de 47,42 GW. Suivent l’Espagne (22,99 GW), le Royaume-Uni (13,94 GW), la France (10,86 GW) et l’Italie (9,10 GW).

Pour la deuxième année consécutive, l’Allemagne et la France sont particulièrement dynamiques. L’Allemagne gagne 2,4 GW, pendant que la France, deuxième pays le plus dynamique en Europe, a installé 568 MW. Le développement devrait s’intensifier en Allemagne d’ici la fin de l’année, avant l’entrée en vigueur d’un système d’enchères pour les nouveaux projets. La baisse des subventions devrait y ralentir le rythme de développement dans les prochaines années. Par ailleurs, l’Italie continue sa faible progression, pour la deuxième année consécutive, avec une hausse de 143 MW de sa puissance éolienne.

Mais la situation n’est pas rose partout. Si l’Espagne représente encore la cinquième puissance éolienne au monde, le pays n’a pas installé de nouvelles capacités depuis fin 2014. Le développement de l’éolien au Portugal est également en stand-by, puisque seulement 6 MW y ont été installés au premier semestre. Au Royaume-Uni, le rythme de développement s’est aussi considérablement ralenti, avec seulement 320 MW d’installé, contre 872 MW dans la première moitié de 2015.

Amérique du Nord contre Amérique du Sud

Sur le début de l’année, la situation est difficile en Amérique du Nord. Les Etats-Unis n’ont installé que 830 MW, contre 1,99 GW sur les 6 premiers mois de 2015. Néanmoins, le marché devrait rapidement reprendre dans le pays. Suite au prolongement du crédit d’impôt en faveur de l’énergie solaire ou éolienne par le Congrès américain à la fin de 2015, plus de 12,5 GW d’éolien sont en effet en construction.

Si le Canada demeure la septième puissance éolienne avec ses 11,3 GW, le rythme de développement s’essouffle. Le pays n’a installé que 109 MW sur 6 mois, contre 510 MW sur la même période en 2015 et 723 MW en 2014.

A l’opposé, le Brésil fait figure de moteur en Amérique latine. Sur le début de l’année, le Brésil surpasse l’Italie et devient le 9e plus gros marché mondial. L’Association Mondiale de l’Énergie Éolienne s’attend à ce que le Brésil continue son fort développement. Il pourrait devenir le sixième marché mondial avant 2018.

Par Matthieu Combe, journaliste scientifique

Jeu concours : Êtes-vous incollable sur l’actualité scientifique 2016 ?

Un tirage au sort désignera les 5 gagnants parmi les participants ayant donné les bonnes réponses.

Ces derniers gagneront le numéro spécial « Les grands événements de l’année 2016 » (format papier, A4).

Une sélection d’articles de fond pour analyser, approfondir et prendre du recul face à l’actualité de l’année 2016 marquée par les 3 grands événements suivants :

– les jeux olympiques d’été à Rio de Janeiro (l’occasion de mettre en évidence l’apport des sciences et des techniques au domaine du sport) ;

– les 30 ans de l’accident de Tchernobyl (comment sont gérés les accidents nucléaires et quelles sont les exigences de sûreté des centrales en France et dans le monde ?) ;

– enfin, le caractère exceptionnel du point de vue mathématique du nombre 2016 (une bonne année pour découvrir le monde fascinant des mathématiques !).

Retrouvez le règlement ici.

Les réponses aux 3 questions du quiz se trouvent dans les articles de notre espace Actualité, accessibles en cliquant sur les liens :
SUB 2 : courir un marathon en moins de 2h
Tchernobyl contamine toujours les Alpes
Les mathématiques pèsent pour 15% du PIB de la France

Bonne chance à tous !

L’éolien pourrait représenter 20% de la production électrique en 2030

Les professionnels de l’éolien réunis au sein du GWEC sont optimistes. Entre 2013 et 2015, le parc éolien mondial a augmenté de 36% pour atteindre les 433 GW. Et cela ne serait que le début selon les projections réalisées par l’industrie.

Quatre scenarii

Pour arriver à ces chiffres, le GWEC s’est appuyé sur quatre scenarii : les deux premiers (New Policies Scenario – et Scenario 450) proviennent de l’Agence internationale de l’énergie (AIE) et les deux autres (modéré et avancé) ont été élaborés par le GWEC sur des bases plus optimistes. Il faut dire que les prévisions de l’AIE il y a dix ans sur les énergies renouvelables avaient sous-estimées le développement de ces dernières. Fort du succès de l’accord de Paris, les équipes du GWEC ont estimé que l’apport de l’éolien devrait être encore plus grand : « Atteindre les objectifs de Paris signifie un approvisionnement en électricité complètement décarboné bien avant 2050, et l’énergie éolienne jouera un rôle majeur pour nous amener dans cette direction », assure Steve Sawyer, Secrétaire général du GWEC.

Année Capacité installée mondiale

(GW)

% de la consommation électrique
2030 1 260-2 110 12-20
2040 2 053 -3 721 16-29
2050 2 870-5 806 20-41

Concrètement, le parc éolien mondial sera compris entre 1 260 et 2 110 GW en 2030, entre 2 053 et 3 721 GW en 2040 et 2 870 et 5 806 GW en 2050. Des fourchettes qui s’élargissent logiquement avec le temps et qui donne à l’énergie éolienne, dans les scenarii du GWEC, un poids jusqu’ici inconnu. Dans le scenario avancé, le vent répondra ainsi à 20% de la demande d’électricité mondiale en 2030, 29% en 2040 et 41% en 2050.

Chute des coûts

Si ces prévisions sont à prendre avec précaution, il n’en reste pas moins que l’industrie éolienne bénéficie d’une excellente dynamique qui n’est pas seulement liée aux engagements internationaux en matière de lutte contre le changement climatique. La technologie éolienne se porte bien grâce à sa courbe de coût. Evalué en 2015 à 1 571 €/kW, le coût de l’éolien est désormais devenu compétitif comme le démontrent les nombreux appels d’offres (AO) internationaux qui ont eu lieu ces derniers mois. En Amérique Latine notamment, se pratique un nouveau type d’appel d’offres dits non-discriminatoires. En clair, le gouvernement lance une consultation pour un nombre défini de MW ou MWh sans indiquer le type de technologie (éolien, solaire, gaz, pétrole, nucléaire, géothermie, etc). Les meilleurs projets et les moins coûteux remportent les lots. A ce petit jeu, l’éolien et le solaire se sont taillés la part du lion lors des récents appel d’offres au Mexique, Chili et Argentine notamment.

Reste à l’industrie éolienne à relever le défi de la mer. Car si les coûts ont assurément baissé dans l’éolien terrestre, l’éolienne offshore n’en est qu’à ses balbutiements. Or, avec des capacités installées bien supérieures que sur terre, ces installations seront, à n’en pas douter, la clé de la réussite prédit par le GWEC.

Par Romain Chicheportiche

La fin des HFC programmée pour 2050

Ce samedi, les 197 Parties au Protocole de Montréal ont adopté l’amendement de Kigali. Ce nouvel accord historique programme la fin des hydrofluocarbures (HFC), des molécules utilisées comme réfrigérants, dans les climatiseurs et les réfrigérateurs, mais aussi dans certains aérosols et mousses isolantes. Ces produits sont utilisés depuis les années 1990 en remplacement des CFC (chlorofluorocarbures), et des hydrochlorofluorocarbures (HCFC), bannis pour provoquer la destruction de la couche d’ozone. La fin d’un problème en a néanmoins créé un autre qu’il fallait combattre. En effet, si les HFC ne détruisent pas la couche d’ozone, ils présentent un pouvoir de réchauffement 14 000 fois plus puissant que le CO2.Cela en fait de redoutables gaz à effet de serre.

7 années de négociations auront été nécessaires pour aboutir à l’amendement de Kigali. L’élimination des HFC est l’un des leviers d’atténuation du changement climatique les plus rapides. « Faute d’accord, les experts estimaient que ces substances seraient à l’origine de 20% des émissions de gaz à effet de serre en 2050, et auraient généré jusqu’à 0,5°C de réchauffement de la planète d’ici à 2100 », rappelle Ségolène Royal dans un communiqué. Car, selon une étude de l’université de Berkeley, leurs émissions progressent aujourd’hui à un rythme annuel de 10 à 15 %. C’est la plus forte progression pour des gaz à effet de serre. Leur fin progressive permettra d’atteindre ¼ des objectifs fixés par l’Accord de Paris.

L’accord devrait permettre d’éviter l’émission d’environ 72 milliards de tonnes équivalent CO2 d’ici à 2050, soit près de 10 années d’émissions de la Chine à leur rythme actuel. Le protocole de Montréal est un accord juridiquement contraitement qui engage tous les pays signataires à des mesures d’atténuation obligatoires. Des sanctions sont prévues pour les pays qui n’honorent pas leurs objectifs.

Des objectifs différenciés

Des fluides frigorigènes alternatifs sont d’ores et déjà disponibles : hydrocarbures, dioxyde de carbone, ammoniac, eau et hydrofluoroléfines (HFO). A l’instar de l’accord de Paris sur le climat, l’amendement au Protocole de Montréal prévoit des objectifs différenciés de réduction, selon les pays et leurs degrés de développement. Le calendrier de mise en œuvre distingue trois groupes de pays : d’un côté les pays développés et de l’autre, deux groupes de pays en développement.

La substitution commencera dans les pays développés, comprenant les Etats-Unis et l’Union européenne. Ce groupe s’engage à diminuer l’usage des HFC de 10 % d’ici 2019 par rapport aux niveaux de 2011-2013, pour les supprimer totalement d’ici à 2050, avec une étape à 85% en 2036.

Le groupe ambitieux de pays en développement, qui inclut la Chine, le Brésil et la plupart des pays africains, a décidé de geler leur production d’ici 2024. Une réduction de 10% par rapport aux niveaux de 2020-2022 devra être atteinte pour 2029, cette réduction devant atteindre 80% d’ici à 2045. Le groupe de pays le moins ambitieux, comprenant l’Inde, l’Arabie saoudite, le Pakistan, l’Iran et le Koweït, des pays fortement consommateurs de systèmes de climatisation, gèlera la production de HFC d’ici 2028. Ils réduiront ensuite progressivement leur consommation. Une diminution de 10% par rapport à la période 2024-2026 devant être atteinte pour 2032, puis de 85% pour 2047. L’accord prévoit une clause de révision. Son calendrier pourra être renforcé en fonction des progrès technologiques et des retours d’expériences des pays les plus ambitieux.

Fin septembre, 16 pays – dont les États-Unis, le Japon, l’Allemagne et la France – et 19 organismes et donateurs privés réunis à New York ont promis une aide de 80 millions de dollars (71,5 millions d’euros) pour aider les pays en voie de développement dans cette transition. Mais le financement est loin d’être encore à la hauteur : le total des financements nécessaires est estimé à plusieurs milliards de dollars. Le montant exact sera discuté lors de la prochaine réunion des Parties en 2017.

Par Matthieu Combe, journaliste scientifique

Contrôler des molécules magnétiques bistables auto-organisées avec de la lumière

Les molécules magnétiques bistables s’avèrent particulièrement intéressantes pour la spintronique moléculaire, car le passage d’un état à l’autre peut être piloté par un stimulus extérieur tel que la température, la pression ou l’absorption de lumière. Toutefois, si cette propriété est bien connue lorsque ces molécules forment un solide ou lorsqu’elles sont en solution, persiste-t-elle lorsque les molécules sont adsorbées sur une surface ? Pour répondre à cette question, des physiciens du laboratoire Matériaux et phénomènes quantiques (MPQ, CNRS/Univ. Paris Diderot) et du Service de physique de l’état condensé (SPEC, CEA Saclay), ainsi que des chimistes de l’Institut de chimie moléculaire et des matériaux d’Orsay (ICMMO, CNRS/Univ. Paris Sud/Univ. Paris Saclay) ont étudié des molécules bistables à base de fer, déposées sur un substrat métallique. Des mesures réalisées au microscope à effet tunnel révèlent que ces molécules s’organisent en un réseau régulier composé d’un tiers des molécules dans l’état magnétique et deux tiers dans l’état non magnétique. Les chercheurs ont également réussi à commuter ces molécules, c’est-à-dire à les faire transiter d’un état à un autre, à l’aide d’une lumière bleue. Ce travail fait l’objet d’une publication dans Nature Communications.

bellec

En premier lieu, les chimistes ont synthétisé la molécule de FeII(([3,5-CH3]2Pz)3BH)2 (Pz = pyrazolyl), qui présente une bistabilité en volume, facilement sublimable sous ultravide. Lorsque la température est supérieure à 150 Kelvin,n cette molécule se trouve dans l’état magnétique ; à température inférieure, elle se trouve dans l’état non magnétique. Dans un second temps, les physiciens ont déposé ces molécules sur une surface d’or, puis les ont observées par microscopie à effet tunnel à très basse température, de l’ordre de 5 Kelvin. Les molécules apparaissent sous forme d’une couche épaisse et s’organisent en îlots dont la taille typique s’élève à quelques centaines de nanomètres et comportant quelques dizaines de milliers de molécules. A l’intérieur de ces îlots, les molécules sont au contact les unes des autres et s’organisent en un réseau périodique. En changeant la tension d’imagerie du microscope, les chercheurs ont mis en évidence un sous-réseau régulier au sein duquel un tiers des molécules s’avèrent plus conductrices – elles se trouvent dans l’état magnétique – que les autres (non magnétiques). La combinaison de mesures par spectroscopie tunnel et de calculs ab initio confirme la coexistence des deux états magnétique et non magnétique sur la surface. En éclairant la jonction tunnel par une lumière bleue, le changement d’état des molécules a pu être suivi en direct. Ce travail démontre pour la première fois la possibilité d’induire la photocommutation de molécules en contact avec une surface métallique, de l’état non magnétique vers l’état magnétique.

Source : CNRS

L’Autorité de sûreté nucléaire met à l’arrêt 5 réacteurs

Cette action s’inscrit dans le cadre d’une vaste enquête du gendarme français du nucléaire suite à la découverte fin 2014 d’une anomalie sur le couvercle et la cuve du réacteur de Flamanville actuellement en construction. Elle concernait la composition chimique de l’acier dans la partie centrale du couvercle et du fond de la cuve du réacteur EPR fabriquée par Creusot Forge.

Concentration de carbone

Selon l’Institut de radioprotection et de sûreté nucléaire (IRSN), L’anomalie constatée est relative à la présence de carbone, en excès par rapport aux spécifications, dans l’acier constitutif des calottes hémisphériques utilisées pour fabriquer le couvercle et le fond de la cuve du réacteur EPR. C’est pourquoi l’ASN a demandé, d’une part que soient identifiés l’ensemble des composants des réacteurs d’EDF en fonctionnement qui ont été obtenus par la même technique de fabrication que celle des calottes hémisphériques de la cuve de l’EPR de Flamanville, d’autre part que soit menée une revue des pratiques et de la maîtrise de la qualité des pièces produites par Areva NP.

Fond-primaire-de-generateur-de-vapeur_fullscreen

 

La conséquence de la présence de carbone en excès dans un acier comme celui utilisé pour la fabrication des composants de la cuve ou des générateurs de vapeur (acier dit ferritique) est notamment un affaiblissement des propriétés mécaniques de résistance à la fissuration (la ténacité de l’acier). Les justifications permettant de montrer que cet affaiblissement est sans conséquence pour la sûreté ont pu être apportées rapidement pour les couvercles de cuve et des éléments avaient été fournis antérieurement pour les plaques tubulaires. Le cas des fonds primaires de générateurs de vapeur nécessite quant à lui des investigations complémentaires.

Fabrication japonaise défaillante

Les fonds primaires de générateur de vapeur, dont l’acier présente un excès de carbone (au-delà d’une concentration de 0,22 %) du fait de leur mode de forgeage, ont été produits par seulement deux fabricants : Creusot Forge (CF) et la Japan Casting and Forging Corporation (JCFC). La grande majorité des irrégularités relevées lors de la revue de la qualité des pièces produites à l’usine du Creusot a été instruite, permettant de conclure à l’absence de conséquences pour la sûreté des réacteurs concernés. Ce qui n’est pas le cas du fournisseur japonais. Les connaissances de l’exploitant sont moins détaillées pour les fonds fabriqués par JCFC que pour ceux fabriqués par CF. De par leur fabrication, les fonds de générateur de vapeur de JCFC sont décarburés en surface extérieure, ce qui interdit les mesures de concentration de carbone sur ces surfaces. Les mesures réalisées sur le méplat des générateurs de vapeur des réacteurs n°1 et 3 de Tricastin montrent des concentrations de carbone atteignant 0,39 % (les valeurs mesurées jusque-là ne dépassaient pas 0,32 % et restaient proches de celles rencontrées pour les calottes hémisphériques de la cuve de l’EPR de Flamanville). Ces valeurs remettent donc en cause les hypothèses retenues jusqu’alors.

18 réacteurs concernés

L’IRSN a dénombré 46 générateurs de vapeur répartis sur 18 réacteurs de 900 ou 1450 MWe (la France en compte 58) dont les fonds sont affectés par cette anomalie. Depuis, 6 réacteurs ont été autorisés à reprendre leur activité sous réserve que les mesures de concentration de carbone et les contrôles non destructifs ne remettent pas en cause les hypothèses de l’analyse d’EDF. 12 réacteurs, dont les fonds des générateurs de vapeur ont tous été forgés par le japonais JCFC pour le compte d’Areva, sont encore concernés. 7, sont actuellement en l’arrêt pour maintenance programmée, et ont fait ou vont être l’objet prochainement de contrôles Enfin, les 5 derniers devront être arrêtés prématurément. EDF se dit confiant dans sa capacité à apporter les preuves de la sûreté de ses installations. L’enjeu est grand pour l’électricien qui sort, comme chaque année, de la période estivale consacrée à la maintenance du parc nucléaire. La disponibilité de celui-ci doit être maximum en hiver pour couvrir les pics de consommations liés notamment au chauffage électrique. Chaque réacteur compte. Et l’arrêt ne serait-ce que de l’un d’eux complique l’équilibre du réseau sans parler des pertes financières pour l’exploitant. L’ASN indique qu’elle « examine, avec l’appui de l’IRSN, les éléments de justification transmis par EDF. Cette instruction nécessitera quelques semaines, voire davantage si le dossier transmis appelle des compléments ».

Comme la loi le prévoit, c’est l’ASN qui aura le dernier mot.

Romain Chicheportiche

BTP : les chantiers de construction passent au numérique

En 2011, Finalcad lance son application mobile pour smartphones et tablettes visant à simplifier la vie des hommes sur les chantiers. La numérisation des données collectées permet un suivi en temps réel, la prédiction d’éventuels risques et la vérification de la conformité par rapport aux plans d’origine. Ainsi, différents profils sont créés en fonction de la personne qui utilise l’application. Les différents points de contrôle sont signalés en temps réel et visibles par tous les profils autorisés. Ces technologies ont de suite trouvé preneur. En 2014, la jeune pousse fait une première levée de fonds et collecte 2,1 millions d’euros.

Deux ans plus tard, l’entreprise poursuit son essor et vient de lever près de 20 millions de dollars auprès de Serena Capital, Caphorn Invest et Aster Capital, qui lui témoignent ainsi toute leur confiance. Aujourd’hui donc, avec 10 000 projets dans 30 pays, son ambition est clairement affichée : faire entrer la construction dans l’ère du numérique.

« Se débarrasser du papier »

Dans une vidéo de présentation sur le site internet de l’éditeur, le message est sans équivoque. « Nous voulons changer la façon de construire, augmenter la qualité et réduire les coûts », peut-on lire. Pour améliorer la productivité, il faut « se débarrasser du papier ». « Les processus papier gaspillent de l’énergie et du temps », jusqu’à trois heures par jour selon Finalcad. Les chantiers restent peu numérisés. Ce sont surtout les étapes en amont qui ont vu leurs pratiques modifiées par les technologies du numérique. Les modélisations et les maquettes utilisent déjà ces technologies prédictives. Mais sur le terrain, l’utilisation reste marginale.

Améliorer la productivité

Cette numérisation des chantiers est une véritable révolution. Le milieu du BTP est réputé confidentiel. Mais les éventuelles réticences ne devraient pas résister longtemps face à l’argument de gain en productivité et en coût. En effet, si Finalcad propose la digitalisation du suivi de chantier aux professionnels du bâtiment, c’est surtout pour améliorer leur rentabilité. « Avec cet outil, nous voulons les aider à aller chercher ces points de marge si difficiles à obtenir », explique aux Echos Jimmy Louchart, président et cofondateur Finalcad.

Même si le marché du BTP a reculé ces dernières années, le potentiel reste énorme. « Depuis un demi-siècle, l’industrie de la construction a vu sa productivité baisser, là où celle des autres industries a progressé, poursuit Jimmy Louchart dans un communiqué. L’industrie de la construction représente actuellement un marché de 9500 milliards de dollars. Celui-ci devrait doubler de taille d’ici à 2030. »

S’ouvrir à d’autres secteurs

Numériser et normaliser tous les processus sur le terrain afin de pouvoir capitaliser sur les bonnes pratiques, faire vivre la maquette numérique sur le chantier et faciliter la collaboration entre les différents intervenants, voilà les objectifs visés par les applications développées par la start-up française. Parmi ses clients, elle peut se vanter d’avoir déjà des grands noms du BTP : Eiffage, Vinci Construction, Bouygues Construction, pour la France et l’Europe mais aussi Daewoo Engineering, Fujita Corporation, Shimizu Corporation ou Takenaka Corporation, à l’international.

D’ailleurs, cette levée de fonds devrait lui permettre de se développer davantage à l’international et en particulier en Asie. L’entreprise réfléchit également à étendre son activité à d’autres secteurs comme l’énergie par exemple et à développer de nouvelles applications (intelligence artificielle, analyses prédictives en temps réel et en mobilité). Elle espère également doubler ses effectifs d’ici à la fin de 2017 pour atteindre les 150 collaborateurs et porter son chiffre d’affaires à 89 M€ à l’horizon de 2020.

Par Nadia Daki

Powerships : des navires pas comme les autres

Record battu ! La compagnie turque Karpowership a mis sur le marché un nouveau powership d’une capacité jusqu’ici inégalée : 486 MW. A l’instar de ces prédécesseurs, les turbines (à gaz en l’occurrence) sont installées sur un navire grand comme trois terrains de football, le bâtiment n’a besoin que de 5 mètres de profondeur pour opérer ce qui lui donne accès à la majorité des ports. Supportant des variations de températures de -20 C° à 50 C°, le powership permet d’apporter rapidement l’électricité dans les zones côtières en ayant besoin.

Une technologie éprouvée

Le concept de powership est né aux Etats-Unis dans les années 30, mais c’est durant la Seconde Guerre mondiale qu’il a été largement utilisé. Fournis par General Electric, ces navires procuraient le courant nécessaire aux troupes américaines. Depuis leur utilisation n’a jamais cessé et s’est même déclinée en barges. Le système est identique à la différence que celles-ci ne sont pas équipées de moteurs et doivent donc être tractées.

On retrouve ces installations partout dans le monde et majoritairement en Asie et au Moyen-Orient, des régions qui ont connues des hausses importantes de leur consommation d’énergie ces dernières années auxquelles il fallait répondre. Elles seraient environ 75 en opération aujourd’hui, produites par des compagnies telles que  Power Barge Corporation, Waller Marine Inc, Hyundai, IHI Corporation, Mitsui, Karadeniz Energy, MAN ou encore Wärtsilä.

Si ces navires sont généralement équipés de turbines diesel ou gaz, la Russie a quant à elle développé un modèle nucléaire. Fabriqué par Rosatom, ils doivent permettre d’alimenter, entre autres, les sites très éloignés de Sibérie où construire des lignes haute tension sur des milliers de kilomètres est très coûteux. La flexibilité qu’apportent les powership est l’une des clés du succès de ces navires pas comme les autres. Néanmoins, il est indispensable qu’un réseau électrique à terre existe pour distribuer cette source d’électricité additionnelle.

Par Romain Chicheportiche

100% d’énergie renouvelable en France : un projet «délirant» ?

« Comment une telle imposture-peut-elle avoir lieu ? » poursuit sur son blog Philippe Hansen. Ce professeur de sciences physiques au Lycée International de Valbonne à la technopole Sophia-Antipolis est co-auteur avec d’autres membres du réseau « sauvons le climat » dont fait partie l’ingénieur le plus médiatisé de France, Jean-Marc Jancovici, d’ un papier où est proposé de mettre en service 7000 GW de réacteurs nucléaires dans le monde entre 2060 et 2100. En août 2015 la puissance électrique installée du parc électro-nucléaire mondial s’élevait à 378 GW.

Contrairement aux scénarios proposés par l’ADEME qui ne portent que sur le remplacement du mix électrique actuel très largement dominé par le nucléaire par des mix à haute teneur en électro-EnR, le scénario WWS-France de Stanford porte sur le mix énergétique global, y compris transports et chauffage.

Une énergie 100% renouvelables en France, est-ce possible ?

Grâce à l’efficacité intrinsèque de l’approche WWS intégralement basée sur les électro-EnR la demande énergétique de la France estimée par les chercheurs californiens est de 1384 TWh (158 GW x 8760 heures) à horizon 2050.

Contacté par les Techniques de l’ingénieur suite à l’article de Philippe Hansen, Mark Jacobson a souligné que pour la France « les 158 GW en 2050 d’électricité WWS constituent une réduction de 40,9% des 267 GW du scénario BAU (Business as usual) ». Le scientifique ajoute : « ceci en premier lieu grâce à un meilleur ratio énergie:travail de l’électricité comparativement à la combustion (23,1%), en second lieu par l’élimination de l’énergie dépensée dans l’extraction minière et le raffinage des combustibles fossiles et de l’uranium (9,1%) et enfin par les gains d’efficacité au niveau des usages finaux comparativement au BAU (8,7%). »  Autrement dit, à niveau de confort égal (et même supérieur compte-tenu de la préservation de l’air, de l’eau, des sols et de la biodiversité) l’approche WWS est presque deux fois plus efficiente que celle BAU.

Contrairement au solaire et à l’éolien, la filière nucléaire repose sur une ressource finie et très limitée, l’Uranium 235. Dans une perspective de durabilité le peak uranium est tout aussi problématique que le peak oil. Au niveau des coûts les filières reposant sur l’Uranium 238 seront encore moins viables que les filières nucléaires actuelles. Or le solaire et l’éolien sont dès à présent bien meilleurs marché que le nouveau nucléaire EPR qui repose sur l’Uranium 235.

L’équipe dirigée par Mark Jacobson a passé en revue les 50 états des USA et 139 pays dans le monde. Un scoop: la France fait partie du monde !  Dans le cas de l’hexagone les 1384 TWh d’électricité requis (contre environ 500 TWh aujourd’hui) sont répartis entre 57% d’éolien, 37% de solaire et 5% d’hydroélectricité.

Plus précisément 31,12% d’éolien terrestre, 25,94% d’éolien marin, 9,57% de solaire PV en toitures résidentielles, 8,40% de solaire PV au niveau des toitures des collectivités ou des commerces, 7,78% de solaire PV au sol et 11,29% de thermosolaire (CSP) avec stockage thermique. S’ajoutent 5,25% d’hydroélectricité ainsi que d’autres filières plus marginales: 0,49% d’houlomoteur, 0,02% de géothermie et 0,14% de marémoteur.

Ces données sont disponibles sur le site de l’université Stanford (cliquer sur xlsx spreadsheet) :

Image1

Les ressources renouvelables disponibles en France sont-elles compatibles avec l’ambitieux scénario WWS-France ? Dans le rapport de l’ADEME (2015) sur le 100% EnR sont estimés, sur la base d’hypothèse extrêmement conservatrices, les potentiels des différentes filières. Celui de l’éolien terrestre est évalué à 374,2 TWh et celui de l’éolien offshore à 269,5 TWh (190.4 TWh d’offshore classique et 79,1 TWh de farshore flottant, une technologie émergente). En retenant des hypothèses un peu moins rigides les 429 TWh d’éolien terrestre et les 359 TWh d’éolien offshore du scénario WWS-France sont tout à fait atteignables.  Par exemple en doublant le potentiel de l’éolien farshore.

Dans le cas d’une faible acceptabilité sociale de l’éolien (les enseignants et les journalistes ont un rôle clé à jouer sur le plan pédagogique pour expliquer les enjeux) il est tout à fait possible de muscler davantage le volet solaire en France et de passer par exemple à 50% de solaire + 40% d’éolien + 5% d’hydroélectricité + 5% de marélien (une nouvelle filière prônée par François Lempérière de l’association Hydrocoop).

Le potentiel purement théorique du solaire en France est supérieur à 70.000 TWh

L’ADEME estime à 403,1 TWh le potentiel du solaire PV en toiture. C’est largement assez pour répondre aux 239,6 TWh requis dans le scénario WWS-France (123,4 TWh au niveau résidentiel + 116,2 TWh au niveau des autres toitures).

Le potentiel du solaire au sol (62,5 TWh) retenu dans l’étude ADEME est presque 7 fois inférieur à celui du solaire PV en toiture, ce qui constitue à l’évidence une aberration. Sont ignorés le solaire flottant (Lire :  La PME Ciel et Terre construit la plus grande centrale solaire flottante du monde au Japon. Pas en France) ainsi que l’approche du solar sharing consistant à coupler production agricole et énergétique (Lire: L’île d’Ukushima accueille le plus grand projet Solar Sharing du monde).

D’un point de vue purement théorique si l’on couvrait intégralement la France métropolitaine (551.500 km2) avec une centrale solaire PV semblable à celle installée à Cestas par le groupe Neoen (puissance installée de 300MW, production de 350 GWh/an, surface totale de 2,6 km2), ce ne sont pas moins de 74.240 TWh par an qu’il serait possible de produire en métropole. La région de Bordeaux jouit d’une ressource solaire au km2 proche de la moyenne française.

La valeur retenue par l’ADEME (62,5 TWh) est donc équivalente à 0,08% de ce potentiel purement théorique. Le scénario WWS-France estime nos besoins énergétiques totaux à seulement 1384 TWh pour 2050, ce qui est équivalent à seulement 1,8% du potentiel. Plus de la moitié de la surface française est aujourd’hui utilisée (SAU, Surface Agricole Utile) pour capter l’énergie solaire nécessaire à la croissance des plantes alimentaires (photosynthèse). Serait-il vraiment aberrant que 1% de cette surface serve à produire de l’énergie parfaitement durable et qu’ainsi la France devienne énergicultrice ?

Environ 2,5% de la surface nationale suffira pour que la France devienne totalement renouvelable

« Nous avons calculé que la surface nécessaire pour le scénario WWS-France est de 0,36% (footprint) pour le solaire PV et CSP » souligne Mark Jacobson. « Pour l’éolien la surface requise (spacing) est de 1,9 à 3% mais cette surface pourra être utilisée parallèlement pour d’autres usages comme l’élevage, les cultures végétales ». L’espace est en effet libre entre les mâts des éoliennes. Le scientifique californien insiste : « ces chiffres sont valables pour la totalité des usages énergétiques et avec la demande énergétique de 2050 ».

Deux facteurs peuvent expliquer la timidité de l’ADEME et sa difficulté à être aussi ouverte que Stanford University. Tout d’abord la France est le royaume de l’atome et la pression contre les électro-EnR est considérable compte-tenu des enjeux financiers pour EDF qui a misé presque exclusivement sur la fission. Le solaire PV, dont la production est maximale en milieu de journée, agit comme un poignard perforant le business-model nucléaire d’EDF. Comme l’a souligné le réseau TEPOS l’étude de l’ADEME a failli terminer cachée dans un tiroir du ministère de l’écologie dirigé par Ségolène Royal, car ses conclusions dérangeaient.

Dans le documentaire  « Les voleurs de feu, qui a peur de l’énergie solaire ? » qui sera diffusé le lundi 24 octobre sur France 3 et qui est disponible dès à présent via le site de l’association Hespul, la journaliste et réalisatrice bretonne Brigitte Chevet explique sur la base de l’analyse de nombreuses personnalités dont celle de l’ingénieur catalan André Joffre (bureau d’études Tecsol à Perpignan) ainsi que celle de l’avocate Corine Lepage, comment EDF a tout fait pour empêcher l’émergence du solaire en France.

Un second facteur est aussi impliqué : celui de l’idéologie de la décroissance qui s’est développée au sein du milieu écologiste en réaction à la mise en place du parc électro-nucléaire hexagonal. Ce parc construit sans concertation avec la population nationale a conduit à l’émergence d’une méfiance généralisée vis-à-vis des sciences & technologies ainsi que de la « fée électricité ». Les dégâts du tout nucléaire vont bien au-delà du seul domaine de l’énergie.

La communication écologiste, en réaction à ce déni de démocratie, a alors été principalement construite dans une perspective de sobriété et d’économies d’énergie. Mais pour le psychothérapeute Bertrand Piccard, père de l’avion Solar Impulse qui est bardé de produits high-techs et qui a fait le tour du monde sans brûler une seule goutte de carburant, cette stratégie des écologistes n’est pas la bonne. Il préconise au contraire de « montrer que le développement durable peut être sexy » et qu’« il ne signifie pas retourner en arrière » ou se priver.

Le solaire contre la décroissance

Dans une tribune publiée le 13 octobre dans Les Echos Xavier Fontanet, président du groupe Essilor (58.000 employés) propose comme axe stratégique « le solaire contre la décroissance ». Pour ce  membre du conseil d’administration des groupes L’Oreal et Schneider electric « l’impact (de l’émergence du solaire PV ndlr) est plus profond, il est d’ordre philosophique : la sauvegarde de la planète ne passe plus nécessairement par des stratégies de décroissance. Derrière cette bonne nouvelle, une réalité simple qu’on avait oubliée : la plus grosse centrale nucléaire de l’univers travaille chaque seconde pour notre bonne vieille Terre c’est… le Soleil ! »

Un climat d’affrontement particulièrement stérilisant a émergé en France, avec beaucoup de haine de part et d’autre, faisant perdre beaucoup de temps. Les articles du blog Energie-Crise.fr en sont l’illustration. Les uns dénoncent un projet de « retour à la bougie », et symétriquement les autres dénoncent un programme de transformation de la France en Tchernobyl ou Fukushima.

S’opposent par exemple les promoteurs du scénario « négaWatt » contre ceux du scénario « négaTEP » porté par l’association sauvons le climat (TEP pour tonne équivalent pétrole). Pour les seconds faire reculer le nucléaire conduirait mécaniquement à faire monter les énergies fossiles : les promoteurs des électro-EnR en France sont alors traités de criminels climatiques. Cet affrontement négaWatt (sous-entendu Watt nucléaire) versus négaTEP s’inscrit dans une dynamique de néga-tivité, et même d’auto-destruction nationale, une forme de suicide français. En France le scénario « posiWatt » n’existe toujours pas et il est par conséquent difficile de positiver.

Un seul point de convergence est apparu entre anti-atomes et pro-atomes: développer la biomasse pour les applications thermiques. Les pro-atomes l’utilisent pour s’offrir un parapluie pro-renouvelable tout en protégeant le nucléaire. De leur côté les scénarios négaWatt, même s’ils évoluent peu à peu, misent beaucoup sur cette énergie renouvelable reposant sur la photosynthèse. Or c’est précisément la filière que le scientifique Mark Jacobson rejette car son bilan dans les études environnementales et multicritères n’est pas bon.

Les filières biomasse sont en effet basées sur la combustion (avec comme corrélat l’émission de particules et autres composés polluants) et diffèrent en réalité assez peu des filières fossiles: charbon pétrole et gaz naturel constituent de la biomasse fossilisée. De plus le rendement de la photosynthèse est très médiocre : son développement conduirait à un gaspillage surfacique peu souhaitable dans un contexte de démographie mondiale croissante. La filière microalgale, au rendement un peu moins médiocre, devra de son côté affronter la problématique du peak phosphorus et prouver que son équation économique peut devenir solide.

Frédéric Livet, Polytechnicien et Docteur en Physique confiait ceci en 2009, à une époque où le solaire PV était très coûteux, ce qui n’est plus le cas aujourd’hui: « J’espère que mon scepticisme à l’égard des renouvelables et en particulier à l’égard du solaire ne gênera pas un rapprochement que je pense nécessaire entre écoles de pensées (école de pensée de Stanford University versus celle du lobby atomique en France, ndlr) Ce scepticisme n’est d’ailleurs pas partagé par tous les amis de SLC. ». Ce Directeur de recherche CNRS et membre de Sauvons Le Climat ajoutait: « La position non-scientifique et religieusement critique à l’égard du progrès technique (qu’on me pardonne mes facilités polémiques!) de beaucoup de nos amis écologistes a beaucoup contribué à ce que je me décide à intervenir, en particulier par l’intermédiaire de « sauvons le climat » dans les débats sur le problème des GES. Après la canicule de 2003, il m’a paru urgent de contribuer à l’information sur les énergies décarbonées. »

Il est vrai que l’image donnée à l’écologie par une partie de celles et ceux qui se présentent comme les propriétaires du label « écologiste » est potentiellement nuisibles à l’image des EnR qu’ils prétendent promouvoir. Quand Cécile Duflot, après avoir pulvérisé le groupe écolo à l’Assemblée Nationale, parle de solaire cela peut donner l’envie à certains ingénieurs  de balancer volontairement des déchets radioactifs dans la nature ou de rouler dans un gros 4×4 carburant au charbon liquéfié. N’est-il pas grand temps d’effectuer un nettoyage paradigmatique en France et de construire le débat énergétique sur des bases saines, c’est-à-dire scientifiquement rationnelles ? Puissent les réflexions de l’équipe de Stanford University y contribuer.

Dès 1869 le professeur français Augustin Mouchot écrivait : « Si dans nos climats l’industrie peut se passer de l’emploi direct de la chaleur solaire, il arrivera nécessairement un jour où, faute de combustible, elle sera bien forcée de revenir au travail des agents naturels. Que les dépôts de houille et de pétrole lui fournissent longtemps encore leur énorme puissance calorifique, nous n’en doutons pas. Mais ces dépôts s’épuiseront sans aucun doute : le bois qui, lui, cependant, se renouvelle n’est-il pas devenu plus rare qu’autrefois ? Pourquoi n’en serait-il pas de même un jour d’une provision de combustible où l’on puise si largement sans jamais combler les vides qui s’y forment ?[…] On ne peut s’empêcher de conclure qu’il est prudent et sage de ne pas s’endormir à cet égard sur une sécurité trompeuse ».

Un siècle plus tard Nicholas Georgescu-Roegen, devenu plus tard le pape des idéologues de la décroissance, tenait ces intéressants propos : « Si l’énergie utilisable a quelque valeur pour l’humanité, c’est dans la mesure où elle est aussi accessible. L’énergie solaire et ses sous-produits nous sont accessibles pratiquement sans effort ». Comme le souligne Elon Musk, a quoi sert-il de s’embêter à construire des centrales nucléaires sur Terre alors que nous en avons une énorme dans le ciel: le Soleil ? Nicholas Georgescu-Roegen ajoutait dans son livre The entropy law and the economic process publié en 1971 :« Nous devrions nous concentrer sur l’amélioration des utilisations directes de l’énergie solaire, la seule source propre et essentiellement illimitée (…) Bien sot serait celui qui proposerait de renoncer totalement au confort industriel de l’évolution exosomatique. L’humanité ne retournera pas dans les cavernes »

Le blog energie-crise.fr de Philippe Hansen avait initialement comme adresse energie-gouv.fr. Suite à la demande d’une importante organisation française le gouvernement a exigé le retrait du .gouv compte-tenu du fait que cela pouvait induire en erreur les lecteurs.  Le délire, manifestement, n’est pas du côté des chercheurs de Stanford.

Le Portugal (pays étrangement oublié par le PDG d’EDF) répond à présent aux deux-tiers de sa demande électrique avec les énergies renouvelables, principalement de l’éolien. Ayant pourtant la même densité démographique, le pays du roi soleil serait-il incapable de faire aussi bien que celui du Fado ?

A la question posée par nos confrères de l’Usine Nouvelle, « L’Ademe a révélé un scénario d’une France 100 % renouvelable en 2050. Y croyez-vous ? », l’ingénieur des Mines Isabelle Kocher devenue CEO du géant français de l’énergie ENGIE a répondu :« Oui, j’y crois, à condition de mettre en place un écosystème qui le permette. Il ne faut pas que les renouvelables créent une volatilité insupportable sur les prix et des problèmes d’intermittence. Cela demande de développer des solutions de stockage. Si le stockage suit des courbes d’évolution technologique et de réduction des coûts aussi rapides que celle du photovoltaïque, il sera prochainement compétitif à toutes les échelles. En ajoutant des outils de gaz renouvelable, le scénario 100 % renouvelable est peut-être crédible à l’horizon 2050. »

Du délire ? « Souviens-toi quand nous avons commencé les gens nous riaient au nez et disaient que nous étions fous d’essayer, mais cela nous convenait tout à fait » chante Vienna Teng, artiste sino-américaine associée aux World Energy Innovation Forum qu’organise chaque année Elon Musk dans l’usine Tesla de Fremont en Californie. Elon Musk est déjà passé du rêve à la réalité : SpaceX lance à présent des fusées recyclables, une révolution. Il est bien parti pour la conquête de la planète Mars. Et la Tesla X, un SUV 100% électrique doté d’une autonomie de 500 km, passe de 0 à 100 km/h en 3 secondes. Le tout avec des électrons générés par SolarCity.

L’art occitan du trobar

Aliénor d’Aquitaine avait contribué à ce que les troubadours puissent exprimer leur poésie en recourant à la langue d’oc. Dans la même lignée n’est-il pas temps de laisser aux Girondins la possibilité de déployer leurs énergies citoyennes et leurs impulsions solaires ?

L’esprit de pionnier, qui est au cœur du message porté par Bertrand Piccard, et la créativité ne peuvent s’épanouir que dans un climat propice à l’innovation et acceptant l’échec. Isabelle Kocher a décidé de récompenser la « Best Failed idea ». Echouer (comme Shaï Agassi avec BetterPlace, associé au français Renault) c’est mûrir, et cela conduit à augmenter la probabilité de faire mieux la prochaine fois si l’on tire les leçons de cet échec.

Isabelle Kocher résume son projet par cette formule : « transformer une baleine (l’ancien système énergétique centralisé ndlr) en banc de poissons rapide, agile et cohérent ».Comment ? « par une révolution des esprits » répond cette dirigeante visionnaire. L’esprit de pionnier si cher à Bertrand Piccard.

« Les idées de vérité, de rationalité et de responsabilité intellectuelle sont à la base, conformément à ce que nous avons admis, des deux éthiques professionnelles, l’ancienne et la nouvelle » analysait le philosophe des sciences Karl Popper « Mais l’ancienne éthique était fondée sur l’idée du savoir personnel et certain, et par conséquent sur l’idée d’autorité ; tandis que la nouvelle éthique est fondée sur l’idée d’un savoir objectif et incertain. » Le droit d’échouer…

Un membre de Sauvons Le Climat ex-directeur de centrale nucléaire a déclaré aux Techniques de l’ingénieur: « mon maître en matière d’économie est Marcel Boiteux qui a été traîné dans la boue par Télérama ». Marcel Boiteux est l’ancien directeur d’EDF. L’ancienne éthique fabrique des « experts », des hommes considérés comme parfaits, infaillibles, qui n’ont pas le droit à l’erreur. Mais comme tous les êtres humains, ils en commettent. Ce qui, en contexte nucléaire, peut avoir des conséquences très graves. Non seulement pour eux-mêmes mais pour des millions de personnes. Cependant, sous la pression du système qui leur a délivré leur statut de super-expert, ils ne peuvent reconnaître de telles erreurs. Quand émerge une innovation qu’ils n’ont pas vu venir et qui remet en cause leurs dogmes, ils entrent dans une attitude de déni et même parfois dans un violent mépris.

« L’ancienne éthique que je décris nous interdit de faillir. Une faute est absolument inenvisageable. C’est pourquoi ces fautes ne peuvent être avouées » souligne Karl Popper, auteur notamment du livre « La société ouverte et ses ennemis ». « Je n’ai pas besoin de souligner à quel point cette ancienne éthique professionnelle est intolérante. Elle a toujours été intellectuellement malhonnête : elle a mené à la dissimulation de fautes en raison de l’autorité ».

Aucun domaine n’est épargné, ni celui de la médecine, ni celui de l’énergie. Des super-experts sont alors hyper-médiatisés par le système qui les a engendré, imposant une pensée monolithique et incapable de s’adapter au monde qui change. Sauf dans quelques cas, en nombre par ailleurs croissant. Alain Grandjean, économiste collègue de l’ingénieur Jean-Marc Jancovici, a par exemple prononcé cette phrase remarquable lors d’un débat avec une personne coincée dans ses certitudes anti-solaires: « l’histoire humaine est faite de ruptures qu’on n’a pas vu venir, non? ».

Encore mieux, Alain Grandjean est à l’origine de l’étude sur le solaire PV + stockage de la Fondation Nicolas Hulot (2015) dont il a confié la réalisation à l’ingénieur des Mines Nicolas Ott, étude qui est une synthèse du meilleur de la littérature scientifique mondiale sur le sujet et qui casse des dogmes et idées reçues malheureusement encore très présentes dans le débat énergétique en France. Nicolas Ott, avec l’appui d’une bonne dizaine de spécialistes du solaire, montre par exemple que même en prenant les hypothèses les plus conservatrices l’EROI (paramètre clé du développement vraiment durable) du solaire PV est à présent de 8:1. Et que le stockage batterie intraday ne l’impacte que très marginalement, de l’ordre de -10%.

Autre exemple, David Dornbusch, polytechnicien ex-super-expert du nucléaire (AREVA & CEA), est devenu un remarquable pédagogue des EnR et a fondé l’association Cleantuesday dont le rayonnement est à présent international.

Elon Musk, Shaï Agassi, Bertrand Piccard et Mark Jacobson, la tête dans les étoiles et les pieds bien sur Terre, sont des troubadours des temps modernes. Autrement dit, et au sens étymologique de ce mot occitan et excitant, des trouveurs.

L’innovation est le fruit des délires alimentés par des racines rationnelles.

Olivier Daniélo

Cet article a fait l’objet d’un droit de réponse à lire ICI