La convention d’affaires MICM se tiendra les 10 & 11 mai prochains à la Cité Mondiale de Bordeaux.
Organisé par le pôle Aquitaine Chimie Durable en partenariat avec la région Nouvelle Aquitaine, MICM réunira pendant 2 jours plus de 600 décideurs de la filière des matériaux et de la chimie des matériaux autour de rendez-vous d’affaires concrets, ciblés et programmés à l’avance. Lors de cette 4ème édition, les grands donneurs d’ordres et fournisseurs seront regroupés autour de 5 villages sectoriels : transport et aéronautique, sport et nautisme, emballage, énergie et environnement, bâtiment et construction.
Autour de ces thématiques, vous pourrez aussi assister aux conférences et tables rondes pour vous tenir informer des enjeux actuels et innovations au sein de ces filières.
MICM 2017 a aussi pour objectif de soutenir les jeunes entreprises innovantes. En plus de leurs rendez-vous préprogrammés, les start-up, sélectionnées par un comité d’experts, concourront pour remporter l’un des prix du Start-up challenge.
Dans la perspective de répondre à ces interrogations s’est tenu à Düsseldorf les 14, 15 et 16 mars 2017 l’International Energy Storage Conference, évènement organisé par le World Council for Renewable Energy (WCRE) rassemblant de nombreux spécialistes mondiaux de cette thématique.
Plusieurs études stratégiques, reposant sur une passionnante et très riche bibliographie, ont notamment été révélées par Dr Christian Breyer, professeur de Solar Economy au sein de la Lappeenranta University of Technology (LUT), le MIT finlandais. Ce scientifique est aussi Chairman EnR de l’Energy Watch Group, organisation dont la devise est « les politiques énergétiques ont besoin d’information objective ».
La complémentarité du solaire et de l’éolien permet de réduire massivement les besoins en stockage et en back-up
La première étude s’intitule « Exploiting resource complementarities to reduce energy storage need » (« Exploiter les complémentarités pour réduire les besoins en stockage »). Elle repose sur l’analyse des données solaires et éoliennes d’Israël, d’Arabie Saoudite, de Californie et de Finlande, et montre que focaliser uniquement sur l’éolien (ou le solaire) n’est pas pertinent car cette approche réductrice conduit à augmenter massivement les besoins en stockage et en back-up.
Complémentarité de l’éolien et du solaire en Californie
Un mix 50% solaire + 50% éolien (VRE = Variable Renewable Energy) est plus performant qu’un mix 100% éolien (0% solaire) ou 100% solaire. En effet dans l’hypothèse d’une non acceptation de pertes de production (energy loss), le taux de pénétration maximal des VRE est de 58% avec l’approche symbiotique 50/50, mais seulement de 38% dans le cas du 100% éolien, et enfin de 52% dans le cas du 100% solaire. Les résultats sont similaires dans les différents pays étudiés.
Les chercheurs de la LUT concluent : « Nous avons trouvé que la complémentarité solaro-éolienne conduit à une pénétration des VRE significativement plus élevée, ceci tout en réduisant les besoins en stockage et en balancing ».
Accepter de perdre (energyloss) 15% de la production solaro-éolienne permet de réduire massivement les besoins en stockage (storage) et en back-up ( = balancing). Avec un mix solaro-éolien 50/50 (optimal) le taux de pénétration du solaro-éolien dans le mix global monte de 58% à 81% dans le cas d’une acceptation d’un taux de pertes de 15%.
Parallèlement les besoins en stockage s’effondrent de 38% et les besoins en back-up de 34%. Accepter de perdre 15% de la production solaro-éolienne a donc des conséquences très positives sur l’ensemble de l’écosystème énergétique.
« Comprendre les équations physiques et économiques du futur système énergétique est impératif pour le construire et le gérer de manière optimale » soulignent Breyer et ses collègues. « Un dimensionnement pertinent du stockage, tant en puissance qu’en volume de stockage, requiert la capacité de saisir les dynamiques temporelles du stockage compte-tenu de leur rôle pour faire correspondre une production temporellement variable à une demande également temporellement variable » ajoutent les scientifiques.
Influence du niveau de pertes accepté sur les besoins en puissance de back-up
Quand on accepte de perdre une partie de la production solaro-éolienne, alors les besoins en puissance de back-up diminuent fortement. Dans l’exemple californien choisi par les auteurs de l’étude, avec une non-acceptation des pertes la puissance de back-up requise est de 55 GW. Elle tombe à 45 GW dans le cas d’une acceptation d’un taux de perte de 5%, et à 40 GW pour 10%.
Accepter de perdre une partie de la production solaro-éolienne conduit à une baisse appréciable des besoins en stockage et en back-up. Pour construire les batteries et les générateurs d’appoint, il faut consommer de l’énergie. Dans une perspective d’efficience il convient donc de trouver le meilleur compromis. Si, pour ne pas perdre un seul kWh de production solaro-éolien on est contraint de mettre en place d’importantes capacités de stockage et de back-up, alors le résultat final sera une perte d’énergie bien plus importante que les kWh que l’on voulait absolument sauver. Les systèmes de stockage ont d’ailleurs eux-mêmes des pertes intrinsèques et pour certaines technologies ces pertes peuvent être massives. C’est le cas du Power-to-Methane.
« Une capacité de stockage correspondant à environ une journée de demande moyenne est suffisant pour parvenir à un taux de pénétration solaro-éolien de 90%, ceci si l’on accepte un taux de perte de 20% » affirment les chercheurs. Ce taux de perte consiste en la somme de la production non consommée et des pertes liées au rendement du stockage.
90%, c’est déjà très bien, mais comment faire pour parvenir aux 100% d’énergies renouvelables ? Plutôt que d’augmenter le taux de perte et/ou la capacité de stockage dans l’espoir de parvenir au 100% solaro-éolien, les scientifiques estiment qu’il vaut mieux faire appel à d’autres sources d’énergie pour les 10% résiduels : « Dans un système 100% renouvelable le back-up peut provenir d’un mix diversifié de générateurs : hydroélectricité, biomasse, générateurs conventionnels fonctionnant avec du gaz de synthèse, et les ressources marines, si elles sont co-optimisées ».
Les chercheurs finlandais insistent : « L’optimisation grâce à ces autres sources renouvelables sera nécessaire pour parvenir au 100% renouvelable, au lieu de pousser pour parvenir à un taux de pénétration solaro-éolien de 100%, ce qui nécessiterait de grandes capacités de stockage avec un faible taux d’utilisation »
Il semble donc particulièrement important de ne pas gaspiller le biogaz dans des applications où il n’est pas indispensable, pour le réserver à cette fonction de back-up. Et ainsi réduire autant que possible les besoins en électro-méthane complémentaire dont la production est peu efficiente.
Gâcher le biométhaneen le brûlant dans des voitures au BioGNV semble peu pertinent car elles peuvent être remplacées par des voitures à batterie. Ces dernières peuvent d’ailleurs équiper aussi les bus (Exemple : Proterra) et les camions semi-remorques (Exemple : Mercedes et Tesla) qui complèteront le réseau Hyperloop de transport des marchandises sur de longues distances. L’Hyperloop est un véhicule 100% électrique à batterie.
La production d’électro-méthane (P2G), si le biogaz et les lacs de barrage ne suffisent pas, pourra de son côté être réalisée dans les régions de la planète jouissant à la fois de fortes ressources solaire et éolienne, ce qui permet d’atteindre des facteurs de charge élevés et par conséquent un coût optimisé de l’électro-méthane.
Recourir au Power-to-gas pour valoriser les surplus de production solaro-éolienne n’est pas viable
Utiliser les surplus de production solaro-éolienne pour alimenter des systèmes Power-to-gas n’est pas viable, même si l’électricité solaro-éolienne a un coût égal à zéro. Car avec un faible taux d’utilisation le retour sur investissement n’est pas assuré.
« Le coût de production de l’hydrogène par électrolyse de l’eau dépend moins du prix de l’électricité que de sa disponibilité » souligne Cédric Philibert, expert EnR au sein de l’Agence Internationale de l’Energie, dans un billet de blog d’importance hautement stratégique à l’heure des grands choix énergétiques. « Même avec des hypothèses plutôt favorables sur les coûts des électrolyseurs à 500 ou 1000 heures par an on est très loin du coût de l’hydrogène par reformage vapeur du gaz naturel même assorti de capture et stockage du CO2. Pour parvenir au même niveau il faut au moins 3000 heures et plutôt 4000 ou 5000. Il ne peut s’agir de « surplus » de renouvelables variables : il faut des équipements additionnels ou dédiés. »
Source : IEA
Une électricité 100% solaire dans une région française est théoriquement possible en recourant au Power-to-Methane. Mais alors les électrolyseurs et méthanateurs ne fonctionnent que durant 6 mois de l’année, et seulement durant la journée, ce qui fait sombrer le facteur de charge.Et il faut alors consommer d’importantes surfaces en centrales solaires compte-tenu de l’inefficience globale Power-to-Methane x Methane-to-Power. Avec à la clé une pression sur les ressources en métaux (cuivre, aluminium, fer etc.) pour construire les centrales solaires. Cette approche n’est pas du tout optimale dans une perspective écologique et économique.
Le réseau de gaz déjà en place sera utile pour le back-up
L’argumentation selon laquelle le volume de stockage avec les batteries ou les STEP (« batterie gravitaire ») est trop faible pour parvenir au 100% Renouvelable et qu’il faudrait donc obligatoirement faire appel au Power-to-gaz compte-tenu du fait que le réseau de gaz déjà en place permet d’avoir plusieurs mois d’autonomie ne tient pas la route. Il y a dans ce raisonnement une confusion entre stockage au sens strict et back-up.
Le stockage de courte durée (intra-day), pilier du système énergétique à dominante solaro-éolienne, permet d’atteindre de très hauts niveaux d’EnR variables quand on accepte de perdre une faible partie de la production. L’approche du back-up permet de combler le reste.
Les lacs de barrage (à ne pas confondre avec les STEP), le biogaz, et si ces deux premiers ne suffisent pas, l’électro-méthane (syngas) importé depuis des sites de productions entièrement dédiés, joueront le rôle de boucheurs de trous pour assurer la continuité. Le réseau de gaz jouera donc le rôle d’une bouée de sauvetage dans le système énergétique 100% renouvelable. Un rôle de back-up, pas de stockage au sens strict.
Les batteries des voitures électriques : un important potentiel
« Nous n’avons pas réalisé l’analyse pour la Finlande toute entière, mais il est hautement probable que les résultats seraient comparables à ceux d’Åland » a déclaré Breyer dans un message électronique à Techniques-ingénieur.fr.
Si les 32 millions de voitures du parc automobile français étaient électrifiées et équipés d’une batterie de 50 kWh, alors le volume de stockage obtenu serait de 1600 GWh. La demande électrique française est d’environ 1300 GWh par jour en moyenne.
Une étude récente financée par le groupe BMW et Stanford GCEP (Global Climate and Energy Project), étude intitulée « Evaluating co-benefits of battery and fuel cell vehicles in a community in California» (« Evaluer les co-bénéfices des véhicules à batterie et des voitures à hydrogène dans une communauté en Californie »), a montré qu’une Electron Economy est bien plus efficiente qu’une Hydrogen Economy, dans une perspective à la fois économique et écologique.
« En termes de coûts globaux, nous avons trouvé que les véhicules électriques à batterie sont meilleurs que les véhicules équipés de piles à combustible pour réduire les émissions » a déclaré l’auteur principal, Markus Felgenhauer.
« L’analyse montre que pour être compétitifs au niveau des coûts, les véhicules à hydrogène devraient être vendus à un prix bien inférieur à celui des véhicules à batterie. Cependant les véhicules à hydrogène seront vraisemblablement plus coûteux que les véhicules à batterie dans un futur prévisible » a ajouté ce chercheur de la Technical University of Munich. L’étude intègre en effet l’ensemble des coûts, y compris celui de l’infrastructure de charge.« Un autre supposé bénéfice de l’Hydrogène, stocker les surplus d’énergie solaire, ne s’est pas avéré concluant non plus dans notre étude. Nous avons trouvé qu’en 2035, seulement une petite portion de systèmes de stockage à base d’hydrogène seront utilisés pour chauffer ou éclairer les bâtiments. »
Une course pour préserver l’eau douce, le sang de la biosphère
Les cerveaux de l’entreprise californienne Tesla ont calculé que 100 Gigafactories de production de batterie comparables à celle qui est en construction dans le Nevada suffiront pour que le monde passe au 100% Renouvelable. Pour tous les usages.
Cette approche où la pile 2170 de Tesla (21 mm x 70 mm) est le pilier central du système énergétique a un avantage majeur comparativement à celle où c’est l’hydrogène qui prend cette place : une très grande efficience hydrique.
L’eau douce est la ressource la plus précieuse sur Terre. Un nombre croissant de régions dans le monde sont dès à présent confrontées à sa raréfaction. Les systèmes de dessalement de l’eau de mer sont énergétivores et les saumures résiduelles impactent de manière inquiétante les écosystèmes littoraux en augmentant la salinité des eaux.
L’eau douce est une ressource hautement stratégique. Le Tibet est par exemple un réservoir majeur pour la Chine. Les voitures à Hydrogène rejettent par leur pot d’échappement de l’eau sur les routes, eau qui a été consommée en amont pour l’électrolyse.
Le volet mobilité du concept d’Hydrogen Economy porte ainsi le germe d’une aggravation de la pression préoccupante sur cette ressource indispensable à l’épanouissement de l’être humain (d’où le risque de guerres de l’eau) et plus généralement à celui de l’ensemble des êtres vivants.
Car Homo sapiens n’est pas seul sur la planète Terre.
S’inspirer du fonctionnement du cerveau pour concevoir des machines de plus en plus intelligentes, telle est l’idée du biomimétisme. Le principe est déjà à l’œuvre en informatique via des algorithmes pour la réalisation de certaines tâches comme la reconnaissance d’image. C’est ce qu’utilise Facebook pour identifier des photos par exemple. Mais le procédé est très gourmand en énergie. Vincent Garcia (Unité mixte de physique CNRS/Thales) et ses collègues viennent de franchir une nouvelle étape dans ce domaine en créant directement sur une puce électronique une synapse artificielle capable d’apprentissage. Ils ont également développé un modèle physique permettant d’expliciter cette capacité d’apprentissage. Cette découverte ouvre la voie à la création d’un réseau de synapses et donc à des systèmes intelligents moins dépensiers en temps et en énergie.
Le processus d’apprentissage de notre cerveau est lié à nos synapses, qui assurent la connexion entre les neurones. Plus la synapse est stimulée, plus cette liaison se renforce, et plus l’apprentissage s’améliore. Les chercheurs se sont inspirés de ce mécanisme pour concevoir une synapse artificielle, le memristor. Celui-ci, un nano composant électronique formé d’une fine couche ferroélectrique prise en sandwich entre deux électrodes, peut ajuster sa résistance sous l’action d’impulsions électriques similaires à celles des neurones. Si la résistance est faible, la liaison synaptique est forte, si la résistance est forte, la liaison est faible. C’est cette capacité de la synapse à adapter sa résistance qui permet l’apprentissage.
Si les travaux sur ces synapses artificielles sont au centre des préoccupations de nombreux laboratoires, jusqu’à présent le fonctionnement de ces dispositifs restait largement incompris. Pour la première fois, les chercheurs ont réussi à élaborer un modèle physique permettant d’anticiper son fonctionnement. Cette compréhension du processus va permettre de créer des systèmes plus complexes, comme un ensemble de neurones artificiels interconnectés par ces memristors.
Dans le cadre du projet européen ULPEC H2020, cette découverte va ainsi être exploitée pour la reconnaissance de forme en temps réel issue d’une caméra innovante: les pixels sont inactifs sauf s’ils voient quelque chose qui change dans l’angle de vision. Le procédé du traitement de l’information sera moins coûteux en énergie et plus rapide pour déceler les objets recherchés. Les travaux présentés impliquent des chercheurs de l’Unité mixte de physique CNRS/Thales, du Laboratoire de l’intégration du matériau au système (CNRS/Université de Bordeaux/Bordeaux INP), de l’Université d’Arkansas, du Centre de nanosciences et nanotechnologies (CNRS/Université Paris-Sud), de l’Université d’Evry et de Thales.
Sans comparaison à d’autres dépenses nationales, la somme représente une charge impressionnante de 12 milliards d’euros (=Mds €) par an. Sachant que le déficit de l’état était de 73 Mds € en 2016, soit 3.3% du PIB (qui était de 2 200 Mds €), cette dépense le ferait passer à 3,9%. En 2015, son niveau était de 3,8% contre 7,5% en 2009. L’effet est donc significatif mais représente toutefois un déficit supporté par le passé.
Plus catastrophique, le bilan de Fukushima serait de 188 Mds € et 2 000 victimes, principalement des suicides et maladies dues au stress parmi les 160 000 personnes déplacées. D’après la cour des comptes, un tel accident couterait en France entre 120 et 450 milliards d’euros (Cf « Le coût de production de l’électricité nucléaire » – Actualisation 2014 – Cours des comptes – p156). Un montant similaire à l’estimation de 217 Mds € de l’Institut Montaigne, dont il convient d’examiner le calcul.
L’estimation de l’institut Montaigne se divise en trois postes :
179 Mds € de remboursements en CSPE (*) (Contribution pour le Service Public de l’Electricité);
25 Mds € d’indemnisations aux actionnaires d’EDF, pour la sortie du nucléaire ;
13 Mds € pour l’adaptation du réseau électrique aux ENR (Energies Renouvelables) venant en remplacement du nucléaire.
S’ajoute également une indemnisation de 30 Mds € en cas d’abandon de l’EPR de Flamanville.
(*) Qu’est-ce que les remboursements en CSPE ? EDF s’est engagée à acheter l’électricité renouvelable à des Tarifs fixes alors qu’elle pourrait l’obtenir pour moins cher sur le marché de l’électricité, la CSPE est une taxe que l’état utilise pour rembourser la différence à EDF.
L’Institut Montaigne a alors simulé un remplacement du nucléaire par de l’électricité renouvelable, pour calculer le montant des remboursements en CSPE que l’opération entrainerait : 179 milliards.
Cette estimation de CSPE comporte cela dit quelques biais significatifs
La sortie du nucléaire proposée par Hamon n’est pas en 18 ans
L’Institut a basé son calcul sur une sortie pour 2035 soit en 18 ans, alors que l’objectif de Benoit Hamon est en réalité de 25 ans. Le cap de 2035 était défendu par l’écologiste Yannick Jadot. Avec des fermetures moins rapides que dans le modèle de l’Institut, l’opération pourrait mieux profiter de la baisse des coûts des ENR. Une baisse que l’institut a établie à 30% en 10 ans, ce qui est peut-être une sous-estimation : le solaire au sol est passé de 82 € en décembre 2015 à 62,5 € en mars 2017, soit 24% de baisse en un peu plus d’un an. Ce biais surévalue aussi les 25 milliards d’indemnités dues à EDF, puisque l’institut explique que « Plus la sortie du nucléaire sera précipitée, plus le manque à gagner d’EDF sera important et plus les indemnisations seront importantes ».
Une proportion importante des remboursements en CSPE ne devrait pas être comptée
L’institut a comptabilisé la CSPE des contrats engageant EDF sur les parcs ENR déjà existants. Or ces contrats s’appliqueront et donneront lieu à des remboursements en CSPE que l’on choisisse de sortir du nucléaire ou non. Il faut donc distinguer la CSPE déjà existante de celle liée à ce choix.
L’exercice est difficile sans disposer du modèle de l’Institut. Néanmoins, ce dernier a précisé qu’il avait tenu compte de la fin des premiers contrats ENR à partir de 2026. Comme le niveau de CSPE de 5 Mds € en 2017 est forcément lié aux contrats déjà existants, on peut donc évaluer la CSPE déjà existante à au moins 5 Mds €/an de 2018 à 2025 dans le modèle de l’institut, soit 40 Mds €.
Le coût du choix de rester dans le nucléaire
Le journaliste du journal Le Monde, Pierre le Hir, a rappelé dans un article que le choix de rester dans le nucléaire a aussi un coût. La prolongation d’exploitation des centrales est évaluée à 100 Mds € d’ici 2030 par la cour des comptes. Au bout de 60 ans, remplacer ces réacteurs par des E.P.R serait aussi onéreux, une facture que le journaliste évalue à 150 Mds €.
L’institut Montaigne n’a pas manqué de répondre à juste titre que leur calcul ne porte pas sur la même période : horizon 2035 tandis que le remplacement par des E.P.R s’effectuerait plus tard. Il a aussi avancé que son évaluation concerne un surcout par MWh d’électricité, payé par le contribuable, tandis que la prolongation d’exploitation des centrales est un investissement, payé par EDF.
Mais cet investissement sera aussi financé par le contribuable puisque l’Etat devra probablement apporter à EDF le capital. Considérant qu’il porte de plus sur la même période que la proposition d’Hamon, il n’est pas si absurde de considérer qu’une sortie du nucléaire permettrait d’économiser cette dépense de 100 Mds €.
On peut estimer que les biais ont induit une surévaluation d’au moins 140 Mds € du coût de la sortie du nucléaire. Il convient à présent d’examiner les hypothèses prises par l’Institut pour déterminer comment la facture pourrait être diminuée.
Les hypothèses concernant le calcul des remboursements en CSPE à EDF
La CSPE sert à rembourser la différence entre le Tarif d’Achat des ENR et le prix qu’EDF aurait pu obtenir en achetant cette électricité sur les marchés. Cependant, si le prix de marché est supérieur aux Tarifs d’Achat des ENR, EDF réalise une économie. L’Etat n’a alors rien à rembourser. Cette situation s’est produite en 2008, donnant une CSPE négative pour la part des ENR.
Le montant de 179 Mds € a été calculé à partir de trois hypothèses :
Un prix de marché qui augmente faiblement ;
Un remplacement en totalité de l’électricité nucléaire par du renouvelable ;
Une consommation nationale d’électricité qui stagne par rapport au niveau actuel ;
Ces hypothèses peuvent être remises en cause :
Il n’est pas indispensable de remplacer tous les réacteurs nucléaires ; d’octobre 2016 à janvier 2017, 20 réacteurs étaient à l’arrêt sans qu’aucune coupure n’ait été observée. Le phénomène fut très problématique, mais il permet de penser que quelques réacteurs en moins et non remplacés est supportable ;
La consommation d’électricité est censée augmenter ; la transition énergétique consiste à remplacer les énergies fossiles par de l’électricité (par exemple, voitures électriques et pompes à chaleur électriques pour le chauffage).
Entre une offre d’électricité qui baisse et une demande qui augmente, le prix de l’électricité peut augmenter rapidement, voire dépasser les tarifs d’achat de l’électricité renouvelables. Les remboursements en CSPE à EDF en seraient alors significativement diminués. Si la sortie du nucléaire se fait en le remplaçant en grande partie mais pas en totalité par des ENR, le prix de marché peut augmenter suffisamment pour faire fondre les charges de CSPE comme neige au Solaire.
L’indemnisation de 25 milliards aux actionnaires d’EDF
Ces indemnités diminuent si la sortie du nucléaire est moins précipitée. S’engager à ne pas prolonger l’exploitation de toutes les centrales et acter qu’aucune nouvelle ne sera construite après l’EPR diminuerait donc significativement ces indemnités. L’état pourrait alors négocier la facture en acceptant des prolongations de 2 à 5 ans pour quelques centrales.
L’impact d’un prix de marché plus élevé
Laisser le prix de l’électricité monter sur les marchés a de potentiels impacts négatif ; exportations d’électricité moins volumineuses, perte de compétitivité pour les entreprises et de pouvoir d’achat pour les ménages.
Néanmoins, les Tarifs Règlementés de Vente dont bénéficient encore les ménages sont fixés par les ministres, qui peuvent choisir de ne pas les augmenter. Le contexte désormais concurrentiel de la vente d’électricité peut aussi pousser les fournisseurs d’électricité à renoncer à une partie de leur marge plutôt que de répercuter en totalité la hausse de l’électricité sur leurs prix de vente.
Les entreprises comme les ménages peuvent aussi limiter le problème en installant eux-mêmes les ENR en remplacement du nucléaire. Un contexte de prix hauts de l’électricité et de promotion accélérée des ENR est une incitation claire à produire et consommer son électricité soit même. Le soutien du solaire en toiture et la poursuite des appels d’offre en Autoconsommation peuvent donc permettre de limiter l’effet néfaste d’une hausse des prix.
Les travaux de l’Institut Montaigne montrent qu’en jouant prudemment sur une hausse des prix de l’électricité et sur ces autres aspects, un équilibre est à déterminer pour limiter le surcoût d’une sortie progressive du nucléaire.
En conclusion, l’institut Montaigne a pris en compte les remboursements en CSPE qui devront de tout manière être assurés, sortie du nucléaire ou non. Il a aussi effectué ses calculs sur une période de 18 ans alors que le candidat en propose 25. Ces aspects conduisent à une surestimation qui pourrait représenter au moins 40 milliards d’euros, sans oublier que le programme de prolongation des centrales est estimé à 100 milliards d’euros d’ici 2030.
Le travail de l’Institut Montaigne illustre néanmoins l’intérêt pour l’Etat de renoncer à fermer des centrales de manière anticipée pour négocier le montant des indemnités versées à EDF, en acceptant des prolongations réduites sur certaines centrales. Cela permettrait aussi de diminuer les charges de CSPE en profitant mieux de la réduction des coûts des ENR. Une baisse qui pourrait être plus rapide que ce qu’anticipe l’Institut.
Il serait aussi intéressant de ne pas remplacer en totalité la production d’électricité nucléaire ; les remboursements en CSPE seraient nettement moins élevés avec moins de parcs ENR et un prix de marché de l’électricité plus haut. Un prix plus élevé aurait certes des impacts négatifs, mais un équilibre entre ces différents effets rétroactifs est surement à trouver pour réduire la dépense. Enfin, un montant hypothétique de 217 Mds € n’est en réalité pas impossible à assurer pour un pays comme la France, et doit être comparé au coût d’un possible accident nucléaire, qui serait probablement supérieur.
Par Gabriel Brézet
Gabriel Brézet est ingénieur de formation. Il a suivi un double cursus avec un mastère spécialisé en économie de l’énergie. Il travaille aujoud’hui dans le secteur des énergies renouvelables.
Les systèmes d’assistance au stationnement – caméras, alertes de proximité… – font le bonheur des automobilistes allergiques au créneau et autres manœuvres parfois délicates. Ils se perfectionnent et s’automatisent, au point que le conducteur n’a même plus besoin d’être dans l’habitacle et peut superviser l’opération à l’aide de son smartphone. C’est le principe du système développé conjointement par Clarion et Hitachi Automative Systems (filiale d’Hitachi, qui détient aussi Clarion).
Cependant, il n’est pas question de piloter le véhicule de la même manière qu’une voiture radio-commandée. Par exemple, Jaguar/Land Rover a déjà présenté un concept de 4×4 dont les commandes sont répliquées sur le smartphone. Le conducteur dispose d’une vue d’ensemble extérieure, ce qui peut faciliter le franchissement d’obstacle à très basse vitesse. «Dans notre cas, le véhicule reste autonome, précise Sébastien Meyer, directeur marketing et nouveaux produits Europe chez Clarion. Le conducteur n’a pas accès à la direction, au freinage et à l’accélération, mais il a la possibilité d’interrompre la manœuvre. Le véhicule s’arrête aussi de lui-même si un piéton est détecté.» Le système d’aide au stationnement de la série 7 de BMW est moins automatisé.
Avec l’application mobile mise au point par Clarion, le conducteur ne conduit pas, donc, et ne voit que le retour-vidéo transmis par les caméras. Celles-ci sont au nombre de quatre et sont positionnées sur les deux pare-chocs, avant et arrière, et sous les rétroviseurs gauche et droit. Cette même configuration équipe déjà des séries Infiniti chez Nissan et produit une vue à 360° autour du véhicule, éliminant les angles morts. Cherchant à innover, Clarion et Hitachi Automative Systems ont donc ajouté le contrôle via application mobile. «La connexion utilise du WiFi point à point, explique Sébastien Meyer. La bande passante requise est de l’ordre de quelques centaines de kilooctets par seconde. » Mais quel est l’intérêt de sortir du véhicule avant de se garer ? «Au cas où la place disponible est très étroite, répond Sébastien Meyer. C’est aussi utile pour sortir le véhicule s’il est difficile de se faufiler à l’intérieur.» Les personnes à mobilité réduite et leur voiture adaptée pourraient également en tirer profit.
Commercialisation prévue en 2020
L’intérêt pour Clarion est aussi de faire la démonstration de ses progrès en matière d’analyse d’image, dans l’espoir de convaincre les constructeurs automobiles. «Nous concevons des systèmes d’aide à la conduite depuis une dizaine d’années, confie Sébastien Meyer, et nous avons beaucoup travaillé sur la détection d’objets, d’individus, de lignes blanches… Notre solution est capable de déterminer si la place est libre et si l’espace est suffisant. Mieux encore, elle le fait avant le passage du véhicule et pas après. Tous les types de places sont pris en compte – épi, créneau, perpendiculaire… – du moment que la place est délimitée par une ligne blanche, un mur, etc. C’est plus difficile en Europe, car de nombreuses spécificités locales existent. Nous prévoyons aussi d’identifier les places de stationnement pour les handicapés.» Ce projet pourrait aboutir à une commercialisation vers 2020. Dans la version définitive, les caméras seront couplées à des émetteurs d’ultra-sons.
Sur la base de ce stationnement assisté, les applications sont nombreuses, dont le « valet parking » automatisé . «L’idée serait de descendre du véhicule, que celui-ci se gare seul, et de partir faire ses courses, imagine Sébastien Meyer. Quand on revient, il suffirait d’appeler sa voiture avec son smartphone.» Mais, avant même d’en arriver jusque là, qui paiera les dégâts en cas d’incident ? «Nous système est classé au niveau 2 dans le référentiel SAE (Society of Automotive Engineers), qui définit 5 niveaux mesurant le degré d’autonomie d’un véhicule.» Et jusqu’au niveau 3, le conducteur est considéré comme responsable…
Pour Håkan Samuelsson, le PDG du groupe suédois Volvo, la stratégie est limpide: «Bien sûr nous ne devrions jamais dire jamais, mais il est important pour nous d’être clairs. L’herbe est toujours plus verte de l’autre côté et il y a toujours quelque chose de nouveau, mais l’électrification avec les batteries est ce en quoi nous croyons» a déclaré ce dirigeant dans le cadre d’une interview pour le média WardAuto le 20 mars 2017. «Avec l’hydrogène vous auriez besoin, une nouvelle fois, d’une nouvelle infrastructure, donc je pense qu’il y a une limite aux efforts d’investissement que les gens peuvent consacrer. Nous pensons que nous devons nous focaliser sur une seule technologie énergétique principale, et nous pensons que c’est l’électrification car elle est plus flexible.» Avec modestie ce dirigeant conclue: «Bien sûr, nous pouvons nous tromper».
Un projet de gigafactory de batteries mené par des anciens dirigeants de Tesla et nommé NorthVolt est en cours en Suède, ceci avec le soutien de l’ADEME suèdoise et de l’énergéticien suédois Vattenfall. L’énergéticien Fortum, basé en Finlande, met de son côté en place une autoroute de superchargeurs hyper-rapides nouvelle génération entre Oslo, Stockholm et Helsinki.
Le PDG de Tesla, le multi-entrepreneur à succès Elon Musk, dit exactement la même chose que le PDG de Volvo, mais dans une communication plus directe et vraiment percutante. Pour lui, sur la base d’une analyse très rationnelle de l’efficience énergétique, vouloir commercialiser la voiture à hydrogène est «mind-bogglingly stupid» (d’une stupidité époustoufflante), «incredibly Dumb» (incroyablement débile), et pour celles et ceux qui n’auraient pas encore compris et pour résumer en un seul mot, «bullshit» (foutaise). Elon Musk n’est pas un ignorant dans le domaine de l’Hydrogène: il est aussi le PDG de SpaceX.
Pour Daimler, dont Mercedes-Benz est une filiale, la communication est en revanche plus complexe, car le groupe a beaucoup investi dans la R&D sur la pile à combustible ces dernières années. Dans un article publié sur le site spécialisé Smart2Zero le journaliste Christoph Hammerschmidt fait écho de propos tenus le 27 mars 2017 par le PDG de Daimler:
«Lors d’un congrès automobile à Stuttgart le PDG de Daimler Dieter Zetsche a dit que la pile à combustible ne joue plus un rôle central pour l’entreprise. Bien que Daimler soit toujours en possession d’une technologie de pile à combustible haut de gamme, l’avantage de cette technologie sur l’approche reposant sur les batteries se réduit a déclaré Zetsche. Au départ, les véhicules équipés de pile à combustible offraient une bien meilleure autonomie (range) et un meilleur temps de recharge comparativement aux batteries. Cependant les technologies ultra-modernes de batterie ont conduit à la fonte de cet avantage, en particulier si le coût est pris en compte. «Le coût des batteries s’effondre rapidement tandis que que la production d’hydrogène demeure très coûteuse» a déclaré Zetsche».
L’Hydro gène ? Revue de presse
Cet article de Smart2.0 a eu un important écho dans les médias internationaux qui ont tous bien compris le message essentiel: Daimler met à présent le focus sur les batteries. Ce choix technologique de Daimler est hautement stratégique et très révélateur sur la révolution en cours dans l’ensemble de l’industrie automobile.
Pour CleanTechnica, premier média mondial dans le domaine des CleanTechs (repris par Gas2), «Mercedes laisse tomber les piles idiotes»(Fool cell, jeu de mot popularisé par Elon Musk avec Fuel cell, pile à combustible). «Peu de temps après avoir rejoint Toyota et BMW dans une campagne à 10 milliards de dollars pour développer la technologie des piles à combustible (le «Conseil de l’hydrogène» NDLR), Mercedes a renversé la vapeur (…) Il est difficile de dire ce qui a bien pu se passer pour qu’il (le PDG de Daimler NDLR) change son avis en seulement 6 semaines (…) Manifestement Dieter Zetsche est à présent d’accord avec le redoutable Mr. Musk. Mercedes a annoncé cette semaine investir 10 milliards de dollars pour produire 10 nouveaux modèles de voitures électriques à horizon 2022». Soit 3 ans d’avance avec ce qui avait été annoncé peu de temps avant.
Pour Fortune «Daimler fait marche arrière sur son programme de voitures équipées de pile à combustible» et pour CNET «Daimler se découple consciencieusement de l’Hydrogène. Il ne s’agit peut-être pas d’une rupture totale, mais l’hydrogène n’occupe plus une place centrale». Selon HydrogenFuelNews «l’intérêt de Daimler’s envers la pile à hydrogène est en déclin» et selon TopAuto «Daimler tourne la page de l’Hydrogène et bascule vers les voitures électriques». Ce que confirment Autoblog, The Manufacturer, HybridCars, TheLibertyEagle, InAutoNews, Motor1,GoCar, CarAdvice, GreenCarReport et Movilidad Eléctrica.
Pour The Drive «Daimler pourrait réduire la voilure de ses plans sur la voiture équipée de pile à combustible (…) La décision de Daimler de réduire l’échelle de son plan sur la voiture à hydrogène fait suite à l’annonce de Toyota relative au lancement d’un projet de construction d’une voiture électrique à batterie parrallèlement à la Mirai, voiture à hydrogène. Toyota était l’un des moteurs de la promotion des piles à combustible, et auparavant considèrait que les batteries étaient inexploitables». C’est effectivement ce virage majeur de Toyota qui semble avoir conduit Daimler à revoir sa stratégie. Pour le média allemand Die Presse ces turbulences pourraient conduire à la remise en cause de l’alliance formée en 2013 entre Daimler, Renault et Ford sur la pile à combustible.
Selon le média d’ingénierie norvégien de référence Teknisk Ukeblad «Daimler a mis au rebut la quasi-totalité de son programme hydrogène». La Norvège est la championne du monde de la voiture électrique à batterie. Le magazine d’ingénierie danois Ingeniøren a publié un article au titre identique. En France le site spécialisé Automobile Propre a titré «Hydrogène: Daimler lève le pied» et AutoJournal (repris par AutoMotorBuzz), «Daimler dit au revoir à la pile à combustible. (…) Daimler aurait quasiment arrêté le développement de ses voitures à pile à combustible hydrogène. Seuls certains projets seraient conservés comme le Mercedes GLC F-Cell Plug-In, qui est d’ailleurs attendu dès cette année. Cependant, le groupe allemand ne proposera qu’une production limitée et réservée à des flottes d’entreprises.»
Non, ce n’est pas une « fake news »: Daimler met bel et bien le focus sur les batteries
Sur HydrogenToday, site de promotion de la filière Hydrogène, un journaliste engagéaffiche son scepticisme: «Mercedes qui renonce à l’hydrogène : fake news ? (…) C’est d’autant plus surprenant qu’il n’a en fait jamais dit ça (…) L’auteur de l’article, qui est le rédacteur en chef, Christoph Hammerschmidt, a pu mal interpréter les propos de M. Zetsche (…) A l’heure des réseaux sociaux et des sites qui propagent des informations erronées, il faut faire attention. C’est à ce genre de détail que l’on mesure l’intérêt de privilégier les sites animés par des journalistes professionnels, plutôt que des sites alternatifs». Smart2.0 est un média d’European Business Press qui diffuse 44 publications dans 24 pays, dont Les Echos, L’Expansion et Capital en France, ainsi qu’Euractiv et The Wall Street Journal Europe.
Contacté par Techniques-ingénieur.fr le service communication de Daimler estime que le titre de l’article Smart2.0 est exagéré et peut éventuellement induire en erreur (« misleading ») les personnes peu attentives qui se limitent à lire ce titre. Mais Daimler estime que le contenu de l’article est en revanche correct: si le groupe n’abandonne pas son programme de R&D sur la voiture à hydrogène, le PDG a en revanche bel et bien tenu les propos rapportés, il a bien dit cela.
Christoph Hammerschmidt a titré: «Daimler dit adieu à la technologie Hydrogène», tout en précisant dans son chapeau introductif: «Après une longue phase de course en zig-zag le constructeur automobile Daimler a décidé de ne pas continuer le développement des voitures équipées de piles à combustible, au moins pas avec une haute priorité (…) Le bon chemin est à présent le développement des voitures électriques à batterie». Si le titre est effectivement incomplet, un brin provocateur et à fort potentiel de buzz (cela a bien fonctionné), le chapeau introductif est en revanche très clair, tout comme le reste de l’article.
En réponse à une demande de Techniques-ingénieur.fr, Madeleine Herdlitschka, responsable de la communication globale de Mercedes-Benzrelative à la R&D et à la mobilité durable, rappelle le contexte dans un mail qu’elle a envoyé au nom du groupe Daimler: «Lors du dernier congrès auto motor und sport (27.03.2017) Dr. Zetsche a fait quelques déclarations concernant le status quo de nos activités sur la pile à hydrogène, ceci suite à une demande provenant de l’audience. Malheureusement il n’existe pas d’enregistrement ou de choses similaires, mais je résume l’essentiel des propos qui ont été tenus (j’étais sur place)».
Cette professionnelle de la communication est dans son rôle en corrigeant les titres de presse exagérés et en expliquant que Daimler, qui fait partie du Conseil de l’Hydrogène créé fin janvier 2017, n’a pas abandonné son programme de R&D sur l’Hydrogène: «Le plus important d’abord: il n’y a pas de changement dans nos plans sur la technologie des piles à combustible. Cette technologie fait intégralement partie de notre stratégie à long terme sur les chaînes de propulsion. La présentation de notre véhicule de nouvelle génération, la Mercedes Benz GLC F-CELL, est planifiée pour cette année». Christoph Hammerschmidt fait précisément écho de ce nouveau modèle dans son article, modèle qui sera produit en petites quantités.
Madeleine Herdlitschka ajoute les bémols inévitables: «Compte-tenu en particulier du faible nombre de stations de charge à hydrogène, mais aussi en raison des coûts encore relativement élevés, l’introduction dans le marché sera sélective.» Autrement dit les ventes, à petite échelle, ne concerneront que des îlots, comme par exemple le Japon, certaines parties de la Californie et de l’Allemagne, ou encore Londres. Autrement dit Christoph Hammerschmidt a raison de souligner que Daimler renonce à un développement commercial massif de la voiture à hydrogène.
La représentante de Mercedes poursuit: «Il n’y a aucun doute concernant le potentiel de la technologie de la pile à combustible et de l’hydrogène comme une solution de stockage énergétique à l’échelle du système énergétique dans son ensemble. Avec une part croissante des énergies renouvelables, l’Hydrogène jouera certainement un rôle à importance grandissante pour l’ensemble du système énergétique et par conséquent deviendra de plus en plus attractif pour le secteur de la mobilité». Ce joli enrobage, en recourant à des promesses pour le long-terme, est un grand classique chez ceux qui cherchent à verdir l’image de l’Hydrogène.
En réalité une analyse rigoureuse (comme celle-ci de la part d’un expert de l’Agence Internationale de l’Energie) permet de montrer que le Power-to-Gas à partir de surplus de production solaire et éolienne n’a aucune chance de devenir compétitif. L’Hydrogène demeurera donc d’origine fossile (reformage du méthane) et ne s’inscrira donc pas dans une perspective de développement durable compte-tenu de la nature non infinie des ressources fossiles.
Madeleine Herdlitschka termine son message électronique par une information de haute importance stratégique: «Cependant la batterie est actuellement meilleure que la pile à combustible en ce qui concerne un lancement commercial complet, pas seulement à cause de l’équation des coûts et de la construction de l’infrastructure. Mais aussi en termes de densité énergétique, la technologie batterie a réalisé de grands bonds en avant et a ainsi réduit l’avantage de la pile à combustible sur le plan de l’autonomie. Dans les années à venir notre focus sera sur les voitures électriques à batterie et l’expansion de notre plateforme EQ. En dépit de ce focus actuel nous continuons nos activités dans le domaine de la technologie des piles à combustible.» Le contenu de l’article de Christoph Hammerschmidt est donc parfaitement exact.
Voilà des propos pour le moins en contraste avec ceux de Pierre-Etienne Franc, directeur marchés et technologies avancés du groupe Air Liquide, qui a déclaré en septembre 2016 (Minute 9’25 » de cette vidéo): « Il y a des débats sur les technologies. Il y en a qui disent on pourra donner des Tesla a tout le monde et puis cela sera merveilleux. Je ne suis pas sûr que tout le monde sera capable de se payer des Tesla. Et puis faire des voitures à des prix compétitifs avec des batteries, il va y avoir un certain nombre d’endroits où cela va être plus difficile. Donc il faut porter le sujet en débat ». Le groupe Daimler affirme au contraire que les voitures à batterie sont davantage compétitives que les voitures à hydrogène, d’où le focus sur les premières.
Le PDG de BMW, Harald Krueger, a une analyse similaire: «Jusqu’en 2025, les coûts resteront trop élevés et l’infrastructure hydrogène trop rare pour permettre une large pénétration du marché ». BMW investira « lorsque les fondamentaux seront en place». BMW, tout comme Daimler, fait partie du«Conseil de l’Hydrogène» lancé en janvier 2017 à Davos.
Le groupe Volkswagen, embourbé dans le scandale de la fraude sur les voitures diesel, vient de son côté de lancer un grand programme de voitures 100% électriques baptisé «I.D.» Le géant allemand veut commercialiser 30 modèles 100% électriques d’ici 2025 et va mettre en place un réseau de charge similaire à celui de Tesla.
Focus sur le focus…
Le rédacteur en chef de Smart2.0 a choisi de mettre le focus… précisément sur le focus stratégique que Daimler a choisi de mettre sur la voiture électrique à batterie. Ce qui relève du bon sens. Focaliser sur une technologie marginale, très inefficiente et coûteuse serait comme mettre la charrue avant les boeufs.
Ce bousculement des plans initiaux de Daimler est très significatif: il illustre la panique des constructeurs traditionnels face à la puissance de la vague Tesla qui se prépare. Inquiétude bien entendu non avouable. Tencent, géant chinois de l’internet, a rejoint le capital de Tesla. Etape majeure de l’histoire automobile Tesla a dépassé il y a quelques jours Ford dans sa valorisation boursière et tutoie à présent celle du premier constructeur américain General Motors.
Tesla vaut à présent davantage que la somme ENGIE + EDF + AREVA.Cette valorisation est la marque de la confiance que portent les investisseurs envers la stratégie de Tesla qui est celle du 100% batterie. Ceux qui ont le regard tourné vers le passé et non pas vers le futur ont du mal à comprendre le phénomène.
C’est en réalité un véritable tsunami qui se prépare. Dans le segment haut de gamme Tesla, avec ses Modèles S et X, a devancé Mercedes et BMW au niveau des ventes en Amérique du nord. Avec l’arrivée de la Tesla Model 3, au prix deux fois moins élevé, ces groupes allemands ont beaucoup à perdre. La nouvelle stratégie à 10 milliards d’euros de Daimler de proposer une gamme de 10 voitures diversifiées (100% électriques à batterie) permettra d’affronter Tesla qui ne proposera que 4 modèles: S, 3, X et Y. Se disperser dans des méandres hydrogénés aussi douteux que coûteux pourraît à l’inverse être fatal. Daimler vient d’annoncer une alliance avec Bosh dans le domaine de la voiture autonome, manifestement là aussi dans la perpective de faire face au rouleau compresseur Tesla.
Dans une interview récente pour le média HybridCars le PDG de Daimler a déclaré que «Tesla a certainement donné une image positive à la voiture électrique en faisant comprendre que l’électro-mobilité ne consiste pas en un renoncement à la puissance et qu’elle n’a pas une « image granola », mais le contraire: c’est à la fois de la puissance et de l’enthousiasme. Et c’est la bonne voie à prendre».
Stratégie Hydrogène: une motivation véritablement écologique ?
Selon le Financial Times, si Toyota mise autant sur la pile à combustible, ce n’est pas vraiment pour contribuer à libèrer le monde de sa dépendance envers les combustibles fossiles. Les stratèges du Ministère de l’écononomie japonais (METI), en accord avec Elon Musk, estiment que l’Hydrogène produit par électrolyse à partir de surplus d’électricité solaire ou éolienne n’est pas du tout viable et qu’il proviendra en réalité dans son énorme majorité d’hydrocarbures fossiles. Au Japon, l’hydrogène sera produit à partir de charbon australien. Le METI envisage de produire de l’hydrogène à partir de «vastes dépôts de charbon de basse qualité en Australie, avec séquestration du CO2 dans le sous-sol» révèle le Financial Times. «Ils envisagent des navires-tankers chargés d’hydrogène et navigant depuis l’Australie, apportant le combustible tout comme maintenant, mais laissant le CO2 derrière».
Le journaliste Daniel Cooper (Engadget) a une analyse similaire:«L’industrie du pétrole et automobile veut utiliser l’hydrogène contre la voiture électrique à batterie (…) La raison pour laquelle ces entreprises s’unissent autour de l’hydrogène ce n’est pas de sauver la planète».
Selon le Financial Times «Toyota ne le dit pas trop fort mais la grande difficulté de construire des piles à combustibles explique en partie l’attirance du Japon concernant cette technologie. Le business de la voiture électrique ressemble à celui des téléphones portables: simple, modulaire, facile à assembler et vulnérable aux nouveaux entrants provenant de Chine et de la Silicon Valley.» Si l’industrie automobile suit le chemin de l’hydrogène, le Japon sera bien positionné. Mais dans le cas contraire Tokyo aura commis «une erreur majeure» estime un expert du METI.
Selon un rapport récent du cabinet Lux Research «l’Hydrogen economy évolue d’une façon isolée, spécifiquement japonaise, et manque de soutien de la part d’autres acteurs, ce qui met en question la viabilité du concept».Lux Research estime qu’il s’agit du « syndrome de Galapagos ».
Il semble que les groupes automobiles allemands ont compris ces dernières semaines que le Japon prend un bien trop grand risque: le bouclier hydrogéné est bien fragile dans la bataille face aux batteries qui sont de plus en plus redoutables. Au Japon un point de charge à hydrogène coûte 4,5 millions de dollars. Soit un ordre de grandeur de plus qu’un superchargeur Tesla. Travailler à 700 bars (une pression énorme) est un véritable défi.
Le magazine américain AutoWeek a publié un édito dont le titre s’inscrit dans un style à la Elon Musk: «It’s time to bash hydrogen» (Il est temps de faire de l’Hydrogène-bashing), estimant que la voiture à hydrogène, du fait de son ineficience, est «kafkaïenne». «L’hydrogène c’est du grand n’importe quoi. Encore davantage que des foutaises (bunk), en fait» tonne sans ambages l’éditorialiste. Le média Transport Evolved a réalisé une vidéo véhiculant exactement le même message: vous voulez être écolo ? Mettez des panneaux solaires sur votre toit pour charger la batterie de votre véhicule électrique.
Dans un article intitulé «l’Hydrogène refuse de mourrir» (puis «L’hydrogène n’est pas encore mort») la MIT Technology Review estime que «L’hydrogène a été un flop dans le marché grand public, mais il est encore porteur d’un petit espoir dans les domaines industriel et militaire (…) Les tentatives pour convaincre le public ont échoué. Si certains constructeurs continuent de faire pression, d’autres, de manière croissante, se dirigent vers d’autres pensées». Pour Rembrandt Koppelaar, expert énergie de l’Imperial College London contacté par Techniques-ingénieur.fr et qui a été dans le passé l’animateur de The Oil Drum, si l’hydrogène offre effectivement très peu d’intérêt pour les véhicules légers, «le marché des camions, des bus et des avions reste potentiellement intéressant, pour les longues distances». Mais les bus à hydrogène seront-ils vraiment compétitifs face aux bus électriques comme par exemple ceux du californien Proterra dont l’autonomie peut dépasser les 500 kilomètres ?
Même sur ce marché là, la bataille s’annonce rude pour les inconditionnels afficionados du gaz. L’étrange hype franco-nippon sur l’hydrogène, auquel l’ADEME (Agence de l’Environnement et de la Maîtrise de l’Energie) et le CEA (Commissariat à l’énergie atomique et aux énergies alternatives) contribuent, est en décalage avec les fondamentaux du monde physique et économique et prend de plus en plus la sonorité d’un chant du cygne face à la puissance des industries chinoises et californiennes.
Le concept de prolongateur d’autonomie embarqué devient obsolète
Le concept de prolongateur d’autonomie embarqué (moteur diesel ou pile à combustible, en plus d’une batterie de taille modeste) conduit à des coûts élevés. Il faut équiper chaque voiture avec ce «range extender». Le concept de prolongateur d’autonomie stationnaire (superchargeur permettant de capturer 300 kilomètres en 20 minutes), compte-tenu de sa nature mutualisée, partagée, est une option bien plus pertinente dans une perspective à la fois écologique et économique. Dans une logique d’économie des ressources il vaut mieux placer les générateurs diesels ou les piles à combustible au pied des superchargeurs, en version stationnaire.
Les trajets automobiles quotidiens font dans leur grande majorité moins de 300 kilomètres et il est possible de recharger à la maison ou sur le lieu de travail la batterie de la voiture: pas besoin de perdre son temps pour aller faire le plein. L’argument d’un plein d’hydrogène entre 3 et 5 minutes n’a donc aucun intérêt pour ce type d’usage très largement majoritaire. A fortiori s’il faut consommer 15 minutes pour aller à la station hydrogène et de nouveau 15 minutes pour la quitter.
Pour les (rares) trajets annuels supérieurs à 300 kilomètres la sécurité routière conseille fortement de faire une pause de 20 minutes toutes les deux heures. Le temps de prendre un café ou une tasse de thé…Mais pas avec l’eau sortant des pots d’échappement des voitures à hydrogène. Une autonomie de 300 kilomètres suffira par conséquent pour réaliser la totalité des trajets en voiture 100% électrique à batterie. Game over.
Selon la banque Morgan Stanley le marché de la batterie stationnaire (parrallèle à celui de la batterie embarquée) va croître bien davantage que ne le pensent de nombreux acteurs, favorisant la baisse des coûts. «Quelle est la nouvelle menace pour l’industrie pétrolière ?» interroge le New York Times. Réponse: «la croissance globale des voitures électriques». En février 2017 The Guardian a fait écho d’une étude de l’Imperial College London dont la conclusion est que «les voitures électriques et le solaire bon marché pourraient stopper la croissance des combustibles fossiles dès 2020».
« Les stratégies qui ont été soumises sont de qualité très inégale », juge le WWF. La France arrive en haut du podium, grâce à une note de 78%. Devant le Royaume Uni (71%), la Finlande (68%), la Lituanie (58%) et les Pays-Bas (54%). Chypre se place en dernière position, avec une note de 25%. « La France arrive en tête du classement des pays de l’UE et de leurs stratégies bas carbone grâce à sa loi sur la transition énergétique et les dispositifs associés, estime Pascal Canfin directeur général du WWF France . Cela renforce l’idée que le prochain gouvernement doit appliquer cette loi et non la remettre en cause ».
Pour juger la stratégie bas carbone des pays d’ici 2050, le WWF a pris en compte l’objectif de réduction des émissions de gaz à effet de serre, le caractère réaliste, le niveau d’ambition des objectifs climat et énergie, la transparence des procédures, l’engagement politique, le suivi des progrès réalisés et le périmètre. Sur ces points, la France se démarque de ses voisins européens grâce à une stratégie claire, précise, intégrée, suivie, transparente et avec un large périmètre. L’ONG note toutefois deux points d’amélioration. D’une part, augmenter les objectifs climat et énergie, notamment l’objectif de réduction des émissions de 75% d’ici 2050. D’autre part, améliorer la transparence des procédures.
Notons que l’Allemagne est classée neuvième, à 38%, malgré la mise en place de sa transition énergétique (Energiewende). Le WWF ne prend en compte que les stratégies bas-carbone remises avant fin 2015. Entre temps, l’Allemagne, tout comme d’autres pays, a présenté une stratégie plus ambitieuse. L’organisation mettra à jour ce classement sur la base de ces nouvelles contributions qui devraient au moins être alignées sur les objectifs de l’Accord de Paris.
Le décret relatif à la PPE de la Guyane a été publié au Journal officiel le 1er avril, alors que la collectivité connaît le plus grand mouvement social de son histoire. Et côté énergie, beaucoup reste à faire. La Guyane importe environ 80% des ressources énergétiques qu’elle consomme. Et les transports représentent 56% de l’énergie finale qui y est consommée. La loi relative à la transition énergétique pour la croissance verte fixe des objectifs propres aux territoires d’outre-mer : 50% d’énergies renouvelables dans la consommation finale d’énergie en 2020 et autonomie énergétique pour 2030.
Pour atteindre ces objectifs, la PPE fixe les orientations stratégiques sur deux périodes (2017-2018 et 2019-2023). Pour la première période, la PPE se consacre avant tout à l’évolution du système électrique. L’enjeu est important : environ 48% des logements ne sont pas électrifiés dans les communes de l’intérieur !
Quelle organisation du réseau électrique ?
Le réseau électrique guyanais est constitué d’un réseau de transport organisé le long du littoral, depuis Saint-Laurent-du-Maroni, jusqu’à Cayenne. Il est complété de systèmes indépendants les uns des autres pour les communes de l’intérieur et les écarts. Ces systèmes isolés sont constitués d’une ou plusieurs unités de production dont la puissance maximale n’excède pas 2 mégawatts (MW). Le réseau du littoral n’est pas connecté aux réseaux des pays voisins.
Plusieurs actions expérimentales sont prévues par la PPE pour électrifier le territoire. Il s’agira notamment d’évaluer l’intérêt de l’autoconsommation ou du stockage. Des appels d’offres seront lancés pour encourager le développement de solutions locales d’électrification à partir d’énergies renouvelables à Maripasoula, Grand Santi, Régina et Papaïchton. Des études technico-économiques sont aussi prévues sur de possibles interconnexions, l’extension du réseau électrique littoral à l’est, le doublement de la ligne électrique vers Saint Laurent du Maroni…
La part des énergies renouvelables dans la production d’électricité atteignait déjà 64% en 2014. L’essentiel de cette production renouvelable provient du barrage de Petit-Saut (113 MW). Le reste de l’électricité est essentiellement produit par des centrales thermiques diesel. L’objectif est de dépasser les 85% d’électricité d’origine renouvelable d’ici 2023.
Schéma du système électrique guyanais à décembre 2014. Réseau et modes de production. source: EDF, repris dans la PPE.
Quelle évolution du mix électrique d’ici 2023 ?
Sur une zone non interconnectée, coupler les énergies renouvelables intermittentes à des moyens de production de pointe et des moyens de stockage est capital. Et un mix renouvelable diversifié est essentiel. En 2014, le mix électrique du réseau littoral avait une puissance nominale 301 MW. Sa production était de 863 gigawattheures (GWh), avec 57% d’hydraulique, 6% de solaire, 1% de biomasse et 36% de thermique. Pour les communes de l’intérieur non raccordées au réseau, la production était de 17 GWh.
La diversification du mix électrique passera par l’installation d’énergies renouvelables sur le réseau électrique du littoral. 40 MW de biomasse locale, 16,5 MW de petite hydraulique, 20 MW d’éolien avec stockage et 8 MW de déchets. Côté photovoltaïque, il y aura 25 MW avec stockage et 26 MW sans stockage, comprenant l’autoconsommation. Dans l’Ouest de la région française, 20 MW supplémentaires de puissance garantie seront installés, «privilégiant les moyens de production à partir de sources renouvelable», sans plus de détails. Ajoutés aux 20 MW déjà installés à Saint-Laurent-du-Maroni, cela portera la capacité de production électrique à l’Ouest à 40 MW.
La plus grosse centrale thermique au diesel et les deux turbines à combustion de Dégrad-des-Cannes devrait être remplacée d’ici fin 2023 par une nouvelle centrale thermique de 120 MW (dont 40 MW réservés à la production de pointe). Elle pourra fonctionner aussi bien au fioul léger qu’au gaz naturel. Elle sera associée à une centrale photovoltaïque de 10 MW sans stockage et complétée de 20 MW de moyens de production à partir de sources renouvelables à puissance garantie. Une étude doit être menée pour évaluer l’intérêt d’un plan d’approvisionnement en gaz du territoire d’ici 2023.
L’efficacité énergétique dévoile aussi tout son intérêt dans cette situation. Les objectifs sont de réduire la consommation d’énergie de 151 GWh en 2023. Pour cela, des efforts sont notamment à faire sur l’eau chaude solaire. Des objectifs dans le résidentiel, le secteur tertiaire et industriel éviteront 36 GWh de production électrique.
Le secteur des transports sera plus développé lors de la révision de la PPE prévue en 2018. Sur la mobilité, la PPE prévoit pour le moment simplement la mise en place d’un projet de transport en commun en site propre. Et l’installation de 5 bornes de recharge pour les véhicules électriques en 2018. Un objectif qui sera accompagné d’un schéma régional des infrastructures de recharge pour les véhicules électriques cette même année.
Les réseaux sociaux, et en particulier Twitter, ont acquis une place centrale comme moyen de communication pour les partis politiques et leurs communautés ces dernières années. Certaines personnalités politiques ont plusieurs centaines de milliers de « followers », ces internautes qui les suivent. Twitter est devenue non seulement une plateforme de diffusion d’information à grande échelle mais elle a transformé la manière de faire campagne. Plus directe et interactive, elle permet de réagir aux prises de positions des acteurs politiques, de les relayer, de les commenter, d’interpeller et de citer les personnalités politiques.
Comment traiter ces données et les transformer en connaissances utilisables ? Depuis août 2016, les chercheurs de l’Institut des systèmes complexes du CNRS et du Centre d’analyse et de mathématiques sociales (CNRS/EHESS) ont récolté près de 35 millions de tweets publiés par 3689 personnalités politiques (députés, maires, candidats), 25 millions de tweets de plus de 3000 comptes officiels de médias et journalistes et ont identifié 1,5 million de comptes d’utilisateurs uniques et anonymisés.
Ce « macroscope social » a pour objectif de contextualiser les flux d’informations, de l’évolution temporelle de l’utilisation d’un terme, par exemple lié à des évènements récents, jusqu’à sa popularité dans les différentes communautés sur Twitter. L’évolution de ces communautés révèle notamment certaines stratégies politiques, les différents ralliements ou les campagnes de dénigrement ainsi que l’émergence d’une information, fausse ou non, et sa propagation. Cette étude permet de répondre aux questions : qui interagit avec qui, avec quoi, et pourquoi ?
L’outil en ligne donne à voir l’organisation du paysage politique français autour des candidats à la présidentielle. Une vue thématique permet d’explorer de manière comparée les prises de position et débats sur différents thèmes (éducation, immigration, Europe, sécurité…) et d’observer les réactions des médias et de la twittosphère vis-à-vis de ces thèmes. L’analyse du corpus médiatique permettra de mesurer l’attention suscitée dans les médias par les différents candidats ainsi que les thématiques qui leur sont associées.
L’installation de cette plateforme à la Cité des sciences et de l’industrie, à Paris (dans le cadre de l’exposition « Terra Data »), proposera aux visiteurs une approche différente du déroulement de la campagne et de la diversité des thèmes discutés sur le réseau social. La plateforme sera accessible et actualisée en temps réel sur un site dédié, à partir du 4 avril : politoscope.iscpif.fr
Vous êtes concerné par les questions de santé et sécurité au travail ? Vous souhaitez simplifier l’évaluation du Risque chimique ? rendre le Document Unique plus accessible ?
faciliter la traçabilité des expositions à la pénibilité ? RiskEV, logiciel d’évaluation et de gestion des risques sera votre allié au quotidien !
A l’occasion de la Journée Mondiale de la sécurité et de la santé au travail le 28 avril 2017, Techniques de l’Ingénieur organise un grand concours pour gagner une licence d’utilisation RiskEV d’un an. Participez au tirage au sort !
Tentez votre chance pour gagner une licence d’utilisation RiskEV d’un an (valeur de 2090 € HT)
Comment participer ? Rien de plus simple ! Remplissez le formulaireici avant le 27 avril 2017
Dans le cadre de la Journée Mondiale de la sécurité et de la santé au travail le 28 avril prochain, Techniques de l’Ingénieur organise une série de conférences en ligne liées aux enjeux HSE.
Réservez la date dans vos agendas !
Au programme de la journée, 4 webinars animés par des experts sur les sujets qui vous concernent :
« La campagne de mesure réalisée par l’Anses ne montre aucun dépassement des seuils d’audibilité dans les domaines des infrasons et basses fréquences sonores (< 50 Hz) », affirme l’agence. Autrement dit, dans les habitations situées à 500 mètres minimum des éoliennes, conformément à la réglementation, les riverains ne peuvent pas entendre d’infrasons. Le bruit qui peut entraîner une gêne est audible, à des fréquences supérieures à 50 Hz.
Ce bruit est-il dangereux pour la santé des riverains? L’Anses a relevé des situations de réel mal-être chez certains riverains de parcs éoliens qui les attribuent aux infrasons. Mais ce lien n’est pas évident. Cet effet sur la santé ne peut pas être isolé du bruit audible, des lumières clignotantes, des vibrations, de l’effet visuel ou du champ électromagnétique.
Quels effets constatés chez les riverains ?
Les données expérimentales et épidémiologiques portant sur les effets potentiels sur la santé des éoliennes sont très faibles. L’agence relève seulement « la gêne liée au bruit audible et un effet nocebo ». Cet effet, opposé à l’effet placebo, engendre des effets et ressentis négatifs ches les riverains « pensant être exposés à des infrasons inaudibles alors qu’ils ne le sont pas forcément ». Cela peut expliquer l’existence de symptômes liés au stress chez ces communautés.
En revanche, des découvertes récentes chez l’animal montrent aussi l’existence d’effets biologiques induits par l’exposition à des niveaux élevés d’infrasons. Ces effets n’ont pour l’heure pas été décrits chez l’homme, encore moins pour des expositions à de faibles niveaux.
Mieux informer et mieux contrôler
Pour l’agence, les résultats de cette expertise ne justifient ni de modifier les valeurs limites d’exposition au bruit existantes, ni d’étendre les fréquences sonores actuellement considérées dans la réglementation aux infrasons et basses fréquences sonores.
L’avis recommande néanmoins de renforcer l’information des riverains lors de l’implantation de parcs éoliens. Et de systématiser les contrôles des émissions sonores des éoliennes avant et après leur mise en service. Ou encore de mesurer en continu du bruit autour des parcs éoliens, comme c’est déjà le cas pour les aéroports. L’agence recommande aussi de poursuivre les recherches, notamment en étudiant la faisabilité d’une étude épidémiologique. Celle-ci viserait à observer l’état de santé des riverains de parcs éoliens et à identifier une signature objective d’un effet physiologique.
L’Agence rappelle par ailleurs que la réglementation actuelle prévoit que la distance d’une éolienne à la première habitation soit évaluée au cas par cas, en tenant compte des spécificités des parcs. Le minimum de 500 mètres peut être étendu suite à l’étude d’impact, afin de respecter les valeurs limites d’exposition au bruit.
Pour arriver à ces résultats, l’Agence a compilé les données issues de la littérature scientique et a fait réaliser des campagnes de mesure sur trois parcs éoliens (la Motelle, Val de Noye et Énergie du Porcien). Entre 541 et 1.000 mesures de 10 minutes ont été exploitées pour chacun de ces parcs. Elles couvrent l’ensemble des classes de vent et 4 points de mesure simultanés : à proximité de l’éolienne, à la distance minimale d’éloignement réglementaire (500 m), ainsi qu’en façade et à l’intéreur d’une habitation située la plus proche de la source.
Le bureau de contrôle des chaudières nucléaires (BCCN) – ancien nom de la direction des équipements sous pression nucléaires de l’ASN – a réalisé 8 inspections dans l’usine Creusot Forge en 2005. Le 16 décembre 2005, l’ASN écrivait à EDF pour lui signaler de « nombreux écarts concernant le forgeron ».
Des problèmes qui « mettent en cause la qualité des travaux et de la surveillance de ses sous-traitants ». En somme, le fournisseur d’EDF ne respecte pas les règles de qualité.
Le 30 janvier 2006, lors d’une réunion entre l’ASN et EDF, il est assuré que l’électricien a renforcé sa surveillance des opérations réalisées dans l’usine. Le lendemain, le directeur de l’ASN rend visite au forgeron. Il en ressort qu’en 2005, l’usine a connu « un nombre significatif de rebuts de grosses pièces ». L’ASN met en évidence « certaines déviances » et trouve étrange que le fabricant ou son commanditaire ne les aient pas remarquées. Elle signale que ces derniers doivent assurer une « surveillance adaptée à la qualité attendue des fabrications ».
Anomalies en chaîne chez Creusot Forge
Face à l’absence de réaction d’EDF, les inspecteurs du BCCN et de la DRIRE Bourgogne se rendent chez Creusot Forge les 26 et 27 avril 2006. Ils réalisent 16 constats. Le 11 août 2006, EDF souligne dans une lettre que « des actions préventives et correctives ont été mises en place » et qu’il « ne partage pas l’appréciation de l’ASN sur l’absence de réaction de sa part ». Le 22 septembre, l’ASN répond pour sa part que les plans d’actions de surveillance mis en place par EDF ne suffisent pas à dire que « la surveillance d’EDF sur l’ensemble des constructeurs et de leurs sous-traitants est satisfaisante ». L’agence souligne également que « les réponses de Creusot Forge ne sont pas satisfaisantes ».
Il faudra attendre le 24 mai 2007 pour qu’EDF assure que l’ensemble des actions menées apportent une amélioration de la situation de Creusot Forge. EDF transmet le compte-rendu d’un nouvel audit à l’ASN le 21 décembre 2007. Il n’identifie pas de problèmes qualité. En parallèle, le 8 septembre 2006, Areva écrit à l’ASN pour lui indiquer que l’entreprise acquiert le groupe Sfarsteel. Areva souligne notamment que son plan de progrès a pour objectif « d’améliorer la qualité des productions et de développer la culture de qualité au sein de Creusot Forge ».
C’est durant cette période difficile, entre septembre 2006 et décembre 2007, que la cuve de l’EPR de Flamanville est forgée dans l’usine. L’ASN avait bien mis en garde EDF contre les risques de défauts. Mais aucune analyse n’est pratiquée entre 2007 et 2014 pour vérifier la qualité de la cuve.
Des anomalies aux falsifications
Entre 2008 et 2012, la situation semble s’améliorer. L’ASN ne partage aucun document pour cette période. En mars 2012, plusieurs pièces sont mises au rebut pour des problèmes de défauts dus à l’hydrogène. En juin, l’agence montre qu’Areva ne peut garantir l’homogénéité des fours utilisés pour le traitement thermique chez Creusot Forge.
En janvier 2014, la cuve est installée dans le bâtiment réacteur de l’EPR de Flamanville. 7 ans après sa fabrication et après installation, Areva vérifie enfin la qualité de la pièce. Et les résultats sont mauvais. En octobre, Areva notifie à l’ASN l’anomalie de composition de l’acier dans certaines zones du couvercle et du fond de la cuve du réacteur de l’EPR de Flamanville. Il y a aussi des zones d’hétérogénéité dans les dômes elliptiques des générateurs de vapeur. En avril 2015, Areva détecte encore des anomalies dans la conduite d’essais de traction à chaud entre 2009 et 2014. La qualité ne s’était donc pas améliorée dans l’usine.
La réponse de l’ASN à Areva est claire: « ces différents écarts, qui font suite à d’autres constatés depuis plusieurs années, mettent à nouveau en évidence un défaut de maîtrise de la qualité des fabrications nucléaires réalisées chez Creusot Forge ». L’ASN rend alors public les anomalies concernant la cuve de l’EPR. Fin juin 2015, Bureau Veritas est mandaté par l’ASN pour une surveillance renforcée de Creusot Forge. L’historique finit en avril 2016, lorsqu’ Areva informe l’ASN que des pratiques irrégulières ont été identifiées. Les anomalies qualité sont dues à des falsifications dans le suivi de fabrication. L’ASN doit désormais valider ou non la qualité de la cuve. Son verdict est attendu pour septembre 2017.
Les scientifiques aiment bien les séries TV avec des espions. Dans Mission impossible, la série culte des années 60, les scénaristes avaient imaginé de nombreux gadgets dont certains avaient la faculté de s’autodétruire. Elle n’appartient plus à la fiction.
Une équipe de scientifiques de la King Abdullah University of Science and Technology (Arabie Saoudite) a mis au point un dispositif repose sur une feuille en polymère dont la taille peut être multipliée par sept lorsqu’elle est chauffée au-delà de 80 °C. Ce matériau est composé de microsphères qui renferment un hydrocarbure passant d’un état liquide à gazeux sous l’effet de la chaleur.
Cette solution pourrait être intégrée à de nombreux modèles, car elle ne coûte que 15 euros environ si elle est produite en grands volumes. Ce dispositif pourrait être activable à distance ou se lancer automatiquement en cas de pression exercée sur l’appareil (tentative d’ouvrir le boîtier) ou d’éloignement d’une zone restreinte et géolocalisée par GPS. Il pourrait intéresser toutes les entreprises, organisations et administrions échangeant des données confidentielles depuis ces appareils mobiles.
Un bouton tueur…
Ces velléités de destruction d’appareils ne sont finalement pas nouvelles. En 2014, la Corée du Sud avait exigé que les opérateurs et les constructeurs nationaux de smartphones intègrent un bouton tueur, baptisé aussi « kill switch ». Là aussi, l’objectif était d’empêcher le vol de données critiques, mais aussi de réduire le vol de téléphones qui avait quintuplé entre 2009 et 2012. Samsung l’avait intégré à son Galaxy S5.
Aux États-Unis, deux procureurs avaient demandé à la même époque que les grands noms du secteur trouvent aussi une parade technologique aux vols de smartphones. La même année, BlackBerry et Boeing avaient conclu un partenariat pour le développement d’une fonction d’autodestruction destinée à un smartphone ultra-sécurisé sous Android et destiné au gouvernement. De son côté, IBM avait signé un accord avec l’armée américaine pour concevoir une fonction d’autodestruction sur commande pour les appareils électroniques.
Le 27 mars, peu après 7h du matin, une trentaine d’activistes de l’ONG environnementale Greenpeace ont déversé près de 3.000 litres de mélasse devant le siège de Total, à la Défense. Simulant une marée noire grâce à ce sous produit du raffinage du sucre, ils dénoncent les risques pesant sur l’écosystème de l’embouchure de l’Amazone dans l’Océan Atlantique.
En janvier 2017, Greenpeace révélait les premières images du récif de l’Amazone. « C’est un biome unique que nous avons pu documenter, fait de différentes espèces de coraux, d’éponges et de rodolithes, où vit une quantité incommensurable de poissons et autres espèces marines, dont certaines seraient inconnues jusqu’alors », fait savoir l’association. S’étalant sur plus de 9.500 km2, seulement 5% du récif serait connu.
Des pétroliers entrent dans la danse
Les industriels ont acquis 5 blocs pétroliers, à proximité du récif de l’Amazone, en face des côtes de l’Etat d’Amapá. S’il voit le jour, le puits le plus proche se situerait à seulement 28 km du récif. Pour Total, cette distance est suffisante et l’enquête publique a montré l’absence d’impact de ses futures opérations. Le pétrolier français attend les dernières autorisations nécessaires auprès des autorités brésiliennes pour lancer le premier puits d’exploration cette année. Au contraire, Greenpeace souligne que ces forages ultra-profonds, à 2.500 mètres, rejetteront des boues et des gravats qui pollueront la zone du récif.
Sans compter les impacts que feraient subir une marée noire. Une telle catastrophe menacerait le plus grand écosystème de mangroves continu au monde situé dans le Parc national du Cabo Orange, au nord de l’Etat d’Amapá. « Aucune technologie ne permettrait de nettoyer une marée noire dans cette région », souligne l’association environnementale. Sa pétition a déjà recueilli plus de 860.000 signatures.
Les organisateurs du salon Laval Virtual, dont la 19eme édition vient de s’achever, attendaient plus de 17 000 visiteurs. Ils ont eu le nez creux, car 17700 personnes, soit 2200 de plus que l’an dernier, se sont rendues en Mayenne pour découvrir les dernières innovations en matière de réalité virtuelle et augmentée (RV/RA). «Surtout, la fréquentation des professionnels est en hausse notable, observe Laurent Chrétien, directeur de l’association Laval Virtual. Nous remplissons donc notre contrat auprès des exposants, qui veulent rencontrer un public de professionnels qualifiés. La proportion de visiteurs européens s’est accrue elle-aussi, ce qui est dû à l’émergence un peu partout en Europe de «clusters» consacrés à la RV/RA.»
Laval Virtual, qui promeut depuis presque 20 ans la réalité virtuelle et augmentée, profite par ricochet de la notoriété grandissante de ces technologies. Car celles-ci, baisse de prix aidant, s’extraient du cadre industriel et parfois confidentiel dans lequel elles s’exprimaient jusqu’alors. Le salon reflète de plus en plus cette diversification. «La RV/RA se répand partout dans le monde professionnel, explique Laurent Chrétien. Les applications se destinent à l’immobilier, à la santé, à la formation dans les entreprises, etc. C’est notre métier d’accompagner ces tendances.» Les utilisations les plus professionnelles et sérieuses côtoient les démonstrations les plus ludiques et spectaculaires. Un visiteur, équipé d’un casque de RA/RV, peut tout à la fois soigner son mal de mer, inspecter une installation dans une usine ou embarquer pour un tour de montagnes russes. Telle est la «réalité» de la RV/RA, qui s’adresse aujourd’hui à tous les publics.
Une première extension internationale en Chine
D’un point de vue technologique, peu de grosses innovations matérielles étaient présentées, ceci même si le casque de réalité augmentée HoloLens, conçu par Microsoft, était une attraction. «En effet, l’innovation est davantage logicielle, confirme Laurent Chrétien. Il s’agit de répondre à des besoins et aussi de créer de nouveaux usages. Ce sera d’ailleurs l’une des vocations du Laval Center, inauguré en octobre prochain, qui servira à accélérer les projets RA/RV et à assurer une veille technologique et sectorielle.» Le concept du salon, quant à lui, va s’exporter. «Laval Virtual Asia ouvrira ses portes en novembre 2017 à Qingdao, en Chine, précise Laurent Chrétien. C’est un première extension internationale, sur un marché prometteur où les investissements dans les technologies RV/RA sont très importants.» La délégation chinoise, mise en valeur sur le salon, n’a pourtant rien montré de transcendant. C’est une piste d’amélioration pour l’an prochain. En 2018 toujours, les organisateurs continueront sur leur lancée et inviteront une autre catégorie d’exposants. «Nous ferons la part belle aux artistes qui créent des œuvres expérimentales» prévoit Laurent Chrétien. Pour que tous les visages de la réalité virtuelle soient en représentation…
Ce nouveau partenariat vise à promouvoir une pratique de l’IA responsable et sans danger. Il soutient une recherche ouverte, recommande les bonnes pratiques et publie des travaux en licence libre sur des sujets tels que l’éthique, la transparence, la vie privée, l’interopérabilité et la collaboration entre hommes et systèmes d’intelligence artificielle. Les signataires « chercheront à garantir que les technologies d’IA bénéficient au plus grand nombre »,lit-on sur son site Internet. Ils s’engagent à proscrire l’intelligence artificielle qui serait « contraire aux conventions internationales sur les droits de l’homme ».
Doté d’un budget de 27 millions de dollars, le conseil d’administration rassemble 6 représentants issus des 6 fondateurs mais aussi 6 administrateurs indépendants. Il s’agit d’universitaires, d’organismes non gouvernementaux ou spécialistes de l’éthique et des affaires publiques : OpenAI, Association pour l’Avancement de l’Intelligence Artificielle & ASU, Université de Californie à Berkeley, Union américaine des libertés civiles, Fondation MacArthur et Institut d’économie internationale de Peterson. Les fondateurs indiquent que ce partenariat n’a pas vocation à faire du lobbying auprès d’organismes gouvernementaux ou autres organes de décision.
Des Instituts de recherche et thinks tanks sur l’intelligence artificielle
Avis de l’expert Jean-Gabriel Ganascia, chercheur en intelligence artificielle à l’université Pierre-et-Marie-Curie
Il y a un paradoxe dans l’attitude des géants du web. D’un côté, ils emploient énormément de chercheurs dans leurs propres laboratoires pour développer l’intelligence artificielle pour des raisons qui sont liées à leurs travaux. Le web 2.0 exploite les données pour affiner les offres de produits, cibler les différents clients potentiels et détecter les insatisfactions pour y remédier. En même temps, ces entreprises nous préviennent que cela est dangereux. Ces grands acteurs annoncent qu’ils vont aider à surmonter les difficultés grâce à des comités d’éthique. C’est paradoxal et terrifiant puisque c’est eux-mêmes qui sont responsables de ces grandes évolutions.
La Singularité a du succès. Il y a des Instituts, des projets de recherche qui sont financés par ces grands acteurs. Par exemple, Raymond Kurzweil est employé par Google comme directeur scientifique depuis décembre 2012.
J’émets différentes hypothèses pour expliquer ce qui les conduit à annoncer ce risque d’apocalypse, de fin de l’humanité. Elles financent la Singularité pour expliquer qu’elles ne sont pas responsables, que la technologie avance d’elle-même. Ces acteurs nous annoncent quelque chose de négatif, car c’est une fable qui plait beaucoup. Je pense qu’ils ont une ambition politique qu’ils souhaitent masquer derrière cette histoire en détournant notre attention. Selon moi, leur projet politique est de se substituer aux États en assumant ce qui relève de leurs prérogatives régaliennes. On peut les énumérer : la sécurité intérieure, la finance, la santé, l’école, la défense… En secret, les grands groupes veulent non seulement se défendre contre les attaques, mais aussi disposer d’armes offensives pour prendre des mesures de réprimandes contre certains acteurs, ce qui effraye les États.
Aristotle est la nouvelle intelligence artificielle qui surveille vos enfants. Cette tour dotée d’une caméra et d’un micro s’allume de mille feux, diffuse de la musique, répond aux enfants et propose des jeux ou des questions pour les calmer. Évidemment, elle peut aussi raconter des histoires. Fini le babyphone grésillant, voici le babyphone vidéo! Aristotle retransmet sur le smartphone des parents ce qui se passe dans la chambre de leur enfant en direct. De quoi éduquer et prendre soin des enfants. Pour les parents, Aristotle va aussi permettre de commander facilement des produits pour leurs enfants. Sa commercialisation est prévue pour juin 2017, autour de 300 dollars.
Cette fois, Mattel assure que le dispositif est sécurisé. Rien à voir avec les derniers scandales. Rappelons celui de la Hello Barbie, la barbie connectée que l’entreprise proposait en 2015. Un chercheur américain avait alors souligné que des pirates pouvaient facilement voler des informations personnelles et transformer le microphone de la poupée en un dispositif de surveillance. Pas plus de lien avec les peluches CloudPets commercialisés par la société américaine Spiral Toysqui. Ces peluches connectées permettent à un proche autorisé d’enregistrer un message aux enfants qui peut le réécouter à foison. Problème : elles avaient été à l’origine de la fuite d’informations personnelles de 821.000 détenteurs et de 2,2 millions d’enregistrements fin 2016. Victor Gevers, président de la GDI Foundation avait révélé un lien mal protégé vers la plate-forme de stockage en ligne utilisée par ces jouets pour stocker des informations. Et enfin, la poupée Cayla était qualifiée en Allemagne de « dispositif dissimulé d’espionnage » par l’agence de régulation des réseaux.
Cette fois, les images de la caméra d’Aristotle transmises aux parents sont chiffrées. Le géant du jeu répond aux règles de la COPPA, une directive américaine concernant la protection de la vie privée des moins de 13 ans.
Avis de l’expert Jean-Gabriel Ganascia, chercheur en intelligence artificielle à l’université Pierre-et-Marie-Curie
Pour assurer la sécurité des données, je pense qu’il faudra développer ce que l’on appelle l’ « ethics by design » (éthique par conception). Il s’agit de principes de conceptions qui assurent que les données ne sont pas délocalisées. Il y aura une garantie ancrée dans l’objet. J’ai travaillé quelques années sur ce que l’on appelait la télévision intelligente. À partir de ce que les gens regardaient à la télévision, on faisait de la recommandation. Il s’agissait d’une architecture locale qui ne déportait pas les données vers un service central. On peut donc certifier aux utilisateurs que certaines données resteront sur l’appareil et ne seront pas diffusées pour être réutilisées par d’autres. Le devenir des données sera un argument de vente dans le futur.
Si des acteurs proposent cela sur le marché , il y aura un mouvement populaire qui ira vers ce genre de solutions. Le processus est long car il y une sensibilité relativement faible sur ces questions, mais je pense qu’elle va s’accroître. Par exemple, sur les moteurs de recherche, Google aspire toutes les requêtes pour faire de la publicité ciblée. Le moteur de recherche français Qwant s’engage à ne pas les aspirer. Lorsque cela deviendra un sujet important, cela leur conférera un avantage compétitif important.
Le monde est en train de se robotiser. Drones, véhicules autonomes, robots de soins, de divertissement ou industriels… fleurissent ces dernières années. L’intelligence artificielle sera bientôt répandue dans tous les foyers. Cela pose d’importants défis juridiques et éthiques. Il est donc urgent de créer une personnalité juridique ou au moins un statut légal pour les robots et l’intelligence artificielle. Les robots tueurs ou utilisés comme des armes sont exclus de son cadre.
La résolution, adoptée à une très large majorité par les eurodéputés en février 2017, demande à la Commission européenne « de proposer des règles sur la robotique et l’intelligence artificielle (IA), en vue d’exploiter pleinement leur potentiel économique et de garantir un niveau standard de sûreté et de sécurité ».
Quel cadre légal pour les robots ?
En votant le rapport Delvaux, les députés demandent la mise en place d’un cadre légal unique à l’échelle européenne en se penchant sur plusieurs pistes. Et il y a urgence. Plusieurs Etats membres réfléchissent à leur propre législation. Une standardisation au niveau communautaire permettrait d’avoir des règles communes. Il serait ainsi possible d’éviter le traditionnel écueil des normes multiples, comme c’est le cas, par exemple, pour les prises de recharge des véhicules électriques. Le rapport propose d’assurer l’interopérabilité entre les systèmes et de promouvoir les normes et plateformes ouvertes. Sans définition rapide de normes réglementaires par l’Union Européenne, elle devra subir les normes édictées par des pays tiers ou même directement par l’industrie robotique.
L’urgence est de définir sur qui repose la responsabilité civile en cas d’accident ou de dommage: le fabricant, les fournisseurs, le propriétaire ou l’utilisateur? Le rapport propose d’exonérer la responsabilité de toute personne. Mais plutôt de mettre en place un fonds de compensation pour garantir le dédommagement des victimes en cas d’accidents causés notamment par des véhicules autonomes. Toutes les parties pourraient contribuer. Le rapport propose aussi la création d’un régime d’assurance obligatoire.
A plus long terme, Mady Delvaux propose de réfléchir à la création d’un statut juridique spécifique aux robots. Certains robots se verraient attribuer des devoirs, comme celui de « réparer tout dommage causé à un tiers ». Il pourrait s’agir d’une « personnalité électronique » limitée, en cas de dommage nécessitant une compensation. Celui-ci pourrait être similaire au cadre légal qui existe pour la responsabilité des entreprises. « Nous ne voulons pas de robots qui ressembleraient de plus en plus aux humains, comme c’est le cas au Japon par exemple », assure néanmoins Mady Delvaux dans un communiqué de presse du Parlement européen.
Des robots mais pas de revenu universel
La partie controversée du rapport sur la création d’un revenu universel n’a pas été retenue. Le travail demandait à la Commission d’analyser dans quels secteurs l’utilisation des robots détruit le plus d’emplois et de réfléchir à assurer un revenu aux personnes qui perdent leur emploi à cause de la robotisation grâce à l’instauration d’une « taxe robot ». En France, la question d’une telle taxe est centrale dans le programme du candidat socialiste Benoît Hamon pour les élections présidentielles.
Par ailleurs, le rapport s’intéresse à la protection des données et de la vie privée. Que font les entreprises des données recueillies? Les députés proposent un code de conduite éthique volontaire sur la robotique pour les chercheurs et les concepteurs. L’objectif est de garantir qu’ils opèrent conformément aux normes juridiques et d’éthique et que la conception et l’utilisation des robots respectent la dignité humaine.
Le rapport Delvaux recommande la création d’une agence européenne chargée de la robotique et de l’intelligence artificielle. Elle serait notamment en charge de l’élaboration d’ un système général d’immatriculation des robots avancés. Elle définirait les critères de classification des robots dont l’inscription au registre devrait être obligatoire.
Comme pour les avions, le rapport préconise le développement d’une « boîte noire» pour chaque robot. Elle contiendrait « les données sur chaque opération réalisée par la machine, y compris les logiques ayant contribué à la prise de décisions ».
Avis de l’expert Jean-Gabriel Ganascia, chercheur en intelligence artificielle à l’université Pierre-et-Marie-Curie
L’Europe peut mettre en place des procédures plus légitimes que celles des géants du web. C’est pour cela que c’est une bonne idée que l’Europe et les citoyens y réfléchissent. Mais ce n’est pas sur les bases obscures de ce qui est écrit dans le rapport Delvaux qu’il faut le faire. Ce rapport est totalement déconnecté de la réalité technologique et il dénonce un certain nombre de choses fausses. Par exemple, les robots n’augmentent pas le chômage. Au contraire, plus il y a de robots, plus le chômage diminue. En effet, la robotique augmente la compétitivité des entreprises. Et, plus il y a de robots, plus les industries sont compétitives. Et plus elles sont compétitives, plus elles vont se développer et embaucher. L’idée de la taxe sur les robots relèvait aussi d’une mauvaise analyse, car il faut moderniser l’économie en utilisant des robots pour qu’elle soit plus compétitive. Si l’on fait payer une taxe, au contraire, les entreprises en utiliseront moins.
Le rapport propose de donner une personnalité juridique aux robots. En cas d’accident, on va pouvoir indemniser la victime grâce à un fonds d’assurance. Mais cela ne remplit pas tout à fait la fonction, car il s’agit de droit civil, ce qui n’indemnisera pas les accidents relevant du pénal. Ce fonds serait alimenté par le fabricant ou l’utilisateur. Si c’est le fabricant, seules les grosses entreprises vont pouvoir continuer à payer ces assurances. Les nouveaux acteurs auront énormément de mal à se créer. L’industrie de la robotique se concentrera. Et puis, dans l’arsenal juridique, il y a un tas de moyens qui existent déjà pour régler les conflits qui apparaîtraient…
Mark Zuckerberg, PDG de Facebook, a développé Jarvis, son propre assistant à domicile. Amazon propose Alexa, son assistant personnel intégré à son enceinte Echo. Google dispose aussi de Google Assistant intégré à sa plateforme Home. Et Apple intègre Siri dans ses iPhones. Le 21 mars 2017, Samsung a annoncé à son tour son propre assistant vocal Bixby pour son futur téléphone Galaxy S8.
Alexa, sur le devant de la scène
Depuis 2015 et jusqu’à peu, Alexa était réservée à son enceinte connectée Amazon Echo. Au CES de Las Vegas 2017, Alexa a fait fureur. Nombre d’objets connectés l’intègrent désormais. C’est le cas du Hub Robot de LG qui pilote la maison grâce à ses applications domotiques et répond à vos questions. Mais ce n’est pas tout, Alexa sera également intégré au Mate 9 d’Huawei et dans les futurs smartphones de Lenovo. Le constructeur propose aussi l’enceinte connectée Lenovo Smart Assistant, doté d’Alexa. Pour General Electrics c’est la lampe connectée C by GE. De leur côté, Ford et Volkswagen ont annoncé qu’ils intégreraient désormais Alexa dans leurs véhicules. Logitech va encore plus loin: grâce à son assistant vocal pour véhicule Logi Zero Touch intégrant Alexa, il permet de rendre tout véhicule connecté.
Plusieurs constructeurs ont aussi annoncé des objets connectés commandés par Alexa. LG a présenté un réfrigérateur qui affiche les recettes ou passe commande d’aliments via Alexa. Pour Whirlpool, c’est une machine à laver connectée répondant à la commande vocale d’Alexa. Le robot humanoïde Lynx de l’entreprise chinoise Ubtech Robotics est carrément l’incarnation d’Alexa. Il peut même vous apprendre à faire de l’exercice.
Alexa se développe rapidement !
En intégrant des constructeurs tiers, les capacités d’Alexa se sont multipliées. Désormais, Amazon assure que son nombre de compétences dépasse les 7.000, contre 1.000 en juin dernier. Alexa peut désormais répondre à autant de styles de requêtes, comme commander des produits, piloter des objets connectés, en plus de répondre à toutes vos questions ou utiliser son télépone portable sans le toucher. Alexa peut également communiquer avec des services extérieurs (Uber, Amazon Music, Spotify,…).
Le logiciel apprend au fur et à mesure, grâce à des technologies de « machine learning », et affine ses réponses en fonction des centres d’intérêt et des habitudes de ses utilisateurs. Alexa pourra même bientôt enregistrer les « empreintes vocales » de ses utilisateurs et réserver des commandes spécifiques à certains d’entre eux.
Google entre dans la course
Au Mobile World Congress de Barcelone fin février, Google a annoncé la présence de son Assistant dans plusieurs téléphones. Jusqu’à présent, son intelligence artificielle équipait également que les produits maison de Google : le boitier connecté pour la maison Google Home et les smartphones Pixel et Pixel XL. Devant le développement d’Alexa et pour rester dans la course, il devient accessible sur tous les smartphones équipés des dernières versions d’Android : Nougat 7.0 et Marshmallow 6.0. LG a par ailleurs annoncé que son nouveau smartphone phare, le G6, en sera aussi équipé. Tout comme Alexa, Google Assistant a aussi vocation à se déployer dans tous les objets et voitures connectés.
Alexa est commercialisée aux Etats-Unis, en Angleterre et en Allemagne, mais n’est pas encore disponible en France. Si Amazon a pris de l’avance sur ces concurrents, ces derniers ne sont pas en reste. Google Assistant comprend pour le moment deux langues : l’anglais et l’allemand. Il pourrait comprendre le français et débarquer en France à partir de septembre. La lutte est ouverte pour séduire le marché et imposer son intelligence artificielle dans tous les foyers. Car l’objectif est bien d’imposer son intelligence artificielle comme système d’exploitation de l’Internet des objets.
Avis de l’expert Jean-Gabriel Ganascia, chercheur en intelligence artificielle à l’université Pierre-et-Marie-Curie
Les assistants de dialogue se développent. Ces plateformes sont un cauchemar, car il s’agit d’espions à domicile. Ils sont en permanence branchés et on peut savoir tout ce que vous dites. Le risque est énorme.
Pourquoi les entreprises investissent dans ces technologies? Je pense que c’est parce qu’elles ont senti qu’il y avait un énorme marché économique. Avec l’assistant personnel, les enreprises se placent sur le segment terminal de la chaîne de valeur. C’est le même concept que les sites comme Booking qui gagnent beaucoup d’argent en faisant payer une redevance élevée aux hôteliers sur les chambres réservées.
Ce qui se transforme, c’est la nature de l’économie. Tout est lié à ces petits segments qui vont jouer un rôle important. La lutte est farouche, car si jamais un acteur réussit à imposer son assistant, il va détrôner Google en tant que moteur de recherche.
Ces acteurs vont se retrouver face à un dilemme. En cas d’accident, soit ils fournissent tout ce qu’ils ont enregistré à la police. Auquel cas, ils seront vus comme auxiliaires de l’autorité. Il risque donc d’y avoir un refus des utilisateurs. Soit au contraire, ils ne souhaitent pas le faire. Dans ce second cas, ils ne se soumettent pas aux règles de l’Etat qui perd sa souveraineté. C’est ce qui s’est passé avec Apple sur le téléphone d’un terroriste qui a refusé d’aider le FBI à décrypter ses messages. Cela confirme que les géants du web cherchent à se substituer aux Etats.
Techniques de l’Ingénieur : Votre livre cherche à réfuter la thèse de la singularité technologique. Pouvez-vous nous expliquer cette thèse et la vision de ceux qui la défendent ?
J-G.G. : Les personnes qui défendent cette thèse disent que les machines vont être tellement puissantes qu’à un moment donné, elles vont nous dépasser. Débutera alors une période critique au cours de laquelle le statut de l’humanité va basculer. Nous ne serons plus totalement maîtres de notre destin puisque les machines seront plus intelligentes que nous. Elles auront leur propre volonté. D’aucuns s’inquiètent, comme Elon Musk, Stephen Hawking ou Bill Gates. D’autres sont enthousiastes comme Raymond Kurzweil qui pense que les machines vont nous rendre immortels.
Il y a un caractère inéluctable et immédiat à la singularité technologique. Elle naît du prolongement de la loi de Moore : la progression exponentionnelle des capacités des machines fera inéluctablement que nous arriverons à ce basculement. Par ailleurs, puisque les machines apprennent de façon autonome tous les jours, elles nous dépasseraient forcément, selon cette théorie.
T.I. : Quels sont les arguments que vous avancez pour réfuter cette théorie?
J-G.G. : Les premiers arguments tiennent à ce que la loi de Moore prévoit une progression exponentielle de la capacité des machines. Les tenants de la singularité pensent que cette loi de Moore est universelle. Elle correspondrait à une loi générale d’évolution de la nature. En réalité, c’est une loi d’observation qui n’a absolument rien d’universel. En particulier, on sait qu’elle se fonde sur l’utilisation de technologies du silicium. Et pour des raisons physiques, ces technologies atteindront bientôt leurs limites.
Pour justifier l’universalité de la Singularité, Raymond Kurzweil retient plusieurs jalons arbitraires dans l’histoire de la planète. Entre deux jalons, il assure que les durées diminuent de façon exponentielle et la complexité augmente de façon exponentielle. Le problème est que si l’on change de jalons, on n’observe absolument plus du tout cette évolution. On sait que les exponentielles existent dans la nature dans tous les phénomènes de transition de phases et, bien sûr, cela s’arrête à un moment donné.
Il y a une deuxième famille d’arguments portant sur la capacité qu’ont les machines à apprendre de façon autonome. Les capacités qu’ont les machines à ingurgiter une très grande quantité de données et à construire des connaissances à partir de celles-ci sont impressionnantes. Par exemple, Google avec son système FaceNet utilise 200 millions d’images et a un taux de succès de reconnaissance visage de 99,63%. Les machines peuvent donc avoir des capacités supérieures aux nôtres. Mais est-ce que cela veut dire qu’elles sont plus capables que nous? Oui sur certaines tâches. Mais l’homme est capable d’inventer; il peut construire de nouveaux concepts, pas la machine. Il s’agit d’apprentissage non supervisé, sans professeur. Les technologies actuelles ne parviendront pas à une machine qui apprend de façon totalement autonome. Peut-être un jour. Cela ne veut donc pas dire que la singularité est impossible, mais les arguments sont très faibles.
T.I. : Le développement actuel des montres, lunettes et autres objets connectés en tous genres ne constitue-t-il pas les prémisses d’une hybridation homme/machine?
J-G.G. : Peut-être, mais des prémisses très éloignées (rires). Je crois que l’on en est encore très loin. Cela fait très longtemps que l’homme utilise la technologie pour remplacer des organes défaillants, des prothèses qui vont remplir un certain nombre de fonctions. Mais elles les remplissent de façon dégradées. L’idée que l’on va s’augmenter, est-ce que c’est nouveau? On peut dire que non, car les voitures nous permettent déjà d’aller plus vite, les lunettes de voir mieux et plus longtemps, etc. Je pense qu’il y a des modes d’appropriation à toutes les technologies. De là à dire que cela va nous transformer en cyborg, la route est longue.
T.I. : Vous faites des recherches dans le cadre du projet ANR EthicAA (Ethique et Agents Autonomes). Pouvez-vous nous présenter ces recherches?
Ces recherches sont consécutives au développement de machines autonomes qui pourraient avoir des comportements imprévisibles. C’est d’autant plus important qu’aujourd’hui, avec l’apprentissage profond, nous allons avoir des machines qui se reprogramment de façon dynamique en fonction de leur « parcours ». Elles peuvent contrevenir à un certain nombre d’évidences d’ordre moral. Notre idée est d’introduire à l’intérieur de la programmation des valeurs éthiques.
Il arrive également que l’on ait des conflits d’autorité entre l’homme et la machine. L’étude rétrospective des accidents montre que c’est souvent la machine qui a raison. On souhaiterait aborder le système de dialogue entre l’homme et les automates avec des techniques d’argumentation qui aident les hommes à mûrir leur réflexion en comprenant bien ce qui motive les propositions de l’agent artificiel.
Propos recueillis par Matthieu Combe, journaliste scientifique
Le graphène ne cesse d’inspirer. Et ce n’est pas le succès de la Graphene 2017 Conference qui va le contredire. Plus de 250 interventions, 1000 experts sont ainsi attendus à Barcelone du 28 au 31 mars pour partager les dernières technologies et les dernières applications qui intègrent le graphène. En parallèle des conférences scientifiques se tient d’ailleurs plusieurs événements pour soutenir le transfert de technologie et connecter le monde de la recherche et le monde industriel.
De la pâte à modeler qui capte la pression
Un chercheur du Trinity College de Dublin a eu l’ingénieuse idée d’ajouter quelques flocons de graphène à du Silly Putty, cette matière visqueuse utilisée inventée en 1949 et qui est surtout utilisée comme jouet aux propriétés physiques étranges : une boule rebondit 25% plus haut qu’une balle en caoutchouc, mais quand la pose, elle coule comme un liquide.
Résultat de ce curieux essai: la pâte devient un bon conducteur électrique sensible à la moindre déformation. Tellement sensible qu’elle peut faire office de capteur de pression plusieurs centaines de fois plus performants que les appareils usuels annoncent les chercheurs. Brevetée, cette invention a par exemple été testée avec succès pour mesurer le poul ou la pression artérielle et a été sensible au passage d’une araignée…
Quand le graphène améliore d’autres technologies
Le graphène pourrait relancer la thermoïonique annoncent des chercheurs de l’université de Stanford dans une étude parue dans Nano Energy. Le convertisseur thermoïonique mis au point dans les années 1950, notamment pour le spatial, transformait de l’énergie thermique en énergie électrique mais n’a jamais réussi à atteindre des performances suffisantes pour une application industrielle. Les chercheurs ont cette fois-ci remplacé les électrodes en tungstène par des électrodes en graphène séparées par un faible espace de vide. A 1000°C, le convertisseur devient 6,7 fois plus efficace. Reste à transformer cet essai qui a été fait sous vide d’air dans des conditions normales pour pouvoir relancer la thermoïonique.
Le projet Gryphon de l’Union européenne, coordonné par l’école polytechnique de Lausanne visait à tester l’utilisation du graphène pour améliorer les performances de la spectroscopie infrarouge, une technique de détection et d’analyse très répandue dans la recherche académique et dans l’industrie (chimie, micro-électronique, médecine…). Le biocapteur ainsi obtenu a permis d’élargir sensiblement le spectre du détecteur. Et cette première version affiche déjà des performances supérieures aux meilleurs standards actuels.
Et si le graphène était déjà dépassé !
Deux équipes de chercheurs ont publié des études dans lesquelles ils explorent les capacités de nouveaux matériaux 2D inspirés du graphène afin de s’affranchir des limites qu’ils lui ont trouvé.
C’est ainsi qu’Axel Enders, un physicien allemand de l’université de Bayreuth, en poste actuellement à l’université Nebraska-Lincoln (Etats-Unis), a développé avec des partenaires polonais et américains un semi-conducteur 2D. Ce matériau est composé de carbone, de bore et d’azote – il a été baptisé hexagonal bore-carbone-azote (h-BCN) – et a été présenté dans un article du journal ACS Nano. Les scientifiques annoncent que ce matériau est un point de départ vers de nouveaux composants électroniques plus petits, plus flexibles et plus économes en énergie que ceux d’aujourd’hui. Le h-BCN est stable pour des positions off / on de passage des électrons, un avantage en électronique par rapport au graphène qui laisse passer les électrons sans entrave à n’importe quel voltage.
De leur côté, l’équipe du chinois Wei-liu de la Southern University of Science et Technology publie dans Nature Chemistry une étude sur la fabrication d’un matériau organique de structure analogue au graphène. Objectif : trouver des alternatives au graphène pour pallier son manque de modularité. L’équipe chinoise a réussi à trouver une méthode de synthèse d’un tel matériau en partant de composés tétrabromés organisés sous forme d’un plan qu’ils ont cristallisés. Par chauffage, ils provoque le départ des atomes de brome qui sont remplacés par des liaisons carbone-carbone. Le résultat est un cristal, solide, composé de feuillets plans que les chercheurs ont séparés un à un. Les feuillets présentent une structure régulière. Ils sont épais d’environ 1 nm pour quelques micromètres de longueur. Testés comme anode pour des batteries sodium-ion, ils ont montré des performances supérieures au graphène. Cette synthèse ouvre la voie à de nombreuses autres et à tout un pan de recherche en chimie des matériaux.
Le premier signalement d’iode 131 s’est déroulé dans l’extrême nord de la Norvège. Puis, d’autres détections ont été relevées en Finlande, Pologne, République Tchèque, Allemagne, France et Espagne jusqu’à la fin du mois de janvier. Ces données proviennent d’un réseau d’échange européen informel, dénommé « Ring of Five », entre organismes en charge de la surveillance radiologique de l’atmosphère. Ils disposent d’une centaine de sites de mesure répartis sur l’ensemble du continent.
L’Europe contaminée ?
En France, les niveaux détectés sont situés entre 0,10 et 0,31 microbecquerels par mètre cube d’air (µBq/m3). Ces analyses ne portent cependant que sur la fraction particulaire qui se fixe sur les aérosols. Celle-ci est captée par les filtres des appareils de mesure. La concentration dans la fraction gazeuse est « généralement 3 à 5 fois plus concentrée », explique l’Institut de radioprotection et de sûreté nucléaire (IRSN). Le niveau en iode 131 total (gaz et aérosol) n’a donc pas dépassé 1,5 µBq/m3 en France. La teneur la plus élevée a été décelée en Pologne, à 5,92 µBq/m3 dans la fraction particulaire.
« Ces niveaux sont sans aucune conséquence sanitaire », assure l’IRSN. La Commission de Recherche et d’Information Indépendantes sur la Radioactivité (Criirad) précise que dans la Vallée du Rhône, les retombées de Fukushima étaient environ 10.000 fois supérieures à celles mesurées en janvier 2017 sur la France. En mars et avril 2011, la Criirad avait mesuré à Valence, des valeurs de plusieurs millibecquerels par m3. Et le niveau des retombées du nuage de Tchernobyl qui avait traversé la France en 1986 étaient des dizaines de millions de fois supérieurs.
Un pic de pollution à l’iode ?
La radioactivité de l’iode 131 baisse de moitié tous les 8 jours, ce qui suppose que le rejet est relativement récent. Alors, qui est responsable de ce la présence de ce radionucléide ? L’IRSN déclare que l’on n’en connait pas la source. Simplement, l’IRSN tient à préciser que « les conditions météorologiques défavorables liées notamment à des inversions de température ont vraisemblablement participé au niveau de concentration de ce radionucléide ».
En somme, alors que l’on observait les épisodes de pollution par les particules fines en début d’année en Europe, les poussières stagnantes dans les basses couches de l’atmosphère accumulaient l’iode 131. En Europe et dans ses pays voisins, de nombreuses installations sont autorisées à rejeter de l’iode 131 en faibles quantités dans l’atmosphère. Il s’agit notamment des installations liées à la production d’électricité d’origine nucléaire et des usines de production de radioéléments à usage radiopharmaceutique ou radiothérapeutique. Il n’y aurait donc pas eu de rejets supplémentaires. Simplement, la concentration aurait augmenté en absence de dilution atmosphérique.
Pas d’accident nucléaire ?
Néanmoins, la blogosphère n’a pas attendu pour relier ces taux à l’accident sur le réacteur de recherche atomique de Halden, en Norvège, en octobre dernier (voir par exemple ici). La Criirad souhaite rassurer. « Il n’y a pas à notre connaissance d’incident ou accident nucléaire actuellement en Norvège et les stations de mesure […] ne montrent pas actuellement de radioactivité anormale en Norvège ou sur les pays proches », affirme-t-elle dans un communiqué. L’accident d’octobre 2016 a bien rejeté 150 millions de becquerels pour l’iode 131, selon les autorités norvégiennes. Pour autant, « les stations de mesure de l’iode 131 sous forme particulaire situées à Osteras, à une centaine de kilomètres au nord-ouest de Halden et à Arland, à 500 kilomètres au nord, n’avaient pas mis en évidence d’impact mesurable », assure l’organisme indépendant.
Si la Criirad affirme que « rien ne permet de faire le lien » entre ces deux événements, elle préconise la réalisation d’analyses indépendantes au voisinage du réacteur de Halden afin d’évaluer les niveaux d’exposition des riverains. « L’hypothèse des mauvaises conditions météorologiques est la plus probable, estime la Criirad Toutefois, le faible nombre de points de mesure ne permet pas d’exclure l’existence de rejets anormalement élevés d’une ou plusieurs installations ».
Encore du rififi autour du glyphosate. Le 15 mars 2017, l’Agence européenne des produits chimiques (ECHA) a reconnu que le glyphosate pouvait causer de graves lésions oculaires et avoir des effets néfastes à long terme sur la vie aquatique. Officiellement, rien de plus. À aucun moment l’ECHA ne soupçonne le glyphosate d’être cancérigène ou mutagène. Néanmoins, l’Agence européenne de sécurité des aliments (EFSA) proposait quand même récemment de renforcer le contrôle des résidus de glyphosate dans la nourriture.
Mais c’était sans compter sur la révélation des « Monsanto papers » par le journal Le Monde. L’histoire se passe aux États-Unis. Des personnes atteintes d’un lymphome non hodgkinien ont fini par avoir accès à des documents secrets. Ces malades atteints d’un cancer du sang accusent le Roundup d’en être la cause. La justice fédérale a choisi de déclassifier 250 pages de correspondance interne de la firme. Ces courriels de Monsanto révèlent que le caractère génotoxique du glyphosate est connu depuis 1999, tout comme son potentiel mutagène.
La vérité sur le glyphosate arrangée par le patron de Monsanto ?
À la fin des années 90, Bill Heydens demande à un expert d’écrire un rapport sur le glyphosate. Le professeur James Parry est contacté, mais son étude ne convainc pas. Le Roundup est vertement pointé du doigt par le scientifique. Conséquence : son étude est enterrée. Ce dernier avait conclu que « le glyphosate est un clastogène potentiel in vitro ». Autrement dit, la substance est potentiellement mutagène, donc capable d’influer négativement sur l’ADN et les chromosomes.
Comme l’atteste le Huffington Post, le patron de Monsanto a voulu dissimuler la vérité sur le glyphosate. Le but était de riposter efficacement au cas où une étude scientifique dénoncerait le glyphosate comme étant cancérigène. Heydens a demandé à des employés d’écrire des rapports à l’avantage du glyphosate. Endossant parfaitement l’habit du boni-menteur, Heydens a suggéré à des scientifiques de « juste signer de leurs noms » les rapports fallacieux.
Mais en 2015, les découvertes de Parry sur la génotoxicité du glyphosate sont rendues publiques. Le Centre international de recherche sur le cancer (CIRC) reconnaît le « stress oxydatif » du glyphosate. Monsanto s’enflamme, et accuse le rapport d’être de la « science pourrie ». Parry avait suggéré à la firme de faire des analyses complémentaires. Mais les courriels révélés ont montré que Monsanto a décidé de faire autrement : « nous n’allons simplement pas conduire les études qu’il suggère ». Forts de cette découverte, une trentaine d’eurodéputés ont écrit à Jean-Claude Junker, président de la Commission européenne, pour faire interdire le glyphosate dans l’Union européenne.