Le secteur du stockage batterie en plein boom

1,4 GW/2,3 GWh installés en 2017

Les vendeurs de batteries ont connu une année record en 2017. Ils ont installé l’équivalent de 1,4 GW de batteries en capacité représentant 2,3 GWh en énergie. Le marché a été porté notamment par l’Australie qui remporte la palme en termes de capacité (246 MW) et les Etats-Unis en termes d’énergie (431 MWh). Ces deux pays sont particulièrement propices à l’implantation de stockages par batteries, en raison d’une réglementation favorable et des prix de l’électricité élevés. En troisième position se trouve l’Allemagne puis la Chine. Selon le dernier rapport publié par GTM Research, l’Empire du Milieu devrait rapidement rattraper son retard et devenir le premier marché mondial d’ici 5 ans.

Mais en attendant, c’est l’Australie qui fait beaucoup parler d’elle. Elle a été le théâtre d’une compétition entre deux poids lourds du secteur : Elon Musk, pdg de Tesla, Solarcity et SpaceX, et Sanjeev Gupta, autre milliardaire, pdg de Simec Zen Energy. Ce dernier a annoncé en mars dernier la construction d’une batterie de 120 MW/140 MWh quelques mois seulement que le premier ait finalisé la construction de ce qui devait être la plus puissante batterie du monde (100 MW/129 MWh). Une course à la puissance qui s’est faite sous l’œil bienveillant des autorités australiennes qui subventionnent en partie ces installations pour éviter que ne se reproduise le black-out de 2016 qui avait privé d’électricité de très nombreux Australiens. Dans les deux cas, le stockage est couplé à des énergies renouvelables (EnR). En l’espèce, Elon Musk a choisi le parc éolien de Hornsdale (307 MW) exploité par le développeur français Neoen.

Couple renouvelables/batteries

Selon un autre rapport publié par Bloomberg New Energy Finance (BNEF), le marché mondial du stockage par batterie devrait être multiplié par 64 entre 2016 et 2030, pour atteindre une puissance installée totale de 125 GW et une production de 305 GWh. Une croissance exponentielle qui n’est pas étrangère à la montée en puissance rapide des énergies renouvelables. Ces dernières, notamment le solaire photovoltaïque, ont dépassé toutes les prévisions des experts et pourraient rendre très difficile le contrôle de fréquence des réseaux électriques. C’est pourquoi les gestionnaires de réseaux multiplient les initiatives sur les batteries à l’instar de RTE en France qui développe le projet Ringo, visant à implanter des batteries faisant office de « lignes virtuelles ». Au niveau des gouvernements, de plus en plus d’appels d’offres EnR comportent dans leurs cahiers des charges un volet stockage pour réduire à la source le risque lié à l’intermittence. C’est notamment le cas lorsque ceux-ci concernent des zones non-interconnectées (ZNI) tels que les îles, dont les réseaux sont particulièrement vulnérables.

Gigafactories

Autre facteur de la montée en puissance du secteur des batteries : la baisse des coûts. Comme toujours, les économies d’échelle liées à la hausse des volumes ont fait baisser les coûts marginaux ouvrant de nouveaux marchés qui à leur tour ont élevé les volumes, etc. Cet effet d’entraînement a conduit à la création de Gigafactories telle que celle de Tesla aux Etats-Unis, ou encore, voire surtout celles de LG Chem et Samsung en Corée du sud. L’Europe, malgré des discours ambitieux, reste largement à la traîne. Le cercle vertueux des économies d’échelle laisse présager encore une baisse des coûts estimée entre 10 % et 36 % dans les cinq prochaines années.

Ces réductions des prix des batteries permettront d’alimenter une autre dynamique en cours : l’électrification des usages qui consiste à substituer l’électricité à d’anciennes sources d’énergie telle que pétrole. Le véhicule électrique en est l’une des meilleurs illustrations.

Par Romain Chicheportiche

La French Fab accélère son déploiement

Avec un coq bleu pour étendard, le label French Fab associe industriels et start-ups dans un réseau facilement identifiable pour faire rayonner l’industrie française dans le monde. Grâce au soutien de plusieurs acteurs, notamment la Banque publique d’investissement (Bpifrance) et les régions, les entreprises sont accompagnées pour former l’industrie du futur « à la française » et conquérir les marchés mondiaux.

La French Fab nourrit notamment l’ambition d’accompagner les petites et moyennes entreprises (PME) pour les transformer en entreprises de taille intermédiaire (ETI). Soit des sociétés qui emploient entre 250 et 5.000 salariés et réalisent un chiffre d’affaires allant jusqu’à 1,5 milliard d’euros. Bruno Le Maire a annoncé vouloir doubler le nombre d’entreprises accompagnées par la BPI. D’ici 2022, la banque devra accompagner 4.000 entreprises dans ses accélérateurs, avec un programme de 18 à 24 mois, par promotion. À terme, l’objectif est bien de rattraper le retard français à la matière : le pays ne compte que 5600 ETI, là où l’Allemagne en recense près du double.

Des accélérateurs avec Bpifrance

« Les accélérateurs de Bpifrance proposent des programmes intégrés sur 2 ans permettant d’accompagner les entreprises en profondeur dans leurs projets de croissance et de transformation à travers de la formation, du conseil et de la mise en réseau, explicite Fanny Letier, directrice exécutive chez Bpifrance au magazine Entreprendre. Nous sommes là pour transformer des PME en ETI et des ETI en champions mondiaux. »

Ces accélérateurs permettent de transformer les entreprises grâce aux nouvelles technologies : impression 3D, intelligence artificielle, robotique, digital, big data, etc. Les entreprises accompagnées innovent, entrent dans l’industrie du futur et attirent les jeunes vers les métiers de l’industrie. Surtout, elles développent considérablement leur chiffre d’affaires, partent à l’exportation, modifient leurs modèles d’affaires et se tournent vers la responsabilité sociétale des entreprises (RSE).

Les régions s’allient à la French Fab

Les accélérateurs se multiplient. Bpifrance développe des accélérateurs nationaux par filières industrielles. Un premier accélérateur « Ambition PME-ETI » dédié aux entreprises de l’aéronautique a été créé avec le Groupement des Industries Françaises Aéronautiques et Spatiales (Gifas). La première promotion de 60 entreprises a été lancée en septembre 2017 pour 18 mois. Un autre accélérateur dédié aux entreprises de la chimie vient d’être lancé début avril avec l’Union des industries chimiques (UIC). L’Accélérateur Chimie accueillera dès le deuxième semestre 2018 30 PME et ETI du secteur disposant d’un fort potentiel de croissance. D’autres accélérateurs sont prochainement attendus dans les grands secteurs industriels, comme l’automobile, la construction, l’agroalimentaire, le ferroviaire, la construction navale ou encore la santé.

À côté de ces accélérateurs nationaux, plusieurs régions ont lancé leurs propres accélérateurs, en collaboration avec Bpifrance. C’est le cas des régions Pays de la Loire et de la Nouvelle Aquitaine qui ont lancé leur accélérateur en 2017. Par exemple, la première promotion du programme d’accélération de 24 mois en Nouvelle Aquitaine compte 8 PME et 14 ETI depuis octobre 2017. Le programme devrait monter en puissance pour concerner à terme 70 entreprises par promotion.

La dynamique s’amplifie en 2018

La French Fab Auvergne-Rhône-Alpes annoncée en mars 2018 sera doté d’un plan de 120 millions d’euros. Dans la foulée, la Région Bretagne a lancé la Breizh Fab, un « plan industriel breton 2020 » doté de 4 millions d’euros. Celui-ci est destiné à agir comme un accélérateur régional. En particulier, le programme d’accompagnement « Industrie du futur » qui aide à la modernisation de l’outil productif accueillera une nouvelle promotion de 50 entreprises. D’autres régions sont en cours de discussions avec Bpifrance pour lancer leurs accélérateurs.

Bpifrance a récemment présenté les résultats de la deuxième promotion de son accélérateur PME (2016-2018). Après 24 mois d’accompagnement, les résultats sont plutôt très encourageants pour les 58 PME qui ont été tentées par l’expérience. En effet, leur chiffre d’affaires moyen a augmenté de 25 %, leurs exportations de 22 % et leurs effectifs de 34 %. La troisième promotion (2017-2019) est d’ores et déjà en cours d’accélération, et la quatrième promotion (2018-2020) a été annoncée. 56 PME ont été sélectionnées, dont plus de la moitié dans le secteur industriel. Ces résultats sont de bon augure pour les futurs résultats des accélérateurs de la French Fab.

Par Matthieu Combe, journaliste scientifique

L’IA, au coeur de la réindustrialisation française

Emmanuel Macron veut faire de la France une nation à la pointe de l’intelligence artificielle (IA), en Europe et dans le monde. La France dispose de nombreux atouts pour ne pas rater cette disruption technologique. « Nous avons des atouts pour réussir », assure le Président de la République, notamment grâce à l’excellence de la formation, des ingénieurs et des chercheurs. Par ailleurs, des centres de recherche de grandes entreprises sont déjà installés sur le territoire.

Pour éviter la fuite des cerveaux et accélérer la croissance l’écosystème, un programme national pour l’IA sera mis en place. « Nous mettrons en place un réseau emblématique de quatre ou cinq instituts dédiés, ancrés dans des pôles universitaires et maillant le territoire français », prévient Emmanuel Macron. Ils seront en interaction permanente et développeront des chaires d’excellence pour attirer les meilleurs talents.

Améliorer la formation et attirer les talents mondiaux

Un effort particulier sera porté à la formation des techniciens, ingénieurs et docteurs. « Nous doublerons le nombre d’étudiants formés à l’intelligence artificielle depuis la licence jusqu’au doctorat, en passant par les formations professionnelles courtes et prévoirons les financements nécessaires à ce doublement », assure Emmanuel Macron.

À cette fin, le Président annonce la mise en place d’une série d’appels à projet mondiaux, à l’instar de ce qui a été fait pour le « Make our planet great again ». Par ailleurs, il entend favoriser les allers-retours des chercheurs entre le public et le privé. Grâce à la loi Pacte, un chercheur public pourra désormais consacrer jusqu’à la moitié de son temps à une entité privée, contre 20% actuellement.

Développer l’expérimentation

Emmanuel Macron a entendu le message : il faut donner plus de place à l’expérimentation en France. D’ici l’été, la Loi Pacte permettra de lancer un appel à expérimentations dans chaque secteur de l’IA.

Par exemple, Emmanuel Macron souhaite retrouver le leadership européen en matière de véhicules autonomes, devant l’Allemagne. Très bientôt, la stratégie française pour le véhicule autonome sera dévoilée. Dès début 2019, le cadre législatif autorisera les expérimentations de niveau 4. Le niveau 4 « Eyes off, Hands off » ou « Mind Off » (sans intervention humaine) est la conduite autonome sans surveillance conducteur.  D’ici 2022, un cadre permettant la circulation des véhicules autonomes sera mis en place. En bout de chaîne, cela suppose de poser au plus vite le cadre d’homologation des véhicules autonomes.

Ouvrir les données publiques et privées

La France est un pays fortement centralisé et lui confère un avantage certain pour l’IA, grâce à des bases de données centralisées massives. Le Président compte ouvrir les bases de données publiques à des fins de recherche dans les prochains mois. Il ouvrira aussi les données obtenues grâce à des financements de fonds publics et les données issues de projets de recherche financés par l’Etat.

Emmanuel Macron annonce également vouloir faciliter la création de plateformes de partage de données entre acteurs publics et privés, avec une logique sectorielle. « Du secteur bancaire pour les données de transaction, à l’agriculture pour l’efficacité des pesticides, en passant par les données de tests de véhicules autonomes, c’est à une mobilisation générale autour de la donnée que j’appelle », prévient-il. Il désigne notamment quatre secteurs prioritaires dans lesquels l’Etat pourrait « jouer un rôle de structuration » : santé, mobilité, environnement et sécurité. Cela passera en outre par la promotion des logiciels libres partout où ils peuvent se développer.

Le chef de l’Etat lancera par ailleurs une réflexion au sein de l’UE pour avoir accès aux données privées. « Cette politique est inconcevable sans un cadre européen protégeant les données personnelles et permettant la pleine valorisation de ces données dans l’espace européen », précise-t-il. Car l’opinion publique devient sensible à l’utilisation de ses données personnelles. Et il ne faudra pas confondre l’usage des données agrégées et l’intrusion dans les données personnelles. Le nouveau règlement européen répond à ces questions mais doit aller plus loin pour assurer la maîtrise des données, dans un cadre transparent.

Définir un cadre réglementaire et financier français et européen

L’intelligence artificielle sera le premier champ d’application du fonds pour l’innovation et l’industrie de 10 milliards d’euros mis en place en début d’année. Sur le quinquennat, « ce sera un effort dédié d’un milliard et demi d’euros entraînant directement plus de 500 millions d’euros d’investissements privés supplémentaires qui sera mis en oeuvre pour accompagner l’émergence de ce grand pôle mondial de l’intelligence artificielle », annonce Emmanuel Macron. Près de 800 millions d’euros supplémentaires seront investis d’ici 2024 dans la nanoélectronique, ingrédient essentiel au développement de l’IA.

Emmanuel Macron entend définir un cadre financier européen dédié à l’IA. En plus de ses politiques historiques (PAC, fonds structurels), l’Union Européenne doit porter une ambition nouvelle en matière d’innovation, estime le Président Français.

Définir les enjeux éthiques et politiques de l’IA

Il reste enfin à construire les codes éthiques de l’IA. Des engagements de non discrimination sociale, ethnique, sexuelle doivent être pris. Ils devront également respecter les libertés individuelles, l’intimité et la vie privé. Dans cette perspective, « l’Etat rendra par défaut public le code de tous les algorithmes qu’il serait amené à utiliser, au premier rang desquels celui de Parcoursup », prévient le Président.

Une réflexion européenne et nationale sera lancée sur le contrôle et la certification des algorithmes, pour résister à la « privatisation opaque de l’IA ou à son usage potentiellement despotique ». Des discussions seront aussi mises en place au niveau international, notamment avec le Canada. Emmanuel Macron envisage même d’aller jusqu’à la création d' »un GIEC de l’intelligence artificielle » pour créer « une expertise mondiale indépendante qui puisse mesurer, organiser et nourrir le débat démocratique pour que l’IA ne devienne pas une instance de contrôle, mais de liberté ».

Par Matthieu Combe, journaliste scientifique

La formation professionnelle veut se réinventer

Muriel Pénicaud en est convaincue : 50 % des emplois seront transformés dans les dix prochaines années. Par ailleurs, entre 10 et 20 % de nouveaux emplois vont faire leur apparition. La formation professionnelle doit donc complètement être repensée. C’est l’objectif des 12 mesures annoncées par le gouvernement, notamment à destination des salariés les moins qualifiés, des Français au chômage ou travaillant à temps partiel.

L’accès à la formation professionnelle demeure très inégal en France. En effet, seulement 34 % des ouvriers ont accès à la formation professionnelle chaque année, contre 66 % des cadres. Les inégalités sont également particulièrement marquées en fonction de la taille des entreprises. Seulement 35 % des salariés dans les TPE ont accès à la formation, contre 62 % dans les entreprises de plus de 250 salariés. La réforme prévoit donc un système de solidarité des grandes entreprises vers les TPE et les PME pour faciliter l’accès de leurs salariés à la formation.

Accélérer la transformation des métiers et des mutations technologiques

La formation professionnelle doit être repensée pour incorporer les nouveaux métiers et les nouvelles technologies. Réalité augmentée, robotique ou cobotique, big data et numérique… des directeurs aux opérateurs et aux techniciens, tous les métiers sont concernés. Le manque de formation se fait déjà sentir. Selon l’Insee, 32% des entreprises citent le manque de main d’oeuvre compétente disponible parmi les barrières à l’embauche. Ce frein est particulièrement marqué dans le bâtiment (50%) et dans l’industrie (38%).

Dans ce contexte, l’innovation pédagogique sera favorisée pour encourager les formations innovantes – Moocs, e-learning, tutoriels vidéos, tablettes interactives, réalité virtuelle ou augmentée – et développer la formation en situation de travail. « L’action de formation se dilue aujourd’hui dans un faisceau de pratiques formatives bien plus larges qu’auparavant : la formation à distance, le digital learning, le coaching, le mentoring, par exemple, s’adaptent bien aux nouvelles organisations de travail », précise Claire Pascal, Directeur Général de Comundi et membre du Conseil d’Administration de la Fédération de la Formation Professionnelle.

Des évolutions concrètes

Afin de rendre les formations plus accessibles, tous les salariés verront désormais leur Compte Personnel de Formation (CPF) crédité de 500 euros par an et plafonné à 5000 € pour choisir eux-même leurs formations. Les salariés non qualifiés dont l’emploi pourrait être menacé à l’avenir verront leurs droits majorés à 800 euros par an, plafonné à 8000€. Les entreprises auront un taux de cotisation formation de 1 %, prélevé par l’Urssaf, dédié aux dispositifs obligatoires dont le CPF.

Les salariés à temps partiel seront également mieux lotis, puisqu’ils bénéficieront des mêmes droits que les salariés à temps plein. Cette mesure bénéficiera principalement aux femmes, souligne le gouvernement, puisqu’elles représentent 80 % des salariés à temps partiel. Un Plan d’investissement dans les compétences sera consacré aux demandeurs d’emploi et aux jeunes. Doté de 15 milliards d’euros, il vise à former un million de demandeurs d’emploi peu qualifiés et un million de jeunes éloignés de l’emploi supplémentaires d’ici 5 ans. L’accent sera particuièrement mis sur l’évolution des métiers et les grandes transformations, notamment numériques et écologiques.

Pour informer tout un chacun plus facilement sur le droit à la formation, une application mobile CPF sera développée. Chaque salarié ou demandeur d’emploi pourra y consulter ses droits acquis, ainsi que les formations disponibles et les avis laissés par les personnes déjà formées. Il pourra directement s’inscrire à la session de son choix.

Par Matthieu Combe, journaliste scientifique

Un an plus tard, que sont devenus les gagnants du MICM Start-Up Challenge ?

Quel est l’intérêt pour Carbon Waters de participer à ce type de challenge ?

Il y a un an, la société était encore en cours de création et, sortant d’un laboratoire CNRS, nous n’étions pas encore visible pour les entreprises. Il était donc essentiel d’être présent sur des salons pour rencontrer des industriels et présenter nos solutions. Ainsi, notre objectif en participant au challenge start-up de M2i (MICM à l’époque) était de mesurer l’intérêt que peuvent porter des industriels et des experts du domaine des matériaux sur cette innovation, mais aussi de mieux comprendre leur besoin pour concevoir nos futures gammes de produits. Cela a aussi été l’occasion de rencontrer de potentiels partenaires et les acteurs régionaux dans le domaine de la chimie et des matériaux.

 

Vous avez remporté ce Start-up challenge en 2017. Où en est votre société aujourd’hui ?

La société a été créée en décembre 2017 et nous avons débuté la commercialisation de nos nanomatériaux. Nous avons surtout engagé des discussions approfondies et lancé plusieurs études pour le compte de grands groupes industriels dans les domaines de l’énergie, du spatial, de la défense ou encore de l’automobile. Ces études visent à démontrer l’intérêt à la fois technique et économique vis-à-vis d’enjeux dans les domaines thermiques, électriques ou de protection des matériaux. Cette phase de développement et d’industrialisation de nos nanomatériaux nécessite d’accroître la taille de nos outils de production et nos équipements d’analyse. Ces investissements conséquents ne pourraient se faire sans un plan de financement de près d’un million d’euros que nous sommes en train de boucler grâce au soutien la Région Nouvelle Aquitaine, la BPI, de l’incubateur TechnoWest et d’un fonds d’investissement régional.

 

En tant que gagnant, vous bénéficiez d’un an d’accès à l’offre « Matériaux fonctionnels » de Techniques de l’Ingénieur. Comment l’utilisez-vous ?   

Nos études et développement de produits portent sur 3 domaines d’applications : le thermique, l’électrique et la protection de matériaux. Bien que nous soyons experts dans la production de nanomatériaux et leurs propriétés physico-chimiques, il est essentiel d’avoir des outils de veille nous permettant de définir des cahiers des charges pertinents et des plans d’études cohérents à nos clients. Pour cela, nous consultons régulièrement l’offre « Matériaux fonctionnels » de Techniques de l’Ingénieur.

 

Alban Chesneau sera présent lors du prochain événement M2i les 30 et 31 mai à Paris et animera la conférence « Graphène : comment exploiter ce matériau exceptionnel dans l’industrie ? »

Téléchargez le programme des conférences ici.

Plus de renseignements sur l’événement M2i ici.

 

Le graphène va-t-il (enfin) révolutionner la supraconductivité ?

On attend toujours beaucoup du graphène. Et il nous le donne ! Les propriétés de supraconductivité (induite ou directe) du graphène sont étudiées depuis que l’on connaît ce matériau. Jusqu’alors on avait réussi à donner au graphène des propriétés supraconductrices en le plaçant en contact avec d’autres matériaux supraconducteurs ou en le dopant avec des atomes de lithium par exemple, mais c’est la première fois que le graphène se montre supraconducteur par lui-même. Mais dans des conditions bien particulières. En effet, les recherches des physiciens du MIT, parues dans deux articles de Nature de mars 2018 – ici et – montrent comment le graphène peut se comporter comme un isolant total, bloquant le flux d’électrons ou comme un supraconducteur, où le courant électrique circule sans résistance quand deux feuillets sont placés dans une configuration bien précise.

magic-angle_0

L’angle magique

Pour obtenir cet étrange effet, les physiciens ont créé un super-réseau de deux feuillets de graphène empilés l’un sur l’autre mais pas exactement en correspondance : les deux feuillets sont en effet en rotation de 1,1° l’un par rapport à l’autre. Un angle magique pour lequel les interactions entre les électrons des deux feuillets sont particulières et très fortes alors qu’à d’autres angles les feuillets de graphène superposés interagissent très peu électroniquement l’un avec l’autre. Lorsque les deux feuillets sont positionnés dans cet angle magique, les feuillets se comportent comme un isolant. Mais lorsque on applique une tension au super-réseau de graphène, à partir d’un certain seuil, les électrons cassent cet état d’isolant et le matériau devient supraconducteur !

Outre des applications que l’on pourrait aisément envisager comme la fabrication d’un transistor de graphène que l’on pourrait faire passer de l’état isolant à supraconducteur à façon, cette découverte excite surtout les esprits des physiciens à travers le monde en raison des implications possibles en matière de supraconductivité non-conventionnelle.

Une lumière sur les cuprates ?

Les physiciens du MIT clament qu’ils ont trouvé une porte d’entrée et d’étude simplifiée vers les supraconducteurs non-conventionnels et les isolants de Mott (ces matériaux qui présentent la particularité d’avoir une structure de bandes électroniques pouvant donner lieu à des phénomènes de conduction électrique mais qui deviennent isolants du fait d’une forte interaction répulsive entre leurs électrons). Les supraconducteurs non-conventionnels, aussi appelés cuprates, révèlent leurs propriétés supraconductrices à de hautes températures (entendez par là aux alentours de 100°K au lieu de quelques degrés au-dessus du zéro absolu de 0°K soit -256°C). Étudies depuis plus de 30 ans les cuprates n’ont pas encore dévoilés tous les secrets de leur fonctionnement. Une clé éventuelle pour réaliser la supraconductivité à température ambiante.

Avec cette découverte, la communauté scientifique est à présent partagée. Comme l’illustre un article des news de Nature il y a ceux qui pensent que le graphène, bien que dans les recherches exposées ici sa supraconductivité se manifeste à 1,7°K, se comporte comme un cuprate et pourrait donc devenir une plateforme de recherche et de compréhension des phénomènes électroniques qui ont lieu dans ces matériaux. Cette découverte serait alors pour eux comme « une lumière qui viendrait de s’allumer » selon l’expression de Robert Laughlin, prix Nobel de physique 1998. D’autres sont plus sceptiques. Ainsi, Kamran Behnia, directeur de recherche au CNRS à l’École supérieure de physique-chimie de Paris (ESPCI), pense plutôt que si le graphène vient de prouver qu’il est un supraconducteur, et certainement un supraconducteur inhabituel, il n’est pas pour autant forcément un isolant de Mott. Ce qui est sûr pour tous, c’est que les recherches sur le sujet vont être relancées et abondantes dans les prochaines mois.

Sophie Hoguin

3750s

illustrations de l’empilement (voir pièces jointes)

  • image fixe crédit Les auteurs
  • ou image gif animée (MIT/Les auteurs)

Revue du web #113 : les 5 vidéos scientifiques les plus étonnantes du mois

Un exosquelette pour piloter un drone avec son corps

Des chercheurs de l’Ecole polytechnique fédérale de Lausanne ont créé FlyJacket, un exosquelette muni de capteurs qui permet de manoeuvrer un drone. La promesse : jouir d’une vraie sensation de vol.

 

Station pour taxis volants : Volocopter livre un aperçu

Voici à quoi pourraient ressembler les futures stations de taxis…

 

Sécurité routière : une route qui chante au moindre écart

Testé depuis quelques semaines aux Pays-Bas, ce procédé inventé par un ingénieur japonais ne fait pas l’unanimité.

 

La Terre filmée en HD

Une entreprise britannique (Earth-i) vient de dévoiler les premières vidéos de la Terre filmée par son nouveau satellite installé à 505 kilomètres d’altitude.

 

Un robot capable de monter les meubles IKEA à votre place

Deux bras robotisés bardés de caméras 3D et de capteurs de pression, voici votre nouvel ami.

I. B

 

Les robots envahissent les entrepôts

L’automatisation dans les entrepôts existe depuis quelques années. Des véhicules à guidage automatique sont utilisés pour automatiser efficacement les tâches de transport horizontal répétitives et répétitives dans le processus de manutention.

Mais le principe des « étagères mobiles » (appelé aussi « goods to man ») répond parfaitement aux exigences des sites de e-commerce et de la distribution. Elle permet de bénéficier d’une organisation optimale et elle évite aux personnels de nombreux kilomètres à pied (en moyenne une quinzaine de kilomètres par jour…). 

Cette solution repose sur une armée de petits robots capables d’apporter automatiquement des étagères de produits aux opérateurs qui n’ont plus qu’à prélever les articles de la commande pour la constituer. Ce sont donc les « étagères » de pièces détachées ou de produits qui arrivent jusqu’à l’opérateur et plus l’inverse.

Après avoir acheté en 2012 Kiva Systems, constructeur de petits robots dédiés à la logistique d’expédition, Amazon en a déployé 50.000 unités dans ses centres logistiques outre-Atlantique. C’est l’une des raisons du succès de ce poids lourd américain qui vante ses délais très courts de livraison.

Des allées plus petites

Poussé par les plus grands du e-commerce comme Amazon et Alibaba, ce concept d’« étagères mobiles » tend à se généraliser dans les entrepôts, y compris dans l’hexagone où plusieurs distributeurs dans l’alimentaire, le textile ou les pièces détachées pour l’industrie aéronautique ont engagé d’importants travaux dans cette optique. (LIEN : http://dai.ly/x595o50. Un magasin entièrement automatisé où sont stockées des milliers de pièces pour Airbus).

Créée en 2013, une start-up française, Scallog, s’est spécialisée dans le « goods to man ». Le robot de l’entreprise parisienne n’est pas révolutionnaire. Équipé de capteurs simples et peu coûteux, il suit des bandes posées au sol. C’est l’intelligence du robot qui est plus complexe. L’unité centrale doit être capable d’orchestrer la flotte d’engins en leur affectant des missions tout en s’interfaçant parfaitement avec le logiciel de gestion d’entrepôt de l’entreprise. 

Les bénéfices sont doubles selon Scallog. Premièrement, une productivité multipliée par 4 (selon les secteurs d’activité) et une diminution de la surface de stockage de 20 à 30 %. Il n’est en effet plus nécessaire d’envoyer des personnes dans les allées, ce qui élimine le besoin d’allées larges capables d’accueillir des palettes encombrantes. Au sol, la surface des entrepôts est donc réduite; par contre, leur hauteur est plus importante, car les risques sont moindres qu’avec des êtres humains.

Le mauvais rayon

Les petits robots qui amènent des étagères ne sont pas les seules solutions déployées pour améliorer la productivité des entrepôts. Right Hand Robotics, une start-up américaine issue de recherches menées à Harvard, a conçu un bras robotique spécialisé dans les tâches de collecte (le fameux « pick and place ») si pénible pour des opérateurs. Équipé de caméras et doté d’une intelligence artificielle (plus précisément du machine learning), il est capable d’attraper les bonnes pièces.

Enfin, des robots peuvent être utilisés dans les hypermarchés. Ceux développés par l’entreprise californienne Fetch Robotics et la start-up Trax Image Recognition sont capables détecter en temps réel une rupture linéaire ou un mauvais placement de produit en rayon.

Philippe Richard

La formation : un véritable enjeu pour l’industrie du futur

Portrait de Claire Pascal, Directeur Général de Comundi

Vous dirigez Comundi, acteur majeur de la formation continue en France et opérateur des formations Techniques de l’Ingénieur. Comment vous préparez-vous à accompagner les entreprises dans cette conduite du changement ?

Nous constatons effectivement la nécessité de faire de la formation un processus continu qui accompagne et oriente les carrières. Dans le même temps, la rapide évolution des technologies et des besoins amène à procéder à des adaptations rapides des compétences.

Les réponses passent surtout par de profondes transformations des entreprises de formation : il faut adapter les modalités pédagogiques aux besoins des salariés, pour leur permettre de suivre les évolutions techniques et technologiques.

L’action de formation se dilue aujourd’hui dans un faisceau de pratiques formatives bien plus larges qu’auparavant : la formation à distance, le digital learning, le coaching, le mentoring, par exemple, s’adaptent bien aux nouvelles organisations de travail.

C’est donc bien l’expertise qui est demandée, telle qu’elle existe dans les formations Techniques de l’Ingénieur, conjuguée à la souplesse d’intervention pour mieux s’adapter à la disponibilité des salariés. C’est ce que nous développons cette année avec le déploiement d’une offre en classe virtuelle.

De façon plus large, nous assistons actuellement à un véritable « big bang » de la formation. Mais à qui vont profiter les principales mesures annoncées par la ministre du travail, Muriel Pénicaud, sur la réforme de la formation professionnelle ?

Les mesures annoncées par la Ministre du Travail semblent profiter particulièrement aux demandeurs d’emploi et aux actifs, sur un plan individuel. La mise en place d’un Compte Personnel de Formation en euro, et non plus en heure, leur donne un véritable pouvoir d’achat en matière de formation. La vraie question est de pouvoir y accéder réellement.

A ce jour, l’éligibilité des formations au CPF et la fluidité du système d’alimentation de l’offre de formation sont des éléments clés du dispositif sur lequel nous n’avons encore que peu de visibilité.

Les entreprises ne sont pas concernées par cette réforme, sauf si elles donnent du temps aux salariés pour utiliser leur CPF pendant le temps de travail. Ce n’est pas non plus clarifié.
Elles auront donc un « impôt » formation, prélevé par l’Urssaf, dédié aux dispositifs obligatoires dont le CPF. Elles devront financer par elles-mêmes leur plan de formation devenu plan de développement des compétences.
Seules les PME pourraient se voir doter de financements mutualisés venant des grandes entreprises mais avec un système de répartition via la nouvelle instance « France Compétences » non précisé à ce jour.

Quelles réponses concrètes Comundi apporte à l’obsolescence des compétences ?

Nous considérons l’obsolescence des compétences comme un facteur qui s’accélère. Il ne s’agit plus de former à un métier mais de former à changer de métier.

C’est pourquoi les formations dites transversales ou « soft skills » prennent une importance majeure. Elles consolident le socle qui va permettre à chaque salarié d’ancrer de manière continue, tout au long de sa carrière, les nouvelles compétences techniques et technologiques.

Notre offre est particulièrement adaptée pour accompagner ce mouvement. Une partie de celle-ci est dédiée aux formations aux compétences transversales, avec depuis 30 ans une expertise reconnue. En parallèle, avec les formations Techniques de l’Ingénieur, nous proposons une gamme technique et pointue pour s’adapter aux rapides mutations technologiques.

Notre pédagogie évolue aussi en intégrant du digital learning dans l’esprit d’une formation augmentée, permettant gain de temps et souplesse tout en gardant les effets bénéfiques du présentiel.

Par ailleurs, nous nous efforçons d’apporter des informations et des réflexions à nos clients sur les évolutions liées aux métiers ou aux compétences à travers une nouvelle rubrique sur notre site le Mag des Compétences.

Cliquez ici pour télécharger notre catalogue « L’excellence à la française » 

Trois techniques pour augmenter la capacité des disques durs

Depuis l’apparition des premières disquettes dans les années 70 (capables de stocker 80 000 caractères…), les fabricants ont fait d’énormes progrès. Ils ont ajouté des plateaux et des têtes. Mais cela a augmenté l’épaisseur du disque dur. Un modèle de Western Digital de deux téraoctets est un peu plus épais qu’un disque dur de 500 gigaoctets de la même période.

Étape suivante : des plateaux plus minces avec la production de disques durs hermétiques remplis d’hélium. Moins épais, mais plus de capacité : ils peuvent enregistrer 14 To environ. Autre technique employée : l’enregistrement perpendiculaire, au détriment de l’enregistrement longitudinal. Les bits sont disposés verticalement et côte-à-côte sur un plateau tournant. Cet enregistrement perpendiculaire a permis de diminuer la surface des bits individuels tout en empêchant les bits d’affecter accidentellement leurs voisins.

Densité surfacique

Aujourd’hui, de nouvelles pistes sont envisagées. Fin 2017, Western Digital a fait la démonstration du « premier disque dur au monde » exploitant la technologie MAMR. Un acronyme pour Microwave-Assisted Magnetic Recording ou enregistrement magnétique assisté par micro-ondes. Western Digital encapsule un oscillateur à côté de la tête d’écriture. Le procédé de fabrication est proche de celui d’un semi-conducteur.

Avec le MAMR, Western Digital devrait, à terme, permettre de stocker 4 térabits par pouce carré, soit un peu plus de 79 Go par cm². À titre de comparaison, le disque dur He12 de HGST (12 To, PMR) a une densité surfacique de 0,84 térabit par pouce carré (environ 16 Go par cm²), soit près de cinq fois moins tout de même.

Son concurrent direct ne reste pas les bras croisés. D’ici la fin de 2018 ou le début de 2019, Seagate pourrait proposer des supports reposant sur la technologie d’entraînement d’enregistrement magnétique assisté par la chaleur (HAMR).

Elle utilise un petit laser – de la taille d’un grain de sel – pour chauffer la partie du disque sur laquelle on écrit. Cette technique permet de polariser de manière stable un grain magnétique sur surface du plateau. La marque estime que ses premiers disques HAMR afficheront 20 To de capacité par disque dès 2019. Leur densité surfacique serait de 2 térabits par pouce carré (soit près de 40 Go par cm²). Vers 2030, la capacité de stockage pourrait atteindre les 50 To.

20 To sur un verre de 0,381 mm !

L’étape suivante est l’enregistrement magnétique à point chauffé (HDMR) qui combine la technologie HAMR avec des supports à motifs binaires. Seagate s’attend à ce que cette technologie permette à terme de livrer un disque dur de 100 To.

Mais la prochaine évolution majeure devrait être les disques durs en verre. Comparés aux disques durs en aluminium, les substrats en verre sont plus minces et plus légers. Actuellement, Hoya (une entreprise japonaise créée en 1941 et spécialisée dans la fabrication de plateaux à base de verre pour les disques durs 2,5 pouces), mais aussi des experts de l’Université de Southampton au Royaume-Uni, ont commencé à fabriquer des prototypes de disques durs en verre. Ceux d’Hoya affichent une capacité de 20 To et une épaisseur de 0,381 mm. Un autre avantage de cette technologie est sa compatibilité avec l’enregistrement magnétique assisté par la chaleur (HAMR) de Seagate.

Un gain énorme comparé aux plateaux traditionnels. Un disque de 12 To est composé de huit plateaux. Hoya croit qu’en diminuant l’épaisseur des plateaux grâce à sa technologie de verre, il pourrait contenir jusqu’à 12 plateaux à l’intérieur d’un disque dur de 3,5 pouces. Le japonais estime qu’un seul disque pourrait stocker jusqu’à 18 To.

Mais il faut se méfier de toutes ces annonces. Il sera intéressant dans quelques années de revoir ce qui avait été prévu. Selon Advanced Storage Technology Consortium (ASTC), la technologie HAMR permettra d’obtenir des disques durs de 100 To d’ici 2025,

Philippe Richard

Revue de presse anglophone #15

Des scientifiques créent accidentellement une enzyme mutante qui mange des bouteilles

plasticLes scientifiques ont créé une enzyme mutante qui détruit les bouteilles de boissons en plastique – par accident. La percée pourrait aider à résoudre la crise mondiale de la pollution plastique en permettant pour la première fois le recyclage complet des bouteilles. Lire l’article

Un robot monte seul un meuble IKEA

19xp-robot-jumboUne équipe de l’Université technologique de Nanyang a programmé un robot pour créer et exécuter un plan visant à assembler la plus grande partie de la chaise Stefan en pin massif d’Ikea à 25 $ , faisant appel à un mélange de compétences humaines pour le faire. Lire l’article

Cambridge Analytica a tenté de lancer sa propre monnaie virtuelle

merlin_118574051_4f0802f6-dc42-4050-8d4f-63aa87c0bba4-master768La société de données politiques Cambridge Analytica a discrètement cherché à développer sa propre monnaie virtuelle ces derniers mois grâce à une offre initiale de pièces de monnaie, une nouvelle méthode de collecte de fonds examinée de plus en plus par les régulateurs financiers du monde entier. Lire l’article

Les embouteillages dans les 4 plus grandes villes indiennes coûtent 22 milliards de dollars par an

traffic

En moyenne, les voyageurs de Delhi, Mumbai, Bangalore et Kolkata passent 1,5 heure de plus par jour que leurs homologues des autres villes asiatiques pendant les heures de pointe, selon un rapport publié le 18 avril par le Boston Consulting Group (BCG) et commandé par Uber. Lire l’article

La Silicon Valley a très mal pris l’audition de Mark Zuckerberg devant le congrès américain

zuck

Pour les acteurs de la Silicon Valley, la critique du Congrès contre le directeur général de Facebook, Mark Zuckerberg, était comme un référendum sur l’industrie elle-même et sur la stratégie de croissance à tout prix du réseau social, que des centaines de start-ups ont cherché à imiter ces dix dernières années. Lire l’article

Un nouvel outil pour suivre le bilan carbone de la végétation : première application au continent africain

En lien avec les équipes scientifiques du CEA, du Cnes et du CNRS, l’Inra a coordonné le développement du jeu de données issu d’observations satellitaires micro-ondes qui est à la base de l’approche. L’étude démontre que sur le continent africain et durant la période 2010-2016, le bilan net de carbone est négatif (baisse des quantités de carbone retenu par la végétation), et que la majorité des pertes de carbone s’est produite dans les savanes arborées des régions semi-arides. Ces résultats sont publiés le 9 avril 2018 dans la revue Nature Ecology and Evolution.

Le continent africain fait face à une des périodes les plus sèches sur les trente dernières années et à une déforestation continue. Cette pression combinée du climat et des activités humaines a un impact sur les stocks de carbone de la végétation et met en avant le besoin d’outils de suivi de la dynamique de ces stocks. Quel est le rôle des différents types de végétation (formations arbustives, savanes arborées, forêt tropicale) ? Quelle est leur sensibilité aux épisodes de sécheresse ?

Un outil nouveau et unique produit par les équipes françaises

Les chercheurs de l’Inra et leurs collègues ont produit un nouveau jeu de données de l’indice de végétation, appelé L-VOD (L-band vegetation optical depth), issu des observations spatiales du satellite SMOS entre 2010 et 2016. Ces données ont permis de quantifier les changements dans les stocks de carbone sur l’ensemble de l’Afrique sub-saharienne sur la période.

L’indice L-VOD issu d’observations micro-ondes basse fréquence, permet de sonder l’ensemble de la strate végétale alors que les mesures effectuées jusqu’à présent (dont les indices VOD issus d’observations hautes fréquences) étaient seulement capables d’explorer le sommet de la canopée en particulier lorsque la strate de végétation forestière est relativement dense.

Dans cette étude, l’indice L-VOD apporte une dimension temporelle à des cartes globales mais statiques de la biomasse de la végétation. Le nouvel outil permet un suivi inédit de la dynamique des stocks de carbone de la végétation.

Cette nouvelle méthode permet de suivre la dynamique saisonnière des pertes et gains de carbone mais aussi de la mettre en relation avec l’impact du climat. Ce type d’outils est indispensable aux initiatives internationales pour lutter contre le changement climatique. L’indice L-VOD est particulièrement pertinent pour étudier les formations végétales relativement denses où le signal des autres capteurs de télédétection sature. C’est aussi un outil de choix pour suivre les régions semi-arides où très peu d’inventaires au sol sont disponibles.

Les premiers résultats appliqués au suivi sur le continent africain

L’étude montre que globalement sur le continent africain et sur la période 2010-2016, le bilan net de carbone est négatif (−0.10 PgC yr−1)3 et que la majorité des pertes de carbone s’est produite dans les savanes arborées des régions semi-arides. Dans ces régions, les pertes brutes annuelles représentent approximativement 5% du total des stocks de carbone disponible. Les changements nets dans les régions semi-arides apparaissent clairement associés à des tendances de dessèchement.

Les analyses démontrent une forte variabilité interannuelle dans les stocks avec des gains lors des années très humides (2011 et 2013) et des pertes au cours de 2015, une année très sèche marquée par un évènement El Niño sévère.

Cette étude remet en question l’idée que les savanes arborées africaines pourraient servir de puits de carbone sur le long terme. En effet, les auteurs montrent que les récentes années sèches sur la période 2010-2016 ont conduit à considérer ces régions comme une source de carbone, en particulier en Afrique du Sud, signifiant que sur le court terme le climat contrôle les variations des stocks de carbone à grande échelle. Sur le long terme, la question du maintien du rôle des savanes africaines comme puits de carbone reste donc ouverte.

cap-carte-1

Source : cnrs

Ludylab, un «living lab» à la campagne

«Fun and learn», ce qui peut se traduire par «apprendre et s’amuser» : c’est la devise du Ludylab, un laboratoire inauguré le 20 mars dernier et affecté à la pratique ludique des drones, de la réalité virtuelle ou encore de l’impression 3D. Son organisation suit les principes du «living lab», un lieu d’échange d’idées et de savoirs, où sont invités à se rencontrer les chercheurs, les entrepreneurs et les citoyens-usagers, appelés à contribuer activement aux projets. Les «living labs» se comptent par dizaine désormais en France. Mais le Ludylab a quelque chose de singulier : il est implanté à Chambretaud, petite commune vendéenne de quelque 1500 habitants, loin des grands centres urbains qui accueillent d’ordinaire de telles structures.

_NK28024

Le pari de Jean-Michel Mousset, co-fondateur du Ludylab (avec plusieurs membres de sa famille notamment), est audacieux : établir une plateforme consacrée à l’innovation en milieu rural. Terre d’agriculture et d’industries agro-alimentaires, où «les usines sont à la campagne» selon le Conseil départemental, la Vendée n’est pas la plus engagée dans la «révolution» numérique. L’ancien dirigeant du groupe de transports Mousset s’est donc montré ambitieux afin que le site soit attractif et encourage la naissance d’un écosystème alentour. Construit sur une ancienne friche industrielle, Ludylab s’étend sur une superficie de 4500 m2 et représente un investissement privé d’un million d’euros. Une campagne de financement participatif a en outre été ouverte sur la plateforme Vendée Up.

La plus grande volière d’intérieur de France

L’espace consacré au pilotage de drones occupe à lui seul 900m2 et mesure 9 mètres de haut. En France, c’est la plus grande volière d’intérieur dédiée à cette activité, selon les responsables du Ludylab. Les visiteurs ont à disposition neuf modèles de drones, des casques de vision à la première personne et un dispositif innovant de contrôle obéissant aux mouvements de la main. Ils ont la possibilité de s’initier au pilotage et à la prise de vue, voire de participer à des ateliers de programmation et de fabrication, en accord avec la tradition du «fab lab». Du reste, le Makerspace constitue le deuxième gros morceau du Ludylab. Il héberge pour le moment deux imprimantes 3D et se voue au prototypage et à l’expérimentation. Un partenariat local avec le fab lab de l’établissement scolaire de Saint Gabriel a été mis sur pied. Par ailleurs, quinze postes de travail sont regroupés au sein d’un bâtiment annexe et une dizaine de couchages sont également prévus. L’esprit «start-up» est revendiqué partout.

_NK18518

Le troisième pôle promeut la réalité virtuelle et se sépare en deux parties, intégralement équipées de casques HTC Vive. D’un côté, l’«escape game» incite deux à quatre joueurs à s’entraider pour résoudre des énigmes lors d’un périple spatio-temporel long d’une bonne heure. De l’autre, plusieurs postes privilégient le réflexion et l’action, solo ou multijoueurs, en s’appuyant sur des jeux typés arcade, provenant d’éditeurs tiers. Le Ludylab ne compte pas s’arrêter là. «Nous souhaitons développer des projets de réalité virtuelle/réalité augmentée et concevoir des formations et des ateliers d’accompagnement, tant sur les nouvelles technologies que sur le développement personnel» confie Pascale Mousset, co-fondatrice.

Aucun objectif de résultat n’a été fixé. «Nous n’avons pas de modèle économique prédéfini, poursuit Pascale Mousset, nous voulons expérimenter en mode start-up». Le chiffre d’affaire du Ludylab sera constitué par l’addition des recettes des entrées, des prestations pour les entreprises (séminaires, etc), du sponsoring, du mécénat, voire d’aides publiques. Le réseau tissé par Jean-Michel Mousset au cours de sa carrière professionnelle sera probablement d’un grand soutien pour drainer une clientèle d’entreprise. Quant au grand public, les initiateurs du Lubylab tablent sur la proximité du Puy-du-Fou et espèrent que les visiteurs de ce parc de loisirs, d’inspiration médiévale, seront aussi tentés par des expériences ludiques plus contemporaines.

A partir de 25 € par heure et par personne

Frédéric Monflier

Youtube s’infiltre sur le site des impôts

Au 17 avril, plus de 1,7 million de Français ont décidé de faire leur déclaration d’impôts sur le revenu en ligne. Lorsqu’ils se connectent au site des impôts pour leur déclaration 2018, une vidéo se lance automatiquement. Et grâce à elle, Google va pouvoir récupérer des informations précieuses sur les contibuables français. En quelques jours, la vidéo a déjà été visionnée plus de 4,7 millions de fois, témoignant d’un visionnage multiple de la part des internautes.

Le site NextImpact a réagi en dénonçant un dispositif qui interroge, « tant sur sa moralité que sur sa légalité ». L’internaute était en effet obligé de visionner cette vidéo au moins 60 secondes avant de pouvoir accéder au site. Par ailleurs, « la vidéo étant affichée par défaut, les informations de navigation de l’utilisateur sont envoyées au service américain, ce dernier déposant des cookies sur la machine de l’utilisateur, qui n’aura pas donné son consentement », s’indigne NextImpact.

Google au courant de vos données fiscales ?

La vidéo diffuse des traqueurs qui récupèrent des données des internautes à des fins publicitaires. Google pourrait ainsi se procurer quelques informations précieuses pour suivre les internautes et enrichir leur profil publicitaire. Par ailleurs, Google récupère leur adresse IP et peut retracer leur navigation avant leur déclaration de revenus. Et si, en plus, vous êtes un utilisateur de Gmail, l’entreprise américaine peut lier cette historique avec votre agenda, vos mails ou encore votre localisation. Goole pourrait ainsi facilement être au fait d’éléments importants sur votre situation fiscale, déclarée ou pas.

Face à ce tollé, la DGFIP a réagi dans un communiqué. « il n’y a aucun risque de confidentialité sur les données fiscales des usagers dans l’utilisation qui est faite de ces plate-formes sociales », assure Bercy. Pourquoi ne pas avoir choisi une autre plateforme? « De nombreux sites gouvernementaux utilisent des plate-formes externes de type Facebook, Youtube et Twitter, car ce sont des plate-formes populaires, largement utilisées par un grand nombre d’internautes, qui permettent de diffuser largement une information », répond l’administration. « Il n’y a aucun risque de confidentialité sur les données fiscales des usagers dans l’utilisation qui est faite de ces plate-formes sociales », veut-elle rassurer. Toutefois, la DGFIP a changé son fusil d’épaule : il est désormais possible de fermer la vidéo au bout de 5 secondes pour accéder au site. Elle serait par ailleurs en train de réfléchir à une solution d’hébergement de repli, fait savoir Le Point.

Par Matthieu Combe

Des capteurs de lumière moins chers, moins toxiques et recyclables pour la production d’hydrogène

La réalisation d’une photosynthèse artificielle en solution reste cependant limitée par l’utilisation, pour capturer la lumière, de composés à base de métaux coûteux et toxiques. Des chercheurs du CNRS, du CEA et de l’Université Grenoble Alpes proposent une alternative efficace avec des nanocristaux semi-conducteurs (ou « quantum dots »), à base de cuivre, d’indium et de soufre, des métaux moins onéreux et moins toxiques. Ces travaux sont publiés dans Energy & Environmental Science le 10 avril 2018.
Dans les systèmes de photosynthèse artificielle, les chromophores, ou « photosensibilisateurs », absorbent l’énergie lumineuse et transfèrent les électrons au catalyseur, qui active la réaction chimique. Alors que de nombreux progrès ont été réalisés ces dernières années dans le développement de catalyseurs sans métaux nobles, les photosensibilisateurs reposent encore, pour la plupart, sur des composés moléculaires à base de métaux rares et coûteux, comme le ruthénium ou l’iridium, ou sur des matériaux semi-conducteurs inorganiques contenant du cadmium, un métal toxique.

Pour la première fois, des chercheurs du Département de chimie moléculaire (CNRS/Université Grenoble Alpes) et du SyMMES (CNRS/CEA/Université Grenoble Alpes)1 ont démontré, en combinant leurs expertises en ingénierie des matériaux semi-conducteurs et en photocatalyse, qu’il est possible de produire très efficacement du dihydrogène en associant des nanocristaux semi-conducteurs (ou « quantum dots ») inorganiques constitués d’un cœur de sulfure de cuivre et d’indium, protégé d’une coquille de zinc et de soufre, à un catalyseur moléculaire à base de cobalt. Ce dispositif « hybride » combine les excellentes propriétés d’absorption de la lumière visible et la stabilité des semi-conducteurs inorganiques à l’efficacité des catalyseurs moléculaires. En présence d’un excès de vitamine C, qui fournit les électrons au système, il montre une activité catalytique remarquable dans l’eau, la meilleure obtenue à ce jour avec des « quantum dots » sans cadmium. Les performances de ce système sont bien supérieures à celles obtenues avec un photosensibilisateur à base de ruthénium, grâce à la très grande stabilité de ses matériaux inorganiques, qui peuvent être recyclés plusieurs fois sans perte notable d’activité.

Ces résultats mettent en évidence le grand potentiel de tels systèmes hybrides pour la production d’hydrogène issue de l’énergie solaire.

hydrogene-capture

Source : cnrs

Une expédition sur les traces du réchauffement climatique #5

« 26eme jour d’expédition Sur les Traces de l’Or Blanc.

Après avoir traversé Jameson Land, nous avons atteint la Terre de Liverpool qui s’y trouve à l’Est. Nous y avons posé un camp pendant 4 jours qui nous ont permis d’explorer les alentours et d’y faire un peu d’alpinisme. Nous avons décidé de remettre un peu de challenge dans notre aventure en décidant de rentrer à pied à Ittoqqorttormitt (la ville de 450 habitants tout au Sud de la Terre de Liverpool) en passant par l’est.

image1

Nous voici donc de retour sur la banquise avec nos amis les Icebergs mais côté Océan Arctique. Nous avons posé un camp près d’une cabane de pêcheurs/chasseurs dont voici la photo (ci-dessus). C’est un signe que nous nous rapprochons enfin d’une civilisation après avoir croisé les traces d’une faune et une flore qui pour l’instant se cache.

Lors de ces 4 semaines, nous avons pu apercevoir sur la neige les  empreintes de nombreux mammifères : renards, lapins, loups, ours blanc (surnommé Le seigneur de l’Arctique) bœufs musqués; mais nous n’avons entraperçu que ces derniers, au pelage noir.

Côté mer, nous avons deviné au loin des tâches noires qui d’un coup disparaissent de la banquise; des phoques qui profitaient d’un bain de soleil.

La flore aussi s’adapte à cet environnement hostile : pas d’arbres ne poussent, que des arbustes bas de 5cm qui résistent au vent et hibernent sous la neige. C’est sûr, l’Homme n’est pas ici dans son environnement non plus et seules quelques cabanes lui permettent de s’éloigner de la ville. Faune, flore et civilisation attendent toutes la même chose : l’été et le dégel. On se demande quelles sont les impacts du réchauffement climatique sur cet équilibre.

Nous tenterons d’y répondre la semaine prochaine en direct d’Ittoqqorttormitt pour la dernière étape de l’expédition. »

 

Produire de l’électricité à partir des fluctuations de température ambiantes

Avec ce nouveau procédé, pas besoin d’avoir des sources simultanées à des températures différentes, ni d’avoir des différences importantes, la fluctuation entre températures diurnes et nocturnes peut suffire. Bien sûr, la production n’est pas extraordinaire, mais néanmoins suffisante pour alimenter des capteurs qui doivent fonctionner en continu et sur de longues années par exemple. Et ce sans autre source d’énergie. Du coup, ce dispositif constitue une source d’électricité faible mais indépendante, ubiquitaire et qui s’affranchit de nombreuses contraintes environnementales (ensoleillement, vent etc). On pourrait envisager de le placer sous un panneau solaire, où il récupérerait une partie de la chaleur perdue, ou même l’enterrer sous terre, dès lors qu’il y existe des changements de températures.

Un record d’effusivité thermique

Lors des tests, ce résonateur thermique s’est montré trois fois plus performant que ses équivalents pyroélectriques disponibles sur le marché. Pour aboutir à un système le plus optimisé possible, les chercheurs ont travaillé sur la mise au point d’un matériau qui allie à la fois une bonne conductivité thermique (capacité d’un matériau à conduire la chaleur) et une bonne capacité thermique (capacité à accumuler la chaleur) : deux propriétés qui généralement ne vont pas ensemble. L’article paru dans Nature Communications explique notamment comment ils ont mis au point un matériau composite dont la structure de base une mousse métallique de cuivre et de nickel recouverte d’une couche de graphène. La mousse est ensuite emplie d’octadecane dont la particularité est de changer de phase (de solide à liquide) dans une gamme de température particulièrement pertinente. C’est l’octadécane qui stocke la chaleur et les métaux recouverts de graphène qui permettent une conduction rapide aboutissant à la conversion de la chaleur en électricité. « La combinaison des trois composants fait du dispositif le matériel avec la plus haute effusivité thermique connue aujourd’hui », affirme Mickael Strano, le professeur qui a supervisé ces recherches. Au final, le dispositif capture la chaleur d’un côté, celle-ci irradie doucement vers l’autre côté. Le système est toujours en déséquilibre d’un point de vue thermique et tente de se rééquilibrer. Cette perpétuelle différence entre les deux côtés est stockée dans des composants thermoélectriques classiques.

Pour donner une idée des résultats obtenus, l’appareil a pu produire un courant de 350mV et une puissance de 1,3mW grâce à une différence de 10°C entre le jour et la nuit.

Des applications très diverses

Les travaux pour mettre au point ce procédé ont bénéficié d’une bourse de l’Université de science et technologie du roi Abdullah d’Arabie Saoudite (KAUST), en vue notamment de mettre au point des capteurs de surveillance des conditions d’exploitation du gaz et du pétrole énergétiquement autonomes. Mais en réalité, ce résonateur thermique peut s’adapter à n’importe quel système qui présente une variation de température comme l’alternance marche/arrêt du système de chauffage/réfrigération d’un frigo ou de nombreux process industriels. Il pourrait même s’adapter à des besoins locaux sur d’autres lunes et planètes en fournissant de l’énergie sur le long terme pour des landers ou des rovers. En outre, il permet de s’inscrire dans un mouvement plus large visant à diversifier les sources d’énergie des process et à les rendre indépendantes les unes des autres pour faire face aux défaillances de l’un des systèmes. « Dans ce cadre notre solution, est un système supplémentaire qui même s’il est insuffisant pour alimenter un process industriel peut simplement permettre l’envoi d’un message d’urgence », explique l’un des auteurs.

Sophie Hoguin

Une peau artificielle dote les mains de capacités magnétiques

Aujourd’hui, la réalité virtuelle ou augmentée s’appuie principalement sur des technologies de détection optique des parties mobiles du corps pour l’interaction avec des objets virtuels. Cependant, elle nécessite souvent des dispositifs encombrants et sa résolution n’est pas suffisante pour des mouvements fins comme ceux des doigts par rapport à la paume d’une main par exemple. Pour aller au-delà, des chercheurs de laboratoires allemands et autrichiens, dans le cadre du programme européen SMART, se sont attachés à trouver une solution qui s’appuie sur la sensibilité magnétique et qui colle littéralement à la peau. Le concept et sa mise en œuvre pourraient révolutionner l’emploi de la réalité augmentée pour de nombreuses applications allant du suivi de mouvement en robotique à la médecine régénérative ou aux jeux vidéos.

application peau magnétique
@ Crédit Cañón Bermúdez et al / Sci. Adv. 2018

Une peau électronique ultrafine

Les capteurs sont intégrés entre deux feuillets d’une peau électronique ultrafine. Cette peau est constituée de deux films ultraminces (1,7 µm chacun) de polyimide. Extensible, souple et imprimable, ce film peut s’appliquer sur n’importe quelle partie de la main sans gêne importante pour le porteur. Il peut aussi être intégré à des matériaux souples comme les textiles et il supporte une température maximale de 344°C. Si les chercheurs ont assez rapidement réussi à réaliser un capteur magnétosensible qui s’intégrait à leur film et qui permettait de détecter les objets environnants, ils ont eu plus de mal à passer l’obstacle du positionnement spatial. Mais, ils y sont finalement parvenus et ont démontré la faisabilité grâce à deux expériences décrites dans un article paru dans Science Advances de fin janvier 2018 où leur dispositif permet d’interagir avec des objets virtuels qui ne sont pas dans la ligne visuelle directe du manipulateur.

Variateur de lumière et clavier virtuel

Dans la première expérience, un aimant permanent est fixé au bout du doigt d’une personne. Sur son autre main, un serre-poignet élastique contient le dispositif des chercheurs muni d’un capteur 2D. Quand le bout du doigt s’approche du serre-poignet le capteur peut déterminer l’angle d’approche, cet angle est converti en un caractère prédéfini (un chiffre par exemple). Les différentes positions du doigt procurent donc différents caractères et peuvent être transformer en un clavier activable à distance.

La deuxième expérience a démontré la possibilité de régler l’intensité d’une ampoule virtuelle via une manipulation sans contact. La peau électronique a été placée dans la paume de la main. Un aimant permanent fait office de bouton virtuel. Quand la main fait un mouvement, comme pour faire tourner un variateur dans un sens ou dans l’autre, le capteur transforme le changement dans les champs magnétiques en information pour augmenter ou diminuer l’intensité lumineuse de l’ampoule virtuelle.

Sophie Hoguin

La Chine affiche ses ambitions spatiales

La Chine vient d’annoncer, le lundi 2 avril, que la station spatiale Tiangong 1 était finalement entrée dans l’atmosphère terrestre pour s’y désintégrer à 80 %. Les autres débris se sont perdus au fond de l’océan Pacifique sud. Une page se tourne et une autre est en marche puisque Tiangong 2 est déjà en orbite et Tiangong 3 se prépare activement. Mais le programme spatial chinois est bien loin de s’arrêter là.

Lanceur lourd et satellites internationaux

Dans la nouvelle génération des lanceurs chinois, la Longue Marche 5 est très attendue. Munie de moteurs semi-cryogéniques (kérosène / oxygène liquide), cette fusée inaugure une nouvelle classe de lanceurs pour le pays. Le programme de développement de ce lanceur lourd, dont le deuxième tir a échoué à l’été 2017, retardant plusieurs autres programmes spatiaux, a bien repris. Une première mission de lancement est prévue en novembre 2018. Il s’agira de placer en orbite une plate-forme expérimentale pour des satellites de communication de nouvelle génération. Cette plate-forme (DFH-5) doit fournir des débits de 300Gbps contre 20Gbps pour DFH-4 actuellement. Elle servira en outre à tester un moteur ionique de conception chinoise et un système de communication par laser. Par ailleurs, a annoncé  un porte-parole du Bureau de l’ingénierie spatiale habitée de Chine le premier tir de la version 5B, c’est-à-dire sans le second étage est aussi prévu en 2019. Cette version est dédiée à la mise en orbite basse de charges utiles lourdes (jusqu’à 25t).

Côté lancements commerciaux, la Chine souhaite pouvoir lancer des fusées depuis la mer : fin février une annonce officielle expliquait ainsi que sur les cinq missions prévues pour les fusées Longue Marche-11 en 2018, quatre se feraient depuis la terre et une depuis la mer. Les fusées Longue Marche-11 fonctionnent au propergol solide et sont dédiées aux lancements de satellites commerciaux. En installant une aire de départ en mer, au niveau de l’équateur, cela devrait permettre d’améliorer encore leur compétitivité (moins de carburant nécessaire) et d’offrir des fenêtres de tirs plus larges. Mais il faut encore réussir à passer les contraintes techniques que cela impliquent.

Tant pour le spatial que pour le reste de son économie, la Chine poursuit son ouverture vers des partenaires internationaux, notamment des pays arabes. Ainsi, la fusée Longue Marche 2C doit lancer en juin 2018 deux satellites de télédétection pour le Pakistan. Il s’agira du premier lancement commercial international pour cette fusée, près de 18 ans après avoir placé en orbite les satellites Iridium de Motorola en 1999. Fin décembre 2017, la Chine avait assuré le lancement du premier satellite algérien de télécommunication, Alcomsat-1. En septembre 2018, le premier satellite développé conjointement par la Chine et la France doit être mis en orbite. Il s’agit d’un satellite d’observation des vents à la surface de la mer et des vagues. Les données seront partagées par les scientifiques des deux pays.

La Chine veut décrocher la Lune

Cela fait maintenant 25 ans que la Chine a lancé son programme spatial habité. Grâce à sa nouvelle Longue Marche 5B, le pays compte commencer la construction de sa nouvelle station spatiale (Tiangong 3) dès 2020 avec la mise en place du module de base et des modules expérimentaux (20 tonnes chacun) pour une mise en service prévue en 2022. Un troisième groupe d’astronautes doit être sélectionné au premier semestre 2018 : il sera composé de pilotes et d’ingénieurs de maintenance. L’entraînement des taïkonautes est désormais axé sur les spécificités liées aux longs séjours en orbite et aux activités extra-véhiculaires régulières telles que l’apprentissage de l’utilisation de bras mécaniques. Des tests de survie dans le désert et un examen sous-marin de procédure d’évacuation de la capsule sont prévus prochainement.

La Chine escompte bien coopérer avec les Nations Unies et l’agence spatiale européenne pour des applications de la station spatiale et pour le développement de modules. Sa coopération s’étendra àc d’autres pays pour ses missions lunaires. Plusieurs missions vers la Lune sont en effet programmée : Chang’e-4 qui doit poser un module sur la face cachée de la Lune au cours du deuxième semestre 2018. Et en 2019, la mission Chang’e-5, déjà plusieurs fois retardée, doit prélever des échantillons lunaires avant de les ramener sur Terre.

Recherche et observations : la Chine voit loin

En matière de recherche sur les trous noirs, les étoiles à neutrons et les étoiles à quarks, alors même que la Chine a lancé en juin 2017 son télescope spatial d’observation des rayons X (Hard X-Ray Modulation Telescope – HXMT) et que sa mise en service officielle a été annoncée début février, elle prépare déjà son successeur : le satellite de chronométrage à rayons X et de polarimétrie renforcé (enhanced X-ray Timing and Polarimetry – eXTP). Il doit permettre, selon le responsable de l’eXTP, Zhang Shuangnan, d’amener la Chine à un niveau de premier plan dans l’astronomie mondiale des rayons X entre 2025 et 2035. Le HXMT est le premier télescope spatial d’observation des rayons X de la Chine. Il est capable d’observer les rayons X durs dont l’énergie est comprise entre 1 et 250 keV.

Côté terrestre, la Chine déjà doté du FAST (pour Five-hundred-meter Aperture Spherical Radio Telescope) le radiotélescope à réflecteur unique le plus sensible du monde veut encore l’améliorer. En effet, dès fin avril 2018, il devrait être doté d’un récepteur radio plus sophistiqué et les scientifiques chinois envisagent l’installation de deux à dix radiotélescopes plus petits, de diamètres 30m, autour de lui pour que sa résolution soit 100 fois plus élevée qu’aujourd’hui. Les missions du FAST comprennent actuellement l’observation des pulsars, l’exploration des molécules interstellaires et la surveillance des signaux de communication interstellaire.

Sophie Hoguin

Minage des cryptomonnaies : un business pour les cybercriminels

L’année n’est pas encore terminée que des records sont déjà battus. Selon Crypto Aware, un site dédié à la sécurité des cryptomonnaies, l’équivalent de plus de 1,7 milliard de dollars de cryptomonnaies a été dérobé entre juin 2011 et mars dernier. Et la tendance s’est accélérée : près de 40 % de ces sommes ont été perdues au cours des trois derniers mois. De là à jeter l’opprobre sur ces monnaies, il n’y a qu’un pas vite franchi par certains.

Pour les cybercriminels et escrocs, c’est devenu un nouveau filon. Et comme pour le piratage informatique, il n’est pas nécessaire d’être un cador en lignes de code pour mettre la main sur des Bitcoin et autres cryptomonnaies. C’est toujours la victime qui est vulnérable car pas assez (in)formée sur les risques et les solutions à mettre en place pour les atténuer.

Un processeur utilisé à 100 % d’un seul coup !

Différentes techniques sont employées. La première consiste à miner des cryptomonnaies à l’insu des internautes. Le minage est le processus d’ajout d’enregistrements de transactions d’une cryptomonnaie au compte rendu public des transactions passées. Un ordinateur effectue donc des calculs pour augmenter le nombre de coins (parfois appelés « des tokens ») de la monnaie. (augmenter la masse monétaire).

D’où la tentation de s’appuyer sur un réseau d’ordinateurs infectés pour effectuer ces fameux calculs. Pour les victimes, leur PC devient d’un seul coup aussi rapide qu’une 2 CV. Le taux d’utilisation du processeur peut grimper en flèche, entre 50 % et 100 % !

Cette arnaque n’est pas récente, mais elle se multiplie car certains en profitent pour remplacer la publicité en ligne par le minage. C’est le cas du site de « torrents » The Pirate Bay qui a reconnu avoir utilisé les ordinateurs de ses visiteurs afin de miner des cryptomonnaies, sans leur demander la permission…

Il y a deux mois, des pirates ont infecté des sites pour y placer un script de minage appelé Coinhive dans le logiciel de synthèse vocale Browsealoud (un plug-in populaire qui aide les personnes aveugles et malvoyantes à accéder au Web). Les quelque 5000 sites internet qui utilisent Browsealoud – dont certaines agences gouvernementales américaines et britanniques – ont donc servi de relai pour miner la cryptomonnaie Monero, lancée en 2014 et centrée sur la vie privée. Mais selon des chercheurs en sécurité informatique, ce serait plus de 30 000 sites infectés ou ayant accepté d’intégrer dans leurs pages web ce script (là aussi pour remplacer la pub online).

Cheval de Troie

D’autres escrocs se sont appuyés sur l’application Facebook Messenger. Ils ont réussi à infecter des ordinateurs avec leur virus baptisé Digmine pour miner du Monero. Heureusement, ce code malveillant se répand principalement en Asie.

Une autre technique est employée : modifier d’adresse de destination dans un portefeuille. Cette technique a été utilisée par le développeur du cheval de Troie (ou trojan) CryptoShuffler. Dès qu’il détecte l’adresse d’un portefeuille de devises chiffrées dans le presse-papiers (ces adresses sont faciles à repérer par la longueur de lignes et les caractères spécifiques), il la remplace par une autre. Résultat, les fonds ne sont pas récupérés par le bon destinataire. Fin octobre dernier, l’éditeur de sécurité Kaspersky estimait que les auteurs de ce trojan aurait récupéré l’équivalent de 140 000 dollars.

Pour les particuliers, mais aussi les entreprises qui possèdent de la cryptomonnaie, il est indispensable de renforcer la sécurité de leur poste de travail : antivirus et pare-feu mis à jour, protection des mots de passe et conservation des cryptomonnaies dans un « cold wallet », ou un wallet hardware comme le Ledger Nano S. Réputé inattaquable par la société française Ledger, ce portefeuille hardware a bénéficié récemment d’une mise à jour suite aux révélations d’un jeune Britannique de 15 ans qui avait découvert des failles de sécurité dans la conception…

Il convient aussi d’être vigilant quant aux applications pour smartphone et extensions pour navigateurs qui peuvent être malveillantes. Google a récemment fait le nettoyage dans les extensions de minage présentes sur Chrome Store. D’ici juin, elles ne seront plus référencées, car de nombreuses personnes se sont plaintes de vol de données confidentielles et d’opérations de minage exécutées à leur insu.

Philippe Richard

Une expédition sur les traces du réchauffement climatique #4

« Dix-neuvième jour d’expédition Sur les Traces l’Or Blanc. Après 4 jours de traversée du fjord Hall Brending et 5 jours de traversée de Jameson Land, nous sommes aux portes de la Terre de Liverpool.

Durant les 4 jours sur Hall Brending, nous avons évolué sur une banquise au milieu des icebergs. Au début de l’automne, la mer a gelé formant une couche de glace légèrement salée, emprisonnant ainsi les immenses blocs de glace qui se détachent tout au long de l’année au Groenland pour venir fondre dans la mer. Ces cathédrales d’eau douce restent bloquées tout l’hiver avant d’être libérées l’été.

Côté expédition, le froid reste mordant ; il fait désespérément beau mais désespérément glacial. Heureusement, les journées se sont rallongées à grande vitesse. On avait prévu entre 8 et 11 jours de traversée de Jameson Land mais les conditions de neige et météo étaient optimales ce qui nous a permis de facilement trouver notre itinéraire.

semaine 3

On vous joint une photo d’un iceberg majestueux pris dans la banquise que nous avons traversée. La qualité de la photo vous permettra peut être de nous voir dessus en haut à gauche.

A la semaine prochaine, on pourra vous raconter notre exploration de Liverpool Land. »

L’Europe veut prendre les débris spatiaux dans ses filets

Avec la validation de leur concept en grandeur nature à l’air libre et en apesanteur lors d’un vol parabolique, les trois PME européennes qui composent le projet ADR1EN ont été sélectionnées par l’agence spatiale européenne (ESA) pour participer à e-Deorbit, la première mission européenne de retrait d’un satellite mort prévue en 2023.

Une alliance Italie-Pologne

ADR1EN (First European System for Active Debris Removal with Nets) est porté par trois PME : STAM, une PME italienne spécialisée dans les systèmes mécatroniques qui coordonne le projet, prépare le plan d’affaires et qui est chargée de mettre au point un éjecteur de filet grand format ; SKA Polska, une PME polonaise qui a développé le simulateur de filet et le filet de collecte et OptiNav, une autre PME polonaise qui a réalisé l’installation de test et procédé aux tests de chute libre grandeur nature au sol. Les financements proviennent en partie de « Instrument PME »* de l’Union européenne. Ils ont permis de faire face aux risques financiers liés au passage des dernières obstacles techniques notamment. ADR1EN a en outre reçu le soutien de Thales Alenia Space avec la mise à disposition d’une chambre à vide thermique et d’installations de test de contamination.

Le choix du filet

STAM,  déjà fournisseur de l’ESA depuis 1999, avait une expérience en matière de filet spatial. En effet, l’italien avait développé à petite échelle un système de capture de débris visant à protéger les infrastructures spatiales des débris en orbite. Leur système a donc servi de base au projet ADR1EN dont l’échelle est beaucoup plus conséquente. En effet, il s’agit de pouvoir récupérer un satellite mort en orbite en l’emprisonnant dans un filet afin de pouvoir le remorquer via un vaisseau spatial muni d’un câble fixé au filet. Les débris seront ensuite soient brûlés lors d’une entrée contrôlée dans l’atmosphère ou désorbités vers une zone sans danger. A ce jour, de nombreuses alternatives technologiques sont à l’étude pour capturer les débris spatiaux : bras robotisés, harpons, lasers, mais les filets font pour l’instant bonne figure grâce à un poids limité et un déploiement à distance ne nécessitant pas une extrême précision dans la phase de capture. Le projet a désormais validé la démonstration à l’échelle en chute libre et par simulation pour les conditions opérationnelles. Reste à prouver que cela fonctionnera en conditions réelles.

Un marché mondial à la clé

Mais les acteurs du projet ne compte pas s’arrêter à la mission e-Deorbit. Ils visent un véritable marché à venir et ont donc commencé à développer un plan d’affaires et de commercialisation. Soutenu sur ce plan par Franco Malerba, le premier astronaute italien, une vidéo illustre notamment les ambitions qu’ils espèrent concrétiser lors de l’expo universelle à Dubai en 2020.

Rappelons que depuis l’avènement de l’industrie spatiale environ 7 200 satellites ont été lancés et que seuls 1400 sont encore opérationnels. Les autres sont à l’abandon et tombent en morceaux. On estime ainsi que 750 000 éléments d’une taille supérieure à 1 cm sont aujourd’hui en orbite autour de la Terre et présentent un danger réel pour les coûteux équipements satellitaires et stations spatiales. D’autres débouchés sont en plus envisagés précise Umberto Battista, ingénieur chez STAM qui explique ainsi que « la technologie de filets pourrait aussi voir se développer des applications sur Terre pour la neutralisation de drones offensifs par exemple ».

Sophie Hoguin

*Instrument PME (IPME) est un dispositif financier européen intégré au programme Horizon 2020 qui vise à soutenir sur le marché mondial les PME porteuses de projets très innovants.

Les scénarii de l’AIE incompatibles avec l’Accord de Paris ?

À travers ses scénarii énergétiques, l’Agence internationale de l’énergie (AIE) oriente les décisions énergétiques de 30 pays. Un nouveau rapport a passé au crible ces scénarii et ses conclusions sont accablantes. Si le scénario de référence de l’AIE (« New Policies Scenario ») est mis en œuvre, il entraînerait la consommation de l’intégralité du « budget carbone » restant pour limiter le réchauffement à 1,5°C dès 2022. Dès 2034, le budget pour le limiter à 2°C serait dépassé. En cause, des investissements dans le pétrole et le gaz beaucoup trop élevés : entre 11,2 et 13,8 billions de dollars sur la période 2018-2040, incompatibles avec l’Accord de Paris. Plus des trois quarts des investissements recommandés dans ce scénario sont incompatibles avec l’accord de Paris.

En plus de son scénario principal, l’AIE fournit un « scénario de développement durable » (2DS) plus ambitieux. Le profil des émissions donne 50 % de chances de limiter le réchauffement climatique à 2 °C en 2100. Si les voies d’émission  sont plus ambitieuses, le rapport constate que ce scénario ne correspond pas non plus aux objectifs de l’Accord de Paris. Celui-ci épuiserait le budget carbone pour limiter le réchauffement à 1,5°C dès 2023, et celui pour atteindre les 2°C dès 2040.

graph1
Dépenses d’investissement cumulatives dans l’extraction de pétrole et de gaz, 2018-2040, selon les scénarios de l’AIE par rapport aux objectifs de Paris. Sources: IEA, Rystad Energy, Oil Change International analysis, IPCC, Global Carbon Project

 

« L’AIE promeut une vision de l’avenir où le monde reste dépendant des combustibles fossiles, dénonce Greg Muttitt, directeur de recherche chez Oil Change International. Les 30 pays membres de l’AIE ont tous signé l’Accord de Paris, donc l’AIE devrait les aider à atteindre leurs objectifs en matière de climat et non les freiner ». Les auteurs appellent donc l’AIE à définir un nouveau scénario central qui réponde à ces objectifs dans son prochain rapport World Energy Outlook.

Par Matthieu Combe, journaliste scientifique

Hydrogène nucléaire : la France a trouvé l’astuce

C’est une réalité physique : la chaîne hydrogène est inefficiente. L’électrolyse fait perdre 30% de l’énergie électrique et la compression 15%. Si l’hydrogène obtenu est ensuite utilisé dans une pile à combustible, 55% de ce qui reste est perdu.  Le bilan d’un cycle complet est alors de 20 à 30% selon l’ADEME.

C’est une réalité sociale : les salariés des centrales nucléaires d’EDF ne veulent pas perdre leurs emplois.  De même que les salariés du secteur gazier. C’est enfin une réalité politique : la Loi française impose de réduire la part du nucléaire de 75% à 50%. Et il suffit d’augmenter la production électrique globale (au lieu de diminuer la production nucléaire) pour que la part du nucléaire baisse. C’est mathématique.

Selon un rapport récent d’EDF et d’entreprises notamment issues de l’industrie Oil&Gas « en 2050, l’hydrogène pourrait représenter 20 % de la demande d’énergie en France, alimenter 18 % du parc de véhicules et ainsi contribuer à réduire les émissions de CO2 de 55 millions de tonnes ». Dans cette perspective les co-auteurs du rapport souhaitent que la France investisse la bagatelle de 800 millions d’euros par an d’ici 2028. « En 2030, l’hydrogène destiné aux transports, aux bâtiments et à l’industrie serait produit à 90% à partir de sources sans carbone, que ce soit par électrolyse centralisée ou distribuée ou par vaporéformage du biométhane ou du gaz naturel allié au captage du carbone ».

Autrement dit l’hydrogène sera produit par électrolyse avec l’électricité des centrales nucléaires (« électrolyse centralisée ») et, dans une moindre mesure, hydroélectriques. ORANO (ex-AREVA) commercialise des électrolyseurs. Les employés des centrales nucléaires EDF peuvent ainsi être rassurés. Et l’hydrogène sera aussi produit par reformage du gaz fossile à 900°C. Les gaziers peuvent aussi être rassurés. Tout le monde est content.

Pendant ce temps-là, en partenariat avec le CEA, un « bateau à hydrogène », très présent dans les médias, suggèrera aux Françaises et aux Français que l’hydrogène est d’origine solaire et éolienne. En France la part de l’éolien et du solaire est très modeste comparativement à celle de ses voisins européens.

La France fait fausse route solaire.

Jean-Gabriel Marie

L’hydrogène dans le mix énergétique français en 2050 ?

L’industrie française est prête à réaliser les investissements nécessaires pour développer l’hydrogène décarboné sur le territoire. Tous les grands acteurs de la filière sont au rendez-vous pour cette étude prospective. On retrouve notamment EDF, Engie, Total, Air liquide, Alstom, Michelin, SNCF, Hyundai, Toyota, le CEA et l’Association Française pour l’Hydrogène et les Piles à Combustible (AFHYPAC). Objectif : contribuer à établir la feuille de route française de l’hydrogène demandée par le Ministre de la Transition écologique et solidaire.

L’hydrogène, allié de la transition énergétique française

Selon leurs calculs, « en 2050, l’hydrogène pourrait représenter 20 % de la demande d’énergie en France, alimenter 18 % du parc de véhicules et ainsi contribuer à réduire les émissions de CO2 de 55 millions de tonnes ». Cette réduction comblerait près d’un tiers de l’écart qui existe entre les émissions correspondant au scénario technologique de référence de l’UE (qui n’intègre que les politiques actuelles) et le niveau requis par les engagements pris par la France dans le cadre de l’Accord de Paris et son Plan Climat.

L’hydrogène pourrait par ailleurs représenter près de 12 % de la demande de chauffage et d’électricité des ménages et environ 10 % de la demande de chaleur et d’électricité de l’industrie. Combiné à des émissions de CO2 préalablement captées, il permettrait enfin de produire plus de 2 millions de tonnes de méthanol, d’oléfines et autres produits pour l’industrie chimique. En 2050, cette industrie représenterait un chiffre d’affaires de 40 milliards d’euros et plus de 150.000 emplois.

Un fort potentiel, mais un cadre à définir

Pour parvenir à développer l’hydrogène d’ici 2030, la France doit investir dès aujourd’hui. Dans le but de mettre en oeuvre cette vision, les auteurs proposent un investissement de 800 millions d’euros par an d’ici 2028. Il permettrait de développer les équipements, l’infrastructure, la mise à l’échelle des moyens de production et la R&D. En 2030, cela permettrait des opportunités à l’exportation d’environ 6,5 milliards d’euros en 2030 et 15 milliards en 2050. Pour mener à bien ces investissements, les industriels demandent un « cadre réglementaire stable, équitable et incitatif ». En contrepartie, ils se disent prêts à porter les investissements à 1,5 milliards d’euros en 2028, contre seulement un tiers de ce montant avec le cadre actuel.

Les industriels demandent par ailleurs le lancement de projets de grande échelle pour réduire les coûts des principales technologies. En effet, ils avancent qu’il serait possible de réduire les coûts à hauteur de 60 % « que ce soit pour la production/transport/distribution de l’hydrogène, les infrastructures ou encore les piles à combustible, sous réserve d’augmenter significativement les volumes de production ». Ils demandent enfin des incitations aux investissements privés de long terme pour y parvenir.

L’industrie française a le potentiel nécessaire pour devenir l’un des plus grands fournisseurs mondiaux de technologies de l’hydrogène. La France compte notamment dans sa filière automobile de solides fournisseurs de matériaux et de composants pour les systèmes de pile à combustible. Elle est particulièrement bien positionnée dans le domaine du développement et de la fabrication d’équipements pour la production, la distribution, le stockage et l’acheminement de l’hydrogène.

Coup de projecteur sur les transports et le chauffage

Dans le secteur des transports, il serait possible de passer de 20 stations actuellement à environ 400 stations à hydrogène d’ici 2028.  Grâce à un déploiement progressif et simultanée, elles alimenteraient près de 10.000 véhicules électriques à pile à combustible en 2023 et 200.000 en 2028. Le déploiement accéléré par rapport aux voitures particulières se ferait dans les transports publics et les flottes captives. « Sur les segments des flottes captives tels que celui des taxis ou des véhicules utilitaires, une voiture sur 50 vendues en 2023 et une sur 10 en 2028, pourrait être un FCEV [véhicule électriques à pile à combustible] », note le rapport. Les autobus, les trains et le transport maritime constitueront aussi des segments phares à développer. Des trains, des ferries et autres navires à hydrogène sont d’ores et déjà en cours de développement.

De l’hydrogène décarboné ?

Sous le terme d’hydrogène décarboné, les professionnels avancent plusieurs technologies. La plus ambitieuse est l’électrolyse de l’eau à partir d’électricité d’origine renouvelable ou décarbonée, incluant le nucléaire. Il peut également s’agir de vaporéformage de biométhane ou de gaz naturel associé à une technologie de captage et séquestration du CO2.

Selon la vision de ces industriels, la production de l’hydrogène doit être rapidement décarbonée. « En 2030, l’hydrogène destiné aux transports, aux bâtiments et à l’industrie serait produit à 90  à partir de sources sans carbone, que ce soit par électrolyse centralisée ou distribuée ou par vaporéformage du biométhane ou du gaz naturel allié au captage du carbone », projettent-ils.

Par Matthieu Combe, journaliste scientifique

Une expédition sur les traces du réchauffement climatique #3

« Douzième jour d’expédition Sur les Traces de L’or Blanc, le moral des troupes est au top. On commence enfin à s’adapter à notre nouvel environnement : on supporte mieux le froid et on mange beaucoup.

Nos 4000 kcal journaliers individuels nous aident à faire tourner notre machine. Nous avons passé 4 jours en Terre de Milne sous un flot de neige incessant qui complique pas mal notre progression. Les pulkas s’enfoncent dans la neige fraîche et  freinent notre avancée. Le beau temps est revenu aujourd’hui avec le froid et un nouvel objectif pour nous : rejoindre Jameson Land.

jameson-land
Carte de Jameson Land

La banquise a l’air solide : les températures sont de saison et maintiennent donc une bonne stabilité du manteau neigeux et de la banquise qu’il protège.

En revanche, les précipitations sont abondantes : environ 30cm sont tombés ces 4 derniers jours, ce qui correspondrait plutôt à une quantité mensuelle pour une saison normale.

Ce n’est pas pour nous déplaire : les faces les plus raides des sommets qui nous entourent sont plaqués de neige.

On vous laisse avec une photo de notre camp ce matin.
A la semaine prochaine. »

semaine 2

Pour en savoir plus sur cette expédition :

Les épisodes précédents:

Ce radiateur produit de la chaleur et des revenus

Les ordinateurs sont un gisement de chaleur fatale dont l’exploitation est en vogue dans les grandes fermes de serveurs (datacenters). A l’échelle d’un logement, ils forment aussi une source de chauffage pertinente, voire une source de revenus. C’est le principe du radiateur QC-1 de l’entreprise Qarnot, dévoilé début mars : équipé de deux processeurs graphiques RX580 de marque AMD, le QC-1 produit une puissance calorifique totale de 650 watts, cette chaleur étant dégagée par le minage de crypto-monnaies. Le revenu mensuel engendré par cette opération atteindrait une centaine d’euros, selon le communiqué officiel de Qarnot.

Cette jeune entreprise sise à Montrouge (Hauts-de-Seine) n’en est pas à son coup d’essai. Depuis 2013 et dans le cadre de projets de réhabilitation, elle commercialise auprès des bailleurs le radiateur QH-1 (autrefois Q-Rad), embarquant un ordinateur dont la puissance de calcul est allouée à la demande. «Nous vendons les radiateurs au bailleur et nous remboursons la consommation électrique, explique Miroslav Sviezeny, directeur général et cofondateur de Qarnot. En contrepartie, nous vendons de la puissance de calcul via notre plateforme cloud à des salles de marchés, à des spécialistes de l’animation 3D… Plus de 500 unités du Q-Rad sont aujourd’hui déployées dans des bureaux et des logements collectifs, principalement en région parisienne. Ce nombre sera doublé d’ici à septembre, avec la livraison d’un immeuble mixte à Bordeaux.»

Amorti au bout de deux à trois ans

Le modèle économique QC-1 diffère, donc. «Bien qu’une offre existe pour les professionnels, ce modèle s’adresse en priorité aux particuliers, précise Miroslav Sviezeny. Il est vendu 2900 € via notre site Internet, d’autres distributeurs pouvant s’ajouter par la suite. Techniquement, il est découplé de notre plateforme cloud et opère de manière indépendante. Les prérequis sont une prise électrique standard et un accès réseau filaire à Internet. Une liaison ADSL est suffisante, alors que le QH-1 réclame une liaison fibrée. Trois crypto-monnaies sont préconfigurées – Zcash, Monero et Ether – et le minage est automatique. Si une crypto-monnaie plus rentable fait son apparition, une mise à jour pourra la prendre en compte. Sinon, notre Github permet de paramétrer la monnaie de son choix.»

La puissance est réglable via le thermostat intégré ou l’application mobile : le radiateur, silencieux en l’absence de ventilateur et de disque dur, peut être éteint l’été et fonctionner à plein régime l’hiver, les deux résistances de 200 watts complétant les 450 watts fournis par les deux processeurs graphiques. De quoi chauffer une pièce de 20 m2 selon Qarnot, la qualité de l’isolation étant à considérer. Cette même application mobile indique la tendance des cours des crypto-monnaies et en déduit le niveau de revenus.

«L’amortissement varie entre deux et trois ans au cours actuel» estime Miroslav Sviezeny, qui admet que ces cours sont volatils. En témoigne la monnaie Ether, qui a perdu 30% de sa valeur depuis la présentation officielle du QC-1. Deux autres facteurs interviennent dans le calcul : le coût du kilowatt-heure, plutôt bas et stable en France pour les particuliers, et l’efficacité du minage, elle-même dépendante de la puissance de traitement. Or, l’obsolescence des circuits graphiques est rapide. Qarnot réfléchit à mettre en place à l’avenir une procédure de reprise du QC-1, quand apparaîtront des versions plus performantes. Quoi qu’il en soit, le rendement demeurerait suffisant pour contrebalancer la consommation électrique du radiateur.

Frédéric Monflier

Energy Observer : Le Solar Impulse des mers

Un laboratoire flottant

L’Energy Observer a beau être un bijou de technologie ultra-moderne, ce catamaran a déjà une belle histoire comme le raconte à Techniques de l’Ingénieur son fondateur Victorien Erussard : « C’est un bateau emblématique qui a remporté le record du tour du monde à la voile en 1994 lorsqu’il était piloté par Sir Peter Blake. Depuis, il était plus ou moins en sommeil, et nous avons décidé de le racheter pour lui donner une seconde vie ». Le navire n’a plus grand chose à voir avec sa première version. Il a été refait de fond en comble pour l’alléger et le transformer afin d’en faire un laboratoire d’énergies renouvelables sur eaux. « C’est une sorte de Solar Impulse des mers », s’amuse son capitaine, en référence à l’avion propulsé uniquement par des panneaux photovoltaïques.

energy-observer-big
©Romain Chicheportiche

Energy Observer fonctionne en effet avec deux moteurs électriques (un à babord, l’autre à tribord) alimentés par 120 m² de panneaux solaires issues de trois technologies (conformable, bifaciale et avec un revêtement antidérapant) cumulant 21 kWc. Le vent ne pousse pas de voile, mais fait tourner deux éoliennes à axe vertical muni d’un système antivibratoire d’1 kW chacune. Enfin, les deux moteurs produisent également de l’électricité par hydrogénération de 2x2kW. Deux systèmes de stockage viennent compléter l’ensemble pour pallier à l’intermittence : des batteries de puissance lithium-ion de 400 V/106 kWh et 8 réservoirs à hydrogène cumulant 62 kg en charge pleine. Le tout est piloté par un système de monitoring en temps réel qui gère et optimise les flux énergétiques.

Le problème, c’est la vitesse

Le concept a déjà été éprouvé et il a montré qu’il fonctionnait lors des 4 000 miles nautiques déjà parcourus au large de la France en 2017. « Nous avons à cette occasion pu tester les systèmes en conditions réelles et avons depuis éliminé les défaillances techniques qui apparaissent toujours lorsque l’on passe des phases de tests en laboratoire à la réalité. Aujourd’hui nous sommes prêts », indique Victorien Erussard, qui a reçu le concours notamment de l’Institut national énergie solaire (INES) et du CEA-Liten. « Nous avons d’ores et déjà atteint notre objectif de l’autonomie énergétique, mais nos vitesses restent relativement faibles, de l’ordre de 4 à 5 nœuds. Pour démontrer que notre concept peut être répliqué à une échelle commerciale, il nous faut atteindre le double, ce qui représente un enjeu considérable ». En effet, le besoin d’énergie grimpe de manière exponentielle à mesure que la vitesse augmente : NRJ nécessaire = vitesse au carré.

IMG_4123
©Romain Chicheportiche

Sensibiliser et apprendre

Lors de son voyage en Méditerranée, puis autour du monde, l’Energy Observer va faire plus d’une centaine d’escales dans 50 pays pour sensibiliser la population mondiale aux problématiques de changement climatique et d’énergies renouvelables. Des tentes seront montées à chaque point d’arrêt pour présenter le projet et les réseaux sociaux seront massivement mis à contribution pour faire partager le quotidien de l’équipage d’une petite quinzaine de personne. Parmi eux, Jérôme Delafosse, chef d’expédition, réalisera des documentaires sur le navire, mais aussi sur les projets innovants en matière de transition énergétique rencontrés à travers le monde. Car l’Energy Observer compte bien continuer à promouvoir un nouveau modèle énergétique : « En, mer nous avons autant besoin de soleil que de vent, des batteries que de l’hydrogène. Il en va de même sur terre. Les énergies alternatives et les moyens de stockage sont complémentaires et nous devons apprendre à les faire fonctionner ensemble : il n’y a pas une seule solution contre le réchauffement climatique, mais une multitude de possibilités », conclue Victorien Erussard.

Romain Chicheportiche

« L’hydrogène dans la transition énergétique » : une note technique de l’ADEME

L’ADEME mentionne dans son document l’expérimentation de l’hybridation batterie + hydrogène au niveau d’un magasin Biocoop d’Avignon ainsi que sur un site isolé sur l’île de La Réunion : « Le village de La Nouvelle, au cœur du Cirque de Mafate à La Réunion, expérimente depuis l’été 2017 un système de stockage hybride batterie / chaîne hydrogène, dans le cadre d’un projet porté par EDF SEI et le Sidélec (Syndicat d’électrification de La Réunion) et soutenu par la Direction Régionale ADEME. L’installation comprend une production PV (7,8 kWc), des batteries lithium (15,6 kWh), un électrolyseur et une pile (3 kW) et un stockage d’hydrogène (3 kg). L’ensemble permet à trois bâtiments (le dispensaire, l’école et le bâtiment de l’ONF) d’être 100% autonome en énergie. Si l’expérimentation est concluante, elle sera étendue à l’ensemble du village qui pourra alors se passer du fioul qui alimente ses groupes électrogènes. »

La batterie assure le stockage quotidien. Le système hydrogène n’intervient de son côté que pendant les longues périodes de pénurie solaro-éolienne. Ce « prolongateur d’autonomie » a donc un rôle marginal. Utiliser des générateurs thermiques classiques à leur place est bien meilleur marché. Et probablement acceptable sur le plan écologique étant donné qu’il s’agit d’usages très ponctuels.

Selon l’agence Bloomberg « pour être une solution, les coûts du stockage hydrogène devront baisser drastiquement. Un système à base d’hydrogène coûte environ 10 fois plus cher qu’un back-up à base de générateurs diesel ayant une puissance équivalente, selon une présentation de Toshiba Corp durant la World Smart Energy Week à Tokyo en mars 2017 ».

L’ADEME envisage par ailleurs de recourir à l’hydrogène pour les véhicules lourds professionnels. Ceci en phase avec la déclaration d’Emmanuel Macron du 22 mars 2018:  « Ils’agit de s’engager dans une révolution des transports en généralisant les véhicules électriques et à hydrogène et en convertissant les flottes de poids lourds au gaz. C’est une stratégie nationale que nous avons engagée. Elle doit aussi s’accélérer sur le plan Européen ». Là encore il est permis de douter. C’est précisément pour les véhicules lourds (et donc fortement consommateurs en énergie) et pour les longs kilométrages quotidiens que les véhicules électriques à batteries sont les plus pertinents économiquement. Recourir à des camions électriques à batterie sera bien plus économique que tout autre mode de transport des marchandises :   par exemple $0.85 par mile avec une flotte de camions Tesla contre $1.51 avec un train (un mile = 1,6 kilomètre). La banque Morgan Stanley estime que les camions Tesla auront un coût de fonctionnement 70% moins élevé que les camions Diesel. « Ce n’est pas seulement un suicide économique pour les camions diesel, c’est une suicide économique pour le transport ferroviaire » a estimé Elon Musk. L’analyste Adam Jonas a déclaré : « Nous pensons que les révélations de Tesla sur leur camion semi-remorque autonome et électrique de classe 8 pourraient constituer le plus grand déclencheur de l’industrie des camions et séparer définitivement les leaders en matière de technologie de ceux qui sont à la traîne ».

Selon l’ADEME, « De récentes simulations technicoéconomiques réalisées par Artelys pour l’ADEME indiquent qu’à l’horizon 2035, le système électrique (français ndlr), comprenant 64% de renouvelables, peut fournir 30 TWh/an d’hydrogène pour un coût inférieur à 5 €/kg, qui est compétitif pour des usages dans la mobilité et l’industrie. Dans ces simulations, le coût moyen de l’électricité consommée par les électrolyseurs s’établit à 42 €/MWh ».

Mais « le rendement énergétique de la chaîne hydrogène et les risques accidentels associés à son utilisation sont des questions qui font régulièrement débat. Ces débats sont légitimes, ils pointent les contraintes attachées à cette technologie, qui doivent être prises en compte dans sa mise en œuvre concrète.

L’hydrogène n’étant qu’un vecteur énergétique, il suppose une succession de transformations, entre source primaire d’énergie et énergie finale utilisée. Le rendement de l’électrolyse – permettant via un courant électrique de décomposer la molécule d’eau en hydrogène et oxygène – est actuellement de l’ordre de 70%. La compression de ce gaz est également consommatrice d’énergie, et la recombinaison de la molécule d’eau dans la pile, pour fournir de l’électricité à nouveau, se fait avec un rendement de l’ordre de 45%. Le rendement global de la chaîne, de l’électricité primaire à l’électricité utile restituée, se situe ainsi dans une fourchette de 20 à 30% selon les applications, la pression de stockage considérée, les schémas logistiques…

Pour cette raison, et dans le but d’une efficacité globale des systèmes énergétiques, le stockage électrochimique à batterie est à privilégier lorsque cela est possible. Le rendement de ce type de stockage est en effet meilleur, supérieur à 80%. Par exemple, dans le domaine de la mobilité, le véhicule électrique à batterie seule est à préférer pour les profils d’usage qui peuvent être couverts par ce type de véhicule, selon l’autonomie énergétique souhaitée, la disponibilité du véhicule requise… Le recours à l’hydrogène est à considérer lorsque cette solution n’est plus opérante ».

Jean-Gabriel Marie

Energy Observer : un bateau à batterie lithium

Observons Energy Observer (ex trophée Jules Verne): le système à hydrogène n’est activé que quand les batteries (106 kWh, soit l’équivalent du réservoir d’une Tesla S haut de gamme) n’ont plus assez d’énergie en réserve pour compléter l’alimentation électro-solaire directe. Les voiliers sont équipés de moteurs thermiques de secours (bon marché), mais on ne les appelle pas pour autant « bateaux à moteur ». C’est le système énergétique principal qui confère le nom de « voilier » (bateau à voile).De même l’Energy Observer est donc plutôt un bateau électro-solaire à batterie lithium-ion (système principal) à prolongateur hydrogène (système secondaire). 

L’avion Solar Impulse est parvenu à faire le tour du monde (en plusieurs étapes dont la traversée de l’Atlantique en 5 jours) en recourant uniquement à des batteries, et pas du tout à l’hydrogène. Or dans les airs une panne énergétique est plus préoccupante qu’en mer.  Selon  Forsee Power, « le système batteries » d’Energy Observer est « constitué des modules Flex EP7 et des systèmes de gestion BMS (Battery Management System) et Master-BMS ». Commercialisé depuis 2012, « la technologie Forsee Power garantit un haut niveau de sécurité, de fiabilité et de durée de vie, et dispose d’une expérience dans les applications marines. » Une photo des batteries de l’Energy Observer est disponible sur cette page.

L’intérêt pédagogique d’Energy Observer est en réalité de montrer que l’hydrogène jouera un rôle très marginal dans la révolution énergétique globale, à l’inverse de la batterie qui sera au centre de cette révolution. En fait, grâce aux prévisions de météo marine, Energy Observer fonctionnerait très bien même si on lui enlevait son (coûteux et encombrant) système de secours à hydrogène qui comprend des dessalinisateurs, des compresseurs énergivores à deux étages 30 et 350 bars, et des réservoirs en plus d’un électrolyseur et d’une pile à combustible. La multiplication des pièces augmente les risques de pannes. « La simplicité est la mère de la beauté ». A fortiori en milieu maritime. Sur le plan énergétique chaque kWh photovoltaïque qui entre dans le système à hydrogène est hautement dégradé. Il reste moins de 0,25 kWh utilisable en bout de chaîne. L’électrolyse, à elle seule, consomme environ 30% de l’énergie. La compression de l’H2 à 350 bars, environ 15%. Le passage dans la pile à combustible engloutit environ 50% de ce qui reste. Le dessalement est également énergivore. Sans parler des fuites: H2 est une molécule minuscule. Energy Observer a coûté 5,5 millions d’euros pour sa conversion, et va coûter 4 millions d’euros par an. La moitié de ce budget est bouclée.

Au final Energy Observer est un bateau très lent. « Le bateau n’a aucun souci d’autonomie lorsqu’il navigue à 3 ou 4 nœuds (entre 5,5 et 7,4 km/h ndlr), il est pour l’instant handicapé dès lors qu’il veut aller vite », explique l’Usine Nouvelle. « Et là c’est tout un équilibre à trouver, par exemple, sur l’usage des éoliennes, verticales, qui produisent de l’électricité mais peuvent freiner le bateau. De même pour l’utilisation des hélices en mode inversé comme hydroliennes pour produire de l’électricité lorsque le bateau est tracté par le kite. »  Un marcheur moyen fait du 5 km/h, un marcheur athlétique, 7 km/h. Le capitaine va-t-il finir par remettre ses voiles d’origine à cet ancien voilier ? Des voiles photovoltaïques ? Le Vestas Sailrocket 2, piloté par l’australien Paul Larsen, détient depuis le 18 novembre 2012 le record du monde vitesse à la voile sur un mile nautique : 59,37 noeuds (109,94 km/h). L’Energy Observer, sans son mât et chargé de son nouveau système de propulsion, a du plomb dans les ailes.

Mais l’industrie Oil&Gas semble vouloir utiliser ce bateau en tant que vecteur médiatique de l’ « Hydrogen Economy », concept émis pour la première fois par Georg W. Bush lors de son discours sur l’état de l’union en 2003. Engie, ex-GDF-Suez (GDF = Gaz de France) est devenu fin mars 2018 le principal partenaire d’Energy Observer, aux côtés d’Air Liquide dont le service communication a diffusé le message suivant le 25 mars 2018: « Energy Observer, navire futuriste équipé de moteurs alimentés par des panneaux solaires, des éoliennes, mais surtout un électrolyseur qui transforme l’eau de mer ». Toyota, promoteur de la voiture à hydrogène, a aussi rejoint le navire communicationnel. « Energy Observer prouve que l’on peut complètement fonctionner aux EnR, et démontre que l’hydrogène est bien le chaînon manquant pour aller vers un monde sans émissions de CO2 » a renchérit depuis Marseille Michèle Azalbert, directrice de la Business Unit « Hydrogène renouvelable » au sein d’Engie.Le capitaine d’Energy Observer adopte l’angle communicationnel de l’ouverture à la diversité et de la tolérance technologique en plaçant sur le même plan batterie et hydrogène: « En mer, à bord d’Energy Observer, nous avons autant besoin du soleil que du vent, des batteries et de l’hydrogène. Il en est de même sur terre. Les énergies et les moyens de stockage sont complémentaires et nous devons apprendre à les faire fonctionner ensemble : il n’y a pas une seule solution contre le réchauffement climatique, mais une multitude de possibilités. ». Or c’est le trio solaire + éolien + batterie qui constitue le cœur du système énergétique de demain. L’hydrogène est un outil périphérique de secours, une bouée de sauvetage durant les rares périodes à la fois sans vent et sans soleil pendant plusieurs jours d’affilés. C’est la batterie (très efficiente) le pilier du système, tant dans l’avion Solar Impulse que dans son cousin des mers, Energy Observer. De même que c’est la STEP (Station de Transfert d’Energie par Pompage qui est une batterie hydraulique) qui est l’axis mundi du système électro-éolien de l’île canarienne d’El Hierro. Pas sa bouée thermique. L’île de Tesla (Ta’u, Samoa américaines) a remplacé la STEP par des batteries lithium (stockage électro-chimique). Et ce sont bien les batteries les cerveaux énergétiques de ce système électrique insulaire, pas les générateurs diesel de secours.

D’un point de vue biomimétique la batterie c’est comme un muscle, le foie ou le sang qui stockent le glucose, tandis que le système à hydrogène c’est comme les cellules adipeuses du ventre ou des cuisses qui stockent la graisse. Le système énergétique principal repose sur le glucose, celui qui repose sur la graisse est secondaire et n’est utilisé qu’en situation de pénurie alimentaire. Les sportifs de haut niveau disposent généralement de très peu de réserves lipidiques.

« Après avoir fait l’apologie des biocarburants ces dernières années, l’Union pétrolière semble en train de prendre fait et cause pour l’hydrogène » a remarqué la Tribune de Genève à l’occasion du salon automobile de Genève 2018. « Il est logique pour l’industrie des combustibles fossiles de faire pression pour la voiture à hydrogène, car pour eux, l’hydrogène est essentiellement une extension de leurs produits » avait dès 2015 analysé l’AVEQ, l’Association des Véhicules Électriques du Québec. « En d’autres termes, « l’économie de l’hydrogène » c’est « l’économie des combustibles fossiles » avec une teinte verte. La voiture pile à combustible est une technologie de substitution. En cas de succès, l’hydrogène viendrait tout simplement remplacer l’infrastructure de distribution des combustibles fossiles avec une infrastructure miroir, pour l’hydrogène. »  Selon le président de l’AVEQ (6 mars 2018) « le choix de l’hydrogène ne va que retarder les nombreux projets électriques, ce qui sera dommageable et même néfaste pour l’électrification des transports. » Comme le dit le dicton, « l’hydrogène, c’est du pétrole en smoking ». L’élément « le plus abondant de l’univers » est l’arbre qui cache la forêt du gaz fossile. Il optimise sa valeur corporate.

L’hydrogène: un parangon du gaz fossile

Il n’y a pas qu’en mer que les batteries marginalisent les solutions gazières. Sur Terre les ventes de voitures électriques à hydrogène ne parviennent pas du tout à décoller, contrairement à celles des voitures électriques à batterie qui sont 2,5 fois plus efficaces sur le plan énergétique. Les déboires de Tesla, qui ne parvient pas à produire en masse sa Model 3, ne changeront rien à cette tendance de fond drivée par l’Asie. « Quand les bisons ont adopté une direction, rien ne pourrait ni enrayer ni modifier leur marche. C’est un torrent de chair vivante qu’aucune digue ne saurait contenir » remarquait Jules Verne. En Allemagne, le groupe Linde a été contraint de stopper son projet de voitures à hydrogène partagées car elles ne sont pas compétitives face aux voitures à batteries partagées. Et aux USA le gaz fossile (méthane qui assure aujourd’hui 95% de la production mondiale d’hydrogène), malgré le boom du gaz de schiste, est en déclin. Les solutions solaire + éolien + batterie sont meilleures marché et menacent le business Oil&Gas souligne l’agence Bloomberg New Energy Finance (BNEF).

Face à l’effondrement du coût du solaire et/ou éolien + stockage batterie le marché des centrales à gaz s’effondre comme une peau de chagrin. General Electric (GE) et Siemens ont à présent du mal à vendre leurs turbines à gaz, et cela impacte leur valeur boursière. Ces deux géants américain et allemand suppriment des milliers d’emplois à l’échelle mondiale.  Comme l’a rapporté le Financial Times, le directeur exécutif de Siemens, Joe Kaeser, a posé une question provocante aux journalistes le 9 novembre 2017. Savent-ils combien de turbines a gaz ont été commandées en Allemagne durant les trois dernières années ? « Je vais vous le dire », a-t-il déclaré. « Un total de deux ! ».

« La fin du gaz naturel est proche » estime Danny Kennedy, Directeur exécutif du Fond Californien de l’Energie Propre (CalCEF). C’est paradoxal en contexte de boom du gaz de schiste, mais « rien ne saurait étonner un américain » estimait Jules Verne. « Au milieu de la folie de 2017 un changement important est davantage passé inaperçu que probablement tout autre aux sommets de l’économie : le gaz naturel a disparu du plan pour l’avenir » a ajouté Kennedy. « C’est majeur. Le gaz naturel n’est plus un concurrent ou un prétendant mais juste un vestige du passé, susceptible de tomber aussi lourdement et aussi vite que le vieux roi charbon, et peut-être plus vite ».

La DG d’Engie, Isabelle Kocher, a une autre vision (septembre 2017) : « Le gaz naturel est une source d’énergie indispensable pour arriver au scénario du tout renouvelable. » Il est, selon la dirigeante, la « clé de voûte de la révolution énergétique ». Mais si « le gaz naturel a tué le charbon, maintenant les renouvelables et batteries prennent le dessus »  a constaté The Guardian le 29 janvier 2018.  « Pour éviter un dangereux changement climatique, nous ne pouvons pas compter sur le gaz naturel remplaçant le charbon » a ajouté le média britannique.

« Une nouvelle ère de batteries sème le trouble pour le gaz en Amérique »  a renchérit l’agence Bloomberg à New-York. Le média indien The Economic Times a enfoncé le clou: « Les batteries tueront les fossiles. C’est juste une question de temps ». Et le San Francisco Gate a titré le 31 mars 2018: « Batteries incluses: même l’énorme projet saoudien de ferme solaire les utilisera ». Une ferme solaire PV + stockage batterie de 7,2 GW devrait voir le jour dès 2019. Le japonais SoftBank a fixé un objectif global saoudien de 200 GW à horizon 2030. Un élément clé de ce projet sera la construction de la plus grande batterie du monde en deux ou trois ans, et qui délivra de l’électricité solaire aux consommateurs durant les soirées a déclaré Masayoshi Son, fondateur de SoftBank. Parallèlement le groupe français EDF a annoncé le lancement d’un « plan stockage électrique » de 10 GW à horizon 2030 portant sur des batteries et des STEP. Selon l’analyste Chris Thompson, il y a 10 raisons expliquant pourquoi les batteries sont plus intéressantes que les turbines à gaz (peakers).

Ce que la chenille appelle la fin du monde, le sage l’appelle le papillon

Selon le San Francisco Gate les « batteries incluses (du projet saoudien) constituent un signal majeur qui marque un point de bascule de l’industrie ». Dans ce contexte, même avec un gros budget de communication médiatique et un joli bateau  pour renforcer le hype, l’Hydrogen Economy (qui s’incrit dans une logique de substitution) pourrait avoir du mal à s’imposer face à l’Electron Economy, concept du physicien suisse Ulf Bossel qui s’inscrit dans une logique de métamorphose. L’Electric Economy (formule du PDG de Tesla, Elon Musk) est dans tout les cas bien plus efficiente sur le plan énergétique.

Thierry Lepercq, VP innovation d’Engie, le 25 avril 2017 lors d’un débat sur l’avenir de l’électricité en présidence du directeur innovation d’EDF (à 15’27 dans la vidéo): « Un débat technologique (…) Assurer au centième de seconde la stabilité du réseau (…) Il y a un sujet absolument central chez Engie, qui est l’hydrogène-énergie. La production d’hydrogène à grande échelle dans une logique minière, j’insiste sur le mot minière, avec du solaire et de l’éolien très abondants dans certaines régions du monde, au prix du gaz naturel liquéfié. Il s’agit de remplacer le pétrole et le gaz à un horizon relativement rapide. Mais tout cela n’a de sens que si c’est intégré dans un système et ce système-là ne peut être qu’électrique. C’est l’électricité qui fait système, c’est l’électricité qui connecte tous les usages, c’est l’électricité où les plateformes logicielles doivent fonctionner, c’est aussi l’électricité sur un plan industriel où on a en France une occasion absolument unique de créer une industrie qui soit comme cela a été pour le nucléaire ou l’hydroélectrique il y a encore plus longtemps, un leader mondial. »

Jean-Gabriel Marie