Planter 1200 milliards d’arbres pour limiter le réchauffement

Selon les prévisions du GIEC, la hausse des températures mondiales pourrait atteindre +1,5°C, dès 2030. Il y a donc urgence à diminuer les émissions de gaz à effet de serre. Mais alors que les émissions continuent à augmenter, Jean-François Bastin et Thomas Crowther, chercheurs à l’Ecole polytechnique fédérale de Zurich (Suisse) proposent, dans une étude parue dans Science, de séquestrer le carbone déjà présent dans l’atmosphère.

Replanter des arbres massivement

Leur idée idée est simple. Pour limiter le réchauffement climatique à +1,5°C d’ici 2050, il suffirait d’ajouter 900 millions d’hectares de forêts aux 2,8 milliards d’hectares actuels. Ils seraient plantés sur des terrains abandonnés, sans toucher aux terres urbaines ou agricoles existantes. Cela reviendrait à recouvrir d’arbres une surface équivalente à celle des États-Unis. Les 1200 milliards de nouveaux arbres stockeraient 205 gigatonnes de carbone, sur les 300 émises par les humains dans l’atmosphère depuis le 19e siècle. Soit environ cinq fois la quantité mondiale émise en 2018. Les forêts actuelles en stockent déjà 400 gigatonnes. Thomas Crowther estime le coût d’un tel projet à 300 milliards de dollars.

« Sans les humains, il y aurait 5800 milliards d’arbres sur Terre. On a réduit ce nombre de moitié, donc il n’y a que 3000 milliards d’arbres environ aujourd’hui », explique Thomas Crowther à franceinfo. Il en manque donc 2800 milliards. Impossible de tous les replanter : il n’y a plus assez d’espace, « parce qu’il y a des terres occupées par l’agriculture ou par des zones urbaines ».

Où planter tous ces arbres? Pour répondre à cette question, les chercheurs ont analysé la couverture forestière actuelle grâce à près de 80 000 photographies satellites. Ils ont ensuite étudié la planète en fonction de dix caractéristiques du sol et du climat. Ceci a permis d’identifier des zones plus ou moins adaptées à différents types de forêts. Résultat : la moitié des zones reboisables sont concentrées dans six pays : la Russie, les Etats-Unis, le Canada, l’Australie, le Brésil et la Chine.

Une partie de la solution

Pour limiter le réchauffement climatique, la meilleure solution reste évidemment de laisser les hydrocarbures fossiles dans le sol. L’Inra rappelle en plus à Usbek & Rica que toutes les forêts ne sont pas des puits de carbone et que les incendies relâchent sous forme de CO2 dans l’atmosphère les stocks de carbone qui ont été accumulés pendant des décennies.

« Ce n’est pas comme ça que fonctionne le cycle global du carbone. La seule façon de stabiliser le climat est de faire baisser à zéro les émissions de gaz à effet de serre », explique Simon Lewis, chercheur à l’University College London dans un tweet. Reste que le GIEC recommande de planter un milliard d’hectares de forêt. Si ce n’est peut-être qu’une partie de la solution, cela ne ferait certainement aucun mal à la planète !

Les matériaux innovants repérés au Challenge Industrie du Futur

Lors de la finale Challenge Industrie du Futur le 6 juin 2019, deux entreprises qui développent de nouveaux matériaux ont attiré notre attention.

  • Carbon Waters : du graphène en dispersion aqueuse

La start-up Carbon Waters développe du graphène en solution aqueuse. Si le graphène en lui-même n’est pas nouveau, le produire en dispersion stable dans de l’eau lui permet d’être biocompatible, biodégradable et d’être compatible avec l’électrodéposition.

« On a mis en avant trois applications qui sont : la résistance des matériaux avec notamment le traitement anticorrosion, le management thermique qui va concerner l’amélioration de la dissipation de chaleur, et la conductivité électrique », explique Charlotte Gallois, chargée du développement à Carbon Waters.

Selon Emilien Comoret, ingénieur matériaux chez SKF, la startup réalise une rupture technologique : « En partant d’un matériau connu seulement depuis une dizaine d’années, Carbon Waters réussit à le synthétiser et à le fabriquer avec une grande pureté. Le gros challenge est d’arriver à le maîtriser et le dupliquer à des fins industrielles. Quand on arrivera à maîtriser ce dépôt, on pourra bénéficier de toutes les propriétés incroyables du graphène ».

  • SolCold : rafraîchir grâce aux rayons du soleil

De son côté, la startup israélienne SolCold propose un matériau qui refroidit grâce aux rayons du soleil.

« Nous développons un matériau multicouches qui réalise le mécanisme de fluorescence anti-Stockes, ou l’interaction entre photons et phonons, de manière à ce qu’une fois exposé aux rayons du soleil, le matériau baisse sa température et perde son énergie afin de devenir un matériau de refroidissement », explique Yaron Shenhav, CEO de SolCold.

Les applications sont nombreuses. Le matériau de SolCold pourrait être utilisé dans les immeubles, les voitures, les avions mais aussi dans les fibres vestimentaires ou dans la crème solaire.

Emilien Comoret est enthousiasmé par cette technologie : « La startup a un gros potentiel car pour le moment, on est obligé d’utiliser de l’énergie pour refroidir une pièce. SolCold propose un matériau totalement passif. Les applications peuvent être très intéressantes, autant chez les particuliers que les industriels ».

Objectif Lune : les meilleures innovations technologiques

Pour s’installer durablement sur notre satellite naturel, il va falloir maîtriser tout autant le lieu d’habitation, les modes de transports que l’accès aux ressources (énergie, eau, gaz, vie biologique). Tout un écosystème à recréer qu’il faut construire et entretenir. Parmi les secteurs technologiques les plus mis à contribution, on retrouve bien évidemment la robotique.

Des robots à gogo

Le secteur robotique est particulièrement sollicité pour les projets d’implantation sur la Lune : que ce soit en orbite sur le Gateway, sur les différents véhicules, pour l’exploration, les activités minières, la maintenance etc., les robots doivent permettre à la fois de préparer l’implantation, d’explorer, de construire et d’éviter la mise en danger ainsi que les travaux difficiles aux futurs astronautes (expositions aux radiations, à la poussière, aux météorites etc.). Symboliquement, le premier partenariat international officiellement signé pour le Gateway porte d’ailleurs sur un bras robotisé. Le Canadarm3 sera ainsi conçu et assemblé par l’agence spatiale canadienne. Les précédentes versions de ce bras équipent déjà l’ISS et la navette spatiale. Cette fois le Canadarm devrait inclure en réalité deux bras : un principal pour les réparations et les sorties, et un deuxième plus petit pour des tâches plus précises et plus complexes, un peu comme un « homme à tout faire robotique », pour des opérations de maintenance notamment. En outre, le Canadarm 3 doit aussi pouvoir être autonome pour un certain nombre de travaux puisque le Gateway fonctionnera régulièrement sans la présence d’un équipage humain, contrairement à l’ISS. Pour le Canada, il fait partie du budget spatial alloué pour les 24 années à venir : 1,56 milliard de dollars pour le développement du bras et pour un soutien aux PME canadiennes qui développent des solutions technologiques, robotiques, d’IA etc. dans le secteur spatial.

Et les robots ne sont pas que de bras ou des véhicules terrestres, ils pourront aussi être volants. Le 14 juin dernier, Bumble est ainsi devenu le premier Astrobee mis en service. Les Astrobees sont des robots volants en microgravité. Ils sont là pour aider l’équipage de la station spatiale internationale dans des tâches de routine (monitorage d’expérience, surveillance environnementale, inventaire, prise d’image) et devraient être ensuite utilisés en assez grande autonomie dans le Gateway. Ils constituent aussi une plateforme d’accueil pour des expériences en gravité zéro. Les Astrobees peuvent se déplacer dans toutes les directions, tourner sur eux-mêmes et sont munis d’un bras pour pouvoir s’amarrer à différents endroits de l’ISS. Leur système de navigation s’appuie sur des caméras et ils fonctionnent sous Android, permettant des développements rapides et aisés de leurs fonctionnalités. Ils peuvent être commandés à distance par les astronautes ou depuis la Terre. Ils font suite aux Spheres en fonction dans l’ISS depuis 10 ans.

La conquête de la Lune représente à terme un débouché très intéressant en termes de recherche et développement pour le secteur robotique, car elle demande exigence et créativité et ce, pour des applications extrêmement variées.

Habitat : il faut préparer le terrain

Parmi les nombreuses recherches en cours sur les technologies possibles pour installer une station habitée sur la Lune, la plupart des pays envisagent une préparation du site via des robots déposés sur la Lune. Fin mars 2019, l’agence spatiale japonaise (JAXA) et ses partenaires ont présenté les tests de leur solution pour préparer le terrain et installer un module d’habitation. Des engins télécommandés depuis la Terre avec des ajustements automatiques pour compenser les délais de communication.

Les Japonais ont ainsi identifié quatre étapes clés pour l’installation d’un module d’habitation : préparation du terrain, excavation, installation du module, enterrement (pour la protection contre les météorites). Les quatre phases ont été testées sur terre à l’aide d’engins de chantiers de l’ordre de 7 tonnes munis de différents capteurs et fonctionnalités intelligentes (reconnaissance du terrain et adaptation,) avec un travail pour recréer d’éventuels incidents (coupure du signal, coupure de la géolocalisation, interférences entre les différentes commandes des différentes machines etc.). Les tests effectués ont montré la faisabilité de cette option de construction (voir cet article de la JAXA. De manière générale, la problématique de l’habitat spatial et extra-terrestre stimule l’imagination, les projets et les concours sur cette thématique en témoigne (cf. La NASA planche sur les habitats spatiaux et Une maison dans l’espace : 6 projets incroyables).

Transport : plus loin, plus vite

Une installation durable sur la Lune signifie aussi le besoin de se déplacer facilement, à l’abri des radiations et de la poussière. Fini donc le rover style jeep des missions Apollo. Place à un véhicule fermé et d’une autonomie redoutable pour aller explorer facilement, vite et loin. Parmi les projets, on peut noter celui des Japonais. Début mars 2019, la Jaxa annonçait qu’elle travaillait avec Toyota au développement d’un rover lunaire : un véhicule pressurisé prévu pour transporter 2 astronautes (4 en cas d’urgence). Ce véhicule, imposant, serait alimenté par des piles à combustibles avec une autonomie de l’ordre de 10 000 km. De quoi parcourir à peu près la Lune d’un pôle à l’autre aller-retour ! Les plans actuels prévoient une longueur de 6 m sur 5,2 de large et près de 4 m de hauteur. Muni de 6 roues, l’espace de vie intérieur serait de l’ordre de 13 m3 et il pourrait transporter jusqu’à 500 kg de charge utile.  Sinon, les concepts actuels de village lunaire prévoient de manière générale un déplacement souterrain par tunnel avec ou sans véhicule léger entre les différents bâtiments.

L’impression 3D, une technologie centrale

La plupart des projets d’installation sur la Lune s’appuient sur des technologies d’impression 3D pour exploiter les ressources locales, notamment le régolithe comme matériau de construction ou encore pour pouvoir fabriquer des pièces de rechange pour la maintenance. En 2013, l’ESA avait déjà mis en avant deux sociétés qui travaillaient sur la construction d’une station à partir de l’impression 3D. C’était par ailleurs le thème du concours de la Nasa de projets d’habitat lunaire en 2015. Six ans plus tard, les technologies n’ont de cesse de s’améliorer et les projets deviennent concrets. A titre d’exemple, en mai 2019, l’avenir du projet « Moonrise », issu d’une coopération entre le centre du laser d’Hanovre et l’institut des systèmes spatiaux (IRAS) de l’université technique de Braunschweig, est présenté. Ce projet vise à mettre au point un équipement laser capable de fondre le régolithe lunaire pour l’imprimer en 3D via une commande qui passent par des caméras à haute résolution. La technologie doit être testée en conditions réelles, sur la Lune, lors de la première mission de PTScientists en 2021. PTScientist est une start-up allemande qui collabore avec les principaux partenaires spatiaux mondiaux (ESA, DLR, Arianegroup) avec des bureaux à Berlin, Salzbourg et Houston (USA) et qui met au point un atterrisseur lunaire (Alina) et deux rovers qui doivent s’envoler avec l’un des premiers vols d’Ariane 6 en 2021. Si l’expérience est concluante, le procédé sera mis à une échelle suffisante pour produire des structures plus grandes telles que des fondations, des couloirs ou des surfaces d’atterrissage. Le projet est soutenu financièrement par la Fondation Volskwagen et son programme « Open – for the Unusual ». La mission de PTScientist s’inscrit quant à elle dans le programme ISRU de l’ESA (In-situ Resource Utilisation) qui vise aussi à tester des méthodes d’extraction d’oxygène ou d’eau à partir des ressources lunaires locales.

Mais ce ne sont là que quelques exemples. La R&D autour des technologies et des solutions pour l’exploration spatiale et l’installation sur la Lune concerne des milliers d’entreprises et d’étudiants à travers le monde dans des domaines aussi divers que la génomique, l’agronomie, les sciences des matériaux, l’énergie, la robotique, l’intelligence artificielle ou la psychologie. Avec à la clé, le développement d’applications qui pourront être transférées à d’autres industries sur Terre.

Espace : ce que la conquête de la Lune va apporter à la science

Sur les douze hommes qui ont posé le pied sur la Lune, un seul était un scientifique : Harrison Schmitt, un géologue. Et encore, il a été repêché de justesse pour intégrer l’équipage d’Apollo 17 sur pression de la communauté scientifique. Mais son expérience et sa connaissance du sujet n’auront pas été vaines. Parmi les 110 kg de roche lunaire rapportée par cette mission, on trouve l’échantillon « Troctolite 76535 » qui a été surnommé « sans aucun doute l’échantillon le plus intéressant en provenance de la Lune », notamment car il constitue un indice fort que la Lune aurait possédé un champ magnétique actif. Alors, si les visées lunaires restent aujourd’hui à la fois géopolitiques et économiques, elles intègrent aussi cette fois pleinement les intérêts scientifiques. Et ils sont multiples et multiformes.

Une fenêtre sur le passé

On suppose aujourd’hui que la Lune est née de la collision entre la Terre et un objet de la taille de Mars. En apprendre plus sur la Lune, c’est en apprendre plus sur la Terre des origines. Notamment par l’étude de la face cachée où les cratères laissés par les impacts de météorites sont beaucoup mieux préservés et mettent à jour des roches du manteau lunaire, témoin de l’histoire de notre satellite. Par ailleurs, la face cachée de la Lune est particulièrement propice à l’écoute des ondes radio de l’Univers, à l’abri de la pollution radioélectrique de la Terre. Une place de choix pour installer des récepteurs à la recherche d’écho du Big Bang et de l’activité de l’univers. Certains cependant restent sceptiques sur l’intérêt d’étudier plus avant la Lune et pensent qu’on la connaît suffisamment grâce aux différentes sondes envoyées pour l’observer à l’aide de multiples appareils. Pour autant, les premiers résultats fournis par Chang’e-4, la mission chinoise qui s’est posée sur la face cachée en janvier 2019, ont révélé une composition minérale très différente de celle de la face visible avec la présence forte d’olivine et de pyroxène, vraisemblablement en provenance du manteau de la Lune – ce que n’avaient pu récolter les échantillons ramenés par les missions Apollo sur la face visible. Par ailleurs, des observations récentes montrent que la géologie et la dynamique géologique de la Lune pourrait réserver quelques surprises. Ainsi, on a découvert des traces d’activité sismique et tectonique en surface récentes (au sens géologique) dans des zones que l’on croyait inactives (bassins). On a ainsi noté l’apparition de crêtes datant de 1 milliard à 40 millions d’années alors que l’on pensait que dans ces zones, toute activité en surface avait cessé il y a plus d’1,2 milliard d’années.

L’Europe a préparé son approche

Du côté européen, l’agence spatiale européenne (ESA) a déjà formalisé les objectifs, les moyens et le planning pour la recherche scientifique liée à la Lune dans un document public de 45 pages publié en mai 2019. On y détaille les 7 grands priorités choisies pour les 10 prochaines années :

  • analyses d’échantillons lunaires ;
  • détection et caractérisation des glaces polaires et des éléments chimiques piégés dans le sol ;
  • déploiement d’instruments géophysiques pour construire un véritable réseau de mesures ;
  • identification et caractérisation des ressources potentielles pour une exploration future ;
  • déploiement de récepteurs radio de longues longueurs d’ondes pour l’astronomie depuis la face cachée ;
  • caractérisation et dynamique de la poussière, des charges, et de l’environnement plasma ;
  • caractérisation de la sensitivité biologique à l’environnement lunaire.

Le document explicite bien qu’il s’agit à la fois de sciences concernant la Lune elle-même (formation, histoire et évolution de la Lune), de sciences sur la Lune (expérimentations se basant sur les propriétés et l’environnement unique de la Lune faible gravité, fortes radiations etc.)  et de sciences depuis la Lune, notamment pour de l’astrophysique.

Sciences sans frontières

Désormais la science est au cœur des missions lunaires car les objectifs d’exploitation ou d’installation sur place nécessitent une connaissance fine du terrain pour choisir au mieux les cibles pertinentes ou les lieux réunissant les conditions idéales. Les pays engagés dans cette course à la Lune y mettent un enjeu médiatique et symbolique fort (USA, Chine, Inde par exemple) mais embarquent en parallèle de très nombreux outils de mesures. A titre d’exemple, la prochaine mission qui doit avoir lieu est la mission indienne Chandrayaan-2 qui doit être lancée le 15 juillet 2019. Elle est composée d’un orbiteur, d’un atterrisseur et d’un rover. L’orbiteur embarque cinq instruments visant à cartographier éléments chimiques, minéraux, eau sur différentes bandes spectrales et profondeurs ou encore à étudier finement l’exosphère de la Lune. L’atterrisseur sera notamment muni d’un sismomètre, d’un instrument pour mesurer les propriétés thermiques du sol et d’un instrument pour évaluer la densité du plasma ; le rover dispose de deux spectroscopes. A l’instar d’autres disciplines, la communauté scientifique des études spatiales s’affranchit largement des éventuelles compétitions entre les pays et partage ses résultats. Y compris aujourd’hui pour des pays jusqu’alors très fermés comme la Chine. Ainsi, les analyses de Yutu (le rover chinois) sur la face cachée de la Lune ont été largement diffusées et ont donné lieu à de premières publications. Un partage nécessaire car les résultats sont parfois le fruit d’analyses croisées entre plusieurs données issues de missions différentes ou d’instruments complémentaires mis en place par des pays concurrents. A titre d’exemple, cet article paru dans Nature en avril dernier et qui met en évidence des cycles de l’eau sur la Lune en fonction des épisodes de pluies de météorites, s’appuie sur les résultats des missions Apollo, des observations de la sonde Cassini, de Deep impact, de Lunar Prospector et de Chandrayaan-1.

Au niveau stratégique, des initiatives voient aussi le jour pour s’affranchir de concurrences contre-productives dans l’exploration spatiale et pour poser les bases d’objectifs, de moyens et de règles communes aux différentes parties. C’est par exemple l’objectif de l’ISECG (International space exploration coordination group) qui réunit 16 agences spatiales. La dernière réunion en mars 2019 a notamment porté sur les conditions d’installation de l’homme sur et autour de la Lune, soulignant la nécessité de définir une architecture coordonnée aux différents projets d’installation de stations scientifiques ou d’exploitation des ressources lunaires. Un état d’esprit proche du souhait de l’ESA de créer un « village lunaire » où les projets des différents pays et/ou acteurs privés pourraient être coordonnés, mutualisés et ainsi optimisés. Dans un esprit pacifique.

La 5G : moteur de « l’usine consciente »

Environ dix fois plus rapide que la 4 G, avec beaucoup plus de bande passante et des connexions plus fiables, la 5G sera très utile à la robotique. Elle sera le moteur de « l’usine du futur » ou 4.0.

La faible latence de cette nouvelle norme va être déterminante. Les réseaux mobiles ont une latence aller-retour d’environ 50 ms. Pour que la latence soit « compatible » avec des applications comme la robotique, il sera nécessaire de descendre à…1 ms.

Cette très faible latence (qui devra être confirmée dans les faits…) devrait révolutionner les usages de la robotique car la réception et le traitement d’une information pour exécuter un mouvement seront quasi en temps réel.

Un robot connecté au cloud via la 5G pourrait s’appuyer sur l’apprentissage machine (ou machine learning) pour trouver la meilleure façon de naviguer dans son environnement et effectuer des tâches sans être programmé spécifiquement à l’avance.

 De minuscules défauts de fabrication

Quels devraient être les premiers usages profitant de la 5G ? Ce sera certainement la chirurgie à distance. Les opérations par téléprésence ne sont pas une nouveauté. Cela avait été démontré pour la première fois en 2001, lorsque le chirurgien Jacques Marescaux, avait enlevé la vésicule biliaire d’un patient à Strasbourg alors qu’il était à New York. Mais la 5G permettra de réaliser des opérations en temps réel et avec beaucoup plus de précision.

Les robots compatibles 5G trouveront surtout leur place dans les « Usines 4.0 ». En novembre 2018, Toyota et l’opérateur de téléphonie japonais NTT Docomo avaient démontré qu’un robot humanoïde grandeur nature pouvait être contrôlé via la 5G en temps quasi réel. Le robot (nommé T-HR3) était contrôlé par un opérateur. Lorsqu’il remuait les bras, le robot faisait la même chose.

Mais l’avènement de la 5G va permettre de créer ce que le géant finlandais des télécoms Nokia appelle « L’usine consciente ». Il s’agit d’un type d’usine intelligente, équipée de capteurs qui fournissent un flux constant d’informations sur chaque aspect du processus de fabrication.

Ce volume de données serait trop important pour les réseaux mobiles actuels, mais l’un des principaux avantages de la 5G est la possibilité de diviser la bande passante en  » tranches « , qui pourraient être affectées à des tâches particulières.

SK Telecom, une entreprise coréenne de télécommunications, a présenté son projet d’usine intelligente où des robots scannent les produits sur une chaîne de montage à la recherche de défauts. Ils prennent rapidement des dizaines de photos de chaque élément et les transmettent, via la 5 G, dans le cloud pour être analysées.

Dans sa démonstration, les robots vérifiaient des rondelles pour détecter de minuscules rayures, dont beaucoup étaient difficiles à repérer à l’œil nu. Les bras des robots les triaient ensuite en fonction de leur qualité.

Les Assises de l’Eau veulent mieux protéger la ressource en eau

Lancée en novembre 2018, la seconde séquence des Assises de l’eau s’est intéressée à l’enjeu de l’adaptation des territoires au réchauffement climatique. En vue, une baisse des débits moyens des cours d’eau qui pourrait atteindre jusqu’à 40 % en 2070. Les travaux ont fait émerger 23 actions réparties en trois objectifs prioritaires : protéger les captages d’eau potable, économiser et mieux protéger l’eau, préserver nos rivières et nos milieux humides. Pour y parvenir, le gouvernement parie sur trois leviers : donner davantage de moyens aux collectivités locales, développer des outils de gestion d’eau sur le territoire, favoriser les changements de comportement des citoyens et des divers acteurs économiques.

Protéger les captages d’eau potable

Pour protéger la ressource en eau et fournir une eau potable de qualité, il faut protéger l’aire situé autour de chaque captage. En cause, les pollutions diffuses comme les nitrates et les pesticides. Le gouvernement souhaite donc renforcer cette protection en donnant aux collectivités locales les moyens de favoriser des pratiques agricoles plus durables. En particulier, il instaure un droit de préemption aux collectivités locales sur les terres agricoles situées sur les zones de captages d’eau potable.

Le plan d’actions compte aussi protéger les 1000 captages prioritaires à l’aide d’un plan d’actions spécifique à chacun d’ici fin 2021, contre seulement 500 aujourd’hui. La profession agricole s’engagera à réduire les pollutions diffuses sur au moins 350 captages prioritaires d’ici 2022. Et 20 territoires expérimenteront des paiements pour services environnementaux en récompense de pratiques agricoles qui protègent les ressources en eau dès 2020.

Économiser et mieux protéger l’eau

Le réchauffement climatique réduira les ressources en eau. Dès lors, il faut travailler à plus de sobriété afin d’assurer un partage équitable entre les différents usages. Le gouvernement fixe donc un objectif de réduction des prélèvements d’eau de 10 % d’ici 5 ans et de 25 % d’ici 15 ans.

Entre autres, le plan d’actions compte favoriser le déploiement de tarifications incitatives aux économies d’eau. En plus, il intégrera des mesures d’économies d’eau dans la future règlementation environnementale des bâtiments neufs en 2022. Enfin, il vise l’élaboration d’une cinquantaine de projets de territoire pour la gestion de l’eau d’ici 2022 et d’une centaine d’ici 2027.

Préserver nos rivières et nos milieux humides

L’adaptation au changement climatique nécessite de protéger les écosystèmes aquatiques pour réduire l’impact des risques naturels. En particulier, les rivières et les zones humides en bon état nous protègent des inondations. Le plan d’actions  souhaite donc restaurer 25 000 km de cours d’eau d’ici 2022 et doubler la superficie des aires protégées contenant des milieux humides d’ici 2030.

Les Agences de l’eau consacreront 5,1 milliards d’euros d’aides entre 2019 et 2024 pour les actions en faveur de l’adaptation au changement climatique. Et l’enveloppe de 2 milliards deuros consacrée aux Aquaprêts de la CDC/Banque des territoires – des prêts à un taux égal au livret A + 0,75% sur des durées de 25 à 60ans – sera étendue aux projets de restauration des cours d’eau et des milieux humides.

Les acteurs agricoles et de l’eau réagissent

Si la FNSEA se félicite de plusieurs actions, elle reproche une approche trop règlementaire « Nous ne comprenons pas l’approche trop règlementaire de la protection des rivières et des milieux humides, ni la focalisation excessive sur un droit de préemption dans les zones de captage alors que ces Assises de l’Eau« , a réagi la FNSEA dans un communiqué.

La Fédération des entreprises de l’eau (FP2E) appelle à une « clarification de la gouvernance et des financements pour relever les défis« . Pour sa part, l’Union des Industries de l’Eau et de l’Environnement (UIE) regrette l’absence de solutions opérationnelles sur plusieurs sujets d’importance, notamment pour renforcer les dispositifs pollueur-payeur et pour lutter contre les micropolluants. Elle dénonce un manque d’ambition : « la France réutilise actuellement 0,1 % de ses eaux non conventionnelles : tripler ce volumes d’ici 2025 [action 7 du plan] en passant à 0,3 % n’est pas une option satisfaisante quand nos voisins (Espagne/Italie) réutilisent jusqu’à 10 % de leurs eaux usées.« 

Le GNL, nouvel ennemi du climat?

« Le GIEC nous indique clairement que pour limiter le réchauffement à 1,5°C, il faut immédiatement réduire considérablement les émissions de méthane et atteindre zéro émissions nettes de GES d’ici 2050, rappelle Christiana Figueres, ancienne secrétaire générale de l’ONU Climat. Cela signifie qu’il faut laisser le reste du charbon thermique dans le sol, éliminer immédiatement les émissions de méthane provenant de la production et du transport du gaz, et réduire de moitié la consommation de pétrole et de gaz d’ici 2050. »

Des terminaux gaziers qui se multiplient

Pour espérer limiter le réchauffement climatique à 1,5°C d’ici 2100, conformément à l’objectif de l’Accord de Paris, la consommation de gaz naturel doit diminuer de 15 % d’ici 2030 et de 43 % d’ici 2050 par rapport à 2020. Mais sur le terrain, les investissements dans les terminaux gaziers se multiplient.

Selon le rapport Le nouveau boom du gaz, du Global Energy Monitor, au moins 202 projets de terminaux gaziers sont en développement dans le monde. 116 sont des terminaux d’exportation en développement dans 20 pays et 86 d’importation dans 42 pays. Trois quarts des terminaux d’exportation se concentrent aux Etats-Unis et au Canada. Et les importations se concentrent dans la région Asie Pacifique.  Le capital investi dans ces 202 futurs terminaux gaziers s’élève à 1300 milliards de dollars.

Un gaz majoritairement composé de méthane

Le gaz naturel liquéfié est composé à plus de 90 % de méthane. Selon le rapport, ce gaz à effet de serre est responsable d’environ 25 % du réchauffement climatique actuel. À en croire la NOAA, l’augmentation de la concentration de méthane dans l’atmosphère s’accélère depuis 2014. Entre 2014 et 2019, la croissance a été deux fois plus élevée qu’entre 2007 et 2013. La hausse de l’exploitation gazière et pétrolière jouerait un rôle dans cette augmentation.

Selon le rapport, seulement 8 % des capacités prévues sont déjà en construction. « Encore aujourd’hui, certains parlent du gaz naturel comme d’une passerelle pour faciliter la transition vers les énergies renouvelables, ce qui est complètement contraire aux faits, analyse Ted Nace, directeur exécutif du Global Energy Monitor. La seule bonne nouvelle, c’est que la plupart de ces projets sont en phase de pré-construction, il est donc encore temps d’imposer un moratoire sur les infrastructures de GNL avant de nous condamner à des dommages climatiques encore plus sévères et sans doute irréversibles. »

Le retour de l’Arenh, l’accès régulé à l’énergie nucléaire historique

Depuis la loi Nome (Nouvelle organisation du marché de l’électricité) de 2010, le dispositif, transitoire il est important de la rappeler, permet aux concurrents d’EDF de se procurer du courant nucléaire à un prix supposé ne pas léser EDF tout en leur donnant, à efficacité égale, la possibilité de concurrencer l’opérateur historique ; prix fixé à 42 euros/MWh depuis plusieurs années. A l’époque, il s’agissait clairement de s’écarter des règles habituelles de concurrence afin d’aider l’apparition et le développement des nouveaux fournisseurs d’électricité et complaire à l’ouverture du marché européen de l’énergie.

L’Arenh a également un lien direct avec les tarifs réglementés de vente (TRV), qui viennent d’augmenter. Le calcul de ce TRV doit répondre à la fois au principe de couvrir les différents coûts relatifs à la fourniture d’électricité, sans vente à perte et avec un bénéfice (autour de 2%). En outre, le calcul prévoit la « contestabilité » de ces coûts, c’est-à-dire que les TRV doivent être calculés afin que les autres fournisseurs aussi efficaces qu’EDF puissent les pratiquer et concurrencer l’opérateur historique.

Dans son dossier de presse rendu public à l’issue du vote en première lecture de la loi énergie-climat à l’Assemblée nationale, la semaine dernière, le gouvernement peut ainsi signaler que le mécanisme de l’Arenh « permet (aux consommateurs) d’être en partie protégés des variations de prix de marché de gros européens en bénéficiant d’une énergie à un prix régulé et stable. »

Les TRV sont en revanche aujourd’hui uniquement proposés par EDF et les entreprises locales de distribution (ELD, ou régies locales) aux clients particuliers ou petits professionnels (compteurs de puissance inférieure à 36 kVA). Des TRV dont le volume représente environ 150 TWh (oui, le même chiffre que le nouveau niveau d’Arenh fixé par la loi actuellement au Parlement).

Depuis 2010, les fournisseurs alternatifs (à l’opérateur historique) peuvent ainsi bénéficier de l’Arenh. Une électricité (dont le volume avait été fixé à l’origine à 100 TWh par an, c’est-à-dire environ un quart de la production nucléaire) livrée dans des conditions de coûts équivalentes à celles de l’opérateur historique EDF, et devant permettre à l’ensemble des consommateurs, quel que soit leur fournisseur, de continuer à bénéficier de la compétitivité du parc nucléaire historique. L’Arenh est donc une option pour les fournisseurs alternatifs, qui peuvent également choisir de s’approvisionner sur le marché de gros.

Néanmoins, lors de la mise en œuvre de l’Arenh, l’Autorité de la concurrence avait souligné que le dispositif devait favoriser la concurrence sur le marché de la production d’électricité. Le gendarme de la concurrence ajoutait, face au caractère transitoire du dispositif, qu’il « est important [de prévoir] une sortie progressive du mécanisme… L’objectif est d’obliger les fournisseurs à se préparer à l’échéance du 31 décembre 2025 », date de fin prévue dudit mécanisme. Une sortie qui devait se fonder sur la construction de capacités de production.

Las, après des années de fonctionnement « satisfaisant » pour les fournisseurs, les prix de marchés étant inférieurs à ceux de l’Arenh (mais pas trop au cas où il faudrait s’approvisionner ailleurs que sur le marché), depuis l’an dernier, ces prix de marché ont rebondi sur un marché désormais européen. En outre, depuis début 2018, les prix du carbone sur le marché européen des échanges de CO2 sont remontés, en même temps que le coût des combustibles fossiles utilisés dans les centrales thermiques (il en reste beaucoup en Europe). Le tout a créé un afflux de demandes d’Arenh… D’où les voix qui ont été entendues par le gouvernement puisque ce dernier a décidé d’en augmenter le volume accessible à la concurrence.

Mais alors, où sont les capacités nouvelles de production ? Force est de constater que s’il y a bien eu augmentation des capacités de production depuis le lancement de l’Arenh, elles se sont concentrées sur les énergies renouvelables, totalement hors marché de l’électricité, bénéficiant de tarifs d’achats fixés. Sans oublier une baisse substantielle des capacités fossiles retirées du marché pour cause d’engagements climatiques. Au final, les investissements dans la production n’ont pas eu le rôle voulu lors de la loi Nome, et la concurrence à la production est quasi inexistante (quelques centrales au gaz). Ainsi, pas vraiment d’effet prix pour les consommateurs.

Les concurrents les plus sérieux de l’opérateur historique sur le marché sont désormais Total, Engie et le finlandais Fortum (qui a racheté les centrales au gaz d’Uniper), plus une trentaine de « petits » fournisseurs souvent sur des offres vertes. EDF a de son côté objecté que relever le plafond de l’Arenh devrait s’accompagner d’une hausse du tarif de vente pratiqué, dans la mesure où l’entreprise doit couvrir ses coûts.

Ainsi, l’article 8 de la « petite » loi porte sur le relèvement du plafond Arenh à 150 TWh mais aussi sur la possibilité, pour le gouvernement, d’en revoir le prix. Le ministère de la Transition écologique et solidaire (MTES) a estimé, à l’issue du vote de la loi à l’Assemblée nationale, qu’un plafond à 150 TWh devrait être suffisant pour couvrir les besoins de la concurrence en 2020 et 2021. Sur le prix, il a indiqué ne viser « qu’une légère progression ». Mais attention, cette évolution ne pourra se faire que dans le cadre d’un accord avec la Commission européenne, avec laquelle des « échanges techniques » sont déjà en cours « notamment dans le cadre d’une réforme à plus long terme de l’Arenh ».

Les États-Unis sont-ils prêts à retourner sur la Lune ?

Artémis, la petit sœur du programme Apollo est sur les rails

« Les Américains (re)demandent la Lune. Qu’on la leur donne », a décidé Donald Trump. Cinquante ans après le premier homme sur la Lune, les Etats-Unis ont officiellement relancé un programme d’envergure pour s’installer durablement sur notre satellite.

 C’est donc parti pour le programme désormais baptisé Artémis (jumelle du dieu Apollon dans la mythologie grecque). Ce programme de 5 ans (2019-2024) vise à « affirmer le leadership américain pour la conquête de la Lune et à emmener la première femme sur la Lune », selon le gouvernement américain. En réalité, 2024 ne marquerait que le début du retour de l’homme sur la Lune. Quatre autres missions habitées étant prévues par la suite entre 2024 et 2028.

Passé l’effet d’annonce de la fin mars 2019, où Mike Pence, vice-président américain, annonçait cet ambitieux programme, la Nasa a dû revoir ses plans pour raccourcir les délais – elle visait plutôt un premier alunissage humain vers 2028. Sur le papier, tout est désormais prêt et va fonctionner comme sur des roulettes. Dans la réalité, les difficultés techniques, logistiques et financières sont loin d’être résolues. Il n’empêche que symboliquement, la conquête de la Lune est bien repartie outre-Atlantique. Et pas question que les Chinois les battent au poteau.

Quatre équipements clés

Un des buts de ce retour sur la lune est de préparer une installation durable visant à la fois des objectifs scientifiques, des objectifs commerciaux (à terme exploitation des ressources) et une base de départ pour des voyages interplanétaires plus ambitieux, notamment vers mars.

Concrètement, le programme Artémis, pour fonctionner doit s’appuyer sur plusieurs équipements en cours de développement :

  • un lanceur lourd, le Space Launch System (SLS), dont Boeing assure le développement depuis plus de 8 ans, accumulant les retards, et dont la gestion a été vertement critiqué par plusieurs rapports. Son premier vol, initialement prévu en 2017 est espéré à présent fin 2020 (dans une version optimiste) ou de manière plus réaliste vers mi-2021. Ce lanceur doit sortir de l’attraction terrestre différents composants constituant la base d’Artémis ;
  • les différents modules de la station orbitale lunaire, Gateway. L’ambitieuse station spatiale prévue initialement a été réduite à son strict minimum dans les nouveaux plans avec seulement deux modules (le module PPE produisant l’énergie et comprenant le système propulsif et le module d’habitation I-HAB). Un troisième module de sas pourrait être ajouté selon la solution choisie au final pour le module lunaire ;
  • le vaisseau interplanétaire Orion qui doit transporter les astronautes entre la Terre et la station spatiale, à l’aller comme au retour.  Cette capsule de transport est désormais bien avancée et son premier exemplaire doit voler lors du premier vol du SLS pour un test sans astronaute autour de la Lune. C’est la phase Artémis 1 ;
  • et enfin un module lunaire chargé d’assurer la descente et la remontée des astronautes.

Trois phases de développement

  • Artemis 1 constitue donc la phase de test du SLS et de la capsule Orion. Programmée pour 2020, tout laisse à penser que le premier vol n’interviendra pas avant 2021.
  • Artemis 2 sera constitué de nouveaux vols du SLS et d’Orion mais cette fois en embarquant des astronautes pour des vols cislunaires. Le nouveau programme prévoit cette phase en 2022.
  • Artemis 3 en 2024 avec les premiers équipages à destination de la station orbitale lunaire puis de la surface. L’alunissage étant prévu près du pôle sud, où gisent normalement des stocks d’eau utiles pour une implantation temporaire ou permanente.

En parallèle de ces trois phases qui résument succinctement le contenu du programme Artemis, il est prévu l’envoi, via des sociétés privées, d’atterrisseurs embarquant du matériel scientifique permettant de mieux préparer l’arrivée et l’installation de robots, rovers et astronautes, l’envoi et l’assemblage de la station orbitale et de son module lunaire ainsi que l’envoi de rovers scientifiques à la surface.

Un budget encore très flou

Pour marquer la volonté du gouvernement d’allouer les moyens nécessaires à la réussite de ses objectifs, à la mi-mai 2019, une enveloppe supplémentaire de 1,6 milliard de dollars a été débloquée au titre de l’année budgétaire 2020. Aussitôt cette annonce faite, le débat sur le financement du projet Artémis s’est beaucoup animé. L’évaluation du coût supplémentaire pour raccourcir les délais du programme lunaire est évalué entre 20 et 40 milliards de dollars. Le milliard et demi débloqué ressemble alors à une goutte d’eau. D’autant que pour le moment, le gouvernement parle de prendre l’argent sur des surplus d’un fonds d’aide à l’accès à l’enseignement supérieur pour les plus pauvres. Un symbole qui a du mal à passer. L’incertitude est déjà donc de mise sur la validation par le congrès de cette première rallonge. Le budget total final du programme est en plus impossible à évaluer car de nombreux choix techniques n’ont pas encore été faits. Et si de substantielles économies sont prévues en faisant appel au secteur privé, cela ne suffira peut-être pas à trouver les fonds. D’autant qu’à l’incertitude budgétaire, s’ajoute une incertitude politique. Les élections présidentielles américaines doivent se tenir fin 2020 et le programme dans son ensemble pourrait alors même être revu à la baisse ou retardé.

Le rôle clé du secteur privé et commercial

Pour accélérer le calendrier et limiter les coûts, la conception, la fabrication et l’exploitation du module lunaire sont désormais ouvertes à toutes les participations privées. Jim Bridenstine, administrateur de la Nasa, l’affirmait ainsi clairement en mai 2019 dans une interview de The Verge : « Nous nous tournons vers le secteur commercial pour nous fournir ses idées et ses visions afin d’aller de la station Gateway à la surface de la Lune. L’industrie privée fournira un service pour les astronautes américains et nous attendons d’elle qu’elle fasse ses propres investissements dans l’atterrisseur. Avec l’objectif pour elle d’avoir d’autres clients que la Nasa, notamment internationaux ». Le 17 mai dernier la Nasa a donc présélectionné 11 entreprises qui ont six mois pour développer des concepts et des prototypes pour le module lunaire. L’enveloppe totale pour l’ensemble de ces lauréats s’élève à 45,5 millions de dollars. Les entreprises sont de toutes sortes, des géants comme Boeing ou Lockheed Martin, aux grands outsiders comme SpaceX et Blue Origin ou de petites sociétés comme Masten Space Systems. Le concours ne porte que sur les solutions de descente et de transfert. Pas sur le système de retour vers Gateway.

D’autres avancées concrètes ont été annoncées en cette fin de premier semestre 2019. En effet, la Nasa a aussi signé trois premiers contrats pour emporter ses chargements sur la lune dès 2020 et 2021. Notons au passage que la nouvelle feuille de route prévoyait ces envois dès 2019… Il s’agit pour la Nasa (et l’Amérique) de marquer le coup en se posant de nouveau sur la Lune avec du matériel technologique de pointe permettant de préparer l’arrivée des astronautes. Les trois entreprises choisies sont Astrobiotic de Pittsburg pour 14 chargements à destination de Lacus Mortis, un large cratère sur la face visible de la Lune avec un vol prévu en juillet 2021. Intuitive Machines de Houston pour cinq chargements à destination d’Oceanus Procellarum, une tâche sombre mystérieuse en juillet 2021. Et le dernier, Orbit Beyond d’Edison dans le New Jersey avec quatre chargements en direction de Mare imbrium, une plaine de lave dans un cratère, avec un lancement dès septembre 2020. Un retour technologique américain sur la Lune qui pourrait donc être rapide et qui porte en lui plusieurs symboliques : la collaboration poussée avec le secteur commercial, y compris avec de petites entreprises et la démonstration de la (suprématie de la) technologie spatiale américaine.

Calendrier à marche forcée, une bonne idée ?

La pression mise sur la Nasa et sur ses contractants pour tenir des délais, que la plupart des experts trouvent insensés, fait cependant peser un autre risque sur ce programme. Celui d’un échec ou d’une défaillance technique, humaine ou organisationnelle, qui, dans le cadre de vols habités, prendrait encore une fois la forme d’un drame national voire international. Ce calendrier à marche forcée n’est en effet pas sans rappeler les écueils du programme de la navette Challenger et sa catastrophe humaine finale ; les acteurs de la sécurité l’étudie encore. Espérons que tous les enseignements en aient été tirés.

La Chine affiche ses ambitions lunaires et au-delà

Au moment où les Etats-Unis annoncent leur grand retour dans la course à la conquête de la Lune, avec des objectifs ambitieux de vols habités et de futur départ vers Mars, la Chine a elle aussi fait part de ses ambitions. En Chine, à l’instar du programme économique, le programme spatial est lui aussi bien planifié et les objectifs très graduels avec un beaucoup de pragmatisme. De plus en plus, la Chine communique sur ses objectifs et s’ouvre à des coopérations internationales pour avancer plus vite dans ce domaine. En ce qui concerne la Lune, la Chine a donc commencé avec son programme « Chang’e ». Des sondes, un orbiteur, un premier atterrisseur et bientôt deux missions de retours d’échantillons. Mais les Chinois ont annoncé officiellement dès fin 2018 qu’ils comptaient bien aller au-delà dans la conquête de la Lune.

Le pôle sud en ligne de mire

Dès mars 2018, Wu Weiren, un des responsables du programme d’exploration lunaire Chang’e, avait déclaré à la télévision chinoise que la quatrième phase des missions lunaires était planifiée ; son objectif était le pôle sud avec une possible installation d’une station de recherche destinée à des robots. Cette installation a pour but de mieux connaître les ressources potentielles de notre satellite. Le choix du pôle sud a été justifié par le fait que cette région de la Lune reçoit la lumière du soleil presque toute l’année, fournissant ainsi une source d’énergie, et que la présence d’eau est avérée. Deux ressources essentielles pour faire fonctionner une station de recherche. Il avait ajouté que les Chinois aimeraient être les premiers à atterrir au Pôle sud vu que personne ne l’avait encore fait mais que d’autres pays était sur la ligne de départ. Il pensait alors aux Indiens dont la mission Chandrayaan-2 (régulièrement repoussée) doit se poser près du Pôle sud lunaire cet été. Et désormais les Etats-Unis sont aussi sur la ligne de départ.

Fin avril 2019, Zhang Kejian, responsable dans l’administration nationale chinoise de l’espace, a en outre ajouté que cette station de recherche scientifique serait suivie de missions habitées d’ici une dizaine d’années. Une annonce qui confirme ce que laissaient à penser le développement du successeur du vaisseau de transport habité Shenzhou ou les travaux sur un lanceur très lourd de type Saturn V (qui devrait être la Longue Marche 9).

Chang’e 6 se fera avec la France

Les débuts de l’exploration lunaire chinoise ont commencé en 2007 et 2010 avec deux orbiteurs, Chang’e-1 et Chang’e-2, qui ont observé et cartographié la surface de la Lune. En 2013, deux engins ont atterri : la sonde Chang’e-3 s’est posée sur Mare Imbrium en compagnie d’un petit rover, Yutu. La mission suivante était plus périlleuse puisque cette fois la Chine visait la face cachée de la Lune, où personne ne s’était encore jamais posé. Repoussée plusieurs fois, Chang’e-4 s’est finalement déroulée parfaitement en janvier 2019 et cette mission s’est non seulement révélée une réussite technique et scientifique (atterrissage réussi, pousse pendant quelques jours d’un germe de coton dans une petite biosphère, analyse de la composition du minerai…) mais aussi médiatique (mettant la Chine spatiale en Une des journaux du monde entier).

La suite du programme Chang’e prévoit deux missions de retours d’échantillons. La première, Chang’e-5, doit être lancée d’ici la fin de l’année 2019. Pour la seconde, Chang’e-6, la Chine avait lancé un appel à coopération internationale car la sonde devrait pouvoir embarquer jusqu’à 20kg de matériel de recherche. La France a été choisie de manière privilégiée puisqu’il est prévu que le CNES embarque 15kg de matériel d’expériences notamment pour l’analyse chimique du minerai lunaire. Le lancement est programmé pour 2023. Chang’e-5 constitue une mission ambitieuse car elle n’est pas qu’un simple retour d’échantillon lunaire, elle doit surtout servir à tester de nombreuses capacités de la Chine spatiale :

  • la mise au point d’un lanceur lourd – la Longue Marche 5 qui, du fait de l’échec de son deuxième lancement, a d’ailleurs mis en retard cette mission. En effet, Chang’e-5 est un vaisseau de 8,2 tonnes constitué d’un module de service, d’un atterrisseur, d’une unité de descente et d’un véhicule de retour ;
  • la confirmation des capacités d’atterrissage sur la lune ;
  • le décollage depuis la lune après échantillonnage ;
  • un rendez-vous avec le module de service en orbite ;
  • le transfert des échantillons depuis le module de descente vers celui de retour qui devra lui-même se séparer et rentrer sur terre sans encombre.

Toutes ces technologies ont d’ores et déjà été testées par la Chine à l’occasion des vols de tests ou des technologies utilisées sur ses stations de recherches en orbite basse (mini station spatiales) Tiangong 1 et Tiangong 2. Mais cette fois, cela se fera loin de la Terre, à proximité d’un autre astre.

Par ailleurs, la Chine travaille sur la programmation de Chang’e-7 et 8 qui poseront les bases de cette station de recherche robotique et s’apparente un peu au concept de village lunaire de l’ESA. Pour la suite de ces missions, la Chine n’a d’ailleurs pas de plans préconçus et devrait faire appel à des coopérations internationales avec l’Europe ou la Russie.

La Lune… et au-delà

Les ambitions spatiales de la Chine ne s’arrêtent pas à la lune. Dans ses cartons, l’Empire du Milieu vise Mars avec une première mission dans les années 2020 et un projet de retours d’échantillons de Mars pour 2030. Cette mission nécessitera alors forcément la mise en service d’une fusée de type Longue Marche 9. D’autres projets sont à l’étude : une mission sur astéroïde ou encore une mission d’observation de Jupiter ; à terme la Chine espère pouvoir aller explorer les confins de notre système solaire. En parallèle, le pays continue de travailler à la mise en orbite de sa troisième station spatiale orbitale Tiangong 3 dont la mise en service est prévue en 2022. Cette dernière accueillera des expériences scientifiques ouvertes à tous pays. Un concours a d’ailleurs été organisé en ce sens et vient de sélectionner neuf projets impliquant des scientifiques de 17 pays.

Des drones pour nettoyer la pollution plastique océanique?

À cœur vaillant, rien d’impossible. Parmi les associations qui se donnent pour mission de « sauver la planète« , il y a l’OMPE fondée par Gil Emmanuel, ex-ingénieur IBM, en 2013. Elle ambitionne de devenir « bientôt n°1 en matière d’environnement et de protection animale« . Fantasque, Gil Emmanuel a candidaté à la succession de Nicolas Hulot au poste de Ministre de la Transition Ecologique et Solidaire. Edouard Philippe lui a préféré François de Rugy.

Une barge et des drones sous-marins

Ne se laissant pas abattre, il lance un appel à financement pour son projet de récupération des plastiques dans les océans sur lequel il planche depuis six ans. La nouvelle star de l’OMPE s’appelle « Fischy« . Il s’agit d’un « poisson-drone » sous-marin de 8 mètres de long aspirant les déchets jusqu’à 80 m de profondeur. Il carbure à l’énergie solaire.

Le dispositif global est une barge, naviguant nuit et jour dans les gyres océaniques. Chaque barge possèderait une flotte de 100 drones reliés par radar et sonar. La cuve géante compresserait les plastiques qui seraient  traités sur le continent.

« Tout est fait en interne, nous souhaitons maintenant réaliser le prototypage et essayons de toucher des investisseurs d’ici ou d’ailleurs, pour réunir a minima 250.000 euros, pour le premier « fischy« , précise Emmanuel Gil à Nice-Matin. Ensuite, avec une fabrication en série, chaque drone pourrait revenir à 75 -100.000 euros« .  Le coût total du projet est évalué à 50 millions d’euros et créerait plus de 15.000 emplois directs et indirects, selon son fondateur. Ce dernier espère que le premier drone verra le jour d’ici deux ans.

Des vétérinaires à bord

Lorsqu’il est question de nettoyage de plastiques océaniques, il faut prendre en considération la vie marine. En effet, des animaux sont enchevêtrés dans du plastique, d’autres vivent à la surface des plastiques. L’OMPE imagine installer une équipe de vétérinaires et de marins dans les barges pour soigner les animaux blessés.

Les projets de nettoyage se développent pour retirer les déchets flottants. Les plus médiatisés sont The Ocean Cleanup dans les gyres océaniques et The Sea Cleaners plus proche des côtes. Toutefois, les scientifiques estiment que moins d’1% de la pollution plastique océanique flotte. La grande majorité semble couler jusque dans les abysses. Malheusement, les flottes de drones ne pourront pas s’y rendre. Malgré l’appétence pour les projets de nettoyage, la réelle solution reste à terre, où il faut assurer la collecte de 100 % des plastiques en fin de vue en vue de leur recyclage prioritaire.

Conquête de la Lune : les projets les plus avancés

Face aux projets chinois et américains, on trouve donc de nombreuses autres missions en cours de développement, en projet tout autour du monde. Le plus élaboré sur le papier est celui des Russes, mais tout le monde doute, à commencer par eux-mêmes, qu’ils aient les moyens humains, techniques et financiers de leurs ambitions.

Des Cosmonautes russes en 2030 ?

Le programme Luna d’exploration de la Lune par les Russes prévoit encore au moins 5 lancements qui doivent, à terme, permettre l’installation d’observatoires de l’espace profond et du système solaire. Luna 25, constitué d’un atterrisseur Luna-Glob, doit valider les techniques d’atterrissage et les systèmes de télécommunications, et effectuer une analyse du régolithe lunaire dans les régions polaires. La date de lancement est programmée à présent pour 2021. Luna 26 est un orbiteur (Luna Resours) qui doit être placé sur une orbite polaire de 100 km. Sa mission est de cartographier l’ensemble de la Lune, d’analyser l’exosphère et le plasma autour de la lune, d’identifier des sites d’atterrissage dans les régions polaires et de servir de relais de télécommunications pour les missions au sol. Sa date de lancement est prévue vers 2021 ; enfin Luna 27 est un atterrisseur, plus lourd, qui doit effectuer une analyse du régolithe lunaire jusqu’à 2 m de profondeur. Le forage doit être effectué par le système PROSPECT développé par l’ESA qui préserve la température des carottes de terrain prélevées. Lancement prévu pour 2022. Ensuite Luna 28 est une mission de retour d’échantillon et Luna 29 l’envoi d’un astromobile sur le sol. La suite du programme lunaire russe a fuité fin 2018 mais les budgets n’étant pas votés, l’agence Roscosmos a démenti les différentes parties parues dans la presse, précisant notamment que les dates n’étaient pas du tout fixées et que tant que le lanceur ne serait pas développé, aucune décision ne sera acquise. Dans ces documents, les premiers Russes sur la Lune seraient prévus pour 2031 et seraient suivis par l’envoi d’un équipage par an pendant 5 ans. Ces différents équipages devraient utiliser un rover et construire une base lunaire. Mais ce programme doit passer par le développement d’un lanceur lourd. Il devrait s’agir de Ienisseï – un développement qui fait partie du programme fédéral d’exploration de la Lune. Selon le décret signé par Vladimir poutine, l’avant-projet de cette fusée super-lourde doit être présenté en novembre 2019 pour un premier lancement en 2028.

Les modalités d’envoi d’un équipage sur la Lune ne sont pas gravées dans le marbre. Les projets feraient état du développement d’une station orbitale lunaire et de l’utilisation du vaisseau de transport Federatsia qui doit remplacer Soyouz et dont les premiers vols sont prévus dans les années 2020.

Coopération internationale derrière l’imagerie américaine

Si les Américains communiquent sur la grandeur de leur nation à travers la nouvelle conquête de la Lune, il faut tout de même souligner qu’une partie de leur projet s’appuie sur des coopérations internationales essentielles. En effet, la station orbitale Gateway a été conçue avec les partenaires internationaux déjà impliqués dans la gestion de l’ISS (en l’occurrence le Japon (JAXA), le Canada (CSA), l’Europe (ESA) et les Russes (Roscosmos) et les Etats-Unis (Nasa). Par ailleurs, la capsule de transport des astronautes, Orion, est alimentée par le module de service européen, chargé d’injecter la poussée finale du véhicule pour le mettre sur son orbite lunaire.

La Corée du Sud et Israël aussi se veulent lunaires

L’agence spatiale de la Corée du Sud (KARI) a initié un programme lunaire en 2016. Il repose sur la mise au point d’un lanceur de moyenne puissance et le développement d’un orbiteur de 500 kg (KPLO), dont le lancement est prévu fin 2020 et doit orbiter à une centaine de kilomètre au-dessus du pôle. Une deuxième phase envisage le développement d’un astromobile qui serait déposé à la surface de la Lune.

De son côté, Israël, a marqué l’histoire avec sa sonde Beresheet. Malgré un crash le 11 avril 2019, cette petite sonde, développée par une société privée israelienne, SpaceIL, est la première sonde aussi peu chère (90 millions d’euros) à atteindre la Lune. Et cet échec, n’est finalement qu’une étape puisque SpaceIL a d’ores et déjà annoncé travailler à Beresheet 2.

L’Inde, enfin dans les starting blocks ?

En 2019, l’Inde doit réaliser la mission Chandrayaan-2. Il s’agit de placer une sonde spatiale en orbite autour de la Lune et d’y déposer un atterrisseur (Vikram) et un rover (Pragyan). Longtemps retardée en raison d’abord de l’abandon de la coopération des Russes puis de nombreuses anomalies techniques, cette mission doit enfin décoller entre le 9 et le 16 juillet 2019 avec un alunissage prévu le 6 septembre. Le lancement sera assuré par le GSLV de troisième génération, un lanceur indien qui a maintenant fait ses preuves.

Les Japonais visent la précision

Comme les autres nations spatiales, les Japonais s’intéressent à la Lune. Hors le cadre de coopérations internationales (voir ci-après), ils développent de leur côté la mission SLIM, dont l’objectif est de faire atterrir un engin avec une précision de moins de 100m (l’ordre de grandeur de précision aujourd’hui est de l’ordre de 1km). L’atterrisseur en cours de développement fait quelques 400 kg et devrait être lancé en 2021 par une fusée Epsilon.

L’ESA veut s’appuyer sur des coopérations internationales

Jusqu’à maintenant l’agence spatiale européenne (ESA) envisageait la Lune essentiellement dans le cadre de coopérations internationales : développement d’un village lunaire, participation active à la construction du Gateway et à la capsule Orion, montage d’une mission lunaire Heracles avec l’agence japonaise JAXA et l’agence spatiale canadienne (le financement doit être voté ou non cette année) ou encore le financement de plusieurs projets via le fond LuxIMPULSE, dont par exemple le soutien de la filiale européenne de la société japonaise ispace, finaliste du Lunar GoogleXprize qui vient d’obtenir sa place pour des lancements en 2020 et 2021 avec SpaceX. Cependant, début 2019, l’ESA a demandé à ArianeGroup d’étudier la possibilité de monter des opérations minières sur la Lune d’ici 2025. Il s’agirait dans un premier temps d’extraire de l’eau et de l’oxygène du régolithe lunaire. Un objectif 100 % européen cette fois.

 Les privés ne se privent plus

Les entreprises privées lorgnent sur la Lune. Pour faire du tourisme. Pour y exploiter les richesses. Pour y développer des services de transports de marchandises et/ou de personnes au profit des agences ou des nations. Les activités spatiales deviennent un secteur marchand comme un autre. Ou presque. En 2016 SpaceX propose des voyages touristiques cislunaires et le collectionneur d’art contemporain Yusaku Maezawa et sa bande d’artistes annoncent avoir acheté le premier vol prévu à bord du BFR. Mais ce projet prendra du retard et reste pour l’instant en instance car les autres programmes de SpaceX sont prioritaires. Face à cette annonce, les Russes avaient d’ailleurs riposté que le tourisme autour de la Lune était aussi possible à bord d’une capsule Soyouz modifiée : la société russe RKK Energia en partenariat avec Space Adventures l’avait alors proposée pour un coût compris entre 150 et 180 millions de dollars. Pour autant, aucun voyage n’est pour l’instant programmé.

Côté services, deux présentations ont pour l’instant marqué l’année 2019. Celle de Blue Origin et celle de Lockheed Martin. La société spatiale de Jeff Bezos, patron d’Amazon, a présenté en mai dernier Blue Moon, un atterrisseur lunaire grandeur nature qui est conçu pour le transport autant de rovers que de marchandises ou d’astronautes, en lui adjoignant un compartiment pressurisé. Une annonce qui est venue juste un mois après celle d’un autre américain, Lockheed Martin, qui a revu sa copie depuis sa dernière proposition jugée trop lourde. La firme part avec quelques temps d’avance sur d’autre puisque c’est elle qui a développé la capsule spatiale Orion. Cependant sur ce sujet la concurrence est rude. Et certaines petites sociétés, au fonctionnement plus souple et réactif pourraient bien emporter le marché de la Nasa.

Ainsi, comme on le voit, les candidats sont nombreux. Mais à présent, il faut que tous ces projets aboutissent et réussissent.

14 projets CSR pour faire émerger une filière française

En janvier dernier, la Filière « Transformation et Valorisation des Déchets », représentée par la Confédération des Métiers de l’Environnement (CME) a signé son contrat de filière avec le ministère de la Transition écologique et solidaire et celui de l’Economie et des finances. Ce contrat identifie le développement de la filière CSR comme un axe de travail prioritaire pour valoriser les déchets non recyclables.

Le Comité stratégique de la filière a lancé un Appel à Manifestation d’Intérêt (AMI) et a retenu 14 projets répartis sur le territoire. Ceux-ci sont portés par des acteurs de la filière déchets, mais aussi par des acteurs de l’énergie. Ils représentent 320 mégawatts de puissance installée. Objectif : faire émerger une véritable filière de consommation française de CSR. Il s’agira de valoriser sous forme d’énergie les refus de tri et les fractions non recyclables des déchets. Grâce à un pouvoir calorifique important, les CSR se substituent aux énergies fossiles et peuvent être utilisés dans les fours des industriel ou dans les réseaux de chaleur.

970 000 tonnes de déchets détournées de l’enfouissement

Selon les calculs des professionnels, l’énergie produite par les CSR dans le cadre des 14 projets, permettra d’éviter chaque année l’importation de l’équivalent de plus d’1,8 million de barils de pétrole. Et évitera l’émission de 350 000 tonnes d’équivalent CO2 chaque année.

D’ici 2025, la loi de transition énergétique pour la croissance verte ambitionne de détourner 7 millions de tonnes de déchets des centres d’enfouissement. Ces 14 projets permettront d’en détourner 970 000 tonnes.

La création d’une filière française de CSR permettrait de valoriser énergétiquement les déchets non recyclables, notamment plastiques et papiers, qui sont en partie exportés vers divers pays asiatiques. Suite à la décision de la Chine, puis d’autres pays, de fermer peu à peu leurs portes aux importations de déchets, les industriels se trouvent avec de nombreux déchets à valoriser. En attendant le développement de nouvelles usines, ils finissent en incinération ou en centre d’enfouissement.

Mechanica AI améliore la productivité industrielle et remporte le Prix Atos

Le 6 juin dernier, la jeune entreprise Mechanica AI a remporté le prix Atos « Data Science » lors de la finale du Challenge Industrie du Futur. La startup néerlandaise propose une plateforme basée sur l’intelligence artificielle et le machine learning pour traiter les données d’une usine. Selon Elena Samuylova, la Chief Product Officer de Mechanica AI, la spécificité de cette startup est de s’intéresser essentiellement au monde de l’industrie.

Que propose Mechanica AI ?

Nous avons créé un algorithme spécifique au monde industriel qui permet de collecter et analyser des données et nous développons maintenant une plateforme destinée aux clients afin de traiter ces données et de les rendre accessibles. Cette application permet d’améliorer la productivité industrielle car elle aide à prendre des décisions plus efficaces.

Pourquoi avoir eu cette idée ?

Nous avons eu de précédentes expériences dans des entreprises qui proposaient le même type de service grâce au machine learning. Adapter ces mêmes méthodes à l’industrie est une grande opportunité. D’abord, parce que les usines regorgent de capteurs et donc de données, et ensuite car une simple optimisation des procédés permet de faire énormément d’économies. Ainsi, notre solution est très intéressante pour les industriels.

Qui peut utiliser votre plateforme ?

Nous avons déjà travaillé avec des entreprises dans le domaine du gaz et du pétrole. De manière générale, nos clients potentiels sont les grandes entreprises qui font de la production. Nous nous focalisons essentiellement sur ce secteur pour le moment mais notre technologie peut être utilisée dans beaucoup d’autres domaines.

Quels sont vos projets ?

Nous espérons continuer notre collaboration avec Atos, avec qui nous avons travaillé durant la phase de mentoring. Notre solution est complémentaire à leur offre et nous pourrions donc être intégrés à leur portfolio. Ensuite, nous souhaitons devenir des leaders dans notre domaine pour véritablement aider les entreprises à être aussi efficaces que possible.

Innovation : pour la première fois, une synthèse de polymères à la lumière du soleil

Alors que les procédés de polymérisation s’effectuent généralement à haute température, cette équipe a réussi à effectuer une synthèse de polymères complexes à température ambiante et sous la lumière du soleil. Les travaux relatant ce nouveau concept de fabrication qui s’appuie sur les propriétés des plasmons polaritons de surface (PPS) ont été publiés dans le Journal of Material Chemistry A.

Des PPS comme déclencheurs

S’affranchir de la contrainte de température pour la polymérisation présente deux avantages : l’économie énergétique tout d’abord, puisque généralement la synthèse des polymères s’effectuent autour de 150°C, mais aussi une plus grande liberté pour créer des polymères fonctionnels. En effet, certaines propriétés ont dû mal à être obtenues à cette température trop élevée.

Les plasmons polaritons de surface sont des ondes électromagnétiques qui se produisent à la surface d’un métal (ou d’un diélectrique) ou à l’interface métal/air. Ces ondes impliquent un plasmon (oscillation mécanique collective d’un nuage d’électrons à la surface d’un métal) qui se couple à une onde lumineuse. C’est l’onde de surface ainsi créée qu’on appelle plasmon polariton de surface. Elle se comporte lors de son déplacement un peu comme la lumière guidée dans une fibre optique. Le fonctionnement exact des plasmons polaritons de surface n’est pas encore bien compris, mais on les utilise déjà pour des applications en photonique, microscopie etc.

C’est la première fois que l’on utilise la création de PPS pour initier la synthèse d’un polymère à la lumière du jour.

Une synthèse de polymères fonctionnels

Cette équipe de chimistes russes, tchèques et français a travaillé sur des polymérisations radicalaires en présence de nitroxydes. Les synthèses ont été effectuées à la surface de fines plaques d’or d’une épaisseur maximale de 20nm. La surface des plaques était structurée pour maximiser les phénomènes de plasmons polaritons. Sur ces plaques, des molécules d’alkoxyamine ont été placées pour servir de catalyseur à la polymérisation de monomères de N-isopropylacrylamide (NIPAM). Les plaques ont ensuite été exposées soit à des rayons lasers soit à la lumière du jour (en extérieur lors de jours ensoleillés). Ainsi exposées, des chaînes de polymères se sont créées. Sur ces premières chaînes, les chercheurs ont ensuite réussi à obtenir un second polymère (le pVBBA, polymère basé sur le 4-vinylbenzène boronic acid). Ces deux polymères sont des polymères fonctionnels présentant des propriétés bien particulières. Ainsi, le pNIPAM devient insoluble dans l’eau à une température supérieure à 32°C (permettant par exemple la fabrication de vaisseaux artificiels).

Par ailleurs, au cours de leurs recherches, les chimistes se sont aperçus que la structure obtenue à partir de la plaque d’or et d’un polymère fonctionnel à la surface peut constituer un capteur très sensible. Le biocapteur ainsi créé s’est révélé capable de détecter des glycoprotéines, y compris à l’état de traces. Reste maintenant à sortir ces résultats du laboratoire pour en faire des techniques plus industrielles.

Schéma de la détection de glycoprotéines par les polymères fixés sur la plaque d’or (pièce jointe). Fournie par les chercheurs via communiqué université de Tomsk

Les données de santé : un vrai business pour les cybercriminels

Vos données de santé ont un prix ! Selon un nouveau rapport publié le 12 juin par Carbon Black, une entreprise spécialisée dans la cybersécurité, un examen des offres actuelles sur le dark web (que l’on peut qualifier de « cour des miracles » ou de marchés parallèles) concernant les vols, fuites et fausses données médicales révèle à quel point c’est un business pour les cybercriminels.

Le site ZDNet indique qu’il est possible d’y acheter « de fausses ordonnances, des étiquettes, des reçus de vente et des cartes de soins de santé volées pour 10 à 120 dollars par enregistrement ». Et « pour 3,25 dollars ou moins, les chercheurs de Carbon Black ont ​​consulté des listes d’informations volées à l’assurance maladie, qui pourraient être utilisées pour faire de fausses demandes aux frais de la victime ».

Fuites massives

Le secteur de la santé est dans le viseur des pirates.  La majorité (83 %) des organismes de soins de santé interrogés par Carbon Black ont indiqué avoir constaté une augmentation des cyberattaques au cours de la dernière année. Les deux tiers (66 %)  ont déclaré que les cyberattaques sont devenues plus sophistiquées au cours de la dernière année.

Les attaques se multiplient. Mais les pirates sont « aidés » par les établissements de santé et les assureurs qui ne sécurisent pas assez ces données sensibles. Et cette situation inquiétante ne date pas d’aujourd’hui. De nombreuses fuites de données de santé ont eu lieu ces dernières années.

Fin 2011, TRICARE avait signalé une fuite massive dans les données qui avait compromis les dossiers personnels et médicaux de millions de patients militaires et de leurs familles. Anciennement connu sous le nom de Civilian Health and Medical Program of the Uniformed Services – CHAMPUS), c’est en effet un programme de soins de santé du Département de la Défense.

Mais il y a eu pire. En 2015, le groupe d’assurance américain Anthem Blue Cross avait révélé que 78,8 millions de dossiers de patients avaient été volés. La même année, l’assureur Premera Blue Cross avait été victime d’une cyberattaque qui a pu exposer les données médicales et financières de 11 millions de clients.

Les exemples se suivent et se ressemblent… Et la situation ne devrait, hélas, pas s’améliorer avec la multiplication de l’internet des objets dans les hôpitaux. Comme disent les experts en cybersécurité, « la surface des attaques s’agrandit encore ».

Un matériau biomimétique capable de réguler la température

Cette capacité exceptionnelle qu’ont certaines espèces de calamars à changer de couleur sous l’impulsion de leur système nerveux a beau être un phénomène connu, il n’en reste pas moins insolite. D’anciens étudiants américains ont même réussi à faire varier la couleur d’un calamar au rythme d’un morceau de hip-hop, une façon originale de sensibiliser le grand public aux neurosciences. Cette fois-ci, c’est en étudiant le mécanisme dynamique qui se produit en surface de la peau des calamars que l’équipe de chercheurs a eu une idée brillante : remplacer les pigments par des îlots métalliques dont le rôle est d’évacuer la chaleur.

Imiter le fonctionnement des chromatophores

La peau des céphalopodes, à l’instar de celle de certains poissons, amphibiens ou reptiles, contient des cellules spécialisées appelées chromatophores. Leur fonctionnement est relativement simple : ces cellules ont la particularité de contenir un sac central rempli de pigments qui s’écrase en surface de la peau lorsqu’il est comprimé par les muscles situés en dessous et reprend sa forme au repos. L’équipe californienne s’est donc inspirée de ce phénomène « surfacique » pour créer un matériau flexible sur lequel sont déposés de petits îlots métalliques qui, au repos, se touchent et bloquent le rayonnement infrarouge. Cependant, lorsque ce matériau est étiré, les îlots se séparent, ce qui permet de laisser passer le rayonnement et donc d’évacuer la chaleur.

Des applications nombreuses et variées

Avec un tel matériau, c’en est peut-être donc fini de la couverture de survie classique, très efficace pour bloquer la chaleur, mais incapable de la réguler de manière dynamique. Si un tissu conçu à partir d’un tel matériau trouve naturellement sa place dans l’espace, il pourrait révolutionner des secteurs aussi variés que l’emballage, les abris d’urgence mobile ou encore des vêtements de protection. Néanmoins, il existe un domaine où une telle solution serait particulièrement bienvenue, il s’agit de la régulation en température des bâtiments.

Combiner les avantages des systèmes de régulation actifs et passifs des bâtiments

En effet, alors que les bâtiments consomment près de 40 % de l’énergie électrique produite dans le monde, la régulation de température apparaît comme un enjeu de taille si l’on veut réduire la consommation globale d’énergie. Cependant, bien que les solutions de régulation passive soient efficaces, elles demeurent incapables de s’adapter à des conditions climatiques changeantes. C’est la raison pour laquelle les systèmes de régulation actifs tels que les climatisations sont de plus en plus utilisés malgré leur coût, leur complexité d’installation et leur forte consommation énergétique. Il apparaît donc important de trouver une solution qui combine les avantages de ces deux systèmes, autrement dit une régulation dynamique contrôlable ayant une consommation d’énergie minimale et un coût faible.

Sources :

https://www.sciencesetavenir.fr/fondamental/une-couverture-imitant-la-peau-de-calmar-pour-l-espace_133325

https://www.nature.com/articles/s41467-019-09589-w

Production simple, rapide et à haut débit de fibres de polymères

Les chercheurs de l’école technique supérieure d’ingénierie de l’université de Séville ont obtenu des fibres et des filaments de polymères à partir de solutions visqueuses d’oxydes de polyéthylène (PEO) passées dans un atomiseur de type « flow-blurring ». Habituellement, ce type d’atomiseur utilise un flux d’air sous pression pour fragmenter des solutions en un spray composé de fines gouttelettes. La manière dont le flux d’air est canalisé et la manière dont est expulsée la solution confère au « flow-blurring » un bon rendement énergétique et une très grande efficacité : gouttelettes jusqu’à 50 fois plus petites que d’autres technologies et capacité à atomiser des solutions d’une large gamme de viscosité. Mais cette fois, l’atomiseur a été utilisé pour créer des filaments de matière. En l’occurrence des filaments de polymères. Dans leur étude parue sur ACS Omega, les chercheurs espagnols ont ainsi testé différentes solutions en faisant varier les poids moléculaires et les concentrations.

Une caméra révèle les filaments

En filmant avec une caméra à haute vitesse (un million d’images par seconde), les chercheurs ont observé que sous certaines conditions, les solutions d’oxyde de polyéthylène (ainsi que d’autres polymères) ne se transformaient pas en gouttelettes mais en fils qui s’étirent à mesure qu’ils s’éloignent de la sortie de l’atomiseur. Comme les oxydes de polyéthylène sont des liquides viscoélastiques, ils s’amincissent par cisaillement et plus ils sont étirés, moins ils sont visqueux et donc plus il est facile de les allonger. Si bien que le diamètre des filaments ainsi créés diminue avec l’éloignement de l’atomiseur. L’atomiseur a fonctionné sur une gamme de pression de 3 à 6 bars. Hormis pour la solution de PEO à 100k, toutes les solutions de différents poids moléculaires testées ont montré qu’il existait un seuil de concentration à partir duquel les gouttelettes devenaient des filaments. Plus le poids moléculaire est haut et plus le seuil est bas. Cette approche décrit un procédé efficace et à haut débit pour la production massive de filaments visqueux. Ceux-ci peuvent ensuite être transformés en fibres par une étape de séchage en ligne.

Une cadence de 3kg/h

Les fibres de polymères font l’objet d’intenses recherches actuellement pour des usages très variés : tissus artificiels biocompatibles, surfaces antibactériennes, matériaux de protection, de renforcement etc. Cette étude apporte ainsi aussi un intérêt industriel, car un simple atomiseur a permis d’atteindre des débits de production élevé, de l’ordre de 3kg/h alors que les débits couramment observés aujourd’hui avec d’autres techniques tournent autour de 1kg/h explique

Luis Modesto López, professeur à l’Université de Séville et un des auteurs de l’étude. Ces travaux ouvrent aussi d’éventuelles nouvelles voies pour l’impression 3D et des perspectives pour la production de matériaux composites.

Les glaces du Mont-Blanc ont gardé les traces de la pollution de l’époque Romaine

Publiée dans Geophysical Research Letters, l’analyse de ces glaces, menée par une équipe internationale et coordonnée par une scientifique du CNRS de l’Institut des géosciences de l’environnement (CNRS/IRD/UGA/Grenoble INP), montre une pollution atmosphérique très significative en métaux toxiques : la présence de plomb et d’antimoine (dont c’est le premier enregistrement dans la glace alpine ancienne) s’avèrent liées à l’activité minière et à la production de plomb et d’argent des Romains, donc bien avant le début de l’ère industrielle.

Bien que moins bien datée qu’au Groenland, l’archive alpine retrace les grandes périodes de prospérité de l’Antiquité romaine, avec deux maximums d’émission de plomb bien distincts : durant la République (entre 350 et 100 ans av. J.-C.), puis l’Empire (entre 0 et 200 ans apr. J.-C.).

(a) Concentrations en plomb dans la glace du Groenland (bleu) et du col du Dôme (CDD, rouge). (b) Concentrations en plomb (rouge) et antimoine (vert) dans la glace du CDD. Sur l’échelle du bas, l’âge est reporté en années à partir de l’an 1 de notre ère commune (CE) (soit l’an 1 après Jésus-Christ). Les phases de croissance des émissions de plomb ont été accompagnées d’une augmentation simultanée des teneurs de la glace alpine en antimoine , un autre métal toxique.
Simulations qui évaluent la sensibilité du dépôt de plomb au col du Dôme (étoile jaune) à la localisation géographique de l’émission. Cette carte indique également l’emplacement des principales mines connues de l’Antiquité romaine. Pour la région située ~500 km autour des Alpes, en bleu celles supposées actives dès la République romaine et en rouge celles qui le seront plus tard. En dehors de cette zone, toutes les autres mines sont reportées en rouge, quelle que soit l’époque. La glace alpine est donc représentative de l’atmosphère de haute altitude qui est alimentée par les émissions de France, Espagne, Italie, îles du bassin méditerranéen, et dans une moindre mesure d’Allemagne et Angleterre.

Les Romains extrayaient le minerai de plomb argentifère pour produire le plomb nécessaire à la fabrication des conduites d’eau, et l’argent pour la monnaie. Le procédé de séparation plomb-argent passait par une fusion du minerai à 1200°C, ce qui entraînait d’importantes émissions de plomb dans l’atmosphère comme l’avaient déjà montré des archives continentales telles les tourbières, dont il est cependant difficile de déduire une information globale à l’échelle européenne. Cette toute première étude de la pollution durant l’Antiquité à partir de glace alpine permet de mieux évaluer l’impact de ces émissions anciennes sur notre environnement européen et de le comparer notamment à celui de la pollution plus récente liée à l’utilisation de l’essence au plomb dans les années 1950-1985.

Ces recherches ont bénéficié des soutiens du CNRS, de l’Ademe et des programmes européens Alpclim et Carbosol.

Source : cnrs

Des polymères qui conduisent la chaleur au lieu de la piéger

Imaginez que l’on puisse remplacer les éléments de refroidissements des voitures et des réfrigérateurs ou des matériaux de dissipation de la chaleur des ordinateurs et téléphones portables par des alternatives plastiques légères, flexibles, résistantes à la corrosion. C’est l’espoir nourri par des chercheurs du MIT qui travaillent sur le développement de polymères à forte conductivité thermique depuis des années. Leurs derniers résultats, parus dans Nature Communications, décrivent comment ils ont réussi à fabriquer des feuilles de polyéthylène dont la conductivité atteint 60 W/m/K alors que la plupart des polymères atteignent des conductivités de l’ordre de 0,1 à 0,5 W/m/K. Une conductivité exceptionnelle, meilleure que celle de l’acier (environ 15) ou des céramiques (environ 30).

De la fibre à la feuille

Les travaux publiés cette fois font suite à ceux de 2010 où cette équipe avait montré que l’on pouvait fabriquer des fines fibres de polyéthylène 300 fois plus conductrices de chaleur que le polyéthylène classique et aussi conductrice que la plupart des métaux. Mais évidemment de la fibre d’un diamètre 100 fois plus petit que celui d’un cheveu à des films manipulables, il y avait un pas technologique à franchir. Les chercheurs se sont donc tournés vers la fabrication d’une feuille plutôt que d’une fibre.

Après plusieurs années de développement, ils ont réussi à fabriquer des films de polymères très fins en partant d’une poudre de polyéthylène que l’on trouve sur le marché. La structure moléculaire du polyéthylène peut être comparé à des longues chaînes de molécules qui s’emmêlent les unes les autres en formant des amas et des nœuds. Ce désordre moléculaire explique notamment que la chaleur ne soit pas transmise rapidement. Les chercheurs ont donc cherché une méthode de fabrication qui mette de l’ordre dans cet assemblage, en créant des chaînes de molécules parallèles les unes aux autres, supprimant au maximum les nœuds. La poudre de polyéthylène a été dissoute dans une solution qui force les chaînes enroulées à s’étendre et se démêler. Une machine spécialement conçue a été mise au point pour que la solution soit expulsée dans un flux favorisant encore la formation de ces chaînes parallèles. La solution est alors immédiatement placée sur une plaque refroidie à l’azote liquide. Elle forme un film assez épais qui sera étiré sur une machine à rouleaux jusqu’à ce que le film soit plus fin que qu’un film d’emballage.

Confirmation par mesure et imagerie

L’équipe a ensuite construit un appareil pour tester la conduction thermique du film et a analysé la structure nanoscopique du matériau au synchrotron à rayons X à l’Advanced Photon Source du laboratoire national d’Argonne. L’observation a permis de confirmer que les films ayant la meilleure conductivité thermique présentaient des nanofibres avec des chaînes les moins enroulées et emmêlées. Mais ce film présente une autre particularité : il ne conduit la chaleur que dans le sens de la longueur des chaînes. L’évacuation de la chaleur est donc unidirectionnelle. Si cette caractéristique peut être utile pour des appareils électroniques par exemple, elle constitue un obstacle à d’autres applications comme l’introduction de tels polymères dans des matériaux composites. C’est pourquoi les chercheurs s’attellent désormais au défi suivant : réussir à fabriquer un film isotrope pour la conductivité.

Métamatériaux quantiques : une révolution technologique ?

Une étude sur les métamatériaux quantiques (matériau composite artificiel qui présente des propriétés électromagnétiques qu’on ne retrouve pas dans un matériau naturel) vient d’être menée conjointement par Prof. Mordechai Segev, du département de physique du Technion, et Prof. Erez Hasman de la faculté d’ingénierie mécanique du Technion. Les deux groupes sont affiliés au Centre Helen Diller pour la science, la matière et l’ingénierie quantiques et l’Institut de nanotechnologie Russell Berrie.

Les chercheurs ont démontré pour la première fois qu’il était possible d’appliquer des métamatériaux au domaine de l’information quantique et de l’informatique, ouvrant ainsi la voie à de nombreuses applications pratiques, telles que le développement de cryptages innovants, qui ouvrent eux-mêmes la voie à de nouvelles applications en informatique.

Alors que, jusqu’à présent, l’utilisation de métamatériaux s’est largement limitée à des manipulations utilisant la lumière classique, les chercheurs du Technion ont montré pour la première fois qu’il était expérimentalement possible d’utiliser les métamatériaux pour créer des systèmes d’optique quantique.

Les métamatériaux sont des matériaux artificiels, constitués de nombreuses structures artificielles à l’échelle nanométrique conçues pour réagir à la lumière de différentes manières. Les métasurfaces sont la version bidimensionnelle des métamatériaux : des surfaces extrêmement minces composées de nombreuses nano-antennes optiques, chacune conçue pour remplir une fonction spécifique lors de l’interaction avec la lumière.

Avec la technologie actuelle, il est possible de concevoir et de fabriquer des matériaux dotés de propriétés électromagnétiques presque arbitraires. Par exemple, on peut concevoir et fabriquer une « cape d’invisibilité » qui peut dissimuler de petites choses face à un radar. Jusqu’à présent, cela avait été fait avec une lumière classique, donc des radiations lumineuses classiques. Que se passe-t-il si, à la place, on utilise de la lumière quantique ?

En effet, le domaine de l’information quantique est un enjeu majeur pour l’économie, les ordinateurs quantiques pouvant, théoriquement, être des centaines de millions fois plus rapides que les ordinateurs classiques. De nombreux systèmes sont explorés aujourd’hui pour développer ces futures technologies quantiques : atomes, ions, photons, etc. Les technologies quantiques optiques, qui utilisent la lumière comme vecteur de l’information quantique, ont connu des succès remarquables ces dernières années, tels que la communication de clés cryptographiques ou la téléportation quantique sur des centaines de kilomètres.

Ainsi, un tout nouveau champ de recherche et son application technologique est ouvert. La possibilité de concevoir et d’utiliser des matériaux spécifiques pour une application donnée, associée aux propriétés bien supérieures des systèmes d’optique quantique aux systèmes classiques en matière de transfert de l’information, ne peut que laisser rêveur devant ces possibles applications technologiques.

Guillaume Duret, post-doctorant au Technion

Source : www.diplomatie.gouv.fr

Un robot colibri aussi agile que le vrai

Le colibri fait partie des animaux les plus agiles. Comme les insectes, il est capable de réaliser une tâche en vol stationnaire, de voler dans des environnements étriqués et de s’échapper rapidement d’un endroit. Ces prouesses sont permises grâce à ses ailes contrôlées par des muscles complexes : elles battent à 32 Hz et lui permettent de générer des poussées verticales. Petit, agile, rapide et robuste… le Graal des roboticiens.

Au laboratoire biorobotique de l’Université de Purdue (Etats-Unis), Xinyan Deng et ses étudiants ont mis au point une réplique robotique s’approchant des capacités physiques du colibri. L’oiseau mécanique pèse 12 g contre 7,9 pour le biologique, a une amplitude d’ailes de 70 mm (contre 77 mm) et bat des ailes à une fréquence de 34 Hz (contre 32). Il est capable de garder le contrôle de ses mouvements en transportant une charge utile de 7,5 grammes, soit plus de la moitié de son poids. Les moteurs à courant continu sont utilisés pour le vol mais également pour la détection des obstacles. Grâce à la rétroaction du courant permettant de surveiller la charge instantanée de l’aile, l’oiseau peut également détecter son environnement. Ce retour de courant, en vol bas par exemple, permet au robot de surveiller sa garde au sol tout en suivant le terrain. Elle permet également de détecter le moment où les ailes entrent en collisions avec des objets, afin de modifier la trajectoire de vol ou de contourner les obstacles. Autre prouesse grâce aux ailes : il peut voler dans des endroits étriqués, plus petits que l’amplitude de ses ailes, et s’en échapper. Pour cette dernière compétence, les chercheurs ont utilisé l’apprentissage renforcé en offrant des récompenses à chaque réussite.

Les chercheurs ont également démontré qu’avec une partie de l’aile en moins, le robot est toujours capable de se débrouiller, comme le font les insectes. « La résilience du système a été obtenue par la conception mécanique, l’optimisation du système et des algorithmes de contrôle de vol », explique Xinyan Deng dans une interview accordée à ieee Spectrum. « Nous avons testé divers algorithmes de contrôle adaptatifs et non linéaires afin d’adapter les performances de vol aux incertitudes du système dues aux dommages mécaniques et aux perturbations externes tels que les obstacles et les rafales ». Mais contrairement à son homologue, le robot n’a pas de queue. Il utilise uniquement ses deux ailes pour la portance aérodynamique et le contrôle de vol. « L’ajout d’une queue ne serait nécessaire que pour améliorer les performances de certaines manœuvres lorsque deux ailes ne suffisent pas ». Le chercheur confie ne pas avoir de projet pour le développement de cette partie.

Malgré les similitudes, il faut cependant noter que pour le moment, le robot est relié à un fil pour recevoir l’énergie nécessaire à son fonctionnement ainsi qu’aux commandes et utilise un système de localisation externe pour rester stable en vol. « Nous avons démontré une charge utile suffisante pour transporter la batterie et des capteurs supplémentaires », explique Xinyan Deng dans une interview accordée à ieee Spectrum. Le robot peut se stabiliser sans le système externe de capture de mouvement. Pour le rendre totalement autonome, le robot nécessite un retour de position supplémentaire comme une caméra, un capteur de flux optique ou un GPS. Les chercheurs travaillent sur l’intégration d’une batterie pour tester le vol sans attache et continuent de rendre le robot intelligent grâce aux algorithmes d’apprentissage par renforcement.

 

Donner vie à des portraits grâce à l’intelligence artificielle

L’année dernière, en avril, une vidéo de Barack Obama avait fait le tour du web : l’homme politique y prononçait des propos qu’il n’avait jamais tenus en réalité. Un « fake » bien réalisé – même si en regardant précisément on peut y percevoir la tromperie – en utilisant de l’intelligence artificielle. Plus récemment, en février 2019, des ingénieurs de Nvidia publiait sur Arxiv leur système permettant de créer de nouveaux visages humains, en se basant sur des visages réels, grâce à l’intelligence artificielle .

En mai, des chercheurs en intelligence artificielle russes, rattachés au Samsung AI Center et à l’Institut de science et technologie de Skolkovo, sont allés plus loin en développant un système basé sur des algorithmes d’apprentissage non supervisé capable de transformer une simple photo d’individu (réel ou artistique) en animation réaliste à partir d’une seule image. Selon les chercheurs, le résultat est acceptable à partir d’une seule référence mais gagne en réalisme en augmentant le nombre, l’idéal étant de 32 images. Les travaux ont été publiés sur Arxiv.

Pour parvenir à ce résultat, trois réseaux de neurones ont été pré-entraînés avec un grand nombre de séquences vidéo de différentes personnes pour en extraire les points de repères du visage, des yeux, nez, etc. (formes du visage, nez, yeux). Une fois entraîné, le système est capable de transposer ses connaissances sur une photo inconnue.

Pour illustrer le propos, voici ci-dessous un exemple donné par les chercheurs russes sur les possibilités offertes par le système avec deux images source différentes : un footballeur et un personnage de peinture. La « source » est la photo que l’on souhaite animer, la « target » est la séquence vidéo, les « landmarks » sont les points de repères extraits de la séquence vidéo et le « result » est l’apposition des vecteurs sur l’image source.

Les deux exemples montrent qu’il est possible d’animer une photo ou une peinture soit à partir de séquence vidéo du même individu (pour le footballeur), soit à partir d’une séquence d’un inconnu (pour la peinture).

A travers une vidéo, les chercheurs du laboratoire de Samsung exposent différentes applications, comme le bon fonctionnement du framework à partir de 16 selfies, de photos de personnalités ainsi que des personnages peints. Pour cette dernière catégorie, l’équipe prend l’exemple de Mona Lisa afin d’illustrer les capacités de leur intelligence artificielle : à partir de trois séquences vidéo de différentes personnes, il est possible d’offrir à Mona Lisa trois personnalités bien distinctes.

Pour le moment, les chercheurs ont travaillé uniquement sur le visage avec un niveau de réalisme intéressant. D’autres travaux sont en cours sur le corps entier.

Au-delà de la prouesse technique, et lorsque celle-ci aura atteint un niveau de réalisme bien plus important, la technologie questionne sur son utilisation finale. Certes les chercheurs mettent en avant la possibilité de réaliser des avatars réalistes (Facebook a dévoilé son IA récemment) mais l’idée de manipulation de la réalité à des fins peu scrupuleuses, plus communément appelés « Deepfakes », est également possible.

Fabrication additive métallique : réalités technologiques et économiques

La fabrication additive est l’une des technologies liées au numérique susceptible de transformer profondément les modes de production et, par conséquent, les modèles économiques actuels. Bénéficiant continuellement d’avancées technologiques majeures, elle ouvre la voie à de nouveaux concepts et modes de conception inenvisageables jusque là, tout en promettant d’autres champs d’applications dont certains restent encore à explorer.

Mais qu’en est-il de la réalité technologique et économique ? Concrètement, que permet la fabrication additive aujourd’hui avec les contraintes réelles d’une entreprise ? Quels investissements en temps, en formation, en équipement, seront nécessaires ?

Pour répondre à ces questions, il faut être en mesure de se repérer parmi les nombreux procédés disponibles, bien comprendre leurs avantages, leurs limites, leurs spécificités. La vue d’ensemble de toutes les grandes étapes du process est incontournable : depuis la conception, qui nécessite des outils dédiés et des compétences particulières, jusqu’aux post-traitements et contrôles, en passant par la préparation (la mise en plateau, opération délicate), la fabrication proprement dite, le choix et la qualité des poudres, les équipements à acquérir.

L’ouvrage « Fabrication additive métallique : les fondamentaux »  a été pensé comme une véritable boîte à outils pour ceux qui souhaitent sauter le pas et qui ont besoin d’informations concrètes de mise en oeuvre.
Il est disponible en téléchargement gratuit sur le site du Cetim, rubrique « Mécathèque » : https://www.cetim.fr/mecatheque/Mecatheque/Resultats-d-actions-collectives/Fabrication-Additive-Metallique-Les-fondamentaux

La 5G présente-t-elle des risques pour la santé ?

La 5G sera le carburant du monde hyperconnecté qu’on nous promet dans quelques années : smartphone, casque de réalité virtuelle, bracelets connectés, capteurs professionnels…

Mais comme pour le déploiement du Linky, l’arrivée prochaine de la 5G suscite des inquiétudes. En avril dernier, une députée LR a interpellé la ministre de la Santé sur les potentiels risques sanitaires liés au développement de la 5G. En Belgique, la ministre bruxelloise de l’Environnement s’inquiète que ses concitoyens soient pris pour « des souris de laboratoire », rapportait le journal L’Echo fin mars.

Jusqu’à présent, la Commission européenne a refusé d’examiner les effets de la 5G sur la santé humaine. En juillet 2018, Nicola Caputo, du Groupe de l’Alliance Progressiste des Socialistes et Démocrates au Parlement européen, avait demandé si la Commission européenne avait l’intention de créer un groupe de travail européen de scientifiques indépendants et impartiaux sur les champs électromagnétiques pour examiner les risques sanitaires.

Dans sa réponse, la Commission européenne a déclaré qu’« en vertu de l’article 168 du traité sur le fonctionnement de l’Union européenne, la responsabilité première de la protection de la population contre les effets nocifs potentiels des champs électromagnétiques incombe aux États membres, y compris le choix des mesures à adopter en fonction de l’âge et du statut sanitaire« . À chacun de se débrouiller avec ses normes et responsabilités.

En France, la limite d’émissions fixées par l’ANFR (Agence nationale des fréquences) s’appuie notamment sur une expertise collective sur les radiofréquences produite en 2009 par l’Anses. Même constat d’ailleurs aux États-Unis. La Federal Communications Commission se base toujours sur une norme adoptée en 1996 et s’inspirant en partie de celles adoptées il y a 30 ans par un groupe privé basé en Allemagne.

 Pas d’effets sanitaires selon l’OMS

Mais de nombreux scientifiques s’inquiètent de l’arrivée de la 5G. Dès 2017, 180 scientifiques et médecins de différents pays avaient demandé un moratoire sur son déploiement jusqu’à « ce que des études d’impact sanitaires et environnementales sérieuses et indépendantes aient été réalisées préalablement à toute mise sur le marché ».

Selon eux, « la 5 G augmentera considérablement l’exposition aux champs électromagnétiques de radiofréquences (RF-CEM) et s’ajoutera au brouillard électromagnétique déjà produit par la 2 G, 3G, 4G, Wi-Fi, etc., exposition dont il a été prouvé qu’elle est nocive pour les humains et pour l’environnement » : accroissent du risque de cancer, du stress cellulaire, changements structurels et fonctionnels du système reproductif, déficits d’apprentissage et de mémoire…

Mais malgré des milliers d’articles scientifiques sur le sujet, il y a toujours des doutes. S’appuyant sur un examen approfondi de la littérature scientifique, l’OMS a conclu que les données actuelles ne confirment en aucun cas l’existence d’effets sanitaires résultant d’une exposition à des champs électromagnétiques de faible intensité.  C’est la raison pour laquelle le CIRC (l’agence de recherche sur le cancer de l’OMS) a classé ces ondes comme « peut-être cancérogènes » pour l’homme.

Cevotec automatise la fabrication de pièces en fibres composites

Le 6 juin dernier, la jeune entreprise allemande Cevotec a reçu le prix SKF « Procédés et matériaux du futur » lors de la finale du Challenge Industrie du Futur. Thorsten Groene, fondateur et CEO de Cevotec, avait présenté devant le jury sa technologie innovante de placement automatique de bandes de fibres composites.

Qu’est-ce que Cevotec ?

Chez Cevotec, nous développons un système de production ainsi qu’un logiciel afin d’automatiser le placement de bandes de fibres composites. Les fibres composites sont encore déposées manuellement même dans les industries high tech comme l’aéronautique et l’automobile car elles sont difficiles à manipuler. Or la production manuelle est longue et coûteuse. Nos plateformes de production permettent de produire des formes complexes avec des matériaux variés tels que les fibres de carbone, de verre, les adhésifs etc. Ces pièces peuvent notamment être utilisées dans les secteurs de l’aéronautique, de l’automobile, du médical et du sport.

Comment ça fonctionne ?

Nous avons développé la suite logicielle ARTIST STUDIO qui calcule l’emplacement optimal des bandes pour que la pièce soit la plus  résistante, fine et légère. Ensuite, nos deux robots sont programmés automatiquement  pour superposer les bandes de fibres. Le premier attrape les bandes grâce à un préhenseur en mousse qui s’adapte aux formes complexes pendant que le deuxième robot maintient la pièce.

© Cevotec

Comment les industriels peuvent utiliser votre technologie ?

Dans le domaine de l’aéronautique, nous remarquons une hausse de la production dans toutes les compagnies. Les gens voyagent davantage donc il y a besoin de plus d’avions, plus efficaces et plus légers. Notre technologie permet aux industriels de produire des avions beaucoup plus rapidement car elle fabrique automatiquement des pièces comme des nacelles, des radômes ou des conduits d’air. En plus de gagner du temps, les industriels pourront réduire leurs coûts. Pour donner deux exemples, nous avons présenté notre technologie aux entreprises organisatrices du Challenge Industrie du Futur et entamé des études de faisabilité. Avec ArianeGroup, nous travaillons sur la production de capotages de formes complexes. Notre technologie est également envisagée dans l’usine SKF de Lons-le-Saunier pour la fabrication des renforts des bielles destinées aux ailes d’avion.

Quels sont vos projets ?

Nous avons déjà vendu nos premiers systèmes de production et nous travaillons actuellement avec des entreprises et des fabricants du secteur de l’aéronautique. Nous avons notamment des projets aux Etats-Unis et en Europe. La première étape est d’adapter notre technologie aux besoins des clients et nous espérons que ces projets deviennent de véritables productions au cours des années à venir.

Alice, l’avion 100% électrique d’Eviation Aircraft s’expose au Bourget

 

Parmi les différentes startups présentes au Salon International de l’Aéronautique et de l’Espace du Bourget, Eviation Aircraft a attiré notre attention. Créée en 2015, la jeune entreprise présente Alice, le prototype de son avion 100% électrique.

« Au lieu de prendre un avion qui consomme du gasoil ou du kérosène et de le convertir vers un système électrique, nous avons commencé par déterminer les limites de l’énergie disponible et du système de propulsion, puis nous avons fixer la performance minimale dont nous avions besoin pour enfin commencer à trouver une solution au problème », explique Lior Zivan, le responsable innovation de la startup Eviation Aircraft.

Tout le design de l’avion, avec ses trois hélices et sa composition en fibre de carbone, a été pensé afin d’optimiser l’appareil et lui donner la meilleure performance possible tout en consommant peu d’énergie. Alice est capable d’accueillir 9 passagers ainsi que le pilote et de voler sur 1000 km, avec une autonomie d’environ 2h45 et une vitesse de croisière de 520 km/h.

L’appareil pourrait devenir une alternative pour les trajets moyens de 500 à 1000 km. Un objectif : « changer la façon de voyager des gens », espère le responsable innovation. La startup s’intéresse notamment aux trajets entre les villes secondaires de Etats-Unis qui sont moins desservies.

Lors du Salon du Bourget, Eviation Aircraft a annoncé le nom de son premier client : la compagnie américaine régionale Cape Air. Mais avant de pouvoir utiliser Alice, Eviation Aircraft doit recevoir les certifications des autorités américaines et européennes afin d’avoir le droit de voler. Les tests pourraient encore durer plusieurs mois.

Le Li-Fi, bientôt dans nos avions ?

 

Si le Li-Fi est étudié dans divers domaines, c’est au cœur des avions que Latécoère souhaite introduire cette technologie de transmission de données. Le Li-Fi, pour Light Fidelity, utilise les ondes lumineuses –et non les ondes radio comme le Wi-Fi– afin de transmettre les données et offrir une connexion internet haut débit.

Intégrer cette technologie au sein des avions aurait plusieurs avantages. D’abord, le Li-Fi diminue considérablement le poids des câblages car il utilise des fibres optiques, bien plus légères que les câbles de cuivre utilisés pour le moment. Ensuite, Latécoère affirme que le Li-Fi est cent fois plus rapide que le Wi-Fi et a l’avantage de ne pas utiliser d’ondes électromagnétiques, qui seraient trop dangereuses dans un avion. Enfin, la sécurité des données est préservée :

« Le Li-Fi est directionnel donc à partir du moment où on est dans la bulle lumineuse, on est totalement en sécurité. Si quelqu’un voulait pirater vos données, il devrait mettre son récepteur à l’intérieur de cette bulle lumineuse », rassure Cyrille Delame, responsable innovation chez Latécoère

L’équipementier toulousain souhaite s’associer à des fabricants d’In-Flight Entertainment (IFE), à savoir les entreprises qui proposent les divertissements dans les avions. Il songe à une mise sur le marché pour 2020-2021.

Pour démontrer les apports de cette technologie, Latécoère s’est associé à AirFrance et Ubisoft pour organiser une compétition d’e-sport à travers le jeu de course Trackmania. Les phases finales auront lieu pendant un vol AirFrance et le gagnant remportera un voyage à Montréal.

Infographie : La ville du futur au service des citoyens

Les technologies numériques sont en train de transformer durablement le fonctionnement de nos villes actuelles avec pour objectifs de répondre aux défis liés à la gestion de métropoles de plus en plus énormes. Le nouveau concept de ville intelligente ou ville du futur, plus souvent appelé smart city, change toute l’idée que nous avons du fonctionnement d’une ville : l’infographie ci-dessous présente tous les changements qui impactent directement la vie quotidienne des citoyens mais aussi les politiques urbaines.

 

 

Le principe même de smart city repose en grande partie sur l’existence de bâtiments intelligents, ou smart buildings, connectés entre eux et capables de gérer leur consommation énergétique. Les smart grid offrent de nouvelles opportunités pour la production, la distribution et l’échange de l’énergie, issue de sources conventionnelles ou renouvelables.

Les réseaux de capteurs, distribués dans la ville, à l’intérieur des bâtiments et des autres structures, sont primordiaux pour fournir une interconnectivité dans le contexte de l’Internet des Objets (Internet of Things – IoT, en anglais). Ainsi, chaque objet à l’intérieur d’une maison, d’un hôpital ou d’un bureau a la possibilité de se connecter à Internet. Le grand challenge est lié à une évolution exponentielle du nombre d’objets connectés, de l’ordre de plusieurs billions dans les années à venir. Pour une ville entière, les mécanismes de coordination réseaux et le traitement d’un volume élevé de données seront donc le défi à relever. Assurer la connectivité des nœuds dans toute la ville impose bien évidemment un réseau de grande taille. Ce réseau doit répondre aux besoins de latence, capacité, disponibilité, stockage et flexibilité demandés par des applications de divers types.

Cependant, parler uniquement de l’infrastructure est inutile. Le concept de smart city n’a aucun sens sans les applications qui servent à la vie quotidienne et qui supportent des activités liées au transport, à la santé publique, à des aspects écologiques et de l’éducation. Ces domaines constituent l’axe central du bien-être de la population.

Quelques exemples d’applications au service de la vie quotidienne

Les systèmes intelligents d’éclairage public sont très importants, pas seulement dans le contexte de la sécurité des passants, mais également pour optimiser la consommation électrique de la ville. Des systèmes de contrôle similaires à l’intérieur des maisons et bureaux peuvent être implémentés pour une gestion intelligente de l’électricité en fonction des fluctuations du prix. On peut prévoir aussi une rétro-alimentation grâce aux systèmes d’information d’une infrastructure smart grid. Par exemple dans la ville de Padoue en Italie, une preuve de concept a été effectuée en utilisant une architecture d’Internet des Objets pour le contrôle de l’éclairage public. Les capteurs utilisés pour le monitorage des ampoules sont des photocellules permettant de surveiller la luminosité de la journée. Le système est également doté de capteurs d’humidité, de température et de qualité de l’air qui fournissent des informations sur les conditions météorologiques et environnementales.

D’autres aspects peuvent être abordés pour l’amélioration des autres activités quotidiennes comme la collecte de déchets ou le monitorage de la pollution de l’air ou sonore. Par exemple, les routes et horaires de camions-poubelles peuvent être optimisés en connaissant l’évolution du volume des ordures dans les containers de déchets dans des différentes zones de la ville pendant la semaine.

Enfin, l’éducation et la santé, piliers fondamentaux de la société humaine, sont également susceptibles de subir des transformations radicales grâce aux nouvelles technologies.

La salle de cours classique peut devenir un endroit plus interactif avec des outils qui suivent la présentation d’un enseignant pour lui donner un retour qui l’aidera à améliorer systématiquement son cours, voire en temps réel. Grâce à l’avis des étudiants de l’auditorium et à un système de Machine Learning, le professeur peut apprendre de sa propre expérience, peut recevoir des conseils qui l’aideront à améliorer sa respiration, sa posture et son intonation, et il peut repérer les parties du cours où les étudiants ont eu plus du mal à comprendre. Si l’enseignant est, par exemple, en train d’enseigner une activité manuelle comme jouer de la guitare ou faire une pièce en bois, par le truchement de gants haptiques ou d’autres types de capteurs sur le corps, il sera possible de sauvegarder ses mouvements et ainsi aider ses élèves à répéter ce qu’il est en train de faire pour ensuite maîtriser le geste.

Ce dernier exemple fait partie d’une nouvelle révolution appelée « l’Internet Tactile », qui est lié au concept de l’Internet of skills pour sa capacité d’effectuer des tâches à distance, un élément qui transformera notre façon d’interagir avec l’environnement .

La médecine du futur, c’est maintenant

Dans le cas de la médecine, ces nouvelles technologies peuvent être un outil fondamental pour entraîner de futurs chirurgiens ou pour effectuer une opération chirurgicale à distance. Les possibilités qui s’ouvrent sont infinies mais il reste encore des défis techniques à surmonter comme la réduction critique de la latence réseau pour les procédures de haute-précision. En effet, les opérations par exemple de chirurgie à distance peuvent être conduites à des milliers de kilomètres et les réseaux actuels ne sont pas préparés pour des liens dédiés sur une infrastructure très hétérogène et partagée entre plusieurs opérateurs.

D’ailleurs, dans le domaine de la santé, il y a aussi beaucoup de perspectives pour tout ce qui concerne :

– la surveillance des signes vitaux des patients avec des capteurs sur le corps (body wearable sensors) ;

– la collecte des données périodiquement et même l’administration et la surveillance de médicaments ou d’autres procédures régulières à distance ;

– c’est aussi un domaine où la sécurité informatique et la protection de données personnelles va jouer un rôle fondamental pour garantir la vie privée des patients.

 

Exclusif ! Retrouvez l’article complet dans les ressources documentaires en accès libre jusqu’au 21/07/2019

Smart-buildings : veille sectorielle et technologique, un article d’Arnaud MOIGN

Le soleil et l’océan pour le carburant de demain ?

Des scientifiques issus du Laboratoire fédéral de recherche Empa, de l’EPFZ et des universités de Zurich, Berne et Trondheim ont évalué le potentiel d’îlots solaires flottants pour recycler le CO2 des océans. Leur idée : déployer des plates-formes flottantes équipées de panneaux photovoltaïques alimentant un procédé d’électrolyse de l’eau de mer. L’hydrogène alors produit serait mis en réaction avec le CO2 extrait de l’eau de mer pour être converti en méthanol. Objectif : produire assez de méthanol pour rendre neutre en carbone le transport de marchandises mondial. Leur scénario est publié dans la revue « Proceedings of the National Academy of Sciences » (PNAS).

Du méthanol liquide en mer pour le transporter sur terre

Déployer des centrales solaires au milieu de l’océan est une idée pour limiter les surfaces occupées sur terre. Mais l’’électricité produite ne peut être stockée et transportée facilement. Les chercheurs parient donc sur la production de méthanol, un combustible liquide, qui serait plus facile à transporter. Le méthanol peut être utilisé comme carburant, mais aussi pour fabriquer d’autres produits chimiques, tels que des précurseurs pour la production de polymères, et donc de plastiques. Ces matières premières pourraient ainsi être produites à partir du soleil et de l’océan.

 « Une surface d’environ 170 000 km2 serait nécessaire pour répondre à la demande annuelle du transport mondial de marchandises », prévient Andreas Borgschulte du département Advanced Analytical Technologiesde l’Empa. C’est près de la moitié de la superficie de l’Allemagne. Pour éviter d’artificialiser les sols, les chercheurs imaginent donc des installations flottantes. Si le CO2 peut être extrait de l’air en mer, les chercheurs proposent d’utiliser le CO2 présent dans l’eau de mer, puisque la concentration y est «  environ 125 fois plus concentrée » que dans l’air.

Verra-t-on demain des îlots solaires flottants partout ?

Une plate-forme de démonstration sur terre, à Dübendorf (Suisse), donne des résultats encourageants. Mais une usine chimique flottante a son prix : environ 90 millions de dollars, soit 80 millions d’euros. D’une superficie totale d’environ 550 000 m2, elle serait constituée d’environ 70 îles photovoltaïques d’un diamètre d’environ 100 m2. Un navire équipé des installations d’électrolyse et de synthèse de méthanol complèterait le dispositif.

Mais une seule usine est loin d’être suffisante pour atteindre un transport de marchandises nul en carbone. Il faudrait 170.000 îles de ce type pour recycler l’équivalent de tout le CO2 émis par le secteur.  « Un objectif utopique », reconnaissent les auteurs, « mais qui mérite d’être poursuivi ».