Le G20, loin de décarboniser assez son économie

Pour limiter le réchauffement climatique à 2°C, il faudrait faire baisser l’intensité carbone de l’économie mondiale de 6,3 % par an jusqu’en 2100. C’est-à-dire baisser chaque année de 6,3 % les émissions de gaz à effet de serre liées à la consommation d’énergie par million de dollars de PIB. Et pour le moment, les contributions nationales actées par l’Accord de Paris sont largement insuffisantes. Elles prévoient une décarbonisation d’environ 3 % par an et elles doivent donc être renforcées d’ici 2020. Mais selon l’étude de PwC, le compte n’y est pas du tout. Si les objectifs sont déjà trop faibles, la baisse sur le terrain y est encore plus lente. En effet, l’intensité carbone de l’économie mondiale n’a diminué que de 2,6% entre 2015 et 2016.

Les bons et les mauvais élèves du G20

Seuls deux pays du G20 sont en accord avec l’objectif des 2°C: le Royaume-Uni et la Chine qui affichent un taux de décarbonisation de leur économie de 7,7 % et 6,5 % en 2016. «C’est le résultat d’une baisse de la consommation de charbon et d’une amélioration de l’efficacité énergétique, parallèlement à une croissance économique dynamique dans ces deux pays», juge PwC. Le Mexique et l’Australie ont également réussi à réduire leur intensité carbone de 4,6 % et 3,8 % tout en ayant une croissance économique supérieure à 2 %. Pour le Mexique, c’est plus que son engagement pris à Paris (2,4%), mais pour l’Australie, cela reste inférieur à ses objectifs (4,5%). Enfin, si le Brésil a décarbonisé son économie de 3,8 %, plus que promis à Paris, c’est surtout parce que le pays est en récession de 3,6 %.

À l’opposé, les pires élèves sont l’Indonésie, l’Argentine et la Turquie. Ces trois pays ont augmenté leur intensité carbone entre 2,5 % et 3,4 %. Il y a deux autres mauvais élèves qu’il convient de mentionner : l’Afrique du Sud et la France. Ces deux pays connaissent chacun une hausse inférieure à 1%. Mauvaise nouvelle, puisque l’Afrique du Sud a l’intensité carbone la plus élevée du G20. Pour la France, c’est un petit peu moins grave, puisqu’elle présente déjà la plus faible intensité carbone.

decarbonisation-G20

Une lutte impossible contre le changement climatique ?

La lutte contre le changement climatique est ainsi très loin d’être gagnée. Sans changement, le budget carbone sera épuisé en 2036 et il ne sera plus possible de limiter le réchauffement à 2°C, calcule PwC. Avec une croissance économique mondiale prévue à 2,1%, les émissions de gaz à effet de serre devront diminuer de plus de 4% chaque année en moyenne. Elles ont encore augmenté de 0,4% en 2016.

Au final, les efforts pour diminuer le charbon dans certains pays sont contrebalancés par l’augmentation de la demande dans d’autres pays, comme l’Inde, l’Indonésie ou la Turquie. En 2016, la demande en charbon n’a ainsi baissé que de 1,4%. Pendant ce temps, la demande en gaz et pétrole a continué de croître de 1,8%. Et si les capacités solaires et éoliennes ont augmenté de 30% et 15,9%, elles ne représentent toujours qu’une petite part du système énergétique mondial.

Par Matthieu Combe, journaliste scientifique

Chine: la pollution de l’air réduit le potentiel du solaire

On le sait : les aérosols émis par l’industrie chinoise et par la combustion des énergies fossiles et de la biomasse, diminuent l’ensoleillement dans de grandes parties de la Chine. L’Université de Princeton est allée plus loin. Selon sa nouvelle étude, la pollution de l’air empêche entre 20% et 25% de la lumière d’atteindre les panneaux solaires chaque année dans les régions les plus polluées du nord et de l’est du pays.

En combinant leur modèle de performance solaire avec des données satellites de la NASA, les chercheurs calculent une production en baisse jusqu’à 1,5 kilowattheure par mètre carré par jour en hiver. C’est une réduction du potentiel de production d’électricité solaire de 35%. Un effet comparable à celui des nuages. «Cela suffit pour alimenter un aspirateur pendant une heure, laver 5 kg de linge ou travailler sur un ordinateur portable pendant cinq à 10 heures», préviennent les auteurs.

Les chercheurs ont fait une autre découverte. Les aérosols diminuent encore davantage la production d’électricité des panneaux équipés d’un tracker solaire qui permet de suivre la course du soleil. A l’est de la Chine, la baisse y est de 21% pour les systèmes fixes à angle optimal, là où elle est de 34%  pour les systèmes de suivi à deux axes.

Combattre la pollution pour produire plus

Cette découverte est riche d’enseignements pour l’ensemble des pays en développement à forte pollution atmopshérique qui misent sur un développement important de l’énergie solaire. Outre des effets sanitaires bénéfiques certains, la lutte contre l’émission d’aérosols bénéficiera d’une rétroaction positive. La bonne nouvelle est qu’en plus de réduire la dépendance aux combustiles fossiles et les émissions liées, l’augmentation des capacités solaires entraînera aussi une hausse de la production des panneaux déjà installés.

Les chercheurs estiment que cette découverte incite les pays à prioriser les nouvelles centrales dans des zones reculées où la qualité de l’air est meilleure. Chaque pays pourra ainsi évaluer, au cas par cas, les coûts de transport de l’électricité à partir des régions les moins polluées pour alimenter en courant les plus polluées. Et voir si la production supplémentaire rentabilise ces délocalisations. L’Université de Princeton va désormais étendre ses analyses à d’autres régions du monde, à commencer par l’Inde. Elle examinera aussi si les polluants réduisent la production d’électricité en salissant la surface même des panneaux photovoltaïques.

Par Matthieu Combe, journaliste scientifique

Défaillances d’entreprises: la reprise économique est là !

Le cabinet Altares vient de publier son observatoire des défaillances d’entreprises en France au 3e trimestre 2017. « Le nombre trimestriel de défaillances d’entreprises est tombé sous le seuil des 11.000 pour la première fois en dix ans », se félicite Thierry Millon, Directeur des études Altares. C’est aussi 2.095 défaillances en moins qu’au deuxième trimestre 2017. Avec 33.800 emplois menacés par les procédures judiciaires, « le nombre d’emplois menacés est également le plus faible de la décennie », précise l’étude d’Altares. C’est 22.000 de moins qu’il y a trois ans et 6.700 de moins qu’au trimestre dernier.

La reprise pour les TPE et les grosses entreprises

Dans le détail, 7.460 entreprises (- 5,0 %) ont été placées en liquidation judiciaires. 3.150 sont en redressement judiciaire (- 5,1 %) et 220 (- 13,4 %) sont en sauvegarde. « La reprise économique est vraiment là, mais pour encore trop d’acteurs financièrement, la crise couve toujours », observe Thierry Millon. Pour redonner de la confiance aux agents économiques, il faudrait notamment inverser la tendance sur les retards de paiements. Car ceux-ci sont en cause dans nombre de défaillances. « Les deux tiers des clients allemands payent leurs fournisseurs à l’heure, c’est l’inverse en France », note Thierry Millon, notamment durant les congés d’été et en fin d’année. Mais lorsque la trésorerie fait trop longtemps défaut à une TPE, les procédures judiciaires arrivent vite.

Les plus fortes défaillances portent ainsi sur les petites entreprises : 75% concernent celles de moins de 3 salariés. Néanmoins, la baisse est importante, de 6,7%, identique à celle du deuxième trimestre. Pour les TPE de 3 à 9 salariés, le nombre de défaillances reste stable (-0,1%), tout comme pour celles de 50 à 99 salariés. Cette dernière catégorie était en croissance de 35% au second semestre. La baisse est de 3% pour les entreprises entre 10 et 49 salariés. Enfin, les plus grosses entreprises, de plus de 100 salariés, confirment leur reprise (-23%), alors qu’elles étaient en hausse de 11% au trimestre dernier.

Des différences régionales et selon les secteurs

Les régions observant les meilleures dynamiques de reprise sont les Hauts-de-France, la Nouvelle-Aquitaine, la Bretagne, l’Auvergne-Rhône-Alpes, l’Occitanie et les Pays-de-la-Loire. Ces territoires « enregistrent un nombre de défaillances au plus bas sur dix ans », note Altares. Et la Normandie est « au plus bas sur huit ans ». À l’opposé, les défaillances augmentent en Bourgogne-Franche-Comté (+5,7%), en Centre-Val-de-Loire (+5,6%) et en PACA (+3,4%). La Guadeloupe est en très mauvaise posture, avec 56 défaillances d’entreprises, alors qu’elle n’en avait enregistré que 5 au deuxième trimestre.

Certains secteurs profitent de la reprise économique. Les défaillances d’entreprises baissent fortement dans le secteur de la construction et de l’immobilier, de l’industrie, notamment l’agroalimentaire. Mais aussi dans l’habillement, la restauration traditionnelle, les salons de coiffure, les services d’architecture et d’ingénierie. En revanche, les services de soin de la personne et l’optique, l’hébergement, le conseil en communication et gestion, la programmation informatique sont en hausse. Les taxis, les infirmiers et les sages femmes souffrent particulièrement.

defaillances-entreprises-3e-trimestre
Evolution des défaillances d’entreprises entre le 3e trimestre 2016 et le 3e trimestre 2017. PHOTO//Altares

Par Matthieu Combe, journaliste scientifique

 

Un nouveau cristal 2D sur le point d’être isolé ?

Les cristaux en deux dimensions, constitués d’une seule couche d’atomes en « nid d’abeille » intéressent fortement les chercheurs depuis quelques années. Conducteurs ou semi-conducteurs nanométriques, ces matériaux possèdent en effet des propriétés électroniques fascinantes. Ils pourraient être des isolants topologiques utilisables dans la fabrication des ordinateurs quantiques. Toutefois, la mise en évidence de cette propriété n’est pas simple. La première difficulté réside dans le fait que dans la nature, on ne trouve sous cette forme que le graphène, constituant du graphite. D’autres cristaux bidimensionnels peuvent aujourd’hui être obtenus par synthèse, comme le silicène, le stanène et le germanène, respectivement à base de silicium, d’étain et de germanium. Leur synthèse se fait sur un support cristallin comme l’aluminium, l’or ou l’argent. Mais jusqu’à présent, le cristal 2D n’a pu être dissocié de son substrat … Impossible donc de les étudier isolément ! Grâce aux travaux des chercheurs de l’Institut de Science des Matériaux de Mulhouse une étape cruciale vers cette séparation vient d’être franchie.

L’étude des chercheurs de l’Institut de science des matériaux de Mulhouse porte précisément sur le germanène. Pour la synthèse, une méthode consiste à déposer sous ultravide et très lentement (0,005 nm/min) du germanium sur la face (111) d’un cristal d’aluminium. Ce  substrat est maintenu entre 80 et 100 °C pendant le dépôt. Les scientifiques ont montré qu’en appliquant de petites impulsions de tension avec la pointe de leur microscope à effet tunnel (STM), le germanène change de structure atomique. Il peut présenter deux formes distinctes, et l’on peut passer de l’une à l’autre à volonté ! Ces deux structures ont été modélisées à l’aide de la théorie dite de la fonctionnelle de la densité, une méthode de calcul quantique. Les images de microscopie à effet tunnel simulées s’accordent parfaitement avec les images expérimentales, comme cela est visible sur l’image ci-dessous.

Cette étude, publiée dans la revue Journal of Physical Chemistry Letters, confirme dans un premier temps l’existence du cristal 2D de germanène. Elle met aussi en évidence la possibilité de modifier les interactions entre les atomes de germanium et ceux du substrat. Il parait alors possible de découpler le germanène du substrat par exfoliation. Ces cristaux pourraient maintenant jouer un rôle dans les dispositifs de la microélectronique et des énergies de demain.

2D

Source: CNRS

Linux : un maillon essentiel pour l’informatique mondiale

La lecture du rapport 2017 Linux Kernel Development révèle de nombreuses surprises. Et la principale: sans le kernel de Linux, point de salut pour l’informatique mondiale. Ce noyau (kernel en anglais) représente en effet la partie fondamentale de certains systèmes d’exploitation comme les distributions GNU/Linux Debian, Ubuntu, Opensuse ou encore Fedora pour ne citer que les plus connues du grand public (sans compter les versions professionnelles).

Il gère les ressources de l’ordinateur (ou d’un serveur) et permet aux différents composants – matériels et logiciels – de communiquer entre eux.

Seconde surprise de taille pour le grand public: Linux est partout ! Présenté il y a quelques jours, à l’occasion de la conférence Linux Kernel Summit en République Tchèque, ce rapport précise que le noyau Linux est utilisé dans 90 % des instances cloud public, 82 % des smartphones, 62 % du marché de l’informatique embarquée, sans oublier 99 % des superordinateurs. Sa dernière release (4.13) compte presque 25 millions de lignes de code.

500 entreprises

Résultat, près de 1700 développeurs, travaillant pour 225 entreprises, ont collaboré pour maintenir à jour, repérer des failles de sécurité 0-day et corriger les bugs de cette dernière version. Depuis le dernier rapport, publié l’année dernière, plus de 4 300 développeurs de plus de 500 entreprises ont apporté leurs contributions en lignes de code. Le kernel de Linux est donc un travail d’équipe parfaitement rodé qui rassemble des informaticiens de différents horizons.

Troisième surprise: la diversité des contributions. Ce dernier rapport indique que Intel, avec 13,1 % des contributions, est la société qui a le plus apporté au noyau entre les versions 4.8 et 4.13. Les développeurs indépendants représentent la deuxième force avec 8,2 % des contributions. Nous trouvons ensuite Red Hat (7,2 %), Linaro (5,6 %), IBM (4,1 %), des consultants (3,3 %), Samsung (3,2 %), Suse et Google (3 %) et AMD (2,7 %) pour ne lister que les 10 plus importants contributeurs de ce rapport.

La rapidité des correctifs

«Le kernel Linux est l’un des projets open source les plus importants et les plus réussis ayant pu voir le jour. Le développement du kernel prouve donc qu’il est capable de passer à l’échelle et de doubler sa vitesse de développement sans le moindre problème» concluent les auteurs du rapport.

Cette efficacité s’expliquerait-elle par la «surveillance» du Finlandais Linus Torvalds ? Le créateur de Linux (en 1991 lorsqu’il était encore étudiant en informatique) teste fréquemment les nouvelles versions du kernel. En cas d’erreurs ou de dysfonctionnements, il en informe les développeurs. «Peu de choses peuvent se targuer d’être aussi rapides qu’un développeur dont le dernier patch a cassé le poste de travail de Linus», constatent Jonathan Corbet (développeur du noyau Linux et éditeur du site LWN.net) et Greg Kroah-Hartman (mainteneur Linux), les deux auteurs de ce rapport…

Philippe Richard

Déformer un plastique à distance

Actuellement, pour mettre en mouvement, de manière contrôlée, des polymères conducteurs, on passe toujours par une connexion physique : un câble relie le polymère à une source d’électricité. Des chercheurs de l’Institut des sciences moléculaires (CNRS/Université Bordeaux/Bordeaux INP) ont réussi à déclencher des mouvements à distance en utilisant l’électrochimie bipolaire. Leurs travaux, publiés dans la revue Angew. Chem représentent un premier pas vers la possibilité d’actionner à distance des structures telles que des muscles artificiels.

Le concept d’électrochimie bipolaire

Le concept de l’électrochimie bipolaire repose sur le fait que lorsqu’un objet conducteur dans une solution est soumis à un champ électrique externe, il se polarise – un mouvement des électrons d’une extrémité à l’autre de l’objet conduit à la formation d’une anode d’un côté et d’une cathode de l’autre. L’objet se transforme en électrode bipolaire et une différence de potentiel va être générée entre ses deux extrémités. Si elle est suffisante, des réactions d’oxydoréductions peuvent se produire aux extrémités (oxydations à l’anode, réductions à la cathode).

cnrs déformation polymere

Appliqué à un polymère conducteur, ces réactions d’oxydoréduction aux deux extrémités du polymère conduisent à la déformation asymétrique de sa structure et donc à un mouvement. La déformation est réversible, le polymère reprenant sa forme par une réaction inverse quand le champ électrique s’arrête et l’amplitude de la déformation peut être contrôlée par la différence de potentiel entre les deux électrodes.

Vers de nouveaux muscles artificiels

La recherche sur les muscles artificiels s’intéressent de près aux polymères conducteurs car ils  présentent des caractéristiques de pression et de force supérieures aux muscles naturels. Parmi ces polymères, les polypyrolle semblent bien adaptés à ces applications. Aussi, pour essayer de dépasser les contraintes liées à une connexion physique obligatoire pour actionner ce type de polymères, l’équipe de l’institut de sciences moléculaires a synthétisé des films de polypyrolle dopés avec des dodécylbenzènesulfonate (DBS) dans une structure bi-couche intrinsèquement asymétrique. En les immergeant dans une solution aqueuse et les exposant à un gradient de potentiel, elle a pu constaté l’oxydoréduction asymétrique du polymère qui se traduit par une contraction et un gonflement le long de l’axe principal (voir schéma). Ces travaux devraient permettre d’orienter la recherche d’actionnement à distance des polymères conducteurs dans de nouvelles directions.

Sophie Hoguin

Le recyclage cherche toujours à se consolider

Jean-Philippe Carpentier, président de Federec veut rester optimiste. Tout comme les entreprises interrogées qui ambitionnent une hausse de leur chiffre d’affaires pour 2017. Du côté des bonnes nouvelles, la collecte atteint pour la première fois les 101 millions de tonnes. Soit une hausse de 2,2% par rapport à 2015. Et  les effectifs sont repartis à la hausse pour atteindre 26.750 employés.

Il y a aussi des nouvelles moins agréables. Malgré la hausse de la collecte, le chiffre d’affaires des entreprises du recyclage baisse de 1,8% pour atteindre 8,15 milliards d’euros. En cause, la baisse du coût des matières premières. Et les investissements reculent de 2,3%, à 465,1 millions d’euros. Par ailleurs, plusieurs entreprises ont récemment mis la clé sous la porte. Fin 2016, 1.250 entreprises étaient en activité pour 2.160 établissements en France. Soit 50 entreprises et 90 établissements de moins qu’en 2015. Mis à part la Corse, toutes les régions ont perdu entre 2 et 9 établissements.

Un bilan du marché du recyclage en demi-teinte

Dans le détail, certaines branches du secteur s’en sortent mieux que les autres. Pour toutes les branches, le volume entrant augmente. Il y a toutefois une exception. Si le recyclage des papiers et cartons est en hausse de 1,5%, ces bons résultats cachent une collecte en baisse de 1,4% pour les papiers, suite à une baisse de 9,5% en 2015.

Les seules branches qui connaissent une hausse de leur chiffre d’affaires sont les déchets organiques, les papiers-cartons, le verre et les textiles. Les plus fortes baisses de revenus liées à la vente des matières sont observées pour le bois, les métaux non ferreux, les plastiques et la ferraille. Pour les plastiques, la situation est particulièrement compliquée avec un chiffre d’affaires de 194 millions d’euros. Il était de 200 millions d’euros en 2015 et de 250 millions en 2014.

Capture d’écran 2017-10-27 à 12.30.04
Diagramme Volumes entrants estimés en millions de tonnes en 2016. Pour un total de 101,074 millions de tonnes. Chiffres FEDEREC

Quoi de neuf pour 2017 ?

Les cours des ferailles et des métaux non ferreux sont repartis à la hausse en 2017, donc l’année devrait être assez bonne. Grâce à la loi de transition énergétique pour la croissance verte, les branches biodéchets et du BTP devraient connaître une nouvelle année de développement.

En revanche, l’année devrait encore être compliquée pour le bois, car les professionnels misent sur sa valorisation par la technologie de combustibles solides de récupération (CSR), mais celle-ci peine à se développer en France. Aucune embellie n’est prévue non plus en 2017 pour les plastiques et le papier. En effet, la Chine a récemment décidé de restrictions importantes sur leur importation. Cela entraîne une chute des prix et les professionnels ont du mal à évacuer leurs flux en mélange. Ils pourraient être amenés à incinérer ces flux.

Par Matthieu Combe, journaliste scientifique

Le principal substitut au glyphosate retiré du marché français !

Les pays européens ne savent plus sur quel pied danser. D’un côté les agriculteurs militent pour la prolongation de l’homologation du glyphosate, principe actif du Roundup de Monsanto. De l’autre, leurs populations sont de plus en plus sensibles à ses risques sanitaires supposés. En cas d’interdiction, le glyphosate sera immédiatement remplacé par des produits autant, voire plus problématiques, à moins d’une révolution des pratiques agricoles conventionnelles.

Il existait bien une molécule aux qualités équivalentes: le glufosinate-ammonium. Il s’agit d’un «herbicide non sélectif» qui constitue «l’un des rares substituts du glyphosate», selon la Commission européenne. Mais nouveau coup dur pour les agriculteurs, l’Agence nationale de sécurité sanitaire (Anses) a retiré l’autorisation de mise sur le marché (AMM) de tous les produits en contenant. Ce n’était pas trop compliqué, le seul produit autorisé en France était le Basta F1 de l’entreprise Bayer. L’Anses a également interdit l’importation de neuf insecticides identiques au Basta F1, commercialisés par d’autres entreprises. C’était le 24 octobre, en plein débat européen sur la durée de renouvellement du glyphosate. Les agriculteurs pourront écouler leurs stocks jusqu’au 24 octobre 2018. À cet horizon, tous les pesticides contenant cette substance seront interdits sur le sol français.

Glufosinate: des risques qui ne peuvent pas être exclus

Cet herbicide classé reprotoxique présumé était utilisé sur les vignes, vergers, légumes et pommes de terre. L’Anses estime que «des risques pour la santé des utilisateurs et des travailleurs, et des personnes présentes à proximité des espaces traités, ne peuvent être exclus». C’est également le cas «des enfants habitant ou fréquentant une institution à proximité des espaces traités», ajoute-t-elle. En face, «Bayer est surpris de cette décision de retrait d’AMM», fait savoir l’industriel dans un communiqué. L’agence n’aurait pas pris en considération les dernières données disponibles, ce qui l’aurait conduit à «surestimer de 300 à 1000 fois le risque pour la santé humaine», regrette-t-il.

L’Anses est en charge de délivrer les AMM des pesticides et de leurs adjuvants depuis juillet 2015. Elle est également en charge du dispositif de phytopharmacovigilance, soit le contrôle des produits autorisés sur le terrain qui lui permet de reconsidérer l’AMM d’un produit. Depuis, l’agence a ainsi retiré 147 AMM «pour des raisons de sécurité sanitaire» contenant certaines substances actives. Soit 7 produits à base d’amitrole, 3 à base de chlorpyriphos-éthyl et 1 à base de diméthoate. Mais surtout, elle a interdit 126 produits à base de glyphosate associé au coformulant POE-tallowamine.

Par Matthieu Combe, journaliste scientifique

Chine : Naissance du plus gros électricien mondial

Un capital de 230 Mds €

Le gouvernement chinois, par le biais de l’Assets Supervision and Administration Commission, a approuvé la fusion de Shenhua Group Corp, le premier groupe charbonnier du pays, avec China Guodian Corp, l’un des principaux électriciens du pays. Le nouvel ensemble, nommé China Energy Investment Corp, pèsera 230 Mds€ et contrôlera 225 GW de capacités installées, ce qui le propulse au rang de premier électricien mondial devant EDF et l’italien Enel.

Différence de taille avec l’opérateur tricolore, le mix électrique du nouveau groupe chinois est très carboné: 77% de charbon (voir graphique ci-dessous). C’est en partie l’une des raisons du rapprochement avec la China Guodian Corp qui grâce à ses installations renouvelables, verdit un peu les actifs de Shenhua, dépendant à 90% de la houille avant la fusion. L’association des deux compagnies doit créer un groupe capable de virer vers les énergies décarbonées et financièrement assez solide pour supporter cette mutation.

-1x-1

Rationalisation

Cette opération s’inscrit également dans une politique de rationalisation assumée de la part de Beijing, qui a annoncé en juillet son intention de transformer les grands électriciens publics en Société à responsabilité limitée (SARL) d’ici la fin de l’année, indique CNBC. Plus généralement, le gouvernement chinois attend un effort desdits groupes pour améliorer leur fonctionnement avec l’ambition claire d’en faire des champions internationaux.

Un électricien chinois a d’ailleurs déjà mis un premier pied en Europe, au Royaume-Uni précisément. La China General Nuclear Power Corporation (CGN) a remporté en 2015, aux côtés d’EDF, le contrat d’Hinkley Point qui prévoit la construction non pas d’un, mais de plusieurs réacteurs EPR. Si l’électricien français est majoritaire sur Hinkley Point C, le partenariat prévoit que CGN mène à son tour les projets de Sizewell et Bradwell. EDF minoritaire doit lui permettre de faire certifier son réacteur de grande puissance (HPR1000). Ce dernier est issu du transfert de technologie franco-chinois du réacteur de Framatome à eau pressurisée de 900 MW. Dans cette optique, la Chine avait lancé une nouvelle compagnie, la General Nuclear International (GNI), pour promouvoir et vendre les modèles de la filière nucléaire chinoise à l’exportation.

A noter que les mêmes rumeurs de concentration agitent également le secteur européen de l’énergie. Certains observateurs s’attendent à une nouvelle série de fusions/acquisitions sur le Vieux continent dans les prochains mois. La naissance de la China Energy Investment Corporation ne risque pas de les en dissuader…

Romain Chicheportiche

Une énorme armée d’objets connectés en marche !

Un botnet fait trembler le web mondial. Contraction de bot (machine) et de net (pour network, réseau en français), il rassemble plus d’un million d’objets connectés qui sont sous le contrôle de pirates. C’est ce qu’on appelle un réseau de «zombies», c’est-à-dire des machines contrôlées à l’insu de leur propriétaire par des cybercriminels.

Les chercheurs en sécurité des sociétés Qihoo 360 et Check Point l’ont baptisé respectivement «IoT_reaper» et «IoTroop». «La cybertempête qu’il pourrait générer est suffisante pour casser Internet», souligne Check Point, un fournisseur mondial de solutions de sécurité des réseaux informatiques.

La plus importante attaque DDoS jamais enregistrée

Selon ces deux éditeurs, les pirates focalisent sur une dizaine de marques parmi lesquelles D-Link (routeurs et caméras IP), Netgear (routeurs et NAS), Linksys (point d’accès Wi-Fi), Synology (NAS). De nombreux particuliers et professionnels possèdent des modèles de ces marques ; ce sont autant de victimes potentielles…

À quoi pourrait servir cette armée de l’ombre ? Elle pourrait principalement servir à programmer des attaques par déni de service distribué (DdoS) et paralyser ainsi l’activité de l’entreprise ciblée. En septembre 2016, OVH avait été impacté par une très puissante attaque DdoS. Selon cet hébergeur français, la bande passante combinée s’élevait à 1 To par seconde. L’une des deux attaques avait atteint un pic de 799 Go par seconde à elle seule. Il s’agit là de la plus importante attaque DDoS jamais enregistrée.

Face à ce tsunami de requêtes produit par un botnet constitué de 145 607 caméras connectées piratées, les serveurs ont lâché et l’accès à de nombreux services et sites hébergés par OVH ont été indisponibles.

De plus en plus d’attaques

Face à une telle menace, que doivent faire les propriétaires de ce type d’appareils connectés ? Interviewé par 01net, Laurent Pétroque, spécialiste des attaques DDoS chez F5 Networks, précise qu’une «simple mise à niveau du mot de passe n’est pas suffisante pour se protéger du botnet, mais elle est tout de même fortement recommandée pour tous les appareils connectés à Internet. Pour empêcher la propagation de ce botnet, toutes les entreprises, et tous les consommateurs doivent s’assurer que leurs appareils connectés utilisent les toutes dernières versions logicielles bénéficiant des correctifs de sécurité».

Encore une fois, il faut appliquer les règles élémentaires : mettre à jour tous ses objets connectés, modifier le mot de passe (et surtout ne pas laisser le mot de passe par défaut qui est connu de tous les pirates), utiliser des mots de passe « forts » (lettres en minuscule et en majuscule, des chiffres et des signes).

Il est urgent que les particuliers et encore plus les entreprises et les industriels appliquent des mesures de sécurité pour limiter les risques. Car la situation ne devrait pas s’arranger. Les objets connectés se multipliant, de multiples groupes d’acteurs menaçants travaillent activement à étendre et améliorer les capacités d’attaque par déni de service distribué (DDoS) des botnets…

Philippe Richard

Un système de stockage de l’électricité qui «respire»

Basée sur la technologie des batteries à flux, cet accumulateur utilise une anode liquide (anolyte) à base de polysulfures qui contient des ions lithium ou des ions sodium et une cathode liquide (catholyte) constituée d’une solution saline oxygénée.

Une des particularités de cet accumulateur, c’est que ce n’est pas le même ion qui est impliqué dans la réaction d’oxydation et dans la réaction de réduction. En effet, lors de la décharge, l’anolyte libère des électrons dans un circuit extérieur et les ions lithium ou sodium voyagent vers la catholyte. Pour maintenir l’électroneutralité, la catholyte absorbe de l’oxygène de l’extérieur, créant des ions hydroxyde (OH-).

Lors de la charge, l’oxygène est expulsé et des ions hydrogène (H+) sont créés redonnant des électrons à la solution de l’anode à travers le circuit extérieur (voir schéma). On voit donc que l’équilibre des charges est assuré par une aspiration /rejet d’oxygène qui vient de l’extérieur du système, comme dans une respiration à base d’oxygène.

MIT-Air-Breathing-1_0

Un système low-cost

En réalité, cette utilisation de l’oxygène de l’air était déjà connue pour des accumulateurs lithium-air. Et le couple à forte densité massique d’énergie lithium-sulfure est déjà à l’étude dans d’autres systèmes. L’accumulateur proposé par ces chercheurs allie les deux dans un système à flux, original et surtout très peu coûteux. D’autant plus si on réussit à remplacer les ions lithium par des ions sodium. Les chercheurs affirment dans leur article que leur solution ferait drastiquement baisser le prix du stockage et qu’il pourrait facilement baisser de 100$ pour 1kWh actuellement à 20$/kWh.

Le prototype est pour l’instant de la taille d’une tasse à café mais à priori assez facilement industrialisable dans des systèmes plus grands. Cette solution de stockage de l’énergie semble adaptée pour stocker de l’énergie sur des réseaux d’électricité dont la source est intermittente comme les réseaux d’énergie renouvelable photovoltaïques ou éoliens. Il répond en effet parfaitement à trois obstacles actuellement rencontré pour le stockage intermittent de l’électricité :

  • l’encombrement des STEP (stations de transfert d’énergie par pompage) qui utilisent l’énergie hydraulique entre deux bassins d’eau situés à des altitudes différentes et qui ne peuvent être installés partout.
  • Le coût des solutions alternatives aux STEP comme les autres batteries à flux qui utilisent des produits chimiques rares et coûteux.
  • la sécurité environnementale et humaine car les produits utilisés jusqu’à maintenant sont généralement stockés dans des milieux acides et corrosifs.

Le prototype inventé par les chercheurs du MIT vient s’ajouter aux autres solutions telles que celles en cours de développement industriel à base d’électrolytes organiques pour rendre la production d’électricité par des énergies renouvelables plus rentable, plus souple et plus écologique.

Sophie Hoguin

Glyphosate: la Commission persiste vers un renouvellement

Le feuilleton dure depuis deux ans. Mais les choses s’accélèrent en cette fin d’année puisque la licence européenne du glyphosate expire le 15 décembre. À l’approche d’un nouveau vote, le Parlement européen s’était prononcé le 24 octobre pour une sortie programmée du glyphosate en 5 ans, incluant une extension (et non un renouvellement) de trois ans maximum. Le lendemain, alors que la Commission européenne prévoyait toujours un renouvellement de dix ans, elle n’a pas pu rassembler de majorité qualifiée. À savoir le vote d’au moins 55% des 28 Etats membres représentant 65% des habitants. 16 pays étaient pour, 2 pays voulaient s’abstenir et 10 étaient contre, dont la France et la Belgique. Le vote a donc été à nouveau reporté.

Face à la position du Parlement européen et en absence de majorité qualifiée, la Commission envisageait de mettre sur la table un renouvellement de 5 à 7 ans. Après deux jours de réflexion, la Commission proposera finalement un renouvellement pour cinq ans, fait savoir Anca Paduraru, porte-parole de la Commission Européenne. Toutefois, cette proposition ne mentionne aucune restriction ou une possible interdiction dans les années à venir. Si elle était votée, aucune sortie du glyphosate ne serait envisageable avant plusieurs années. Un nouveau vote sur cette proposition aura lieu le 9 novembre.

Opposition entre experts, ONG et industriels sur le glyphosate

Défenseurs et opposants du glyphosate s’affrontent à tous les niveaux. Ils se renvoient dos-à-dos les évaluations scientifiques. Il y a bien l’évaluation du Centre international de recherche sur le cancer qui l’a classé « cancérogène probable » en 2015. Mais toutes les évaluations ultérieures des agences sanitaires  (Efsa et Anses) et de l’Agence européenne des produits chimiques (ECHA) concluent à de faibles risques ou à l’absence de cancérogénicité chez l’Homme. Et puis, il y a aussi le scandale des Monsanto Papers et les accusations d’influence de Monsanto sur le rapport de l’Efsa reprenant des copiers-collers d’études de l’industriel. Pour mettre un peu plus de pression sur les politiques, une initiative citoyenne européenne demandant l’interdiction du glyphosate a été signée par 1,3 millions d’européens.

Les agriculteurs montent au créneau pour dénoncer l’absence d’alternatives à cet herbicide. La FNSEA dénonce notamment « des trajectoires d’interdictions et non des trajectoires de solutions » qui risquent de conduire à « des impasses techniques ». À l’opposé, « santé publique, principe de précaution, conflits d’intérêt, urgence environnementale : les arguments ne manquent pourtant pas aux décideurs politiques pour exiger l’interdiction du glyphosate sans attendre dans l’Union européenne », juge l’organisation Foodwatch.

Par Matthieu Combe, journaliste scientifique

Sites Web en France: une sécurité trop négligée

Faut-il encore s’étonner que des pirates prennent le contrôle de sites web où accèdent à des données sensibles ? Non. Trop d’entreprises ne prennent pas assez en compte ces risques et négligent la sécurité de leur site. C’est le constat que pourrait faire pour la deuxième année consécutive le cabinet Wavestone, spécialiste de la transformation des entreprises. Son tableau de bord n’est pas exhaustif puisqu’il repose uniquement sur le résultat d’audits qu’il a réalisés à la demande de ses clients, les résultats étant anonymisés.

Cette année, le rapport se base sur 155 tests d’intrusion réalisés entre juin 2016 et juin 2017, sur près de 120 sites accessibles en ligne, et 38 sites internes, privés. Le bilan n’est pas vraiment encourageant. Il est même inquiétant, car il concerne des secteurs sensibles, banque et énergie notamment.

Des failles graves

La totalité des sites étudiés présentait des vulnérabilités, quel que soit le contexte ou le secteur  ! La moitié de ceux accessibles sur Internet était affectée par «au moins une faille grave». Une faille «grave» permet d’accéder à l’ensemble du contenu du site et/ou de compromettre les serveurs. 45 % des sites ne sont touchés que par des failles importantes. Elles permettent d’accéder aux informations d’autres utilisateurs, mais en nombre limité ou de manière complexe.

Le recours à un chiffrement insuffisant (certificat invalide, protocoles vulnérables…) arrive en tête des vulnérabilités, présent dans 83 % des cas. Dans 76 % des cas, des informations techniques superflues sont diffusées (ex. : page d’erreur ou entêtes divulguant la version d’un composant, etc.). Dans 45 % des cas, les mécanismes d’authentification ne sont pas suffisamment robustes (ex : absence d’anti brute-force, complexité des mots de passe, etc.).

En interne, c’est pire : la proportion montre à 68 %. Preuve supplémentaire que ces entreprises négligent « dans la durée » la sécurité de leur site (qui est dans la majorité des cas la « vitrine » de leur activité) : «40 % des sites ayant déjà subi un audit de sécurité sont encore vulnérables», avec au moins une faille grave.

La pression des métiers et du… RGPD

Cela signifie que les mesures de sécurité (comme l’installation de correctifs) qui avaient été recommandées n’ont pas été appliquées. Dans de nombreux cas, le développement du site n’a pas intégré dès le départ la sécurité ; résultat, il faut revoir toute l’architecture du site. Trop long, trop cher pour de nombreuses entreprises…

«La gestion actuelle des projets ne laisse pas beaucoup de place à la sécurité : pression des métiers, mise en production urgente, projet dont on apprend l’existence à sa sortie, etc. L’intégration de la sécurité dès le début du projet est pourtant l’une des clés à maîtriser», constate ce cabinet.

L’entrée en application du Règlement européen sur la protection des données (RGPD) en mai prochain est peut-être une bonne nouvelle: les entreprises auront l’obligation de se concentrer sur la sécurité de leur site et de leurs applications dès leur conception…

Philippe Richard

La filière chimie organise sa promotion via un inter-réseaux

L’Union des industries chimiques (UIC), plusieurs pôles de compétitivité ( Axelera, Elastopôle, IAR, Matikem, Plastipolis, Trimatec, Xylofutur) et Novachim ont signé, jeudi 19 octobre, une convention de partenariat pour la création de CROSSCHIM, un inter-réseaux de la filière chimie qui doit unir sous une même bannière les acteurs de l’innovation du secteur.

Dans le cadre de la feuille de route stratégique dessinée par le Comité stratégique de filière (CSF) Chimie et Matériaux au sein du Conseil national de l’industrie, il a été décidé de favoriser la structuration concertée des différentes actions en faveur de l’innovation et du développement du secteur.

La création de CROSSCHIM en est le premier pas: réunir les différents acteurs de l’innovation de la chimie et de la première transformation des matériaux pour mener des actions partagées et d’intérêt collectif. Il s’agira par exemple de mener des actions de sensibilisation et de communication pour la promotion de la chimie et de ses entreprises, d’organiser les échanges, les concertations et le montage de projets concrets en matière de chimie durable et de compétitivité.

Cet inter-réseaux a aussi pour but de renforcer les coopérations inter-régionales en matière de transfert de technologies et de construire une visibilité internationale afin de conforter le dynamisme de la chimie française.

Cette initiative s’inscrit dans le cadre plus large de promotion de l’industrie française. Le secteur de la chimie ayant été identifié par l’Etat comme l’une des 19 filières industrielles stratégiques pour l’économie.

Pour rappel, le secteur industriel français de la chimie représente directement 164 000 emplois et a réalisé en 2016 un chiffre d’affaires de 71 milliards d’euros.

Sophie Hoguin

Voyager dans l’espace, c’est grave docteur ?

L’une des contraintes majeures du voyage dans l’espace est l’exposition aux radiations. Sortis de la protection de l’atmosphère terrestre et encore plus sortis de son bouclier magnétique (qui protège encore les astronautes dans l’ISS par exemple), la dose de radiation est-elle vraiment dangereuse pour l’homme ? Peut-on s’en protéger complètement ?

Copyright ESA
Copyright ESA

Trois types de radiations à éviter

Dans ce long périple spatial, les astronautes devront d’abord traverser les ceintures de Van Allen. Ces deux (parfois plus ) ceintures qui entourent la Terre et participent à sa protection contre les rayons cosmiques sont particulièrement dangereuses parce qu’elles accumulent les particules radioactives: protons dans la ceinture intérieure et électrons dans la ceinture extérieure. Le vaisseau devra donc les traverser le plus vite possible. Ensuite, dans l’espace interplanétaire, les radiations sont constituées d’une part des vents et particules solaires et d’autre part des rayons cosmiques. Il est facile de se protéger des premières en temps normal grâce à la paroi du vaisseau, à des réservoirs d’eau ou différents matériels faisant écran, mais lors d’une tempête solaire, l’équipage devra pouvoir se mettre à l’abri dans une zone de confinement prévue à cet effet et surtout être alerté de son arrivée. Pour les rayons cosmiques, c’est encore plus compliqué car les rayonnements passent à travers les matériaux et déclenchent des réactions en cascades: les radiations secondaires émises par les matériaux du vaisseau pourraient être plus délétères encore pour l’équipage. La Nasa étudie toutes les pistes de protection : création de champs de forces, nouveaux matériaux (notamment à base de nanotubes de nitrure de bore hydrogéné – BNNT) et médicaments. Et de son côté, l’ESA vient de lancer, fin septembre, un nouveau programme dédié à l’étude des radiations et à leur protection via une série d’expérience dans 5 accélérateurs de particules européens.

Grâce à la mission du Rover Curiosity encore en activité sur le sol de la planète rouge, on a évalué l’exposition probable d’un astronaute pour une mission longue, soit près de 2 ans et demi. On aboutit au total cumulé de 1,1 Sv (sievert). Si pour une exposition unique cette dose serait obligatoirement délétère, il n’y a pas aujourd’hui consensus scientifique concernant la dangerosité d’une telle dose par exposition chronique. On estime cependant qu’elle augmenterait le risque de cancer de 2% sur 30 ans. Mais, les différents boucliers et protections mis en place pendant le voyage et sur Mars devraient réduire fortement cette exposition.

Une apesanteur trop pesante ?

La deuxième grosse contrainte pour l’homme dans son périple pour Mars, c’est l’absence de pesanteur pendant de longs mois suivi par une pesanteur divisée d’un tiers sur Mars par rapport à la Terre. Les nombreux séjours d’astronautes dans l’ISS ont à présent permis d’en savoir beaucoup plus sur les effets de l’absence de gravité sur le corps humain. Perte osseuse et musculaire, troubles cardio-vasculaires, diminution des capacités sensorielles et motrices (notamment vision), mal de l’espace (trouble de l’oreille interne), perturbations immunitaire, problème de nutrition, possibilité de troubles neuro-comportementaux, d’inadaptation psychologique. Bien qu’entraînés et surpréparés, les astronautes actuels, après quelques semaines dans l’ISS mettent plusieurs jours ou semaines à recouvrer leurs capacités une fois de retour sur Terre. L’équipage vers Mars devra donc être très bien monitoré pour de nombreux paramètres médicaux et certainement avoir à son bord une ou plusieurs personnes capables d’effectuer certains actes chirurgicaux. Et il faudra prévoir une éventuelle incapacité des voyageurs à faire quoi que ce soit une fois arrivée sur place. Tout doit donc être prêt et automatisé. A ce jour aucun système réellement opérationnel ne permettant de créer une gravité artificielle n’ayant été mis au point pour un vaisseau spatial. Nasa et Esa notamment étudient les effets d’un passage temporaire ou permanent de personnes alitées dans des centrifugeuses créant une gravité artificielle pour évaluer si ce système pourrait compenser certaines perturbations de l’absence de gravité.

Facteurs humains: des erreurs à la claustrophobie

Monotonie, ennui, confinement, promiscuité… voilà les premières choses qui attendent nos voyageurs. Et plusieurs études en milieu spatial ou milieu extrêmes (bases Antarctique ou sous-marins notamment) montrent qu’au bout de seulement 30 jours on note une baisse d’énergie et une diminution des capacités intellectuelles et de la productivité, une fatigue, des états dépressifs, de l’irritabilité et de l’hostilité envers les autres. A ces manifestations bien documentées s’ajoutent des inconnues de taille : pour la première fois, des hommes seront presque totalement livrés à eux-mêmes pour une longue période hors de la planète Terre : pas de retour avant des mois, pas ou peu d’assistance à distance (le signal mettant entre 3 et 20 mn pour arriver sur Terre, il faut attendre parfois 40 min pour la réponse si elle est immédiate…). On voit là tout l’intérêt de réussir à sélectionner une équipe qui tiendra le coup… Les agences spatiales travaillent donc à étudier comment sélectionner les candidats idéaux. Différentes approches sont prônées sur le nombre de personnes idéales, sur la mixité ou non, le mélange de nationalités etc. Par ailleurs, tout un travail est aussi effectué pour pallier certains effets : on envisage par exemple d’utiliser la réalité virtuelle pour transporter régulièrement les astronautes dans des paysages terrestres et pourquoi pas avec des hologrammes de proches etc. Déjà de nombreuses simulations d’isolement en milieu ressemblant à Mars ont été menées par la Nasa (Hi-Seas de Hawai), par la Mars Society (base arctique et désert de l’Utah) ou conjointement par les Russes et les Européens (Mars 500).

Mais on voit bien qu’on est loin d’un scénario de colonisation de Mars et que l’on reste sur l’idée d’une mission technico-scientifique telle qu’on en a toujours fait dans l’espace pour l’instant.

Sophie Hoguin

 

Quels plans de vol pour aller sur Mars ?

La première contrainte du voyage vers Mars, c’est celle de la fenêtre de départ : avec les technologies actuelles de voyage dans l’espace, le départ n’est possible que tous les deux ans. En effet, la distance entre Mars et la Terre varie entre 56 et 400 millions de kilomètres selon leurs positions sur leurs orbites respectives. Et la bonne conjonction, qui permet un voyage le plus court, c’est-à-dire environ 7 mois, se situe quand Mars et la Terre sont en opposition, soit à peu près tous les deux ans. Du coup pour le retour cette contrainte impose de choisir entre deux versions : soit on reste un à deux mois maximum avant de repartir, soit on est obligé d’attendre plus d’un an et demi sur place.

Quels lanceurs lourds pour quitter la Terre ?

Décoller de la Terre pour aller dans l’espace est presque devenu un exercice de routine aujourd’hui, mais… c’est pour de petites charges utiles comme des satellites ou des sondes. Pour aller sur Mars, il faut propulser hors de l’attraction terrestre entre 300 et 500 tonnes. Deux options sont à l’étude actuellement, soit le lancement de plusieurs modules de l’ordre de 50-100t que l’on assemble dans l’espace ou qui voyagent séparément, soit un vaisseau géant que l’on fait décoller directement depuis la Terre.

La Nasa mise sur le multimodulaire

La première version est celle envisagée par la Nasa. Elle s’appuie sur la mise au point d’un nouveau lanceur lourd, le SLS (Space Launch System) dont les premiers vols avec la capsule de transport de passagers Orion sont planifiés pour fin 2018. Il doit être capable de mettre en orbite basse terrestre quelques 130t et de lancer vers Mars un module de 50t. La conquête de Mars par la Nasa a été beaucoup revue à la baisse et les derniers objectifs affichés prévoit d’abord la validation de toutes les étapes du voyage spatial via de petites missions (autour de la Lune, en contact avec un astéroïde etc.) avant d’envoyer des hommes vers Mars, un jour. La date de 2030 initialement prévue ayant été repoussée à une date inconnue. Et pour le moment, il n’est pas envisagé de s’installer sur Mars mais seulement de rester en orbite. La Nasa a construit différents projets pour Mars, tablant à chaque fois sur l’envoi de plusieurs modules. Par exemple, l’envoi d’un module autonome qui atterrit et prépare le terrain pour l’arrivée des astronautes, un module de voyage spatial qui reste en orbite et qui sert de base orbitale pour les astronautes. Un troisième module servant à faire la navette entre la planète rouge et ce vaisseau. Le nombre d’astronautes restant restreint à un équipage de 4 à 6 personnes.

Space X et son cargo géant

D’un autre côté, on trouve Space X dont le concept est celui d’un vaisseau unique qui décolle de la Terre, se pose sur Mars et revient. Bref, il reprend le concept de sa fusée réutilisable Falcon 9 et de sa capsule dragon mais à une toute autre échelle. Cet ambitieux projet, présenté fin septembre 2017, même s’il a été revu à la baisse par rapport à l’ITS (Interplanetary Transport System) annoncé en 2016, reste pharaonique.

Capture d’écran 2017-10-24 à 10.51.04

Le système, baptisé BFR (pour Big Falcon Rocket ou Big Fucking Rocket), est constitué de trois entités : un lanceur lourd (31 moteurs Raptors) capable de mettre en orbite basse 150t, un vaisseau spatial qui peut servir de cargo de marchandises ou de transports de passagers avec 40 cabines de 2-3 places et un système de tanker pour établir des réservoirs de carburant en orbite et ravitailler le vaisseau hors de l’atmosphère terrestre. Le tout étant récupérable et réutilisable. L’objectif pour la petite firme américaine : remplacer la gamme de fusées et de capsules par un seul système. Et pour rendre cela rentable, la BFR servirait donc à la fois de lanceurs de satellites, de lanceurs et vaisseau pour des missions cislunaires ou dans l’espace proche, de ravitaillement pour la (les) stations spatiales internationales et pourquoi pas de nouveau type de transport terrestre permettant de relier Bangkok-Dubaï en 27mn. Pour ce qui est du calendrier, tout le monde s’accorde à dire qu’il est intenable : le BFR vers 2020, les deux premières missions inhabitées sur Mars en 2022 pour préparer de manière automatisée l’arrivée des premiers voyageurs stellaires en 2024 ! Sachant que le premier pas à franchir pour SpaceX est la validation du lanceur Falcon Heavy (capacité de 30t en orbite basse) dont le premier vol est annoncé en novembre 2017 et la validation d’un vol avec un équipage pour la capsule Dragon.

D’autres candidats ?

Parmi les autres puissances spatiales, personne n’envisage de s’attaquer au vol habité vers Mars avec la construction d’un lanceur lourd. Car outre les défis technologiques, le coût est un frein indéniable. C’est d’ailleurs pourquoi cet été, la Nasa a annoncé que le vol habité vers Mars avec colonisation était remis aux calendes grecques. Et si le SLS et la capsule Orion ont été maintenu malgré leur coût annoncé de 2 Md$ de conception et d’un milliard de dollars pour chaque lancement c’est parce qu’ils  doivent servir au nouvel objectif américain d’installation sur la Lune. L’outsider Mars One, une entreprise privée fondée par le néerlandais Bas Lansdorp, dont la mission prévoit une installation sur Mars sans retour sur Terre, prévoit quant à elle d’utiliser le lanceur SpaceX Falcon Heavy pour sortir ses différents modules de l’atmosphère terrestre et le projet de Locheed Martin de camp martien s’appuie sur le SLS et la capsule Orion – capsule dont la conception est d’ailleurs assurée par Lockheed Martin.

Sophie Hoguin

Comment vivre sur Mars ?

Les projets sont plus ou moins ambitieux selon que l’installation est pensée comme définitive (version Mars One) avec terraformation, temporaire longue (SpaceX) ou temporaire courte (Lockheed Martin) ou encore totalement fictionnelle et terrestre (Mars Science City – Emirats Arabes Unis). Tout ou partie de ces recherches qui sont d’ailleurs menées d’abord en vue de la colonisation de Mars sont en train d’être transférées vers la Lune, nouvel eldorado spatial, qui semble un peu plus accessible à nos technologies actuelles.

Terraformation ?

Transformer Mars en une autre Terre… un sujet abordé dans la fiction et depuis quelques temps aussi dans la science. Comment injecter des tonnes de particules à effets de serre pour réchauffer l’atmosphère et la densifier ? Comment recréer un champ magnétique nécessaire pour retenir cette atmosphère ? Comment implanter des organismes vivants terrestres pour qu’ils s’adaptent, colonisent la planète rouge et produisent l’oxygène nécessaire à l’homme ? Autant de questions sur lesquelles planchent de temps en temps les scientifiques. Ce qu’il en ressort ? Le processus sera forcément long – plusieurs centaines de milliers d’années, il y a peu de chances qu’on sache le maîtriser une fois lancé – donc le résultat reste très aléatoire, et il faut d’abord régler la question de l’éthique.

Doit-on terraformer Mars ou pas, selon qu’on y trouve des traces de vie passées ou actuelles, est-ce utile, est-ce dangereux etc ? Un positionnement qui fait débat mais pour lequel se dessine tout de même un assez large consensus contre, en cohérence avec les préceptes des règles internationales de la conquête spatiale : on ne « pollue » pas, on transforme le moins possible les environnements extraterrestres avec du vivant en provenance de la Terre. Cependant, cette question se pose aussi pour une installation de longue durée : on ne peut pas stériliser un être humain autant qu’un rover ou un atterrisseur… Donc, dès lors qu’un humain arrive sur Mars, le risque de pollution biologique devient très important.

Des murs de briques… et de brocs

C’est la foire à l’imagination ! La conception d’habitats martiens (ou lunaires) est pléthorique. De glace puisée sur place, gonflables, de briques fabriquées localement, ou souterraines creusées par des robots, les habitations martiennes inventées sont l’oeuvre d’architectes, d’ingénieurs divers, de rêveurs et font travailler des centaines d’étudiants ou de cabinets d’études – pas seulement ceux du master dédié du centre international d’architecture spatiale de Sasakawa (Université de Houston) – mais tous ceux, par exemple, qui ont participé au concours de 2015 organisé par la Nasa et doté de 40 000$ de prix (voir les 30 premiers). Et avec l’essor de l’impression 3D et l’arrivée de nouveaux matériaux, tout semble à présent possible, y compris transporter depuis la Terre des habitats qui prendront forme en quelques minutes une fois arrivés. La plupart prévoit une architecture modulaire, des espaces communs et privés et une certaine esthétique pour soutenir le moral des colons, ainsi que, bien sûr, une protection totale contre les radiations et les intempéries martiennes.

Respirer, oui mais quoi ?

La question de l’air intérieur est plus compliquée qu’il n’y paraît. En effet, si on peut aujourd’hui maîtriser la création d’un air intérieur stable avec une bonne proportion d’oxygène, d’argon et d’azote, il reste encore à déterminer les différentes proportions et pression que l’on doit choisir. Car elle conditionnera les modalités de sortie des habitats – si trop de différence avec l’extérieur,  il faudra attendre longtemps dans un sas pour que le corps s’habitue, mais si trop semblable à l’extérieur il peut y avoir des gênes dans la vie quotidienne. En outre si la proportion d’oxygène est trop importante, les risques d’incendie sont surmultipliés.

Atteindre l’autonomie

Les expériences sur les stations spatiales ou les simulations terrestres d’habitats martiens comme ceux utilisés par la Mars Society permettent d’avoir un assez bon retour sur les moyens de recycler l’eau  (voir la vidéo Nasa système de recyclage pour de petits équipages). Et on maîtrise les processus pour transformer le dioxyde carbone de l’atmosphère martienne en eau et en oxygène ou en méthane avec de l’hydrogène importé. Cela permettrait de produire sur place du carburant (propergol de méthane) pour le retour notamment. Des technologies capables de creuser le sol pour en récupérer l’eau ou pour la filtrer sont à portée de main et Mars dispose de matériaux dans son sol permettant d’envisager la fabrication d’éléments de construction. Quant à la nourriture, elle sera principalement importée. Produire en quantité suffisante en serre de quoi nourrir sur plus d’un an, même un équipage restreint est actuellement utopique, mais emporter toute la nourriture nécessaire pour un aussi long voyage l’est tout autant. Des containers avec des réserves de nourriture placés avant l’arrivée des premiers colons est d’ailleurs une solution envisagée dans différents scénarios de colonisation. L’Esa et la Nasa planchent sur ces questions depuis longtemps et l’on sait maintenant que la préparation des repas, la variété sont des éléments essentiels pour maintenir le moral et la santé des astronautes. La connaissance du métabolisme d’un humain dans l’espace, ses besoins précis en calories et la relation avec son poids sont d’ailleurs actuellement à l’étude dans l’ISS.

Quelle énergie ?

L’un des plus gros défis reste celui de l’énergie. L’utilisation de panneaux solaires n’est pas idéal sur Mars, c’est une alimentation non continue soumise aux aléas des tempêtes de poussières et qui prend beaucoup de place. Les scénarios les plus aboutis et les plus ambitieux en matière d’installation sur Mars font appel à la fission nucléaire. Selon le très complet «essai d’analyse technique d’une colonie martienne» édité par Planète Mars en 2008, «de petites installations délivrant en continu 40kWe aurait une masse de moins de 5 T tout compris et un encombrement en configuration de transfert limité à 7m x 3,3m». De nombreuses autres possibilité sont cependant à l’étude tel que l’éolien ou l’hydraulique en sous-sol.

Une véritable ville en 2117 ?

Les études économiques, techniques et le retour d’expérience laisse à penser que l’homme peut poser le pied sur Mars dans les 20 ans à venir s’il s’en donne les moyens. Cependant, de là à établir un véritable village voire une ville, de très nombreux obstacles n’ont pas encore été franchis de manière formelle et en l’état actuel des moyens de transports l’établissement d’une base pourrait prendre des dizaines d’années. Une réalité qui n’a d’ailleurs pas échappé aux Emirats Arabes Unis dont l’ambition spatiale ne cesse de croître. Ainsi, leur projet de ville martienne est planifié pour dans 100 ans, d’où son nom de Mars 2117. En attendant, ils construisent déjà une simulation sur Terre avec Mars Science City, une ville artificielle, en plein désert, recréant sur 18 hectares les conditions de vie d’une ville martienne.

Copyright Government of Dubai
Copyright Government of Dubai

Conclusion

Imaginer un départ, un voyage, un atterrissage et une installation de longue durée sur Mars en se basant sur des technologies actuelles matures semblent encore un peu utopique ou un travail de très longue haleine. Cependant, dans de nombreux domaines, des percées technologiques sont peut-être sur le point de changer très vite la donne : des évolutions dans la propulsion spatiale, la maturation des technologies de fabrication 3D, de nettes améliorations dans la capacité de produire, stocker les énergies (miniaturisation, rendement), l’émergence de nouveaux matériaux à la fois plus légers, plus souples et plus solides, et aussi un marché du spatial qui s’est ouvert tant à de nouvelles nations spatiales (la Chine qui vise un atterrisseur et rover en 2020 ou les Emirats Arabes Unis et leur projet Mars 2117) qu’à des initiatives privées de milliardaires rêveurs ou à de nouveaux appétits industriels.

Sophie Hoguin

Sait-on faire atterrir des hommes sur Mars ?

Inutile de rappeler le douloureux échec du module européen Schiaparelli en octobre 2016 pour se rendre compte que les crashs à l’atterrissage sur Mars ne sont pas que ceux des Russes des années 1960. Mais pourquoi est-ce si dur d’atterrir sur Mars ?

Une atmosphère trop légère

Pour atterrir sur Terre ou sur Vénus ou même sur Titan, on se sert de la présence d’une atmosphère plutôt dense pour freiner les engins. Une fusée qui rentre sur Terre passe ainsi de 28000 km/h à 300km/h en quelques minutes juste par frottements avec l’atmosphère. Un (très) bon bouclier thermique suivi de l’ouverture d’un parachute suffisent à assurer un atterrissage en douceur. Mais sur Mars, l’atmosphère moins dense, ne permet de passer que de 21000 km/h à 1500km/h. L’ouverture du parachute permet alors de ralentir à 300km/h et pour la suite il faut donc ajouter des rétrofusées. A priori on sait faire – enfin pour des rovers, car le maximum pour l’instant c’est l’atterrissage de Curiosity qui ne faisait qu’une tonne. Sauf que cela consomme énormément de carburant et plus le module est grand, plus il faut de carburant. Ce qui pénalise beaucoup le décollage depuis la Terre (en puissance nécessaire et en coût). C’est pourquoi les missions envisagées ne prévoient que quelques passagers (4 à 6), ou une station relais orbitale avec une liaison Mars-station orbitale spécifique ou dans le projet de SpaceX un ravitaillement en orbite. Outre cette première difficulté, Mars est capricieuse, selon sa météo le taux de poussières dans l’air peut énormément varier : il en résulte que l’engin peut rencontrer l’atmosphère plus tôt que prévu car elle se dilate (ce qui va modifier sa trajectoire d’atterrissage) et les frottements des poussières érodent de manière plus importante le bouclier thermique des engins (il doit donc être plus épais). En outre, Mars est fréquemment parcouru de vents violents (jusqu’à 250km/h), imprévisibles qui peuvent déstabiliser le vaisseau et le dévier de sa zone d’atterrissage prévue. On voit là que réussir un atterrissage sur Mars nécessite de prévoir des moyens de réajuster la trajectoire ou le déploiement des différents systèmes. C’est d’ailleurs là qu’a échoué Schiaparelli : en arrêtant trop tôt les rétrofusées par une erreur d’appréciation de la distance avec le sol. Par ailleurs, pour un vaisseau qui emporterait des humains, l’option parachute n’est pas envisageable, on ne sait pas fabriquer un tel outil pour un engin de plusieurs dizaines de tonnes lancé à 1500km/h.

La navette de Lockheed Martin

Lockheed Martin, partenaire de longue date de la Nasa, déjà en charge de la conception et de la fabrication de la capsule de transport de passagers Orion, a présenté en 2016 son projet, Mars Space Camp. Une station orbitale martienne pour la direction de robots et l’observation scientifique de la planète rouge. Un projet que l’entreprise a peaufinée depuis pour en détailler de nouveaux pans à l’occasion du dernier congrès international d’astronautique qui s’est tenu fin septembre en Australie.

37272639941_f9642c30f3_z

Ainsi Lockheed Martin propose un véhicule capable de réaliser à peu près 6 allers-retours entre Mars et l’orbite. A l’occasion de chaque rotation, 4 astronautes peuvent descendre et séjourner sur la planète pendant 2 à 3 semaines. Baptisé le MADV pour Mars Ascent/Descend Vehicle, cette navette doit atterrir et décoller à la verticale. Le carburant utilisé serait de l’hydrogène liquide fabriqué à partir d’une électrolyse de l’eau séparant l’oxygène et l’hydrogène. L’énergie nécessaire à cette électrolyse serait fournie par des panneaux solaires. A l’origine, l’eau viendrait de la Terre mais à terme elle serait collectée depuis des glaces d’astéroïdes, de la Lune ou des lunes de Mars ou de Mars elle-même selon ce qui se développera dans l’avenir. L’eau sera livrée par des véhicules spatiaux dédiés qui pourraient être lancés par une entité commerciale à part. Deux MADV doivent être disponibles afin d’être sûr de ne pas laisser un équipage bloqué à la surface de la planète.

Le BFR en mode martien

De son côté SpaceX a donc misé sur un vaisseau unique. Le vaisseau BFR qui arrive sur Mars, entre dans l’atmosphère et atterrit sur le même modèle que les fusées Falcon 9 actuellement en service. Il utilise l’atmosphère de Mars pour le premier freinage et assure la fin du trajet en utilisant la technique de rétropropulsion supersonique. Avec cette technique, les moteurs de la fusée émettent un jet de réacteur contre le flot relatif supersonique de l’air qui augmente le freinage aérodynamique.

moon-bfr

La trajectoire hyperbolique commence à une vitesse de 7,5 km/s  et le pic d’accélération est de l’ordre de 5g (avec une référence terrestre). SpaceX estime que 99% de l’énergie sera dissipée aérodynamiquement. Vu le poids du vaisseau (à peu près 55 t), SpaceX a prévu de stocker pour l’ensemble du trajet 240 tonnes de méthane et 860 tonnes d’oxygène liquide. Mais la plus grande partie du carburant sert pour effectuer cette opération. Il faudra ensuite, produire ce carburant sur place pour assurer le redécollage et le retour vers la Terre.

Sophie Hoguin

Revue du web #107 : les vidéos les plus étonnantes du mois

Des combats de robots de plus en plus impressionnants… et inutiles

Haut de 5 mètres et pesant pas moins de 12 tonnes, deux robots – américain et japonais – se sont livrés un combat épique. Cette pratique se démocratise de plus en plus en Asie avec de plus petits robots…

Transport : La police de Dubaï à la pointe de la technologie

Non ce n’est pas de la science-fiction : la police de Dubaï possède des motos volantes, des engins hybrides mi-aériens mi-terrestres, et une moto capable de filmer à 360 degrés. Comme le présente la police de Dubaï, toutes ces innovations sont censées « renforcer la proximité avec le citoyen« . Retour vers le futur :

Une moto qui tient en équilibre toute seule

Honda vient de présenter une moto auto-équilibrée. La marque japonaise n’est pas la seule à travailler sur cette solution, mais c’est par contre la première à présenter un modèle valide, qui peut également se contenter de suivre son propriétaire de manière autonome:

Un robot souple et… comestible !

Des chercheurs de l’Ecole Polytechnique fédérale de Lausanne ont développé un robot à base de glycérine, d’eau et de gélatine.

Par Pierre Thouverez

 

xStorage Home, la batterie résidentielle pour l’autoconsommation

L’idée de stocker de l’énergie chez soi pour ensuite la consommer fait son chemin. Après Tesla, dont la batterie résidentielle Powerwall avait fait sensation il y a deux ans, l’industriel Eaton, spécialiste de la gestion énergétique, annonce à son tour sa solution xStorage Home. Quelques informations filtraient depuis quelques mois mais le lancement officiel et commercial a eu lieu ce jeudi 19 octobre, dans toute l’Europe. En France, Eaton s’appuiera sur le distributeur à valeur ajoutée Axdis Pro, dont les activités se concentrent sur le photovoltaïque et la transition énergétique dans le résidentiel. Formation aidant, un réseau d’installateurs agréés se met en place.

xStorage Home ressemble à un gros radiateur mural, pesant 135 kg et mesurant 1,20 mètre de haut. Cette imposante batterie Lithium-Ion bénéficie d’une capacité entre 4,2 et 7,5 kWh, selon les modèles, et coûte entre 1100 et 1350 €/kWh, hors installation. Connectée à la fois aux panneaux photovoltaïques (PV) existants, au tableau électrique (monophasé) de l’habitation et au réseau électrique, elle remplit plusieurs objectifs. En premier lieu, elle alimente les équipements électriques en énergie quand la production PV est opérationnelle, avec une puissance située entre 3600 et 6000 watts, et devient un moyen de réduire la facture d’électricité. Ensuite, elle emmagasine le surplus ou l’achemine sur le réseau du distributeur, moyennant rétribution. Enfin, en cas de coupure de courant, c’est une alimentation de secours qui subvient aux besoins énergétiques des équipements essentiels – réfrigérateur, éclairage… – en attendant que la situation normale se rétablisse.

Des batteries neuves ou deuxième vie

Outre des convertisseurs DC/DC et AC/DC, xStorage Home a l’avantage d’être équipé d’une sortie AC bidirectionnelle, qui injecte du courant alternatif sur le réseau électrique domestique ou, inversement, recharge la batterie à partir de ce même réseau. Le port USB pouvant accueillir une clé WiFi est une autre particularité qui en fait un dispositif connecté, pilotable à partir d’un smartphone. Mais les responsables d’Eaton n’ont pas été bavards sur les usages possibles, que ce soit en terme de contrôle, de supervision ou même d’interaction à plus grande échelle avec le Smart Grid. Pour l’anecdote, xStorage Home est un dérivé de xStorage Building, une offre professionnelle qui équipe un datacenter de l’opérateur Webaxys, au Havre, et le stade de football Amsterdam Arena, aux Pays-Bas.

Les batteries proviennent du fabricant automobile Nissan. «Notre collaboration avec Nissan, le CEA et l’Ecole polytechnique de Lausanne a débuté en 2012, raconte Christophe Bourgueil, responsable du développement commercial de xStorage en France. La réflexion portait sur les usages possibles de la deuxième vie d’une batterie, au bout de quatre à sept ans d’utilisation dans un véhicule électrique.» Si Eaton a insisté sur ce point, la fiche technique indique cependant que seul le modèle xStorage à 4,2 kWh recycle des batteries de seconde vie, issues des véhicules Nissan Leaf. Les deux modèles les plus performants sont gratifiés de batteries neuves. La garantie des batteries va de pair, de cinq ans pour le premier modèle à dix ans pour les deux suivants.

On ne saurait préjuger du succès ou non de xStorage, mais le cadre règlementaire en France est en tout cas favorable. Depuis février dernier, l’autoconsommation d’énergie est en effet favorisée au détriment de la seule revente d’électricité, de moins en moins rentable. Cette loi semble agir comme un détonateur : selon Enedis (anciennement ERDF), 14000 installations d’autoproduction énergétique ont été installées depuis l’an dernier, soit une progression de 50% en un an.

Frédéric Monflier

Le sulfoxaflor, nouvelle source de risque pour les abeilles

L’ambiance est à l’orage chez les apiculteurs. L’Union nationale de l’apiculture française dénonce une récente décision de l’Anses. L’Agence nationale de sécurité sanitaire a en effet proposé en septembre dernier une alternative à l’usage des néonicotinoïdes en France. Gilles Lanio, président de l’UNAF, rappelle qu’ils seront interdits dès septembre 2018, mais des dérogations existent jusqu’en 2020. La solution proposée aux agriculteurs est de remplacer les néonicotinoïdes utilisés sur leurs cultures. Ces pesticides neurotoxiques causent chaque année la mort de 300.000 à 400.000 colonies d’abeilles selon Henri Clément, secrétaire général de l’UNAF.

Le sulfoxaflor, une molécule très dangereuse

L’UNAF annonce que l’Anses a autorisé, de manière confidentielle, deux nouveaux pesticides à base de sulfoxaflor. Cette substance est officiellement reconnue comme dangereuse pour le monde aquatique, mais le problème ne s’arrêterait pas là. Le sulfoxaflor serait lui-même… un néonicotinoïde ! L’annonce de l’Anses déplaît car elle indique que le sulfoxaflor pourrait remplacer les néonicotinoïdes prochainement prohibés. Ceci est «pitoyable, pathétique et irresponsable», juge Henri Clément. En effet, selon une décision pénale rendue aux États-Unis, le sulfoxaflor est lui aussi un néonicotinoïde et interdit sur le territoire américain. Échaudés par la décision de jugement américain, l’UNAF est allée demander des comptes à l’Anses. Mais le dialogue est rompu entre les deux organismes, l’Anses ne répondant plus à l’Union française des apiculteurs. Ainsi, le problème des néonicotinoïdes ne serait pas du tout solutionné et tous les efforts de l’UNAF vains. C’est pourquoi elle exige que l’Anses ajoute le sulfoxaflor à la liste des substances néonicotinoïdes à interdire.

Si aucune interdiction n’est prise, le sulfoxaflor pourrait se retrouver épandu sur nombre de cultures. Le néonicotinoïde serait donc utilisé sur les cultures de céréales à paille (blé, orge, etc.) mais pas seulement. Le sulfoxaflor permettrait également de traiter des cultures légumières, les pommiers et les cerisiers. Et la position du ministre de l’Agriculture ne rassure pas l’UNAF. L’inquiétude vient du fait que Stéphane Travert ne semble pas favorable à l’interdiction des pesticides tueurs d’abeilles. Il avait indiqué en juin dernier qu’interdire les néonicotinoïdes «n’est pas conforme avec le droit européen». Bien que le gouvernement et le ministre de l’Écologie Nicolas Hulot aient contesté cela, l’UNAF craint les prochaines décisions. Pour Gilles Lanio, aucune tergiversation ne peut être permise de la part de la France. «Comme s’y est engagé le président Emmanuel Macron, la France doit supprimer tous les néonicotinoïdes» déclare-t-il.

Par Matthieu Combe, journaliste scientifique

Cybersécurité des voitures autonomes: un défi majeur

Peur sur la ville ! Les autorités californiennes vont-elles nous faire un remake de ce film policier franco-italien écrit et réalisé par Henri Verneuil, sorti en 1975. Le 11 octobre, elles ont annoncé une nouvelle réglementation qui autorisera les tests de voitures autonomes sur les routes de l’État sans exiger qu’un conducteur soit présent à bord du véhicule.

Faut-il s’en inquiéter et ne plus permettre aux bambins californiens de se promener en ville ? La question mérite de se poser, car la sécurité informatique de ces engins hyper connectés et bardés de capteurs est loin d’être optimisée. De là à penser que cet État autorise implicitement les fabricants de voitures et autres start-ups travaillant sur ce domaine à prendre les routes comme des laboratoires grandeur nature. C’est ce que pensent des organisations de défense des consommateurs aux États-Unis.

Failles informatiques

Les risques de piratages informatiques et de prises de contrôle à distance des voitures autonomes ont été relevés par des experts depuis quelques années. À mesure que ces véhicules gagnent en complexité, le nombre de vulnérabilités potentielles et les contraintes sur les algorithmes de protection augmentent.

Cette problématique est d’ailleurs traitée par la chaire « Voitures connectées et cybersécurité » (son nom officiel étant « Connected cars and cybersecurity ») qui a été lancée à Télécom ParisTech le 5 octobre dernier. Outre Télécom ParisTech, elle réunit la Fondation Mines-Télécom, Renault, Thalès, Nokia, Valéo et Wavestone (un cabinet spécialisé dans la transformation numérique et la cybersécurité).

Tous les experts de cette chaire estiment en effet que la situation est loin d’être maîtrisée. «Tant que nous n’arriverons pas à garantir qu’aucune cyberattaque ne peut mettre en danger un véhicule intelligent, ses passagers et son environnement, il n’y aura pas de voiture autonome», explique Guillaume Duc, enseignant-chercheur en électronique et spécialiste des systèmes embarqués à Télécom ParisTech.

Latence

Or, plus il y a d’appareils, plus la voiture compte de points de communication avec l’extérieur. Il s’agit souvent de connexions sans fil dont la sécurité laisse à désirer faute de mécanismes d’authentification des utilisateurs. Dès lors, une personne malveillante peut accéder à des données sensibles ou à des paramètres du système embarqué.

Mais à la différence de l’informatique domestique ou celle utilisée en entreprise, la conduite automobile exige des latences hyper courtes. D’où ce dilemme : comment vérifier l’identité des utilisateurs ou prendre la bonne décision dans un délai compatible avec la circulation ? Le véhicule doit en effet réagir au quart de tour pour éviter un accident par exemple.

Les mains sur le volant !

Pas évident, même si ces voitures embarquent de nombreux capteurs et des processeurs de traitement faisant appel au Machine Learning pour se prémunir de la défaillance d’un composant ou d’un programme et faire le bon choix sur la route. Mais ce n’est pas encore parfait en toute circonstance.

En mai 2016, un modèle autonome de Tesla a été impliqué dans un accident mortel aux États-Unis. «Éblouis par une forte luminosité, ni l’Autopilot, ni le conducteur n’ont vu la remorque blanche du camion, et le frein n’a pas été engagé», a expliqué Tesla. Le constructeur rappelle que les conducteurs sont censés garder leurs mains sur le volant et qu’ils doivent rester vigilants quand le pilote automatique est activé !

De quoi avoir peur en ville…

Philippe Richard

Kennedy Energy Park: Une centrale triple technologies en Australie

Echelle industrielle

Le Kennedy Energy Park ne sera pas un projet pilote mais bel et bien un site de production d’énergie renouvelable de taille industrielle. Il sera composé de 12 turbines éoliennes de 3,6 MW, soit 43,2 MW au total, d’une ferme photovoltaïque de 15 MW, et d’une série de batteries lithum-ion de 4 MWh, fournie par l’Américain Tesla. Le fabricant d’éolienne Vestas et l’entreprise Quanta se chargeront de la construction dont la finalisation est prévue pour fin 2018. Le complexe, dont l’investissement est supérieur à 100 M€, a un objectif d’injection sur le réseau de 210 GWh par an. Cette électricité a d’ores et déjà trouvé preneur puisqu’un contrat de vente a été signé en septembre dernier avec la compagnie CS Energy. Le projet a été soutenu financièrement par la Clean Energy Finance Corporation (CEFC) et l’Australian Renewable Energy Agency (ARENA) qui ont alloué un crédit cumulé de près de 75 M€.

Windlab2

Réduire l’intermittence

Ce projet de centrale hybride n’est pas une révolution dans le sens où d’autres entreprises ont déjà eu l’idée d’associer une énergie renouvelable à un système de stockage, notamment sur les îles ou d’autres territoires faiblement interconnectés. Mais ce modèle industriel à trois technologies est une première. En associant le solaire et l’éolien, dont les heures de production de pointe sont complémentaires, avec un système de stockage de 4 MWh, Windlab compte injecter une électricité fiable à moindre coût.

Une phase 2 est prévue dans un horizon plus lointain. Intitulé « Big Kennedy », il prévoit l’installation de pas moins de 1 200 MW d’énergie éolienne pour compenser les nombreux projets solaires en cours au Queensland.

Romain Chicheportiche

En route pour une membrane de désalinisation au graphène

La membrane se présente comme un support de polysulfone modifié avec de l’alcool polyvinylique sur laquelle est appliqué un revêtement à base d’un oxyde de graphène et d’un empilement de quelques feuilles de graphène. Cette membrane s’est révélée capable de résister à d’intenses flux, des hautes pressions et une exposition au chlore. Dès les premiers stades de développement, la membrane a permis de rejeter 85 % du sel. Certes un taux insuffisant pour produire de l’eau de boisson, mais suffisant pour des applications en agriculture.

graphene desalinisation
Crédit : Aaron Morelos-Gomez / Pennsylvania State University

En outre, cette membrane filtre 96 % des teintures, un atout pour des applications dans l’industrie textile encore très polluantes dans de nombreuses parties du monde. Théoriquement le graphène est un matériau idéal pour la désalinisation, notamment car il est particulièrement résistant face à l’agression des agents chimiques, mais de nombreux obstacles sont à franchir pour contrôler les défauts et assurer le transfert de ce matériau 2D. Ces travaux, publiés dans Nature Nanotechnology en sont une démonstration de la faisabilité.

Sophie Hoguin

Bon en avant pour la dialyse avec le graphène

Les dialyses, qui consistent à faire passer des molécules d’une solution vers une autre plus concentrée de manière sélective grâce à des membranes sont particulièrement utilisées dans le domaine médical (diagnostic, purification, hémodialyse) ou dans les laboratoires de chimie notamment. Aujourd’hui les membranes disponibles sur le marché sont assez lentes car très épaisses (20nm). Les chercheurs du MIT, dont les travaux sont parus dans Advanced Materials, ont fabriqué des membranes à partir d’une feuille de graphène d’une dimension de 1nm d’épaisseur pour la taille d’un ongle en surface. Ils ont testé leurs membranes dans plusieurs configurations sur de nombreux solutés différents.

Crédit : MIT News / avec l'autorisation des chercheurs 1- le graphène est fabriqué sur un support en cuivre et pressé contre une feuille de polycarbonate 2- le polycarbonate sert à récupérer le graphène sur le cuivre 3- en utilisant une technique de polymérisation interfaciale, les chercheurs réparent les défauts du graphène produit 4- ensuite ils utilisent un plasma d'oxygène pour fabriquer des pores d'une taille spécifique dans le graphène
Crédit : MIT News / avec l’autorisation des chercheurs
1- le graphène est fabriqué sur un support en cuivre et pressé contre une feuille de polycarbonate
2- le polycarbonate sert à récupérer le graphène sur le cuivre
3- en utilisant une technique de polymérisation interfaciale, les chercheurs réparent les défauts du graphène produit
4- ensuite ils utilisent un plasma d’oxygène pour fabriquer des pores d’une taille spécifique dans le graphène

Pour fabriquer leurs membranes, les chercheurs ont utilisé la technique de dépôt de vapeur chimique (CVD) pour produire le graphène lui-même et l’ont déposé sur une feuille de polycarbonate dont les pores sont plus larges que ceux du graphène. La feuille de polycarbonate sert notamment à rigidifier le graphène et à empêcher qu’il ne se replie sur lui-même. Les chercheurs ont ensuite créé les pores dans le graphène en exposant le feuillet à un plasma d’oxygène. Selon les caractéristiques du plasma, ils peuvent contrôler les tailles et la densité des pores. Les résultats obtenus sont plus que prometteurs, surtout quand on sait que la performance de la membrane à base de graphène peut être encore largement améliorée en optimisant la partie en polycarbonate, dont la conception pour ces travaux, ne permettait de rendre accessible que 10% de la surface du graphène.

Iran : Donald Trump met en danger l’accord nucléaire

Le deal

L’accord sur le nucléaire iranien a été conclu en juillet 2015 et est entré en vigueur en janvier 2016. Il prévoit un abandon du programme nucléaire militaire iranien et une réduction de la capacité de production et de stockage de matières fossiles du pays, en échange d’une levée progressive des sanctions économiques. Ainsi, le nombre de centrifugeuses opérationnelles autorisées a été fixé à 5 060 (contre environ 19 000 avant l’accord) et doivent être de 1ère génération (IR-1), les centrifugeuses IR-2M devant être placées sous contrôle de l’Agence internationale de l’énergie atomique (AIEA). Elles ne pourront enrichir l’uranium à un taux supérieur à 3,67 %. Pour rappel, un taux compris entre 3,5 et 5% permet de produire du combustible nucléaire, 20 % pour un usage médical et 90 % pour une bombe nucléaire. Le stock d’uranium faiblement enrichi de l’Iran devait passer de 10 000 à 300 kg, pour une durée de 15 ans, afin d’éviter tout détournement à d’autres fins.

Le réacteur à eau lourde d’Arak doit être modifié de façon à ne pas pouvoir produire de plutonium de qualité militaire. Les déchets produits seront envoyés à l’étranger pendant toute la durée de vie du réacteur. Aucun autre réacteur de ce type ne pourra être construit dans le pays.

Enfin, des inspecteurs de l’AIEA ont désormais accès à l’ensemble la filière nucléaire iranienne, de l’extraction d’uranium à la recherche-développement, en passant par la conversion et l’enrichissement d’uranium. En cas de soupçons d’activités nucléaires illégales, les inspecteurs doivent avoir un accès limité à des sites non nucléaires, notamment militaires.

Selon l’AIEA, qui s’est fendu d’un communiqué suite à l’annonce de Donald Trump, les inspecteurs nucléaires ont eu accès à tous les sites qu’ils souhaitaient visiter. Et d’ajouter que « l’Iran fait l’objet aujourd’hui du régime de vérification nucléaire le plus robuste du monde ».

Incertitudes

En ne certifiant pas l’accord, Donald Trump reste dans la droite ligne de son discours de campagne, qui considérait alors que ce deal était « le pire accord signé par les Etats-Unis ». Or, le Président américain a déjà certifié à deux reprises cet accord : en avril et en juillet dernier. Cela s’explique par l’obligation légale qui lui est faite d’assurer le Congrès de son approbation tous les 3 mois. La troisième certification n’a donc pas eu lieu, et Donald Trump a profiter de l’occasion pour annoncer une « nouvelle » stratégie sur l’Iran qui consiste à nouveau à appliquer d’importantes sanctions économiques à Téhéran pour le dissuader « de poursuivre son influence déstabilisatrice au Moyen-Orient et son soutien au terrorisme ». Pour cela les Etats-Unis comptent « revitaliser les alliances historiques » qu’ils ont noué dans la région, notamment avec Israël et l’Arabie Saoudite, qui n’ont pas manqué d’applaudir des deux mains l’annonce de la Maison Blanche.

Les Européens aussi ont réagi en rappelant que cet accord international (Etats-Unis, Russie, Chine, France, Royaume-Uni, l’Allemagne et bien sûr l’Iran) ne pouvait faire l’objet ainsi d’une rupture unilatérale, surtout si l’Iran prouve qu’il n’a pas contrevenu aux règles, et qu’une renégociation n’était pas à l’ordre du jour. Mais la capacité de nuisance américaine est suffisante en elle-même pour dissuader toute banque ou compagnie d’assurance, ayant des intérêts aux Etats-Unis, de participer à des opérations iraniennes.

Vers un nouveau risque de prolifération ?

Pour rappel, l’objectif de cet accord était d’enrayer la spirale de prolifération nucléaire qui s’annonce au Moyen-Orient. Les aspirations nucléaires de l’Iran ont fortement inquiété les monarchies du Golfe, qui y ont vu un signe belliciste, et naturellement Israël, ennemi désigné de Téhéran, et détenteur de l’arme atomique. Un Iran nucléarisé ne manquera pas de pousser les autres puissances de la région, à commencer par l’Arabie Saoudite, à se doter de l’arme nucléaire pour rééquilibrer les rapports de force. Une prolifération que le conseil de sécurité des Nations-Unis ne veut à aucun prix.

L’accord nucléaire avec l’Iran devait ouvrir une voie médiane en offrant à l’Iran une aide pour son programme nucléaire civil et une levée des sanctions, contre l’abandon de toute velléité militaire dans ce domaine. Le refus de Trump de certifier à nouveau l’accord n’est donc pas à prendre à la légère. Il créé une période d’incertitude à laquelle le Congrès américain sera amené à mettre fin, au moins partiellement. Il devra choisir dans les deux mois de réappliquer ou pas les sanctions en vigueur avant la signature de l’accord. Sans l’approbation des Etats-Unis, la possibilité de voir l’accord devenir caduc grandit, et le risque de prolifération nucléaire aussi.

Romain Chicheportiche

Des encres au graphène pour des lasers terahertz compacts

Le graphène, produit dans ce cas par exfoliation en phase liquide de graphite, puis transféré avec une imprimante jet d’encre, est à la base de la fabrication d’un absorbant saturable dans la gamme des térahertz, c’est-à-dire les fréquences de l’infrarouge lointain (aussi appelé rayons T) entre l’infrarouge et les micro-ondes.

Crédit : graphene-flagship.eu
Crédit : graphene-flagship.eu

Les absorbants saturables sont des éléments d’optiques qui servent à fabriquer des lasers où les impulsions émises sont très courtes (quelques femtosecondes à quelques picosecondes). Ces travaux parus dans Nature Communications montrent que cet absorbant possède des propriétés de résolution qui surpassent largement les meilleures du moment, ouvrant de nouvelles perspectives dans le domaine des lasers térahertz à très petite échelle. Nombre d’applications pourraient bénéficier de la flexibilité et de l’aspect compact que peut apporter le graphène dans la conception de lasers ultra-rapides telles que la technique du temps de vol en tomographie, la manipulation de systèmes quantiques, la spectroscopie à résolution temporelle pour les gaz et les molécules complexes ou encore le domaine des communications ultra-rapides.

Sophie Hoguin

Première détection d’un anneau autour d’une planète naine

La région transneptunienne est la vaste zone du Système solaire externe qui s’étend de la ceinture de Kuiper jusqu’au nuage de Oort. Pluton, découverte en 1930, et Éris, découverte en 2005 en font partie et sont les deux plus grandes planètes naines (en termes de taille) connues jusqu’ici. Située dans la ceinture de Kuiper, en moyenne à 43 unités astronomiques du Soleil, Hauméa appartient à cette même catégorie d’objet. Elle est dotée de deux satellites : Hiʻiaka et Namaka. Contrairement aux autres planètes naines, sa taille, sa forme, son pouvoir réflecteur (albédo) et sa densité étaient mal connus.

Le 21 janvier 2017, l’occultation de l’étoile URAT1 533-182543 par Hauméa a donné lieu à une vaste campagne d’observations coordonnée à l’échelle européenne par José Luis Ortiz de l’Institut d’astrophysique d’Andalousie (Espagne). Ces observations, dont le résultat est présenté dans une lettre de la revue Nature du 11 octobre 2017, ont permis d’affiner et de révéler les caractéristiques étonnantes de Hauméa, déjà connue pour sa forme ellipsoïdale, aux allures de cigare, et pour sa rotation rapide.

Hauméa est un ellipsoïde dont les trois axes ont pour longueur respective : 2 320 km, 1 705 km et 1 025 km. La valeur de 2 320 km est en fait une limite inférieure ; par ces dimensions, elle s’avère ainsi presque plus grande qu’Éris (d’un diamètre de 2 325 km), voire que Pluton (d’un diamètre de 2 375 km).

Plus surprenant encore. Les observations ont permis de mettre au jour l’existence d’un anneau dense autour de la planète naine, une première concernant les objets transneptuniens.

D’un rayon de 2 290 km, l’anneau orbite dans le plan équatorial de la planète ; il semble également coïncider avec le plan orbital de Hi’iaka, son satellite principal. Sa largeur est d’environ 70 km. Son opacité est d’environ 50 %, par conséquent il a absorbé environ la moitié du flux lumineux de l’étoile lors de l’occultation.

Cette découverte intervient à la suite de celle en 2013 d’un anneau dense autour de l’astéroïde Chariklo, objet beaucoup plus petit, de 260 km de diamètre environ, situé dans la région entre Saturne et Uranus. Les anneaux ne sont donc plus l’apanage des planètes géantes : Jupiter, Saturne, Uranus et Neptune. Ces découvertes récentes donnent à penser que leur présence autour de corps de glace situés dans la lointaine zone transneptunienne serait moins rare qu’on ne le supposait jusqu’à présent.

Cependant, l’origine et la stabilité des anneaux autour de Chariklo et Haumea suscitent de nombreuses interrogations. La présence de satellites autour de Haumea, ainsi qu’une famille de corps associés à cette planète naine, suggèrent en effet une origine collisionnelle pour cet anneau nouvellement découvert.

« En outre, la forme très allongée de Hauméa est susceptible de causer de fortes perturbations résonnantes sur un disque collisionnel qui l’entoure. Ceci pourrait expliquer la position actuelle des anneaux, relativement éloignés du corps central », indique Bruno Sicardy, codécouvreur de l’anneau.

Des travaux plus théoriques sont attendus très prochainement pour confirmer ces différentes hypothèses.

Référence Ce travail de recherche fait l’objet d’un article intitulé « The size, shape, density and ring of the dwarf planet Haumea from a stellar occultation », publié en ligne dans la lettre de la revue Nature, le 11 octobre 2017. doi : 10.1038/nature24051 http://dx.doi.org/10.1038/nature24051

 Source : cnrs

Des quotas d’émissions en plein bouleversements!

Chaque année, l’Union Européenne fixe un plafond pour les émissions globales produites par les centrales électriques, les industries grandes consommatrices d’énergie et les compagnies aériennes commerciales. Dans cette limite, ces entreprises peuvent acheter et vendre des quotas d’émission pour les utiliser. Chaque quota donne le droit à son détenteur d’émettre une tonne de CO2 ou une quantité équivalente d’un autre gaz à effet de serre.

La Commission, le Parlement et le Conseil négocient depuis avril 2017 pour réviser le système pour sa quatrième phase de fonctionnement (2021-2030). Pourquoi est-ce nécessaire? Tout simplement parce que les quotas étaient beaucoup trop abondants. L’offre dépassant la demande, les prix restent très faibles et ne convainquent pas les industriels à se décarboner. En janvier 2017, cet excédent atteignait 1,7 milliards de quotas, ce qui équivaut à un an d’émissions sur ce système d’échange. Depuis le début de l’année, le prix d’un quota oscille autour de 5 euros la tonne de CO2 équivalent et n’a jamais dépassé 10 euros depuis 2013.

Quelle est la réforme proposée par les instances européennes?

Entre 2013 et 2020, le plafond de quotas était réduit chaque année de 1,74 %. Après 2020, les quotas diminueront, de 2,2% pour l’ensemble des propositions. Le Parlement propose de prévoir la possibilité d’augmenter cette diminution à 2,4% après 2024 si besoin.

Si rien est fait, l’excédent de quotas accumulé sur le marché restera encore longtemps et ne permettra pas d’atteindre les objectifs. La principale nouveauté est donc la création d’un marché de réserve de stabilité (MRS). Il servira à retirer en partie du marché les quotas en excès accumulés depuis 2009. Le question est de savoir avec quelle rapidité. La Commission proposait de retirer automatiquement chaque année 12% de quotas du marché. Le Parlement et le Conseil proposent d’aller plus vite (-24%) durant les premières années : jusqu’en 2021 pour le premier et 2023 pour le second. Le Parlement et le Conseil s’accordent sur la nécessité de pouvoir annuler un certain nombre de quotas dans cette réserve, mais divergent sur la quantité et l’horizon.

La réforme du SEQE est-elle suffisante?

Selon le nouveau rapport élaboré par I4CE – Institut pour l’économie du climat -, Enerdata et l’IFPEN, les mesures sont insuffisantes pour créer un marché efficace sur la période. Les effets bénéfiques de la réforme ne seront observés qu’après 2030. En effet, les politiques européennes sur les énergies renouvelables et l’efficacité sénergétique suffiront à elles seules à respecter les objectifs du SEQE pour 2030. Par ailleurs, malgré le doublement du taux de retrait pendant les premières années de son fonctionnement, le MRS ne parviendrait pas à neutraliser l’effet des interactions avec les autres politiques énergétiques sur le SEQE.

Le SEQE est aujourd’hui aligné sur la trajectoire la moins ambitieuse de la politique climatique de l’UE pour 2050 (- 80 %). Celle-ci devrait être revue à la hausse pour intégrer les objectifs plus ambitieux de l’Accord de Paris : -95 %. C’est une condition pour mettre en place une trajectoire de décarbonation efficace.

Les auteurs analysent d’autres évolutions possibles d’ici 2040. Dans ce contexte, instaurer un corridor de prix carbone européen serait une solution au manque d’anticipation des opérateurs et permettrait d’anticiper les investissements dans les technologies les moins émettrices en CO2 pour avoir un SEQE fonctionnel. Ils proposent un prix de 25 euros la tonne de CO2 et un prix plancher de 50 euros en 2020, évoluant à un taux annuel de 7 %. Enfin le Brexit rajoute de l’incertitude. Si le Royaume-Uni décidait de sortir du SEQE, il faudrait adapter le plafond des émissions et reparamétrer le MRS. Le pays ayant déjà fait des réductions plus grandes que celles demandées, le nouveau cap deviendrait plus contraignant pour les autres pays.

Par Matthieu Combe, journaliste scientifique