TOP 5 : les articles les plus lus #juillet2019

Hyperion, futur participant au concours Hyperloop

La prochaine compétition Hyperloop Pod, dont la dernière édition vient de se terminer, pourrait accueillir des étudiants français de l’Estaca, dont le projet Hyperion de train à hyper grande vitesse a été mis sur les rails.

 

Photovoltaïque : comment éviter les arnaques

Selon le GPPEP (Groupement des Particuliers Producteurs d’Electricité Photovoltaïque), plus de 10 000 foyers ont été victimes d’arnaques aux panneaux solaires en 2018. In Sun We Trust publie son guide anti-arnaque pour protéger les consommateurs.

 

Le streaming vidéo, une usine à CO2

L’association The Shift Project a fait ses calculs, rendus publics la semaine dernière : l’usage des Netflix et autres Youtube a produit 306 millions de tonnes de CO2 en 2018. Autant que l’Espagne.

 

Des entreprises chinoises cachées derrière les VPN

Les principaux éditeurs et fournisseurs de VPN (Virtual private network ou réseaux privés virtuels) appartiennent secrètement à des entreprises chinoises. De quoi compromettre la confidentialité des données qui sont échangées via ces canaux soi-disant sécurisés.

 

Les aéroports européens n’émettront plus de CO2 en 2050

194 aéroports européens ont signé la résolution de l’ACI Europe. Ils s’engagent à « zéro émission nette de carbone d’ici à 2050 » dans le cadre du projet NetZeroCarbon2050.

Toujours plus de déchets en Méditerranée

L’Ifremer publie dans Marine Pollution Bulletin le bilan d’une vaste étude de suivi des déchets marins méditerranéens. L’analyse a porté sur deux zones d’étude : le Golfe du Lion et la Corse orientale, et sur les 30 canyons de la zone. Les mesures ont été réalisées par chalut et par robot sous-marin lors de différentes campagnes, entre 150 et 800 m de profondeur. L’étude relève la présence de macro-déchets sur près de 90% de la surface échantillonnée. Les canyons sont particulièrement affectés, surtout ceux proches des côtes. L’Ifremer identifie deux zones majeures d’accumulation de déchets : l’une au large de Marseille, l’autre au nord-est de la Corse.

Le résultat est clair : si la  quantité de déchets identifiés dans la mer Méditerranée fluctue chaque année, elle augmente depuis 2009.La Méditerranée est ainsi la mer européenne la plus polluée par les déchets. En particulier, la quantité de déchets augmente sur le fond de la mer. « Dans les années 90, leur densité fluctuait autour de 100 déchets par km2, constate Olivia Gérigny, chercheuse océanographe au Centre Ifremer de Toulon, auteur de l’étude et citée par l’Ifremer dans un communiqué. Depuis 2012, cette densité se situe plutôt autour de 200 Déchets par km2, avec un maximum de près de 300 atteint en 2015. Le plastique représente plus de 60% de ces déchets ». Pour la chercheuse, cette hausse s’explique par une augmentation de la production de plastique, mais aussi par un recensement plus systématique. En comparaison, une étude menée en mer du Nord a trouvé des densités inférieures à 50 déchets par km2.

Des déchets de tous horizons

Les sources de ces déchets plastiques sont diverses : la navigation commerciale ou de plaisance, la pêche, l’aquaculture, les décharges, les zones industrielles ou urbaines. Certains déchets sont transportés depuis la terre par les cours d’eau et les inondations. D’autres sont rejetés directement en mer ou sur les plages.

Une étude récente du WWF évaluait à 600 000 tonnes de déchets plastiques finissant dans la mer Méditerranée chaque année, dont 10 000 tonnes en provenance de France.  L’association propose la conclusion d’un accord régional contraignant pour stopper les rejets de plastiques en Méditerranée d’ici 2030.

Prouver le caractère reproductible d’une recherche : lancement du premier laboratoire public au monde

Dans la démarche scientifique, les chercheurs appuient leurs travaux sur ceux de leurs pairs. Cependant, plusieurs études récentes indiquent que les chercheurs peinent à reproduire les résultats publiés dans les journaux académiques. Cette situation a des répercussions importantes sur le monde académique et, par voie de conséquence, sur la société et le progrès scientifique.

Christophe Pérignon, professeur à HEC Paris et cofondateur de cascad affirme que deux raisons principales expliquent le faible niveau actuel de reproductibilité de la recherche: « le fait que les codes informatiques et les données partagés par les chercheurs ne soient pas vérifiés, et le fait qu’un nombre croissant de chercheurs analysent des données confidentielles, qui ne peuvent donc pas être partagées. »

Aujourd’hui, la majorité des articles scientifiques dans le domaine de l’économie est empirique et repose sur des traitements informatiques de données. Alors que la part des articles en économie de nature empirique était d’environ 10 % dans les années 1970, elle est aujourd’hui de plus de 75 %.

L’importance du phénomène indique qu’il est devenu urgent de trouver une solution au problème de la non-reproductibilité de la recherche. Le laboratoire cascad a mis au point une procédure de certification permettant de garantir la reproductibilité des résultats présentés dans une publication scientifique à partir des codes informatiques et des données utilisés par les auteurs de l’étude.

Un article récemment publié dans la revue Science indique que la certification cascad peut également être utilisée dans le cas de données confidentielles, telles que des données individuelles de salaires, d’impôts ou de santé. Ce type de données peut uniquement être analysé par des chercheurs formellement accrédités et via des centres d’accès sécurisés aux données.

D’après les auteurs de l’article, le principal défi auquel cascad doit faire face est celui de la confiance de la communauté scientifique. La confiance des producteurs de données rend le processus faisable et la confiance des journaux scientifiques rend le processus utile et digne d’intérêt. « Afin d’établir la confiance et d’accroître sa crédibilité, cascad suit un protocole de certification précis et transparent. La prochaine étape pour nous est de convaincre les chercheurs et les journaux », poursuit Christophe Pérignon.

Bibliographie
Certify reproducibility with confidential data
Christophe Pérignon, Kamel Gadouche, Christophe Hurlin, Roxane Silberman, Eric Debonnel
Science, 12 juillet 2019

source CNRS

La France, élève moyenne du développement durable

En 2015, les pays de l’ONU se sont entendus sur 169 cibles et 232 indicateurs statistiques pour suivre l’atteinte des 17 Objectifs de Développement durable au niveau mondial. L’Europe s’est dotée d’un tableau de bord avec 100 indicateurs de suivi. La France en a sélectionné 98 pour sa part. Pour comparer les pays européens, l’INSEE se base sur l’analyse  des indicateurs européens, fournis par Eurostat.

Entre réussite et limites

Pauvreté et santé, voici deux points où la France s’en sort bien. Seulement 17,1% des Français sont en risque de pauvreté ou d’exclusion sociale, contre 22,4% au niveau européen. L’espérance de vie à la naissance en France est la troisème d’Europe : 82,7 ans, derrière l’Espagne (83,4 ans) et l’Italie (83,1 ans).

Lorsque l’on s’intéresse à l’environnement, le bilan est nuancé. La consommation d’énergie finale a baissé de 9% depuis 2005, comme dans l’ensemble de l’UE. Grâce à l’électricité d’origine nucléaire, les Français émettent 7,1 tonnes par habitant en 2016. C’est 18% de moins que la moyenne européenne. Mais le revers de la médaille est que la part des énergies renouvelables dans la consommation finale brute d’énergie augmente à un rythme inférieur que la moyenne européenne.

Concernant la pollution de l’air par les particules fines ou le développement de l’agriculture biologique, la France se situe proche de la moyenne européenne. Le gros point noir est l’artificialisation des sols. Elle est de 456 m2 par personne, contre 363 m2 au niveau européen.

L’éducation au cœur de la transition

« En matière d’éducation, la France fait mieux que la moyenne européenne sauf pour la proportion de jeunes de 15 ans ayant de faibles compétences scolaires« , rapporte l’INSEE. En effet, le nombre de jeunes de 15 ans ayant une maîtrise insuffisante en lecture, mathématiques et sciences est supérieur à la moyenne européenne.

Si l’éducation est bonne, l’accès à l’emploi reste difficile. 13,9% des jeunes de 15 à 29 ans ne travaillent pas et ne suivent ni études ni formation. Le taux d’emploi des 20-34 ans récemment diplômés est l’un des plus faibles d’Europe : 74,4%, contre 80,7% au niveau européen. Le taux de chômage longue durée atteint pour sa part 4,2 % contre 3,4 % en Europe.

Notons un point inquiétant : toute politique de développement durable doit avoir une gouvernance forte pour entraîner les parties prenantes. Mais la population française n’a pas confiance dans les institutions européennes. Seulement 39% des Français font confiance au Parlement européen, contre 45% des Européens. En septembre, Emmanuel Macron présentera sa feuille de route pour la mise en œuvre des ODD , en marge de l’Assemblée générale de l’ONU. Ce Forum Politique de Haut Niveau des chefs d’Etat pour le développement durable a lieu tous les quatre ans et cela sera le premier depuis l’adoption des ODD en 2015. Il devra prendre des engagements forts s’il veut réellement améliorer la position de la France dans le développement durable.

Consommation d’énergie : des aides pour remplacer ses anciens radiateurs

Les radiateurs électriques d’ancienne génération, surnommés les « grilles-pains », ne sont pas du tout économes en énergie. Mais ils sont encore très répandus en France : entre 4,4 et 5,8 millions de logements seraient encore chauffés par ces convecteurs du siècle dernier. Soit un parc évalué entre 20 et 30 millions de ces radiateurs, selon l’association Equilibre des Energies.

De nouvelles aides, de 50 à 100 euros

Pour inciter les particuliers à les remplacer par des radiateurs performants au pilotage intelligent, le gouvernement vient de publier un arrêté dans le Journal Officiel mettant en place de nouvelles primes. Elles s’élèvent à 100 euros par radiateur pour les ménages modestes en situation de précarité ou grande précarité énergétique et à 50 euros pour les autres.

L’association Equilibre des Energies se réjouit de cette nouvelle disposition. Pour la rendre efficace, elle demande toutefois des mesures complémentaires. « Remplacer un grille-pain par un radiateur permet de réduire les consommations d’énergie d’environ 30%, plus encore si des travaux d’isolation sont effectués en complément », explique Equilibre des Energies. Mais pour les ménages en situation de précarité énergétique, l’investissement reste un frein.

Pour des radiateurs à 1 euro

L’association demande que les radiateurs performants au pilotage intelligent soient intégrés dans le crédit d’impôt pour la transition énergétique (CITE). Il est toujours question que le CITE soit transformé en prime dans le cadre de la loi de finances 2020. Cela pourrait alors représenter une aide supplémentaire de 100 euros.

Mais Equilibre des Energies veut aller encore plus loin. Tout comme il y a eu des opérations d’ampoules LED ou d’isolation des combles perdues à 1 euro, l’association demande un programme de remplacement des radiateurs à 1 euro pour les ménages les plus précaires.

Une prime pour remplacer sa chaudière

Le Coup de pouce chauffage a été lancé pour remplacer les chaudières individuelles au charbon, au fioul ou peu performantes au gaz par des chaudières écologiques. L’aide monte jusqu’à 4 000 € pour les ménages modestes et 2500 € pour les autres. Par chaudière écologique, le ministère entend une chaudière biomasse performante, une pompe à chaleur air/eau ou eau/eau, un système solaire combiné ou une pompe à chaleur hybride.

Une aide de 1200 euros est prévue pour les ménages modestes qui veulent s’équiper d’une chaudière au gaz à très haute performance énergétique. Elle est de 600 euros pour les autres ménages. « La prime à la conversion des chaudières est cumulable avec d’autres aides comme Habiter mieux agilité (Agence nationale de l’habitat, Anah), le crédit d’impôt pour la transition écologique (CITE), l’écoprêt à taux zéro… », précise le ministère. Ce dernier vous propose un simulateur pour calculer le montant de l’aide à laquelle vous pouvez prétendre.

Des revêtements d’aérogel pour terraformer localement Mars

La terraformation de Mars reste toujours un sujet de réflexion active. Jusqu’ici, les idées pour y parvenir impliquent de modifier massivement et durablement l’environnement martien, et notamment son atmosphère, pour rendre la planète habitable par des hommes. Le principe étant, à chaque fois, de recréer une atmosphère proche de celle de la Terre afin d’augmenter la température moyenne et d’assurer une protection contre les rayonnements (notamment ultraviolets). Des projets faramineux, longs et dont la faisabilité avec les technologies actuelles n’est pas démontrée. Cette fois, l’idée serait de limiter les transformations à des zones étendues mais limitées. Comment ?

En recouvrant le sol d’une couche de 2-3 cm d’un aérogel de silice pour créer un effet de serre à l’état solide (solid state greenhouse effect), proposent des chercheurs d’Harvard, du JPL en Californie et de l’université d’Édimbourg. Installé sur des zones riches en glaces martiennes, cela devrait rendre la zone propice à la vie photosynthétique prédisent-ils.

Des aérogels pour réchauffer Mars

Les aérogels sont des matériaux, semblables à des gels, où le composant liquide est remplacé par un gaz. Cela donne des solides à très faible densité constituant de bons isolants thermiques. Dans leur article, les chercheurs s’appuient sur les caractéristiques déjà connues des aérogels de silice : ils transmettent suffisamment de lumière visible pour la photosynthèse, ils bloquent les rayons ultraviolets dangereux et ils augmentent les températures situées en dessous sans besoin de source de chaleur interne. Grâce à leur très faible conductivité thermique (~0.02 W m−1 K−1 à une pression de 1 bar ou 0.01 W m−1 K−1 à la pression atmosphérique martienne), les aérogels de silice sont déjà utilisés sur Terre pour le chauffage passif de certains bâtiments et ont aussi été utilisés pour aider les rovers martiens Spirit et Opportunity à se protéger de l’extrême froid des nuits martiennes. Cette utilisation s’appuie sur l’effet de serre à l’état solide qu’ils engendrent. Ce phénomène est similaire à l’effet de serre qui se produit entre les gaz et la surface de notre planète mais il s’opère cette fois entre différentes couches de solides.

Des simulations et des tests en laboratoire

Les simulations et les tests effectués en laboratoire suggèrent que 2 à 3 centimètres d’épaisseur d’aérogel répandu sur le sol peuvent suffire à augmenter la température du sol de 50°C et ce sur plusieurs mètres de profondeur. Ce qui permettrait de faire fondre la glace de surface ou de subsurface et de la garder fondue pendant plusieurs années. Bien sûr, pour permettre ensuite à des plantes de se développer, il faut encore considérer d’autres paramètres : la pression atmosphérique, les phénomènes de dépôts de poussières, la disponibilité des nutriments, la salinité des sols (si trop élevée, facilite l’élévation des températures, mais restreint la vie aux plantes halophiles). En outre, si la teneur en CO2 de l’atmosphère martienne est favorable aux plantes, la pression atmosphérique est trop faible et les couches d’aérogel vont localement augmenter la pression ce qui risque d’entraîner une fuite de vapeur d’eau verticalement ou latéralement. L’aérogel devra donc être adapté structurellement pour empêcher ce phénomène. Les chercheurs proposent d’intercaler l’aérogel avec de fines couches d’un matériau solide transparent  ou de le renforcer avec un polymère organique. En ce qui concerne les nutriments, les relevés des rovers martiens et les observations laissent supposer que leur disponibilité ne devrait pas poser de problèmes majeurs. Considérant tous ces paramètres, les auteurs de ces travaux estiment qu’il existe de nombreuses régions locales propices à la vie avec ce système dans la bande de latitudes 45°S – 45°N. Une simulation sur le site de Deuteronilus Mensae montre qu’au bout de quelques années de présence de l’aérogel, l’eau liquide pourrait perdurer tout le long de l’année martienne. Ce qui permettrait d’installer une vie photosynthétique sur Mars avec une intervention ultérieure minimale.

Encore des travaux à faire

Cependant, même si cette solution est pour le moment la plus rapide, la moins coûteuse et la plus facile à mettre en œuvre pour permettre l’installation d’une forme vie terrestre autonome sur Mars, il reste encore de nombreux obstacles à passer.

Tout d’abord, la fabrication des aérogels de silice qui est encore difficile et les conditions de transports ou d’installation sur Mars ne sont pas précisés. Les chercheurs indiquent qu’il faudrait donc étudier comment adapter la fabrication de ces aérogels aux conditions martiennes et chercher s’il serait possible de les faire fabriquer par des organismes vivants comme des éponges hexactinellides ou un phytoplancton de diatomées. Ensuite bien sûr, se posent les questions d’ordres éthiques : y a t-il eu ou y a t-il encore des formes de vie sur Mars ? Si oui, l’installation d’organismes terrestres remet-elle en cause leur étude ou leur existence ? Quelles sont les risques/bénéfices d’une telle installation ? Etc.

Dans tous les cas, le phénomène d’effet de serre à l’état solide est un concept intéressant qui peut déjà trouver des applications sur Terre dans des environnements hostiles comme l’Antarctique ou certains déserts (Atacama au Chili par exemple). Ce qui permettrait aussi de faire des essais grandeur nature sur l’épandage, le maintien et le fonctionnement de ces aérogels à plus grande échelle qu’en laboratoire.

Des scientifiques découvrent un nouveau phénomène de pollution plastique sur la côte de l’île de Madère

Le MARE est un centre de recherche scientifique portugais, basé dans 7 institutions d’enseignement supérieur portugaises. Il s’est spécialisé dans l’étude des écosystèmes aquatiques, y compris les bassins hydrographiques et les zones adjacentes, les estuaires et les écosystèmes marins côtiers et océaniques.

Les scientifiques dirigés par le Professeur Ignacio Gestoso, l’ont désignée comme une « plasticroûte », composé de polyéthylène, mais à la provenance encore inconnue.

La première hypothèse avancée est qu’il s’agit de fragments de plastique qui sont entrés en collision avec les rochers de la côte sud de Madère à cause des vagues et des marées.

Les scientifiques ont publié les conclusions de leur étude dans le bulletin scientifique Science of the Total Environment et espèrent désormais poursuivre leurs recherches pour en savoir plus sur la formation de cette « plasticroûte ».

Le Professeur Gestoso a déclaré au site Earther que  » les croûtes ont probablement été formées par le choc de morceaux de plastique plus gros contre la côte, ce qui a amené à la formation d’une croûte, de la même manière que celles formées par les algues et les lichens ».

Le chercheur a souligné que le plastique peut progressivement remplacer d’autres revêtements rocheux naturels qui sont l’habitat et la source de nourriture des balanes ou des bigorneaux.

L’équipe du Professeur Gestoso a découvert que des ânes se nourrissaient d’algues recouvrant la croûte plastique, ce qui laisse supposer qu’ils ingurgiteraient également du plastique, risquant ainsi d’entraîner le blocage du tube digestif par des particules de plastique ou l’introduction de polluants dans leur système digestif.

Ces croûtes de plastique avaient déjà été détectés en 2016, mais en début d’année, l’équipe du Centre de la Faculté des Sciences et Technologies l’Université Nova de Lisbonne est retournée sur le site et a vu que le plastique était encore encastré dans la roche, ce qui pourrait être considéré « une nouvelle catégorie de déchets marins« , dit MARE dans un communiqué.

Source : France Diplomatie

Photovoltaïque : comment éviter les arnaques

Les arnaques revêtent plusieurs facettes. Discours commerciaux abusifs, rendements surévalués, faux tarifs de rachat de l’électricité, prix de panneaux abusifs… font partie des arnaques les plus courantes. In Sun We Trust, la plateforme en ligne qui calcule gratuitement le potentiel de votre toiture et vous propose des artisans locaux pour installer des panneaux solaires, explique comment vous protéger.

La première chose à faire est de refuser tout démarchage téléphonique. Ces entreprises proposent généralement des installations gratuites ou presque sous couvert d’un prétendu plan d’actions mis en place par le gouvernement. « Un tissu de mensonges« , alerte In Sun We Trust. Lorsque vous envisagez de travailler avec une entreprise, la première chose à faire est de vérifier sa bonne immatriculation et ses informations administratives, par exemple sur societe.com.

Savoir évaluer les rendements de son installation

Afin d’éviter des prix de panneaux et d’installation abusifs, il convient ensuite de faire au moins trois devis pour comparer les prix. Et garder à l’esprit que les installateurs malhonnêtes surévaluent les rendements pour justifier des prix qui s’envolent.

In Sun We Trust est clair : si on vous promet une production de 20 000 kilowattheure (kWh) par an pour 20 m2 de panneaux solaires, fuyez ! La réalité : une installation idéale de 20 m2, située sur la Côte-d’Azur orientée plein Sud à une inclinaison de 30°, produirait 4 800 kWh par an. Pour éviter les arnaques, In Sun We Trust propose une carte permettant d’obtenir un ordre de grandeur de la production annuelle par kilowatt crête installé.

Connaître les tarifs et les aides

Les installateurs malhonnêtes n’hésitent pas à mentir sur les tarifs de rachat de l’électricité d’origine photovoltaïque. Ces tarifs évoluent tous les trimestres. Les tarifs officiels – que vous décidiez de vendre la totalité de votre production ou uniquement le surplus non auto-consommé – sont consultables ici.

Pour se protéger des prix de vente délirants, In Sun We Trust donne quelques ordres de grandeur. Une installation pouvant être considérée comme compétitive sera proposée au prix de 8 000 € pour 3 kilowatts crête (kWc), 14 000 € pour 6 kWc et 18 000 € pour 9 kWc. Toutefois, n’acceptez jamais de financer un projet solaire grâce à un prêt à la consommation : le taux proposé par l’installateur sera certainement exorbitant.

Ne croyez pas non plus la promesse de panneaux solaires gratuits ou autofinancés. Le crédit d’impôt n’est plus valable depuis 2014, seule une prime à l’autoconsommation permet de couvrir environ 15 % des coûts d’installation. « Certains démarcheurs font circuler l’idée qu’il existe une commission rattachée à EDF, Engie ou autre, qui financerait les projets solaires des particuliers sur dossier. C’est complètement faux ; il s’agit d’un prétexte pour obtenir des informations financières confidentielles sur le client, voire extorquer une signature sur un bon de commande déguisé », dénonce In Sun We Trust.

Enfin, si vous avez des doutes sur un démarcheur ou avez changé d’avis, vous avez droit à 14 jours de rétractation. Attention toutefois, ce délai de rétractation ne s’applique pas sur les foires et sur les salons. Le conseil est donc clair : « ne signez rien sur une foire« . En cas de doute, n’hésitez pas à demander conseil auprès d’associations spécialisées, comme le Groupement des Particuliers Producteurs d’Electricité Photovoltaïque(GPPEP) ou les espaces info énergie. Ces derniers prodiguent des conseilts gratuits, neutres et sont présents partout en France.

Hyperion, futur participant au concours Hyperloop

Occupé à conquérir l’espace, avec SpaceX, et le marché de l’automobile électrique, avec Tesla, le multimilliardaire Elon Musk compte également prendre pied dans le transport ferroviaire avec le projet Hyperloop. Le concept s’inspire du «vactrain» : à l’intérieur d’un tube maintenu à une pression atmosphérique quasi-nulle, réduisant de façon drastique les frictions, le train du futur pourrait circuler une vitesse supérieure à 1000 km/h. La mise en chantier n’étant pas encore d’actualité, loin s’en faut, toutes les idées d’ordre technologique sont bonnes à prendre. C’est l’objet du concours annuel Hyperloop Pod, organisé depuis 2015 à proximité du siège social de SpaceX, en Californie, où une piste expérimentale longue de 1,6 kilomètre a été construite. La quatrième édition s’est achevée il y a quelques jours par une nouvelle victoire des étudiants allemands de l’Université technique de Munich (TUM Hyperloop, anciennement WARR Hyperloop) : leur capsule de 70 kg a atteint la vitesse de pointe de 463 km/h, non loin du record de 467 km/h établi l’an passé par cette même université. Aucune équipe française n’était présente, mais la donne pourrait changer en 2020 avec la participation d’Hyperion.

Hyperion, c’est le nom du projet – et bientôt celui de l’association – est porté par 56 étudiants de l’Estaca, l’Ecole supérieure des techniques aéronautiques et de construction automobile sise à Saint-Quentin-en-Yvelines. La compétition n’imposant aucune technique de propulsion et de liaison avec le rail, ce collectif cherche à se démarquer avec des choix novateurs dans l’industrie du transport. «A cette vitesse, il n’est en effet pas question d’employer un caténaire et un pantographe car l’énergie ne peut être transmise (phénomène du mur de la caténaire, ndlr), explique Enzo Ruby, étudiant en 3e année qui chapeaute le projet. Quant à la lévitation magnétique de type maglev, elle coûte très cher étant donné que le rail doit être continuellement alimenté en électricité. Le principe de notre technologie est passif : après une impulsion initiale, la lévitation est auto-entretenue, sans apport d’énergie extérieur, grâce à un réseau de Halbach. Les aimants sont arrangés de façon à produire un champ magnétique très fort sur une face et très faible sur la face opposée. Lors du déplacement sur le rail, le courant induit applique une force de Laplace, répulsive, qui soulève la capsule.»

Un moteur linéaire pour la propulsion

Pour la propulsion, les étudiants de l’Estaca ont opté pour le moteur linéaire asynchrone. «Lequel est comparable au moteur d’une perceuse ou d’un scooter électrique, si ce n’est que dans notre exemple, le rail joue le rôle du rotor, poursuit Enzo Ruby. C’est un moteur classique mais aplati, dont le champ induit et décalé produit une poussée. Cet appareillage sur mesure nous oblige à construire notre propre onduleur». Les tests se poursuivront sur un banc d’essai, nommé Marilyne, avant la mise au point d’un prototype. Mais Hyperion devra franchir toutes les étapes de sélection mises en place par les organisateurs. Le premier rendez-vous a lieu en septembre prochain. «Nous présenterons le design préléminaire de notre capsule devant un premier jury qui décidera de sa faisabilité, détaille Enzo Ruby. En cas de validation, nous passerons devant un deuxième jury en automne et assisterons à un briefing de sécurité cet hiver, avant de partir en juillet prochain vers la Californie.» L’écrémage est significatif : quelque 300 candidats se présentent sur la ligne de départ, mais seuls une quinzaine d’élus pourront participer à la compétition finale. Afin de maximiser ses chances de réussiste, l’Estaca pourrait laisser mûrir son projet une année supplémentaire.

Il est vrai que le premier train commercial Hyperloop transportant des passagers n’entrera pas en gare avant de nombreuses années. Bien des questions sont encore à résoudre, à commencer par le financement et la construction de l’infrastructure, même sur les voies ferrées actuelles. Elon Musk considère ce mode de transport intéressant pour des distances inférieures à 1500 kilomètres entre grands centres urbains. Au-delà, dit-il, les futurs avions supersoniques seront plus rentables. Il n’est pas le seul à entrevoir cette complémentarité, Airbus sponsorisant l’équipe allemande Tum Hyperloop. Pour Enzo Rubio, ces trains à super grande vitesse seraient aussi une alternative pour le fret, une filière où «le transport ferroviaire, par manque de vitesse, n’est pas assez compétitif face à l’avion. D’autre part, l’aéronautique doit aussi évoluer, en intégrant la propulsion électrique notamment, et peut-être que le concours Hyperloop stimulera aussi des idées dans ce domaine.» Des inventions open source, selon la volonté d’Elon Musk… en espérant qu’il s’y tienne.

« Collecte innovante » : 14 projets sélectionnés

Le ministère de la Transition écologique et solidaire maintient son ambition de tendre vers le recyclage de 100% des plastiques à l’horizon 2025. C’est dans ce contexte qu’un appel à manifestations d’intérêt avait été lancé en janvier dernier. Par ce biais, la secrétaire d’État Brune Poirson, Arnaud Leroy, président de l’ADEME, et Jean Hornain, directeur général de Citeo, ont pu récompenser les initiatives les plus prometteuses en matière de collecte des déchets. Au nombre de quatorze, les projets qui se sont distingués ont été labellisés « collecte innovante ». Ces derniers sont répartis sur tout le territoire français, outre-mer inclus. Et parmi tous les dossiers postulants, les plus distingués ont été ceux qui proposent des solutions pour des zones où le tri des déchets est actuellement le moins performant.

Un soutien financier, et d’autres à venir

L’ADEME a débloqué une enveloppe globale de 1,3 million d’euros pour récompenser les 14 lauréats. Chaque projet se voit donc financé à hauteur de 200.000€, voire 250.000€ s’il intègre une dimension solidaire. En plus de cette  somme, Citeo, en tant qu’entreprise privée majeure dans le recyclage des emballages ménagers, soutient financièrement et techniquement chaque projet récompensé.

Ces projets ne seront pas les seuls à être récompensés. Les lauréats du 15 juillet dernier auront des successeurs car des nouvelles vagues d’appel à manifestations sont prévus. La prochaine date limite de dépôt des dossiers est fixée au 10 août, et la suivante au 20 janvier 2020.

Des projets de collecte solidaires, innovants et visuels

Dans les faits, tous les projets récompensés sont assez différents les uns des autres. Certains par exemple n’ont pas hésité à prendre le virage du numérique, à l’image des applications mobiles Terradonna Cliiink, et « Mon Tri ».  La première permettra aux habitants de la communauté d’agglomération Lens-Liévin de visualiser l’emplacement des bornes de collecte du verre. En échange de leur bonne action, les trieurs pourront engranger des points, ou faire un don à la Ligue contre le cancer. « Mon Tri » est quant à elle une application mobile pensée par Neopterra Uzer et s’adresse à certains Franciliens qui vivent dans des zones où les performances de recyclage sont faibles. Grâce à leurs smartphones, les usagers auront la possibilité de scanner leurs emballages avant de les mener vers une borne dédiée. Là encore, ils pourront remporter des points.

Trois autres projets ayant obtenu le label « collecte innovante » se distinguent par la conception de leurs bornes de collecte. Dans le Vaucluse, Suez prévoit de développer le projet SELF sur le parking d’un hypermarché. Les clients pourront déposer dans cet automate leurs canettes et bouteilles usagées. L’avantage : toutes les bouteilles seront acceptées, même si elles sont déformées, ou si elles ont perdu leur étiquette. À Bordeaux, La Boucle Verte souhaite implanter des conteneurs pour collecter des cannettes dans des lieux de forte affluence. Point forts de ces collecteurs : ils seront réalisés en bidons d’huile usagés et recyclés. Ensuite, les canettes collectées seront acheminées vers un centre de tri en vélo cargo. À plus de 7800 kilomètres des coteaux girondins, l’association « Yes We Canette » veut installer deux automates de collecte au plein cœur de la nature mahoraise, à Mamoudzou, sur des sites protégés.

Les aéroports européens n’émettront plus de CO2 en 2050

Fin juin, lors du congrès annuel de l’Airports Council International Europe (ACI Europe), les aéroports européens se sont engagés à ramener leurs émissions de carbone au niveau zéro d’ici 2050. L’engagement vaut pour les émissions produites dans le cadre des opérations d’exploitation aéroportuaire, côté piste et côté terminal. Dans un communiqué, l’Union des Aéroports Français et francophones associés s’engage pleinement dans cette résolution.

Diminuer les émissions, stocker le reste

 Cet engagement de zéro émission nette de carbone va plus loin que la neutralité carbone qui accepte la compensation carbone. Il devra être atteint via une réduction des émissions dans la plus large mesure possible. La résolution exclut le recours à la compensation carbone. Elle lui préfère l’investissement dans des solutions de captage et de stockage du carbone.

 L’engagement est pris par 194 aéroports gérés par 40 exploitants d’aéroports de 24 pays européens. Les exploitants Aéroports de la Côte d’Azur (Nice, Cannes et Saint-Tropez), Aéroport Brest Bretagne, le groupe ADP (Paris-CDG et Paris-Orly) et Vinci Airports, exploitant neuf aéroports en France (Lyon, Chambéry, Clermont-Ferrand, Dinard, Grenoble, Nantes, Poitiers, Rennes et Toulon) sont signataires de l’engagement.

Les 194 aéroports signataires ont accueilli 62,5% du trafic aérien européen en 2018. Chaque aéroport s’engage individuellement dans le même objectif. Sur la base des volumes de trafic actuels des aéroports européens (2,34 milliards de passagers accueillis en 2018) et de l’empreinte carbone estimée, cet engagement zéro carbone net devrait permettre d’annuler l’émission de 3,46 millions de tonnes de CO2 par an à partir de 2050.

De la neutralité carbone au zéro émission nette

En 2009, l’ACI Europe a lancé le programme Airport Carbon Accreditation pour servir de norme à la gestion du carbone dans les aéroports. Déjà 127 aéroports se sont engagés,  dont 43 ont atteint la neutralité carbone. En 2017, l’ACI Europe s’est engagé à atteindre 100 aéroports neutres en carbone d’ici 2030.

« Les aéroports européens ont déjà commencé les travaux, et je suis convaincu que plusieurs d’entre eux atteindront le zéro émission nette de carbone avant 2050, estime Michael Kerkloh, président de l’ACI Europe. Il existe déjà trois aéroports européens à zéro émission nette de carbone : Luleå, Ronneby et Visby – opérés par l’exploitant d’aéroports suédois, Swedavia. Swedavia ambtionne d’atteindre des émissions zéro nettes pour tous ses aéroports, y compris Stockholm-Arlanda d’ici 2020, et l’aéroport de Hambourg d’ici 2022 – tandis que les aéroports d’Amsterdam-Schiphol, d’Eindhoven et de Copenhague se sont fixés cet objectif pour 2030.« 

L’ACI Europe a profité de l’occasion pour appeler l’ensemble des acteurs du transport aérien à compléter et renforcer leurs engagements. Les aéroports souhaitent une vision et une feuille de route pour conduire l’écosystème du transport aérien dans sa totalité aux émissions zéro carbone d’ici 2050.

Résilience des centrales nucléaires à la canicule

Une centrale nucléaire a en effet besoin d’eau afin d’assurer le refroidissement des installations. Cette eau peut être prélevée dans la mer ou les fleuves et rivières, puis rejetée après utilisation. La température de l’eau rejetée est supérieure à celle de l’eau prélevée, ce qui peut entraîner une élévation de la température des fleuves et rivières à l’aval des centrales pouvant être préjudiciable à la faune et à la flore.

Sur l’eau prélevée par une centrale nucléaire, 99 % de cette eau est restituée, soit en totalité pour celle qui est en circuit ouvert, soit pour un tiers, sous forme de vapeur d’eau, par les tours aéroréfrigérantes et pour deux tiers sous forme liquide dans la rivière ou en mer.

Pour les réacteurs en bordure de fleuves, le réchauffement causé par la centrale est inférieur à 0,3°C (parfois 0,1°C seulement). Le rejet thermique se fait sur la rive afin d’effectuer un mélange progressif du rejet d’eau « tiède » sur plusieurs kilomètres, afin d’éviter la création d’un « mur thermique » pouvant faire barrage à la migration des poissons.

Une étude thermique du Rhône montre que les effets des rejets thermiques des centrales nucléaires restent très faibles et spatialement localisés.

En revanche, la production des centrales situées en bord de mer n’est pas affectée par les épisodes de forte chaleur. Les rejets sont dilués par les puissants courants marins et l’eau « tiède » rejetée dans le fond marin remonte rapidement en surface par convection, réduisant son impact sur les organismes vivant au fond de la mer.

Dans le parc nucléaire d’EDF, 11 sites sur 19 sont dotés d’aéroréfrigérant, trois sites (Bugey, Saint-Alban et Tricastin) sont en prise d’eau directe.

Depuis la canicule de 2003, qui a « surpris » EDF par son ampleur, entraînant la fermeture de plusieurs réacteurs, et celle de 2006, EDF a adapté ses moyens de refroidissement, a concédé Cécile Laugier, directrice prospective et environnement du parc de production d’EDF lors d’une rencontre, le 9 juillet dernier, avec les associations des journalistes de l’énergie et de l’environnement (AJDE et AJE). Un plan « Grands Chauds » a vu le jour, pour un montant de 500 millions d’euros. Il s’accompagne de modifications qui concernent la sûreté nucléaire, par une augmentation des capacités des groupes froids de production d’eau glacée et des échangeurs eau/eau, ainsi qu’un rembobinage de certains moteurs. Ont également été engagés des travaux de réhabilitation des aéroréfrigérants, pour renforcer le refroidissement de l’eau utilisée, en « consommer » moins et ainsi produire plus avec la même quantité d’eau (ce seul poste a engagé quelques 200 M€ qui s’ajoutent aux 500 M€ du plan). La majeure partie de ces modifications sont réalisées notamment dans le cadre des visites décennales et dans le plan « Grand carénage » qui vise à augmenter la durée de vie des centrales au-delà de 40 ans.

Ce plan « Grands Chauds » fait aussi partie de la stratégie globale d’EDF dans le cadre de l’adaptation aux changements climatiques. Cette stratégie se fonde sur une ré-interrogation tous les 5 ans des évolutions climatiques (températures de l’air et de l’eau, débit). Une rénovation complète des stations de surveillance des paramètres physico-chimiques de l’eau a aussi été menée afin de sécuriser les mesures dans l’environnement, notamment de la température, avec un objectif de prévoir très finement les évolutions à 8 jours et permettre une anticipation graduée des arrêts potentiels. En outre, EDF procède à une amélioration des connaissances sur les rivières (débits, etc.) et les éco-systèmes. Une étude fouillée a ainsi été réalisée sur les peuplements du Rhône. Et EDF possède désormais une excellente connaissance de l’influence des changements climatiques sur l’évolution des eaux de la Garonne. Ces études visent également à prendre en compte l’ensemble des usages de l’eau (agriculture, électricité, loisirs, autres).

En fonction des prévisions météorologiques dans les jours et semaines à venir, il n’est pas exclu que d’autres réacteurs soient arrêtés ou réduisent leur fonctionnement, en raison du réchauffement de cours d’eau.

A noter, a indiqué Cécile Laugier, que sur les dix dernières années, alors que la France a connu plusieurs épisodes caniculaires, en 2003, 2006 et 2018, l’impact sur la production électrique des centrales a toujours été inférieur à 0,5% (et plutôt 0,3% en moyenne), sauf en 2018, avec 0,7% de « manque à gagner en termes de production de courant.

GE Renewable Energy sort sa première éolienne offshore géante de 12 MW

L’Haliade X 12, c’est son nom, est à entraînement direct et à générateur d’aimant permanent. Elle a été entièrement assemblée sur le site initialement inauguré en décembre 2014 pour des machines de 6 MW (site repris à Alstom lors du rachat du constructeur français).

Un bond de taille

Cette éolienne géante – hauteur de 260 mètres avec un rotor de 220 mètres équipé de pales de 107 m unitaires – bat tous es records actuels sur ce marché de l’offshore éolien. Ses pales ont été construites à Cherbourg, sur l’usine de LM Wind Power, spécialiste racheté par GE Renewable Energy en 2017.

La nacelle sortie lundi de l’usine de Montoir-de-Bretagne sera expédiée dans les prochaines semaines à Rotterdam-Maasvlakte, aux Pays-Bas, où les éléments du prototype de l’Haliade-X 12MW doivent être assemblés en vue de tests. Le prototype de l’Haliade-X sera installé à terre pour faciliter l’accès aux essais, qui doivent permettre à GE Renewable Energy de recueillir, pendant cette période initiale d’exploitation, les données nécessaires à l’obtention de sa certification type, dont John Lavelle, PDG de GE Renewable Energy Offshore Wind, espère qu’elle soit obtenue en 2020. Il s’agit en effet d’une étape clé dans la commercialisation du produit, laquelle est prévue pour 2021.

Grâce à une puissance de 30% supérieure à celle des machines actuellement installées dans le monde, GE Renewable Energy signale que son Haliade-X 12 MW pourra produire en moyenne quelque 67 GWh d’énergie brute annuelle.

Et il s’agit d’un pari de taille, car la majorité des concurrents de GE Renewable Energy (Siemens Gamesa, le leader de l’offshore mondial, ou encore MHI Vestas) sont en train de mettre au point des machines de 10 MW qui sont d’ores et déjà dans les appels d’offres dans le monde. GE Renewable Energy espère ainsi marquer un point dans une compétition qui s’annonce féroce en la matière.

Une deuxième nacelle de l’Haliade-X 12 MW est actuellement en cours d’assemblage à Saint-Nazaire, avant d’être expédiée dans les prochains mois au centre d’essais d’ORE Catapult à Blyth, au Royaume-Uni. Cette deuxième unité sera testée en parallèle en conditions réelles, afin de réduire le temps requis pour valider les performances et la fiabilité, avant la mise sur le marché.

Les sites français consacrés

Le site de Saint-Nazaire a déjà assuré l’assemblage de plus de 80 turbines Haliade 150-6MW depuis son inauguration, notamment pour le tout premier parc éolien aux Etats-Unis (Block Island). Dans le cadre du projet de l’Haliade-X 12 MW, plus de 46 millions d’euros sont investis par GE sur le site, afin d’adapter ses capacités de production à la fabrication de cette nacelle de 12 MW. Plus de 75 millions d’euros sont également investis à Cherbourg, pour la production des pales de de l’Haliade-X. GE Renewable Energy a par ailleurs indiqué que Nantes demeurerait le centre mondial pour le groupe de cette technologie. Jérôme Pécresse, PDG de GE Renewable Energy, précise dans un communiqué remis à cette occasion, que « la présentation aujourd’hui à Saint- Nazaire, de la toute première turbine de l’Haliade-X 12 MW, marque une nouvelle étape clef dans la poursuite de notre engagement pour la structuration de la filière éolienne en mer. Ce projet est emblématique de notre capacité à investir et innover pour accompagner nos clients dans un environnement ultra-compétitif et en plein essor. »

GE Renewable Energy a cependant annoncé le 12 juillet la construction dans le cluster Jieyang’s Offshore Wind, dans la province chinoise du Guangdong, d’une usine pour ces machines de 12 MW. Un site qui desservira l’ensemble de la région asiatique, où les perspectives de développement sont importantes à terme. Le plan de développement offshore éolien du Guangdong prévoit à lui seul quelque 66 GW d’ici à 2030.

IPv4 : la France vit sur ses stocks

Le protocole IP (Internet Protocol) est la clé de voûte d’Internet. Tout ordinateur relié au web doit disposer d’une adresse permettant de l’identifier. Cette adresse est composée de 4 nombres décimaux séparés par des points, c’est ce que l’on nomme l’IPv4. Utilisé depuis 1983, ce système arrive à saturation, car il ne permet de gérer que 4,3 milliards d’adresses IP publiques à l’échelon de l’Internet mondial.

L’IPv4 utilise en effet un espace d’adressage 32 bits équivalant à 4 octets. Cela signifie que le nombre total d’adresses IP sur Internet peut aller jusqu’à 2 ^ 32.

L’épuisement complet des adresses IPv4 est annoncé depuis plusieurs années. En 2011, il devait être imminent. À l’époque, on s’appuyait notamment sur une étude du cabinet d’analyse Gartner qui indiquait qu’environ 1,6 milliard de téléphones mobiles, dont 19 % de smartphones, avaient été vendus dans le monde en 2010. Chacun possédant évidement une adresse IP !

Une meilleure sécurité

En France, fin juin 2018, les quatre principaux opérateurs avaient attribué entre 88 % et 99 % des adresses IPv4 qu’ils possédaient. À ce rythme, l’épuisement du stock pourrait intervenir à la mi-2020, estime l’Autorité de régulation des communications électroniques et des postes (ARCEP) dans son rapport intitulé « L’état d’internet en France ».

Nous sommes donc en retard.  Pourtant, les choses avaient bien commencé. Le 8 juin 2011, pendant 24 heures, les plus gros acteurs du web (Google, Facebook et Yahoo ! notamment) avaient basculé tous leurs serveurs en IPv6. Certains fournisseurs français (comme Free et Nerim) avaient entamé cette migration.

Depuis, le passage à l’IPv6 ne se fait pas à haut débit ! Fin juin 2018, sur le réseau fixe, la moitié des clients Free et presqu’autant (45 %) des clients Orange étaient activés en IPv6. Les taux s’élevaient à 2,5 % chez Bouygues Telecom et 0,9 % chez SFR. Sur le réseau mobile, la migration est encore moins entamée : 7 % chez Bouygues Telecom et 1 % chez Orange. Rien du tout chez les deux autres.

En adoptant l’IPv6, la France pourrait surfer sans soucis ! Finalisé en 1998, ce protocole dispose en effet d’un grand espace d’adressage de 128 bits. Et le nombre total d’adresses uniques sont 2 128. Ainsi, la limite des adresses IP ne va pas être dépassée pendant de nombreuses décennies ou peut-être des siècles.

Par rapport à l’IPv4, l’IPv6 intègre des fonctionnalités pouvant renforcer la sécurité de bout en bout (protocoles cryptographiques, certificats d’authentification…) sur une connexion et optimiser le routage (ce protocole intègre une fonctionnalité appelée autodécouverte qui permet aux machines et aux routeurs sur un réseau de se trouver et de se parler) .

Enfin, aucune préférence n’est accordée à une région particulière dans le monde. Actuellement, près de 50 % de toutes les adresses IP sont réservées aux États-Unis…

Le streaming vidéo, une usine à CO2

Très populaires, les services de streaming video ont un aspect pratique indéniable, mais leur impact écologique l’est tout autant. Dans une étude publiée le 11 juillet dernier, le groupe de réflexion The Shift Project, qui milite pour décarboner l’économie, estime que le streaming vidéo a injecté 306 millions de tonnes de CO2 dans l’atmosphère en 2018. C’est une production de gaz à effet de serre comparable à celle d’un pays comme l’Espagne, soit l’équivalent de 1% des émissions mondiales. De façon plus générale, les technologies du numérique sont responsables de 4% des gaz à effet de serre dans le monde et leur consommation énergétique progresse de 9% par an, concluait un autre rapport de la même association sorti en octobre dernier.

Dans le détail, la consommation de vidéos dites « online », hébergées sur un serveur et transmises sur un terminal (smartphone, TV…) distant via un réseau, est à l’origine de 60% du trafic de données numériques dans le monde l’an dernier. Inclus dans cette catégorie, les services à la Netflix et à la Amazon Prime comptent pour 34% de ce total, suivis par les portails pornographiques (27%), les plateformes telles que Youtube et Dailymotion (21%) et enfin les vidéos partagées sur les réseaux sociaux (18%).

Choisir entre l’utile et le moins utile

En tenant compte des impératifs climatiques et des contraintes sur les ressources naturelles et énergétiques, ce type d’usage est « insoutenable », s’inquiète The Shift Project. L’auto-régulation des fournisseurs de services et le volontarisme des usagers ne suffiront pas : l’association plaide pour la mise en œuvre d’une régulation, à l’issue d’un débat sociétal, qui permet d’arbitrer entre ce qui est utile et ce qui l’est moins. « Il ne s’agit pas d’être pour ou contre la pornographie, la télémédecine, Netflix ou les mails : il s’agit d’éviter qu’un usage précieux ne pâtisse de la surconsommation d’un autre jugé moins essentiel » expliquent les auteurs de l’étude. Cette démarche n’irait pas à l’encontre du principe de neutralité du net, pour lequel la nature des contenus prime sur leur volume.

Le vœu de The Shift Project serait d’autant plus urgent à réaliser que le streaming vidéo ne prend pas du tout le chemin de la sobriété énergétique. La définition 4K se démocratisant et la 8K commençant à poindre, les besoins en stockage grossissent. La 5G se profile également et son très haut débit devrait encore plus inciter à la connexion aux services de streaming, en situation de mobilité ou non. D’autre part, appâtés par le succès de Netflix, Apple et Disney prévoient de lancer leur plateforme dans quelques mois, ce qui aura pour effet de multiplier l’offre. Enfin, les services de « cloud gaming », dans la lignée de Google Stadia lancé en novembre prochain, risquent d’alourdir l’addition pour la planète : en partant d’une définition Full HD à 60 images par seconde, il est question de quelque 10 Go de données par heure…

Cybersécurité : bonnet d’âne pour les banquiers !

L’étude « State of Application Security at S&P Global World’s 100 Largest Banks » que vient de publier ImmuniWeb montre à quel point il y a un gouffre entre les annonces et la réalité

Alors que le cabinet Gartner affirme que le secteur bancaire est en tête des dépenses mondiales en matière de cybersécurité, cette étude donne des résultats édifiants :

  • 7 % applications web e-banking contiennent des vulnérabilités connues et exploitables. La plus ancienne vulnérabilité non corrigée connue et rendue publique date de 2011 (CVE-2011-4969 impactant jQuery 1.6.1) ;
  • 92 % des applications de services bancaires mobiles contiennent au moins une vulnérabilité de sécurité à risque moyen ;
  • 100 % des banques ont des vulnérabilités de sécurité ou des problèmes liés à des sous-domaines oubliés.

Quant à la conformité, ce n’est pas mieux :

  • 85 % des applications e-banking a échoué au test de conformité du RGPD ;
  • La moitié (49 %) applications web e-banking a échoué au test de conformité PCI DSS.

Seuls trois sites principaux sur 100 ont décroché les notes les plus élevées « A+ » à la fois pour le cryptage SSL et la sécurité du site Web : www.credit-suisse.com(Suisse), www.danskebank.com (Danemark) et www.handelsbanken.se (Suède).

ImmuniWeb  a aussi testé 55 applications bancaires en se référant au Top 10 des problèmes de sécurité et de confidentialité de Mobile OWASP. Là aussi, cela laisse à désirer :

  • 100 % des applications contiennent au moins une vulnérabilité de sécurité à faible risque ;
  • 92 % des applications contiennent au moins une vulnérabilité de sécurité à risque moyen ;
  • Pire, 20 % des applications contiennent au moins une vulnérabilité de sécurité à haut risque.

On peut se demander si les banques prennent vraiment au sérieux la sécurité informatique. En 2015, au Black Hat Asia, un expert Français avait démontré les failles des applications bancaires ! Des vulnérabilités qui avaient également été présentées un an plus tôt à la Chaos Computer Conference…

Revue du web #124 : les vidéos les plus étonnantes du mois

Un robot chasseur de mines

L’ingénieur Richard Yim a grandi au Cambodge durant les décennies de conflits. Après avoir étudié la robotique au Canada, il s’est juré de déminer le pays tout entier avant 2025. Découvrez Jevit, le premier robot télécommandé au monde capable de déterrer une mine grâce à ses 3 foreuses rotatives.

Un nouveau médiateur à la grotte de Lascaux

Un robot médiateur est installé dans la galerie de l’Imaginaire à Lascaux 4 au Centre international de l’art pariétal de Montignac. Baptisé Heasy et conçu par une entreprise française, il échange et s’exprime avec les jeunes visiteurs.

Un flyboard pour le défilé du 14 juillet

Durant le défilé militaire sur les Champs Elysées à Paris, le public a pu admirer le champion du monde de jet ski, Franky Zapata, propulsé sur son flyboard à des dizaines de mètres au dessus du sol.

Peut-on réparer un évier avec des nouilles instantanées ?

À première vue, la vidéo de cet évier ébréché rempli avec des nouilles instantanées est très convaincante. A t-on vraiment découvert le matériau du futur ?

Un énorme nuage de pollen

Dans sa chute, cet arbre libère un impressionnant nuage de pollens. Gare aux allergiques !

Les images des premiers pas de l’Homme sur la Lune

Le samedi 20 juillet 2019, le monde entier va célébrer le 50e anniversaire des premiers pas de l’Homme sur la Lune. À cette occasion, découvrez les bandes originales filmées par les astronautes Neil Armstrong et Buzz Aldrin et mises aux enchères par la maison Sotheby’s.

Un robot canard pour aider les riziculteurs japonais

Il a plus l’allure d’un aspirateur, pourtant le robot Aigamo est une innovation capable de relancer l’industrie du riz en perte de vitesse dans cette partie du monde. Cette alternative aux pesticides va permettre d’enlever les mauvaises herbes et de manger les insectes trop envahissants.

Un poisson robot nage 37 heures avec du sang synthétique

Des chercheurs ont mis au point un robot poisson doté d’un système sanguin synthétique. Le sang artificiel permet au robot de nager pendant 37 heures mais… très, très lentement.

Retour d’une « X » au ministère chargé de l’énergie

C’est donc Elisabeth Borne, jusqu’alors ministre chargée des Transports et sous la coupe du ministère de la Transition écologique et solidaire (MTES) qui va prendre les rênes lâchées mardi 16 juillet par François de Rugy, sous forte pression depuis la fin de la semaine dernière et les révélations de Médiapart. Une polytechnicienne (« X-Pont » certes, mais une « X » comme Nathalie Kosciusko-Morizet, ministre de l’Environnement de 2010 à 2012), ce qui pourrait favoriser ses relations avec la grande industrie…

D’ores et déjà néanmoins, les critiques ont fleuri, la nouvelle responsable du MTES ne prenant toutefois pas le rang de ministre d’Etat de son prédécesseur. De Greenpeace à la Fédération nationale des mines et de l’énergie CGT, les critiques ont plu sur son prédécesseur, mais aussi sur ce qui est qualifié de « rétrogradation » dans la hiérarchie de l’Etat… Ce qui laisse présager, estiment les ONG écologistes, une moindre influence de la transition écologique dans l’agenda gouvernemental.

Des législations en cours

La tâche s’annonce pourtant difficile pour l’impétrante qui est confrontée d’emblée au passage au Sénat de la « petite » loi sur l’énergie et le climat, depuis ce même mardi 16 juillet. Une loi qui doit permettre, au plus tard en septembre, de passer à l’étape suivante, c’est-à-dire entériner la programmation pluriannuelle de l’énergie (PPE). Annoncée au départ pour permettre de modifier la loi de 2015 fixant un objectif de 50% de nucléaire en 2025, et porter l’échéance à 2035, la loi s’est beaucoup enrichie de dispositions diverses.

Par ailleurs, comme l’ancienne présidente de la RATP (2015 à 2017) conserve le portefeuille des transports, elle défendra donc la loi d’orientation des mobilités (LOM), qui doit revenir en nouvelle lecture à la rentrée à l’Assemblée nationale et au Sénat. Une LOM qui à son premier passage est loin d’avoir fait l’unanimité.

Elle aura également à gérer la fin du débat sur le programme national de gestion des déchets et matières radioactives (PNGMDR), et l’adoption du PNGMDR pour les années à venir, avec un possible choix sur la fin du cycle du combustible : retraitement ou pas retraitement de tous les combustibles usés ?

La nouvelle ministre de la Transition énergétique et solidaire peut compter sur son expérience de directrice de cabinet de Ségolène Royal quand elle occupait cette fonction en 2014, voire sur son camarade de promotion, Jean-Marc Jancovici, ou encore sur cet autre coreligionnaire, Yves Bréchet, ancien haut-commissaire à l’Énergie atomique.

La question d’EDF

Autre lourd chantier, celui de la restructuration d’EDF. La FNME CGT n’a pas manqué de le souligner : « le projet gouvernemental dit “Hercule“ de casse d’EDF en est l’emblème majeur, tout comme la nomination de Mme Borne au poste de ministre de l’énergie. Après la découpe de la SNCF pour la mise en concurrence du rail (elle était directrice de la stratégie du groupe ferroviaire de 2002 à 2007, ndlr), c’est certainement l’accélération du marché de l’énergie qui est visé par M. Macron. »

C’est peut-être là que va être utile dans les relations avec l’électricien national son école d’origine, Jean-Bernard Lévy, le PDG d’EDF, y ayant fait ses classes également (comme Patrick Pouyané de Total d’ailleurs).

Reste que le MTES est loin d’être un portefeuille tranquille, puisqu’en dix ans plus d’une dizaine de ministres s’y sont cassés les reins… À suivre donc !

L’hydrogène progresse dans les territoires

L’association professionnelle du secteur, l’Afhypac, organisatrice aux côtés de la métropole Aix-Marseille Provence, et des CCI du Var et de Marseille Provence, n’a pu que se féliciter de la montée en puissance du secteur hydrogène, qui se traduit par une forte progression des membres. En 15 mois, signale Philippe Boucly, le président de l’association, le nombre d’adhérents est passé d’une centaine à 160, et ce n’est pas fini. Une montée en puissance aidée par les groupes de travail mis en œuvre par l’Afhypac à l’aune de la reconnaissance de l’hydrogène dans la programmation pluriannuelle de l’énergie, du plan hydrogène maintenu après le départ de Nicolas Hulot l’an dernier, mais aussi du soutien du Président de la République. Comme l’indique Christelle Werquin, déléguée générale de l’Afhypac, l’hydrogène dispose du soutien au plus haut niveau de l’état et la filière avance. Reste à passer à la vitesse supérieure et à la « massification », le mot-clé de ces deux journées marseillaises.

A l’occasion des journées marseillaises, l’Afhypac a également dévoilé sa plateforme en ligne Vig’Hy : l’observatoire de l’hydrogène en France (www.vighy-afhypac.org ). S’appuyant sur les remontées de l’ensemble des acteurs de la filière, Vig’Hy recense sur une seule et unique carte actualisée les projets, initiatives et stations de recharge en France.

Massifier la production et les usages

Stéphane Reiche, délégué général du grand port maritime de Marseille (GPMM), a rappelé que pour que l’hydrogène soit décarboné, il faut d’abord que l’électricité le soit aussi. A Marseille, 114 MW d’énergies renouvelables sont déjà installés, dont 33 MW en solaire et 31 MW en éolien. Déjà quelque 10 000 tonnes fatales d’hydrogène sont produites par Kem One, sur l’établissement de Fos-sur-Mer. Par électrolyse du sel, les ateliers de Fos-sur-Mer produisent en effet du chlore, de la soude et de l’hydrogène. Le chlore obtenu est consommé sur place, pour fabriquer du chlorure de vinyle monomère (CVM), par réaction sur l’éthylène, livré pour moitié à Kem One à Berre (Bouches-du-Rhône) ; le reste est expédié par barges vers le site de Saint-Fons (Rhône) où il est transformé en PVC.

De son côté, la Chambre de commerce et d’industrie (CCI) du Var a soumissionné dès 2016 l’appel à projets « territoire Hydrogène ». Le programme Hynovar, qui repose sur un partenariat CCCI du Var, Engie Cofely, le circuit Paul Ricard, les Bâteliers de la Côte d’Azur et Hyseas Energy, prévoit l’installation de deux stations de production-distribution d’hydrogène et un développement de la mobilité terrestre et maritime hydrogène. Hynovar a été sélectionné le 3 mai dernier dans le cadre de l’appel à projets lancé par l’Ademe (Agence de l’environnement et de la maîtrise de l’énergie), « Ecosystèmes de mobilité hydrogène ». Ce projet porte notamment le déploiement d’une navette maritime dans le port de Toulon, et à terme Marseille s’inscrit aussi dans cet objectif. Elle porte également le projet H2Flex, labellisé Flexgrid par la Région, qui vise à modéliser le réseau électrique pour assurer un meilleur équilibre entre production des ENR et consommation des entreprises du plateau de Signes, via le stockage que permet l’hydrogène. A Signes, un projet fait ainsi appel à l’hydrogène pour stocker le courant produit par les panneaux photovoltaïques. Même combat du côté de sa voisine, la CCI Marseille Provence, qui mise sur une industrie historique existante, avec notamment un hydrogénoduc de 40 km reliant Fos-sur-Mer à Lavéra et des gazoducs pour valoriser l’hydrogène. Sans oublier la zone portuaire, moteur de la demande à venir. D’ores et déjà, un démonstrateur de « Power-to-gas » (électricité en gaz), Jupiter 1000 et porté par GRTgaz (le gestionnaire de réseau de transport de gaz) est opérationnel au nord de la plateforme PIICTO (plateforme industrielle et d’innovation du Caban-Tonkin), à Fos.

La Région Sud (ex-PACA) n’est pas en reste, via son plan climat régional. Elle soutient notamment le projet Jupiter 1000 ou Hynovar, mais aussi Hygreen Provence (un parc solaire de 1 500 hectares porté par l’agglomération Durance Lubéron Verdon permettant de produire de l’hydrogène vert, à hauteur de la consommation de quelque 1 400 bus, et de livrer un soutien au réseau électrique) ou encore Hyammed, qui vise à déployer une station d’approvisionnement sur le site portuaire industriel de Fos-sur-Mer. La Région peut d’ailleurs compter sur le pôle de compétitivité Capenergies, qui aide déjà une vingtaine de projets et anime l’écosystème hydrogène de la région, au sein du club H2 Sud.

Côté demande, le territoire a une ambition, avec quelque 7 000 trains par an, 3 000 barges fluviales, près de 3 000 chariots élévateurs, sans oublier les deux millions de poids lourds, dont 60% dans les Bouches-du-Rhône, l’hydrogène doit jouer un rôle dans la décarbonation des transports.

La façade maritime

Le branchement des navires à quai au réseau électrique (pour remplacer le diesel) n’est pas toujours possible. Là encore, l’hydrogène a une carte à jouer, en installant des piles à combustible. Marseille mais aussi Toulon se saisissent de cette carte, avec des projets de 2 MW. Franck Verbeke, d’Helion Hydrogen Power (ex-Areva Stockage Energy) souligne en effet que l’organisation maritime internationale a fixé des objectifs de réduction des rejets (CO2, SOx, NOx) de 30% en 2030 dans les ports et de 50% en 2050 par rapport à 2018. De nombreux usages peuvent être concernés, insiste-il, des grues mobiles, en passant par les tracteurs de conteneurs au sol, et pour certains types de navires. En Bretagne, un projet est en cours sur un petit ferry avec une pile à combustible de deux fois 1 MW, un projet hybride puisque doté aussi d’une batterie. Helion, associé à Orion Naval Solutions est également en train de travailler sur un projet de barge de transport fluvial, à Toulouse, avec un modèle hybride et une PAC de 80 kW à 150 kW.

Utiliser l’éolien offshore

L’hydrogène est également un moyen de stockage privilégié pour les surplus d’électricité renouvelable, via le Power to Gas. Au-delà du projet Jupiter 1000, en Vendée, le Sydev, le syndicat d’énergie vendéen, mise sur un projet similaire à terme, Vendée hydrogène. Au départ, trois éoliennes « historiques » de 2,5 MW du parc de Bouin (qui sont sorties du tarif d’achat) livreront environ 30% de leur production pour fabriquer 30 tonnes d’hydrogène par jour. Mais, à terme, indique Alain Leboeuf, président du Sydev et de Vendée Energie (la structure qui porte le projet, constituée avec deux autres syndicats d’énergies Soregies et Sergies et le soutien de la Caisse des dépôts), ce projet pourrait accueillir les surplus du futur parc offshore d’Yeu-Noirmoutier. En Méditerranée, à Port-la-Nouvelle, un projet identique se met en place avec pour horizon la future production de l’éolien offshore flottant.

La Cour des comptes réclame de la cohérence sur le cycle du combustible

Le rapport analyse l’ensemble de l’aval du cycle, à partir du moment où le combustible usé est sorti du réacteur jusqu’à sa mise en place dans un stockage, y compris l’entreposage intermédiaire et, le cas échéant, le retraitement. Il pose surtout la question de la doctrine française nucléaire, qui considère que toute matière fissile (combustible usé, combustible issu du retraitement, uranium appauvri issu de l’enrichissement) est valorisable et doit donc être stockée pour une utilisation future dans des réacteurs ad hoc (neutrons rapides ou réacteurs modulaires, etc.). C’est la conception du cycle du combustible dit « fermé », par opposition au cycle « ouvert » qui conduit au stockage des combustibles usés. Le concept de cycle fermé est cependant en réalité « semi-fermé », puisque le combustible usé n’est retraité qu’une fois pour produire du Mox (oxyde mixte d’uranium et de plutonium) qui, lui, n’est pas autorisé pour l’heure à être retraité après son passage en réacteur.

La Cour des comptes a adressé ses recommandations au ministère de l’Environnement, de l’Administration du climat et de l’énergie, de l’administration des finances et à l’Agence nationale française de gestion des déchets radioactifs, ou Andra.

Amont et aval du cycle liés

L’instance demande de revenir à plus de cohérence entre les décisions prises en amont du cycle nucléaire (telles que la fermeture de réacteurs, le renouvellement de réacteurs) et en aval du cycle. Le rapport rappelle en effet l’interdépendance entre amont et aval, dans la mesure où certaines décisions politiques prises, comme l’arrêt de certains réacteurs, vont avoir un impact sur la manière de gérer la fin du cycle.

La Cour souligne en outre qu’il faut des décisions sur la question de savoir quelles matières nucléaires seront envoyés à Cigéo, le stockage géologique en profondeur prévu par le pays pour les déchets de haute activité et de moyenne activité à vie longue à Bure.

Les commissaires demandent notamment des éclaircissements sur la question de savoir si tous les combustibles usés doivent être retraités à l’avenir, face à la fois à la montée en puissance des stocks de matière valorisable et la baisse des besoins à l’aune des choix faits en matière de production nucléaire. Mais ils se demandent aussi si les combustibles Mox devraient être retraités. Ces choix, indique la Cour des comptes, sont déterminant notamment pour connaître l’inventaire des matières qui seront stockées définitivement à Cigéo.

L’importance du débat

Le rapport soulève en effet plusieurs problématiques : le volume de matières et de déchets nucléaires est important et en constante augmentation, il est à craindre que les installations d’entreposage (intermédiaires donc) atteignent bientôt la pleine capacité, les perspectives de saturation à terme des centres des stockages existants (notamment pour les déchets de faible et moyenne activité à vie courte), les coûts associés à leur gestion et le projet de stockage final souterrain de Cigeo ou l’impact des décisions de politique énergétique sur la fin du cycle du combustible nucléaire.

Toutes ces questions sont adressées dans le débat public en cours sur la cinquième révision par le gouvernement français de son plan de gestion des matières et des déchets radioactifs (PNGMDR), signale la Cour des comptes. Pour la première fois, une consultation publique sur le plan a débuté en avril et devrait se terminer en septembre. Le PNGMDR sera alors présenté et débattu auprès des parties prenantes sous l’autorité de l’administration chargée de l’énergie et ​​du climat (DGEC) et de l’autorité de sûreté nucléaire (ASN). Un décret gouvernemental doit ensuite être publié d’ici à la fin de 2020.

Pour le débat public, le maître d’ouvrage, c’est-à-dire le gouvernement, a soumis un « cahier d’acteurs » passant en revue la politique actuelle, et l’Andra a proposé plusieurs scénarios concernant l’avenir de la fin du cycle du combustible (fermeture de réacteurs, prolongement de la vie de réacteurs, nouvelles constructions de réacteurs). Cependant, la Cour des comptes signale qu’en parallèle, dans sa programmation pluriannuelle de l’énergie (PPE), le gouvernement a d’ores et déjà fait des choix en faveur de la poursuite du retraitement, jusqu’en 2040. D’où une demande de la Cour des comptes pour plus de cohérence.

Selon le rapport de la Cour, les coûts d’exploitation des installations de stockage et de stockage sont en moyenne de 137,7 millions d’euros par an. Les investissements cumulés dans ces installations entre 2014 et 2017 se sont élevés à 255 millions d’euros et pourraient atteindre près de 1,4 milliard d’euros entre 2018 et 2030 et augmenter de 1,5 milliard d’euros entre 2030 et 2050, indique la Cour. En outre, le coût du projet Cigéo a été fixé par décret à 25 milliards d’euros, mais ce coût doit être régulièrement révisé en fonction des choix qui seront faits en matière d’accueil des matières nucléaires (combustibles usés ou pas). Et le rapport de rappeler que tout changement de politique aura un impact financier qu’il est nécessaire de préciser.

Reconnaissance faciale : beaucoup trop d’erreurs

Shocking ! À Londres, la police métropolitaine (Metropolitan Police Service ou The MET) soutient que sa technologie de reconnaissance faciale ne commettrait qu’une seule erreur sur 1000 cas.

Mais selon un rapport du London Policing Ethics Panel – un groupe mandaté par le bureau du maire de Londres et indépendant de la police, la réalité n’est pas aussi positive.

La moitié (57 %) des personnes interrogées pensent qu’en termes généraux, l’utilisation de la reconnaissance faciale par la police est acceptable. Dans le détail, on constate que plus de 60 % des Blancs et des personnes de race mixte partageaient cet avis. Mais seuls 40 % des répondants noirs et asiatiques y sont favorable.

Et ils n’ont certainement pas tort. Car quatre personnes sur cinq identifiées comme suspects potentiels sont innocentes, selon ce rapport !  Le professeur Pete Fussey et le Dr Daragh Murray, qui ont évalué l’exactitude de la technologie lors de six des dix procès. Ils ont constaté que, sur 42 correspondances, seules huit ont été vérifiées comme correctes, soit un taux d’erreur de 81 %.

Leur rapport critique également l’utilisation par le MET de « listes de surveillance ». Il s’agit d’un registre des personnes « recherchées » que la reconnaissance faciale est censée aider à localiser. Mais selon cette enquête, les données utilisées pour créer ces listes n’étaient pas à jour.

Résultat, des personnes ont été arrêtées alors que leur affaire avait déjà été traitée. Dans d’autres cas, les raisons justifiant leur inscription sur ce registre n’étaient pas assez claires et explicites. Il y avait une  » ambiguïté importante  » selon les auteurs de cette étude.

Le professeur Fussey et le Dr Murray ont affirmé que l’utilisation par le MET de la reconnaissance faciale au cours de ces essais n’avait pas de « base juridique explicite » et ne tenait pas compte de la façon dont cette technologie portait atteinte aux droits fondamentaux de la personne.

Outre le taux d’erreurs élevé, cette technologie est intrinsèquement disproportionnée, car qu’elle est destinée à scanner des milliers, voire des centaines de milliers de personnes. Selon Liberty (un groupe de défense des droits de l’homme au Royaume-Uni), plus de 500 000 personnes ont été photographiées par une seule image caméra (10 images enregistrées par seconde) lors des expérimentations menées par la police, au Pays de Galles.

Selon la police, ce système ne stocke pas les visages s’il n’y a pas de correspondance avec ses bases de données. S’il y en a une, l’image est conservée pendant 24 heures.

Le London Policing Ethics Panel estime qu’il hautement « probable » que ce système sera jugé illégal s’il est contesté en justice. Après la publication de ce rapport, la capitale anglaise prendra-t-elle la même décision que San Francisco ? En mai dernier, elle a été la première ville américaine à interdire l’utilisation de la reconnaissance faciale.

Les géants dela technologie ont également commencé à prendre position contre cette solution, souvent au risque de mettre en danger leurs propres résultats financiers. Amazon a réclamé une réglementation fédérale sur son utilisation et Microsoft a fait valoir qu’elle avait un « potentiel d’abus ».

Des lentilles optiques fabriquées à partir de gouttes magnétiques

Les lentilles de haute qualité sont utilisées partout : caméras, voitures autonomes, robots, etc. Comme les moules employés pour les fabriquer coûtent extrêmement cher, pour des raisons évidentes de rentabilité, les fabricants de lentilles se limitent généralement à la production de masse d’un unique type de lentille. La production de lentilles sur-mesure est donc confrontée à un problème essentiellement économique.

La problématique des lentilles sur-mesure

Une équipe conjointe de chercheurs de Washington State University et d’Ohio State University tente de remédier à ce problème. Dans un premier temps, ils ont naturellement pensé à l’impression 3D pour la fabrication de lentilles. Cependant, parce qu’ils ont constaté qu’il était difficile de contrôler précisément la forme des lentilles obtenues, ils se sont tournés vers une solution plus originale : utiliser des liquides magnétiques pour créer des moules fluides.

Un procédé innovant et économique

L’idée de l’équipe dirigée par le professeur-assistant Lei Li de l’école de mécanique et d’ingénierie des matériaux (School of Mechanical and Materials Engineering) est la suivante : placer de petites particules de fer dans des gouttes liquides et concevoir un appareil permettant de contrôler la forme des gouttes avec des aimants. En raison de la présence du champ magnétique, la goutte prend la forme d’une lentille conique, ce qui crée un moule permettant de couler le matériau utilisé pour fabriquer les lentilles. Le plastique est ensuite durci et présente les mêmes propriétés optiques qu’une lentille du commerce ; il n’y a donc pas de perte de qualité d’image. Par ailleurs, la goutte liquide magnétique reste séparée de la lentille et peut donc être réutilisée.

Le développement se poursuit

Le procédé développé par les chercheurs est bien entendu souple. En effet, les aimants peuvent être disposés de manière adaptée, de façon à contrôler le champ magnétique et obtenir une lentille de la forme désirée. Par ailleurs, en utilisant des gouttes plus ou moins grosses, il est possible de créer tout un panel de tailles de lentilles.

Espérons donc qu’une telle technique passe rapidement au stade de l’industrialisation, car elle pourrait considérablement réduire le coût de fabrication des lentilles optiques de qualité.

Source : https://news.wsu.edu/2019/05/20/researchers-develop-new-lens-manufacturing-technique/

Nouvelle estimation de la taille du noyau de la Lune grâce aux mesures Laser-Lune

Le 21 juillet 1969, avec les premiers pas de Neil Armstrong et Buzz Aldrin à la surface de la Lune, a aussi démarré une expérience scientifique sans précédent. Les astronautes ont déposé un panneau de réflecteurs qui, depuis 50 ans, est utilisé pour mesurer la distance Terre-Lune et ce, grâce au chronométrage du temps de parcours des photons émis par des stations laser à la surface de la Terre. Au total, cinq panneaux de réflecteurs de ce type ont successivement été déposés à la surface lunaire.

© Y. Gominet / IMCCE / Observatoire de Paris – PSL
Vue d’artiste de la structure interne de la Lune
Elle montre l’emplacement des cinq panneaux de réflecteurs laser (Apollo 11, 14, 15, Luna 17 et 21) et les faisceaux laser provenant des stations à la surface de la Terre, symbolisés par des traits verts. L’analyse précise des mouvements de rotation de la Lune et de son orbite a permis de déterminer avec une précision inégalée le rayon de la limite noyau-manteau lunaire à 381 km (± 12 km) et son aplatissement ((2,2 ± 0,6) x 10-4).

Dans les années 1980, cette technologie a permis de mettre au jour indirectement l’existence d’un noyau fluide au sein de la Lune, présence confirmée par la suite par des données magnétiques et sismiques. Néanmoins, les estimations de la taille du noyau fluide variaient de +/- 55 km.

Les observations obtenues par télémétrie laser-Lune sont régulièrement traitées et exploitées dans INPOP (acronyme pour « Intégration numérique planétaire de l’Observatoire de Paris »), qui est un ensemble de modèles et de programmes de calcul des éphémérides planétaires et lunaire, que développent conjointement, depuis 2003, les équipes de l’Institut de mécanique céleste et de calcul des éphémérides – IMCCE (Observatoire de Paris – PSL / CNRS / Sorbonne Université) et du laboratoire Géoazur (OCA). L’éphéméride lunaire permet de calculer le mouvement orbital et rotationnel de la Lune avec une incertitude de l’ordre du centimètre sur 10 ans.

L’introduction d’un modèle dynamique de noyau fluide dans INPOP a permis d’améliorer de façon significative les écarts entre les prédictions et les observations et de sonder l’intérieur de la Lune. Le modèle de noyau introduit dans les années 1980 dans le programme de calcul américain des éphémérides développé par la NASA supposait que l’interface noyau-manteau était sphérique puis en 2004, ils introduisirent une interface axisymetrique. Dans une étude à paraitre à paraître en ligne dans la revue Geophysical Research Letters, le 10 juillet 2019, les chercheurs de l’équipe d’INPOP renouvellent cette approche en introduisant un modèle de noyau légèrement aplati et explore son influence de façon systématique : c’est l’ajustement de cet aplatissement obtenu grâce aux données de télémétrie qui a permis de déduire la taille du noyau lunaire.

Pour cela, l’équipe a comparé les valeurs ajustées aux données de télémétrie avec la valeur théorique de l’aplatissement du noyau lunaire à l’équilibre. L’intersection des deux courbes (valeurs ajustées aux observations de télémétrie et valeurs théoriques) permet de contraindre la taille du noyau lunaire et la valeur de l’aplatissement de l’interface noyau-manteau.

Détermination du rayon du noyau lunaire

L’aplatissement du noyau lunaire est tracé en fonction du rayon de la limite noyau-manteau.

INPOP tient compte également des dernières mesures du champ de gravité déterminées en 2011-2012 par la mission spatiale de la NASA GRAIL.

Cette nouvelle mesure de la taille du noyau fluide est importante pour les modèles d’évolution de la Lune. Elle va permettre notamment de mieux comprendre les mécanismes qui ont permis l’apparition, puis la disparition du champ magnétique lunaire.

Aujourd’hui l’exploration lunaire est en pleine croissance et l’ajout de nouveaux réflecteurs à sa surface permettrait de poursuivre le sondage de son intérieur et de développer de nouveaux tests relativistes.

source : obspm

Exploiter les marées vertes grâce à une bactérie marine

Les ulves sont des macro-algues vertes comestibles naturellement présentes sur nos côtes (la fameuse « laitue de mer »). Ces algues peuvent brutalement proliférer en raison de l’excès de nutriments issus des activités humaines et provoquer le dépôt d’énormes masses sur les plages. Ces phénomènes, dits de marées vertes, ont un impact négatif sur la qualité des environnements concernés et sur le tourisme.

Les ulves constituent cependant un réservoir de biomolécules aux propriétés prometteuses. C’est le cas de l’ulvane, le principal sucre constitutif de la paroi des ulves. Mais l’exploitation biotechnologique de l’ulvane est actuellement difficile en raison de la méconnaissance de ses mécanismes de dégradation.

Dans ce contexte, un consortium international, impliquant le Laboratoire de biologie intégrative des modèles marins de la station biologique de Roscoff (CNRS/Sorbonne Université), les universités de Brême et de Greifswald (Allemagne) et l’université technique de Vienne (Autriche), a découvert et caractérisé la voie de dégradation complète de l’ulvane chez la bactérie marine Formosa agariphila. Chez cette bactérie, douze enzymes agissent séquentiellement pour convertir l’ulvane en sucres fermentescibles, qui pourraient servir de base à la production de bioéthanol. L’équipe française du consortium a notamment étudié un type particulier de ces enzymes, les sulfatases, et déterminé leurs structures 3D.

Au-delà de la production d’énergie, ces enzymes permettent aussi d’obtenir d’autres types de molécules bioactives, plus complexes et à plus forte valeur ajoutée que de simples sucres fermentescibles. Ces travaux ouvrent ainsi la voie à l’exploitation biotechnologique de l’ulvane, en particulier pour l’industrie agro-alimentaire et cosmétique, transformant une biomasse considérée « nuisible » en ressource durable.

source : cnrs

Les entreprises soumises au devoir de vigilance débusquées

En mars 2017, les ONG se réjouissaient. La France adoptait alors la loi pionnière sur le devoir de vigilance. Avec cette loi, les grandes entreprises françaises de plus de 5 000 salariés en France ou 10 000 dans le monde sont désormais obligées d’identifier et de prévenir les risques que leurs activités font peser sur les libertés fondamentales, la santé et la sécurité des personnes, les droits humains et l’environnement. Pour ce faire, elles doivent établir, publier et mettre en œuvre un plan de vigilance.

Un site pour déployer le devoir de vigilance

Mais deux ans plus tard, les mêmes ONG déchantent. L’Etat n’a publié aucune liste d’entreprises soumises au plan et n’a mis en place aucun dispositif de suivi. CCFD-Terre Solidaire et Sherpa lancent donc le site plan-vigilance.org pour identifier les entreprises soumises à la loi sur le devoir de vigilance et vérifier que celles-ci ont bien publié leur plan. Le site met à disposition les plans de vigilance publiés. Aux côtés de la coopérative Datactivist, spécialiste de l’analyse des données, les deux associations ont établi une première liste grâce aux données publiques et financières.

Cette première liste a identifié 237 sociétés, tous secteurs confondus. Un quart d’entre elles n’ont pas publié de plan. La liste sera complétée au fur et à mesure des contributions. « Parmi les plans déjà publiés, la majorité sont très simples et contiennent tout au plus deux pages, s’insurge Nayla Ajaltouni, coordinatrice du collectif Ethique sur l’étiquette qui se bat pour l’application du devoir de vigilance dans le secteur de la mode. L’identification des risques est insuffisante même pour ceux qui publient leurs plans. »

Sherpa et le CCFD-Terre Solidaire demandent aux pouvoirs publics de rendre publique la liste des entreprises soumises au devoir de vigilance et de constituer une base de données publique. Elles demandent de renforcer les exigences de transparence afin de rendre plus accessibles les données financières et extra-financières sur les entreprises. Enfin, elles demandent au gouvernement de baisser et simplifier les seuils d’application de la loi.

Des entreprises chinoises cachées derrière les VPN

Près d’un tiers des principaux VPN appartiennent secrètement à des entreprises chinoises, tandis que d’autres propriétaires sont établis dans des pays où les lois sur la protection de la vie privée sont faibles ou inexistantes.

Les résultats de cette étude réalisée par VPNpro, spécialisée dans la confidentialité et la sécurité, sont inquiétants. Pour schématiser, un VPN est une solution qui permet d’assurer la confidentialité des informations échangées entre deux ordinateurs ou deux smartphones.

Cette solution permet par exemple à un commercial qui séjourne à l’étranger d’envoyer à son siège social des données relatives à un contrat en cours de validation. Officiellement, les flux échangés se font en toute sécurité puisque la communication est chiffrée.

 29 VPN détenus par des entreprises chinoises

Personne, en dehors de celles autorisées et identifiées (par des mots de passe et login), ne peut y accéder. Seul problème, cette étude montre que les 97 premiers VPN sont gérés par seulement 23 sociétés mères, dont beaucoup sont basées dans des pays où les lois sur la vie privée sont laxistes.

Six de ces sociétés sont basées en Chine et proposent au total 29 services VPN, mais dans de nombreux cas, les informations sur la société mère sont cachées aux utilisateurs.

Dans certains cas, la propriété de différents VPN est répartie entre plusieurs filiales. Par exemple, la société chinoise Innovative Connecting possède trois entreprises distinctes qui produisent des applications VPN. Au total, elle édite 10 VPN.

Bien que la propriété d’un certain nombre de services VPN par une société ne soit pas inhabituelle, VPNpro s’inquiète du fait que tant d’entre eux sont basés dans des pays où les lois sur la protection de la vie privée sont laxistes ou inexistantes. C’est le cas de Gaditek, au Pakistan.l

 Attention aux VPN gratuits

Selon les chercheurs, des États ou des organisations pourraient ainsi identifier les utilisateurs et leurs activités en ligne. Cela risque de mettre en danger les militants des droits de la personne, les défenseurs de la vie privée, les journalistes d’investigation, mais aussi des entreprises (espionnage économique).

Dans une fiche d’information sur les VPN, le groupe anglais de défense des libertés civiles et de la vie privée Big Brother Watch prévient que les fournisseurs de VPN ont la possibilité de voir l’activité Internet des utilisateurs. « Mais de nombreux éditeurs de VPN indiquent clairement qu’ils n’enregistrent aucun du trafic de leurs utilisateurs ». C’est le cas en particulier avec les VPN gratuits qui ne sont pas assez sécurisés et qui peuvent tracer leurs utilisateurs. Dans une étude publiée le 22 mars dernier, le site TheBestVPN.com a comparé les 115 VPN les plus populaires au monde : 26 de ces services enregistreraient les informations personnelles de leurs utilisateurs.

Mieux vaut faire confiance à des solutions respectueuses de la vie privée comme WireGuard ou ceux retenus par TheBestVPN ou par l’Electronic Frontier Foundation (EFF) dans son tableau « Prism Break ».

Des protéines de synthèse contrôlables pour une administration de médicaments ciblée

Contrairement à un traitement médicamenteux conventionnel, l’administration ciblée consiste à transférer un médicament directement à l’intérieur des cellules malades. Grâce à cette action ciblée, l’efficacité des molécules est ainsi multipliée et les effets secondaires sont réduits. Cependant, ce mode de fonctionnement plus intelligent est aussi beaucoup plus complexe, car il implique d’utiliser un “système de transport du médicament” (drug delivery vehicle).

Un enjeu de taille : remplacer les virus vecteurs

Les virus modifiés sont les vecteurs couramment utilisés pour l’administration ciblée de médicaments. Leur fonctionnement rappelle celui du cheval de Troie : le virus n’est qu’une coque, un système de transport contenant un médicament à délivrer au sein d’une cellule. Néanmoins, ces virus modifiés ont une efficacité limitée et présentent des inconvénients. D’autres solutions sont donc recherchées, dont l’utilisation de nano-objets ou encore de protéines de synthèse.

Une solution : le contrôle de protéines

Pour fonctionner, les protéines naturelles ont parfois besoin de changer de forme. C’est par exemple le cas de l’hémoglobine, la protéine chargée de transporter le dioxygène dans l’organisme. Pour tenter le challenge de reproduire ce processus naturel, les chercheurs de “The Institute for Protein Design” (University of Washington School of Medicine) ont eu l’idée suivante : créer des protéines de synthèse capables de s’assembler à pH neutre et de se désassembler en milieu acide. En effet, il existe des différences de pH entre les compartiments d’une même cellule, et la partie appelée endosome a un pH acide. Lorsque ces protéines dynamiques pénètrent dans l’endosome, elles se dissocient, ce qui perturbe la membrane de l’endosome qui devient perméable et laisse passer la protéine.

Un mécanisme de fonctionnement astucieux

Pour arriver à un mouvement moléculaire, l’équipe de chercheurs a utilisé une substance appelée histidine. Si cette molécule a la particularité de ne porter aucune charge électrique à pH neutre, elle prend en revanche une charge positive en présence d’une petite quantité d’acide, ce qui stoppe certaines réactions chimiques. Cette propriété a ainsi permis de créer un assemblage de protéines dynamique.

Des molécules prometteuses qui requièrent une maîtrise parfaite

Parce que ces molécules peuvent être utilisées pour délivrer des médicaments à l’intérieur de cellules de manière ciblée elles ont un avenir prometteur. Cependant, d’après Scott Boyken, principal auteur de ce projet, perturber les membranes des cellules pour s’avérer toxique, c’est pourquoi les conditions d’activation de ces molécules doivent être totalement maîtrisées une fois à l’intérieur de l’endosome. D’autres chercheurs ont ainsi contribué à cette étude afin notamment de déterminer la quantité d’acide nécessaire au désassemblage (Vicki Wysocki’s Group, The Ohio State University).

Par ailleurs, des essais ont été conduits au Jennifer Lippincott-Schwartz’s lab (HHMI’s Janelia Research Campus) afin de déterminer l’effet de ces protéines sur des cellules particulières. Les premiers résultats indiquent ainsi qu’elles sont également capables de perturber les membranes des cellules mammaires, ce qui laisse entrevoir une utilisation dans le traitement du cancer du sein.

Une nouvelle architecture pour l’intelligence artificielle embarquée

La plupart des applications basées sur de l’intelligence artificielle nécessitent d’exécuter leurs calculs – ce qu’on appelle « inférence » – via le cloud. Par exemple, le traitement de la parole réalisé par les assistants vocaux (Alexa, Siri, Cortana…) se réalise directement dans le cloud. Mais une nouvelle tendance, consistant à rapprocher la capacité de calcul au plus proche du besoin, émerge : le edge computing. « Au CEA, on cherche à déporter l’inférence au plus proche de l’utilisateur » nous explique Frédéric Heitzmann, directeur de recherche au CEA, pendant la visite des salles blanches organisée lors de Leti Innovation Days, en juin dernier. « Google a par exemple mis au point un TPU spécifique pour faire de l’embarqué ». Intégrer les puces d’exécution d’IA dans l’objet permet de se passer d’une connexion internet, d’avoir un temps de latence moindre et de sécuriser les données traitées. Cependant, celles-ci doivent être travaillées pour être économes en énergie.

Pour accélérer les réseaux de neurones – faire de l’inférence –, le CEA travaille sur une technologie originale, qui consiste à imbriquer des transistors et des mémoires résistives non volatiles. Résistive, c’est-à-dire que l’information n’est plus codée par la présence de charge mais par la résistance, permettant de l’intégrer au plus proche du transistor (un nanofil de silicium). Non volatile, c’est-à-dire que l’information reste enregistrée même si elle n’est plus alimentée. Plus précisément, il ne s’agit plus d’avoir bloc de mémoire et calcul séparés, comme dans l’architecture largement répandue de Von Neumann, mais d’intégrer le calcul directement dans la mémoire. C’est ce qu’ils appellent le « In Memory Computing ». Cette nouvelle architecture permet d’éviter les allers-retours puce – mémoire réduisant ainsi le temps de latence, le nombre de transferts de données et la consommation énergétique. « Le Graal de l’intelligence artificielle est de rapprocher le deux pour gagner en efficacité énergétique. Notre objectif est d’avoir un circuit 20 fois moins gourmand en énergie qu’un circuit de Von Neumann », explique Frédéric Heitzmann, directeur de recherche au CEA Leti.

La lithographie intègre les fonctionnalités

Pour développer cette solution de calcul dans la mémoire, le CEA a lancé en mars dernier le projet « MyCube » financé par un ERC – un programme dédié à la recherche exploratoire – s’élevant à 2,75 millions d’euros. Un démonstrateur à base de nanofils de silicium et de mémoires résistives non volatiles sera mis au point d’ici la fin du projet, en 2022.

L’intégration des blocs de calcul avec ceux de la mémoire nécessite des outils performants. Pour cela, le CEA a fait l’acquisition en 2018, avec le soutien de la région Auvergne-Rhône-Alpes, d’une cellule de lithographie 193 mm à immersion. Elle permet de superposer les fonctionnalités « mémoire » et « calcul » en 3D à échelle 100 nm. « La lithographie est l’étape clé dans la fabrication de composants électroniques car elle permet de réaliser le dessin du circuit couche après couche » ajoute Frédéric Heitzmann. Cette étape va définir la dimension des motifs (40 nm) et l’alignement niveau à niveau (2nm près sur une plaque de 300 mm). Elle peut empiler de 30 à 40 photographies.

Machine de lithographie 193nm haute résolution du CEA Leti

Une trop grande dépendance vis-à-vis de quelques opérateurs ?

Le 2 juillet, des millions de sites Internet mais aussi des services en ligne comme Dropbox ou Tweetdeck étaient indisponibles au même moment. Dès qu’un internaute s’y connectait, il tombait sur le message d’erreur : « 502 Bad Gateway ».

La cause ? Un bug chez Cloudflare, un hébergeur web américain qui propose toute une variété de services qui vont du CDN au DNS, en passant par la sécurité et l’optimisation. Dans un article publié sur le blog de son entreprise, John Graham-Cumming, directeur technique de Cloudflare, a indiqué que le pic du CPU était le résultat d’un « mauvais déploiement d’un logiciel qui a été annulé ».

Le logiciel en question était le pare-feu de Cloudflare (Cloud Application Firewall). Il aurait entraîné une consommation excessive des ressources du processeur sur l’ensemble du réseau. D’où un arrêt temporaire de certains services de Cloudflare.

Le 3 juillet, nouvelle catastrophe pour les accros au web et les professionnels : la totalité des réseaux sociaux du groupe Facebook (Instagram, WhatsApp, Messenger et… Facebook, donc) a été touchée par une panne géante mondiale.

La semaine dernière, c’était au tour de Google, d’Amazon et de Reddit de « disparaître » pendant de longues périodes…

Cette loi des séries tendrait-elle à devenir récurrente ? En tous les cas, ces pannes montrent la fragilité des réseaux qui servent d’épine dorsale à l’Internet. Contrairement à une idée reçue, l’Internet ne s’appuie pas sur un seul réseau. Internet relie les millions de réseaux dans le monde qui doivent se comprendre malgré des langages différents.

L’Internet est en effet une infrastructure technique qui lie des milliards d’ordinateurs entre eux. Parmi ces ordinateurs, certains ordinateurs (appelés serveurs Web) peuvent transmettre des messages décodables par les navigateurs Web. Ainsi, l’Internet est une infrastructure, alors que le Web est un service utilisant l’infrastructure de l’Internet.