La géo-ingénierie pour refroidir la planète bientôt testée ?

Qu’arriverait-il si l’humanité décidait de lancer des avions pour répandre des particules de dioxyde de soufre ou de calcium dans le ciel ? C’est la réponse que cherchent des scientifiques d’Harvard, du MIT et de Princeton dans une nouvelle étude parue dans Nature Climate Change.

Entre réduction des effets et nouveaux risques

La théorie est connue : ces particules renverraient une partie de la lumière du soleil dans l’espace, augmentant l’albédo planétaire. L’effet direct serait de refroidir temporairement la planète. En utilisant un modèle informatique dernier cri (HiFLOR), les chercheurs ont examiné les effets de cette technique si elle était utilisée pour réduire de moitié la hausse de la température mondiale due au réchauffement climatique.

Alan Robock, professeur de sciences de l’environnement à Princeton, a évalué 27 risques potentiels liés à cette technologie. De l’appauvrissement de la couche d’ozone à des sécheresses accrues, en passant par la réduction de la production d’énergie solaire. En pratique, le fait de réduire les températures de l’air en surface pourrait « réduire ou inverser les effets négatifs du réchauffement planétaire, notamment les inondations, les sécheresses, les tempêtes plus fortes, la fonte des glaces de mer et l’élévation du niveau de la mer ». Si la technique était globalement déployée, elle serait bénéfique à la majeure partie de la population. À la marge, moins de 0,5% de la population mondiale pourrait constater une augmentation des impacts du changement climatique.

Des tests avec du carbonate de calcium

 Plutôt que le dioxyde de soufre qui peut accélérer la destruction de la couche d’ozone, les chercheurs d’Harvard étudient la possibilité d’utiliser du carbonate de calcium. Ce produit peu dangereux – composant de la craie ou présent dans les dentifrices – pourrait éviter certains risques.

L’équipe réfléchit ainsi à effectuer une expérience sur le terrain. Elle consisterait à lancer un ballon dans la stratosphère. Suite à la libération d’une petite quantité de carbonate de calcium, les chercheurs mesureraient la dispersion de la lumière et les modifications de la chimie atmosphérique. L’équipe espère réaliser l’expérience cette année, mais attend l’avis d’un comité consultatif externe indépendant.

Une gouvernance à définir

« Pour nous, la gouvernance de ceci est tout aussi importante que les objectifs scientifiques de l’expérience », déclare Elizabeth Burns, directrice du programme de recherche en géo-ingénierie d’Harvard, à Fast Company. La question de la gouvernance est en effet fondamentale. Le coût du processus est estimé à moins de 10 milliards de dollars par an, contre des centaines de milliards de dollars pour s’adapter au réchauffement climatique. Alors qu’il pourrait affecter toute la planète, un seul pays pourrait donc décider d’agir unilatéralement.

« C’est une technologie très effrayante, reconnaît Elizabeth Burns. Mais le monde avec de graves impacts du changement climatique peut aussi être très effrayant. C’est nous effectuons des recherches afin de mieux comprendre les avantages potentiels ainsi que les risques potentiels liés à cette technologie. »

Un moyen temporaire pour mieux s’adapter

La géo-ingénierie est un domaine d’étude restreint qui renferme de nombreuses inconnues. « La géo-ingénierie ne peut se substituer à la réduction des émissions, car elle ne s’attaque pas à la cause fondamentale du changement climatique, rappelle Elizabeth Burns. Donc, si nous voulons instaurer un climat stable, nous devons réellement réduire les émissions à zéro, puis éliminer également le dioxyde de carbone présent dans l’atmosphère et le stocker sous terre ou ailleurs ». Alan Robock complète : « Cette solution ne pourrait être utilisée que temporairement, pendant que nous réduirions rapidement nos émissions dans l’atmosphère et trouverions des moyens peu coûteux de séparer le dioxyde de carbone. »

Plus il fait chaud, plus le pouvoir isolant des forêts augmente

Grâce à l’étude de données relevées sur une centaine de sites à travers le monde, une équipe de recherche internationale vient de démontrer que la couverture forestière agit comme un isolant thermique à l’échelle globale, en refroidissant le sous-étage forestier quand les températures de l’air sont élevées. Cet effet tampon est bien connu, mais c’est la première fois qu’il est évalué mondialement, à la fois pour des forêts tempérées, boréales et tropicales. Ainsi, les températures maximales sont en moyenne 4°C plus basses en forêt qu’en dehors, avec des écarts beaucoup plus importants pour les forêts tropicales que pour les autres. Les chercheurs ont également montré que plus les conditions extérieures sont chaudes et plus le pouvoir tampon des forêts augmente.

Sur la base de ce constat, il est possible de proposer des stratégies de gestion permettant d’agir sur le microclimat forestier et ainsi de limiter les effets néfastes du réchauffement climatique sur la biodiversité. Cette étude, publiée dans Nature Ecology & Evolution le 1er avril 2019, a été engagée à l’initiative de Pieter De Frenne, de l’Université de Gand, et de Jonathan Lenoir, chercheur CNRS au laboratoire Écologie et dynamique des systèmes anthropisés (CNRS / Université de Picardie Jules Verne).

(Gauche) Illustration du tampon microclimatique et du découplage entre microclimat sous couvert forestier et macroclimat hors couvert forestier. (Droite) Coupe verticale d’un couvert forestier (forêt domaniale de Compiègne) réalisée avec un LiDAR. La courbe la plus basse indique les différences de températures entre couvert et hors couvert : plus le couvert est dense et plus la topographie est confinée, plus le microclimat est frais en été. Le couvert végétal et la topographie jouent un rôle dans le pouvoir isolant des forêts. (voir : https://doi.org/10.1111/ecog.02788) ©Lenoir et al./ONF/CNRS
Bibliographie : Global buffering of temperatures under forest canopies. Pieter De Frenne, Florian Zellweger, Francisco Rodríguez-Sánchez, Brett Scheffers, Kristoffer Hylander, Miska Luoto, Mark Vellend, Kris Verheyen and Jonathan Lenoir. Nature Ecology & Evolution, le 1er avril 2019, DOI : 10.1038/s41559-019-0842-1
Source : cnrs

Les tarifs réglementés à nouveau au cœur du débat

Le gouvernement assume ainsi la future forte hausse des TRV qui, à l’origine, devait intervenir en février dernier. Mais le mouvement des Gilets Jaunes étant passé par là, le gouvernement avait choisi de « jouer la montre » en repoussant cette hausse des TRV à une date ultérieure, en utilisant les trois mois dont il dispose par rapport au dernier avis de la Commission de régulation de l’électricité (CRE) chargée de calculer ces tarifs auxquels sont encore la très grande majorité des ménages français et des « petits » professionnels. Le gouvernement a donc jusqu’au 7 mai.

Un délai que l’Autorité de la concurrence a mis à profit pour « s’autosaisir » de la question en ajoutant de la discorde dans le débat.

Dans un avis daté du 25 mars dernier, l’Autorité de la concurrence avait en effet déconseillé d’augmenter les tarifs réglementés de vente sans clarifier au préalable les objectifs qu’ils doivent poursuivre.

L’Autorité de la concurrence estime que le dispositif envisagé est défavorable pour 28 millions de clients aux TRV (sur quelque 35 millions de foyers), puisqu’il conduirait à une augmentation des tarifs de 7,7% HT (soit 8,3€/MWh), dont 40% (soit 3,3€/MWh) ne correspondent pas à une augmentation des coûts de fourniture d’EDF mais ont pour but de permettre aux concurrents d’EDF de proposer des prix égaux ou inférieurs aux TRV.

Avant d’aller plus loin dans les motifs qui ont poussé à cette décision, il convient de revenir sur la formation de ces tarifs.

Comme le rappelle la CRE dans son avis du 7 février fixant une hausse de 5,9% des TRV, ces derniers sont construits, depuis 2014, par « empilement » de différentes composantes. Ils comprennent ainsi le coût de la garantie de capacité, les coûts d’acheminement (transport et distribution, qui sont régulés par la CRE via le Tarifs d’utilisation des réseaux publics d’électricité ou Turpe), les coûts de commercialisation et la rémunération « normale » de l’activité de fourniture. Enfin, ils comprennent une composante coût d’accès régulé à l’électricité nucléaire historique, le fameux Arenh, dont l’objectif au moment de la libéralisation du marché des particuliers était de permettre de développer la concurrence sur ce marché en facilitant l’accès aux concurrents de l’opérateur historique EDF à l’électricité produite par les réacteurs nucléaire à un prix compétitif (aujourd’hui 42 €/MWh). Ces derniers peuvent en bénéficier jusqu’à concurrence de 100 TWh par an, comme fixé par la loi. A cette composante, s’ajoute une autre : le coût du complément d’approvisionnement au prix du marché, c’est-à-dire le coût auquel EDF doit s’approvisionner (en plus du nucléaire) pour pouvoir livrer ses clients aux TRV. Ce sont ces deux composantes que l’autorité de la concurrence met en cause dans son avis.

Un prix de marché qui fluctue largement en fonction de l’électricité disponible… En France, mais aussi en Europe, puisque le marché électrique est interconnecté.

La CRE régule donc le Turpe, applicable aux TRV et aux tarifs de marché, et propose des évolutions des TRV régulièrement en prenant en compte les évolutions sur le prix des marchés de gros européens… Donc, la « part » production joue un rôle prépondérant dans les évolutions tarifaires, mais, comme le fait remarquer l’Autorité de la concurrence, cette part ne représente « que » 40% de la facture globale payée par les clients.

Ainsi, comme elle l’avait déjà indiqué lors de la décision de construire les coûts par empilement, en 2014, l’Autorité de la concurrence demande au gouvernement de réexaminer, avant le 7 mai, la légalité et l’opportunité de la méthode et de solliciter auprès de la CRE une nouvelle délibération.

L’Autorité de la concurrence estime ainsi : « Il ne fait à cet égard pas de doute qu’une régulation du marché, destinée à favoriser le développement de la concurrence, est nécessaire en France. L’Arenh a été mise en place à cette fin et permet aux fournisseurs d’électricité d’accéder à des volumes d’électricité issus du parc historique électronucléaire dans des conditions déterminées. Ce système a cependant des limites et nécessite aujourd’hui une réforme aussi rapidement que possible ».

La limite évoquée par l’autorité administrative concerne directement le plafond de l’Arenh.

En effet, tant que le prix de l’Arenh est supérieur aux prix du marché de gros, tout va bien, puisque les concurrents d’EDF ne se bousculent pas au portillon pour réclamer leur part, préférant se fournir en bourse. En revanche, et c’est le cas depuis deux ans quasiment, quand le prix du marché dépasse le prix de l’Arenh, les concurrents se bousculent pour avoir leur part… Mais comme le volume est plafonné à 100 TWh, il faut partager.

L’Autorité de la concurrence signale donc que : « Néanmoins, augmenter les TRV et les utiliser pour pallier les limites de l’Arenh conduit à un changement de nature de ces tarifs, qui n’a pas, à la connaissance de l’Autorité, fait à ce jour l’objet d’un débat public transparent et éclairé. Cela a pour conséquence de faire supporter la charge financière aux consommateurs plutôt qu’aux fournisseurs et semblerait donc contraire à la volonté du Parlement de proposer aux consommateurs des tarifs réglementés permettant de leur restituer le bénéfice de la compétitivité du parc nucléaire historique ».

Le gouvernement semble donc avoir choisi d’assumer la hausse, mais François de Rugy a aussi dit qu’il repassera par la case CRE.

Transformation numérique dans la santé : la gouvernance fait toujours défaut

D’un côté, une étude internationale menée par le cabinet d’avocats Simmons & Simmons, publiée fin janvier 2019, révèle que 64 % des décideurs et investisseurs des secteurs des technologies, de la santé et des sciences de la vie voient l’e-santé comme une « priorité stratégique » et qu’ils se préparent à « anticiper la révolution digitale de la santé et capitaliser sur sa valeur économique ».

De l’autre, selon le premier « observatoire de la formation en santé » présenté en décembre 2018 lors des Assises nationales hospitalo-universitaires, 73 % des professionnels de santé interrogés s’estiment mal formés en matière de numérique, d’intelligence artificielle et de robotisation. Ils sont presque 90 % à penser que les changements apportés par ces technologies posent des questions en matière d’éthique, qu’elles vont transformer leurs métiers et qu’elles nécessitent de former mieux et plus souvent les acteurs de la santé. Mais ils sont moins nombreux à penser que cela peut améliorer les diagnostics (65 %) et la qualité des soins (48%).

Face à ces constats, on note un réel dynamisme autour des start-up de l’e-santé en général et un gouvernement qui affiche ses ambitions numériques dans sa stratégie de transformation du secteur médical « Ma santé 2022 ». Pour autant, cet ensemble est mal ficelé, la gouvernance est floue et faible, la transformation numérique du secteur de la santé présente des faiblesses structurelles et organisationnelles fortes que le rapport Pon/Coury a mis en évidence. On le voit, l’arrivée du numérique en santé place ce secteur à la croisée des chemins. Elle va le forcer à remettre à plat à la fois son fonctionnement et ses pratiques au quotidien (rapport soignants/patients par la télémédecine, l’accès aux données de santé, l’intelligence artificielle, la robotisation etc.), les liens entre ses différentes structures (publiques/privées, médecine de ville/spécialités par un parcours du patient retravaillé) et sa gouvernance à la fois réglementaire, éthique et technique car le partage des données numériques nécessite une plus grande collaboration entre ces structures.

Dans ce contexte, la plupart des acteurs attendent donc que l’exécutif donne un cadre, une vision et une organisation à l’ensemble. Et c’est là que le bât blesse… Cela fait maintenant deux ans que tout le monde attend.

Une gouvernance temporaire qui dure trop ?

Il faut dire que la gouvernance de la santé est déjà complexe et pour l’instant celle de l’e-santé est calquée dessus ; on trouve ainsi un empilement de structures et d’interlocuteurs incroyables. Parmi les structures pilotant un volet e-santé, on peut citer la direction générale de l’offre de soins (DGOS), la direction générale de la santé (DGS), la direction générale de la cohésion sociale (DGCS), mais aussi la délégation à la stratégie des systèmes d’information en santé (DSSIS) et l’Agence des systèmes d’information partagés de santé (Asip santé), sans compter bien sûr les autres acteurs qui voudraient avoir leur mot à dire…

Sous le quinquennat précédent, la stratégie « e-santé 2020 » avait mis en place le comité stratégique du numérique en santé (CNSS), dont la première réunion s’est tenue en janvier 2017. Ce comité avait l’avantage de réunir autour d’une même table les représentants de tous les acteurs : professionnels de santé, établissements de santé, industriels, les administrations (centrales et agences etc.), la recherche et des personnalités qualifiées telles qu’un représentant du conseil national du numérique ; mais sa dernière réunion date d’octobre 2017. Cette absence d’activité s’accompagne d’autres signes reflétant un manque de visibilité sur la gouvernance : une direction par intérim de la DSSIS depuis juin 2017 et de l’Asip depuis mars 2018 – agence qui n’a d’ailleurs plus de contrat d’objectifs et de performances.

Sans compter que le gouvernement actuel semble indécis sur la forme à donner à cette gouvernance. En mars 2018, il annonce la création d’une mission unique « e-santé » au sein du ministère des solidarités et de la santé et désigne deux pilotes (Dominique Pon et Annelore Coury) pour dessiner la stratégie de transformation du système de santé. Finalement, cette mission unique ne verra pas le jour. En attendant, les deux pilotes ont rendu leur rapport à l’automne 2018. Une partie de leurs préconisations sont intégrées au volet numérique de la stratégie de santé « Ma santé 2022 ».

Un rapport qui donne le LA

Le rapport Pon/Coury dresse un constat sans appel : « usagers réduits à un rôle passif », professionnels « confrontés à une offre morcelée rendant les usages complexes dans la pratique quotidienne », « outils souvent peu interopérables » ne répondant pas aux besoins les plus basiques, « stratégie du numérique en santé peu lisible et incomplète », « gouvernance et organisation insuffisamment structurée pour être efficace ». Bref, (presque) tout reste à faire.

Le diagnostic a bien été entendu par le gouvernement qui s’en est servi comme socle pour intégrer une réelle vision stratégique du numérique en santé dans sa stratégie de transformation du système de santé « Ma santé 2022 » présenté en septembre 2018. En effet, cette dernière comprend 54 mesures visant à regagner du temps médical, veiller à la bonne orientation des patients par une bonne coordination des acteurs, et améliorer la qualité ainsi que la pertinence des soins ; pour beaucoup, ces mesures comptent s’appuyer sur le développement de technologies et d’outils numériques sécurisés et interopérables à l’échelle nationale. « Ma santé 2022 » prévoit notamment la mise en place d’un « bouquet de services numériques intégrés » pour les professionnels : accessible même en mobilité, il doit notamment comprendre des outils de transmission sécurisée d’avis médicaux et de partage des données de santé grâce au DMP (dossier médical partagé) ; des outils d’e-prescription devraient aussi s’y implémenter. Le début du déploiement est prévu fin 2019 avec une généralisation d’ici 2021. Pour les patients, le gouvernement prévoit d’ici 2022, la création d’un « espace numérique personnel de santé » dans lequel le patient pourra par exemple accéder à ses données de santé (compte rendu d’hospitalisation, résultats d’examens, prescriptions dématérialisées…).

La transformation numérique va tout remettre à plat

Du coup, à défaut d’être encore très clair sur la gouvernance de l’ensemble, le gouvernement a opté pour la mise en place d’une « task force » au sein du ministère de la santé. A la tête de cette « direction des services numériques du système de santé », on trouve Dominique Pon et Laura Létourneau. Ils doivent « favoriser les synergies » entre l’Etat, l’assurance maladie et les agences régionales de santé (ARS), en concertation avec les citoyens et représentants des professionnels et industriels du secteur pour assurer le « virage numérique » du système de santé. L’objectif est d’assurer un pilotage des chantiers en cours et de donner aux pouvoirs publics un rôle d’État plate-forme qui définit un cadre général pour la mise en place des systèmes d’informations de santé, en posant des garde-fous pour l’éthique et la sécurité des données mais en laissant le développement de services à valeur ajoutée aux acteurs privés.

Ainsi, la structure de gouvernance actuelle doit permettre de continuer de dérouler les grands projets comme le dossier médical partagé, la création d’un Health Data Hub (agrégation des données de santé pour leur exploitation) ou encore de nouveaux programmes de financements en attendant une gouvernance claire, solide et arbitrée. Les deux pilotes expliquent d’ailleurs en substance que la transformation digitale exige une remise à plat de gouvernance et que cela ne se fera pas en jour.

Blockchain : Fujitsu et Sony à la recherche de nouveaux cas d’usages : éducation, énergie & propriété intellectuelle

Fujitsu Limited, Fujitsu Research Institute, et Sony Global Education ont annoncé le 27 février 2019 la mise en place d’un système permettant de certifier les résultats et diplômes scolaires d’élèves grâce à la blockchain, en remplacement des traditionnels certificats papier. Ce système sera dans un premier temps destiné à certifier le niveau en langue japonaise d’élèves souhaitant venir étudier au Japon. Il sera déployé en partenariat avec Human Academy Co, un centre d’éducation japonais pour les élèves étrangers. Avec ce système, les instituts académiques pourront s’assurer du niveau en japonais des élèves en regardant directement le certificat stocké sur la blockchain.

Cette expérimentation s’inscrit dans un contexte où le nombre d’étudiants et de travailleurs étrangers au Japon augmente d’année en année. L’application de l’Immigration Control Act en avril 2019, qui créé de nouvelles catégories de visa, va contribuer à accentuer encore cette dynamique. L’initiative lancée par Fujitsu et Sony souhaite répondre à la difficulté que peuvent rencontrer les institutions académiques pour confirmer la validité des résultats scolaires transmis par les étudiants étrangers. Une mauvaise évaluation pouvant engendrer des situations compliquées pour les deux parties, en particulier lorsqu’il s’agit des capacités en langue japonaise.

Du côté de Sony, bien que le développement de la technologie blockchain soit axé sur l’éducation, son utilisation est envisagée dans une large variété de domaines. En particulier, Sony annonçait en octobre 2018 le développement d’une solution de gestion des droits numériques (DRM : digital rights management), visant à protéger les contenus digitaux (films, musiques, e-books etc.). Selon Sony, les transformations technologiques permettant la création et la diffusion de contenu digital doivent aussi s’appliquer à la gestion des droits relatifs à ces contenus, en particulier le respect de la propriété intellectuelle. Ce système, encore au stade de prototype, pourrait être prochainement commercialisé par Sony s’il s’avère concluant.

Autre exemple, fin janvier 2019, Fujitsu communiquait sur la possibilité d’utiliser la blockchain pour optimiser le mécanisme de « réponse à la demande » (demand response, DR) sur le marché de l’électricité. L’objectif de ce mécanisme est d’améliorer le contrôle de la production d’énergie électrique et la gestion des pics de charge en faisant coopérer les fournisseurs et les consommateurs d’énergie. En effet, le taux de succès est actuellement relativement faible, du fait de l’incapacité des consommateurs à adapter leur consommation. Le système conçu permet aux acteurs d’échanger entre eux leurs surplus d’énergie, qu’ils soient dus à leur propre génération d’énergie ou bien à une réduction de leur consommation. Fujitsu annone une amélioration du taux de succès des « réponses à la demande » de l’ordre de 40%.

A travers ces différents exemples, les deux acteurs Japonais cherchent à gagner en maturité quant aux cas d’usages potentiels de la blockchain. Fin 2018, l’agence de transformation digitale australienne (DTA) se faisait plus critique à l’égard de la mode autour de cette technologie, indiquant que « pour toute utilisation envisagée de la blockchain (technologie intéressante mais encore dans les premières phases de son développement), il existe à l’heure actuelle une meilleure solution ».

Sources : www.diplomatie.gouv.fr
www.fujitsu.com
www.sony.net
www.fujitsu.com

Rédacteur : Guillaume Barraud, Chargé de mission Numérique, Matériaux et Sciences de l’ingénieur, Ambassade de France au Japon

Comprendre une technologie n’est pas nécessaire pour l’améliorer !

Produire des outils complexes et s’adapter à différents milieux : on pense souvent que l’être humain a pu y parvenir grâce à son imposant cerveau, qui le rendrait plus ingénieux et inventif que d’autres espèces. Pourtant, l’efficacité de technologies telles que l’arc ou le kayak dépend de nombreux paramètres qu’il est encore aujourd’hui difficile de comprendre et de modéliser, même pour des physiciens. Pour cette raison, certains anthropologues ont suggéré que ces technologies résultent non pas de nos capacités de raisonnement mais de notre propension à copier les autres membres de notre groupe : de petites améliorations seraient sélectionnées successivement, conduisant à l’émergence de technologies efficaces et pourtant incomprises des individus.

Les chercheurs ont voulu tester cette théorie en laboratoire. Pour cela, ils ont recruté des étudiants qui devaient optimiser une roue afin qu’elle parcoure le plus rapidement possible la distance d’un mètre sur des rails inclinés (photo). Chacun avait cinq essais pour produire la configuration la plus efficace, avant de répondre à un questionnaire qui testait sa compréhension des mécanismes physiques pouvant influencer la vitesse de la roue. Afin de simuler la succession des générations humaines, les chercheurs ont créé des chaînes de cinq individus : chacun avait accès, sur un écran d’ordinateur, à la configuration et à l’efficacité de la roue des deux derniers essais du participant précédent.

Tandis que la roue gagnait en vélocité au cours des « générations », la compréhension des individus est restée médiocre. En d’autres termes, il n’y avait aucun lien entre la performance de la roue et le niveau de compréhension des participants ! Chaque individu avait produit des configurations plus ou moins aléatoires et c’est la combinaison entre ces essais-erreurs individuels et la copie des configurations les plus rapides qui avait suffi à optimiser la roue.

Dans une seconde version de l’expérience, les participants transmettaient à l’individu suivant, en plus de leurs deux derniers essais, un texte décrivant leur théorie sur l’efficacité de la roue. Les résultats furent similaires : les roues gagnaient en vitesse mais, là encore, sans que les individus comprennent pourquoi. La transmission de théories fausses ou incomplètes pouvait même empêcher les générations suivantes de développer une compréhension correcte du système, les rendant comme aveugles à une partie du problème.

Cette expérience illustre l’importance des processus culturels dans l’apparition d’outils complexes : notre aptitude à copier les autres individus permet l’émergence de technologies que nul n’aurait su inventer de lui-même. Elle invite à se montrer prudent dans l’interprétation des vestiges archéologiques en termes de capacités cognitives, ces aptitudes n’étant pas le seul moteur de l’évolution technologique.

Dispositif utilisé dans l’expérience

Illustration : les participants pouvaient modifier la position des poids le long des rayons entourant la roue, afin d’augmenter sa vitesse sur le rail incliné.
Deux facteurs influencent cette vitesse : la distribution de la masse autour de l’axe de la roue, ou moment d’inertie (plus la masse est condensée, proche de la roue, plus celle-ci est rapide), et la position du centre de masse de la roue (plus celui-ci est haut, plus l’accélération est importante).
© Maxime Derex

Bibliographie : Causal understanding is not necessary for the improvement of culturally evolving technology, Maxime Derex, Jean-François Bonnefon, Robert Boyd et Alex Mesoudi. Nature Human Behaviour, le 1er avril 2019. DOI : 10.1038/s41562-019-0567-9

Source : cnrs

L’énergie éolienne en Europe : où en est-on en 2019 ?

En 2018, les pays européens ont installé 10,1 gigawatts (GW) de nouvelles capacités éoliennes, contre 14,8 GW l’année précédente. Le parc éolien a atteint précisément 178,95 GW à la fin de l’année pour une production de 379,3 TWh. Soit une hausse de la production de 4,7% par rapport à 2017. Malgré un volume de nouvelles installations en baisse, « la part de l’éolien commence à devenir substantielle au sein du mix électrique européen car elle représente à elle seule 11,4% du total de la production de l’Union européenne à 28 », analyse le Baromètre éolien 2019 d’EurObserv’ER.

L’éolien continue à se développer en Europe, mais à des vitesses très variables selon les pays. La baisse de la dynamique s’explique en partie par le recul des nouvelles installations de 48 % en Allemagne (3,2 GW) et de 23,6 % en France (1,6 GW). D’autres marchés sont au contraire fortement dynamiques : la Suède (796 MW, +350 %), le Danemark (+645 MW, +168 %) et l’Espagne (+336 MW, +258,2 %). Le développement de l’éolien est par ailleurs au point mort dans douze pays.

Et pour l’éolien offshore ?

Les raccordements pour l’éolien offshore se sont également faits plus rares en Europe en 2018. Selon EurObserv’ER, ils se sont élevés à 2667,7 mégawatts (MW), contre 3200,6 MW l’année précédente. La puissance offshore atteint 18,46 GW, soit tout de même un taux de croissance de 16,9 % par rapport à 2017. L’Union européenne est toujours un espace primordial pour le déploiement de l’éolien offshore. 80% de la capacité mondiale offshore reste ainsi localisée en Europe.

Malgré un ralentissement du développement de l’éolien en Europe et des conditions météorologiques moins avantageuses qu’en 2017, la production éolienne a augmenté. « Cette croissance a plus particulièrement été tirée par l’éolien offshore, note le Baromètre. La part de l’éolien offshore dans le total de la production d’électricité éolienne gagne en importance et passe de 14 % en 2017 à 15,1 % en 2018 ».

De durs jours à venir en Allemagne

EurObserv’ER explique le ralentissement brutal en Allemagne en partie par le fait qu’une part importante des projets attribués par les derniers appels d’offres l’ont été à des « projets citoyens ». Bénéficiant de délais supplémentaires pour leur réalisation, cela crée un décalage dans le volume annuel mis en service.

« Plus préoccupants pour la filière, les résultats des deux derniers appels d’offres terrestres ont montré que les volumes cibles ne parvenaient plus à être atteints », fait savoir EurObserv’ER. Ainsi, seulement 363,2 MW ont été attribués sur 670,2 MW en octobre dernier et 476 MW sur 700 MW en février 2019. Selon WindEurope, cela est dû au délai grandissant d’obtention des permis de construire. Celui-ci peut désormais « prendre plus de deux ans, contre dix mois il y a deux ans ». De plus en plus de recours judiciaires ont également lieu, avec « au moins 750 MW » de projets bloqués.

Un petit point sur le monde

L’éolien représente environ 4,7 % de la production mondiale d’électricité. Fin 2018, la puissance éolienne installée atteignait 591 GW, dont 23 GW en mer. Sur l’année 51,3 GW ont été installés, contre 53,2 GW l’année précédente, soit une baisse de 3,6%. « Cette nouvelle baisse du niveau d’installation mondial, la troisième année consécutive, s’explique cette année par une contraction importante des marchés européens et indiens qui n’a pas été entièrement contrebalancée par le retour à la croissance des marchés chinois et états-uniens », analyse EurObserv’ER. Les marchés les plus dynamiques ont été la Chine (+23 GW), les Etats-Unis (+7,6 GW) et l’Allemagne (+2,4 GW).

Chine : le déploiement des applications de la 5G s’accélère en 2019

Le système de navigation satellite Beidou (BDS) est opérationnel depuis la finalisation du projet BDS-3 fin 2018, et les évaluations et tests menés à échelle globale ont démontré que sa précision de géo-positionnement est inférieure à 10 mètres.

Cette année, la Chine va progressivement avancer dans l’innovation de BDS et son intégration avec les technologies de l’information comme internet, le big data ou encore l’intelligence artificielle. Les données collectées à partir du réseau 5G permettraient par exemple d’améliorer la précision du positionnement (la présence de plus de stations de bases qu’en 4G permettant un meilleur positionnement par triangulation fourni par l’opérateur réseau).

Il y a quelques semaines, la première tentative de campus universitaire équipé d’un réseau 5G a également été lancée à la Huazhong University of Science and Technology (HUST située dans la province de Hubei). Le réseau, développé conjointement par la branche locale de China Mobile et Ericsson, est supposé permettre in fine des innovations telles que l’apprentissage à distance au moyen de réalité virtuelle augmentée ou bien encore la surveillance de nuit du campus par des drones à vision nocturne.

À ce jour, selon Fan Bingheng (Directeur Général de la branche de Hubei de l’entreprise), China Mobile a installé une centaine de stations de base 5G à Wuhan (la capitale de Hubei) et a lancé des tests de performance à grande échelle (vitesse de transfert de données, latence…).

On retiendra aussi de ces dernières semaines la présentation par la Chine, lors de la conférence mondiale des télécommunications mobiles à Barcelone, d’un bateau autonome équipé de technologies 5G. Ce dernier, développé par Yunzhou Smart en association avec China Mobile et Ericsson a fait l’objet d’une démonstration avec un public invité à lui donner des instructions et à observer le fonctionnement du navire sans équipage en temps-réel (démonstration d’équipements de réalité virtuelle, analyse de la qualité de l’eau…).

Avec les technologies 5G, et notamment la possibilité d’utiliser des technologies d’accès radio complémentaires pour en améliorer la couverture et le débit, l’intégration et l’analyse de données issues de stations de base terrestres et de communications satellites va probablement continuer de faire émerger de nouvelles applications innovantes dans différents secteurs d’activité.

Sources :

www.diplomatie.gouv.fr

www.ecns.cn/news/

eng.chinamil.com.cn

Rédaction : Srikanth Ramanoudjame, chargé de mission au service pour la science et la technologie du consulat général de France à Canton,

Qu’est-ce que notre relation à l’intelligence artificielle dit de nous ?

Si l’intelligence artificielle attire de plus en plus les chercheurs et les investisseurs dans de multiples domaines, elle n’en reste pas moins un sujet de méfiance. L’inquiétude vis-à-vis de la privatisation des données a mené à l’instauration de la RGPD pour protéger les datas dont se nourrit l’IA pour fonctionner. Nous avons interrogé Alban Leveau-Vallier, philosophe et chercheur spécialisé dans l’intelligence artificielle, pour comprendre ce que nos pensées et nos actions concernant l’IA disent de nous.

Pourquoi lier la philosophie et l’intelligence artificielle ?

L’IA est un projet philosophique car elle s’interroge sur l’intelligence humaine. En construisant des programmes, nous tentons de comprendre comment on pense. Pourtant, s’inspirer de notre intelligence pour créer l’IA est compliqué car nous n’arrivons toujours pas à définir ce qu’est l’intelligence. Le terme d’ « intelligence » pose donc question. D’ailleurs, Luc Julia, vice-président de l’innovation chez Samsung, a écrit le livre L’intelligence artificielle n’existe pas pour dénoncer cette appellation, qui donne l’illusion que des machines pensantes vont nous remplacer.

Que vous apprennent vos recherches sur la relation humain/machine ?

Si nous sommes disposés à opposer l’humain et la machine, je pense qu’il faudrait plutôt s’interroger sur ce que nous racontons à travers les machines que l’on crée. Nous avons tendance à imaginer une machine totalement autonome, ce qui crée des fantasmes et des craintes. Pourtant, ça n’existe pas. Pour remplir son rôle, une machine doit être conçue, mise à jour et maintenue par des humains. Si nous laissons un smartphone sans le charger ni le mettre à jour, il ne fonctionnera plus et c’est pareil pour toutes les technologies. Plutôt que de se focaliser sur les machines autonomes, nous pourrions davantage nous intéresser aux technologies qui aident à résoudre des problèmes concrets, donc à l’ »intelligence augmentée ». Aujourd’hui, nous attendons les voitures autonomes, annoncées depuis des années. En parallèle, des startups introduisent dans les voitures des technologies comme la reconnaissance d’images pour détecter les piétons, des limitateurs de vitesse etc.  Ces évolutions technologiques sont concrètes car elles existent déjà dans nos véhicules et modifient nos pratiques. Pourtant, elles font moins rêver car elles ne remplacent pas le conducteur.

La peur d’être remplacé par une machine dans son travail est-elle fondée ?

Oui et non. D’un côté, il n’y a pas de remplacement par une machine autonome car elles seront maintenues par des humains. En revanche, l’introduction de programmes va changer les manières de travailler donc certains vont en bénéficier et d’autres en pâtir. Par exemple, si un programme intégré dans une entreprise permet de faire beaucoup d’économies, cet argent ne sera pas redistribué aux employés. Il serait intéressant de profiter de ce gain de productivité pour mettre en place des semaines de 30h par exemple, mais je n’ai jamais entendu parler de cela. À mon avis, il faut plus s’inquiéter de la répartition des gains que d’un remplacement par les machines.

Pourquoi y a-t-il autant de fantasmes et de craintes autour de l’IA ?

Le rêve d’une machine intelligente n’est pas récent, nous en trouvons déjà des traces chez Homère. L’IA est souvent assimilée à une forme de magie. Nous sommes actuellement dans la 3e vague d’enthousiasme concernant l’IA, et comme les précédentes dans les années 50-60 puis 80, elle s’accompagne de grands espoirs et de promesses excessives. Cependant, cet engouement donne énormément de crédit à l’intelligence artificielle et les investissements financiers suivent, donc des innovations très intéressantes naissent. Les craintes qu’elle crée en parallèle sont pour moi inévitables. Déjà, la méfiance envers ce qui pourrait modifier nos façons de vivre et de se relier les uns aux autres nous poussent à nous refermer aux changements. Ensuite, les scandales autour de l’utilisation de nos données légitiment ces craintes. Mais selon moi, ces deux pans confèrent chacun trop d’importance à la technologie et sont le reflet de peurs du monde qui nous entoure.

Est-ce que les lois sur la protection des données limitent le développement de l’IA, qui a justement besoin de ces données ?

On aime bien se lamenter et dire que l’Europe sera en retard parce que les chercheurs pourront moins utiliser les données que les Chinois par exemple. Mais définir des premiers et des derniers dans le développement de l’IA, c’est se placer dans un monde de compétition clair. Or, il est compliqué de classer les pays selon leur avancée car l’intelligence artificielle est un domaine très ouvert, dans lequel  les chercheurs publient en open source et circulent à travers le monde. Selon moi, les règles de protection des données sont un avantage et nous placent justement en avance sur cet aspect. Avant de déployer une technologie, nous ne pouvons pas prévoir les effets, autant positifs que négatifs. Mais une fois que nous commençons à distinguer les scandales et les abus, il est sain de se demander quelles nouvelles lois doivent l’encadrer. C’est d’ailleurs le rôle de l’Etat.

Quel avenir imaginez-vous pour l’intelligence artificielle ?

J’aime bien prendre l’exemple de Blade Runner, réalisé en 1982, et dont l’intrigue se déroule en 2019. Il y a des voitures autonomes, des androïdes intelligents, mais pourtant, les personnes téléphonent encore depuis des cabines téléphoniques à pièces. Cette scène prouve bien que nous pouvons imaginer l’avenir, mais pas faire de prévisions stables car tout sera radicalement différent.

Les écoles d’ingénieurs s’adaptent aux évolutions de l’industrie

En visite à Global Industrie de Lyon, nous avons rencontré Alexandre Rigal, le directeur général délégué d’Arts et Métiers. L’école d’ingénieurs spécialisée dans la mécanique, l’industrie et l’énergie forme chaque année plus de 6 000 élèves. Nous lui avons posé quelques questions sur l’intérêt des étudiants pour l’industrie et sur l’évolution des formations pour s’adapter aux révolutions technologiques.

Comment votre école s’adapte aux évolutions dans l’industrie ?

Nous sommes en contact avec des entreprises pour adapter nos formations au rythme de l’industrie et comprendre les nouvelles compétences demandées. Pour lier nos étudiants au monde professionnel, nous les envoyons en stage dans des PME afin qu’ils répondent à un besoin de l’entreprise. Ils proposent alors leur expertise et l’appliquent concrètement. Cela nous permet également de rester à la page et d’adapter nos cours si besoin.

Quelles sont les nouvelles compétences demandées aux ingénieurs ?

La première compétence nécessaire aux  jeunes ingénieurs est le réflexe du numérique. Cela ne signifie pas être un spécialiste du domaine, mais connaître les nouvelles méthodes de travail possibles grâce au numérique, comme l’utilisation de la réalité augmentée ou de l’intelligence artificielle. Ainsi, nous n’ajoutons pas nécessairement de nouvelles disciplines mais nous réfléchissons aux nouveaux usages en entreprise. Pour prendre un exemple concret, la fonderie existe toujours mais elle n’est plus du tout pratiquée de la même manière qu’avant : nous devons suivre ses mutations.
Enfin, sans être une véritable compétence, le réflexe de l’international est aussi important. Même s’ils ne travaillent pas à l’étranger, nos élèves évolueront dans un univers internationalisé, et leurs clients ou concurrents seront dans d’autres pays. Pour les y préparer, nous leur proposons des expériences professionnelles à l’étranger.

Vers quels secteurs se dirigent vos étudiants une fois diplômés ?

Une enquête réalisée en mars 2018 a dévoilé que, sur 1432 ingénieurs diplômés de 2015 à 2017, les trois secteurs où ils travaillent le plus sont l’industrie des transports (21%), le conseil (19%) et enfin les autres industries (14%). L’industrie recrute parce qu’il y a de plus en plus besoin de main d’œuvre. Les secteurs de la robotique, du numérique et de l’énergie engagent car ces problématiques deviennent essentielles à notre époque. Un de nos défis est aussi d’attirer l’attention de nos étudiants sur les PME. La plupart d’entre eux ont pour projet de travailler dans de grands groupes car ce sont les plus médiatisés. Mais nous essayons de les sensibiliser aux avantages des entreprises plus petites, parfois dans des lieux plus isolés, mais qui offrent davantage de responsabilités et de tâches.

Comment attirer les jeunes vers le monde de l’industrie ?

Si l’industrie est en plein rebond et est remise en valeur grâce au discours politique, elle n’attire pas forcément les plus jeunes. Les lycéens associent souvent l’industrie à des usines polluantes ou aux plans sociaux mis en avant dans les médias. Pourtant, ce secteur est moderne et en pleine expansion. Des initiatives comme le label French Fab ou l’Usine Extraordinaire au Grand Palais sont de formidables moyens d’atteindre le grand public et de faire connaître ce secteur. Je suis convaincu qu’il faudrait aussi proposer des petits challenges aux jeunes dès le lycée, pour qu’ils comprennent que l’industrie est partout. Leur iPhone reste avant tout une quantité de composantes industrielles.

Retour d’expérience : comment digitaliser son usine ?

En plein déploiement de l’industrie du futur, la digitalisation des usines devient une nécessité pour les entreprises qui souhaitent rester compétitives. Pourtant, la méconnaissance des moyens à mettre en œuvre peut freiner certaines entreprises. Pour comprendre comment est réalisée la digitalisation d’une usine, nous avons rencontré Xavier Gatine, quality manager & Industry 4.0 à SKF, et Eric Duris, manager à Atos Consulting, une filiale de l’entreprise Atos spécialisée dans le déploiement de l’industrie 4.0 dans les entreprises. Tous deux ont travaillé sur la digitalisation d’une ligne de production de l’usine SKF de Saint-Cyr-sur-Loire, spécialisée dans le secteur automobile.

Pourquoi avoir voulu digitaliser votre ligne de production ?

Xavier Gatine (SKF) : Nous recherchions un gain de performance industrielle. Le but n’était pas forcément d’aller plus vite, mais d’améliorer la qualité du produit en faisant moins d’erreurs. L’automobile est un secteur très exigeant donc nous devons produire des pièces de qualité à destination de nos clients. En limitant la création de pièces rebutées et les arrêts de la ligne, nous créons plus de capacités de production et nous réduisons les réclamations.

Quelles ont été les étapes pour digitaliser la ligne de production ?

Eric Duris (Atos) : D’abord, nous sommes allés sur le terrain pour rencontrer les opérateurs. Nous avons parlé avec eux de temps de cycles, de taux et causes de rebut, de leurs besoins et de tous les problèmes qu’ils peuvent rencontrer. Puis nous avons défini les postes de travail sur lesquels il faudrait récupérer des données utiles, en fonction des éléments de connectivité et des capteurs présents. Nous avons ensuite branché une box pour remonter l’ensemble des datas récupérées par les capteurs et les envoyer dans le cloud. En partant de cette ligne physique, nous avons créé un jumeau numérique pour modéliser la ligne de production sur une plateforme informatique et nous avons mis en place des indicateurs de performance.

X.G. (SKF) : Atos nous a également mis en contact avec trois partenaires : Siemens pour la partie data machine, Picomto pour les data operator et Toucan Toco pour la visualisation des données. Picomto nous a accompagné afin de modifier nos formations et passer à des tutoriels vidéo, des explications à travers des photos suivies de check-lists pour vérifier que toutes les instructions ont été respectées. De son côté, Toucan Toco nous a permis de mettre en place une plateforme simple et interactive pour visualiser les données, de l’usine au complet jusqu’aux détails des machines. Nous avons ainsi gagné en ergonomie.

Quels sont les avantages pour l’entreprise ?

E.D. (Atos) : La solution digitale permet d’une part d’améliorer l’efficience des lignes de production mais aussi de redonner une responsabilité à l’opérateur.  Aujourd’hui, les agents mettent des composants dans une machine automatique puis récupèrent le produit fini en fin de ligne. Grâce à la digitalisation, ils reprennent du pouvoir sur leur travail car ils suivent tout le fonctionnement de leur ligne via une tablette ou smartphone, et ils peuvent agir dessus en temps réel. Ensuite, la numérisation facilite le partage des informations. Dans les usines qui travaillent 24h/24, les opérateurs peuvent noter les événements de la journée, qui seront retrouvés rapidement par l’équipe suivante.

Quelles difficultés avez-vous rencontrées ?

X.G. (SKF) : De manière générale, le changement s’est fait facilement. Cependant, il faut trouver la bonne vitesse pour une digitalisation constante, sans être trop rapide. Nous devons bien prendre en compte nos capacités d’un point de vue matériel et réseau, mais aussi le temps de formation des employés pour qu’ils maîtrisent parfaitement les outils. Nous veillons donc à nous entourer de spécialistes de chaque domaine.

Comment le personnel a réagi à ces modifications dans leur manière de travailler ?

X.G. (SKF) : Cette digitalisation de ligne n’était pas notre première évolution pour s’approcher de l’industrie 4.0, donc notre personnel commence à être habitué. Nous avions sélectionné des employés-clé de différents secteurs de l’usine pour qu’ils réfléchissent ensemble à la création de nouveaux outils. Nous faisons aussi en sorte de bien former tout le personnel, et de leur présenter plusieurs fois par an nos nouvelles solutions. Nous souhaitons impliquer tout le monde dans ces changements dans le but de démystifier les nouvelles technologies et d’avoir des agents opérationnels.

E.D. (Atos) : La formation des opérateurs est primordiale pour qu’ils puissent s’approprier la solution et en aient le réflexe dans leur travail. Nous sommes partis d’un besoin métier en les interrogeant dès le début sur les problématiques qu’ils rencontraient donc la solution leur est directement destinée.

Comment garantir la sécurité des données créées par la digitalisation ?

X.G. (SKF) : Il est effectivement indispensable de travailler sur la cybersécurité dans le contexte de l’industrie du futur. Nous nous sommes associés à Siemens pour protéger nos données présentes sur le cloud. Concernant les data plus sensibles, nous ne les mettons tout simplement pas sur le cloud. Enfin, nous avons également une équipe IT qui s’en occupe, et à l’échelle du groupe SKF, une équipe est spécialisée en cybersécurité.  

Quels peuvent être les freins à la digitalisation pour les entreprises ?

X.G. (SKF) : Aujourd’hui, énormément d’entreprises s’intéressent à la digitalisation car tout le monde recherche la performance. Elles peuvent néanmoins être freinées par le manque de lisibilité sur ce qu’elles sont aptes à transformer dans leur usine. Beaucoup ne connaissent pas les dimensions du 4.0. Pour les entreprises intéressées, il y a de nombreux moyens d’en apprendre plus grâce aux colloques et salons organisés à ce sujet. Elles peuvent ainsi voir les nouvelles solutions qui existent et rencontrer des entreprises qui relatent leur expérience. Enfin, si le coût peut être un frein, il faut aussi regarder le retour sur investissement qui peut être important grâce à l’augmentation du taux de rendement et à l’ouverture sur de nouveaux marchés. Les entreprises peuvent également se renseigner pour recevoir des aides, notamment des régions.

E.D. (Atos) : Si quelques entreprises n’arrivent pas à voir la valeur métier de ce travail de digitalisation, c’est parce que beaucoup confondent Big data et Smart data. Certaines entreprises ont mis en place des capteurs partout sur leurs machines, remontent des millions de données mais ne savent pas quoi en faire. A travers le smart data en revanche, nous remontons uniquement les données qui ont de la valeur. Pour la ligne de l’usine SKF, nous aurions pu sélectionner environ 300 points de données, mais nous n’en avons choisi que 25, nécessaires pour améliorer l’efficience de la ligne. S’associer à des spécialistes de la digitalisation est important pour accompagner la transition.

Un revêtement nanocomposite ignifuge conçu à partir d’argile et de cellulose

Superposition de nanocouches organiques et minérales

Le matériau élaboré par l’équipe de chercheurs est constitué d’une superposition de couches nanométriques (136 nm). Il s’agit d’un assemblage de nanofibres de cellulose (cellulose nanofibrils, CNF en abrégé) et d’un minéral argileux, la vermiculite (VMT). Ces deux matériaux n’ont pas été choisis pour rien : dans la nature, la cellulose comme l’argile jouent le rôle de renforts mécaniques pour les structures dans lesquelles on les trouve.

Les propriétés étonnantes de la vermiculite

La vermiculite est un matériau naturel, bien connu pour ses propriétés d’isolation thermique et phonique. Il peut d’ailleurs être utilisé pour l’isolation des maisons et rentre dans la composition de nombreux matériaux utilisés en BTP : bétons allégés, chapes isolantes ou encore toitures-terrasses en vermiculite enrobée de bitume.

Le minerai de vermiculite naturelle est constitué de feuillets entre lesquels de l’eau est emprisonnée. Après traitement thermique entre 800 et 1000 degrés, les lamelles de vermiculite s’exfolient (s’écartent) pour donner naissance à un matériau ultraléger contenant une grande quantité d’air.

Procédé d’assemblage LbL « layer-by-layer »

Pour élaborer cet assemblage cellulose/vermiculite, l’équipe de chercheurs a employé un procédé de déposition basé sur le principe d’interaction électrostatique. Cette technique, appelée LbL pour « layer-by-layer » consiste à réaliser des séquences d’assemblage d’ions de charges opposées suivis de lavages successifs pour éliminer les produits en excès. Dans le cas présent, les nanofibres de cellulose jouent ainsi le rôle de cations et la vermiculite représente la partie anionique.

La combinaison de lamelles de vermiculite (VMT) fortement orientées et de nanofibres de cellulose conduit ainsi à la formation d’une structure ressemblant à un mur de nanobriques transparentes. Cette structure unique présente des propriétés extrêmement intéressantes : elle constitue d’une part une excellente barrière chimique à l’oxygène et présente d’autre part une résistance au feu jusqu’ici jamais atteinte sur des fibres de cellulose.

Les propriétés exceptionnelles de ce nouveau matériau

Pour tester les propriétés de ce matériau CNF/VMT, l’équipe dirigée par le Dr Jaime Grunlan l’a appliqué comme revêtement sur différents polymères. Dans un premier temps, c’est la perméabilité à l’oxygène qui a été mesurée sur des nanocouches de 136 nm, déposées sur des films de polyéthylène téréphtalate (PET) de 179 µm. Les résultats obtenus par l’équipe de chercheurs sont prometteurs, car ils indiquent une faible perméabilité à l’oxygène, de l’ordre de 4.06*10−21 cm3*cm (cm2*s*Pa)–1, des valeurs comparables aux barrières de type SiOX communément déposées sur des films polymères.

En ce qui concerne la résistance au feu, des revêtements de deux et quatre couches de CNF/VMT ont été appliqués sur des mousses polyuréthane flexibles, identiques à celles utilisées pour la confection des coussins de meubles. Les mousses ont ensuite été exposées au feu d’une torche au butane, sur chaque côté, pendant une durée de 10 secondes. Alors que la face non revêtue de la mousse fond immédiatement sous l’effet de la flamme, la face revêtue ne présente pas de traces de fusion, seulement des résidus de combustion de la flamme. Encore plus surprenant, d’après les observations au microscope électronique (MEB), la mousse polyuréthane semble garder sa structure originale, sans s’effondrer, même revêtue de couches d’une taille infime de l’ordre de 20 nm.

Cette structure qui ressemble à un mur de « nanobriques », en plus d’être un excellent retardateur de flamme, permet de réduire la quantité de fumée, un autre facteur d’alimentation des feux. Ce matériau semblant voué à un avenir certain, Jaime Grunlan souhaite à présent transférer sa méthode de fabrication vers l’industrie.

Failles des satellites : le trou noir

« C’est étonnant pour moi de constater l’éventail de vulnérabilités que l’on peut trouver dans les satellites », a déclaré William Malik, vice-président des stratégies d’infrastructure chez Trend Micro (un éditeur de solutions de cybersécurité), à la conférence de la RSA organisée début mars à San Francisco.

Cette intervention arrive au moment où de nombreux acteurs s’apprêtent à envahir l’espace avec des micro satellites tandis que d’autres présentent des satellites dits « intelligents ».

Rançon contre satellite

Et l’espace commence à être très chargé. Selon l’Union of Concerned Scientists, il y avait presque 2000 satellites en orbite en janvier dernier. Autant de cibles potentielles… Pendant des années, la réponse a toujours été la même : « pourquoi quelqu’un voudrait-il pirater un satellite ? ». Pourtant, selon  William Malik, plusieurs attaques malveillantes ont eu lieu ces dernières décennies.

En 1998, le fonctionnement d’un télescope à rayons X construit par les États-Unis et l’Allemagne a été perturbé par un code malveillant. Il s’est notamment tourné vers le soleil, ce qui a entrainé un échauffement très intense.

L’année suivante, des pirates auraient attaqué le satellite militaire britannique Skynet. Après l’avoir déplacé de sa position, ils auraient exigé une rançon. Puis, à partir de 2007, il y a eu plusieurs prises de contrôle de satellites (dont le LandSat-7 et le Terra EOS AM-1).

Cyberattaques étatiques ?

Différents types d’attaques ont été présentées dans un document publié en 2014 par IOActive. Cette entreprise spécialisée dans la sécurité informatique a constaté que tous les dispositifs pourraient être utilisés de façon malveillante par un groupe ou un État.

Ces appareils présentent en effet de sérieuses lacunes. Ils transmettent des données non chiffrées et les logiciels présentent des failles de sécurité. Résultat, des personnes malveillantes peuvent intercepter des données ou écouter les canaux. Le coût des antennes est en chute libre et les kits d’attaque par radiofréquence se multiplient. Résultat, même l’internet par satellite pourrait être piraté.

« Nous allons voir les acteurs étatiques tirer parti de ces faiblesses », a averti William Malik. Il recommande aux industriels de renforcer l’authentification des accès et la confidentialité des données.

Discuter avec un robot n’est pas aussi plaisant que de converser avec un humain

Ils ont pour cela, et ce pour la première fois, enregistré par imagerie par résonance magnétique fonctionnelle l’activité cérébrale de participants engagés dans une discussion avec un partenaire humain ou robotique. Leurs résultats, publiés dans Philosophical Transactions the Royal Society of London Ble 11 mars 2019, montrent que discuter avec un humain induit une augmentation significative de l’activité de l’amygdale, des noyaux gris centraux et de l’hypothalamus comparée à une conversation similaire menée avec un robot. Ces deux premières structures cérébrales sont impliquées dans les circuits de la récompense, la dernière synthétise l’ocytocine, neuropeptide favorisant plus spécifiquement le lien social. Les données issues de cette étude sont mises à la disposition de la communauté scientifique pour étudier les bases cérébrales de ce comportement social qu’est la discussion.

Les participants voyaient, entendaient et parlaient en temps réel soit avec un humain (en haut à gauche), soit avec un robot conversationnel (à droite). En dessous, les régions plus actives pour les discussions avec l’humain sont indiquées en couleurs chaudes, et en couleurs froides les régions plus actives pour les discussions avec le robot. Sur la coupe, les flèches indiquent l’activité dans les noyaux gris centraux (en haut), les deux amygdales (en bas) et l’hypothalamus (au milieu). © Thierry Chaminade, Institut de neurosciences de la Timone (CNRS/AMU)

 

Bibliographie
Brain activity during reciprocal social interaction investigated using conversational robots as control condition. Birgit Rauchbauer, Bruno Nazarian, Morgane Bourhis, Magalie Ochs, Laurent Prévot and Thierry Chaminade. Phil Trans B, le 11 mars 2019. DOI : 0.1098/rstb/374/1771.

Source : cnrs

Un aérogel céramique ultraléger résistant aux chocs thermiques

Les aérogels en quelques mots

Les aérogels sont des mousses solides extrêmement légères, car elles sont constituées d’un réseau de porosités nanométriques. En plus d’être les solides les plus légers du monde (composés jusqu’à 99,8% d’air), les aérogels sont d’excellents isolants électriques, thermiques et soniques. Cependant, comme les aérogels sont des matériaux céramiques, leur point faible reste leur stabilité mécanique, principalement aux hautes températures.

Si les plus connus sont à base de silice (SiO2), il est par ailleurs possible de synthétiser de nombreux types d’aérogels céramiques, de type nitrures, carbures ou oxydes et même des aérogels polymères dont certains sont biosourcés : les bioaérogels.

Architecture unique et superelasticité

L’aérogel dont il est question ici n’est pas fait de silice, mais de nitrure de bore hexagonal (hBN), la forme cristalline thermodynamiquement stable à température ambiante du nitrure de bore. C’est de cette forme hexagonale, analogue à celle du graphite, que viennent les propriétés exceptionnelles de ce matériau. En effet, la structure de cet aérogel permet un certain « glissement » entre les nanofeuilles de hBN. Par conséquent, lorsque ce matériau est soumis à un effort en compression uniaxial, il est capable de se déformer de façon superélastique en retrouvant 95% de sa taille d’origine. Pour les plus sceptiques, voici une vidéo montrant le comportement du matériau durant les essais mécaniques de mise en compression.

Des propriétés thermiques exceptionnelles

Outre sa superelasticité, cet aérogel présente surtout des propriétés thermiques plus qu’intéressantes. Contrairement à beaucoup d’autres aérogels, il est capable de résister à des chocs thermiques intenses (montées et descentes de 275 °C par seconde) et à des températures de plus de 900 °C dans l’air et 1400 °C dans le vide, durant des temps d’exposition longs. Encore mieux : alors que les céramiques ordinaires ont tendance à s’allonger avec l’augmentation de la température, cet aérogel fait tout l’inverse : il se contracte avec l’échauffement, car il possède un coefficient de poisson négatif.

Les applications spatiales des aérogels

Les aérogels sont devenus célèbres grâce à la NASA, lors de la mission Stardust, dont l’objectif était la récupération de poussières issues de la comète Wild-2. Mais les applications spatiales potentielles de ce nouvel aérogel au nitrure de bore sont probablement bien plus vastes. En effet, sa résistance aux chocs thermiques et sa légèreté en font probablement le matériau idéal pour les rentrées et sorties atmosphériques des engins spatiaux.

Vers une nouvelle génération de matériaux ultralégers ?

Le professeur Duan, de l’Université de Californie à Los Angeles (UCLA) affirme que le procédé utilisé pour concevoir cet aérogel pourrait être utilisé pour la fabrication d’autres matériaux ultralégers. Cette nouvelle génération de matériaux pourrait ainsi s’avérer extrêmement utile pour le stockage de l’énergie thermique, la catalyse ou la filtration.

Source : https://phys.org/news/2019-02-ultra-lightweight-ceramic-material-extreme-temperatures.html#jCp

Brexit : des effets dévastateurs sur l’environnement ?

Dans les prochains jours, une sortie brutale du Royaume-Uni de l’Union européenne sera à prévoir. Les présentations de Theresa May devant le Parlement britannique se suivent et se ressemblent, et le scénario d’une sortie sans accord semble se préciser. Les analystes craignent que cette sortie soit notamment suivie par un marasme économique. Les écologistes craignent également que le fait de quitter l’Union européenne porte préjudice à l’environnement du pays. Une interrogation légitime lorsque l’on sait que 80 % des lois sur la pollution, le recyclage, les produits chimiques, ou encore le réchauffement climatique proviennent de l’Union européenne.

Après le départ du Royaume-Uni de l’Union européenne, plus rien n’obligera l’État insulaire à suivre les directives données par Bruxelles. Les défenseurs d’une politique environnementale forte craignent également qu’après le Brexit, le gouvernement soit totalement enferré dans d’autres problématiques et que la question de l’environnement soit laissée de côté. Une hypothèse partagée par Richard Black, directeur du think tank Energy and Climate Intelligence : « Si nous avons un Brexit sans accord, le gouvernement va être occupé par d’autres choses. »

Les ONG environnementales britanniques craignent le Brexit

Les mots de Theresa May et du ministre de l’Environnement Michael Gove sont toutefois plutôt rassurants. Ce dernier assure que le Brexit sera l’occasion pour le pays de « redessiner la politique environnementale qui assurera le même niveau de protection que celui garanti par l’Union européenne ». Et depuis l’an dernier, la Première ministre avait assuré que le Royaume-Uni continuerait de tenir ses « engagements envers la planète ». Par ailleurs, le gouvernement prévoit la création d’un Bureau pour la protection de l’environnement qui aura pour rôle d’apporter aux équipes gouvernantes des informations fiables et indépendantes. Il jouerait le rôle qu’assure actuellement la Commission européenne et prendrait ses fonctions en 2021.

Mais malgré ces assertions, les écologistes ne sont pas convaincus. Ils estiment que si le bureau est une initiative louable, il n’aura pas les moyens d’agir. Dans tous les cas, cet organisme ne jouera pas un rôle aussi contraignant que la Commission européenne sur le gouvernement britannique. Après le Brexit, le gouvernement désignera lui-même le directeur de ce bureau. C’est également le gouvernement qui le financera. En ce sens, la question de son indépendance pourrait légitimement être remise en question. Une configuration que déplore la militante de l’ONG Friends of the Earth Kierra Box. « Cela ne ressemble pas à l’organisation puissante qu’on nous avait promise » déplore-t-elle.

Le Brexit, une aubaine pour les entreprises pollueuses

Et la perplexité quant à la future action britannique pour l’environnement dépasse les frontières nationales. Les institutions européennes craignent que le Brexit entraîne un vide juridique qui empêcherait le Royaume-Uni de sanctionner les entreprises qui enfreindraient les lois environnementales. Des entreprises ont déjà commencé à faire pression sur le gouvernement, à l’instar d’Ineos. Selon The Guardian, la société pétrochimique menace de fermer son usine de Middlesbrough, causant ainsi la perte de 350 emplois, si elle devait continuer de respecter les directives européennes en termes de pollution de l’air et de l’eau.

Et il se pourrait fortement que les entreprises aient gain de cause. Le gouvernement leur a bien affirmé qu’une fois le Brexit acté, le pays ne serait plus soumis à la réglementation européenne. La gestion des déchets pourrait également être très fortement impactée, favorisant l’incinération ou l’enfouissement des déchets. Le déversement de produits chimiques dans les eaux ne serait pas impossible non plus. « L’inquiétude pourrait bien se produire: tout à coup, aux frontières de l’UE, vous avez un pays qui applique des normes insuffisantes en matière de législation environnementale ou sociale […] et nous ne pouvons rien faire. Ce n’est pas bon pour l’environnement » déclare anonymement un député européen.

Toujours plus de centrales à charbon, mais des projets en baisse

En 2018, 50,2 gigawatts (GW) de nouvelles capacités charbon, dont 34,5 GW en Chine, ont été mises en route dans le monde. C’est 20 % de moins qu’en 2017 et 53 % de moins qu’en 2015. À l’opposé, les capacités mises à l’arrêt ont augmenté : 30,9 GW, en hausse de 7 % par rapport à 2017. Malgré ces chiffres encourageants, la hausse nette des capacités mondiales atteint 19,4 GW sur l’année. Le nombre de centrales à charbon en activité demeure incompatible avec le maintien du réchauffement climatique à nettement moins de 2°C comme le stipule l’Accord de Paris, dénoncent Global Energy Monitor, Greenpeace et Sierra Club dans un nouveau rapport.

Plus de centrales mais moins de nouveaux projets

D’autres chiffres montrent le ralentissement des nouveaux projets. Ainsi, la mise en chantier de nouvelles constructions a atteint 28 GW, en baisse de 39 % par rapport à 2017 et de 84% par rapport à 2015. Les projets en phase de préconstruction (483 GW) ont pour leur part baissé de 24 % par rapport à 2017 et de 69% par rapport à 2015.

A l’opposé, un chiffre montre que tout n’est pas gagné. Les capacités des centrales charbon en cours de construction sont reparties à la hausse en 2018. Alors que le volume des constructions en cours était passé de 338 GW en 2015 à 209 GW en 2017, il atteint 236 GW en 2018.

Opposition mondiale, mais des financements asiatiques

Ces tendances reflètent un climat politique et économique de plus en plus contraint pour les promoteurs de centrales au charbon. Citons notamment des restrictions financières imposées par plus de 100 institutions et des plans d’élimination du charbon dans 31 pays. Cependant, les agences financières d’État en Chine, au Japon et en Corée du Sud sont devenues les sources de financement les plus importantes pour les centrales à charbon situées en dehors de leurs frontières.

Malgré la politique pro-charbon de Donald Trump et ses efforts pour ne pas fermer les centrales vieillissantes, les États-Unis concentrent la moitié des arrêts de centrales à charbon dans le monde en 2018. Sur l’année, 45 unités ont été arrêtées, soit 17,6 GW de capacités retirées. C’est le deuxième plus grand recul historique du pays.

La Chine fait encore exception

 La Chine est une exception frappante au ralentissement mondial du développement des centrales au charbon. Les promoteurs ont relancé la construction de dizaines de projets suspendus. Un rapport de mars 2019 du China Electricity Council, le représentant des services publics d’électricité du pays, propose de fixer le plafond de capacité de charbon du pays à 1 300 gigawatts en 2030. « Un niveau qui permettrait d’ajouter 290 gigawatts de nouvelle capacité, plus que l’ensemble du parc de charbon des États-Unis », regrettent les trois organisations. Soit de quoi autoriser des centaines de nouvelles unités.

« Une nouvelle vague de construction de centrales au charbon serait presque impossible à concilier avec les réductions d’émissions nécessaires pour éviter les pires effets du réchauffement planétaire, affirme Lauri Myllyvirta, expert de la division pollution atmosphérique de Greenpeace. Les objectifs énergétiques de la Chine ont une incidence plus importante sur les émissions mondiales que toute autre décision de politique nationale. »

Les deux tiers des dentifrices contiennent du dioxyde de titane

Deux tiers des dentifrices commercialisés en France contiennent du dioxyde de titane. Suite à une nouvelle étude, l’association Agir pour l’Environnement a établi une liste édifiante de 271 dentifrices dont la composition intègre cette substance qui comporterait un risque pour la santé. Ce sont ainsi deux dentifrices sur trois qui sont concernés, sur les 408 dentifrices commercialisés sur le marché français. Parmi ceux qui en contiennent, 25 sont estampillés « bio ». Et même un dentifrice pour enfants sur deux comporte dans sa composition cette substance controversée. Une information d’autant plus préoccupante qu’en janvier dernier, le gouvernement a confirmé l’interdiction de cet additif de tous les produits alimentaires. Le dioxyde de titane disparaîtra donc de tous les aliments en France dès mi-avril 2019.

Sur les emballages, la présence de dioxyde de titane est signalée par les dénominations E171 ou TiO2. Utilisé pour favoriser la blancheur et la brillance des produits, il se présente sous la forme d’une poudre blanche qui sert de colorant. La controverse liée à l’utilisation de ce produit est due à sa composition qui contient des nanoparticules. D’une taille inférieure à 100 nanomètres, les particules de dioxyde de titane pourraient s’infiltrer très facilement dans l’organisme. En 2017, l’Institut national de la recherche agronomique (INRA), avait rendu publique une étude confirmant que le dioxyde de titane favorisait la croissance de « lésions colorectales précancéreuses » chez le rat.

Le dioxyde de titane, un très répandu « cancérogène possible »

Cette étude menée sur le rat n’a cependant pas permis d’établir la dangerosité avérée du dioxyde de titane sur l’homme. Toutefois, des études pilotées par l’Agence de sécurité sanitaire (Anses) ont confirmé le passage des nanoparticules de TiO2 à travers la barrière hémato-encéphalique. Déjà en 2006, le Centre international de recherche sur le cancer (CIRC) avait reconnu le dioxyde de titane comme « cancérogène possible pour l’homme ». Or, à l’heure actuelle, la réglementation n’exige pas que la mention « nanoparticules » figure sur les emballages des produits concernés. C’est pourquoi Agir pour l’Environnement demande à la Direction générale de la répression des fraudes (DGCCRF) une enquête pour savoir « si l’absence de la mention nano sur l’étiquetage des dentifrices est justifiée ».

Pour Magali Ringoot, chargée de mission chez Agir pour l’Environnement, il est insensé que la substance soit interdite dans l’alimentation et pas dans les produits de toilette. Selon elle, « il serait incohérent de tolérer le dioxyde de titane dans les dentifrices alors qu’on l’interdit dans l’alimentation ». Agir pour l’Environnement a lancé une pétition dans le but d’étendre l’interdiction du dioxyde de titane à d’autres produits que les seules denrées alimentaires. Le dioxyde de titane est également présent dans l’enrobage des chewing-gums, et selon l’UFC-Que Choisir dans 4000 médicaments.

L’attention de l’association Agir pour l’Environnement se focalise particulièrement sur le dentifrice à cause du risque d’ingestion qu’il implique. Ce risque est d’autant plus fort chez les enfants, qui sont plus prompts que les adultes à avaler une petite quantité de dentifrice à chaque brossage de dents. Par ailleurs, Agir pour l’environnement s’est particulièrement penché sur le cas d’un dentifrice pour enfants, le « Signal kids goût fraise 2-6 ans ». Dans ce produit de la marque leader sur le marché français, 47% des particules de TiO2 sont inférieures à 100 nanomètres. Notons que le dioxyde de titane a essentiellement une utilité esthétique, pour atteindre un blanc éclatant.

Challenge Industrie du futur : comment fonctionne le partenariat entre les industriels et les startups ?

L’objectif du Challenge Industrie du futur est de mettre en contact des industriels expérimentés avec des startups innovantes qui proposent des solutions pour l’industrie 4.0. Kaoutar Sghiouer, product manager en Intelligence Artificielle chez Atos et mentor lors de la première édition du Challenge, nous explique comment fonctionne ce type de partenariat.

Comment se passe l’intégration des startups du Challenge avec Atos ?

Lors de la première édition du Challenge, j’accompagnais des startups spécialisées en intelligence artificielle. C’est mon domaine de compétences donc je pouvais vraiment apporter une valeur ajoutée. Le but est d’abord de bien comprendre les spécificités de leur projet et leurs objectifs. Ensuite, nous travaillons ensemble sur la façon d’intégrer la jeune entreprise aux propositions de valeur d’Atos. Il faut parfois revoir leur business model s’il n’est pas cohérent avec le marché ou si leur offre s’avère irréalisable. Après le Challenge, notre objectif est de concrétiser les partenariats et d’intégrer les startups à notre portfolio.

Pourquoi décider de travailler avec des jeunes entreprises ?

Quand il y a un besoin, deux solutions s’offrent à nous : soit investir et créer au sein d’Atos une entité chargée de développer une offre avec de nouvelles technologies, soit faire appel à des startups qui proposent déjà le service que nous recherchons. Avec cette deuxième option, nous avons directement affaire à des experts de leur domaine qui veulent relever des défis. Nous devons simplement les aider à se développer pour correspondre à nos attentes. Si travailler avec des startups est un investissement en termes de temps et d’argent, cela a beaucoup d’avantages. D’ailleurs, rien que dans la section « Intelligence Artificielle » d’Atos,  6 à 10 startups travaillent avec nous !

Et quels sont les avantages du côté des startups ?

De manière générale, c’est une relation gagnant-gagnant. Nous jouons en quelque sorte le rôle de parrain, et nous les aidons à adapter leurs offres. Les startups trouvent plus facilement des clients car la marque Atos rassure et crédibilise leur offre. Ainsi, les jeunes entreprises gagnent en visibilité et ont accès à notre réseau, ce qui a un impact positif sur leur chiffre d’affaires.

Le Parlement européen vote pour des véhicules moins polluants

L’Europe lance aux constructeurs automobiles un nouveau défi. Le 27 mars dernier, le Parlement européen a voté une baisse d’émissions de CO2 des véhicules neufs de 37,5 % par rapport à la limite de 2021. Soit une moyenne imposée par l’Europe de 59 g/km en 2030, contre 95 g/km de CO2 en 2021. Les utilitaires légers sont également concernés par la mesure, mais seront tenus à réduire leurs émissions de 30 % seulement.

La mesure a été largement adoptée, avec 521 députés qui ont voté pour. La décision du Parlement européen est plus ambitieuse que la recommandation de la Commission européenne qui demandait que la réduction pour les véhicules des particuliers ne soit que de 30 %. Un premier pallier est fixé pour 2025, date à laquelle les émissions de CO2 devront avoir reculé de 15 %.

Une voie ouverte vers les transports décarbonés

Le Parlement européen est bien décidé à faire respecter cette mesure. Par voix de communiqué, l’institution explique que « les constructeurs dont les émissions moyennes dépassent les limites devront payer une prime sur les émissions excédentaires ». Les parlementaires se laisseront ensuite jusqu’à 2023 pour savoir quoi faire des sommes générées par ces primes. La possibilité de les allouer à un fonds pour tendre vers une mobilité totalement décarbonée et assurer la formation des travailleurs du secteur automobile est envisagée.

Cette mesure a été adoptée en cohérence avec les objectifs posés par l’Accord de Paris et la limitation du réchauffement climatique. « Nous nous sommes fermement battus pour sauvegarder l’intégrité environnementale de la proposition et apporter de réels avantages en matière de santé, de consommation et d’innovation aux citoyens européens » expliquait Miriam Dalli, députée européenne (Parti travailliste) maltaise, après le vote. Cette dernière déclare également que cette issue reflète l’issue d’un bras de fer musclé qui a opposé les députés à l’industrie automobile et quelques États membres de l’Union.

Réformer un transport routier hyper-pollueur

Une telle réduction des gaz à effet de serre des véhicules des particuliers représentera une avancée majeure de ce secteur. Depuis les années 1990, le secteur automobile est le seul qui n’a pas encore opéré une baisse significative des émissions des gaz à effet de serre. L’Agence européenne pour l’environnement estime même qu’en 2016, 72,9% des émissions de dioxyde de carbone émises sur le continent sont liées au transport routier.

Le Parlement européen ne cantonne pas ses décisions aux véhicules à moteur thermique. Les députés affichent également leur souhait de voir se développer l’usage des véhicules « à émission nulle et à faibles émissions ». De plus, ces derniers rappellent que cette décision concernant les véhicules particuliers s’inscrit dans l’objectif européen du zéro émission de gaz à effet de serre d’ici 2050. Notons cependant que la nouvelle directive européenne devra être validée par les députés européens en session plénière et par les États membres de l’Union avant d’entrer officiellement en vigueur.

Le Sénat vote le projet de loi sur les mobilités

Large approbation pour le projet de loi sur l’orientation des mobilités au Sénat. Les sénateurs, qui ont eu le texte entre les mains avant les députés, ont voté pour le texte avec 248 voix sur 348. Le Sénat déclare que le vote a porté sur un texte « substantiellement amélioré par rapport au projet de loi initial ». Désormais, le texte s’apprête à partir à l’Assemblée nationale pour être adopté par les députés. Hervé Maurey, sénateur de l’Eure et président de la commission d’aménagement du territoire et du développement durable, espère que les points les plus forts du projet seront conservés par les députés.

« Si, d’aventure, ce texte devait finalement ne pas comporter de volet financier sérieux et ne pas prévoir d’aides concrètes allouées aux EPCI [établissements publics de coopération intercommunale] pour qu’ils exercent la compétence sur les mobilités, je ne les soutiendrais pas, et je ne serais sans doute pas le seul » indique Hervé Maurey. La volonté du Sénat est de désenclaver les territoires défavorisés par les réseaux de transports tout en intégrant des véhicules propres. Dans son intervention liminaire, le rapporteur Didier Mandelli s’était justement demandé : « Comment faire pour que la révolution des mobilités ne soit pas une machine de plus à créer des gagnants et des perdants, mais au contraire, une machine à désenclaver ? »

Collectivités et entreprises invitées à favoriser les transports verts

De nombreuses mesures font partie du projet, dont l’objectif est de tendre vers une réduction des véhicules polluants. Si le projet de loi est définitivement adopté avec les dispositions actuelles, les collectivités qui disposent de peu de moyens se verraient attribuer une partie de la taxe intérieure de consommation sur les produits énergétiques (TIPCE). Cela leur permettrait de couvrir les « zones blanches » de leurs territoires. Les collectivités territoriales se verraient également attribuer la gestion des « petites lignes ferroviaires d’intérêt local ». Sur tout le territoire, il y aura des « autorités organisatrices de la mobilité » dont l’objectif sera d’organiser les transports. Dans le même temps, dès 2021, les bus devront prévoir des emplacements pour les vélos.

Les entreprises sont également largement concernées par ce projet de loi. Celui-ci envisage de récompenser financièrement les entreprises qui développeront le télétravail. Les dirigeants pourront encourager leurs employés à choisir de faire leurs trajets domicile-travail à vélo ou en covoiturage. Sur la base du volontariat, les patrons pourront rembourser jusqu’à 400 euros des frais de déplacement des employés. Les entreprises devront également verdir leur parc automobile, tout comme les VTC, les taxis et les loueurs de voiture.

La Veille Personnalisée maintenant disponible sur le site Techniques de l’Ingénieur !

Ce nouveau service vous permet de rester en veille sur les sujets que vous choisissez. C’est un outil que nous mettons à votre disposition pour :

  • Être informé en temps réel.
  • Recevoir, dans un mail unique, toute l’information qui vous concerne.
  • Optimiser votre utilisation des documentations sélectionnées par Techniques de l’Ingénieur
  • Identifier les informations essentielles.
  • Suivre uniquement les sujets qui vous intéressent.

La Veille Personnalisée est accessible à tous les utilisateurs ayant un compte sur le site Techniques de l’Ingénieur. Elle se matérialise par la réception d’un mail, le lundi matin, regroupant toutes les nouvelles parutions  de la semaine précédente, de l’ensemble du site (Article de référence, Fiche pratique, Actualité, livre blanc, webinar, dossier, etc…).

Le fonctionnement de votre nouvel outil est facile et rapide. Rendez-vous dans votre espace personnel sur le site Techniques de l’Ingénieur. Dans la colonne de gauche, cliquez sur « Ma veille personnalisée ». Sélectionnez un ou plusieurs mots-clés dans le référentiel et chaque semaine, vous recevrez l’ensemble des contenus publiés par Techniques de l’Ingénieur sur ces sujets !

J’ai déjà un compte, je vais paramétrer ma veille personnalisée !

J’aimerais utiliser ce nouvel outil, je crée mon compte Techniques de l’Ingénieur !

L’UE pourrait réduire ses émissions de plus de 50% en 2030

Dans le cadre de l’Accord de Paris, l’Union européenne (UE) s’est fixé comme objectif de réduire ses émissions de gaz à effet de serre de 40 % d’ici 2030 par rapport à 1990. Une nouvelle étude du think tank britannique Sandbag montre que l’UE est déjà sur les rails pour réduire ses émissions d’au moins 50% en 2030. Cela, grâce à plusieurs mesures déjà adoptées. Entre autres, le paquet énergie propre, les mesures sur les transports et les annonces de sorties du charbon.

D’ici la COP26 de 2020, les pays signataires de l’Accord de Paris doivent fournir de nouveaux engagements climatiques. En effet, les contributions nationales actuellement sur la table mènent le monde vers un réchauffement climatique de 3°C en 2100 par rapport à l’ère préindustrielle. Insuffisant pour respecter l’accord qui vise de le limiter à 2°C, voire 1,5°C à cet horizon.

Une réduction des émissions européennes de 50 % à 58 % en 2030

Dans le cadre des discussions pour remonter l’ambition climatique européenne, Sandbag explique donc que l’engagement minimum de l’UE doit être d’« au moins 50% » en 2030. « Grâce aux futurs ajustements des politiques climatiques, une réduction des émissions de gaz à effet de serre de 58 % d’ici 2030 est possible », estime le think thank. Pour remonter l’ambition, il est envisageable de jouer sur cinq leviers : les dates d’élimination du charbon, l’efficacité énergétique, la pénétration des énergies renouvelables, la pénétration des véhicules électriques et la tarification du carbone. Il serait même possible d’aller encore plus loin « si d’autres mesures ou des changements plus ambitieux sont envisagés ».

Lumière sur les trois scénarios étudiés avec des baisses d’émissions de 50 % à 58 % selon les ambitions retenues sur 5 critères. Source : Sandbag.

Mais à ce stade, les États membres de l’UE se sont montrés incapables de s’accorder sur la nécessité de relever l’objectif européen pour 2030 (NDC), malgré une prise de position du Parlement pour -55%. Afin de ne pas rater ce rendez-vous, le secrétaire général des nations unies appelle les différents leaders à venir au sommet climatique des nations unies à New York, en septembre prochain, « avec des plans concrets et réalistes en vue de relever leurs objectifs climatiques d’ici 2020 ».

A Nantes, le CSTB fait de nouveau la pluie et le beau temps…

Depuis 1990 la soufflerie Jules Verne du CSTB, à Nantes, permet aux industriels de tous secteurs et de tous pays de tester leurs produits à l’échelle 1 ou légèrement réduit face aux intempéries : pluies, neige, grêle, brouillard, cyclones ou encore températures extrêmes. Dès 2013, une réflexion est engagée pour la moderniser et l’agrandir. Le projet se concrétise en 2018 pour un budget de 8,5 millions d’euros (infrastructures et renouvellement de l’instrumentation) financés à 50 % par le CSTB et à 50 % par la région Pays de la Loire et le FEDER. Cette rénovation vient de s’achever après un an de grands travaux nécessitant sa fermeture. Implantée sur 6000m², la soufflerie s’articule désormais sur 5 veines d’essais : thermique, atmosphérique, aéraulique, aérodynamique (vent jusqu’à 280km/h) et une nouvelle veine aéroacoustique. Cette dernière permet notamment de tester les bruits émergents de plus de 70dBA (au-dessus du fond sonore de la ville). Simultanément aux écoulements d’air, la soufflerie peut aussi recréer les effets d’ensoleillement de type tropical, de froid ou de chaud (de -32°C à +55°C) grâce à son circuit thermique. Cela permet de restituer le rayonnement solaire et son flux radiatif ou encore différentes teneurs hygrométriques (par exemple 95 % d’humidité pour des températures de 30 à 35°C typique des climats tropicaux). Que ce soit pour des drones militaires, pour des ponts suspendus, pour des trains ou encore pour des panneaux solaires, la soufflerie Jules Verne est réputée au niveau international tant pour ses équipements que pour l’expertise des quelques 80 salariés du site.

Des nouveautés qui vont faire du bruit

Outre l’allongement et l’élargissement de l’anneau dynamique équipé de six énormes ventilateurs (3200kW au total), la modernisation a aussi concerné les outils de mesure et les outils de simulation numérique en vue de développer de nouvelles applications et de conquérir de nouveaux clients. Ainsi, la soufflerie propose une approche numérique en parallèle de l’approche expérimentale : les essais peuvent être dimensionnés en amont et les résultats de modélisation physique obtenus en soufflerie peuvent être couplés aux résultats de simulation numérique pour une analyse fine et précise. Dans cette optique de développement d’outils innovants, le CSTB a notamment développé une application de réalité augmentée, CSTB Xperience, qui permet aux clients de rendre visible l’invisible en affichant les lignes d’émission qui matérialisent l’écoulement du vent ou encore d’afficher directement sur la maquette en soufflerie les résultats des mesures.

Parmi les nouvelles options proposées, la soufflerie s’est équipée d’aubages acoustiques qui offrent la possibilité d’étudier les nuisances sonores. Les acteurs du BTP pourront par exemple évaluer les nuisances sonores liées au vent sur la façade d’un bâtiment dès la phase de test de la résistance aérodynamique (qui teste le comportement face au vent) ce qui permettra de faire d’éventuels changements le plus en amont possible.

Des nouveautés pour un air plus sain

La veine aérodynamique a aussi été munie d’un dépoussiéreur. Il permet, lors des essais en soufflerie, d’étudier l’impact des chantiers, mines et carrières en termes de pollution de l’air et de tester des solutions d’aspiration/filtration des poussières.

La modernisation de la soufflerie vise aussi à la rendre parfaitement adaptée à l’émergence des énergies renouvelables. Ainsi, des systèmes gonflables et des équipements mobiles sont installés dans les veines et permettent d’en modifier la géométrie : les écoulements d’air reproduisent plus précisément la réalité du terrain comme pour la simulation d’un champ d’éolienne dont on voudrait étudier les performances en fonction de la disposition des éoliennes.

Dans le cadre du développement des nouvelles énergies, le CSTB a aussi accueilli un étudiant de thèse qui a travaillé sur les effets des sollicitations concomitantes du vent et de la houle sur des éoliennes flottantes à axe horizontal aboutissant à un nouveau type de flotteur.

Des nouveautés pour plus de sécurité

La soufflerie accueille aussi un nouveau banc d’essai à rouleau double essieu situé dans la veine thermique de la soufflerie. Il ouvre la possibilité de tester la résistance aux aléas climatiques de tous types de véhicules en roulage : voitures et camions jusqu’à 14 tonnes, y compris les véhicules hybrides ou tout électriques. Cet équipement vient améliorer l’expérience déjà forte en matière de test de sécurité pour les acteurs du transport : comportement des moteurs et du roulage par temps de neige et de froid sur les voitures, étude des phénomènes d’accrétion de neige ou de givre en entrée d’air des turbines de moteur d’hélicoptère, évaluation des sollicitations thermiques sur les organes de freinage des automobiles ou encore caractérisation aérodynamique des rames ferroviaires pour l’évaluation du risque de renversement…

Continuité assurée au secrétariat d’État au numérique

Mounir Mahjoubi, secrétaire d’État au numérique depuis l’élection d’Emmanuel Macron, a quitté le gouvernement vendredi 29 mars 2019 pour se consacrer aux élections municipales à Paris. Il est remplacé par Cédric O, jusqu’alors conseiller auprès du Président notamment pour les affaires numériques. Les têtes changent mais le cap reste le même avec pour objectif de soutenir les entreprises françaises évoluant dans les nouvelles technologies (French Tech), de réduire la fracture numérique et de poursuivre la numérisation de la société. L’occasion de faire un bilan de ces deux premières années de la politique du numérique sous la présidence d’Emmanuel Macron.

Soutien aux entreprises : French Tech et Start-up

Dès 2017, Mounir Mahjoubi s’engage dans un tour de France des start-up pour recueillir doléances et souhaits. Il en tire plusieurs propositions d’actions et engage différentes actions globales ou sectorielles autour de quatre grands thèmes – simplification de la vie des entrepreneurs, financement, recrutement, accompagnement dans l’expansion internationale – qu’il présente en mai 2018. Le soutien à l’écosystème des start-up françaises (French Tech) passe au sein du gouvernement par la Mission French Tech. Ces deux dernières années auront vu le lancement de la phase 2 avec des changements structurels (passage des métropoles French Tech aux communautés et Capitale French Tech), une simplification du French Tech Visa permettant d’accueillir des salariés étrangers avec des formalités réduites (gratuit, valable 4 ans, sans condition de diplômes…) et des fonds dédiés (3 M€ dans la loi de finance et un fonds French Tech Seed doté de 400 M€). En parallèle des actions économiques, des actions portent sur la diversité dans la tech avec les initiatives Femmes@Numérique et French Tech Tremplin qui encouragent la présence des femmes et la diversité sociale dans les start-up.

Réduction de la fracture numérique

  • La politique de transition numérique de la société passe par l’accès de tous aux outils et aux nouvelles technologies. Deux grands programmes ont été lancés :
    « France Num », à destination des TPE-PME qui sont peu nombreuses à avoir pris le virage du numérique. Lancé le 15 octobre 2018, il comprend notamment une plate-forme d’accompagnement, un référencement de conseillers et des prêts bancaires sans garantie pour les entreprises.
  • Le deuxième, à destination de la population en général, est constitué de la « stratégie nationale pour un numérique inclusif » dont une des premières concrétisations est le Pass Numérique : un service d’accompagnement doté d’une enveloppe de 6 M€ pour soutenir les initiatives visant à former, accompagner, équiper les 13 millions de Français utilisant peu ou pas l’Internet et éprouvant des difficultés face à ces outils.

Dématérialisation de l’État

Elle a réellement fait un bond en avant ces deux dernières années avec la mise en place opérationnelle de France Connect (portail d’identification numérique permettant d’accéder à tous les services publics avec un seul et même identifiant et qui s’ouvre aux entreprises privées assurant des services au public). Cette numérisation, qui s’est parfois faite à marche forcée, a cependant enregistrée son lot de dysfonctionnements, à l’instar des émissions de carte grise qui ont pris plusieurs mois de retard. Des ratés dont l’État doit encore tirer les enseignements, tant du point de vue de la mise en place pour le public que pour le fonctionnement des services où les tensions ont été exacerbées.

Les chantiers qui attendent Cédric O

Outre la continuité des actions déjà entamées, Cédric O devra s’emparer de plusieurs chantiers, notamment européens :

  • La mise en place du règlement européen « Platform to business – P2B » adopté mi-février 2019 au niveau européen et qui va encadrer les relations entre les grandes plates-formes de commerce en ligne avec leurs fournisseurs (PME notamment) pour éviter les pratiques déloyales et apporter plus de transparence sur les suspensions de compte, méthodes de mise en avant des produits etc. Des thématiques abordées dans la charte e-commerce signée la semaine dernière par de grandes places de marché numérique présentes en France (LeBonCoin, Darty-Fnac, Rakuten) pour s’engager auprès des TPE-PME françaises mais de laquelle est absente Amazon et Alibaba.
  • Assurer le positionnement de la France sur le règlement ePrivacy en discussion au niveau européen. Portant sur la protection des données privées, son contenu est décrié autant par les représentants des internautes que par les acteurs de l’Internet.
  • Placer la France au cœur du numérique international avec des opérations de communication comme la deuxième édition de « Tech for Good » en mai. Ce mini-sommet avait, l’an dernier, réuni une cinquantaine de grands patrons du numérique (dont Mark Zuckerberg pour Facebook ou Satya Nadella pour Microsoft) autour d’Emmanuel Macron. C’était déjà l’œuvre de Cédric O dont le carnet d’adresses sert justement depuis deux ans à gérer les relations entre les GAFA et l’Elysée.

Car Cédric O, bien qu’inconnu du public, est dans les rouages de la politique depuis plus de 10 ans. A 37 ans, ce diplômé d’HEC est passé par de grandes entreprises comme Safran et a été conseiller auprès de Pierre Moscovici, de Dominique Strauss-Khan, de François Hollande et d’Emmanuel Macron. Il a notamment été trésorier de l’association de financement de la campagne du président et fait partie de l’exécutif d’En Marche. Sa sœur, Delphine O, spécialiste des relations internationales, notamment au Moyen-Orient est députée suppléante de… Mounir Mahjoubi à la 16e circonscription de Paris. Elle siège donc depuis qu’il a intégré le gouvernement.

L’open source : des failles qui se multiplient

Fin février, le Cert-fr (Centre gouvernemental de veille et d’alerte aux attaques informatiques) a publié un avis sur une vulnérabilité dans les versions d’OpenSSL 1.0.2x antérieures à la 1.0.2r.

Si cette faille est dite « modérée », cet avis reste néanmoins important, car cette bibliothèque open source de chiffrement est très largement utilisée par les développeurs pour mettre en œuvre le protocole de communication sécurisée TLS et son prédécesseur SSL.

De son côté, l’équipe de recherche en cybersécurité de RIPS Technologies GmbH a publié le 19 février 2019 un bulletin dans lequel est révélée l’existence d’une nouvelle vulnérabilité WordPress. Cette attaque, peu complexe à mettre en œuvre, concerne ce système de gestion de contenu (CMS) gratuit, libre et open source qui est en écrit en PHP.

 Navigateurs : alerte générale !

Ces deux failles confirment que l’open source n’est pas épargné par les vulnérabilités. Il faut néanmoins préciser que le nombre de failles est plus élevé du côté des logiciels propriétaires de Google (android), d’Adobe (Acrobat reader) et de Microsoft. Et la situation n’est pas très encourageante.

« En 2018, le nombre de vulnérabilités a dépassé celui de l’année précédente, avec une augmentation de 12 % du nombre total de vulnérabilités publiées en 2017 », constate Skybox Security, leader mondial en matière d’opérations, d’analyse et de reporting dans le domaine de la cybersécurité. La situation est surtout préoccupante avec les navigateurs dont le nombre de failles ne cesse de croître.

Manque de temps

Pour revenir à l’Open source, il est inquiétant de constater une augmentation de 88 % des vulnérabilités des bibliothèques d’applications open source au cours des deux dernières années. Dans son deuxième rapport, « The State of Open Source Security 2019 », la société de sécurité open source Snyk a répertorié 16 000 nouvelles vulnérabilités en 2018. Un record historique.

« Plus nous utilisons des logiciels libres, plus nous accumulons de risques, car nous incluons le code de quelqu’un d’autre qui pourrait potentiellement contenir des vulnérabilités maintenant ou à l’avenir », note Liran Tal, auteur du rapport Snyk.

Si tout le monde a plus ou moins conscience des risques, c’est la volonté et le manque de temps qui semble le plus inquiétant. Selon l’enquête DevSecOps de Sonatype (5 500 professionnels de l’IT interrogés), près de la moitié des développeurs de logiciels libres ont déclaré qu’ils croyaient que la sécurité devait être une priorité, mais qu’ils « n’avaient pas assez de temps à y consacrer ».

Survivre au péril plastique : des solutions à tous les niveaux

Où est le plastique qui disparaît de la surface des océans ?

Commençons par un rappel basique : les plastiques qui flottent sont ceux qui ont une densité inférieure à celle de l’eau, comme le polyéthylène, le polypropylène et le polystyrène expansé, notamment utilisés dans les emballages alimentaires à usage unique. Sont également concernés les objets chargés d’air, comme les bouteilles ou les briquets. En théorie, plus de la moitié du plastique rejeté chaque année dans les océans répond à ces critères. Toutefois, seulement 270000 tonnes de plastiques flottent dans les océans, ce qui représente entre 2% et 6% du déversement annuel. La grande majorité se trouve en-dessous de la surface : les scientifiques estiment qu’il y aurait au moins 150 millions de tonnes de plastiques réparties dans les océans.

Lorsqu’ils arrivent en mer, la moitié des déchets coule aussitôt, l’autre moitié flotte pendant quelques mois. Nous allons nous consacrer, dans un premier temps, à cette fraction flottante. Les déchets les plus rigides vont résister à la dégradation pendant plusieurs années, mais les plus fragiles et les moins épais vont se dégrader rapidement et relâcher des microplastiques et des nanoplastiques. Nous l’avons déjà dit, lorsque les scientifiques font leurs prélèvements avec des filets Manta, ils ne mesurent que les particules de plus de 0,33 mm. Très peu d’études ont fait des tests en mer avec des filets à plancton de mailles de 0,08 mm. Il s’agit là d’une première explication : une partie des déchets flotte bien sous une toute petite forme, mais le poids de cette portion reste inconnu.

Des plastiques qui se répartissent dans la colonne d’eau, les animaux et les glaces

Par la suite, quelle que soit leur taille, une partie des déchets est rapidement ingérée par diverses espèces marines. Ils se retrouvent ainsi dans leurs glandes digestives, dans leurs tissus ou bien sont rejetés sous forme d’excréments. La part absorbée par les espèces aquatiques demeure incertaine : les habitants de la mer seraient-ils devenus des réservoirs de plastique ? Une autre portion du plastique flottant se trouve emprisonnée dans les glaces de l’Arctique et de l’Antarctique. En faisant fondre des échantillons de la banquise arctique, des chercheurs allemands ont ainsi trouvé jusqu’à 12000 microplastiques dans un seul litre d’eau. Au total, 17 sortes de plastiques ont été retrouvées et 67% des particules détectées dans la glace mesuraient moins de 0,05 mm. Enfin, une dernière fraction du plastique est rejetée sur les plages et les côtes du monde entier.

Au fur et à mesure de leur dérive, les plastiques flottants qui n’ont pas été avalés sont colonisés par des micro-organismes et s’alourdissent. Les plus petits peuvent s’agréger ou s’enchevêtrer à d’autres molécules présentes dans le milieu marin. Leur densité augmente et il arrive un moment où elle devient supérieure à celle de l’eau. Les plastiques commencent alors à couler lentement. En fonction de leur nouvelle densité, ils se répartissent verticalement tout le long de la colonne d’eau, entre la surface et le fond. Ils peuvent alors y rester, être ingérés par d’autres organismes marins, ou se retrouver dans la neige marine – cette pluie continue de détritus marins qui tombe vers les abysses – et dans les sédiments. Le plastique connaît des mouvements incessants : lorsqu’il coule, il peut refaire surface ou être remis en suspension si sa densité se trouve à nouveau modifiée.

Des millions de tonnes dans les fonds des océans

Intéressons-nous désormais aux millions de tonnes qui coulent aussitôt, la fraction constituée des plastiques les plus lourds, ceux qui ont une densité supérieure à l’eau. François Galgani, chercheur à l’Ifremer et spécialiste des déchets plastiques, indique qu’il pourrait y avoir entre 71 et 116 milliards de gros débris plastiques dans le fond des océans et des mers, sans prendre en compte les microplastiques, d’une taille inférieure à 5 mm. Les scientifiques doivent désormais faire des estimations plus précises, notamment pour en déterminer le poids et mieux estimer leur localisation. Des dizaines de millions de tonnes sont transportées par les courants et finissent dans les fonds marins, les fosses océaniques ou les canyons sous-marins. Certaines fosses atteignant plus de 10 000 mètres de profondeur, une quantité impressionnante de plastiques pourrait s’y déposer.

Vingt-trois fosses océaniques ont, à l’heure actuelle, été répertoriées dans le monde. La fosse des Mariannes, située dans le nord-ouest du Pacifique, est la plus grande d’entre elles. Elle mesure 2500 km de long, 70 km de large et a une profondeur de plus de 11000 mètres. Il s’agit d’une zone largement inexplorée, où peuvent s’accumuler des déchets. Ajoutons-y des milliers d’autres canyons sous-marins propices au dépôt de plastiques. En revanche, il serait faux d’imaginer le fond des océans comme un tapis de déchets. Pour que les plastiques s’accumulent, « ils doivent rencontrer des obstacles comme des épaves, des rochers, des trous, des rigoles ou tout autre fosse« , explique François Galgani. Il est envisageable que des déchets se concentrent dans des zones à faible courant ou de forte sédimentation, mais la majorité des déchets qui ont coulé se trouverait loin des regards, dans les fosses océaniques.

Présentation du livre

« Survivre au péril plastique » dresse un tableau complet de la production, de l’utilisation, de la gestion et de l’avenir des plastiques. La pollution engendrée par ces matériaux est planétaire. Elle envahit les mers et les océans du monde, les rivières, la terre et l’air. Les gros déchets contaminent, étouffent et tuent les animaux. Les plus petits font de même sur une multitude d’espèces. Différents fragments de plastique se retrouvent inexorablement dans notre assiette et nous en ingérons au quotidien. Ils relâchent des perturbateurs endocriniens dans notre corps. Le constat est sans appel et incite à mettre en place des solutions rapidement.

L’ouvrage fait ainsi le tour des solutions pour nettoyer les eaux, créer des filières de transition, arrêter à la source les rejets dans l’environnement, valoriser 100 % des plastiques et repenser leur usage. Ces solutions sont mises en place par des entreprises, startups, collectivités, ONG et citoyens. Le monde politique joue également un rôle important.

Matthieu Combe a fondé le webzine Natura-sciences.com en 2009. Il collabore régulièrement avec Techniques de l’ingénieur. Son premier livre «Consommez écologique» est paru en 2014 aux éditions Sang de la Terre.

Le livre est disponible depuis le 21 mars chez votre libraire ou sur les plateformes de vente en ligne.

La fin de la galère avec les mots de passe ?

Annoncé pour la première fois par le W3C et l’Alliance FIDO en novembre 2015, WebAuthn est maintenant une norme d’authentification qui ambitionne de remplacer le mot de passe pour sécuriser nos comptes en ligne. « Cette avancée est un grand pas en avant pour rendre le Web plus sûr – et utilisable – pour les utilisateurs du monde entier », a déclaré le W3C dans son communiqué de presse.

 WebAuthn est une interface. C’est ce qu’on appelle une API. Cette Application programming interface utilise une cryptographie asymétrique (à clé publique) au lieu de mots de passe ou de textes SMS pour l’enregistrement, l’authentification et l’authentification à double facteur avec les sites Web.

Sécurité et simplicité

Cela résout les problèmes de sécurité importants liés à l’hameçonnage (phishing), aux fuites de données et aux attaques visant les solutions à double facteur d’authentification tout en augmentant considérablement la facilité d’utilisation. Les utilisateurs n’ont plus à gérer des dizaines de mots de passe toujours plus complexes (mots de passe dits « forts » pour être plus difficiles, voire impossibles, à deviner).

WebAuthn peut se présenter sous la forme d’une clé de sécurité FIDO (de l’Alliance du même nom, Fast IDEntity Online) à connecter au port USB d’un ordinateur. Ce standard peut aussi être utilisé avec la reconnaissance digitale, faciale…

Ce standard pour navigateurs (ordinateurs et smartphones) et plateformes en ligne est déjà pris en charge par Windows 10 et Android, ainsi que par Google Chrome, Mozilla Firefox (qui avait commencé à la supporter dès avril 2018), Microsoft Edge et Apple Safari (preview).

Les services et applications Web commencent à activer cette fonctionnalité. WebAuthn est déjà implémenté sur des sites tels que Dropbox, Facebook, GitHub, Salesforce, Stripe et Twitter.

TOP 5 : les articles les plus lus #mars2019

Laval Virtual 2019 : le suivi rétinien, nouvelle tendance des casques de réalité virtuelle

Le suivi rétinien se répand dans un nombre croissant de casques de réalité virtuelle, améliorant la netteté de l’image là où c’est nécessaire. Illustration avec le VR-1 de Varjo, présenté à Laval Virtual.

 

Brexit : quel impact sur la communauté scientifique et technique ?

En pleine tempête du Brexit, la communauté scientifique s’interroge : quelles seront les conséquences à moyen et long terme ? Zoom sur la filière nucléaire avec le retrait d’Euratom, REACH, impact sur les personnels, incertitudes des chercheurs et des étudiants européens, accès aux fonds et aux infrastructures communes de la recherche européenne…

 

Au secours, la France manque d’ingénieurs !

Le secteur des métiers de l’ingénierie devrait embaucher 50 à 60000 personnes par an entre 2018 et 2021. Mais, dans la première édition de son baromètre économique, Syntec-Ingénierie note un sous-effectif structurel qui atteint les 4 % et appelle à promouvoir en urgence la formation à ces métiers.

 

Flexibilité et 5G, maîtres-mots de l’édition 2019 du Mobile World Congress

Convoquée à la grand-messe de la téléphonie mobile, l’industrie a mis l’accent sur la 5G et les écrans flexibles, espérant relancer un marché en berne.

 

Une peinture permettant un refroidissement passif pour éviter la climatisation

Les systèmes d’air conditionné des bâtiments consomment chaque année 10% de l’électricité produite dans le monde. Heureusement la recherche avance et une équipe de chercheurs a mis au point une peinture permettant de refroidir les bâtiments de façon passive.

Par I. B.

Médecins et malades aspirent à un nouveau modèle agricole

« Il va devenir nécessaire de sortir des perturbateurs endocriniens et des pesticides ». Cette assertion de Paul François, président de l’association Phyto-Victimes, donne le ton. Une frange du corps médical partage son opinion. Cet agriculteur céréalier charentais de 55 ans est particulièrement sensible à la question des risques liés à l’exposition aux perturbateurs endocriniens. Il est lui-même malade. Il souffre de sérieux problèmes neurologiques causés par un contact avec un herbicide, le Lasso, commercialisé par Monsanto. Ce produit, désormais interdit à la vente, a causé de lourdes lésions cérébrales qui font endurer de forts maux de tête à l’agriculteur. Sans antidouleurs, la vie de Paul François serait impossible.

Les pesticides, poisons intergénérationnels

Plus récemment, l’homme a été opéré d’une tumeur à la thyroïde. « Les médecins disent que c’est peut-être une répercussion de l’exposition aux perturbateurs endocriniens » explique-t-il. Aujourd’hui, il continue de mener son combat juridique contre la firme américaine, qu’il tient pour responsable de son « empoisonnement ». Cette lutte, il la mène depuis douze ans. Mais même affaibli, il tient à continuer son combat, au nom de ses collègues agriculteurs, chez qui le nombre de cancers et autres lourdes maladies chroniques sont en constante augmentation. Pour lui, l’unique façon de mettre fin à ce cercle vicieux est de cesser l’épandage de produits phytosanitaires sur les exploitations agricoles.

Si Paul François mène activement son combat, c’est pour libérer la parole des agriculteurs et de leurs familles.

Autre fléau lié aux perturbateurs endocriniens : l’infertilité. « Chez les agriculteurs, c’est un sujet tabou, mais de plus en plus sont touchés » explique le céréalier charentais. Et lorsqu’ils ont des enfants, parfois même ces derniers souffrent. « Des enfants d’agriculteurs viennent aussi contacter l’association. Ce sont des victimes collatérales. Souvent, ces enfants ont aidé leurs parents à épandre des produits chimiques sur les parcelles. Ils ont participé aux semis, aux jalons. C’est ce qui les a rendus malades eux aussi » déclare Paul François.

Consommateurs et médecins, acteurs du changement

Autre sujet de discussion : les produits phytosanitaires sont-ils réellement efficaces ? Autour de Paul François, des scientifiques doutent. Selon eux, les parcelles traitées aux produits chimiques n’ont pas de meilleurs rendements que les autres. Ainsi, ils rappellent le fait que depuis 1995, les rendements des cultures de blé ont sensiblement baissé. De là à penser que les agriculteurs risquent leur santé pour peu, il ne reste qu’un pas. « C’est pourquoi il faut que les consommateurs favorisent le passage vers le bio » soutient Paul François. Mais cette transition doit se faire avec les agriculteurs, en accompagnant leur transition. Les défenseurs d’un changement de modèle agricole aimeraient voir émerger une politique claire. Elle permettrait ainsi d’accompagner les agriculteurs durant les années de conversion.

Cependant, ils ne sont pas les seuls à avoir un rôle capital à jouer. Les médecins sont également appelés à agir activement pour la sensibilisation du public. Pierre-Michel Périnaud, médecin généraliste et président de l’association l’Alerte des médecins, affirme que la profession doit savoir garder sa neutralité. Pour lui comme pour d’autres, le corps médical ne devrait pas distribuer de produits faisant la promotion d’un groupe pharmaceutique. Cela concerne notamment les services de maternité, qui distribuent du lait infantile non bio. Pour les militants de la suppression des produits phytosanitaires, cela s’apparente à de la promotion de produits potentiellement néfastes pour la santé. « Or, il faut arrêter la propagande », termine Paul François.